JP2012203612A - Image processing method and image processing device - Google Patents

Image processing method and image processing device Download PDF

Info

Publication number
JP2012203612A
JP2012203612A JP2011067053A JP2011067053A JP2012203612A JP 2012203612 A JP2012203612 A JP 2012203612A JP 2011067053 A JP2011067053 A JP 2011067053A JP 2011067053 A JP2011067053 A JP 2011067053A JP 2012203612 A JP2012203612 A JP 2012203612A
Authority
JP
Japan
Prior art keywords
mark
specifying
image processing
polar coordinate
coordinate conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011067053A
Other languages
Japanese (ja)
Inventor
Kimiko Higa
公子 比嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2011067053A priority Critical patent/JP2012203612A/en
Priority to KR1020120030594A priority patent/KR20120109420A/en
Priority to CN2012100822257A priority patent/CN102753003A/en
Publication of JP2012203612A publication Critical patent/JP2012203612A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

PROBLEM TO BE SOLVED: To identify marks in various shapes.SOLUTION: An image processing method is implemented for identifying a mark M attached to an electronic component C or a basal plate K by captured image data of the mark M, when mounting the electronic component C on the basal plate K. The method includes: a center location step for locating a center position of the mark M based on the captured image data of the mark M; a data conversion step for acquiring polar conversion data of the captured image data of the mark M based on the center position of the mark M; and a shape discrimination step for discriminating a shape of the mark M based on a feature of a shape of a boundary line between a background in the polar conversion data and the mark M.

Description

本発明は、マークを判別するための画像処理方法及び画像処理装置に関するものである。   The present invention relates to an image processing method and an image processing apparatus for determining a mark.

二次元的又は立体的なマークを撮像し、その撮像画像データを画像処理にかけてマークの識別等を行う技術は、例えば、基板に電子部品を実装する電子部品実装装置の分野に応用されている。電子部品実装装置に用いられる画像処理装置では、電子部品に極性を示すために、部品の角部に極性判別可能なボール、ランド等の立体的なマークもしくは平面的なマーク(以下これらを極性判別マークとする)が形成されており、実装時にこれらを撮像することで、電子部品の極性を特定し、部品の向きの正誤の判定や実装における電子部品の向きの修正を行っている。
上記画像処理装置では、極性判別マークの形状の判別方法として正規化相関マッチングを採用している。
A technique for capturing a two-dimensional or three-dimensional mark and performing image processing on the captured image data to identify the mark is applied to, for example, the field of electronic component mounting apparatuses that mount electronic components on a substrate. In an image processing apparatus used in an electronic component mounting apparatus, in order to indicate the polarity of an electronic component, a three-dimensional mark or a planar mark such as a ball or a land that can determine the polarity at a corner of the component (hereinafter, these are polarity-detected) These are imaged during mounting to identify the polarity of the electronic component, determine the correctness of the component orientation, and correct the orientation of the electronic component during mounting.
The image processing apparatus employs normalized correlation matching as a method for determining the shape of the polarity determination mark.

例えば図28(A)に示す四角形の極性判別マーク(■)と図28(B)に示された円形の極性判別マーク(●)の形状判別の場合、四角形の極性判別マークと円形の極性判別マークのそれぞれのモデルテンプレートを予め用意し、これと極性判別マークの撮像画像データとの相関量で該当マークの形状が四角形であるか円形であるかを判別することが行われている。
しかしながら、マークサイズが小さくなると、正規化相関マッチングでは判別しきれない場合があることから、上記従来の画像処理装置では、さらに、撮像画像データの拡大処理を行った上で輪郭情報を取得し、円形度の算出を行ったり、輪郭点の勾配ベクトルをモデルと照合して形状判別したりすることで、上記問題の解決を図っている(例えば、特許文献1参照)。
For example, in the case of the shape discrimination between the square polarity discrimination mark (■) shown in FIG. 28A and the circular polarity discrimination mark (●) shown in FIG. 28B, the square polarity discrimination mark and the circular polarity discrimination mark are shown. Each model template of the mark is prepared in advance, and it is determined whether the shape of the mark is a square or a circle based on the amount of correlation between the model template and the captured image data of the polarity determination mark.
However, since the normalized correlation matching may not be able to be determined when the mark size is reduced, the conventional image processing apparatus further acquires the contour information after performing the enlargement process of the captured image data, The above problem is solved by calculating the circularity or determining the shape by comparing the gradient vector of the contour point with the model (see, for example, Patent Document 1).

特開2006−112930号公報JP 2006-112930 A

しかしながら、上記特許文献1の先行技術は、マークの識別に際し、マークの円形度を指標とすることから、マークが円形かそれ以外かの判定に限られ、種々の形状のマークを個々に識別することができなかった。   However, since the prior art of Patent Document 1 uses the circularity of the mark as an index when identifying the mark, it is limited to the determination of whether the mark is circular or not, and marks of various shapes are individually identified. I couldn't.

また、電子部品実装の分野では、電子部品の極性判別に限らず、基板上に配される位置決め用マーク(以下、基板マークとする)に対しても撮像画像の画像処理を行い、各種の判別を行っている。
基板マークは、欠けや汚れで綺麗なマーク画像を得られない場合や基板によってはマークサイズのばらつきが生じている場合がある。こういった場合でも基板マークと同形状のモデルマークと正規化相関マッチングを行うことで位置決めを行うことは可能であるが、位置決め精度の低下は避けられなかった。このため、マークのサイズや向きを正確に識別することができなかった。
Also, in the field of electronic component mounting, not only the polarity determination of electronic components, but also various kinds of determinations are made by performing image processing of captured images on positioning marks (hereinafter referred to as substrate marks) arranged on a substrate. It is carried out.
The substrate mark may be chipped or dirty so that a beautiful mark image cannot be obtained, or the mark size may vary depending on the substrate. Even in such a case, positioning can be performed by performing normalized correlation matching with a model mark having the same shape as the substrate mark, but a decrease in positioning accuracy is inevitable. For this reason, the size and direction of the mark cannot be accurately identified.

本発明は、種々の形状のマークの識別を可能とすることをその目的とする。
また、本発明は、マークに欠けや汚れ等がある場合でも、精度良くサイズ又は向きを認識することを可能とすることをさらなる目的とする。
An object of the present invention is to enable identification of marks having various shapes.
Another object of the present invention is to make it possible to recognize the size or orientation with high accuracy even when the mark is chipped or dirty.

請求項1記載の発明は、電子部品を基板に実装する際に、前記電子部品又は基板に付されたマークを撮像した撮像画像データによるマークの識別に用いられる画像処理方法であって、
前記マークの撮像画像データから当該マークの中心位置を特定する中心特定工程と、
前記マークの中心位置から前記マークの撮像画像データの極座標変換データを取得するデータ変換工程と、
前記極座標変換データにおける背景と前記マークとの境界線の形状的特徴からマークの形状を判別する形状判別工程と備えることを特徴とする。
The invention according to claim 1 is an image processing method used for identifying a mark based on captured image data obtained by imaging a mark attached to the electronic component or the substrate when the electronic component is mounted on the substrate,
A center specifying step of specifying the center position of the mark from the captured image data of the mark;
A data conversion step of obtaining polar coordinate conversion data of captured image data of the mark from the center position of the mark;
And a shape determining step of determining the shape of the mark from the shape characteristic of the boundary line between the background and the mark in the polar coordinate conversion data.

請求項2記載の発明は、請求項1記載の発明と同様の構成を備えると共に、前記極座標変換データにおける背景と前記マークとの境界線において、極座標の動径方向について極値となる特徴点又は先鋭形状の頂点となる特徴点を複数決定する第一の特徴点特定工程と、
前記複数の特徴点を二次元座標系に逆変換する逆変換工程と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定工程とを備えることを特徴とする。
The invention according to claim 2 has the same configuration as that of the invention according to claim 1, and at the boundary line between the background and the mark in the polar coordinate conversion data, a feature point or an extreme value in the radial direction of polar coordinates A first feature point specifying step for determining a plurality of feature points to be the apex of the sharp shape;
An inverse transformation step of inversely transforming the plurality of feature points into a two-dimensional coordinate system;
And a morphological element specifying step for obtaining the size or orientation of the mark from the two-dimensional coordinates of the plurality of feature points.

請求項3記載の発明は、請求項1記載の発明と同様の構成を備えると共に、前記極座標変換データにおける背景と前記マークとの境界線におけるエッジ勾配ベクトルからノイズ部分を特定するノイズ特定工程を備えることを特徴とする。   The invention described in claim 3 has the same configuration as that of the invention described in claim 1, and further includes a noise specifying step of specifying a noise portion from an edge gradient vector on a boundary line between the background and the mark in the polar coordinate conversion data. It is characterized by that.

請求項4記載の発明は、請求項3記載の発明と同様の構成を備えると共に、前記極座標変換データにおける背景と前記マークとの境界線において、前記ノイズ部分を除く範囲内のいずれかに位置する複数の点からなる特徴点を特定する第二の特徴点特定工程と、
前記複数の特徴点を二次元座標系に逆変換する逆変換工程と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定工程とを備えることを特徴とする。
The invention described in claim 4 has the same configuration as that of the invention described in claim 3, and is located within a range excluding the noise portion on the boundary line between the background and the mark in the polar coordinate conversion data. A second feature point identifying step for identifying a feature point composed of a plurality of points;
An inverse transformation step of inversely transforming the plurality of feature points into a two-dimensional coordinate system;
And a morphological element specifying step for obtaining the size or orientation of the mark from the two-dimensional coordinates of the plurality of feature points.

請求項5記載の発明は、電子部品を基板に実装する際に、前記電子部品又は基板に付されたマークを撮像した撮像画像データによるマークの識別に用いられる画像処理装置であって、
前記マークの撮像画像データから当該マークの中心位置を特定する中心特定手段と、
前記マークの中心位置から前記マークの撮像画像データの極座標変換データを取得するデータ変換手段と、
前記極座標変換データにおける背景と前記マークとの境界線の形状的特徴からマークの形状を判別する形状判別手段と備えることを特徴とする。
The invention according to claim 5 is an image processing apparatus used for identifying a mark by captured image data obtained by imaging the electronic component or a mark attached to the substrate when the electronic component is mounted on the substrate,
Center specifying means for specifying the center position of the mark from the captured image data of the mark;
Data conversion means for obtaining polar coordinate conversion data of the captured image data of the mark from the center position of the mark;
Shape determining means for determining the shape of the mark from the shape characteristic of the boundary line between the background and the mark in the polar coordinate conversion data is provided.

請求項6記載の発明は、請求項5記載の発明と同様の構成を備えると共に、前記極座標変換データにおける背景と前記マークとの境界線において、極座標の動径方向について極値となる特徴点又は先鋭形状の頂点となる特徴点を複数特定する第一の特徴点特定手段と、
前記複数の特徴点を二次元座標系に逆変換する逆変換手段と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定手段とを備えることを特徴とする。
The invention described in claim 6 has the same configuration as that of the invention described in claim 5, and at the boundary line between the background and the mark in the polar coordinate conversion data, a feature point that is an extreme value in the radial direction of polar coordinates or A first feature point specifying means for specifying a plurality of feature points to be apexes of a sharp shape;
Inverse transformation means for inversely transforming the plurality of feature points into a two-dimensional coordinate system;
And morphological element specifying means for obtaining the size or orientation of the mark from two-dimensional coordinates of the plurality of feature points.

請求項7記載の発明は、請求項5記載の発明と同様の構成を備えると共に、前記極座標変換データにおける背景と前記マークとの境界線におけるエッジ勾配ベクトルからノイズ部分を特定するノイズ特定手段を備えることを特徴とする。   The invention described in claim 7 has the same configuration as that of the invention described in claim 5, and further includes noise specifying means for specifying a noise portion from an edge gradient vector on a boundary line between the background and the mark in the polar coordinate conversion data. It is characterized by that.

請求項8記載の発明は、請求項7記載の発明と同様の構成を備えると共に、前記極座標変換データにおける背景と前記マークとの境界線において、前記ノイズ部分を除く範囲内のいずれかに位置する複数の点からなる特徴点を特定する第二の特徴点特定手段と、
前記複数の特徴点を二次元座標系に逆変換する逆変換手段と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定手段とを備えることを特徴とする。
The invention described in claim 8 has the same configuration as that of the invention described in claim 7, and is located anywhere within the range excluding the noise portion on the boundary line between the background and the mark in the polar coordinate conversion data. A second feature point specifying means for specifying a feature point composed of a plurality of points;
Inverse transformation means for inversely transforming the plurality of feature points into a two-dimensional coordinate system;
And morphological element specifying means for obtaining the size or orientation of the mark from two-dimensional coordinates of the plurality of feature points.

請求項1及び5記載の発明は、マークの撮像画像データを極座標変換し、極座標変換データにおける背景とマークとの境界線の形状的特徴からマークの形状を判別することから、種々のマーク形状について顕著な形状的特徴を容易に抽出することができ、円形か否かの判定に限らず、多彩な形状のマークの識別することが可能である。
また、マークの形状判別において、正規化相関マッチングを必ずしも必要とはしないので、マークの形状の種類が多岐に渡る場合に、全てのマーク形状とのマッチング演算を行う必要がなく、処理時間の短縮化を図ることが可能となる。
According to the first and fifth aspects of the present invention, the captured image data of the mark is subjected to polar coordinate conversion, and the shape of the mark is determined from the shape characteristic of the boundary line between the background and the mark in the polar coordinate conversion data. Remarkable shape features can be easily extracted, and it is possible to identify marks of various shapes without being limited to determining whether or not the shape is circular.
In addition, since normalized correlation matching is not always required for mark shape discrimination, matching processing with all mark shapes is not necessary when there are a wide variety of mark shapes, reducing processing time. Can be achieved.

請求項2及び6記載の発明は、極座標変換データにおける背景とマークとの境界線における山形状部又は谷形状部となる複数の特徴点を特定し、当該特徴点を二次元座標に戻すことにより、マークの形状的な特徴点となる位置を精度良く抽出することができ、これらの特徴点位置から精度良く、マークの大きさ又は向きを求めることが可能となる。   The inventions of claims 2 and 6 identify a plurality of feature points that are mountain-shaped portions or valley-shaped portions in the boundary line between the background and the mark in the polar coordinate conversion data, and return the feature points to two-dimensional coordinates. Therefore, it is possible to accurately extract the positions that become the shape feature points of the mark, and to obtain the size or orientation of the mark with high accuracy from these feature point positions.

請求項3及び7記載の発明は、極座標変換データにおける背景とマークとの境界線におけるエッジ勾配ベクトルからノイズ部分を特定している。画像内のノイズは、周囲の点に対して異質な形状的特徴を有する場合が多いので、極座標形に変換した場合に、そのエッジ勾配ベクトルは、周囲と異なる傾向を示し、その顕著性からノイズを容易に抽出可能である。そして、これにより、ノイズの対策を施すことが容易となる。   According to the third and seventh aspects of the present invention, the noise portion is specified from the edge gradient vector at the boundary line between the background and the mark in the polar coordinate conversion data. The noise in the image often has a different geometric feature with respect to the surrounding points, so when converted to polar coordinates, the edge gradient vector tends to be different from the surroundings. Can be easily extracted. This makes it easy to take measures against noise.

請求項4及び8記載の発明は、境界線におけるノイズ部分意外に位置する特徴点を用いてマークの大きさ又は向きの算出を行うので、マークの大きさ又は向きをより精度良く取得することが可能となる。   According to the fourth and eighth aspects of the present invention, since the size or orientation of the mark is calculated using the feature points located outside the noise portion on the boundary line, the size or orientation of the mark can be acquired with higher accuracy. It becomes possible.

本実施の形態に係る電子部品実装装置の全体を示す平面図である。It is a top view which shows the whole electronic component mounting apparatus which concerns on this Embodiment. 電子部品実装装置の制御系を示すブロック図である。It is a block diagram which shows the control system of an electronic component mounting apparatus. マークの判別処理を示すフローチャートである。It is a flowchart which shows the discrimination | determination process of a mark. 円形のマークのサイズ及び中心を示す図である。It is a figure which shows the size and center of a circular mark. 図5(A)はマークの撮像画像の元画像座標系を示し、図5(B)はマーク中心を原点とする極座標系を示す図である。FIG. 5A shows an original image coordinate system of a captured image of a mark, and FIG. 5B shows a polar coordinate system with the mark center as the origin. 図6(A)は円形のマークの実画像例、図6(B)はその極座標変換画像例を示す。FIG. 6A shows an example of an actual image of a circular mark, and FIG. 6B shows an example of the polar coordinate conversion image. 図7(A)は正方形のマークの実画像例、図7(B)はその極座標変換画像例を示す。FIG. 7A shows an example of an actual image of a square mark, and FIG. 7B shows an example of the polar coordinate conversion image. 図8(A)は正三角形のマークの実画像例、図8(B)はその極座標変換画像例を示す。FIG. 8A shows an example of an actual image of equilateral triangle marks, and FIG. 8B shows an example of the polar coordinate conversion image. 図9(A)は十字形のマークの実画像例、図9(B)はその極座標変換画像例を示す。FIG. 9A shows an actual image example of a cross-shaped mark, and FIG. 9B shows an example of the polar coordinate conversion image. 図10(A)は点対称に正方形が二つ並んだ形状のマークの実画像例、図10(B)はその極座標変換画像例を示す。FIG. 10A shows an actual image example of a mark having a shape in which two squares are arranged point-symmetrically, and FIG. 10B shows an example of the polar coordinate conversion image. 図11(A)は長方形のマークの実画像例、図11(B)はその極座標変換画像例を示す。FIG. 11A shows an example of an actual image of a rectangular mark, and FIG. 11B shows an example of the polar coordinate conversion image. 図12(A)は平行四辺形のマークの実画像例、図12(B)はその極座標変換画像例を示す。FIG. 12A shows an example of an actual image of a parallelogram mark, and FIG. 12B shows an example of a polar coordinate conversion image thereof. 図13(A)は台形のマークの実画像例、図13(B)はその極座標変換画像例を示す。FIG. 13A shows an example of an actual image of a trapezoidal mark, and FIG. 13B shows an example of its polar coordinate conversion image. 図14(A)は鈍角を含む四辺形のマークの実画像例、図14(B)はその極座標変換画像例を示す。FIG. 14A shows an actual image example of a quadrangular mark including an obtuse angle, and FIG. 14B shows an example of the polar coordinate conversion image. 図15(A)は爪四つの星形のマークの実画像例、図15(B)はその極座標変換画像例を示す。FIG. 15A shows an example of an actual image of four star-shaped marks, and FIG. 15B shows an example of a polar coordinate conversion image. 輪郭線の山と谷のペア数の取得方法を示す図である。It is a figure which shows the acquisition method of the number of pairs of the peak and trough of an outline. 輪郭線の山と谷の発生周期を示す図である。It is a figure which shows the generation | occurrence | production period of the peak and trough of an outline. 二つの輪郭線における山又は谷のθ軸方向の位相差を示す図である。It is a figure which shows the phase difference of (theta) axis direction of the peak or trough in two outlines. テンプレートマッチングにおける誤差の影響を示す図である。It is a figure which shows the influence of the error in template matching. 円形マークの中心精度が正しくない場合に輪郭線に生じる影響を示す図である。It is a figure which shows the influence which arises in an outline when the center precision of a circular mark is not correct. 円形マークの中心精度が正しくない場合に輪郭線に生じる影響が生じる原因を示す図である。It is a figure which shows the cause which produces the influence which arises in a contour line when the center precision of a circular mark is not correct. 正方形マークの中心精度が正しくない状態を示す図である。It is a figure which shows the state in which the center precision of a square mark is not correct. 正方形マークの中心精度が正しくない場合に輪郭線に生じる影響を示す図である。It is a figure which shows the influence which arises in an outline when the center precision of a square mark is not correct. 図23における領域Eの拡大図である。It is an enlarged view of the area | region E in FIG. 円形マークの撮像画像を示す図である。It is a figure which shows the picked-up image of a circular mark. 図26(A)は円形マークの撮像画像の極座標変換後の図であり、図26(B)はそのエッジ勾配ベクトルを示す図であり、図26(C)はエッジ勾配ベクトルを一次微分した図であり、図26(D)は図26(A)の垂直総和を示す図である。FIG. 26A is a diagram after the polar coordinate conversion of the picked-up image of the circular mark, FIG. 26B is a diagram showing the edge gradient vector, and FIG. 26C is a diagram in which the edge gradient vector is first-order differentiated. FIG. 26D is a diagram showing the vertical sum of FIG. 円形マークのテンプレートマッチングの除外領域を示す図である。It is a figure which shows the exclusion area | region of the template matching of a circular mark. 図28(A)は四角形の極性判別マークを示し、図28(B)は円形の極性判別マークを示す図である。FIG. 28A shows a square polarity discrimination mark, and FIG. 28B shows a circular polarity discrimination mark.

(発明の実施形態の全体構成)
本発明の実施形態について、図1乃至図27に基づいて説明する。本実施形態は、電子部品の極性判別マークや基板に付された基板マークを総称して単にマークMとし、これらマークMの撮像画像に対して画像処理を行い、マークMの判別、マークMの位置、大きさ、向きの検出を行うための画像処理装置10が電子部品実装装置100に搭載され、基板Kに対する電子部品Cの実装動作制御に利用される場合の例を示している。
(Overall configuration of the embodiment of the invention)
An embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the polarity discrimination marks of the electronic components and the board marks attached to the board are collectively referred to simply as the mark M, image processing is performed on the captured image of these marks M, the mark M is discriminated, and the mark M An example in which the image processing apparatus 10 for detecting the position, size, and orientation is mounted on the electronic component mounting apparatus 100 and used for controlling the mounting operation of the electronic component C on the board K is shown.

(電子部品実装装置)
図1は電子部品実装装置100の平面図、図2は制御系を示すブロック図である。電子部品実装装置100は、基板Kに各種の電子部品Cの搭載を行うものであって、電子部品Cの搭載手段として、図1に示すように、搭載される電子部品Cを供給する複数の電子部品フィーダ101と、電子部品フィーダ101を複数並べて保持する電子部品供給部としてのフィーダバンク102と、一定方向に基板を搬送する基板搬送手段103と、当該基板搬送手段103による基板搬送経路の途中に設けられた基板に対する電子部品搭載作業を行うための搭載作業部104と、電子部品を吸着する吸着ノズル105を保持して電子部品の保持を行う部品保持手段としてのヘッド106と、ヘッド106を所定範囲内の任意の位置に駆動搬送するヘッド移動手段としてのX−Yガントリ107と、吸着ノズル105に吸着された電子部品の撮像を行う標準カメラ115及び高解像度カメラ116と、撮像位置に照明光を照射する照明装置117と、ヘッド106に搭載され、基板Kの基板マークを撮像する基板カメラ118と、基板Kの撮像位置に照明光を照射する照明装置119と、電子部品実装装置100の各構成に対して制御を行う制御装置120と、カメラ115,116,118の撮像画像データに所定の画像処理を実行する画像処理装置10とを備えている。
(Electronic component mounting equipment)
FIG. 1 is a plan view of the electronic component mounting apparatus 100, and FIG. 2 is a block diagram showing a control system. The electronic component mounting apparatus 100 mounts various electronic components C on a substrate K. As shown in FIG. 1, a plurality of electronic components C are mounted as means for mounting the electronic components C. Electronic component feeder 101, feeder bank 102 as an electronic component supply unit that holds a plurality of electronic component feeders 101 side by side, substrate transport unit 103 that transports a substrate in a certain direction, and in the middle of a substrate transport path by the substrate transport unit 103 A mounting operation unit 104 for performing an electronic component mounting operation on a substrate provided on the substrate, a head 106 as a component holding means for holding an electronic component by holding a suction nozzle 105 that sucks the electronic component, and a head 106. An XY gantry 107 as a head moving means for driving and transporting to an arbitrary position within a predetermined range, and an electronic unit sucked by the suction nozzle 105 A standard camera 115 and a high-resolution camera 116 that perform imaging of the above, an illuminating device 117 that irradiates illumination light to the imaging position, a substrate camera 118 that is mounted on the head 106 and images the substrate mark of the substrate K, and imaging of the substrate K Illumination device 119 that irradiates illumination light to a position, control device 120 that controls each component of the electronic component mounting apparatus 100, and an image that performs predetermined image processing on the captured image data of the cameras 115, 116, and 118 The processing apparatus 10 is provided.

画像処理装置10は、カメラ115,116による電子部品Cの撮像画像から極性判別マークの種類を識別し、その結果は、制御装置120に出力されてヘッド106の位置決め動作に反映される。
また、画像処理装置10は、カメラ118による基板Kの撮像画像から基板マークの位置、大きさ、向きを判別し、その結果は、制御装置120に出力されてヘッド106の位置決め動作に反映される。
The image processing apparatus 10 identifies the type of the polarity determination mark from the captured images of the electronic component C by the cameras 115 and 116, and the result is output to the control device 120 and reflected in the positioning operation of the head 106.
Further, the image processing apparatus 10 determines the position, size, and orientation of the substrate mark from the captured image of the substrate K by the camera 118, and the result is output to the control device 120 and reflected in the positioning operation of the head 106. .

標準カメラ115、高解像度カメラ116及び基板用カメラ118はいずれもCCDカメラであり、標準カメラ115と高解像度カメラ116とは、搭載が行われる電子部品の電子部品のサイズによって使い分けられるようになっている。以下の記載では、標準カメラ115が使用される前提で説明を行うこととする。
また、以下の説明において、水平面に沿って互いに直交する一の方向をX軸方向とし、他の方向をY軸方向とし、垂直上下方向をZ軸方向と称することとする。
The standard camera 115, the high resolution camera 116, and the board camera 118 are all CCD cameras, and the standard camera 115 and the high resolution camera 116 can be used properly depending on the size of the electronic component to be mounted. Yes. In the following description, description will be made on the assumption that the standard camera 115 is used.
In the following description, one direction orthogonal to each other along the horizontal plane is referred to as an X-axis direction, the other direction is referred to as a Y-axis direction, and a vertical vertical direction is referred to as a Z-axis direction.

基板搬送手段103は、図示しない搬送ベルトを備えており、その搬送ベルトにより基板をX軸方向に沿って搬送する。
また、前述したように、基板搬送手段103による基板搬送経路の途中には、電子部品を基板へ搭載する搭載作業部104が設けられている。基板搬送手段103は、搭載作業部104まで基板を搬送すると共に停止して、図示しない保持機構により基板の保持を行う。つまり、基板は保持機構により保持された状態で安定した電子部品の搭載作業が行われる。
The substrate transport unit 103 includes a transport belt (not shown), and transports the substrate along the X-axis direction by the transport belt.
As described above, the mounting operation unit 104 for mounting electronic components on the substrate is provided in the middle of the substrate transfer path by the substrate transfer means 103. The substrate transport unit 103 transports the substrate to the mounting work unit 104 and stops, and holds the substrate by a holding mechanism (not shown). That is, a stable electronic component mounting operation is performed while the substrate is held by the holding mechanism.

ヘッド106は、その先端部で空気吸引により電子部品を保持する吸着ノズル105と、この吸着ノズル105をZ軸方向に駆動する駆動源であるZ軸モータ111と、吸着ノズル105を介して保持された電子部品をZ軸方向を中心として回転駆動させる回転駆動源であるθ軸モータ112とが設けられている。
また、各吸着ノズル105は負圧発生装置108に接続され、当該吸着ノズル105の先端部において吸気吸引を行うことにより電子部品の吸着及び保持が行われる。
つまりこれらの構造により、搭載作業時には、吸着ノズル105の先端部で所定の電子部品フィーダ101から電子部品を吸着し、所定位置で基板に向かって吸着ノズル105を下降させると共に吸着ノズル105を回転させて電子部品の向きの調整を行いつつ搭載作業が行われる。
The head 106 is held via a suction nozzle 105 that holds an electronic component by air suction at the tip, a Z-axis motor 111 that is a drive source that drives the suction nozzle 105 in the Z-axis direction, and the suction nozzle 105. And a θ-axis motor 112 that is a rotational drive source for rotating the electronic component about the Z-axis direction.
In addition, each suction nozzle 105 is connected to a negative pressure generator 108, and suction and suction of electronic components is performed by performing suction suction at the tip of the suction nozzle 105.
That is, with these structures, at the time of mounting work, the electronic component is sucked from the predetermined electronic component feeder 101 at the tip of the suction nozzle 105, and the suction nozzle 105 is lowered toward the substrate at the predetermined position and the suction nozzle 105 is rotated. The mounting work is performed while adjusting the orientation of the electronic components.

また、前述した各カメラ115,116は、ベースフレーム114に搭載されており、X−Yガントリ107によりヘッド106が各カメラ115,116の位置決めされて撮像が行われるようになっている。
各カメラ115,116は、ベースフレーム114から上方に向けられた状態で保持されており、吸着ノズル105に吸着された電子部品Cを下方から撮像し、極性判別マークの撮像画像を画像処理装置10に出力する。
The cameras 115 and 116 described above are mounted on the base frame 114, and the head 106 is positioned by the XY gantry 107 so that the cameras 115 and 116 are imaged.
Each of the cameras 115 and 116 is held in a state of being directed upward from the base frame 114, images the electronic component C sucked by the suction nozzle 105 from below, and picks up an image picked up by the polarity discrimination mark from the image processing apparatus 10. Output to.

また、基板カメラ118は、ヘッド106に搭載されており、X−Yガントリ107によりヘッド106が搭載作業部104に位置する基板Kまで移動し、所定の撮像位置から基板カメラ118で基板Kの基板マークの撮像が行われるようになっている。
基板カメラ118は、下方に向けられた状態で保持されており、基板Kを上方から撮像し、基板マークの撮像画像を画像処理装置10に出力する。
The board camera 118 is mounted on the head 106, and the head 106 is moved to the board K located on the mounting work unit 104 by the XY gantry 107, and the board camera 118 is used to board the board K from the predetermined imaging position. The mark is picked up.
The substrate camera 118 is held in a state of being directed downward, images the substrate K from above, and outputs a captured image of the substrate mark to the image processing apparatus 10.

X−Yガントリ107は、X軸方向にヘッド106の移動を案内するX軸ガイドレール107aと、このX軸ガイドレール107aと共にヘッド106をY軸方向に案内する二本のY軸ガイドレール107bと、X軸方向に沿ってヘッド106を移動させる駆動源であるX軸モータ109と、X軸ガイドレール107aを介してヘッド106をY軸方向に移動させる駆動源であるY軸モータ110とを備えている。そして、各モータ109,110の駆動により、ヘッド106を二本のY軸ガイドレール107bの間となる領域のほぼ全体に搬送することを可能としている。
なお、各モータは、ぞれぞれの回転量が制御装置120に認識され、所望の回転量となるように制御されることにより、ヘッド106を介して吸着ノズル105や各カメラ115,116の位置決めを行っている。
また、電子部品の必要上、前記したフィーダバンク102,搭載作業部104とはいずれもX−Yガントリ107によるヘッド106の搬送可能領域内に配置されている。
The XY gantry 107 includes an X-axis guide rail 107a that guides the movement of the head 106 in the X-axis direction, and two Y-axis guide rails 107b that guide the head 106 in the Y-axis direction together with the X-axis guide rail 107a. , An X-axis motor 109 that is a drive source that moves the head 106 along the X-axis direction, and a Y-axis motor 110 that is a drive source that moves the head 106 in the Y-axis direction via the X-axis guide rail 107a. ing. Then, by driving each of the motors 109 and 110, the head 106 can be conveyed to almost the entire region between the two Y-axis guide rails 107b.
In addition, each motor recognizes the rotation amount of each motor by the control device 120 and is controlled so as to obtain a desired rotation amount, whereby the suction nozzle 105 and each of the cameras 115 and 116 via the head 106 are controlled. Positioning is performed.
Further, due to the necessity of electronic parts, both the feeder bank 102 and the mounting work unit 104 are arranged in a region where the head 106 can be transported by the XY gantry 107.

フィーダバンク102には、複数の電子部品フィーダ101がX軸方向に沿って羅列して載置装備される。
各電子部品フィーダ101は、後端部に電子部品が一列に並んで封止された部品テープの図示しないリールが保持されており、部品テープはリールから電子部品フィーダ101の先端部、即ち、基板側の端部の上側に設けられた部品受け渡し位置101aまで繰り出され、当該部品受け渡し位置101aにおいて吸着ノズル105により電子部品の吸着が行われるようになっている。
A plurality of electronic component feeders 101 are mounted and mounted on the feeder bank 102 along the X-axis direction.
Each electronic component feeder 101 holds a reel (not shown) of a component tape in which electronic components are lined up and sealed at a rear end portion, and the component tape extends from the reel to the tip of the electronic component feeder 101, that is, a substrate. It is fed out to the component delivery position 101a provided on the upper side of the side end portion, and the electronic component is sucked by the suction nozzle 105 at the component delivery position 101a.

制御装置120は、基板Kに搭載する電子部品Cのリスト、搭載順番、各電子部品の部品吸着位置、即ち、いずれの電子部品フィーダ101から受け取るか及び基板Kにおける搭載位置が定められた搭載プログラムと、基板Kの撮像位置、各電子部品に付された極性判別マークの形状の種別、極性判別マークが電子部品のどこに付されているか等が定められた部品データを記録し、当該搭載プログラムに従ってX軸モータ109、Y軸モータ110及びZ軸モータ111を制御し、ヘッド106の位置決め制御を行う。また、この制御装置120は、吸着時の電子部品に対してθ軸モータ112を駆動して吸着ノズル105を回転させて角度修正制御を行い、X軸モータ109及びY軸モータ110により位置修正制御を行う。
かかる制御装置120は、電子部品Cの吸着ノズル105による吸着後に標準カメラ115又は高解像度カメラ116による撮像が行われ、当該撮像画像に基づいて画像処理装置10が求めた電子部品の極性に基づいて電子部品C実装する制御を行うようになっている。
また、制御装置120は、基板Kが搭載作業部104に搬送されると、ヘッド106を基板マークの撮像位置に搬送し、基板用カメラ118による撮像を行い、当該撮像画像に基づいて画像処理装置10が求めた基板の正確な位置及び向きに基づいて電子部品Cの実装制御を行うようになっている。
The control device 120 includes a list of electronic components C to be mounted on the substrate K, a mounting order, a component suction position of each electronic component, that is, from which electronic component feeder 101 and a mounting program in which the mounting position on the substrate K is determined. And the component data in which the imaging position of the substrate K, the type of the shape of the polarity discrimination mark attached to each electronic component, where the polarity discrimination mark is attached to the electronic component, etc. are recorded, and according to the mounting program The X-axis motor 109, the Y-axis motor 110, and the Z-axis motor 111 are controlled to control the positioning of the head 106. In addition, the control device 120 drives the θ-axis motor 112 for the electronic component during suction and rotates the suction nozzle 105 to perform angle correction control, and the X-axis motor 109 and the Y-axis motor 110 perform position correction control. I do.
The control device 120 performs imaging by the standard camera 115 or the high resolution camera 116 after the electronic component C is attracted by the suction nozzle 105, and based on the polarity of the electronic component obtained by the image processing device 10 based on the captured image. Control to mount the electronic component C is performed.
Further, when the substrate K is transported to the mounting work unit 104, the control device 120 transports the head 106 to the substrate mark imaging position, performs imaging by the substrate camera 118, and based on the captured image, the image processing device. The mounting control of the electronic component C is performed based on the accurate position and orientation of the board determined by the step 10.

(画像処理装置)
画像処理装置10は、画像処理装置全体を制御する制御部11と、各カメラ115,116,118の画像信号をデジタル化するA/D変換器12と、デジタル化された撮像画像データを記憶する画像メモリ13と、撮像画像データに基づいてマークの識別等の画像処理を実行する演算部14と、画像処理や各部の制御において作業領域となる作業用メモリ15と、画像処理装置10の制御部11が制御装置120とのデータ通信を行うインターフェイス17と、インターフェイス17を介して制御装置120から受信した部品データを格納する部品データ格納メモリ19と、各種の極性判別マーク及び基板マークの形状的特徴に関するデータや各種マークのテンプレートデータ等を格納するマークデータ格納メモリ16とを備えている。
(Image processing device)
The image processing apparatus 10 stores a control unit 11 that controls the entire image processing apparatus, an A / D converter 12 that digitizes image signals of the cameras 115, 116, and 118, and digitized captured image data. An image memory 13, a calculation unit 14 that executes image processing such as identification of a mark based on captured image data, a work memory 15 that is a work area in image processing and control of each unit, and a control unit of the image processing apparatus 10 11 includes an interface 17 for performing data communication with the control device 120, a component data storage memory 19 for storing component data received from the control device 120 via the interface 17, and shape characteristics of various polarity determination marks and board marks And a mark data storage memory 16 for storing template data of various marks and the like.

上記構成により、電子部品実装装置100は、制御装置120が、搭載プログラムと部品データを読み込むと、ヘッド106の吸着ノズル105により電子部品Cを吸着し、標準カメラ105の撮像位置へ移動する。そして、電子部品Cの極性判定マークを撮像すると共に、撮像画像データを画像メモリ13に記憶する。
一方、制御装置120は、予め、電子部品の電極の情報、極性判別マーク情報などの部品データをインターフェイス17を介して画像処理装置10へ送信する。画像処理装置10は受信した部品データを部品データ格納メモリ19に格納する。
そして、制御装置120は、電子部品のサイズによって、標準カメラ115と高解像度カメラ116のいずれかを選択し、電子部品Cを吸着ノズル105で吸着し、選択したカメラの撮像位置にセットする。
さらに、制御装置120は、照明装置117を選択したカメラで撮像できるよう移動、点灯させ、インターフェイス17を介して画像処理装置10に、選択したカメラチャネル情報とともに処理の実行を通知する。
With the above configuration, when the control device 120 reads the mounting program and component data, the electronic component mounting apparatus 100 sucks the electronic component C by the suction nozzle 105 of the head 106 and moves to the imaging position of the standard camera 105. Then, the polarity determination mark of the electronic component C is imaged and the captured image data is stored in the image memory 13.
On the other hand, the control device 120 transmits component data such as electrode information of the electronic component and polarity determination mark information to the image processing device 10 via the interface 17 in advance. The image processing apparatus 10 stores the received component data in the component data storage memory 19.
Then, the control device 120 selects either the standard camera 115 or the high resolution camera 116 depending on the size of the electronic component, sucks the electronic component C with the suction nozzle 105, and sets it at the imaging position of the selected camera.
Further, the control device 120 moves and lights the illumination device 117 so that it can be imaged by the selected camera, and notifies the image processing device 10 through the interface 17 of the execution of processing together with the selected camera channel information.

画像処理装置10は、指定されたカメラ115又は116から入力される電子部品の撮像画像データをA/Dコンバータ12でデジタル化し、画像メモリ13に多値画像データとして記憶させる。
画像処理装置10は、画像メモリ13のデータを処理し、極性判定マークを識別する。識別結果の内容が問題なければ、その識別結果をインターフェイス17を介し、制御装置120に出力する。識別結果に問題があれば、極性エラーであったことを返答する。
The image processing apparatus 10 digitizes the captured image data of the electronic component input from the designated camera 115 or 116 by the A / D converter 12 and stores the digitized image data in the image memory 13 as multi-value image data.
The image processing apparatus 10 processes the data in the image memory 13 and identifies the polarity determination mark. If there is no problem with the contents of the identification result, the identification result is output to the control device 120 via the interface 17. If there is a problem with the identification result, it is returned that it was a polarity error.

制御装置120は、正常な識別結果を受け取った場合、その情報に従って、吸着ノズル105を搭載位置に移動し、電子部品Cを基板Kに搭載する。
一方、制御装置120は、極性エラーを受信した場合、電子部品Cの姿勢を補正してリトライするか、電子部品を廃棄する。
When the control device 120 receives a normal identification result, the control device 120 moves the suction nozzle 105 to the mounting position according to the information, and mounts the electronic component C on the substrate K.
On the other hand, when receiving the polarity error, the control device 120 corrects the posture of the electronic component C and retry, or discards the electronic component.

また、制御装置120は、基板搬送手段103により基板Kが搭載作業部104に供給されると、基板用カメラ118と照明装置119とを基板Kの基板マークの上方に移動し、基板マークを撮像する。
これにより、画像処理装置10は、基板マークの撮像画像データを画像メモリ13に格納する。そして、画像処理装置10は、この撮像画像データから、マークサイズ、マーク形状、マーク中心位置、マークの向きを検出しこれらの情報をマークデータとしてマークデータ格納メモリ16に記録する。
なお、基板マークの中心位置及びその向きの検出は、基板Kに対する電子部品Cの位置決め精度を左右することから、その検出も高精度で行う必要がある。
このため、画像処理装置10は、基板Kのマークが撮像されると、マークデータ格納メモリ16から基板マークの基準画像データを読み出してテンプレート画像データを生成し、撮像画像とテンプレートマッチングさせることでマーク位置を検出し、制御装置120に通知する。
Further, when the substrate K is supplied to the mounting operation unit 104 by the substrate transport unit 103, the control device 120 moves the substrate camera 118 and the illumination device 119 above the substrate mark of the substrate K, and images the substrate mark. To do.
As a result, the image processing apparatus 10 stores the captured image data of the board mark in the image memory 13. Then, the image processing apparatus 10 detects the mark size, mark shape, mark center position, and mark direction from the captured image data, and records these information as mark data in the mark data storage memory 16.
The detection of the center position and the orientation of the board mark affects the positioning accuracy of the electronic component C with respect to the board K, so that the detection must be performed with high precision.
For this reason, when the mark of the substrate K is imaged, the image processing apparatus 10 reads the reference image data of the substrate mark from the mark data storage memory 16 to generate template image data, and performs template matching with the captured image. The position is detected and notified to the control device 120.

(マークの判別処理)
以下、画像処理装置10で行われるマークの形状による判別処理について説明する。マークの判別は、極性判別マーク、基板マークのいずれについて対しても行われる処理である。以下の説明では、極性判別マークと基板マークとを区別することなく、単に、マークと言うものとする。
図3はマークの判別処理を示すフローチャートである。
(Mark discrimination processing)
Hereinafter, the discrimination process based on the mark shape performed in the image processing apparatus 10 will be described. The mark discrimination is a process performed for both the polarity discrimination mark and the substrate mark. In the following description, the polarity discrimination mark and the substrate mark are simply referred to as a mark without distinction.
FIG. 3 is a flowchart showing mark discrimination processing.

(1)マーク粗位置検出(図3のステップS1)
部品の極性判別マークの場合、部品上のどの位置にどの形状の極性判別マークが存在するかという情報は予め部品データとして画像処理装置10の部品データ格納メモリ19内に記憶されている。
また、基板マークの場合も、基板上のいずれの位置に基板マークが付されているかを示す情報が基板データとして画像処理装置10のマークデータ格納メモリ16に記憶されている。
このため、撮像画像データの画像内における部品の外形特徴、電極位置又は基板の形状的特徴やパッド位置等を周知の画像処理により抽出し、電子部品又は基板の中心位置と傾きを求め、これらを基準としてマークMを探索することができる。
また、テンプレートマッチングや外接スキャンなどの画像演算で基板マークの位置を特定することも可能である。なお、基板マークの場合は、撮像画像の表示装置とマウス等の入力デバイスとを用意して、マシン操作者により、基板マークの位置又は基板マークを含む領域を表示画像に対して直接指定入力することも可能である。
(1) Mark coarse position detection (step S1 in FIG. 3)
In the case of a component polarity determination mark, information indicating which shape polarity determination mark exists at which position on the component is stored in advance in the component data storage memory 19 of the image processing apparatus 10 as component data.
In the case of a substrate mark, information indicating where the substrate mark is attached on the substrate is stored in the mark data storage memory 16 of the image processing apparatus 10 as substrate data.
For this reason, the external features of the parts in the image of the captured image data, the electrode positions or the geometrical characteristics of the board, the pad positions, etc. are extracted by known image processing, and the center position and inclination of the electronic parts or the board are obtained, and these are obtained. The mark M can be searched as a reference.
It is also possible to specify the position of the substrate mark by image calculation such as template matching or circumscribing scan. In the case of a board mark, a display device for a captured image and an input device such as a mouse are prepared, and the machine operator directly designates and inputs the position of the board mark or an area including the board mark on the display image. It is also possible.

(2)マークサイズ取得(図3のステップS3)
撮像画像内において探索されたマークMに対して、演算部14は、撮像画像データにおけるマークMを含む周辺領域について外接スキャン、エッジ抽出処理等を行い、マークMと背景との境界を抽出する。
マークMと背景との境界を抽出する処理では、周辺領域内の各画素値について所定方向に走査を行い、隣接する画素との値の差が所定値以上となる画素をマークMと背景との境界と見なす処理を行う。
そして、外接スキャン等により求められた境界線に囲まれるマークMについて、図4に示すように、マークサイズ(msx,msy)、即ち、msx:マークMのX軸方向の最大幅,msy:Y軸方向の最大幅を算出する。なお、図4では円形のマークMを例示している。
(2) Mark size acquisition (step S3 in FIG. 3)
For the mark M searched in the captured image, the calculation unit 14 performs circumscribed scanning, edge extraction processing, and the like on the peripheral region including the mark M in the captured image data, and extracts the boundary between the mark M and the background.
In the process of extracting the boundary between the mark M and the background, each pixel value in the peripheral region is scanned in a predetermined direction, and a pixel whose value difference with an adjacent pixel is equal to or greater than a predetermined value is determined between the mark M and the background. Performs processing that is considered a boundary.
As shown in FIG. 4, for the mark M surrounded by the boundary line obtained by circumscribing scanning or the like, the mark size (msx, msy), that is, msx: the maximum width of the mark M in the X-axis direction, msy: Y Calculate the maximum axial width. FIG. 4 illustrates a circular mark M.

(3)マーク中心取得(図3のステップS5:中心特定工程)
さらに、演算部14は、外接スキャンにより求められたマークM、即ち、境界線に囲まれる図形に対して重心演算等を実行し、マークMの重心としての中心(図4のC(cx,cy))を算出する。演算部14は、かかる処理を行うことにより、「中心特定手段」として機能するものである。
(3) Mark center acquisition (step S5 in FIG. 3: center specifying step)
Further, the calculation unit 14 performs centroid calculation or the like on the mark M obtained by circumscribing scanning, that is, the figure surrounded by the boundary line, and the center as the centroid of the mark M (C (cx, cy in FIG. 4). )) Is calculated. The calculation unit 14 functions as “center identification means” by performing such processing.

(4)極座標変換画像の取得(図3のステップS7:データ変換工程)
次に、演算部14は、マーク中心C(cx,cy)を中心にマークMより一回り大きく、当該マークMを網羅することが可能な半径Rの円形領域内の画像について、元画像座標、即ち、X−Y座標系:図5(A)からマーク中心C(cx,cy)を原点とする極座標、即ち、r−θ座標系:図5(B)に変換する処理を行う。
なお、R=msX/2・Aとする。AはマークMを完全に取り込むための係数(例えばA=1.2程度とする)。
(4) Acquisition of polar coordinate conversion image (step S7 in FIG. 3: data conversion step)
Next, the calculation unit 14 makes the original image coordinates, an image in a circular area having a radius R, which is slightly larger than the mark M around the mark center C (cx, cy) and can cover the mark M, That is, a process of converting the XY coordinate system: FIG. 5A to the polar coordinates with the mark center C (cx, cy) as the origin, that is, the r-θ coordinate system: FIG.
Note that R = msX / 2 · A. A is a coefficient for completely taking in the mark M (for example, A = about 1.2).

元画像座標(X−Y座標系)からマーク中心C(cx,cy)を原点とする極座標、即ち、r−θ座標系の変換は次式(1)による。
なお、極座標としてのr−θ座標系から元画像座標としてのX−Y座標系への変換は次式(2)による。
演算部14は、かかる処理を行うことにより、「データ変換手段」として機能するものである。

Figure 2012203612
Conversion from the original image coordinates (XY coordinate system) to polar coordinates having the origin of the mark center C (cx, cy), that is, the r-θ coordinate system is performed by the following equation (1).
The conversion from the r-θ coordinate system as polar coordinates to the XY coordinate system as original image coordinates is based on the following equation (2).
The calculation unit 14 functions as a “data conversion unit” by performing such processing.
Figure 2012203612

(5)極座標変換画像から形状的特徴の取得(図3のステップS9:形状判別工程)
図6〜図15に一般的なマーク形状の例を示し、各図の(A)には各マーク形状の実画像例、各図の(B)には極座標変換画像例を示している。
図6は円形のマークMを示し、円形の場合にはマーク中心に対しマーク輪郭が等距離となるので、極座標変換画像では、輪郭線としての境界線がθ軸方向に沿った直線状となり、その左側がマーク内部、右側が背景に分離した画像となる。
つまり、輪郭線が傾き90度の直線に近似すればマークMは円形マークと判定することができる。
(5) Acquisition of shape characteristics from polar coordinate conversion image (step S9 in FIG. 3: shape discrimination step)
FIGS. 6 to 15 show examples of general mark shapes. FIG. 6A shows an example of an actual image of each mark shape, and FIG. 6B shows an example of a polar coordinate conversion image.
FIG. 6 shows a circular mark M. In the case of a circular shape, the mark contour is equidistant from the center of the mark. Therefore, in the polar coordinate conversion image, the boundary line as the contour line is a straight line along the θ-axis direction. The left side of the image is the inside of the mark, and the right side of the image is the background.
That is, the mark M can be determined to be a circular mark if the contour line approximates a straight line having a tilt of 90 degrees.

図7は正方形、図8は正三角形のマークMを示し、これらのような正n角形マークの場合は、極座標変換画像には動径方向としてのR軸方向についてn個の山と谷がθ軸方向に並んで現れる。なお、この山の頂部と谷の底部とはいずれも、「動径方向における極値となる特徴点」に相当する。
つまり、輪郭線に先鋭な山と底部がなだらかな谷とが交互に並ぶ場合には、山又は谷の個数に応じた多角形状のマークと判定することができ、さらにその周期が一定であれば正多角形のマークと判定することができる。
FIG. 7 shows a square and FIG. 8 shows an equilateral triangle mark M. In the case of such regular n-gon mark, the polar coordinate conversion image has n peaks and valleys in the R-axis direction as the radial direction. Appears side by side in the axial direction. Note that both the top of the mountain and the bottom of the valley correspond to “a feature point that is an extreme value in the radial direction”.
In other words, when the sharp peaks and valleys with gentle bottoms are lined up alternately, it can be determined as a polygonal mark according to the number of peaks or valleys, and if the cycle is constant It can be determined that the mark is a regular polygon.

図9は十字形のマークMである。この場合、輪郭線は、底部が先鋭な谷と頂部が円弧状に窪んだ山とがθ軸方向に交互に四つ並ぶ形状となり、かかる形状的特徴から十字形のマークMと判定することができる。
図10はマーク中心で点対称に正方形が二つ並んだ形状のマークMである。この場合、輪郭線は、頂部が先鋭となる山がθ軸方向について断続的に二つ現れる形状となり、かかる形状的特徴から正方形が二つ並んだ形状のマークMと判定することができる。
FIG. 9 shows a cross-shaped mark M. In this case, the contour line has a shape in which four valleys having a sharp bottom and an arcuate depression at the top are arranged alternately in the θ-axis direction. it can.
FIG. 10 shows a mark M having a shape in which two squares are arranged symmetrically with respect to the center of the mark. In this case, the contour line has a shape in which two peaks with a sharp apex appear intermittently in the θ-axis direction, and can be determined as a mark M having a shape in which two squares are arranged.

図11は長方形、図12は平行四辺形、図13は台形のマークMを示し、これらの場合も正方形のように、輪郭線には、先鋭な山と底部がなだらかな谷とが四つ並んで現れるが、長方形の場合には、山はいずれも同じ高さとなるが谷は深い谷と浅い谷とが交互に現れ、平行四辺形の場合には、低い山と高い山とが交互に現れ、台形の場合には、低い山と高い山とが二つずつ交互に現れる。従って、かかる形状的特徴から長方形、平行四辺形又は台形のマークMと判定することができる。   11 shows a rectangle, FIG. 12 shows a parallelogram, and FIG. 13 shows a trapezoidal mark M. In these cases as well, in the outline, there are four sharp peaks and valleys with gentle bottoms. In the case of a rectangle, the peaks are all the same height, but in the valley, deep and shallow valleys appear alternately, and in the case of a parallelogram, low and high mountains appear alternately. In the case of a trapezoid, two low and high peaks appear alternately. Therefore, it can be determined as a rectangular, parallelogram, or trapezoidal mark M from such shape characteristics.

図14は鈍角を含む四辺形のマークMを示し、この場合、輪郭線は、鋭角の頂点は全て先鋭な山となり、鈍角の頂点は底部に角がある深い谷となる形状が現れる。従って、かかる形状的特徴から鈍角を含む四辺形のマークMと判定することができる。
図15は爪四つの星形のマークMを示し、この場合、輪郭線は、山と谷とが爪数に応じて四つ現れ、山の頂点は全て先鋭となり、谷の底部に角がある形状が現れる。従って、かかる形状的特徴から爪四つの星形のマークMと判定することができる。
FIG. 14 shows a quadrilateral mark M including an obtuse angle. In this case, the contour line has a shape in which all sharp apexes are sharp peaks, and the obtuse angle apexes are deep valleys with corners at the bottom. Therefore, it can be determined from the shape feature that the mark M has a quadrilateral shape including an obtuse angle.
FIG. 15 shows four star-shaped marks M of the claws. In this case, the contour line has four peaks and valleys corresponding to the number of claws, the peaks are all sharp, and there is a corner at the bottom of the valley. Shape appears. Therefore, it can be determined from the shape feature that the star M has four stars.

以上のように、マークMの形状に応じて極座標変換画像のマークと背景を分離する輪郭線には固有の形状的特徴が現れることから、演算部14は、当該形状的特徴に基づく条件の一致を判定することによりマーク形状を識別する。
具体的には、以下に示す複数の要素からマーク形状の識別を行う。
As described above, since the unique shape feature appears in the contour line that separates the mark and the background of the polar coordinate conversion image in accordance with the shape of the mark M, the calculation unit 14 matches the conditions based on the shape feature. By determining the mark shape, the mark shape is identified.
Specifically, the mark shape is identified from a plurality of elements shown below.

[1]山と谷のペア数の取得(図16)
極座標変換画像の右側、即ち、r軸方向における最大値側からθ軸方向に沿って走査し、最右に存在する輪郭線の山位置(Pr0)を検出する。また、これと共に、左側、即ち、R軸方向における0側から走査し、最左に存在する谷位置(Pl0)を検出する。この時、山位置(Pr0)と谷位置(Pl0)のr成分の差が後述する判定値より小さければ山と谷は存在せずと判断する。
一方、山位置(Pr0)と谷位置(Pl0)のr成分の差が判定値より大きい場合はPl0とPr0間にθ軸に平行な垂直走査線(VL)を複数本設定し、背景区間とマーク形状区間数を数えることで山と谷ペア数、即ち、山の頂点である特徴点の個数又は谷の底部である特徴点の個数を取得する。
或いは、境界線の勾配ベクトルを求め、r成分について山の頂点数、r成分について谷の極小値となる点の数を数えることでも山と谷のペア数は取得できる。なお、これら山の頂点及び谷の極小値となる点を総称して特徴点というものとする。
なお、ここでいう「ペア数」とは山の数又は谷の数と同義であり、特定の山と特定の谷との組み合わせが成立している必要はない。
[1] Acquisition of the number of peaks and valleys (Figure 16)
Scanning is performed along the θ-axis direction from the right side of the polar coordinate conversion image, that is, the maximum value side in the r-axis direction, and the peak position (Pr0) of the contour line existing at the rightmost is detected. At the same time, scanning is performed from the left side, that is, the 0 side in the R-axis direction, and the valley position (Pl0) existing at the leftmost is detected. At this time, if the difference between the r components of the peak position (Pr0) and the valley position (Pl0) is smaller than a determination value described later, it is determined that there are no peaks and valleys.
On the other hand, if the difference between the r component of the peak position (Pr0) and the valley position (Pl0) is larger than the judgment value, a plurality of vertical scanning lines (VL) parallel to the θ axis are set between Pl0 and Pr0, By counting the number of mark-shaped sections, the number of peak and valley pairs, that is, the number of feature points that are the vertices of the peaks or the number of feature points that are the bottom of the valleys is acquired.
Alternatively, the number of peak-to-valley pairs can also be obtained by obtaining the gradient vector of the boundary line and counting the number of vertices of the peaks for the r component and the number of points that are the minimum values of the valleys for the r component. In addition, the point used as the minimum value of the peak of this peak and a valley shall be named generically.
Here, the “number of pairs” is synonymous with the number of peaks or the number of valleys, and a combination of a specific mountain and a specific valley need not be established.

山と谷のペア数は元画像上マーク形状の頂点や突起の数と一致する。各マーク形状の山と谷ペア数は、例えば、マークMが円形であれば0、正方形であれば4、正三角形であれば3、十字形であれば4、点対称に配置した二つの正方形であれば2となる。また山位置と谷位置の間隔はマーク形状とマークサイズで決まる為、図3のステップS3で示したマークサイズ取得工程で取得済みのマークサイズとマークの形状候補から山谷有無判定値を準備できる。
そして、判別すべきマークMの形状の候補が、頂点の個数がいずれも異なる形状であるような場合には、山と谷のペア数だけ求めれば、識別することが可能である。
The number of pairs of peaks and valleys matches the number of vertices and protrusions of the mark shape on the original image. The number of peak and valley pairs of each mark shape is, for example, 0 if the mark M is a circle, 4 if it is a square, 3 if it is a regular triangle, 4 if it is a cross, and two squares arranged point-symmetrically. 2 if so. Since the interval between the peak position and the valley position is determined by the mark shape and the mark size, it is possible to prepare a mountain valley presence / absence determination value from the mark size and mark shape candidates acquired in the mark size acquisition step shown in step S3 of FIG.
If the shape candidates of the mark M to be discriminated are shapes having different numbers of vertices, they can be identified by obtaining only the number of peaks and valleys.

[2]山谷発生間隔
例えば、四角形であれば山と谷ペア数は4であるが、正方形:図7、長方形:図11、平行四辺形:図12、台形:図13では山と谷の発生周期が異なる。
即ち、前述した境界線の勾配ベクトルから特徴点の極座標系における座標値を取得した場合に、それらのθ成分の値の差を採ることで、図17のように、山と谷の発生周期を求めることができ、各種の四角形について識別することが可能である。
さらに、図18のように、山又は谷となる特徴点の極座標系におけるθ成分の座標値を参照した場合に、山又は谷のθ軸方向の位相差を求めることにより、同一形状のマークMにおける傾き角度を求めることができる。
[2] Mountain valley generation interval For example, in the case of a square, the number of mountain and valley pairs is 4, but square: FIG. 7, rectangle: FIG. 11, parallelogram: FIG. 12, trapezoid: generation of peaks and valleys in FIG. The period is different.
That is, when the coordinate value of the feature point in the polar coordinate system is obtained from the gradient vector of the boundary line described above, by taking the difference between the values of those θ components, the generation period of peaks and valleys can be set as shown in FIG. It is possible to determine and identify various squares.
Further, as shown in FIG. 18, when the coordinate value of the θ component in the polar coordinate system of the feature point that becomes a peak or a valley is referred to, by obtaining the phase difference in the θ-axis direction of the peak or the valley, the mark M having the same shape is obtained. The tilt angle at can be obtained.

[3]山の高さ又は谷の深さ
前述の手法で山又は谷となる特徴点の極座標系における座標値を取得した場合に、それらのr成分の値を参照することで山の高さ又は谷の深さの変化を求めることができ、例えば、山の高さが常に一定、高低の変化を繰り返すなど、変化パターンの違いから各種の四角形について識別することが可能である。
[3] Height of mountain or depth of valley When the coordinate value in the polar coordinate system of the feature point that becomes the mountain or valley is acquired by the above-described method, the height of the mountain is referred to by referring to the value of the r component. Alternatively, the change in the depth of the valley can be obtained. For example, various squares can be identified from the difference in the change pattern such that the height of the mountain is always constant and the change in height is repeated.

[4]山形状又は谷形状
輪郭線の勾配ベクトルを求めることにより、山形状又は谷形状の違いを求めることができる。例えば、図9,図14,図15の場合のように、鈍角の頂点を有する形状の場合には、谷の底部が先鋭な形状となり、勾配ベクトルの顕著な変化によりこれを求めることが可能である。
[4] Mountain shape or valley shape The difference between the mountain shape or the valley shape can be obtained by obtaining the gradient vector of the contour line. For example, in the case of a shape having an obtuse apex, as in FIGS. 9, 14, and 15, the bottom of the valley has a sharp shape, which can be obtained by a significant change in the gradient vector. is there.

[5]輪郭線の不連続部
図10のように、輪郭線が途切れる不連続部が存在するか否かにより、マークの中心に対する一部の方向について、図形が存在しない範囲を有する形状のマークを他と識別することが可能である。
[5] Discontinuous part of contour line As shown in FIG. 10, a mark having a shape in which a figure does not exist in some directions with respect to the center of the mark depending on whether or not there is a discontinuous part where the contour line is interrupted. Can be distinguished from others.

上記のパラメータは一例にすぎず、他の形状的特徴を示すパラメータを識別の判断材料としても良い。
画像処理装置10は、マークデータ格納メモリ16内に、各種形状のマークが、上記のような各種のパラメータの条件を満たすか否か、或いはパラメータに関する数値を記憶するテーブルを備えている。
そして、演算部14は、撮像画像データの極座標系変換画像データに対して、上記各パラメータを算出する処理を実行し、各種のパラメータに定められた条件を満たすか否か及びパラメータに関する数値の算出を行い、その結果と上記テーブルとを照らし合わせることにより、マークMの形状を特定する:図3のステップS11。
即ち、マークデータ格納メモリ16と演算部14の協働により、「形状判別手段」として機能するものである。
なお、判定対象となるマークMの形状が一部の範囲に限定されている場合のように、一部のパラメータのみにより識別可能な場合には、当該一部のパラメータについてのみ判定を行い、処理を軽減しても良い。
また、上記各種のパラメータについては、それぞれの優先順位を定めておくことにより、順番に識別すれば形状の識別をより効率的に行うことが可能である。
また、形状によっては先に挙げたパラメータだけでは形状判別しにくいマーク形状がある場合は随時その形状に応じたパラメータを追加していけばよい。
The above parameters are merely examples, and parameters indicating other geometric features may be used as identification determination materials.
The image processing apparatus 10 includes a table that stores in the mark data storage memory 16 whether or not marks of various shapes satisfy the conditions of the various parameters as described above, or numerical values related to the parameters.
Then, the calculation unit 14 performs a process of calculating each parameter on the polar coordinate system converted image data of the captured image data, and calculates whether or not a condition defined for each parameter is satisfied, and calculation of a numerical value related to the parameter. And the shape of the mark M is specified by comparing the result with the table: Step S11 in FIG.
In other words, the mark data storage memory 16 and the calculation unit 14 cooperate to function as a “shape determination unit”.
In addition, when the shape of the mark M to be determined is limited to a part of the range and can be identified by only a part of the parameters, the part of the parameter is determined and processed. May be reduced.
In addition, regarding the various parameters described above, it is possible to identify shapes more efficiently if they are identified in order by determining their priorities.
In addition, depending on the shape, if there is a mark shape that is difficult to discriminate using only the parameters listed above, a parameter corresponding to the shape may be added as needed.

(マークの精密位置検出)
次に、画像処理装置10で行われるマークの位置、大きさ、向き等をより正確に検出する処理について説明する。基板マークは、特に、基板Kに対する電子部品Cの位置決めに影響することから、その位置及び向きをより正確に検出する必要がある。
マークMの種類が特定されると、テンプレートマッチングを行うことによりマークMの位置検出を行うことが可能となる。しかしながら、図19に示すように、テンプレート画像のマークMtと撮像画像のマークMとでサイズ差が存在する場合や、マークに欠けや汚れDといったノイズがあると、マークMの本来の中心位置Sとはずれた中心位置Stが求められることとなり、位置決め精度が悪化する。
そこでテンプレートマッチングで位置決めされた位置を回転中心として極座標変換画像を作成し、その極座標変換画像からマークサイズ・マーク傾き・ノイズ有無等を検出し、これらの情報を考慮したマークテンプレート画像を生成し再度テンプレートマッチングを行うことで位置決め精度を向上させる方法を提案する。
(Precise mark position detection)
Next, processing for more accurately detecting the position, size, orientation, etc. of the mark performed in the image processing apparatus 10 will be described. Since the board mark particularly affects the positioning of the electronic component C with respect to the board K, it is necessary to detect its position and orientation more accurately.
When the type of the mark M is specified, the position of the mark M can be detected by performing template matching. However, as shown in FIG. 19, when there is a size difference between the mark Mt of the template image and the mark M of the captured image, or when there is noise such as chipping or dirt D, the original center position S of the mark M is obtained. The center position St deviating from the above is obtained, and the positioning accuracy is deteriorated.
Therefore, a polar coordinate conversion image is created with the position positioned by template matching as the rotation center, mark size, mark inclination, noise presence, etc. are detected from the polar coordinate conversion image, and a mark template image taking these information into consideration is generated again. We propose a method to improve positioning accuracy by performing template matching.

(マークの精密位置検出:マークが円形の場合[1])
マークMの形状に応じてマーク位置、サイズ、傾きの検出方法が異なるので、個々に説明する。
円形のマークMの極座標変換画像は、図6(B)に示すように、正しい中心位置で極座標変換が行われた場合には、マークの輪郭線はθ軸に平行な直線となる。そのため元画像上の円形のマークから直接円周輪郭を取得するより単純なアルゴリズムで位置、サイズの検出が可能である。なお、マークが円形の場合には傾きは求められない。
(Precise mark position detection: When the mark is circular [1])
The method for detecting the mark position, size, and inclination differs depending on the shape of the mark M, and will be described individually.
As shown in FIG. 6B, the polar coordinate conversion image of the circular mark M is a straight line parallel to the θ axis when the polar coordinate conversion is performed at the correct center position. Therefore, the position and size can be detected by a simpler algorithm that directly obtains a circumferential contour from a circular mark on the original image. If the mark is circular, the inclination cannot be obtained.

マーク画像の極座標変換を行う前提として、マークの中心位置を求める際に、外接スキャンやテンプレートマッチングを用いた場合、中心精度が正しく出ていないと、図20に示すように、輪郭線は正弦波状に歪む。
即ち、図21に示すように、真のマーク中心Cから(dx, dy)ずれた位置を回転中心C’として極座標変換を行った場合、真の中心Cと回転中心C’とを結んだ線分の角度αの時に最小半径、角度α+πの時に最大半径となる。
さらに、角度αと角度α+πの場合に、それぞれ真の半径RAに対して、C−C’間距離である中心誤差距離L分の減増となる。
As a premise for performing polar coordinate conversion of the mark image, when using the circumscribing scan or template matching when obtaining the center position of the mark, if the center accuracy is not correct, the contour is sinusoidal as shown in FIG. Distorted.
That is, as shown in FIG. 21, when the polar coordinate conversion is performed with the position shifted by (dx, dy) from the true mark center C as the rotation center C ′, the line connecting the true center C and the rotation center C ′. The minimum radius is at the angle α of the minute, and the maximum radius is at the angle α + π.
Further, in the case of the angle α and the angle α + π, the center radius is decreased by the center error distance L that is the distance between CC ′ with respect to the true radius RA.

よって、演算部14は、極座標変換画像において、輪郭線を求め、r成分が最小値となる点P0のθ成分をα、最大値となる点P1のθ成分をα+πとして求めることができる。
さらに、点P0のr成分はRA−Lであり、点P1のr成分はRA+Lである。
そして、α=tan-1(dy/dx)、L=(dx2+dy21/2なので、演算部14は、点P0、P1のr−θ座標値から、(dx,dy)を算出することができる。従って、円形のマークMの正確な位置が算出される。
また、円形のマークMの正確なサイズは、点P0とP1のr成分の値の平均値から求めることができる。
Therefore, the calculation unit 14 can obtain the contour line in the polar coordinate conversion image, and obtain the θ component of the point P0 where the r component has the minimum value as α and the θ component of the point P1 where the maximum value becomes α + π.
Furthermore, the r component at the point P0 is RA-L, and the r component at the point P1 is RA + L.
Since α = tan −1 (dy / dx) and L = (dx 2 + dy 2 ) 1/2 , the calculation unit 14 calculates (dx, dy) from the r-θ coordinate values of the points P0 and P1. can do. Therefore, the exact position of the circular mark M is calculated.
The exact size of the circular mark M can be obtained from the average value of the r component values of the points P0 and P1.

なお、上記マークMの位置、サイズの検出処理は、マークMの形状が既に判別されていることを前提とするので、マークMの位置、サイズの検出処理におけるマークKの中心位置の算出と極座標変換画像データの生成が、マークMの形状の判別の処理の際に既に行われている場合には、その際の算出データを利用することができる。即ち、マークMの位置、サイズの検出処理の際に、マークKの中心位置の算出と極座標変換画像データの生成を再びやり直す必要はない。   Since the mark M position and size detection processing is based on the premise that the shape of the mark M has already been determined, the calculation of the center position of the mark K and the polar coordinates in the mark M position and size detection processing are performed. If the generation of the converted image data has already been performed during the process of determining the shape of the mark M, the calculated data at that time can be used. That is, in the process of detecting the position and size of the mark M, it is not necessary to redo the calculation of the center position of the mark K and the generation of polar coordinate conversion image data.

(マークの精密位置検出:マークが円形の場合[2])
上記円形のマークMの位置及びサイズの検出は、極座標変換データにおいて、輪郭線の最大値と最小値とが顕著に得られた場合には有効だが、それぞれが顕著ではない場合には、精度が低下する。また、撮像画像データに汚れなどのノイズ成分が含まれて輪郭線が一部正しく得られない場合にも精度が低下する。
(Precise mark position detection: When the mark is circular [2])
The detection of the position and size of the circular mark M is effective when the maximum value and the minimum value of the contour line are remarkably obtained in the polar coordinate conversion data, but the accuracy is improved when each is not significant. descend. Also, the accuracy is lowered when the captured image data includes noise components such as dirt and the contour line cannot be obtained in part.

従って、上記と同じ手法で、マークKの極座標変換画像データにおける輪郭線を求めたら、当該輪郭線上の各点でエッジ勾配ベクトルを算出する。
当該輪郭線上の各点のエッジ勾配ベクトルは、中心位置に誤差がある場合でも、輪郭線上の各部で大きな変動は生じない。
一方、マークMの撮像画像において、背景とマークMの境界部分に汚れその他のノイズ成分が含まれている場合、輪郭線のノイズ部分のエッジ勾配ベクトルはエッジ勾配ベクトルの全体的な傾向に対して顕著な差が発生する。
従って、演算部14では、輪郭線においてエッジ勾配ベクトルが所定の範囲以上の大きな変動を生じている部分はノイズと特定する。この工程をノイズ特定工程という。
このように、演算部14は、エッジ勾配ベクトルを用いてノイズを特定することにより、「ノイズ特定手段」として機能するものである。
Accordingly, when the contour line in the polar coordinate conversion image data of the mark K is obtained by the same method as described above, an edge gradient vector is calculated at each point on the contour line.
The edge gradient vector of each point on the contour line does not vary greatly in each part on the contour line even if there is an error in the center position.
On the other hand, in the captured image of the mark M, when the boundary portion between the background and the mark M includes dirt and other noise components, the edge gradient vector of the noise portion of the contour line corresponds to the overall tendency of the edge gradient vector. Significant differences occur.
Therefore, the calculation unit 14 identifies the portion of the contour line where the edge gradient vector has a large fluctuation exceeding a predetermined range as noise. This process is called a noise identification process.
As described above, the calculation unit 14 functions as “noise specifying means” by specifying noise using the edge gradient vector.

そして、演算部14は、ノイズ部分を除いて、輪郭線上の任意の3点の特徴点を抽出する。即ち、かかる処理が「ノイズ部分を除く範囲内のいずれかに位置する複数の点からなる特徴点を特定する第二の特徴点特定工程」に相当する。そして、当該3点の特徴点を実画像系のX−Y座標値に逆変換する。この工程を逆変換工程という。そして、算出された3点のX−Y座標から、これら3点を通る円を求め、当該円をマークMと背景の境界線と見なす。そして、この円の中心を算出することにより、マークMの正確な位置を得ることができ、また、3点を通る円の直径から正確なマークサイズを取得することができる。この工程を形態要素特定工程という。
このように、演算部14は、ノイズ部分を除いて特徴点を特定することにより「第二の特徴点特定手段」として機能し、3つの特徴点を実画像系のX−Y座標値に逆変換することで「逆変換手段」として機能し、逆変換後の3点から円の中心を求めることにより「形態要素特定手段」として機能するものである。
Then, the calculation unit 14 extracts arbitrary three feature points on the contour line, excluding the noise portion. That is, this process corresponds to “a second feature point specifying step for specifying a feature point including a plurality of points located anywhere within the range excluding the noise portion”. Then, the three feature points are inversely converted into XY coordinate values of the real image system. This process is called an inverse conversion process. Then, a circle passing through these three points is obtained from the calculated three XY coordinates, and the circle is regarded as a boundary line between the mark M and the background. Then, by calculating the center of this circle, the exact position of the mark M can be obtained, and the accurate mark size can be obtained from the diameter of the circle passing through the three points. This process is called a morphological element specifying process.
In this way, the calculation unit 14 functions as “second feature point specifying means” by specifying the feature points excluding the noise portion, and reverses the three feature points to the XY coordinate values of the real image system. It functions as “inverse conversion means” by converting, and functions as “form element specifying means” by obtaining the center of the circle from the three points after reverse conversion.

(マークの精密位置検出:マークがその他の形状の場合)
マーク形状の判別処理が既に行われている場合、当該マーク形状における極座標変換画像の特徴が分かるので、演算部14は、それに応じた特徴抽出によりマークの位置及びマークサイズを取得する。
例えば、図7及び図8に示すように、マークMの形状がn角形である場合、極座標変換画像はマークMの輪郭線にn個の山と谷のペアが出来る特徴がある。
元の撮像画像データにおいて、マークMの頂点位置を取得する為には、走査方向や判定条件を頂点位置に応じて変更する必要があるが、極座標変換画像上では、いずれの頂点も同方向の形状で、かつ頂点部がより鋭く強調される為、全ての頂点を同一かつ単純なアルゴリズムで検出することができる。
(Precise mark position detection: When the mark has other shapes)
If the mark shape discrimination processing has already been performed, the features of the polar coordinate conversion image in the mark shape can be known, and the calculation unit 14 acquires the mark position and the mark size by extracting the feature accordingly.
For example, as shown in FIGS. 7 and 8, when the shape of the mark M is an n-gon, the polar coordinate conversion image has a feature that n contours and valleys can be formed on the contour line of the mark M.
In the original captured image data, in order to acquire the vertex position of the mark M, it is necessary to change the scanning direction and the determination condition according to the vertex position. However, on the polar coordinate conversion image, any vertex is in the same direction. Since the shape and the vertex part are emphasized more sharply, all the vertices can be detected with the same and simple algorithm.

(マークの精密位置検出:第一の特徴点特定工程)
例えば、マークMの形状が正方形である場合、図22に示すように、極座標変換における回転中心C’がマークMの実際の中心Cに対して誤差を生じている場合でも、極座標変換画像データにおける正方形のマークMの4つの頂点P0,P1,P2,P3は、図23に示すように、鋭い山P0,P1,P2,P3となって現れる。
演算部14において、極座標変換データを取得するまでの処理については、前述した場合と同様である。そして、演算部14は、上記各頂点位置を検出する処理を行う。
(Precise mark position detection: first feature point identification process)
For example, when the shape of the mark M is a square, even if the rotation center C ′ in the polar coordinate conversion has an error with respect to the actual center C of the mark M as shown in FIG. As shown in FIG. 23, the four vertices P0, P1, P2, and P3 of the square mark M appear as sharp peaks P0, P1, P2, and P3.
The processing until the calculation unit 14 acquires polar coordinate conversion data is the same as that described above. And the calculating part 14 performs the process which detects each said vertex position.

図24は図23における領域Eの拡大図である。
例えば、図24に示すように、演算部14は、θ軸に沿った垂直ライン毎にエッジ抽出フィルタにより立ち上がりエッジと立下りエッジを検出しこれらを連結した先端位置として検出することが出来る。即ち、この処理が、「極座標変換データにおける背景とマークとの境界線において、先鋭形状の頂点となる特徴点を複数決定する第一の特徴点特定工程」に相当する。また、上記処理を行うことにより、演算部14は「第一の特徴点特定手段」として機能する。
なお、既に述べた他の極座標変換画像においてマークMの輪郭線を算出する場合にも、上記のエッジ抽出フィルタを用いる手法を取り入れても良い。
FIG. 24 is an enlarged view of region E in FIG.
For example, as shown in FIG. 24, the calculation unit 14 can detect the rising edge and the falling edge by the edge extraction filter for each vertical line along the θ axis, and detect the leading edge position by connecting these. That is, this process corresponds to “a first feature point specifying step for determining a plurality of feature points that are sharp vertices on the boundary line between the background and the mark in the polar coordinate conversion data”. Further, by performing the above processing, the calculation unit 14 functions as “first feature point specifying means”.
Note that the above-described method using the edge extraction filter may also be adopted when calculating the contour line of the mark M in another polar coordinate conversion image already described.

(マークの精密位置検出:逆変換工程及び形態要素特定工程)
演算部14は、これにより、求められた極座標変換画像上の頂点Pn(rn,θn)、但しn=0,1,2,3、を、前述した式(2)(x=rcosθ,y=rsinθ)により元の二次元座標Pn(xn,yn)、但しn=0,1,2,3、に変換し、正方形のマークMの頂点の位置が全て正確に求められる。そして、各頂点位置からマークMの重心位置であるマーク位置を算出することができ、各頂点を結ぶ線分から辺又は対角線の長さであるマークサイズを求めることができ、各頂点を結ぶ線分から辺又は対角線の向きであるマークの向きを算出することが可能である。
(Precise mark position detection: Inverse transformation process and form element identification process)
Thus, the calculation unit 14 converts the obtained vertex Pn (rn, θn) on the polar coordinate transformation image, where n = 0, 1, 2, 3 into the above-described formula (2) (x = rcos θ, y = rsinθ) is converted into the original two-dimensional coordinates Pn (xn, yn), where n = 0, 1, 2, 3, and the positions of the vertices of the square mark M are all accurately obtained. Then, the mark position that is the center of gravity of the mark M can be calculated from each vertex position, the mark size that is the length of the side or diagonal line can be obtained from the line segment that connects each vertex, and the line segment that connects each vertex It is possible to calculate the direction of the mark, which is the direction of the side or diagonal.

上記マークの精密位置検出処理において、演算部14は、マークMの輪郭線、即ち、背景とマークとの境界線において、r軸方向、即ち、極座標の動径方向について極値となる特徴点又は先鋭形状の頂点となる特徴点P0〜P3を探索する「特徴点探索手段」として機能する。
また、極座標変換画像上の頂点P0〜P3、即ち、特徴点を元の二次元座標に変換することにより「逆変換手段」として機能する。
また、元の二次元座標の頂点P0〜P3のX−Y座標からマークMの位置、サイズ及び向きを算出することにより「形態要素特定手段」として機能する。
In the precise position detection processing of the mark, the calculation unit 14 is a feature point or an extreme value in the r-axis direction, that is, the radial direction of the polar coordinate, on the contour line of the mark M, that is, the boundary line between the background and the mark. It functions as a “feature point search means” for searching for the feature points P0 to P3 which are the apexes of the sharp shape.
Further, it functions as “inverse conversion means” by converting the vertices P0 to P3 on the polar coordinate conversion image, that is, the feature points into the original two-dimensional coordinates.
Further, it functions as “form element specifying means” by calculating the position, size, and orientation of the mark M from the XY coordinates of the vertices P0 to P3 of the original two-dimensional coordinates.

なお、マークMの輪郭線上にノイズが存在し、頂点の全てが検出できなくてもよい。マークMの位置等を取得する為の必要な頂点数は、マークMの形状により異なるが、例えば、正方形の場合には、2つの頂点で位置、サイズ及び傾きを算出できる。
また、頂点が検出できない場合でも、例えば、極座標変換画像の輪郭線上に現れる谷の底部、即ち、図23のQ0, Q1, Q2, Q3〔極小値となる特徴点〕が各辺の中点に対応するという特性を利用して、マークMの位置、サイズ、向きを求めることが可能である。
Note that there is noise on the contour line of the mark M, and not all of the vertices can be detected. The number of vertices necessary for obtaining the position and the like of the mark M differs depending on the shape of the mark M. For example, in the case of a square, the position, size, and inclination can be calculated with two vertices.
Further, even when the vertex cannot be detected, for example, the bottoms of the valleys appearing on the contour line of the polar coordinate conversion image, that is, Q0, Q1, Q2, and Q3 (feature points that are the minimum values) in FIG. It is possible to obtain the position, size, and orientation of the mark M using the characteristic of corresponding.

なお、上記手法によりマークMのサイズを算出した場合に、さらに、そのマークサイズに基づいてテンプレート画像を生成し、かかるテンプレート画像を用いてテンプレートマッチングを行っても良い。これにより、より精度の高い処理が可能となる。   When the size of the mark M is calculated by the above method, a template image may be further generated based on the mark size, and template matching may be performed using the template image. Thereby, processing with higher accuracy is possible.

(極座標変換画像によるノイズ位置の特定)
なお、極座標変換画像から上記マーク位置、マークサイズ等の算出を行う際に、同時にノイズ位置の特定を行うことも可能である。
例えば、形状が円形と判別されたマークMについて、演算部14は、図25のマークMの撮像画像を、外接スキャン或いはテンプレートマッチングなどにより粗位置決めして求めたマーク中心により図26(A)に示す極座標変換画像を生成する。
さらに、演算部14は、極座標変換画像に対してエッジ抽出処理を行い、エッジ点列からなるマークMの輪郭線を検出し、図26(B)に示すように、Sobelフィルタ等でエッジ点の勾配ベクトルを算出する。なお、図26(B)において横軸はr軸方向を0°とした場合のエッジ勾配ベクトルの角度、縦軸はマークMの輪郭線の全範囲、即ち、θ=0〜360°を示す。
ノイズのない円周輪郭線の勾配ベクトルは図26(A)において右方向、即ち、基準方向としてのr軸方向となるが、濃度ムラ、その他のノイズがあるとその影響で勾配ベクトル方向が変動する。図26(C)に示すように、勾配ベクトル方向を一次微分することにより、隣接線のエッジ点列における隣接エッジ点との方向差であるばらつきが大きい箇所、即ち、θwの範囲を抽出できる。
(Identification of noise position by polar coordinate conversion image)
When calculating the mark position, mark size, etc. from the polar coordinate conversion image, it is also possible to specify the noise position at the same time.
For example, for the mark M whose shape is determined to be circular, the calculation unit 14 uses the mark center obtained by roughly positioning the captured image of the mark M in FIG. 25 by circumscribing scan or template matching in FIG. A polar coordinate conversion image is generated.
Further, the calculation unit 14 performs edge extraction processing on the polar coordinate conversion image, detects the contour line of the mark M including the edge point sequence, and, as shown in FIG. A gradient vector is calculated. In FIG. 26B, the horizontal axis indicates the angle of the edge gradient vector when the r-axis direction is 0 °, and the vertical axis indicates the entire range of the contour line of the mark M, that is, θ = 0 to 360 °.
The gradient vector of the circumferential contour line without noise is in the right direction in FIG. 26A, that is, the r-axis direction as the reference direction. However, if there is density unevenness or other noise, the gradient vector direction changes due to the influence. To do. As shown in FIG. 26C, by linearly differentiating the gradient vector direction, it is possible to extract a portion having a large variation as a direction difference from the adjacent edge point in the edge point sequence of the adjacent line, that is, a range of θw.

また、図26(D)に示すように。図26(A)における極座標変換画像のθ軸方向に沿ったラインごとの輝度値の総和からマーク内部のノイズ量を推測出来る。図26(D)ではマーク中心部Riと輪郭周辺部Rwについて、輝度値の総和量が少ないことから、これらRi,Rw部でのノイズの存在を推測できる。   As shown in FIG. The amount of noise inside the mark can be estimated from the sum of luminance values for each line along the θ-axis direction of the polar coordinate conversion image in FIG. In FIG. 26D, since the sum of luminance values is small for the mark center portion Ri and the contour peripheral portion Rw, the presence of noise in these Ri and Rw portions can be estimated.

上記算出に基づいて、演算部14は、テンプレート画像を生成する。
即ち、マークMの周囲のθ方向ついて、角度θwの範囲は、エッジ勾配ベクトルがばらついている。
そして、輝度値の垂直総和から、マーク中心から半径方向についてRiとRwの範囲は総和量が低いが、中心に近いRiの範囲は元の二次元画像におけるテンプレートマッチングに及ぼす影響が小さいので除外対象に含まない。
従って、図27に示すように、角度範囲θwであって半径方向にRwの範囲については、テンプレートマッチングの対象から除外する。
なお、このように、ノイズ成分が顕著な一部分のみを演算対象外領域としているため、テンプレートのマークの形状的特徴は失われない。
Based on the above calculation, the calculation unit 14 generates a template image.
That is, in the θ direction around the mark M, the edge gradient vector varies in the range of the angle θw.
From the vertical sum of luminance values, the range of Ri and Rw in the radial direction from the center of the mark has a low total amount, but the range of Ri close to the center has a small effect on template matching in the original two-dimensional image, so it is excluded Not included.
Therefore, as shown in FIG. 27, the angular range θw and the range of Rw in the radial direction are excluded from the template matching targets.
As described above, since only a part where the noise component is remarkable is set as the non-computation region, the shape characteristic of the mark of the template is not lost.

なお、前述したマークサイズを取得する工程において、マーク中心位置も同時に検出することが出来る。例えばテンプレートマッチングを用いずに当初のマーク位置決めは単純なスキャンや重心演算で行い、本提案を施してテンプレートマッチングを用いないマーク位置決めも可能である。   In the step of acquiring the mark size described above, the mark center position can be detected at the same time. For example, the initial mark positioning without using template matching can be performed by simple scanning or centroid calculation, and the present proposal can be used to perform mark positioning without using template matching.

10 画像処理装置
14 演算部(中心特定手段、データ変換手段、形状判別手段、第一及び第二の特徴点特定手段、逆変換手段、形態要素特定手段、ノイズ特定手段)
16 マークデータ格納メモリ
19 テンプレートデータ格納メモリ
100 電子部品実装装置
120 制御装置
C 電子部品
K 基板
M マーク
10 image processing device 14 arithmetic unit (center identification means, data conversion means, shape discrimination means, first and second feature point identification means, inverse transformation means, form element identification means, noise identification means)
16 Mark data storage memory 19 Template data storage memory 100 Electronic component mounting device 120 Control device C Electronic component K Substrate M Mark

Claims (8)

電子部品を基板に実装する際に、前記電子部品又は基板に付されたマークを撮像した撮像画像データによるマークの識別に用いられる画像処理方法であって、
前記マークの撮像画像データから当該マークの中心位置を特定する中心特定工程と、
前記マークの中心位置から前記マークの撮像画像データの極座標変換データを取得するデータ変換工程と、
前記極座標変換データにおける背景と前記マークとの境界線の形状的特徴からマークの形状を判別する形状判別工程と備えることを特徴とする画像処理方法。
When mounting an electronic component on a substrate, an image processing method used for identifying a mark by captured image data obtained by imaging a mark attached to the electronic component or the substrate,
A center specifying step of specifying the center position of the mark from the captured image data of the mark;
A data conversion step of obtaining polar coordinate conversion data of captured image data of the mark from the center position of the mark;
An image processing method comprising: a shape determination step of determining a shape of a mark from a shape characteristic of a boundary line between a background and the mark in the polar coordinate conversion data.
前記極座標変換データにおける背景と前記マークとの境界線において、極座標の動径方向について極値となる特徴点又は先鋭形状の頂点となる特徴点を複数特定する第一の特徴点特定工程と、
前記複数の特徴点を二次元座標系に逆変換する逆変換工程と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定工程とを備えることを特徴とする請求項1記載の画像処理方法。
A first feature point specifying step of specifying a plurality of feature points that are extreme values or sharp vertex points in the radial direction of polar coordinates at the boundary line between the background and the mark in the polar coordinate conversion data;
An inverse transformation step of inversely transforming the plurality of feature points into a two-dimensional coordinate system;
The image processing method according to claim 1, further comprising a morphological element specifying step of obtaining a size or orientation of the mark from two-dimensional coordinates of the plurality of feature points.
前記極座標変換データにおける背景と前記マークとの境界線におけるエッジ勾配ベクトルからノイズ部分を特定するノイズ特定工程を備えることを特徴とする請求項1記載の画像処理方法。   The image processing method according to claim 1, further comprising a noise specifying step of specifying a noise portion from an edge gradient vector at a boundary line between a background and the mark in the polar coordinate conversion data. 前記極座標変換データにおける背景と前記マークとの境界線において、前記ノイズ部分を除く範囲内のいずれかに位置する複数の点からなる特徴点を特定する第二の特徴点特定工程と、
前記複数の特徴点を二次元座標系に逆変換する逆変換工程と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定工程とを備えることを特徴とする請求項3記載の画像処理方法。
A second feature point specifying step for specifying a feature point consisting of a plurality of points located anywhere in a range excluding the noise portion at the boundary line between the background and the mark in the polar coordinate conversion data;
An inverse transformation step of inversely transforming the plurality of feature points into a two-dimensional coordinate system;
The image processing method according to claim 3, further comprising a morphological element specifying step of obtaining a size or orientation of the mark from two-dimensional coordinates of the plurality of feature points.
電子部品を基板に実装する際に、前記電子部品又は基板に付されたマークを撮像した撮像画像データによるマークの識別に用いられる画像処理装置であって、
前記マークの撮像画像データから当該マークの中心位置を特定する中心特定手段と、
前記マークの中心位置から前記マークの撮像画像データの極座標変換データを取得するデータ変換手段と、
前記極座標変換データにおける背景と前記マークとの境界線の形状的特徴からマークの形状を判別する形状判別手段と備えることを特徴とする画像処理装置。
When mounting an electronic component on a substrate, an image processing apparatus used for identifying a mark by captured image data obtained by imaging a mark attached to the electronic component or the substrate,
Center specifying means for specifying the center position of the mark from the captured image data of the mark;
Data conversion means for obtaining polar coordinate conversion data of the captured image data of the mark from the center position of the mark;
An image processing apparatus comprising: shape determining means for determining a shape of a mark from a shape characteristic of a boundary line between a background and the mark in the polar coordinate conversion data.
前記極座標変換データにおける背景と前記マークとの境界線において、極座標の動径方向について極値となる特徴点又は先鋭形状の頂点となる特徴点を複数特定する第一の特徴点特定手段と、
前記複数の特徴点を二次元座標系に逆変換する逆変換手段と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定手段とを備えることを特徴とする請求項5記載の画像処理装置。
A first feature point specifying means for specifying a plurality of feature points which are extreme values or sharp vertexes in the radial direction of polar coordinates at a boundary line between the background and the mark in the polar coordinate conversion data;
Inverse transformation means for inversely transforming the plurality of feature points into a two-dimensional coordinate system;
6. The image processing apparatus according to claim 5, further comprising form element specifying means for obtaining a size or orientation of the mark from two-dimensional coordinates of the plurality of feature points.
前記極座標変換データにおける背景と前記マークとの境界線におけるエッジ勾配ベクトルからノイズ部分を特定するノイズ特定手段を備えることを特徴とする請求項5記載の画像処理装置。   6. The image processing apparatus according to claim 5, further comprising noise specifying means for specifying a noise portion from an edge gradient vector on a boundary line between a background and the mark in the polar coordinate conversion data. 前記極座標変換データにおける背景と前記マークとの境界線において、前記ノイズ部分を除く範囲内のいずれかに位置する複数の点からなる特徴点を特定する第二の特徴点特定手段と、
前記複数の特徴点を二次元座標系に逆変換する逆変換手段と、
前記複数の特徴点の二次元座標から前記マークの大きさ又は向きを求める形態要素特定手段とを備えることを特徴とする請求項7記載の画像処理装置。
A second feature point specifying means for specifying a feature point consisting of a plurality of points located anywhere in a range excluding the noise portion at a boundary line between the background and the mark in the polar coordinate conversion data;
Inverse transformation means for inversely transforming the plurality of feature points into a two-dimensional coordinate system;
The image processing apparatus according to claim 7, further comprising a form element specifying unit that obtains the size or orientation of the mark from two-dimensional coordinates of the plurality of feature points.
JP2011067053A 2011-03-25 2011-03-25 Image processing method and image processing device Withdrawn JP2012203612A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011067053A JP2012203612A (en) 2011-03-25 2011-03-25 Image processing method and image processing device
KR1020120030594A KR20120109420A (en) 2011-03-25 2012-03-26 Image processing method and image processing apparatus
CN2012100822257A CN102753003A (en) 2011-03-25 2012-03-26 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011067053A JP2012203612A (en) 2011-03-25 2011-03-25 Image processing method and image processing device

Publications (1)

Publication Number Publication Date
JP2012203612A true JP2012203612A (en) 2012-10-22

Family

ID=47032807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011067053A Withdrawn JP2012203612A (en) 2011-03-25 2011-03-25 Image processing method and image processing device

Country Status (3)

Country Link
JP (1) JP2012203612A (en)
KR (1) KR20120109420A (en)
CN (1) CN102753003A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133349A (en) * 2014-01-09 2015-07-23 ヤマハ発動機株式会社 evaluation device, surface mounting machine, evaluation method
JP7454975B2 (en) 2020-03-23 2024-03-25 Juki株式会社 Image processing device and image processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7197292B2 (en) * 2018-07-04 2022-12-27 Juki株式会社 Electronic component mounting apparatus and electronic component mounting method
JP6696102B1 (en) * 2019-05-20 2020-05-20 東芝エレベータ株式会社 Image processing device and marker
CN111343846B (en) * 2020-02-23 2021-05-25 苏州浪潮智能科技有限公司 Electronic component identification device and method based on PCB manufacturing process

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133349A (en) * 2014-01-09 2015-07-23 ヤマハ発動機株式会社 evaluation device, surface mounting machine, evaluation method
JP7454975B2 (en) 2020-03-23 2024-03-25 Juki株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
KR20120109420A (en) 2012-10-08
CN102753003A (en) 2012-10-24

Similar Documents

Publication Publication Date Title
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
JP4418841B2 (en) Working device and calibration method thereof
US7813559B2 (en) Image analysis for pick and place machines with in situ component placement inspection
CN110163912B (en) Two-dimensional code pose calibration method, device and system
US7545514B2 (en) Pick and place machine with improved component pick image processing
CN109739239B (en) Planning method for uninterrupted instrument recognition of inspection robot
US20130114861A1 (en) Device and method for recognizing three-dimensional position and orientation of article
TWI498580B (en) Length measuring method and length measuring apparatus
JP2017151652A (en) Object state specification method, object state specification apparatus, and conveyance vehicle
JP2012203612A (en) Image processing method and image processing device
JP5206620B2 (en) Member position recognition device, positioning device, joining device, and member joining method
TW200821156A (en) Screen printing equipment, and method for image recognition and alignment
CN103795935B (en) A kind of camera shooting type multi-target orientation method and device based on image rectification
CN110926330A (en) Image processing apparatus, image processing method, and program
JP7353757B2 (en) Methods for measuring artifacts
JP2008294065A (en) Mounting method and mounting device for electronic component
JP2018146347A (en) Image processing device, image processing method, and computer program
JP5160366B2 (en) Pattern matching method for electronic parts
EP2975921A1 (en) Component recognition system for component mounting machine
CN110726402A (en) Laser point vision guiding method of non-orthogonal shafting laser total station
CN113196337B (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
CN108050934A (en) A kind of vision perpendicular positioning method with chamfering workpiece
JP4707423B2 (en) Component position detection method and apparatus
Sansoni et al. Combination of 2D and 3D vision systems into robotic cells for improved flexibility and performance
JP2011044591A (en) Electronic component mounting device and suction position correction method therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603