JP2007309808A - Method and system for detecting position of object - Google Patents

Method and system for detecting position of object Download PDF

Info

Publication number
JP2007309808A
JP2007309808A JP2006139661A JP2006139661A JP2007309808A JP 2007309808 A JP2007309808 A JP 2007309808A JP 2006139661 A JP2006139661 A JP 2006139661A JP 2006139661 A JP2006139661 A JP 2006139661A JP 2007309808 A JP2007309808 A JP 2007309808A
Authority
JP
Japan
Prior art keywords
template image
image
pattern matching
substrate
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006139661A
Other languages
Japanese (ja)
Other versions
JP5318334B2 (en
Inventor
Yutaka Ogura
豊 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2006139661A priority Critical patent/JP5318334B2/en
Publication of JP2007309808A publication Critical patent/JP2007309808A/en
Application granted granted Critical
Publication of JP5318334B2 publication Critical patent/JP5318334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for detecting the position of an object capable of improving precision of pattern matching, and capable of precisely detecting the position of the object. <P>SOLUTION: The substrate 10 is photographed with a substrate recognition camera, part 10a of the image is registered as a template image A. If there exists difference between the fixing angles of the camera when the template image is taken photographed and when the substrate image for pattern matching is taken photographed, the registered template image A is corrected corresponding to the difference between the fixing angles so that the position detection may be performed by the pattern matching with the corrected template image. By this constitution, even in the case the fixing angle is including an error, the highly precise position detection by the pattern matching can be performed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、対象物の位置検出方法及び装置、更に詳細には、プリント基板などの対象物の特徴部をテンプレートとして登録し、パターンマッチングにより対象物の位置を検出する対象物の位置検出方法及び装置に関する。   The present invention relates to a position detection method and apparatus for an object, and more specifically, registers a feature of an object such as a printed circuit board as a template, and detects the position of the object by pattern matching and Relates to the device.

従来、電子部品実装機では、電子部品を精度良く基板に搭載するためにプリント基板が装置内に搬入され、搭載を行う前準備として搭載位置にプリント基板を固定し、基板にプリントされている基準マークを認識し、プリント基板の位置ずれ、印刷ずれを補正し電子部品を精度よく搭載していた。また、プリント基板に基準マークが無い場合は、特徴あるマーク、パターンなどをテンプレートとして登録し、この画像を用い順次搬入されるプリント基板とのパターンマッチングを行うことにより基板の位置を検出し精度よく電子部品を搭載していた(特許文献1、2)。   Conventionally, in an electronic component mounting machine, a printed circuit board is carried into the apparatus in order to mount the electronic component on the substrate with high accuracy, and the printed circuit board is fixed at the mounting position as a preparation before mounting, and printed on the substrate. Recognize the mark, correct the misalignment of the printed circuit board and print misalignment, and mounted the electronic components accurately. Also, if there is no reference mark on the printed circuit board, register a characteristic mark, pattern, etc. as a template, and detect the position of the board with high accuracy by performing pattern matching with the printed circuit board that is sequentially loaded using this image. Electronic parts were mounted (Patent Documents 1 and 2).

また、電子部品実装機以外のスクリーン印刷機や接着剤塗布装置などプリント基板を位置決めし作業を行う機械も、同様の位置検出方法を用いていた。
特開平11−337311号公報 特開2001−124518号公報
In addition, machines that position and work on printed boards such as screen printing machines and adhesive application devices other than electronic component mounting machines also use the same position detection method.
JP-A-11-337311 JP 2001-124518 A

しかしながら、プリント基板の特徴あるマークやパターンなどをテンプレートとして登録する場合、カメラの取り付け誤差により生じる視野倍率の誤差、撮像装置の傾きなどにより、登録したテンプレートを別の撮像装置を用いる装置、ステーションではテンプレート画像のサイズ、傾きが異なり精度良いパターンマッチングができないという問題があった。   However, when registering a characteristic mark or pattern of a printed circuit board as a template, the registered template is used in an apparatus or station that uses another image pickup device due to an error in the field of view magnification caused by a camera mounting error or an inclination of the image pickup device. There is a problem that the pattern matching cannot be performed accurately because the size and inclination of the template image are different.

また、装置またはカメラユニット毎に特徴部位のテンプレートを登録すると、オペレーターの手間がかかり、また、画像処理装置もテンプレートデータを各々登録しなければならず、コスト、作業時間のロスが大きいという問題があった。また、特許文献2では、異なる機械の画像処理装置の光学倍率を読み込み登録パターンを変換しているが、個々の撮像装置の傾き情報が考慮されないため、認識精度に問題が生じるという問題点があった。   In addition, registering a feature part template for each device or camera unit takes time and effort for the operator, and the image processing device must also register each template data, resulting in a large loss of cost and work time. there were. In Patent Document 2, the optical magnification of an image processing apparatus of a different machine is read and the registered pattern is converted. However, since the inclination information of each imaging apparatus is not taken into account, there is a problem that recognition accuracy causes a problem. It was.

本発明は、このような問題点に鑑みてなされたもので、パターンマッチングの精度を向上させ、対象物の位置を正確に検出することが可能な対象物の位置検出方法及び装置を提供することを課題とする。   The present invention has been made in view of such problems, and provides an object position detection method and apparatus capable of improving the accuracy of pattern matching and accurately detecting the position of the object. Is an issue.

本発明は、
パターンマッチングにより対象物の位置を検出する対象物の位置検出方法であって、
撮像装置により対象物を撮像して、該撮像された画像の一部をテンプレート画像として登録し、
対象物を撮像して前記テンプレート画像に基づいてパターンマッチングを行うとき、テンプレート画像を取得したときの撮像装置の取り付け角度とパターンマッチングのために対象物を撮像するときの撮像装置の取り付け角度に差があるときには、該取り付け角度の差に応じて前記登録したテンプレート画像を補正し、該補正したテンプレート画像とのパターンマッチングにより対象物の位置検出を行うことを特徴とする。
The present invention
An object position detection method for detecting the position of an object by pattern matching,
An object is imaged by an imaging device, a part of the captured image is registered as a template image,
When imaging a target and performing pattern matching based on the template image, the difference between the mounting angle of the imaging device when the template image is acquired and the mounting angle of the imaging device when imaging the target for pattern matching When there is, the registered template image is corrected according to the difference in the mounting angle, and the position of the object is detected by pattern matching with the corrected template image.

また、本発明は、
パターンマッチングにより対象物の位置を検出する対象物の位置検出装置であって、
撮像装置により撮像された対象物の画像の一部をテンプレート画像として記憶する記憶手段と、
撮像装置の取り付け角度を記憶する記憶手段とを設け、
対象物を撮像して前記テンプレート画像に基づいてパターンマッチングを行うとき、テンプレート画像を取得したときの撮像装置の取り付け角度とパターンマッチングのために対象物を撮像するときの撮像装置の取り付け角度に差があるときには、該取り付け角度の差に応じて前記記憶したテンプレート画像を補正し、該補正したテンプレート画像とのパターンマッチングにより対象物の位置検出を行うことを特徴とする。
The present invention also provides:
An object position detection device for detecting the position of an object by pattern matching,
Storage means for storing a part of an image of the object imaged by the imaging device as a template image;
Storage means for storing the mounting angle of the imaging device;
When imaging a target and performing pattern matching based on the template image, the difference between the mounting angle of the imaging device when the template image is acquired and the mounting angle of the imaging device when imaging the target for pattern matching When there is, the stored template image is corrected according to the difference in the mounting angle, and the position of the object is detected by pattern matching with the corrected template image.

本発明によれば、テンプレート画像を取得したときの撮像装置の取り付け角度とパターンマッチングのために対象物を撮像するときの撮像装置の取り付け角度に差があるときには、その差に応じたテンプレート画像の補正を行ってパターンマッチングを行うようにしているので、撮像装置の取り付け角度誤差があっても、良好なパターンマッチングができ、対象物の位置を高精度で検出することができる。   According to the present invention, when there is a difference between the mounting angle of the imaging device when the template image is acquired and the mounting angle of the imaging device when capturing an object for pattern matching, the template image corresponding to the difference is displayed. Since correction is performed to perform pattern matching, even if there is an attachment angle error of the imaging device, good pattern matching can be performed and the position of the object can be detected with high accuracy.

また、テンプレート画像を、種々の装置で共有することができるため、テンプレート画像の管理が容易になるという効果が得られる。   Further, since the template image can be shared by various devices, an effect that the management of the template image becomes easy can be obtained.

以下、図面に示す実施例に基づいて本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.

図1は、電子部品(以下、部品という)をプリント基板に搭載する部品実装機(マウンタ)1を概略示す図である。同図に示すように、吸着ノズル13aを備えた吸着ヘッド13がX軸方向に移動できるようにX軸移動機構11に取り付けられており、また、X軸移動機構11はY軸方向に移動できるようにY軸移動機構12に取り付けられ、それにより吸着ヘッド13は、X、Y軸方向に移動可能となる。   FIG. 1 is a diagram schematically showing a component mounter (mounter) 1 for mounting electronic components (hereinafter referred to as components) on a printed circuit board. As shown in the figure, a suction head 13 having a suction nozzle 13a is attached to an X-axis movement mechanism 11 so that it can move in the X-axis direction, and the X-axis movement mechanism 11 can move in the Y-axis direction. In this way, the suction head 13 can be moved in the X and Y axis directions.

部品供給装置14から供給される部品2は、吸着ヘッド13により吸着され、搬送路15に沿って搬送される基板10の所定位置に搭載される。基板の位置ずれを認識するために、吸着ヘッド13には、基板認識カメラ17が搭載されており、また部品の吸着姿勢を認識するために部品認識カメラ16が部品実装機1の底部に取り付けられている。   The component 2 supplied from the component supply device 14 is sucked by the suction head 13 and mounted at a predetermined position of the substrate 10 that is transported along the transport path 15. A substrate recognition camera 17 is mounted on the suction head 13 to recognize the displacement of the substrate, and a component recognition camera 16 is attached to the bottom of the component mounting machine 1 to recognize the suction posture of the component. ing.

また、部品実装機1の前面上部には、装置の動作状態などを表示するオペレーションモニター18が設けられており、装置全体の制御と、画像処理などを行う制御部19が本体内に設けられている。制御部19は、基板認識カメラ17で撮影されたプリント基板10の画像を処理して基板の位置ずれを算出し、また部品認識カメラ16で撮像された部品画像に基づき部品吸着ずれを算出し、これらのずれを補正して部品2をプリント基板10の所定位置に正しい姿勢で搭載する。   In addition, an operation monitor 18 for displaying the operation state of the apparatus and the like is provided at the upper front of the component mounter 1, and a control unit 19 for controlling the entire apparatus and performing image processing is provided in the main body. Yes. The control unit 19 processes the image of the printed circuit board 10 taken by the board recognition camera 17 to calculate the board position deviation, and calculates the part suction deviation based on the part image taken by the part recognition camera 16. By correcting these deviations, the component 2 is mounted at a predetermined position on the printed circuit board 10 in a correct posture.

図2は部品実装機1の制御系の構成を示している。図1中の制御部19は、図2のコントローラ20、画像処理装置27及び記憶装置30などから構成される。   FIG. 2 shows the configuration of the control system of the component mounting machine 1. The control unit 19 in FIG. 1 includes the controller 20, the image processing device 27, the storage device 30, and the like in FIG.

コントローラ20は、装置全体を制御するマイクロコンピュータ(CPU)、並びにRAM、ROMなどからなり、X軸移動機構11の駆動源であるX軸モータ21、Y軸移動機構12の駆動源であるY軸モータ22、吸着ノズル13aをZ軸方向(高さ方向)に昇降させるZ軸モータ23、吸着ノズル13aをそのノズル中心軸(吸着軸)を中心にして回転させるθ軸モータ24を制御する。   The controller 20 includes a microcomputer (CPU) that controls the entire apparatus, a RAM, a ROM, and the like, and an X-axis motor 21 that is a drive source of the X-axis moving mechanism 11 and a Y-axis that is a drive source of the Y-axis moving mechanism 12. The motor 22 and the Z-axis motor 23 that moves the suction nozzle 13a up and down in the Z-axis direction (height direction) and the θ-axis motor 24 that rotates the suction nozzle 13a around the nozzle center axis (suction axis) are controlled.

また、コントローラ20は、プリント基板10を基板認識カメラ17で撮像するとき、基板照明光源25を点灯して基板10を照明し、また吸着ノズル13aに吸着された部品2を撮像するときには、部品照明光源26を点灯して部品2を照明する。   The controller 20 turns on the board illumination light source 25 to illuminate the board 10 when taking an image of the printed board 10 with the board recognition camera 17, and takes part illumination when taking an image of the component 2 sucked by the suction nozzle 13 a. The light source 26 is turned on to illuminate the component 2.

画像処理装置27は、A/D変換器27a、CPU27b、それに画像メモリ27c、テンプレートメモリ27d、データメモリ27eなどの記憶手段から構成され、撮像装置としての基板認識カメラ17で撮像された基板10のアナログの画像信号は、A/D変換器27aによりデジタル信号に変換されて画像メモリ27cに格納される。CPU27bは、基板10上に形成された基板マークの位置を検出して基板10の位置を検出する。また、基板10に基板マークが印刷されていない場合には、後述するように、テンプレートメモリ27dに格納されたテンプレート画像とのパターンマッチングにより基板10の位置を認識する。   The image processing device 27 includes an A / D converter 27a, a CPU 27b, and storage means such as an image memory 27c, a template memory 27d, and a data memory 27e. The image processing device 27 includes the substrate 10 captured by the substrate recognition camera 17 serving as an imaging device. The analog image signal is converted into a digital signal by the A / D converter 27a and stored in the image memory 27c. The CPU 27 b detects the position of the substrate 10 by detecting the position of the substrate mark formed on the substrate 10. When the substrate mark is not printed on the substrate 10, the position of the substrate 10 is recognized by pattern matching with the template image stored in the template memory 27d as will be described later.

また、部品認識カメラ16で撮像された部品2のアナログの画像信号は、A/D変換器27aによりデジタル信号に変換されて画像メモリ27cに格納され、CPU27bが部品画像データに基づいて吸着された部品2の吸着中心に対する部品中心の位置ずれと吸着角度のずれを認識する。   The analog image signal of the component 2 captured by the component recognition camera 16 is converted into a digital signal by the A / D converter 27a and stored in the image memory 27c, and the CPU 27b is sucked based on the component image data. The position shift of the component center and the shift of the suction angle with respect to the suction center of the component 2 are recognized.

なお、機種によっては、高精度な認識を要求されない部品を認識するために、レーザー発光部35とレーザー受光部36からなるレーザーユニットが吸着ノズル13に搭載される。レーザー発光部35からの発生するレーザー光で照射された部品2の影がレーザー受光部36で受光され、部品中心と部品吸着角度が検出される。   Note that, depending on the model, a laser unit including a laser light emitting unit 35 and a laser light receiving unit 36 is mounted on the suction nozzle 13 in order to recognize a component that does not require highly accurate recognition. The shadow of the component 2 irradiated with the laser light generated from the laser emitting unit 35 is received by the laser receiving unit 36, and the component center and the component suction angle are detected.

コントローラ20は、認識された基板の位置ずれ、部品の吸着ずれに基づき部品2の搭載位置を補正し、その補正された搭載位置に吸着ヘッド13を移動させて部品2を搭載する。   The controller 20 corrects the mounting position of the component 2 based on the recognized positional deviation of the board and the suction displacement of the component, and moves the suction head 13 to the corrected mounting position to mount the component 2.

キーボード28とマウス29は、部品データなどのデータを入力するために用いられる。記憶装置30は、フラッシュメモリなどで構成され、キーボード28とマウス29により入力された部品データ、及び不図示のホストコンピュータから供給される部品データなどを格納するのに用いられる。   The keyboard 28 and mouse 29 are used for inputting data such as component data. The storage device 30 is configured by a flash memory or the like, and is used to store component data input by the keyboard 28 and the mouse 29, component data supplied from a host computer (not shown), and the like.

表示装置31は、図1のモニタ18に対応し、部品データ、演算データ、及び基板認識カメラ17で撮像された基板10の画像、部品認識カメラ16で撮像した部品2の画像などを画面31aに表示する。   The display device 31 corresponds to the monitor 18 in FIG. 1 and displays, on a screen 31a, component data, calculation data, an image of the substrate 10 captured by the substrate recognition camera 17, an image of the component 2 captured by the component recognition camera 16, and the like. indicate.

なお、煩雑さを避けるために、図2に示した基板照明光源25、部品照明光源26、レーザー発光部35、レーザー受光部36、キーボード28やマウス29などは、図1では図示が省略されている。   In order to avoid complication, the substrate illumination light source 25, the component illumination light source 26, the laser light emitting unit 35, the laser light receiving unit 36, the keyboard 28, the mouse 29, etc. shown in FIG. 2 are not shown in FIG. Yes.

搬送路15に沿って搬送されてくる基板10は、所定の部品搭載位置に搬送されると、その位置で停止して固定される。このとき、基板10は必ずしも正規の位置で固定されるわけではないので、吸着ヘッド13を基板位置に移動させて、基板認識カメラ17により基板10が撮像され、その画像を処理することにより基板10の位置決め(基板の位置検出)が行われ、基板に位置ずれがある場合には、この位置ずれが補正される。   When the substrate 10 transported along the transport path 15 is transported to a predetermined component mounting position, the substrate 10 stops and is fixed at that position. At this time, since the substrate 10 is not necessarily fixed at the regular position, the substrate 10 is imaged by the substrate recognition camera 17 by moving the suction head 13 to the substrate position, and the substrate 10 is processed by processing the image. Positioning (substrate position detection) is performed, and when there is a positional deviation in the substrate, this positional deviation is corrected.

本発明では、この基板の位置決めは、パターンマッチングにより行われる。そのために、位置決め用のパターンをテンプレート画像として画像処理装置27のテンプレートメモリ27dに予め登録する。基板に特定の位置決めマークが形成されている場合は、その位置決めマークの画像をテンプレート画像としてメモリ27dに登録し、一方、特定の位置決めマークがない場合には、図3(A)に示したように、基板10内の任意の領域10aに含まれる基板上の回路パターンや特徴ある回路マークを位置決め用のテンプレートとする。そのため、基板10を基板認識カメラ17で撮像し、回路パターンや特徴ある回路マークが存在する領域10aを設定し、領域10a内の画像を切り出して、それを、図3(B)に示したように、テンプレート画像Aとしテンプレートメモリ27dに登録する。そのとき、テンプレート画像Aを取得した領域10aの位置データ(座標値)、テンプレート画像Aを撮像した基板認識カメラ17の光学的、機械的な諸元、光学倍率(スケーリング)などの撮像条件、それに基板認識カメラ17の吸着ヘッド13への取り付け角度などのデータを、テンプレート画像Aと関連付けてデータメモリ27eに登録する。なお、これらのデータは、記憶装置30に格納して、データメモリ27eにロードするようにしてもよい。   In the present invention, the substrate is positioned by pattern matching. For this purpose, a positioning pattern is registered in advance in the template memory 27d of the image processing apparatus 27 as a template image. When a specific positioning mark is formed on the substrate, an image of the positioning mark is registered in the memory 27d as a template image. On the other hand, when there is no specific positioning mark, as shown in FIG. In addition, a circuit pattern or a characteristic circuit mark on the substrate included in an arbitrary region 10a in the substrate 10 is used as a positioning template. Therefore, the board 10 is imaged by the board recognition camera 17, an area 10a where a circuit pattern or a characteristic circuit mark exists is set, an image in the area 10a is cut out, and this is shown in FIG. The template image A is registered in the template memory 27d. At that time, the position data (coordinate values) of the area 10a from which the template image A was acquired, the optical and mechanical specifications of the substrate recognition camera 17 that captured the template image A, the imaging conditions such as the optical magnification (scaling), and Data such as the attachment angle of the substrate recognition camera 17 to the suction head 13 is registered in the data memory 27e in association with the template image A. These data may be stored in the storage device 30 and loaded into the data memory 27e.

このような構成において、基板の位置検出を行う流れを図5、図6の流れに沿って説明する。   In such a configuration, the flow of detecting the position of the substrate will be described along the flow of FIGS.

まず、部品実装機1において、基板10を部品搭載位置に固定し(ステップS1)、吸着ヘッド13を移動させて、基板認識カメラ17で基板10を撮像する。このときの基板10の表示装置31上の画像が図3(A)に示されている。作業者は、この画像を見て特徴部位あるいは特徴的なパターンのある領域10aを設定し(ステップS2)、図3(B)に示したように、この領域10a内の画像をテンプレート画像Aとして取り込み(ステップS3)、それをテンプレートメモリ27dに格納する(ステップS4)。このとき、基板10を撮像した基板認識カメラ17の光学倍率(スケーリング)、基板認識カメラ17の取り付け角度をテンプレート画像Aと関連付けてデータメモリ27eに格納する。   First, in the component mounter 1, the substrate 10 is fixed at the component mounting position (step S1), the suction head 13 is moved, and the substrate recognition camera 17 images the substrate 10. An image of the substrate 10 on the display device 31 at this time is shown in FIG. The operator sees this image and sets a region 10a having a characteristic part or a characteristic pattern (step S2), and the image in this region 10a is used as a template image A as shown in FIG. Capture (step S3) and store it in the template memory 27d (step S4). At this time, the optical magnification (scaling) of the board recognition camera 17 that images the board 10 and the mounting angle of the board recognition camera 17 are stored in the data memory 27e in association with the template image A.

ここで、基板認識カメラ17の取り付け角度は、矩形の撮像面を水平にして(撮像光軸を垂直にして)、基板認識カメラ17を吸着ヘッド13に取り付けるものとして、撮像面の一辺がX軸あるいはY軸に対してなす角度であり、たとえば、X軸又はY軸を移動させて、X軸又はY軸に平行な直線上の同一部を撮像し、画像処理して直線の傾きを検出することにより、基板認識カメラ17の取り付け角度を求めることができる。また、X軸又はY軸を移動させ、円形のマークなどを撮像し、基板認識カメラ17の取り付け角度を求めるようにしてもよい。   Here, the mounting angle of the substrate recognition camera 17 is such that the rectangular imaging surface is horizontal (imaging optical axis is vertical) and the substrate recognition camera 17 is attached to the suction head 13, and one side of the imaging surface is the X axis. Alternatively, it is an angle formed with respect to the Y axis. For example, the X axis or the Y axis is moved, the same part on a straight line parallel to the X axis or the Y axis is imaged, and the inclination of the straight line is detected by image processing. Thus, the mounting angle of the board recognition camera 17 can be obtained. Further, the mounting angle of the board recognition camera 17 may be obtained by moving the X axis or the Y axis to capture a circular mark or the like.

次に、たとえば、異なるあるいは同一の基板認識カメラを吸着ヘッドに取り付けた他の部品実装機で、同一の基板の位置検出を行う際には、位置決めのためのテンプレートを新たに登録するのではなく、ステップS4で保存したテンプレート画像A、その画像撮像時のカメラの光学倍率情報、カメラの取り付け角度を読み込み(図6のステップS11)、他の部品実装機での基板認識カメラの倍率、取り付け角度に基づいてテンプレート画像Aを変換して、新たなテンプレート画像を作成する。   Next, for example, when detecting the position of the same board with another component mounting machine having different or the same board recognition camera attached to the suction head, a template for positioning is not newly registered. The template image A stored in step S4, the optical magnification information of the camera at the time of image capturing, and the camera mounting angle are read (step S11 in FIG. 6), and the magnification and mounting angle of the board recognition camera in another component mounting machine. Based on the above, the template image A is converted to create a new template image.

具体的には、例えば、図3(B)で示すテンプレート画像Aが、視野が6平方mm、取り付け角度が−0.1度の基板認識カメラを備えた部品実装機機械での基板の位置検出に使用されるテンプレートである場合、視野が6.6平方mm、取り付け角度が0.3度の基板認識カメラを備えた他の部品実装機でテンプレートマッチングを行うときには、テンプレート画像Aを6.6/6倍に拡大し、(0.3−(−0.1))度の傾き補正をアフィン変換等の変換方式で行って、図4(B)に示したような拡大、回転したテンプレート画像Bを作成する(ステップS12)。   Specifically, for example, the template image A shown in FIG. 3B has a board position detection in a component mounter machine equipped with a board recognition camera having a visual field of 6 square mm and an attachment angle of −0.1 degrees. When the template matching is performed by another component mounting machine equipped with a board recognition camera having a visual field of 6.6 square mm and an attachment angle of 0.3 degrees, the template image A is 6.6. The template image is enlarged and rotated as shown in FIG. 4B by enlarging the image by 6 times and performing inclination correction of (0.3 − (− 0.1)) degree by a conversion method such as affine transformation. B is created (step S12).

このようにして作成されたテンプレート画像Bは、上記他の部品実装機の基板撮影カメラで撮像した図4(A)に示す基板10の画像の領域10aから作成したテンプレート画像に相当するので、基板の生産を開始し(ステップS13)、このテンプレート画像Bを用いて、図4(A)に示す基板画像と、テンプレート画像Bとのパターンマッチングにより、他の部品実装機での基板の位置検出(位置決め)を行う(ステップS14)。   The template image B created in this way corresponds to the template image created from the area 10a of the image of the board 10 shown in FIG. 4A taken by the board photographing camera of the other component mounting machine. (Step S13), and using this template image B, the position of the board in another component mounter is detected by pattern matching between the board image shown in FIG. Positioning) is performed (step S14).

このように、新たに位置決めを行うカメラの光学倍率情報とカメラの取り付け角度情報を考慮してテンプレート画像を補正することにより、異なるカメラで撮像した画像と、補正されたテンプレート画像とのパターンマッチングをすることが可能となるので、他の部品実装機でのパターンマッチングによる位置検出精度を維持することができ、また、テンプレートを種々の機械ないし装置で共有することができるので、テンプレート作成過程が簡略化されるとともに、テンプレート画像の管理が容易になる。   As described above, by correcting the template image in consideration of the optical magnification information of the camera to be newly positioned and the mounting angle information of the camera, pattern matching between the image captured by the different camera and the corrected template image is performed. This makes it possible to maintain position detection accuracy by pattern matching on other component mounting machines and to share templates with various machines or devices, thus simplifying the template creation process. And the management of the template image becomes easy.

なお、上述した実施例では、カメラの光学倍率情報とカメラの取り付け角度情報を考慮してテンプレート画像を補正ないし変換しているが、光学倍率が同じに設定されている場合には、カメラの取り付け角度情報のみを考慮してテンプレート画像を補正ないし変換するようにしてもよい。   In the above-described embodiment, the template image is corrected or converted in consideration of the optical magnification information of the camera and the mounting angle information of the camera. However, if the optical magnification is set to be the same, the camera is attached. The template image may be corrected or converted in consideration of only the angle information.

また、上述した実施例では、対象物として、部品が搭載されるプリント基板を例示したが、これに限定されることなく、対象物を部品実装機で搭載する部品とすることもでき、部品画像に基づく部品認識(部品の位置検出)にも適用することができる。この場合には、カメラは部品認識カメラであるので、部品実装機での部品認識カメラ16の光学倍率及び/取り付け角度に基づいて、すでに他の部品実施機において作成されているテンプレート画像の変換を行い、この変換されたテンプレート画像を用いてパターンマッチングを行うようにする。   In the above-described embodiment, the printed circuit board on which the component is mounted is exemplified as the object. However, the object is not limited to this, and the object can be a component mounted on the component mounting machine. It can also be applied to component recognition based on the above (component position detection). In this case, since the camera is a component recognition camera, based on the optical magnification and / or mounting angle of the component recognition camera 16 in the component mounter, the template image already created in another component execution machine is converted. And pattern matching is performed using the converted template image.

部品実装機の外観を概略示した斜視図である。It is the perspective view which outlined the external appearance of the component mounting machine. 部品実装機の制御系を示したブロック図である。It is the block diagram which showed the control system of the component mounting machine. 部品実装機で撮像された基板画像からテンプレート画像を取り込む状態を説明する説明図である。It is explanatory drawing explaining the state which takes in a template image from the board | substrate image imaged with the component mounting machine. 他の部品実装機で撮像された基板の画像を示す説明図である。It is explanatory drawing which shows the image of the board | substrate imaged with the other component mounting machine. テンプレート画像の取り込みの流れを説明するフローチャートである。It is a flowchart explaining the flow of taking in a template image. テンプレート画像の補正並びに補正されたテンプレート画像によるパターンマッチングの流れを示すフローチャートである。It is a flowchart which shows the flow of the pattern matching by correction | amendment of a template image and the corrected template image.

符号の説明Explanation of symbols

10 プリント基板
13 吸着ノズル
16 部品認識カメラ
17 基板認識カメラ
27 画像処理装置
DESCRIPTION OF SYMBOLS 10 Printed circuit board 13 Adsorption nozzle 16 Component recognition camera 17 Board | substrate recognition camera 27 Image processing apparatus

Claims (4)

パターンマッチングにより対象物の位置を検出する対象物の位置検出方法であって、
撮像装置により対象物を撮像して、該撮像された画像の一部をテンプレート画像として登録し、
対象物を撮像して前記テンプレート画像に基づいてパターンマッチングを行うとき、テンプレート画像を取得したときの撮像装置の取り付け角度とパターンマッチングのために対象物を撮像するときの撮像装置の取り付け角度に差があるときには、該取り付け角度の差に応じて前記登録したテンプレート画像を補正し、該補正したテンプレート画像とのパターンマッチングにより対象物の位置検出を行うことを特徴とする対象物の位置検出方法。
An object position detection method for detecting the position of an object by pattern matching,
An object is imaged by an imaging device, a part of the captured image is registered as a template image,
When imaging a target and performing pattern matching based on the template image, the difference between the mounting angle of the imaging device when the template image is acquired and the mounting angle of the imaging device when imaging the target for pattern matching When there is a target object, the registered template image is corrected according to the difference in the mounting angle, and the target object position is detected by pattern matching with the corrected template image.
テンプレート画像を取得したときの撮像装置の光学倍率とパターンマッチングのために対象物を撮像するときの撮像装置の光学倍率に差があるときには、更に、該光学倍率の差に応じたテンプレート画像の補正を行うことを特徴とする請求項1に記載の対象物の位置検出方法。   If there is a difference between the optical magnification of the imaging device when the template image is acquired and the optical magnification of the imaging device when imaging an object for pattern matching, further correction of the template image according to the difference in the optical magnification The method for detecting a position of an object according to claim 1, wherein: パターンマッチングにより対象物の位置を検出する対象物の位置検出装置であって、
撮像装置により撮像された対象物の画像の一部をテンプレート画像として記憶する記憶手段と、
撮像装置の取り付け角度を記憶する記憶手段とを設け、
対象物を撮像して前記テンプレート画像に基づいてパターンマッチングを行うとき、テンプレート画像を取得したときの撮像装置の取り付け角度とパターンマッチングのために対象物を撮像するときの撮像装置の取り付け角度に差があるときには、該取り付け角度の差に応じて前記記憶したテンプレート画像を補正し、該補正したテンプレート画像とのパターンマッチングにより対象物の位置検出を行うことを特徴とする対象物の位置検出装置。
An object position detection device for detecting the position of an object by pattern matching,
Storage means for storing a part of an image of the object imaged by the imaging device as a template image;
Storage means for storing the mounting angle of the imaging device;
When imaging a target and performing pattern matching based on the template image, the difference between the mounting angle of the imaging device when the template image is acquired and the mounting angle of the imaging device when imaging the target for pattern matching An object position detecting apparatus that corrects the stored template image according to the difference in the attachment angle and detects the position of the object by pattern matching with the corrected template image.
テンプレート画像を取得したときの撮像装置の光学倍率とパターンマッチングのために対象物を撮像するときの撮像装置の光学倍率に差があるときには、更に、該光学倍率の差に応じたテンプレート画像の補正を行うことを特徴とする請求項3に記載の対象物の位置検出装置。   If there is a difference between the optical magnification of the imaging device when the template image is acquired and the optical magnification of the imaging device when imaging an object for pattern matching, further correction of the template image according to the difference in the optical magnification The object position detection apparatus according to claim 3, wherein:
JP2006139661A 2006-05-19 2006-05-19 Method and apparatus for detecting position of object Active JP5318334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006139661A JP5318334B2 (en) 2006-05-19 2006-05-19 Method and apparatus for detecting position of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006139661A JP5318334B2 (en) 2006-05-19 2006-05-19 Method and apparatus for detecting position of object

Publications (2)

Publication Number Publication Date
JP2007309808A true JP2007309808A (en) 2007-11-29
JP5318334B2 JP5318334B2 (en) 2013-10-16

Family

ID=38842790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006139661A Active JP5318334B2 (en) 2006-05-19 2006-05-19 Method and apparatus for detecting position of object

Country Status (1)

Country Link
JP (1) JP5318334B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036272B1 (en) * 2008-06-12 2011-05-23 (주)엠아이텍코리아 Quality Inspection Method for Metallic Mould And Plastic Mould
JP2011112379A (en) * 2009-11-24 2011-06-09 Omron Corp Image processing device and image processing program
WO2014061372A1 (en) 2012-10-18 2014-04-24 コニカミノルタ株式会社 Image-processing device, image-processing method, and image-processing program
JP2015005093A (en) * 2013-06-20 2015-01-08 キヤノン株式会社 Pattern matching device and pattern matching method
JP2015152475A (en) * 2014-02-17 2015-08-24 株式会社Screenホールディングス Displacement detector, apparatus for processing substrate, method for detecting displacement, and method for processing substrate
CN105184793A (en) * 2015-09-02 2015-12-23 广东电网有限责任公司汕尾供电局 Electric energy meter sample appearance and PCB element detection method
CN105389818A (en) * 2015-11-12 2016-03-09 广州视源电子科技股份有限公司 Method and system for positioning element
CN105588841A (en) * 2016-01-28 2016-05-18 浙江工业大学 Stitch inclination defect detection device based on machine vision
JP2017045166A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium
JP2017072924A (en) * 2015-10-06 2017-04-13 富士機械製造株式会社 Image processing device for substrate
CN112082480A (en) * 2020-09-08 2020-12-15 浙江清华柔性电子技术研究院 Method and system for measuring spatial orientation of chip, electronic device and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62233705A (en) * 1986-04-04 1987-10-14 Hitachi Ltd Position detecting method
JPH08240411A (en) * 1994-09-30 1996-09-17 Omron Corp Device and method for detecting dislocation, image measuring device and model registering device
JPH116711A (en) * 1997-06-16 1999-01-12 Matsushita Electric Ind Co Ltd Method for measuring calibration value of image pickup unit for measurement
JP2001124518A (en) * 1999-10-28 2001-05-11 Matsushita Electric Ind Co Ltd Image recognition method
JP2001174221A (en) * 1999-12-16 2001-06-29 Juki Corp Method and device for detecting position of component
JP2002259992A (en) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc Image processor and its method as well as program code and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62233705A (en) * 1986-04-04 1987-10-14 Hitachi Ltd Position detecting method
JPH08240411A (en) * 1994-09-30 1996-09-17 Omron Corp Device and method for detecting dislocation, image measuring device and model registering device
JPH116711A (en) * 1997-06-16 1999-01-12 Matsushita Electric Ind Co Ltd Method for measuring calibration value of image pickup unit for measurement
JP2001124518A (en) * 1999-10-28 2001-05-11 Matsushita Electric Ind Co Ltd Image recognition method
JP2001174221A (en) * 1999-12-16 2001-06-29 Juki Corp Method and device for detecting position of component
JP2002259992A (en) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc Image processor and its method as well as program code and storage medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036272B1 (en) * 2008-06-12 2011-05-23 (주)엠아이텍코리아 Quality Inspection Method for Metallic Mould And Plastic Mould
JP2011112379A (en) * 2009-11-24 2011-06-09 Omron Corp Image processing device and image processing program
WO2014061372A1 (en) 2012-10-18 2014-04-24 コニカミノルタ株式会社 Image-processing device, image-processing method, and image-processing program
JP2015005093A (en) * 2013-06-20 2015-01-08 キヤノン株式会社 Pattern matching device and pattern matching method
JP2015152475A (en) * 2014-02-17 2015-08-24 株式会社Screenホールディングス Displacement detector, apparatus for processing substrate, method for detecting displacement, and method for processing substrate
JP2017045166A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium
CN105184793A (en) * 2015-09-02 2015-12-23 广东电网有限责任公司汕尾供电局 Electric energy meter sample appearance and PCB element detection method
JP2017072924A (en) * 2015-10-06 2017-04-13 富士機械製造株式会社 Image processing device for substrate
CN105389818A (en) * 2015-11-12 2016-03-09 广州视源电子科技股份有限公司 Method and system for positioning element
WO2017080295A1 (en) * 2015-11-12 2017-05-18 广州视源电子科技股份有限公司 Element positioning method and system
CN105588841A (en) * 2016-01-28 2016-05-18 浙江工业大学 Stitch inclination defect detection device based on machine vision
CN112082480A (en) * 2020-09-08 2020-12-15 浙江清华柔性电子技术研究院 Method and system for measuring spatial orientation of chip, electronic device and storage medium

Also Published As

Publication number Publication date
JP5318334B2 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
JP5318334B2 (en) Method and apparatus for detecting position of object
JP2007220837A (en) Method and device for mounting electronic component
JP4629584B2 (en) Mounting system and electronic component mounting method
JP2008270696A (en) Component mounting position correcting method and component mounting apparatus
TW201210725A (en) Laser machining apparatus and method for detecting a substrate position
JP2006339392A (en) Component mounting apparatus
JP4787694B2 (en) Mounting machine
JP5095378B2 (en) Component mounting method and apparatus
JP4494922B2 (en) Method and apparatus for detecting mounting error of electronic component mounting apparatus
JP5304739B2 (en) Component mounting method
WO2017081773A1 (en) Image processing device and image processing method for base plate
JP4707596B2 (en) Component mounting method
JP2007189029A (en) Mounting system, mounting machine, mounting method of printer and electronic component
JP2000321025A (en) Device and method for detecting movement error of processor
JP2007048921A (en) Electronic component image acquiring method and apparatus thereof
JP4707607B2 (en) Image acquisition method for component recognition data creation and component mounter
JP4707423B2 (en) Component position detection method and apparatus
JP4860366B2 (en) Surface mount equipment
JP6621639B2 (en) Image processing apparatus for substrates
JP4901451B2 (en) Component mounting equipment
JP2008139260A (en) Image display unit and method, appearance inspection device, cream solder printer
JP4757701B2 (en) Electronic component suction position correction method and apparatus
JP2005166769A (en) Electronic part packaging apparatus
JP2008211236A (en) Component mounting apparatus
JP2012164908A (en) Component mounting apparatus and method, and method for teaching suction position for component mounting apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130710

R150 Certificate of patent or registration of utility model

Ref document number: 5318334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150