JP2015213139A - Positioning device - Google Patents

Positioning device Download PDF

Info

Publication number
JP2015213139A
JP2015213139A JP2014095942A JP2014095942A JP2015213139A JP 2015213139 A JP2015213139 A JP 2015213139A JP 2014095942 A JP2014095942 A JP 2014095942A JP 2014095942 A JP2014095942 A JP 2014095942A JP 2015213139 A JP2015213139 A JP 2015213139A
Authority
JP
Japan
Prior art keywords
cycle
image processing
processing unit
signal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014095942A
Other languages
Japanese (ja)
Inventor
ビンミン グェン
Binh Minh Nguyen
ビンミン グェン
ヤーフェイ ワン
Yafei Wang
ヤーフェイ ワン
博志 藤本
Hiroshi Fujimoto
博志 藤本
洋一 堀
Yoichi Hori
洋一 堀
潔人 伊藤
Kiyohito Ito
潔人 伊藤
小田井 正樹
Masaki Odai
正樹 小田井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
University of Tokyo NUC
Original Assignee
Hitachi Ltd
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, University of Tokyo NUC filed Critical Hitachi Ltd
Priority to JP2014095942A priority Critical patent/JP2015213139A/en
Publication of JP2015213139A publication Critical patent/JP2015213139A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately position a moving body at a target position without stopping it.SOLUTION: In a positioning device, a body control part includes: a prediction processing part which calculates, on the basis of an input/output signal U, a position Xof a target before by a delay cycle R associated with a photographic image of a camera; a correction processing part which corrects the position Xbased on an image processing signal Y; a switch which switches and outputs an output value of the correction processing part and the prediction processing part as position information before R cycle in accordance with image processing signal Ytiming; a processing part which estimates a present position X of the target from the position information before the R cycle by application of delay compensation processing; and a command output part which outputs a demand signal to a movement mechanism based on the present position X.

Description

本発明は、撮像装置を用いて移動体を目標位置に位置決めする位置決め装置に関する。   The present invention relates to a positioning device that positions a moving body at a target position using an imaging device.

電子機器の製造装置や、各種加工装置などの産業機械においては、装置を構成する移動体の位置決め精度が製品の品質に大きく影響する。例えば、プリント基板上の所定の位置に電子部品(抵抗やICチップ等)を実装することで電子基板を生産する部品実装装置(チップマウンタ)が知られている。部品実装装置は、例えばリニアモータ機構により水平面内の任意の箇所に移動可能な実装ヘッド、及び実装ヘッドに具備された吸着ノズルを備える。電子部品フィーダから供給される部品を吸着ノズルにて吸着し、吸着ノズルを移動させて目標実装箇所で降下させた後、部品吸着を解除することで電子部品をプリント基板上に実装する。また、部品実装装置は、エンコーダによって取得される実装ヘッドの位置からリニアモータに与える駆動電流指令を決定する処理を所定周期で実行する位置決め制御器を備える。   In an industrial machine such as an electronic apparatus manufacturing apparatus or various processing apparatuses, the positioning accuracy of a moving body constituting the apparatus greatly affects the quality of products. For example, a component mounting apparatus (chip mounter) that produces an electronic substrate by mounting an electronic component (such as a resistor or an IC chip) at a predetermined position on a printed circuit board is known. The component mounting apparatus includes, for example, a mounting head that can be moved to an arbitrary position in a horizontal plane by a linear motor mechanism, and a suction nozzle provided in the mounting head. The component supplied from the electronic component feeder is sucked by the suction nozzle, and the suction nozzle is moved and lowered at the target mounting location, and then the electronic component is mounted on the printed board by releasing the component suction. Further, the component mounting apparatus includes a positioning controller that executes a process of determining a drive current command to be given to the linear motor from the position of the mounting head acquired by the encoder at a predetermined period.

前述した通り、部品実装装置では、移動体である実装ヘッドの位置決め精度が製品である電子基板の品質に大きく影響する。同様に、吸着ノズルで電子部品を吸着してから目標実装箇所に移動するまでの時間が生産性に大きく影響する。近年、電子部品の微細化が急速に進んでおり、部品実装の位置精度の向上とともに高速化が求められている。しかし、プリント基板は、製造工程のばらつきや変形等によって目標実装箇所が個体毎に異なる。即ち、プリント基板の設計値に頼って位置決めした場合、実際の電子部品の配置箇所と目標実装箇所との間にずれが生じ得る。また、装置自体に歪みや熱膨張等が発生している場合、エンコーダの値にずれが生じ得る。これも位置ずれの要因となる。実装する電子部品の微細化に伴い、このような様々な位置ずれ要因に起因する影響は増大している。   As described above, in the component mounting apparatus, the positioning accuracy of the mounting head that is the moving body greatly affects the quality of the electronic board that is the product. Similarly, the time from when the electronic component is picked up by the suction nozzle to when it moves to the target mounting location greatly affects the productivity. In recent years, miniaturization of electronic components has been progressing rapidly, and there has been a demand for higher speed as well as improvement in positional accuracy of component mounting. However, the printed circuit board has different target mounting locations for each individual due to variations in manufacturing processes, deformation, and the like. That is, when positioning is performed depending on the design value of the printed circuit board, there may be a deviation between the actual electronic component placement location and the target mounting location. In addition, when the device itself is distorted, thermally expanded, or the like, the encoder value may be shifted. This also becomes a cause of displacement. As electronic components to be mounted are miniaturized, the influence caused by such various misalignment factors is increasing.

それに対して、撮像装置の画像信号を基に目標実装箇所に対する吸着部品の相対的な位置ずれを算出し、算出した位置ずれに応じて吸着ノズルを移動させて部品位置を補正する技術が提唱されている(特許文献1,2等参照)。   On the other hand, a technique is proposed in which the relative displacement of the suction component relative to the target mounting location is calculated based on the image signal of the imaging device, and the suction nozzle is moved in accordance with the calculated displacement to correct the component position. (See Patent Documents 1 and 2).

特開平7−115296号公報JP-A-7-115296 米国特許出願公開公報2001/0055069A1号公報US Patent Application Publication 2001 / 0055069A1 特開2001−325005号公報JP 2001-325005 A

通常、カメラで画像を撮影してその画像を基に位置ずれを算出するまでには所定時間を要し、これが遅延時間となる。遅延時間内に実装ヘッドが移動すると、目標実装位置と実装ヘッドの相対関係はその間に変化してしまう。そのため、特許文献1,2の技術では、少なくとも撮影開始から画像を基に位置ずれ量が算出されるまでの間は実装ヘッドが静止していなければ撮影画像から適正な補正動作を実行することができない。即ち、実装ヘッドを静止させてから撮影を開始し、位置ずれ補正を実行したら再び実装ヘッドを静止させて撮影を開始するといった動作を繰り返すため、位置決め制御の高速化が困難であった。   Usually, it takes a predetermined time to take an image with a camera and calculate a positional shift based on the image, and this is a delay time. If the mounting head moves within the delay time, the relative relationship between the target mounting position and the mounting head changes during that time. For this reason, in the techniques of Patent Documents 1 and 2, if the mounting head is not stationary at least from the start of shooting until the amount of displacement is calculated based on the image, an appropriate correction operation can be executed from the shot image. Can not. In other words, it is difficult to speed up the positioning control because the operation is started after the mounting head is stopped and the photographing is started, and when the positional deviation correction is executed, the mounting head is stopped again and the photographing is started again.

また、カメラは撮影画像を得るのに所定の露光時間を要するため、位置決め制御器がリニアモータに駆動電流指令を与えるサイクルと比較してカメラの撮影サイクルは長くなるのが通常である。従って、画像撮影及び画像処理の間に実装ヘッドを移動させるにしても、画像信号の入力のないサイクルでは駆動電流指令の演算が不定となる問題もある。なお、短い周期の信号を用いて、長い周期の信号を短い周期の情報として推定する技術(特許文献3参照)もあるが、推定に用いるパラメタが固定値であるため、推定に用いるモデルの誤差が推定精度に与える影響が大きい。   In addition, since the camera requires a predetermined exposure time to obtain a photographed image, the camera photography cycle is usually longer than the cycle in which the positioning controller gives a drive current command to the linear motor. Therefore, even if the mounting head is moved during image capturing and image processing, there is a problem that the calculation of the drive current command becomes undefined in a cycle in which no image signal is input. Although there is a technique (see Patent Document 3) for estimating a long-cycle signal as short-cycle information using a short-cycle signal, since the parameters used for the estimation are fixed values, errors in the model used for the estimation Greatly affects the estimation accuracy.

本発明は上記事情に鑑みなされたもので、移動体を静止させることなく目標位置に精度良く位置決めすることができる位置決め装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a positioning device that can accurately position a moving body at a target position without stopping the moving body.

上記目的を達成するために、本発明は、位置推定型の手続き、及び状態再構成手続きによってシステムの目標実装箇所の位置を得ることを1つの特徴とする。   In order to achieve the above object, the present invention is characterized in that the position of the target mounting location of the system is obtained by a position estimation type procedure and a state reconstruction procedure.

また、本発明は、処理部と、試料を撮像する撮像部と、試料に対して相対的に移動する移動体とを有し、処理部が、(1)所定の入力及び前記撮像部からの画像の少なくとも1つに対して位置推定型の補正手続きを行い、(2)前記補正手続きの結果に対して所定の処理を行い、(3)前記所定の処理の結果を使用して前記移動体の位置を得ることを1つの特徴とする。   In addition, the present invention includes a processing unit, an imaging unit that images a sample, and a moving body that moves relative to the sample, and the processing unit includes (1) a predetermined input and a signal from the imaging unit. Performing a position estimation type correction procedure on at least one of the images; (2) performing a predetermined process on the result of the correction procedure; and (3) using the result of the predetermined process. It is one feature to obtain the position of.

本発明によれば、移動体を静止させることなく目標位置に精度良く位置決めすることができる。   According to the present invention, the moving body can be accurately positioned at the target position without being stationary.

実施例1に係る位置決め装置の一構成例の全体構成を表す斜視図である。1 is a perspective view illustrating an overall configuration of a configuration example of a positioning device according to Embodiment 1. FIG. 実施例1における制御装置の一構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a control device according to the first embodiment. 実装ヘッドで電子部品を吸着して目標位置に配置する動作を模式的に示す図である。It is a figure which shows typically operation | movement which adsorb | sucks an electronic component with a mounting head, and arrange | positions it in a target position. 実装ヘッドで電子部品を吸着して目標位置に配置する動作を模式的に示す図である。It is a figure which shows typically the operation | movement which adsorb | sucks an electronic component with a mounting head, and arrange | positions it in a target position. 実装ヘッドで電子部品を吸着して目標位置に配置する動作を模式的に示す図である。It is a figure which shows typically operation | movement which adsorb | sucks an electronic component with a mounting head, and arrange | positions it in a target position. 撮影画像の一例を表す図である。It is a figure showing an example of a picked-up image. 実施例1におけるカメラ、画像処理部及び本体制御部の各処理のタイミングの一例を示したチャート図である。FIG. 3 is a chart illustrating an example of timing of each process of a camera, an image processing unit, and a main body control unit in Embodiment 1. 実施例1における位置推定器の構成例を示すブロック図である。It is a block diagram which shows the structural example of the position estimator in Example 1. FIG. 実施例1における位置決め制御系の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a positioning control system in Embodiment 1. FIG. 実施例2に係る位置決め装置の概念構成を例示する図である。FIG. 10 is a diagram illustrating a conceptual configuration of a positioning device according to a second embodiment. 実施例3におけるカメラ、画像処理部及び本体制御部の各処理のタイミングの一例を示したチャート図である。FIG. 10 is a chart illustrating an example of the timing of each process of a camera, an image processing unit, and a main body control unit in Embodiment 3. 実施例3の他の例におけるカメラ、画像処理部及び本体制御部の各処理のタイミングの一例を示したチャート図である。FIG. 10 is a chart illustrating an example of timing of each process of a camera, an image processing unit, and a main body control unit in another example of the third embodiment. 実施例4における位置推定器の構成例を示すブロック図である。It is a block diagram which shows the structural example of the position estimator in Example 4. FIG. 符号の表現を説明する図である。It is a figure explaining the expression of a code.

以下に図面を用いて本発明の実施例を説明する。なお、全図面において同一部分には原則として同一符号を付して重複する説明は省略する。   Embodiments of the present invention will be described below with reference to the drawings. In all drawings, the same portions are denoted by the same reference numerals in principle, and redundant description is omitted.

・適用装置
本発明の適用対象は、撮影画像を用いて移動体の移動先の位置を決定する位置決め装置である。例えば、レール走行型の搬送装置、マニピュレータ型の搬送装置に適用可能であるが、装置態様は特に限定されず移動体を目標位置に移動させる装置であれば適用できる。移動体には、位置決め装置自体の可動要素の他、可動要素により搬送される物品も含まれる。部品実装装置(チップマウンタ等)であれば実装部品(チップ等)、半導体ウェハ供給装置であれば半導体ウェハ、検体搬送装置であれば検体、自己補充型フィーダであればテープリール等、レーザ加工機であればレーザ射出ユニット又は工作物、マシニングセンタであれば切削工具又は工作物が、移動体の例である。
Applicable Device The application target of the present invention is a positioning device that determines the position of the moving body using a captured image. For example, the present invention can be applied to a rail travel type transfer device and a manipulator type transfer device, but the device mode is not particularly limited, and any device that moves a moving body to a target position can be applied. In addition to the movable element of the positioning device itself, the movable body includes an article conveyed by the movable element. Mounting parts (chips, etc.) for component mounting devices (chip mounters, etc.), semiconductor wafers for semiconductor wafer supply devices, specimens for sample transport devices, tape reels, etc. for self-replenishing feeders, laser processing machines If so, a laser injection unit or workpiece, and if it is a machining center, a cutting tool or workpiece is an example of a moving body.

以降、部品実装装置に本発明を適用した場合を例に挙げて説明する。   Hereinafter, a case where the present invention is applied to a component mounting apparatus will be described as an example.

1.位置決め装置
図1は本発明の実施例1に係る位置決め装置の一構成例の全体構成を表す斜視図である。同図に示した位置決め装置は、プリント基板等の所望位置に電子部品等を配置する部品実装装置であり、説明の便宜上、模式的に図示してある。また、同図に示したX軸及びY軸は水平面内で互いに直交していて、Z軸はX軸及びY軸に直交して鉛直方向に延びている。
1. Positioning Device FIG. 1 is a perspective view showing the overall configuration of a configuration example of a positioning device according to Embodiment 1 of the present invention. The positioning device shown in the figure is a component mounting device that arranges electronic components and the like at desired positions such as a printed circuit board, and is schematically shown for convenience of explanation. Further, the X axis and the Y axis shown in the figure are orthogonal to each other in the horizontal plane, and the Z axis is orthogonal to the X axis and the Y axis and extends in the vertical direction.

図1に示した部品実装装置100は、実装ヘッド10、X軸ビーム機構11、Y軸ビーム機構12、Y軸ガイド機構13、架台30(同図には4本の脚部のみ図示)、カメラ40、プリント基板搬送機構60、及び制御装置90を備えている。   A component mounting apparatus 100 shown in FIG. 1 includes a mounting head 10, an X-axis beam mechanism 11, a Y-axis beam mechanism 12, a Y-axis guide mechanism 13, a pedestal 30 (only four legs are shown in the figure), a camera 40, a printed board transport mechanism 60, and a control device 90.

Y軸ビーム機構12及びY軸ガイド機構13は対をなしていて、Y軸方向に互いに平行に延在している。Y軸ビーム機構12及びY軸ガイド機構13の両端はそれぞれ架台30の脚部によって支持されている。また、Y軸ビーム機構12はY軸リニアモータ固定子123及びY軸リニアスケール124を備えている。Y軸リニアモータ固定子123及びY軸リニアスケール124は、Y軸ビーム機構12の側面にY軸方向に延在して設けられている。一方、Y軸ガイド機構13にはY軸リニアガイド131がY軸方向に延在して設けられている。Y軸リニアガイド131にはスライドユニット(不図示)が取り付けられている。スライドユニットはY軸リニアガイド131に沿って移動する。   The Y-axis beam mechanism 12 and the Y-axis guide mechanism 13 make a pair and extend in parallel to each other in the Y-axis direction. Both ends of the Y-axis beam mechanism 12 and the Y-axis guide mechanism 13 are supported by the legs of the gantry 30, respectively. The Y-axis beam mechanism 12 includes a Y-axis linear motor stator 123 and a Y-axis linear scale 124. The Y-axis linear motor stator 123 and the Y-axis linear scale 124 are provided on the side surface of the Y-axis beam mechanism 12 so as to extend in the Y-axis direction. On the other hand, the Y-axis guide mechanism 13 is provided with a Y-axis linear guide 131 extending in the Y-axis direction. A slide unit (not shown) is attached to the Y-axis linear guide 131. The slide unit moves along the Y-axis linear guide 131.

X軸ビーム機構11は、一端が支持部を介してY軸ビーム機構12に支持されていて、他端がY軸ガイド機構13の上記スライドユニットに支持されている。このX軸ビーム機構11には、Y軸リニアモータ可動子121、Y軸位置エンコーダヘッド部122、X軸リニアモータ固定子113及びX軸リニアスケール114が備えられている。Y軸リニアモータ可動子121は、Y軸ビーム機構12に対する支持部に内蔵されていて、Y軸リニアモータ固定子123に対向している。Y軸位置エンコーダヘッド部122はY軸ビーム機構12に対する支持部の下端に設けられていて、Y軸リニアスケール124に対向している。X軸リニアモータ固定子113及びX軸リニアスケール114は、X軸ビーム機構11の側面及び上面にX軸方向に延在して設けられている。このような構成により、X軸ビーム機構11は、Y軸リニアモータ可動子121とY軸リニアモータ固定子123との間に誘起される電磁気力によって駆動されて、Y軸ビーム機構12及びY軸ガイド機構13に沿ってY軸方向に移動する。Y軸位置エンコーダヘッド部122は、X軸ビーム機構11とともに移動し、Y軸リニアスケール124に備わった目盛を読み取って電気信号に変換する。   One end of the X-axis beam mechanism 11 is supported by the Y-axis beam mechanism 12 via a support portion, and the other end is supported by the slide unit of the Y-axis guide mechanism 13. The X-axis beam mechanism 11 includes a Y-axis linear motor movable element 121, a Y-axis position encoder head part 122, an X-axis linear motor stator 113, and an X-axis linear scale 114. The Y-axis linear motor movable element 121 is built in a support portion for the Y-axis beam mechanism 12 and faces the Y-axis linear motor stator 123. The Y-axis position encoder head part 122 is provided at the lower end of the support part for the Y-axis beam mechanism 12 and faces the Y-axis linear scale 124. The X-axis linear motor stator 113 and the X-axis linear scale 114 are provided on the side surface and the upper surface of the X-axis beam mechanism 11 so as to extend in the X-axis direction. With such a configuration, the X-axis beam mechanism 11 is driven by the electromagnetic force induced between the Y-axis linear motor movable element 121 and the Y-axis linear motor stator 123, and the Y-axis beam mechanism 12 and the Y-axis It moves along the guide mechanism 13 in the Y-axis direction. The Y-axis position encoder head unit 122 moves together with the X-axis beam mechanism 11, reads the scale provided on the Y-axis linear scale 124, and converts it into an electrical signal.

実装ヘッド10は支持部を介してX軸ビーム機構11に支持されている。この実装ヘッド10には、少なくとも1つの吸着ノズル20、X軸リニアモータ可動子111及びX軸位置エンコーダヘッド部112を備えている。吸着ノズル20は下端に電子部品を真空吸着する。X軸リニアモータ可動子111は実装ヘッド10の支持部に内蔵されていて、X軸リニアモータ固定子113に対向している。X軸位置エンコーダヘッド部112は実装ヘッド10の上端に設けられていて、X軸リニアスケール114に対向している。なお、実装ヘッド10には吸着ノズル20を上下方向に出し入れする機構が備わっている。このような構成により、実装ヘッド10は、X軸リニアモータ可動子111とX軸リニアモータ固定子113との間に誘起される電磁気力によって駆動されてX軸ビーム機構11に沿ってX軸方向に移動する。X軸位置エンコーダヘッド部112は実装ヘッド10とともに移動し、X軸リニアスケール114に備わった目盛を読み取って電気信号に変換する。   The mounting head 10 is supported by the X-axis beam mechanism 11 via a support portion. The mounting head 10 includes at least one suction nozzle 20, an X-axis linear motor movable element 111, and an X-axis position encoder head unit 112. The suction nozzle 20 vacuum-sucks electronic components at the lower end. The X-axis linear motor movable element 111 is built in the support portion of the mounting head 10 and faces the X-axis linear motor stator 113. The X-axis position encoder head part 112 is provided at the upper end of the mounting head 10 and faces the X-axis linear scale 114. The mounting head 10 has a mechanism for moving the suction nozzle 20 in and out. With such a configuration, the mounting head 10 is driven by the electromagnetic force induced between the X-axis linear motor movable element 111 and the X-axis linear motor stator 113, and the X-axis direction along the X-axis beam mechanism 11. Move to. The X-axis position encoder head unit 112 moves together with the mounting head 10, reads the scale provided on the X-axis linear scale 114, and converts it into an electrical signal.

プリント基板搬送機構60はプリント基板61を搬送し、部品実装装置100に対してプリント基板61を出し入れする。プリント基板61の上面には少なくとも1つの所定形状の目標実装箇所50が形成されている。目標実装箇所50は電子部品を実装する目標位置である。   The printed circuit board transport mechanism 60 transports the printed circuit board 61 and puts the printed circuit board 61 in and out of the component mounting apparatus 100. At least one target mounting portion 50 having a predetermined shape is formed on the upper surface of the printed circuit board 61. The target mounting location 50 is a target position for mounting an electronic component.

カメラ40は、撮影光軸をZ軸方向下向きにした姿勢で前述した実装ヘッド10に少なくとも1つ取り付けてある。このカメラ40は実装ヘッド10の吸着ノズル20のXY座標を視野領域に含んでいて、撮影画像内における特定位置(後述する原点O)が吸着ノズル20の位置(プリント基板61の高さまで下した際の吸着ノズル20の先端位置)に対応している。通常時において吸着ノズル20自体が視野領域に含まれている必要は必ずしもない。   At least one camera 40 is attached to the mounting head 10 described above in a posture in which the photographing optical axis is directed downward in the Z-axis direction. This camera 40 includes the XY coordinates of the suction nozzle 20 of the mounting head 10 in the visual field region, and when a specific position (origin O described later) in the photographed image is lowered to the position of the suction nozzle 20 (the height of the printed circuit board 61). The tip position of the suction nozzle 20). It is not always necessary for the suction nozzle 20 itself to be included in the visual field region during normal times.

制御装置90は、X軸リニアモータ可動子111、X軸位置エンコーダヘッド部112、Y軸リニアモータ可動子121、Y軸位置エンコーダヘッド部122、カメラ40等の要素と有線又は無線により電気的に接続されている。制御装置90には、Y軸位置エンコーダヘッド部122及びX軸位置エンコーダヘッド部112でそれぞれ読み取られた実装ヘッド10のX軸方向及びY軸方向の絶対位置の情報の他、が入力される。カメラ40の画像データ(所定のフォーマットに基づく画像データ)は、制御装置90の画像処理部940(図2で後述)に出力される。次いで制御装置90について説明する。   The control device 90 is electrically connected to elements such as the X-axis linear motor movable element 111, the X-axis position encoder head part 112, the Y-axis linear motor movable element 121, the Y-axis position encoder head part 122, and the camera 40 by wire or wirelessly. It is connected. In addition to the absolute position information of the mounting head 10 in the X-axis direction and Y-axis direction read by the Y-axis position encoder head unit 122 and the X-axis position encoder head unit 112, respectively, is input to the control device 90. Image data of the camera 40 (image data based on a predetermined format) is output to an image processing unit 940 (described later in FIG. 2) of the control device 90. Next, the control device 90 will be described.

なお、本実施例においては、吸着ノズル20又はこれに吸着された電子部品が前述した「移動体」に該当し、実装ヘッド10、X軸ビーム機構11、Y軸ビーム機構12及びY軸ガイド機構13からなる駆動機構が、移動体を移動させる移動機構を構成する。また、X軸位置エンコーダヘッド部112及びY軸位置エンコーダヘッド部122から出力される位置検出信号、X軸リニアモータ可動子111及びY軸リニアモータ可動子121に対して出力される駆動電流指令が、移動機構との間で位置決め制御に関して授受する入出力信号に相当する。   In this embodiment, the suction nozzle 20 or the electronic component sucked by the suction nozzle corresponds to the “moving body” described above, and the mounting head 10, the X-axis beam mechanism 11, the Y-axis beam mechanism 12, and the Y-axis guide mechanism. The drive mechanism which consists of 13 comprises the moving mechanism which moves a moving body. Further, position detection signals output from the X-axis position encoder head unit 112 and the Y-axis position encoder head unit 122, and drive current commands output to the X-axis linear motor mover 111 and the Y-axis linear motor mover 121 are output. This corresponds to an input / output signal exchanged with the moving mechanism for positioning control.

X軸ビーム機構11又はY軸ビーム機構12は、リニアモータにより実装ヘッド10又はX軸ビーム機構11を移動させるが、実施例1はこれに限定するものではない。例えば、ボールねじ機構などを利用して、実装ヘッド10等を移動させる構成であっても良い。実装ヘッド10は目標位置に対して相対的に移動する移動体の一例である。   The X-axis beam mechanism 11 or the Y-axis beam mechanism 12 moves the mounting head 10 or the X-axis beam mechanism 11 by a linear motor, but the first embodiment is not limited to this. For example, the mounting head 10 may be moved using a ball screw mechanism or the like. The mounting head 10 is an example of a moving body that moves relative to a target position.

2.制御装置
図2は制御装置90の一構成例を示すブロック図である。
2. Control Device FIG. 2 is a block diagram showing a configuration example of the control device 90.

制御装置90は本体制御部930及び画像処理部940を備えている。   The control device 90 includes a main body control unit 930 and an image processing unit 940.

本体制御部930は、X軸位置エンコーダヘッド部112及びY軸位置エンコーダヘッド部122の入出力信号及び画像処理部940の画像処理信号(後述)を基にX軸リニアモータ可動子111及びY軸リニアモータ可動子121の制御をサイクル周期で繰り返し、吸着ノズル20の位置を目標物(本例では図4に示すプリント基板61の目標実装位置50)に近付ける機能を担う。本体制御部930には、CPU901、ROM(Read Only Memory)902及びRAM(Random Access Memory)903が内蔵されていて、ROM902又はRAM903内に格納されたプログラムに基づいて部品実装装置100全体の制御を実行する。本体制御部930は、X軸位置エンコーダヘッド部112で検出された実装ヘッド10のX軸上における現在位置を取得し、X軸リニアモータ可動子111に駆動電流指令を与える。同様に、本体制御部930は、Y軸位置エンコーダヘッド部122で検出されたXビーム機構11のY軸上の現在位置を取得し、Y軸リニアモータ可動子121に駆動電流指令を与える。こうした本体制御部930の処理により、実装ヘッド10は所定位置に移動する。以下の説明では、本体制御部930による実装ヘッド10の位置制御を「位置決め制御処理」と呼ぶ。   The main body control unit 930 includes the X-axis linear motor movable element 111 and the Y-axis based on input / output signals of the X-axis position encoder head unit 112 and the Y-axis position encoder head unit 122 and image processing signals (described later) of the image processing unit 940. The control of the linear motor movable element 121 is repeated in a cycle period, and the function of bringing the position of the suction nozzle 20 closer to the target (in this example, the target mounting position 50 of the printed board 61 shown in FIG. 4) is assumed. The main body control unit 930 includes a CPU 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903, and controls the entire component mounting apparatus 100 based on a program stored in the ROM 902 or the RAM 903. Run. The main body control unit 930 acquires the current position on the X axis of the mounting head 10 detected by the X axis position encoder head unit 112 and gives a drive current command to the X axis linear motor movable element 111. Similarly, the main body control unit 930 acquires the current position on the Y axis of the X beam mechanism 11 detected by the Y axis position encoder head unit 122 and gives a drive current command to the Y axis linear motor movable element 121. By such processing of the main body control unit 930, the mounting head 10 moves to a predetermined position. In the following description, the position control of the mounting head 10 by the main body control unit 930 is referred to as “positioning control processing”.

なお、本体制御部930は単一のCPU901、ROM902、RAM903を内蔵する構成を示しているが、当然ながらこの構成に限定されない。例えば、CPU901、ROM902及びRAM903の少なくとも1種を複数備える構成としてもよい。これにより、各構成要素の動作制御に必要な演算処理を高速に実行することができる。   In addition, although the main body control unit 930 shows a configuration in which a single CPU 901, ROM 902, and RAM 903 are built in, the configuration is naturally not limited to this configuration. For example, a configuration including a plurality of at least one of the CPU 901, the ROM 902, and the RAM 903 may be employed. Thereby, it is possible to execute arithmetic processing necessary for operation control of each component at high speed.

画像処理部940は、
カメラ40に対して画像取得タイミングを指示する撮像トリガを与え、カメラ40の撮影画像を取得する。そして、画像処理部940は、撮影画像に対して所定の画像処理を実行し、撮影画像内における目標実装位置50の観測位置に基づく画像処理信号(後述)を算出し本体制御部930に送信する。
The image processing unit 940
An imaging trigger for instructing the image acquisition timing is given to the camera 40, and a captured image of the camera 40 is acquired. Then, the image processing unit 940 performs predetermined image processing on the captured image, calculates an image processing signal (described later) based on the observation position of the target mounting position 50 in the captured image, and transmits the image processing signal to the main body control unit 930. .

3.基本動作
図3A〜図3Cは実装ヘッドで電子部品を吸着して目標位置(プリント基板上の目標実装箇所50)に配置する動作を模式的に示した図である。これらの図におけるY軸及びZ軸の示す方向は、図1におけるY軸及びZ軸の示す方向と一致するものとする。図3A−図3Cにおいて、実装ヘッド10の吸着ノズル20の中心軸をC、カメラ40の光軸をL、カメラ40の視野領域をFとする。
3. Basic Operation FIGS. 3A to 3C are diagrams schematically showing an operation in which an electronic component is attracted by a mounting head and placed at a target position (target mounting location 50 on a printed circuit board). The directions indicated by the Y axis and the Z axis in these drawings coincide with the directions indicated by the Y axis and the Z axis in FIG. 3A to 3C, the central axis of the suction nozzle 20 of the mounting head 10 is C, the optical axis of the camera 40 is L, and the field of view of the camera 40 is F.

まず、図3Aは実装ヘッド10の移動中の状態の一例を示している。図3Aに示すように目標実装箇所50がカメラ40の視野領域Fにない場合、本体制御部930は、Y軸位置エンコーダヘッド部122によって取得されるY軸上の位置情報に基づいてY軸リニアモータ可動子121に出力し、電子部品62を吸着した実装ヘッド10を目標地点yに向けて移動させる。また、これと並行して、画像処理部940は、カメラ40に撮像トリガを送信して撮影を開始させる。 First, FIG. 3A shows an example of a state in which the mounting head 10 is moving. As shown in FIG. 3A, when the target mounting location 50 is not in the visual field region F of the camera 40, the main body control unit 930 uses the Y-axis linear information based on the position information on the Y-axis acquired by the Y-axis position encoder head unit 122. and output to the motor armature 121 is moved toward the mounting head 10 which has adsorbed the electronic component 62 to the target point y t. In parallel with this, the image processing unit 940 transmits an imaging trigger to the camera 40 to start imaging.

ここで、目標地点yは、プリント基板61の設計データに基づいて設定された実装ヘッド10の動作範囲における目標実装箇所50の推定位置情報であり、ROM902又はRAM903に予め格納されている。即ち、本体制御部930は、部品配置個所50が所定の目標地点yに存在するとして実装ヘッド10の移動を開始する。しかし、プリント基板61の加工時の歪み等の誤差要因が存在すると、図3Aに示したように目標実装箇所50が目標地点yに一致しない場合がある。目標実装箇所50と目標位置yの位置にずれがある場合、実装ヘッド10を目標地点yに配置すると、プリント基板61上の目標実装箇所50からずれた位置に電子部品62が配置されてしまう。 Here, the target point y t is the estimated position information of the target mounting position 50 in the operating range of the mounting head 10 that is set on the basis of the design data of the printed circuit board 61 is previously stored in the ROM902 or RAM 903. That is, the main control unit 930, component placement location 50 starts moving mounting head 10 as present in a given target point y t. However, if the error factors of the distortion or the like during processing of the printed circuit board 61 is present, there is a case where the target mounting portion 50 as shown in FIG. 3A does not match the target location y t. If there is a deviation in the position of the target mounting position 50 and the target position y t, the mounting head 10 by placing the target location y t, the electronic component 62 is arranged at a position shifted from the target mounting portion 50 on the printed circuit board 61 End up.

実装ヘッド10の移動を続けるうちに、図3Bに示すように目標実装箇所50がカメラ40の視野領域Fに入ってくる。部品配置領域50を視野領域Fに捉えると、本体制御部930は、画像処理部940の画像処理により算出される目標実装箇所50の観察位置を用いた移動補正制御の実行を開始する。   As the mounting head 10 continues to move, the target mounting location 50 enters the visual field region F of the camera 40 as shown in FIG. When the component placement region 50 is captured as the visual field region F, the main body control unit 930 starts execution of movement correction control using the observation position of the target mounting location 50 calculated by the image processing of the image processing unit 940.

ここで、図4は図3Bの状態に対応する撮影画像の一例を示す図である。   Here, FIG. 4 is a diagram illustrating an example of a captured image corresponding to the state of FIG. 3B.

図4に例示した撮影画像400においては、吸着ノズル20の中心軸C及びプリント基板61の交点と目標実装箇所50とが捉えられている。ここで、撮影画像400における座標系を、上記交点を原点O(0,0)、撮影画像400のピクセル401の大きさを単位とするピクセル座標系として定義する。このピクセル座標系において、図中矢印に示すX軸及びY軸の方向は、図1におけるX軸及びY軸が示す方向と一致する。   In the captured image 400 illustrated in FIG. 4, the intersection point of the central axis C of the suction nozzle 20 and the printed board 61 and the target mounting location 50 are captured. Here, the coordinate system in the captured image 400 is defined as a pixel coordinate system in which the intersection point is the origin O (0, 0) and the size of the pixel 401 of the captured image 400 is a unit. In this pixel coordinate system, the directions of the X axis and the Y axis indicated by arrows in the drawing coincide with the directions indicated by the X axis and the Y axis in FIG.

撮影画像400に対して、画像処理部940によって行われる処理の一例は次の通りである。まず、画像処理部940は、撮影画像から前記ピクセル座標系における目標実装箇所50の中心点pの座標(px,py)を算出する。そして、得られた点pの座標に所定の係数を乗算することで、原点O(吸着ノズル20の中心位置)と目標実装箇所50の中心位置の偏差ベクトル(Δcamx,Δcamy)を算出する。そして、算出された偏差ベクトル(Δcamx,Δcamy)を画像処理信号として本体制御部930に出力する。画像処理信号は位置情報を基にした信号であり、このような偏差ベクトルに限らず、例えば位置情報自体であっても良い。   An example of processing performed on the captured image 400 by the image processing unit 940 is as follows. First, the image processing unit 940 calculates the coordinates (px, py) of the center point p of the target mounting location 50 in the pixel coordinate system from the captured image. Then, by multiplying the coordinates of the obtained point p by a predetermined coefficient, a deviation vector (Δcamx, Δcamy) between the origin O (the center position of the suction nozzle 20) and the center position of the target mounting location 50 is calculated. Then, the calculated deviation vector (Δcamx, Δcamy) is output to the main body control unit 930 as an image processing signal. The image processing signal is a signal based on position information, and is not limited to such a deviation vector, but may be, for example, position information itself.

本体制御部930は、画像処理部940によって算出された偏差ベクトル(Δcamx,Δcamy)を基に位置推定器91(後述)で所定の処理を実行し、実装ヘッド10の位置を制御する。具体的には、偏差ベクトルの大きさが0になるまで位置決め制御処理を繰り返す。以下の説明では、このような画像処理部940の画像処理信号に基づく位置決め制御処理を「ビジュアルサーボ制御処理」と呼称する。ビジュアルサーボ制御処理の結果、図3Cに示すように吸着ノズル20の中心軸Cが目標実装箇所50の中心に実質的に一致する。   The main body control unit 930 controls the position of the mounting head 10 by executing predetermined processing by a position estimator 91 (described later) based on the deviation vector (Δcamx, Δcamy) calculated by the image processing unit 940. Specifically, the positioning control process is repeated until the magnitude of the deviation vector becomes zero. In the following description, such positioning control processing based on the image processing signal of the image processing unit 940 is referred to as “visual servo control processing”. As a result of the visual servo control process, the center axis C of the suction nozzle 20 substantially coincides with the center of the target mounting location 50 as shown in FIG. 3C.

4.制御サイクル
図5は、カメラ40、画像処理部940、本体制御部930の各処理のビジュアルサーボ制御処理におけるタイミングの一例を示したチャート図である。
4). Control Cycle FIG. 5 is a chart showing an example of timing in the visual servo control process of each process of the camera 40, the image processing unit 940, and the main body control unit 930.

本体制御部930は、予め定められた所定の周期で位置決め制御処理を繰り返し実行する。この位置決め制御処理の実行周期τを1サイクル単位として各処理タイミングを説明する。以下の説明において、サイクルn(n=0,1,2…)と記載した場合はビジュアルサーボ処理の開始からn番目のサイクルを意味することとする。 The main body control unit 930 repeatedly executes the positioning control process at a predetermined cycle. Each processing timing will be described with the execution period τ u of this positioning control process as one cycle unit. In the following description, when the cycle n (n = 0, 1, 2,...) Is described, it means the nth cycle from the start of the visual servo process.

図5において、カメラ40は、サイクル0の開始時に画像処理部940から撮影トリガを受信し、サイクル0の開始からサイクル5の終了までの時間、カメラ40の内部に備わるシャッターを開けて露光(露光1)する。この時間を露光時間1とし、この間に撮影された画像を第1画像とする。次に、画像処理部940は、サイクル6の開始からサイクル9の終了までの時間に第1画像に対して画像処理(画像処理1)を実行する。そして、第1画像から得られた画像処理信号がサイクル10の開始時に本体制御部930に入力される。   In FIG. 5, the camera 40 receives a shooting trigger from the image processing unit 940 at the start of cycle 0, opens the shutter provided in the camera 40 for the time from the start of cycle 0 to the end of cycle 5, and performs exposure (exposure). 1) Do it. This time is set as the exposure time 1, and an image taken during this time is set as the first image. Next, the image processing unit 940 performs image processing (image processing 1) on the first image during the time from the start of cycle 6 to the end of cycle 9. Then, an image processing signal obtained from the first image is input to the main body control unit 930 at the start of the cycle 10.

露光1終了の後、カメラ40は、画像処理部940から撮影トリガを受信し、シャッターを開けて次の露光(露光2)をする。この例では、サイクル6の開始からサイクル11の終了までの期間が第2画像を撮影するための露光時間2となる。画像処理部940は、サイクル12の開始からサイクル15の終了までの時間に第2画像に対して画像処理(画像処理2)を実行する。そして、第2画像から得られた画像処理信号がサイクル16の開始時に本体制御部930に入力される。   After the exposure 1 is completed, the camera 40 receives a shooting trigger from the image processing unit 940, opens the shutter, and performs the next exposure (exposure 2). In this example, the period from the start of cycle 6 to the end of cycle 11 is exposure time 2 for capturing the second image. The image processing unit 940 performs image processing (image processing 2) on the second image during the time from the start of the cycle 12 to the end of the cycle 15. Then, an image processing signal obtained from the second image is input to the main body control unit 930 at the start of the cycle 16.

このように、本実施例においては、本体制御部930には、各露光時間のサイクル数をNとすると、画像処理部940による画像処理信号(Δcamx,Δcamy)がNサイクル毎に間欠的に入力される。具体的には、図5に示した範囲では、サイクル10、サイクル16で本体制御部930に画像処理信号が入力され、それ以外のサイクルにおいては本体制御部930に画像処理信号は入力されない。サイクル0の開始からサイクル5の終了までに露光1によって撮影された画像1の画像処理信号は、遅延してサイクル10になって本体制御部930に入力される。例えば先の図3Bに示した状態にあっては、本体制御装置930からの駆動電流指令により露光中も実装ヘッド10は移動を継続する。そのため、画像処理信号は各サイクルで本体制御装置930に入力されない上、画像処理信号は遅延して入力されるため、吸着ノズル20の中心軸Cが目標実装箇所50の中心に一致したことが判定できず目標実装箇所50を吸着ノズル20が通過してしまったり、このような通過の繰り返しにより実装ヘッド10の位置が振動的に移動したりし得る。本実施例においてはこのような不具合への対策として、本体制御部930に位置推定器91(図6参照)が備えられている。   Thus, in this embodiment, when the number of cycles for each exposure time is N, the image processing signals (Δcamx, Δcamy) from the image processing unit 940 are intermittently input to the main body control unit 930 every N cycles. Is done. Specifically, in the range shown in FIG. 5, an image processing signal is input to the main body control unit 930 in cycles 10 and 16, and no image processing signal is input to the main body control unit 930 in other cycles. The image processing signal of the image 1 captured by the exposure 1 from the start of the cycle 0 to the end of the cycle 5 is delayed and becomes the cycle 10 and is input to the main body control unit 930. For example, in the state shown in FIG. 3B, the mounting head 10 continues to move even during exposure by a drive current command from the main body control device 930. Therefore, since the image processing signal is not input to the main body control device 930 in each cycle and the image processing signal is input with a delay, it is determined that the central axis C of the suction nozzle 20 matches the center of the target mounting location 50. Otherwise, the suction nozzle 20 may pass through the target mounting location 50, or the position of the mounting head 10 may be moved oscillatingly by repeating such passing. In the present embodiment, as a countermeasure against such a problem, the main body control unit 930 is provided with a position estimator 91 (see FIG. 6).

5.位置推定器
図6は位置推定器91の構成の一例を示したブロック線図である。位置推定器91は、現在時刻をサイクルkとしたとき、サイクルkに入力される入出力信号U及び画像処理信号Yから、現在時刻における目標物(目標実装位置50)の位置Xの推定値を出力する。本実施例では、入出力信号Uにはサイクルkにおける本体制御部930の入出力信号(XYエンコーダヘッド部112,122の位置検出信号又はXY軸リニアモータ可動子111,121への駆動電流指令)が相当する。なお、本実施例ではXを目標物の位置と示すが、目標物と吸着ノズル20の中心軸Cとの距離など後述する(式1)の状態方程式で表現できる内部状態量Xであればよい。
5. Position Estimator FIG. 6 is a block diagram showing an example of the configuration of the position estimator 91. The position estimator 91 determines the position X k of the target (target mounting position 50) at the current time from the input / output signal U k and the image processing signal Y k input to the cycle k, where the current time is the cycle k . Output the estimated value. In this embodiment, the input / output signal U k includes the input / output signal of the main body control unit 930 in the cycle k (the position detection signal of the XY encoder head units 112 and 122 or the drive current command to the XY axis linear motor movable elements 111 and 121). ). Although this embodiment illustrates the position of the target the X k, there in the internal state quantity X k which can be expressed by the equation of state, which will be described later, such as the distance between the target object and the central axis C of the suction nozzle 20 (Equation 1) That's fine.

ここで、図5を参照して、露光時間をNサイクル(本例ではNは偶数とする)、画像処理部940の画像処理の所要時間をMサイクルとして、R=(N/2+M)なる自然数Rを定義する。この自然数Rは、カメラ40が撮影した画像から演算された画像処理信号が本体制御部930に入力されるまでの遅延サイクル数に相当する。   Here, with reference to FIG. 5, the exposure time is N cycles (in this example, N is an even number), and the time required for image processing by the image processing unit 940 is M cycles. A natural number R = (N / 2 + M). Define R. The natural number R corresponds to the number of delay cycles until an image processing signal calculated from an image captured by the camera 40 is input to the main body control unit 930.

位置推定器91は、Rサイクル制御指令記憶バッファ911、フィルタ912及び状態再構成器913を備えている。次いでRサイクル制御指令記憶バッファ911、フィルタ912及び状態再構成器913について順次説明する。   The position estimator 91 includes an R cycle control command storage buffer 911, a filter 912, and a state reconstructor 913. Next, the R cycle control command storage buffer 911, the filter 912, and the state reconstructor 913 will be described sequentially.

(1)Rサイクル制御指令記憶バッファ911
Rサイクル制御指令記憶バッファ911は、過去Rサイクル分のR個の入出力信号Uの値を記憶するシフトレジスタである。即ち、現在のサイクルkに対してRサイクル前から1サイクル前までの間に位置推定器91に入力された入出力信号Uk−R〜Uk−1を記憶し、また記憶している入出力信号Uk−R〜Uk−1から任意の信号を出力する。(R−1)サイクル前から1サイクル前までの入出力信号Uk−R+1〜Uk−1は状態再構成器913に出力され、Rサイクル前の入出力信号Uk−Rはフィルタ912に出力される。
(1) R cycle control command storage buffer 911
The R cycle control command storage buffer 911 is a shift register that stores the values of R input / output signals U for the past R cycles. That is, the input / output signals U k−R to U k−1 input to the position estimator 91 between the previous cycle and the previous cycle with respect to the current cycle k are stored, and the stored input outputting any signal from the output signal U k-R ~U k-1 . (R-1) The input / output signals U k−R + 1 to U k−1 from the previous cycle to the previous cycle are output to the state reconstructor 913, and the input / output signal U k−R before the R cycle is a filter. It is output to 912.

(2)フィルタ912
フィルタ912は、現在のサイクルkのRサイクル前の入出力信号Uk−R、及び現在のサイクルkに入力された画像処理信号Yを基に、Rサイクル前の目標実装箇所50の位置Xk−Rの値を推定する。本実施例では、この推定型のフィルタ912として、カルマンフィルタ(Kalman Filter)を使用する場合を例に挙げて説明する。フィルタ912は、予測処理部9121、補正処理部9122及びスイッチ9123を備えている。
(2) Filter 912
Based on the input / output signal U kR before the R cycle of the current cycle k and the image processing signal Y k input at the current cycle k, the filter 912 performs the position X of the target mounting location 50 before the R cycle. Estimate the value of k-R . In this embodiment, a case where a Kalman filter is used as the estimation type filter 912 will be described as an example. The filter 912 includes a prediction processing unit 9121, a correction processing unit 9122, and a switch 9123.

・予測処理部9121
予測処理部9121では、現在のサイクルkのRサイクル前の目標実装箇所50の位置Xk−Rの予測値を入出力信号Uを基にサイクル周期(τ周期)で算出する。具体的には、状態方程式(式1)を基にして、(式2)のようにUk−R及びXk−R−1を用いてRサイクル前の目標実装箇所50の位置Xk−Rを予測する。Xk−R−1は、現在のサイクルkの(R+1)サイクル前にフィルタ912によって算出された目標実装箇所50の推定位置である。
-Prediction processing unit 9121
The prediction processing unit 9121 calculates the predicted value of the position X k-R of the target mounting location 50 before the R cycle of the current cycle k in the cycle period (τ u period) based on the input / output signal U k . Specifically, based on the state equation (Formula 1), the position X k- of the target mounting location 50 before the R cycle using U k-R and X k-R-1 as shown in (Formula 2). Predict R. X k−R−1 is the estimated position of the target mounting location 50 calculated by the filter 912 before (R + 1) cycles of the current cycle k.

Figure 2015213139
Figure 2015213139

Figure 2015213139
Figure 2015213139

状態方程式(式1)において、Aは部品配置装置100の時間遷移の線形モデルを示す行列、Bは入出力信号Uに対する線形演算子、wは零平均かつプロセス誤差共分散行列Qに従うプロセスノイズである。(式2)では、誤差を無視している。 In the state equation (Equation 1), A d is a matrix indicating a linear model of time transition of the component placement apparatus 100, B d is a linear operator for the input / output signal U k , w k is a zero mean and process error covariance matrix Q Process noise according to w . In (Expression 2), the error is ignored.

また、予測処理部9121では、(式3)のように、この時間遷移における誤差共分散行列Mk−Rの予測計算も実行される。誤差共分散行列Mk−Rの予測値は補正処理部9122に出力される。 In addition, the prediction processing unit 9121 also performs prediction calculation of the error covariance matrix M k-R at this time transition, as in (Equation 3). The predicted value of the error covariance matrix M k-R is output to the correction processing unit 9122.

Figure 2015213139
Figure 2015213139

(式3)において、Pk−R−1は、位置推定器91の1サイクル前の推定誤差共分散行列である。 In (Expression 3), P k−R−1 is an estimation error covariance matrix one cycle before the position estimator 91.

・補正処理部9122
補正処理部9122は、画像処理信号Yの入力周期で画像処理信号Yを基にRサイクル前の目標実装箇所50の位置Xk−Rの予測値を補正する機能を果たす。具体的には、補正処理部9122では、観測方程式(式4)を用いて、サイクルkにおける画像処理信号Y、及び予測処理部9121で求められた誤差共分散行列Mk−Rの予測値を基に、サイクルkのRサイクル前の目標実装箇所50の位置Xk−Rを補正して出力する。
Correction processing unit 9122
The correction processing unit 9122 has a function of correcting the predicted value of the position X k-R of the target mounting location 50 before the R cycle based on the image processing signal Y k in the input cycle of the image processing signal Y k . Specifically, the correction processing unit 9122 uses the observation equation (Equation 4) to predict the image processing signal Y k in cycle k and the error covariance matrix M k-R obtained by the prediction processing unit 9121. Based on the above, the position X k-R of the target mounting location 50 before the R cycle of the cycle k is corrected and output.

Figure 2015213139
Figure 2015213139

観測方程式(式4)において、Cは部品実装装置100の観測モデルを示す行列、vは零平均かつ観測誤差共分散行列Qに従う観測に伴うノイズである。観測方程式(式4)から分かる通り、本実施例の特徴の一つとして、Rサイクル前の部品実装装置100の目標実装箇所50の位置Xk―Rを観測した値として画像処理信号Yを取り扱っている。 In the observation equation (Equation 4), C d is a matrix indicating the observation model of the component mounting apparatus 100, and v k is noise associated with observation according to the zero mean and the observation error covariance matrix Q v . As can be seen from the observation equation (Equation 4), as one of the features of this embodiment, the image processing signal Y k is obtained as a value obtained by observing the position X k−R of the target mounting location 50 of the component mounting apparatus 100 before the R cycle. We are dealing.

補正処理部9122で実行される処理には(式5)−(式7)の処理が含まれる。   The processing executed by the correction processing unit 9122 includes processing of (Expression 5) to (Expression 7).

Figure 2015213139
Figure 2015213139

Figure 2015213139
Figure 2015213139

Figure 2015213139
Figure 2015213139

(式5)の処理は、最適カルマンゲインLk―Rを算出する処理である。(式6)の処理は、カルマンゲインLk−Rを用いて予測処理部9121で求められたRサイクル前の目標実装箇所50の位置Xk−Rの予測値を補正してRサイクル前の目標実装箇所50の位置Xk−Rの推定値を求める処理である。(式7)の処理は、Rサイクル前の目標実装箇所50の位置Xk−Rの推定値の推定誤差共分散行列Pk−Rを算出する処理である。 The process of (Formula 5) is a process for calculating the optimum Kalman gain L k-R . In the process of (Equation 6), the predicted value of the position X k-R of the target mounting location 50 before the R cycle obtained by the prediction processing unit 9121 is corrected using the Kalman gain L k-R to correct the value before the R cycle. This is a process for obtaining an estimated value of the position X k-R of the target mounting location 50. The process of (Expression 7) is a process of calculating an estimation error covariance matrix P k-R of the estimated value of the position X k-R of the target mounting location 50 before the R cycle.

・スイッチ9123
スイッチ9123は、状態再構成器913に入力する信号の入力元を予測処理部9121及び補正処理部9122のいずれかに切り換える機能を果たす。予測処理部9121は毎サイクル処理を実行する。それに対し、補正処理部9122はNサイクルにつき1回だけ処理を実行し、残りの(N−1)サイクルは処理を実行しない。本実施例においては、図5に示したように画像処理信号YがNサイクルに1回しか本体制御装置913の位置推定器91に入力されない。そこで、フィルタ912においては、画像処理信号Yが入力されたサイクルはスイッチ9123を補正処理部9122側に切り換えて補正処理部9122で補正した位置Xk−Rを、それ以外の画像処理信号Yが入力されないサイクルはスイッチ9123を予測処理部9121側に切り換えて補正されないままの位置Xk−Rを、目標実装箇所50のRサイクル前の推定位置の情報として状態再構成器913に切り換え出力する。即ち、画像処理信号Yが入力されないサイクルでは、補正された位置Xk−Rの代替値として補正されないままの位置Xk−Rが出力される。なお、画像処理信号Yが入力されないサイクルで計算されない推定誤差共分散行列Pk−Rは、予測処理部9121で計算される誤差共分散行列Mk−Rが、そのままPk−Rに代入される。
Switch 9123
The switch 9123 has a function of switching the input source of the signal input to the state reconstructor 913 to one of the prediction processing unit 9121 and the correction processing unit 9122. The prediction processing unit 9121 executes processing every cycle. On the other hand, the correction processing unit 9122 executes the process only once every N cycles, and does not execute the process for the remaining (N−1) cycles. In this embodiment, as shown in FIG. 5, the image processing signal Y k is input to the position estimator 91 of the main body control device 913 only once every N cycles. Therefore, in the filter 912, in the cycle in which the image processing signal Y k is input, the position X k−R corrected by the correction processing unit 9122 by switching the switch 9123 to the correction processing unit 9122 side is used as the other image processing signal Y. In a cycle in which k is not input, the switch 9123 is switched to the prediction processing unit 9121 side, and the position X k-R that is not corrected is switched and output to the state reconstructor 913 as information on the estimated position of the target mounting location 50 before the R cycle. To do. That is, in a cycle in which the image processing signal Y k is not input, the position X k-R that is not corrected is output as a substitute value for the corrected position X k-R . It is not calculated in the cycle of the image processing signal Y k is not input estimated error covariance matrix P k-R, the error covariance matrix M k-R, which is calculated by the prediction processing unit 9121 is directly substituted into P k-R Is done.

(3)状態再構成器913
状態再構成器913は、Rサイクル分の遅延補償処理を施すことでRサイクル前の位置情報から目標実装箇所50の現在位置Xを推定する処理部として機能する。この状態再構成器913は、R個の遅延補償処理部9131を備えている。状態再構成器913においては、Rサイクル制御指令記憶バッファ911に記憶された(R−1)サイクル前から1サイクル前までの入出力信号Uk−R+1〜Uk−1及び現在のサイクルkの入出力信号Uをそれぞれ用いた遅延補償処理をフィルタ912の出力値(スイッチの出力値)に対してRステップ繰り返すことによって、現在のサイクルkにおける目標実装箇所50の位置Xを推定する。
(3) State reconstructor 913
State reconstructor 913 functions as a processing unit for estimating the current position X k of the target mounting position 50 from the position information before R cycle by performing delay compensation processing R cycles. The state reconstructor 913 includes R delay compensation processing units 9131. In the state reconstructor 913, the input / output signals U k−R + 1 to U k−1 from the (R−1) cycle to the previous cycle stored in the R cycle control command storage buffer 911 and the current cycle k are stored. by repeating R step delay compensation processing using each of the input and output signals U k for the output value of the filter 912 (the output value of the switch), to estimate the position X k of the target mounting position 50 in the current cycle k.

各遅延補償処理部9131の具体的な処理内容を(式8)に示す。   Specific processing contents of each delay compensation processing unit 9131 are shown in (Equation 8).

Figure 2015213139
Figure 2015213139

即ち、ある整数iについて、サイクル(k−R+i−1)の目標実装箇所50の位置Xk−R+i−1、及びサイクル(k−R+i)の入出力信号Uk−R+iを用いて、サイクル(k−R+i)の目標実装箇所50の位置Xk−R+iを算出する計算である。状態再構成器913は、i={1,・・・,R−1,R}について、遅延補償処理部9131を実行する。(式8)に示される計算をR回行うことで、Rサイクル前の状態から現在の状態を導き出すことができる。 That is, for a certain integer i, using the position X kR + i-1 of the target mounting location 50 of the cycle (k−R + i−1) and the input / output signal U k−R + i of the cycle (k−R + i), the cycle ( This is a calculation for calculating the position X k−R + i of the target mounting location 50 of k−R + i). The state reconstructor 913 executes the delay compensation processing unit 9131 for i = {1,..., R−1, R}. By performing the calculation shown in (Formula 8) R times, the current state can be derived from the state before R cycles.

本体制御装置930の指令信号出力部(例えばCPU901)は、現在のサイクルkにおける目標実装箇所50の位置Xを基に駆動電流指令を算出しX軸リニアモータ可動子111及びY軸リニアモータ可動子121に出力する。以上の位置決め制御処理を毎サイクル繰り返し実行することで偏差ベクトル(Δcamx,Δcamy)が0(ゼロ)になったら本体制御装置930はビジュアルサーボ処理を終了する。 Command signal output unit of the main controller 930 (e.g., CPU 901), the calculated X-axis linear motor movable elements 111 and Y-axis linear motor movable drive current command based on the position X k of the target mounting position 50 in the current cycle k Output to the child 121. When the deviation vector (Δcamx, Δcamy) becomes 0 (zero) by repeatedly executing the above positioning control processing every cycle, the main body control device 930 ends the visual servo processing.

なお、以上説明した位置推定器91は、所定の電子回路を用いたハードウェアで構成することもできるが、本体制御部930の例えばCPU901で実行されるプログラムの形で具現化することもできる。   The position estimator 91 described above can be configured by hardware using a predetermined electronic circuit, but can also be embodied in the form of a program executed by, for example, the CPU 901 of the main body control unit 930.

6.位置決め制御系
次に、位置推定器91を用いた位置決め制御系の一例を説明する。
図7は位置推定器91を用いたX軸方向の位置決め制御系の一例であり、その情報伝達経路を抽出して表している。Y軸方向の位置決め制御系についても同様にして構成できることは言うまでもない。
6). Positioning Control System Next, an example of a positioning control system using the position estimator 91 will be described.
FIG. 7 shows an example of a positioning control system in the X-axis direction using the position estimator 91. The information transmission path is extracted and shown. Needless to say, the positioning control system in the Y-axis direction can be configured in the same manner.

図7の位置決め制御系には、内部制御系及び外部制御系が含まれる。内部制御系は、内部制御器Cin2011、周期τのホルダ2012、制御入力Iからエンコーダ出力Eに至るまでの制御対象P2013、周期τのサンプラ2014及び加算器2015を含む。外部制御系は、外部制御器Cout2021、位置推定器91、カメラ画像処理部2022、エンコーダ出力Eからカメラ位置xに至るまでの機構特性2025を含む。カメラ画像処理部2022は、図4を用いて説明した通り、カメラ位置xと目標実装箇所50の位置xの差分である画像処理信号Δcamを出力する。この画像処理信号Δcamには、画像処理によるR・τの遅れ時間要素2023と撮像によるN・τのサンプラ2024を伴って画像処理信号Yとして出力される。 The positioning control system in FIG. 7 includes an internal control system and an external control system. The internal control system includes an internal controller C in 2011, a holder 2012 with a period τ u , a control target P 1 2013 from the control input I q to the encoder output E, a sampler 2014 with a period τ u , and an adder 2015. External control system includes a mechanism characteristic 2025 of the external controller C out 2021, the position estimator 91, a camera image processing unit 2022, the encoder output E up to the camera position x a. Camera image processing unit 2022 outputs the image processing signal Δcam which is a difference between the position x T street, camera position x a and the target mounting portion 50 described with reference to FIG. This image processing signal Derutacam, with the N · tau u sampler 2024 by a delay time element 2023 and the imaging of the R · tau u by the image processing is outputted as an image processing signal Y.

内部制御系においては、軌道Rrにエンコーダ出力Eを追従させる制御(位置決め制御処理)を実行する。制御対象P2013はX軸リニアモータ可動子111やX軸位置エンコーダヘッド部112、実装ヘッド10であり、内部制御器Cin2011は例えば本体制御部930に備えられたPID制御器等で実現可能である。図3Aのように、目標実装箇所50がカメラ40の視野領域Fから外れていて画像処理信号Yが得られない場合、スイッチ2002は、例えばCPU901(図2参照)の指令によって軌道生成器2001の出力であるエンコーダ軌道Renc側を選択しており、軌道Rrはエンコーダ軌道Rencとなる。エンコーダ軌道Rencは、図3Aで説明した目標地点yまでの移動軌道である。 In the internal control system, control (positioning control processing) for causing the encoder output E to follow the track Rr is executed. The control target P 1 2013 is the X-axis linear motor movable element 111, the X-axis position encoder head unit 112, and the mounting head 10, and the internal controller C in 2011 is realized by, for example, a PID controller provided in the main body control unit 930 Is possible. As shown in FIG. 3A, when the target mounting location 50 is out of the visual field region F of the camera 40 and the image processing signal Y cannot be obtained, the switch 2002 is set by the trajectory generator 2001 according to a command from the CPU 901 (see FIG. 2). The encoder trajectory R enc side that is the output is selected, and the trajectory Rr becomes the encoder trajectory R enc . Encoder trajectory R enc is moving trajectory to the target location y t described in Figure 3A.

その後、図3B及び図3Cのように、目標実装箇所50がカメラ40の視野領域Fに含まれた場合、例えばCPU901(図2参照)の指令によってスイッチ2002は画像軌道Rを選択する。この間、位置推定器91は、画像処理信号Yと入出力信号Uを用いて目標実装箇所50の推定位置Xを出力している。外部制御器Cout2021は、入力された推定位置Xを用いて画像軌道Rを演算して出力し、これが内部制御系の軌道Rrとなる。即ち、外部制御器Cout2021は、X軸リニアモータ可動子111に駆動電流指令を出力する指令出力部(例えばCPU901)に該当する。外部制御器Cout2021に例えばローパスフィルタ等の直流ゲインが1のフィルタを用いることで、軌道Rrを推定位置Xへと収束させる。このビジュアルサーボ処理を繰り返し実行することにより、エンコーダ出力Eが推定位置Xに実質的に一致し、目標実装箇所50への電子部品62の実装が可能となる。 Thereafter, as shown in Figures 3B and 3C, when the target mounting portion 50 is included in the viewing area F of the camera 40, for example, the switch 2002 in response to a command CPU 901 (see FIG. 2) selects an image trajectory R X. During this time, the position estimator 91 outputs the estimated position X of the target mounting location 50 using the image processing signal Y and the input / output signal U. External controller C out 2021 is executed to compute the image trajectory R X output with the input estimated position X, which is the trajectory Rr of the internal control system. That is, the external controller C out 2021 corresponds to a command output unit (for example, the CPU 901) that outputs a drive current command to the X-axis linear motor movable element 111. For example, a filter having a DC gain of 1, such as a low-pass filter, is used as the external controller C out 2021 to converge the trajectory Rr to the estimated position X. By repeatedly executing this visual servo process, the encoder output E substantially coincides with the estimated position X, and the electronic component 62 can be mounted at the target mounting location 50.

なお、図7に示した位置決め制御系の構造は一例であって実施例を限定するものではない。例えば、内部制御器Cinに制御入力Iや軌道Rrを入力する構成とすることもできる。また、スイッチ2002は目標実装箇所50への吸着ノズル20の位置決めを最終的にビジュアルサーボ処理で行えば良いので、スイッチ2002を切り換えるタイミングは目標実装箇所50が視野領域Fに入った時点に限らず、目標実装箇所50がカメラ40の視野領域Fに入ってから設定の時間又は距離だけエンコーダ軌道Rencを選択した位置決め制御処理を継続する構成としても良い。さらに、図7のような2重ループの制御系構造でなく、カメラ40の視野領域Fが目標実装箇所50を含む場合と含まない場合で、それぞれ別の制御系を組んでも良い。 The structure of the positioning control system shown in FIG. 7 is an example, and the embodiment is not limited. For example, the control input I q and the trajectory Rr may be input to the internal controller C in . Further, since the switch 2002 may finally perform the positioning of the suction nozzle 20 to the target mounting location 50 by visual servo processing, the timing for switching the switch 2002 is not limited to the time when the target mounting location 50 enters the visual field region F. The positioning control process in which the encoder trajectory Renc is selected for a set time or distance after the target mounting location 50 enters the visual field region F of the camera 40 may be continued. Furthermore, the control system structure of the double loop as shown in FIG. 7 may be used, and different control systems may be formed depending on whether or not the visual field region F of the camera 40 includes the target mounting location 50.

7.効果
以上のように、本実施例によれば、遅延サイクルRを伴いNサイクル毎にしか画像処理信号Yが得られないものの、スイッチ9123を用いて補正処理部9122の出力と予測処理部9121の代替出力とを切り換えることにより、現在のサイクルkの入出力信号U及び画像処理信号Yに基づく現在のサイクルkにおける目標実装箇所50の推定位置Xを毎サイクル出力することができる。これにより、遅延サイクルR中も目標実装箇所50の位置Xを推定し続けることができる。そして、常にカメラ40の撮影画像に基づいて吸着ノズル20の位置を制御することができるので、位置決め精度も向上する。従って、吸着ノズル20を静止させることなく高精度に目標実装箇所50に位置決めすることができる。
7). As described above, according to the present embodiment, although the image processing signal Y k can be obtained only every N cycles with the delay cycle R, the output of the correction processing unit 9122 and the prediction processing unit 9121 using the switch 9123. of by switching between alternative output can be every cycle outputs the estimated position X k of the target mounting position 50 in the current cycle k based on output signals U k and the image processing signals Y k for the current cycle k. Thus, it is possible even during the delay cycle R continues to estimate the position X k of the target mounting position 50. And since the position of the suction nozzle 20 can always be controlled based on the photographed image of the camera 40, the positioning accuracy is also improved. Therefore, the suction nozzle 20 can be positioned at the target mounting location 50 with high accuracy without being stationary.

特に、本実施例では、画像処理信号Yと入出力信号Uk−Rから演算される時変のカルマンゲインLk−Rを用いている。カルマンゲインLk−Rは(式5)に示したように誤差が小さくなるように時々刻々と変化する。そして、このカルマンゲインLk−Rを(式6)のように用いることにより、時間に伴って推定誤差を修正することができる。そのため、推定精度の信頼性は極めて高い。 In particular, in this embodiment, using a modification of the Kalman gain L k-R when it is calculated from the image processing signal Y k and the output signal U k-R. The Kalman gain L k-R changes from moment to moment so that the error becomes smaller as shown in (Formula 5). Then, by using this Kalman gain L k-R as shown in (Expression 6), the estimation error can be corrected with time. Therefore, the reliability of estimation accuracy is extremely high.

また、カメラ40は吸着ノズル20に固定されているため、吸着ノズル20の移動中であっても撮影画像400内で原点O(0,0)が動くことはない。他方、目標実装箇所50は撮影画像400内で原点O(0,0)に向かって移動するため露光時間Nに応じた被写体ぶれを伴って映る。言い換えれば、本体制御装置930に入力された時点からすれば、入力された画像処理信号には、カメラ40の露光時間N及び画像処理装置940の画像処理時間Mに起因する遅延時間が伴われることとなる。上記自然数Rはこの遅延時間に相当するサイクル数を表している。具体的には、画像処理部940で計算されるp(px,py)は被写体ぶれを伴った像の中心位置であり、露光時間の中間時点の位置ということになる。従って、露光時間Nの半分の時間を画像処理時間Mに加えた時間を遅延サイクルR(=N/2+M)として考慮することで、撮影画像400内の点p(px,py)から推定された目標実装位置50の現在位置Xに高い妥当性を与えることができる。 Further, since the camera 40 is fixed to the suction nozzle 20, the origin O (0, 0) does not move in the captured image 400 even when the suction nozzle 20 is moving. On the other hand, since the target mounting location 50 moves toward the origin O (0, 0) in the captured image 400, the target mounting location 50 appears with subject blur corresponding to the exposure time N. In other words, from the time of input to the main body control device 930, the input image processing signal is accompanied by a delay time due to the exposure time N of the camera 40 and the image processing time M of the image processing device 940. It becomes. The natural number R represents the number of cycles corresponding to this delay time. Specifically, p (px, py) calculated by the image processing unit 940 is the center position of the image with subject blurring, and is the position at the intermediate point in the exposure time. Therefore, it is estimated from the point p (px, py) in the captured image 400 by considering the time obtained by adding half the exposure time N to the image processing time M as the delay cycle R (= N / 2 + M). it can provide highly relevant to the current position X k of the target mounting position 50.

次に実施例2について説明する。実施例1と同様の点は説明を省略する。   Next, Example 2 will be described. The description of the same points as in the first embodiment will be omitted.

図8は実施例2に係る位置決め装置の概念構成を例示する図である。同図において実施例1と同様の部分には既出図面と同符号を付してある。   FIG. 8 is a diagram illustrating a conceptual configuration of the positioning device according to the second embodiment. In the figure, the same parts as those in the first embodiment are denoted by the same reference numerals as those in the previous drawings.

同図はX軸ビーム機構11を支える架台30が共振特性を持つことを表している。この架台30の共振特性による振動は、目標実装箇所50及び部品装着ノズル20の相対振動となる。従って、目標実装箇所50に吸着ノズル20を位置決めするためには、架台振動の影響を抑制する必要がある。しかし、架台振動はX軸位置エンコーダヘッド114では観測できない。そのため、画像処理信号Yを基に位置推定器91で振動を推定し、位置決め制御系に反映する必要がある。   This figure shows that the gantry 30 that supports the X-axis beam mechanism 11 has resonance characteristics. The vibration due to the resonance characteristics of the gantry 30 is a relative vibration of the target mounting location 50 and the component mounting nozzle 20. Therefore, in order to position the suction nozzle 20 at the target mounting location 50, it is necessary to suppress the influence of the gantry vibration. However, the gantry vibration cannot be observed with the X-axis position encoder head 114. Therefore, it is necessary to estimate the vibration by the position estimator 91 based on the image processing signal Y and reflect it in the positioning control system.

ここで、位置推定器91は(式1)に示すA,B、(式4)に示すCを部品実装装置100のモデルとして用いる。この位置推定器91で用いるようなモデルは、一般にはX軸リニアモータ可動子111、X軸位置エンコーダヘッド114、実装ヘッド10からなる駆動系をモデル化したものである。しかし、前述した通り架台振動はX軸位置エンコーダヘッド114では観測できないためモデル化できない。そこで、本実施例では、位置推定器91で架台振動を推定するために、架台30の振動モードをモデルに反映させることが考えられる。 Here, the position estimator 91 uses A d and B d shown in (Expression 1) and C d shown in (Expression 4) as models of the component mounting apparatus 100. The model used in the position estimator 91 is generally a model of a driving system including the X-axis linear motor movable element 111, the X-axis position encoder head 114, and the mounting head 10. However, since the gantry vibration cannot be observed by the X-axis position encoder head 114 as described above, it cannot be modeled. Therefore, in this embodiment, in order to estimate the gantry vibration by the position estimator 91, it is conceivable to reflect the vibration mode of the gantry 30 in the model.

(式9)は、位置推定器91における制御入力Iから画像処理信号Δcamに至るまでの伝達特性の一例である。 (Equation 9) is an example of transfer characteristics from the control input I q to the image processing signal Δcam in the position estimator 91.

Figure 2015213139
Figure 2015213139

sはラプラス演算子、mは可動部の質量、ωは架台振動の共振角周波数、ζは架台振動の共振減衰定数、Kは架台振動の共振レジドゥーである。右辺第1項は駆動系の特性であり、第2項は架台30の振動モードである。この伝達特性を離散状態空間表現したモデルを補正処理に用いることで、位置推定器91により架台振動を考慮した推定が可能となり、目標実装箇所50に吸着ノズル20を位置決めすることができる。   s is a Laplace operator, m is a mass of the movable part, ω is a resonance angular frequency of the gantry vibration, ζ is a resonance damping constant of the gantry vibration, and K is a resonance residue of the gantry vibration. The first term on the right side is the characteristics of the drive system, and the second term is the vibration mode of the gantry 30. By using a model expressing the transfer characteristics in a discrete state space for correction processing, the position estimator 91 can perform estimation in consideration of gantry vibration, and the suction nozzle 20 can be positioned at the target mounting location 50.

なお、(式9)はモデルに用いる伝達特性の一例であり、本実施例を限定するものではない。例えば、右辺第1項の駆動系の特性は、制御指令Iから画像処理信号Δcamに至るまでの特性でなくても良く、例えばエンコーダ出力Eに対する速度と位置の関係であっても良い。また、ここではX軸について示したが、Y軸についても同様であることは言うまでもない。 Note that (Equation 9) is an example of transfer characteristics used in the model, and is not intended to limit the present embodiment. For example, the drive system characteristic of the first term on the right side may not be the characteristic from the control command I q to the image processing signal Δcam, and may be, for example, the relationship between the speed and position with respect to the encoder output E. Although the X-axis is shown here, it goes without saying that the same applies to the Y-axis.

次に実施例3について説明する。実施例1と同様の点は説明を省略する。   Next, Example 3 will be described. The description of the same points as in the first embodiment will be omitted.

先の実施例1では、図5においてカメラ40の露光時間のサイクル数を示すNが偶数である場合を例に挙げて説明した。従って、遅延時間のサイクル数を示すR=(N/2+M)は自然数となった。しかし、露光時間のサイクル数は、図9に示すように奇数となる場合もある。この場合は、切り上げを行うCeil関数を用い、遅延時間のサイクル数RをR=(Ceil(N/2)+M)と定義すれば良い。   In the first embodiment, the case where N indicating the number of cycles of the exposure time of the camera 40 in FIG. 5 is an even number has been described as an example. Therefore, R = (N / 2 + M) indicating the cycle number of the delay time is a natural number. However, the number of cycles of exposure time may be an odd number as shown in FIG. In this case, a Ceil function for rounding up is used, and the cycle number R of the delay time may be defined as R = (Ceil (N / 2) + M).

また、図5において、本体制御部930に対する画像処理信号Yの入力周期はカメラ40の露光時間Nであった。カメラ40の露光時間Nと比較して、画像処理部940の画像処理時間Mが短かったためである。しかし、図10に示すように露光時間Nよりも画像処理時間Mが長い場合もある。画像処理信号Yの入力周期は露光時間N及び画像処理時間Mの長い方となるため、この場合にはMサイクル毎に本体制御部930に画像処理信号Yが入力される。この場合、図6に示した位置推定器91のフィルタ912において、スイッチ9123を切り換えるタイミングをMサイクルに1回とすればよい。即ち、補正処理部9122による処理は、Mサイクルに1回だけ実行され、その間の(M−1)サイクルは実行されない。 In FIG. 5, the input period of the image processing signal Y k to the main body control unit 930 is the exposure time N of the camera 40. This is because the image processing time M of the image processing unit 940 is shorter than the exposure time N of the camera 40. However, the image processing time M may be longer than the exposure time N as shown in FIG. Since the input cycle of the image processing signal Y k is the longer of the exposure time N and the image processing time M, in this case, the image processing signal Y k is input to the main body control unit 930 every M cycles. In this case, the timing for switching the switch 9123 in the filter 912 of the position estimator 91 shown in FIG. 6 may be set to once in M cycles. In other words, the processing by the correction processing unit 9122 is executed only once in M cycles, and the (M−1) cycles in between are not executed.

次に実施例4について説明する。
実施例1と同様の点は説明を省略する。
Next, Example 4 will be described.
The description of the same points as in the first embodiment will be omitted.

先の実施例1ではRサイクル制御指令記憶バッファ911に記憶された入出力信号Uk−R+1〜Uk−1及び現在のサイクルkの入出力信号Uをそれぞれ用いてR個の遅延補償処理部9131によってRステップの遅延補償処理を繰り返したのに対し、本実施例では、R個の遅延誤差補正パラメタ導出処理部914により遅延補償パラメタ導出処理をRステップ繰り返して遅延誤差補正パラメタを予め算出しておき、算出した遅延誤差補正パラメタを用いて位置Xk−RにRサイクル分の遅延補償処理を加える点が相違する。カメラ40、画像処理部940、本体制御部930の各処理のビジュアルサーボ制御処理におけるタイミングは、図5に示した実施例1の場合と同様である。 In the first embodiment, R delay compensation processes are performed using the input / output signals U k−R + 1 to U k−1 and the input / output signal U k of the current cycle k stored in the R cycle control command storage buffer 911, respectively. In this embodiment, the delay compensation parameter derivation processing unit 914 repeats the delay compensation parameter derivation process by R steps to calculate the delay error correction parameter in advance. The difference is that a delay compensation process for R cycles is added to the position X k-R using the calculated delay error correction parameter. The timing in the visual servo control process of each process of the camera 40, the image processing unit 940, and the main body control unit 930 is the same as that in the first embodiment shown in FIG.

図11は、本実施例にかかる位置推定器91の構成の一例を示したブロック線図である。位置推定器91は、R個の遅延誤差補正パラメタ導出処理部914、予測処理部915、Rサイクル予測値記憶部916、補正処理部917、スイッチ918、バッファ920及び更新処理部919を備えている。以降、これら各要素について位置推定器91の処理内容に沿って説明していく。   FIG. 11 is a block diagram illustrating an example of the configuration of the position estimator 91 according to the present embodiment. The position estimator 91 includes an R delay error correction parameter derivation processing unit 914, a prediction processing unit 915, an R cycle predicted value storage unit 916, a correction processing unit 917, a switch 918, a buffer 920, and an update processing unit 919. . Hereinafter, each of these elements will be described along the processing contents of the position estimator 91.

・予測処理部915
予測処理部915は、サイクルkにおける入出力信号U、及び1サイクル前の目標実装箇所50の位置Xk−1の推定値を基に、状態方程式(式1)によってXの予測値を出力する。具体的には、誤差を無視してXk−Rを予測する計算(式10)、及びその際の誤差共分散行列Mを予測する計算(式11)を含む。(式11)において、Pk−1は、後述する更新処理部919の1サイクル前の推定誤差共分散行列である。
Prediction processing unit 915
Prediction processing unit 915, input and output signals U k in cycle k, and based on an estimate of the position X k-1 of the preceding cycle a target mounting portion 50, the predicted value of X k by a state equation (Equation 1) Output. Specifically, the calculation includes a calculation (Equation 10) for ignoring the error and predicting X k−R and a calculation (Equation 11) for predicting the error covariance matrix M k at that time. In (Expression 11), P k−1 is an estimated error covariance matrix one cycle before an update processing unit 919 described later.

Figure 2015213139
Figure 2015213139

Figure 2015213139
Figure 2015213139

・Rサイクル予測値記憶部916
Rサイクル予測値記憶部916は、予測処理部915から過去Rサイクル間に入力されたR個のX予測値(Xk−R〜Xの予測値)を記憶するとともに、Rサイクル前の予測値Xk−Rを補正処理部917に出力する。
R cycle predicted value storage unit 916
The R cycle predicted value storage unit 916 stores R X k predicted values (predicted values of X k−R to X k ) input from the prediction processing unit 915 during the past R cycles, and before the R cycle. The predicted value X k−R is output to the correction processing unit 917.

・補正処理部917、スイッチ918、バッファ920
補正処理部917は、画像処理信号Yの入力周期で画像処理信号Yを基に予測位置Xk−Rの補正に関する処理を実行する。具体的には、補正処理部917では、(式12)を用いて、画像処理信号Y及びXk−Rの関係を示す遅延観測残差εk−Rを算出する。
Correction processing unit 917, switch 918, buffer 920
The correction processing unit 917 executes processing related to the correction of the predicted position X k-R based on the image processing signal Y k in the input cycle of the image processing signal Y k . Specifically, the correction processing unit 917 calculates a delay observation residual ε k−R indicating the relationship between the image processing signals Y k and X k−R using (Equation 12).

Figure 2015213139
Figure 2015213139

しかし、第1実施例と同様、本実施例においても位置推定器91に画像処理信号Yが入力されるのはNサイクルに1回である。そこで、バッファ920とスイッチ918によって、次のような処理を実行する。まず、位置推定器91は、画像処理信号Yが入力されたサイクルにおいてはスイッチ918を補正処理部917側に切り換え、遅延観測残差εk−Rを更新処理部919に出力するとともにバッファ920に記憶する。一方、画像処理信号Yが位置推定器91に入力されないサイクルでは、スイッチ918をバッファ920側に切り換え、バッファ920に記憶された最新の遅延観測残差εk−Rを代替として更新処理部919に出力する。 However, as in the first embodiment, in this embodiment, the image processing signal Yk is input to the position estimator 91 once every N cycles. Therefore, the following processing is executed by the buffer 920 and the switch 918. First, the position estimator 91 switches the switch 918 to the correction processing unit 917 side in the cycle in which the image processing signal Y k is input, and outputs the delay observation residual ε k−R to the update processing unit 919 and the buffer 920. To remember. On the other hand, in a cycle in which the image processing signal Y k is not input to the position estimator 91, the switch 918 is switched to the buffer 920 side, and the update processing unit 919 is replaced with the latest delay observation residual ε k-R stored in the buffer 920. Output to.

このように、本実施例においても、補正処理部917の処理はNサイクル毎に実行され、その間の(N−1)サイクルは実行されない。   Thus, also in the present embodiment, the processing of the correction processing unit 917 is executed every N cycles, and the (N−1) cycles in between are not executed.

・更新処理部919、遅延誤差補正パラメタ導出処理部914
更新処理部919では、予測処理部915で算出されたサイクルkにおける目標実装箇所50の予測位置Xと遅延観測残差εk−Rとから、サイクルkにおける目標実装箇所50の推定位置Xを算出する。
Update processing unit 919, delay error correction parameter derivation processing unit 914
In the update processing unit 919, and a predicted position X k and the delay observed residual epsilon k-R target mounting portion 50 in cycle k calculated by the prediction processing unit 915, the estimated position X k of the target mounting position 50 in cycle k Is calculated.

本実施例においては、第1の実施例のように観測方程式(式6)を用いて画像処理信号Y及びXk−Rの予測値を比較するのではなく、(式13)に示すように遅延観測残差εk−Rに遅延逆行ゲイン行列Gを乗じたもの、サイクルkにおける目標実装箇所50の予測位置X、及び観測モデル行列Cから新たに擬似画像処理信号Y を定義し、これを用いてXを推定する。 In this embodiment, the predicted values of the image processing signals Y k and X k-R are not compared using the observation equation (Formula 6) as in the first embodiment, but as shown in (Formula 13). Obtained by multiplying the delayed observation residual ε k−R by the delayed retrograde gain matrix G k , the predicted position X k of the target mounting location 50 in the cycle k , and the observation model matrix C d , a new pseudo image processing signal Y k * Is used to estimate Xk.

Figure 2015213139
Figure 2015213139

具体的には、更新処理部919では、擬似画像処理信号Y に関する擬似カルマンゲインL が算出され(後述)、(式14)のように擬似カルマンゲインL を用いて予測処理部915で求められた予測値Xk−Rを補正することで推定位置Xが算出される他、(式15)のように補正後の推定位置Xの推定誤差共分散行列Pも算出される。なお、(式1)〜(式14)で使用した記号は図12に示すように第1の推定値、第2の推定値、第3の推定値、推定位置、第1の予測値、第2の予測値と表現することもできる。 Specifically, the update processing unit 919 calculates a pseudo Kalman gain L k * related to the pseudo image processing signal Y k * (described later), and performs a prediction process using the pseudo Kalman gain L k * as shown in (Equation 14). Our estimated position X k by correcting the predicted value X k-R obtained in part 915 is calculated, also the estimation error covariance matrix P k of the estimated position X k after the correction as shown in equation (15) Calculated. The symbols used in (Equation 1) to (Equation 14) are the first estimated value, the second estimated value, the third estimated value, the estimated position, the first predicted value, the first estimated value, as shown in FIG. It can also be expressed as a predicted value of 2.

Figure 2015213139
Figure 2015213139

Figure 2015213139
Figure 2015213139

ここで、擬似カルマンゲインL の算出処理について説明すると、まず、前述した線形モデル行列Aと同一サイズの単位行列Iに対して、遅延誤差補正パラメタ導出処理部914による処理をRステップ繰り返すことで、遅延誤差補正パラメタΓ[R]を算出する。遅延誤差補正パラメタ導出処理部914による処理内容は(式16)に示す通りである。 Here, to describe the pseudo Kalman gain L k * calculation process, first, to the unit matrix I of the linear model matrix A d and the same size as described above, repeated R step treatment with delay error correction parameter deriving section 914 Thus, the delay error correction parameter Γ [R] is calculated. The processing contents by the delay error correction parameter derivation processing unit 914 are as shown in (Expression 16).

Figure 2015213139
Figure 2015213139

(式16)に示した通り、遅延誤差補正パラメタΓ[R]は線形モデル行列AをRステップ乗じたものである。このように、現在のサイクルkにおける位置Xを推定するために、(式1)に用いたモデルに加えて、画像処理信号Yと入出力信号Uから演算される時変パラメタ(疑似カルマンゲインL )用いることで、精度の高い推定を可能とする。 As shown in (Expression 16), the delay error correction parameter Γ [R] is obtained by multiplying the linear model matrix Ad by R steps. Thus, in order to estimate the position X k in the current cycle k, in addition to the model used in equation (1), varying the parameters when it is computed as the image processing signal Y k from the input signal U k (Pseudo By using Kalman gain L k * ), highly accurate estimation is possible.

次に、予測処理部915で算出された誤差共分散行列M、遅延誤差補正パラメタΓ[R]、及び前述した観測モデル行列Cを基に、(式17)のようにして相互共分散行列Ωを算出する。同様に、観測モデル行列C、誤差共分散行列M、及び前述した観測誤差共分散Qを基に、(式18)のように観測残差共分散行列Ψを算出する。 Next, based on the error covariance matrix M k calculated by the prediction processing unit 915, the delay error correction parameter Γ [R] , and the above-described observation model matrix C d , the mutual covariance is expressed as (Equation 17). The matrix Ω k is calculated. Similarly, based on the observation model matrix C d , the error covariance matrix M k , and the observation error covariance Q v described above, the observation residual covariance matrix Ψ k is calculated as in (Equation 18).

Figure 2015213139
Figure 2015213139

Figure 2015213139
Figure 2015213139

そして、相互共分散行列Ω、観測残差共分散行列Ψ、遅延逆行ゲイン行列Gとから、擬似カルマンゲインL を(式19)に基づき算出する。 Then, a pseudo Kalman gain L k * is calculated from the mutual covariance matrix Ω k , the observed residual covariance matrix Ψ k , and the delayed retrograde gain matrix G k based on (Equation 19).

Figure 2015213139
Figure 2015213139

以上のようにして、更新処理部919では、Rサイクル分の遅延補償処理を施すことでRサイクル前の位置情報から吸着ノズル20の現在位置Xが推定される。 As described above, the update processing unit 919, the current position X k of the suction nozzle 20 from the position information before R cycle by performing delay compensation processing R cycles is estimated.

本実施例においても、スイッチ918を用いて補正処理部917の出力とバッファ920の代替出力とを切り換えることにより、現在のサイクルkの入出力信号U及び画像処理信号Yに基づく現在のサイクルkにおける目標実装箇所50の推定位置Xを毎サイクル出力することができる。これにより、遅延サイクルR中も目標実装箇所50の位置Xを推定し続けることができる。そして、常にカメラ40の撮影画像に基づいて吸着ノズル20の位置を制御することができるので、位置決め精度も向上する。従って、吸着ノズル20を静止させることなく高精度に目標実装箇所50に位置決めすることができる。前述した通り、時変の擬似カルマンゲインL を用いることにより、推定精度を更に向上させることができる。 Also in the present embodiment, the current cycle based on the input / output signal U k and the image processing signal Y k of the current cycle k is switched by switching the output of the correction processing unit 917 and the alternative output of the buffer 920 using the switch 918. The estimated position Xk of the target mounting location 50 at k can be output every cycle. Thus, it is possible even during the delay cycle R continues to estimate the position X k of the target mounting position 50. And since the position of the suction nozzle 20 can always be controlled based on the photographed image of the camera 40, the positioning accuracy is also improved. Therefore, the suction nozzle 20 can be positioned at the target mounting location 50 with high accuracy without being stationary. As described above, the estimation accuracy can be further improved by using the time-varying pseudo-Kalman gain L k * .

また、(式17)〜(式19)に基づく擬似カルマンゲインL の算出は、更新処理部919において実施されるが、線形モデル行列Aが時間に対して一定である場合には、遅延誤差補正パラメタΓ[R]は予め算出しておくことができる。つまり、部品実装装置100の初期化時等の所定時機に一度遅延誤差補正パラメタΓ[R]を算出しておけばこれを毎サイクル用いることができるので、ビジュアルサーボ処理の1サイクル当たりの計算量を削減することができる。そのため、ビジュアルサーボ処理の制御周期を短縮することができ、実施例1に比べて制御を高速化することができる。 Furthermore, (Equation 17) to the pseudo Kalman gain L k * calculated based on the equation (19) is carried out in the update processing unit 919, if a linear model matrix A d is constant with respect to time, The delay error correction parameter Γ [R] can be calculated in advance. That is, once the delay error correction parameter Γ [R] is calculated once at a predetermined time such as when the component mounting apparatus 100 is initialized, it can be used for each cycle, so the amount of calculation per cycle of visual servo processing Can be reduced. Therefore, the control cycle of visual servo processing can be shortened, and control can be speeded up compared to the first embodiment.

なお、本実施例に係る位置推定器91を図7の位置決め制御系に適用することができることは言うまでもない。図7の位置決め制御系は実施例1で説明した通り一例である。また、本実施例に係る位置推定器91に用いるモデルに対しては、図8や(式9)の機構共振モデルを当然に用いることができる。   Needless to say, the position estimator 91 according to the present embodiment can be applied to the positioning control system of FIG. The positioning control system in FIG. 7 is an example as described in the first embodiment. For the model used for the position estimator 91 according to the present embodiment, the mechanism resonance model shown in FIG. 8 or (Equation 9) can be naturally used.

100・・・部品実装装置
10・・・実装ヘッド
11・・・X軸ビーム機構
111・・・X軸リニアモータ可動子
112・・・X軸位置エンコーダヘッド部
113・・・X軸リニアモータ固定子
114・・・X軸位置エンコーダヘッド
12・・・Y軸ビーム機構
121・・・Y軸リニアモータ可動子
122・・・Y軸位置エンコーダヘッド部
123・・・Y軸リニアモータ固定子
124・・・Y軸エンコーダ
13・・・Y軸ガイド機構
131・・・Y軸リニアガイド
20・・・吸着ノズル
21・・・電子部品
22・・・目標実装箇所
30・・・架台
40・・・カメラ
50・・・目標実装箇所
60・・・プリント基板搬送路
61・・・プリント基板
62・・・電子部品
90・・・制御装置
901・・・CPU
902・・・ROM
903・・・RAM
940・・・画像処理部
91・・・位置推定器
911・・・Rサイクル制御指令記憶バッファ
912・・・フィルタ
9121・・・予測処理部
9122・・・補正処理部
9123・・・スイッチ
913・・・状態再構成器
9131・・・遅延補償処理部
914・・・遅延誤差補償パラメタ導出処理部
915・・・予測処理部
916・・・Rサイクル予測値記憶バッファ
917・・・補正処理部
918・・・スイッチ
917・・・バッファ
919・・・更新処理部
2001・・・軌道生成器
2002・・・スイッチ
2011・・・内部制御器
2012・・・ホルダ
2013・・・機構特性
2014・・・サンプラ
2015・・・加算器
2021・・・外部制御器
2022・・・カメラ画像処理部
2023・・・遅れ時間要素
2024・・・サンプラ
2025・・・機構特性
DESCRIPTION OF SYMBOLS 100 ... Component mounting apparatus 10 ... Mounting head 11 ... X-axis beam mechanism 111 ... X-axis linear motor movable element 112 ... X-axis position encoder head part 113 ... X-axis linear motor fixation Element 114 ... X-axis position encoder head 12 ... Y-axis beam mechanism 121 ... Y-axis linear motor movable element 122 ... Y-axis position encoder head part 123 ... Y-axis linear motor stator 124 ..Y axis encoder 13... Y axis guide mechanism 131... Y axis linear guide 20 .. suction nozzle 21 .. electronic component 22 .. target mounting location 30. 50 ... target mounting location 60 ... printed circuit board transport path 61 ... printed circuit board 62 ... electronic component 90 ... control device 901 ... CPU
902 ... ROM
903 ... RAM
940 ... Image processing unit 91 ... Position estimator 911 ... R cycle control command storage buffer 912 ... Filter 9121 ... Prediction processing unit 9122 ... Correction processing unit 9123 ... Switch 913 State reconstructor 9131 ... Delay compensation processing unit 914 ... Delay error compensation parameter derivation processing unit 915 ... Prediction processing unit 916 ... R cycle predicted value storage buffer 917 ... Correction processing unit 918 ... Switch 917 ... Buffer 919 ... Update processing unit 2001 ... Orbit generator 2002 ... Switch 2011 ... Internal controller 2012 ... Holder 2013 ... Mechanical characteristics 2014 ... Sampler 2015 ... Adder 2021 ... External controller 2022 ... Camera image processing unit 2023 ... Delay time element 2024 ... Sample La 2025 ... mechanism characteristics

Claims (9)

移動体を移動させる移動機構と、
前記移動機構に設けたカメラと、
前記カメラの撮影画像を画像処理し撮影画像内における目標物の観測位置に基づく画像処理信号Yを算出する画像処理部と、
前記移動機構との間で位置決め制御に関して授受する入出力信号U及び前記画像処理信号Yを基に前記移動機構の制御をサイクル周期で繰り返し前記移動体の位置を前記目標物に近付ける本体制御部とを備え、
前記本体制御部は、
前記カメラの露光時間N及び前記画像処理部の画像処理時間Mに起因して前記撮影画像に伴われる遅延サイクルRだけ前の前記目標物の位置Xk−Rを前記入出力信号Uを基に前記サイクル周期で算出する予測処理部と、
前記画像処理信号Yの入力周期で前記画像処理信号Yを基に前記位置Xk−Rの補正又はこれに関連する処理である補正処理を実行する補正処理部と、
前記画像処理信号Yが入力されたサイクルは前記補正処理部の出力値を、それ以外のサイクルは代替値を前記目標物のRサイクル前の位置情報として切り換え出力するスイッチと、
Rサイクル分の遅延補償処理を施すことで前記Rサイクル前の位置情報から前記目標物の現在位置Xを推定する処理部と、
前記現在位置Xを基に前記移動機構に指令信号を指令出力部と
を備えたことを特徴とする位置決め装置。
A moving mechanism for moving the moving body;
A camera provided in the moving mechanism;
An image processing unit that performs image processing on a captured image of the camera and calculates an image processing signal Y k based on an observation position of the target in the captured image;
Main body control for bringing the position of the moving body closer to the target object by repeating the control of the moving mechanism in a cycle period based on the input / output signal U k and the image processing signal Y k exchanged with the moving mechanism for positioning control. With
The main body control unit
Due to the exposure time N of the camera and the image processing time M of the image processing unit, the position X k-R of the target before the delay cycle R accompanying the captured image is determined based on the input / output signal U k . A prediction processing unit that calculates the cycle period,
A correction processing unit that performs correction of the position X k-R or a correction process that is related to the position X k-R based on the image processing signal Y k in the input cycle of the image processing signal Y k ;
A switch that outputs the output value of the correction processing unit in a cycle in which the image processing signal Y k is input, and a switch that outputs a substitute value as position information before the R cycle of the target in other cycles;
A processing unit for estimating a current position X k from the position information before the R cycle by performing delay compensation processing R cycles the target,
Positioning device, characterized in that said a command output section instruction signal to the moving mechanism based on the current position X k.
請求項1の位置決め装置において、
前記現在値Xは、前記入出力信号Uと前記画像処理信号Yとを基に演算した時変パラメタを用いて推定されることを特徴とする位置決め装置。
The positioning device of claim 1,
The current value Xk is estimated using a time-varying parameter calculated based on the input / output signal Uk and the image processing signal Yk .
請求項1の位置決め装置において、
前記画像処理信号Yの入力周期は、前記露光時間N及び前記画像処理時間Mの長い方であることを特徴とする位置決め装置。
The positioning device of claim 1,
The positioning apparatus according to claim 1, wherein the input period of the image processing signal Yk is the longer of the exposure time N and the image processing time M.
請求項2の位置決め装置において、
前記位置検出器のRサイクル分の入出力信号を記憶するバッファを備え、
前記Rサイクル分の遅延補償処理は、前記バッファに記憶された(R−1)サイクル前から現在のサイクルまでの入出力信号Uk−R+1〜Uをそれぞれ用いた遅延補償処理を前記スイッチの出力値に対してRステップ繰り返す処理であることを特徴とする位置決め装置。
The positioning device of claim 2,
A buffer for storing input / output signals for R cycles of the position detector;
The delay compensation processing for R cycles is performed by performing delay compensation processing using the input / output signals U k−R + 1 to U k from (R−1) cycles before the current cycle stored in the buffer to the current cycle. A positioning device characterized in that it is a process of repeating R steps for an output value.
請求項4の位置決め装置において、前記代替値は、前記予測処理部から出力された補正前の前記位置Xk−Rであることを特徴とする位置決め装置。 5. The positioning apparatus according to claim 4, wherein the substitute value is the position Xk-R before correction output from the prediction processing unit. 請求項2の位置決め装置において、
遅延補償パラメタ導出処理をRステップ繰り返して遅延誤差補正パラメタを予め算出する遅延誤差補正パラメタ導出処理部を備え、
前記Rサイクル分の遅延補償処理は、前記遅延誤差補正パラメタ導出処理部で算出した遅延誤差補正パラメタを用いて前記スイッチの出力値を遅延補償する処理であることを特徴とする位置決め装置。
The positioning device of claim 2,
A delay error correction parameter derivation processing unit for calculating a delay error correction parameter in advance by repeating the delay compensation parameter derivation process by R steps;
The delay compensation process for the R cycle is a process for delay compensating the output value of the switch using the delay error correction parameter calculated by the delay error correction parameter derivation processing unit.
請求項6の位置決め装置において、
前記補正処理部の出力値を記憶するバッファを備え、
前記代替値は、前記バッファに記憶された前記補正処理部の最新の出力値であることを特徴とする位置決め装置。
The positioning device of claim 6,
A buffer for storing the output value of the correction processing unit;
The positioning apparatus according to claim 1, wherein the substitute value is a latest output value of the correction processing unit stored in the buffer.
請求項2の位置決め装置において、前記補正処理は、前記移動機構を支持する架台の振動モデルを用いて実行されることを特徴とする位置決め装置。   The positioning apparatus according to claim 2, wherein the correction process is executed using a vibration model of a gantry that supports the moving mechanism. 請求項2の位置決め装置において、前記遅延サイクルRは(Ceil(N/2)+M)で定義されることを特徴とする位置決め装置。   3. The positioning apparatus according to claim 2, wherein the delay cycle R is defined by (Ceil (N / 2) + M).
JP2014095942A 2014-05-07 2014-05-07 Positioning device Pending JP2015213139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014095942A JP2015213139A (en) 2014-05-07 2014-05-07 Positioning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014095942A JP2015213139A (en) 2014-05-07 2014-05-07 Positioning device

Publications (1)

Publication Number Publication Date
JP2015213139A true JP2015213139A (en) 2015-11-26

Family

ID=54697248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014095942A Pending JP2015213139A (en) 2014-05-07 2014-05-07 Positioning device

Country Status (1)

Country Link
JP (1) JP2015213139A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156242A (en) * 2016-03-02 2017-09-07 キヤノン株式会社 Measurement device, system, measurement method, and method of manufacturing article
EP3416007A1 (en) 2017-06-15 2018-12-19 Omron Corporation Control device, position control system, position control method, and position control program
WO2019064428A1 (en) * 2017-09-28 2019-04-04 ヤマハ発動機株式会社 Component mounting device, photographing method, and method for determining mounting order
JP2019185654A (en) * 2018-04-17 2019-10-24 オムロン株式会社 Control system, control method and program
WO2019208109A1 (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
WO2019208108A1 (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
WO2019208107A1 (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
JP2020140646A (en) * 2019-03-01 2020-09-03 オムロン株式会社 Controller and positioning device
KR20210095918A (en) * 2019-01-09 2021-08-03 미쓰비시덴키 가부시키가이샤 Control device and control method
JP2022514980A (en) * 2018-12-27 2022-02-16 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッド Digital microscopy systems, methods and computer programs for operating digital microscopy systems
WO2022239588A1 (en) * 2021-05-13 2022-11-17 パナソニックIpマネジメント株式会社 Motor control system, control device, control method, and program
WO2023089925A1 (en) * 2021-11-16 2023-05-25 パナソニックIpマネジメント株式会社 Component mounting system

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156242A (en) * 2016-03-02 2017-09-07 キヤノン株式会社 Measurement device, system, measurement method, and method of manufacturing article
JP2019003388A (en) * 2017-06-15 2019-01-10 オムロン株式会社 Control device, position control system, position control method, and position control program
US20180365791A1 (en) * 2017-06-15 2018-12-20 Omron Corporation Control device, position control system, position control method, and recording medium
EP3416007A1 (en) 2017-06-15 2018-12-19 Omron Corporation Control device, position control system, position control method, and position control program
JP7003454B2 (en) 2017-06-15 2022-01-20 オムロン株式会社 Control device, position control system, position control method, and position control program
JPWO2019064428A1 (en) * 2017-09-28 2020-04-23 ヤマハ発動機株式会社 Component mounting device, shooting method, and mounting order determination method
WO2019064428A1 (en) * 2017-09-28 2019-04-04 ヤマハ発動機株式会社 Component mounting device, photographing method, and method for determining mounting order
US11272651B2 (en) 2017-09-28 2022-03-08 Yamaha Hatsudoki Kabushiki Kaisha Component mounting device, method of capturing image, and method of determining mounting sequence
CN111096102B (en) * 2017-09-28 2021-08-24 雅马哈发动机株式会社 Component mounting apparatus
CN111096102A (en) * 2017-09-28 2020-05-01 雅马哈发动机株式会社 Component mounting device, imaging method, and method for determining mounting order
JP2019185654A (en) * 2018-04-17 2019-10-24 オムロン株式会社 Control system, control method and program
WO2019202944A1 (en) * 2018-04-17 2019-10-24 オムロン株式会社 Control system, control method, and program
JP7020262B2 (en) 2018-04-17 2022-02-16 オムロン株式会社 Control systems, control methods and programs
WO2019208107A1 (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
JP2019188549A (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
KR102613860B1 (en) * 2018-04-26 2023-12-14 오므론 가부시키가이샤 Control system, control method and computer readable storage medium
KR102612470B1 (en) * 2018-04-26 2023-12-12 오므론 가부시키가이샤 Control system, control method and computer readable storage medium
CN111868658A (en) * 2018-04-26 2020-10-30 欧姆龙株式会社 Control system, control method, and control program
CN111886556A (en) * 2018-04-26 2020-11-03 欧姆龙株式会社 Control system, control method, and control program
CN111902785A (en) * 2018-04-26 2020-11-06 欧姆龙株式会社 Control system, control method, and control program
KR20210004957A (en) * 2018-04-26 2021-01-13 오므론 가부시키가이샤 Control system, control method and control program
KR20210004956A (en) * 2018-04-26 2021-01-13 오므론 가부시키가이샤 Control system, control method and control program
WO2019208109A1 (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
WO2019208108A1 (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method and control program
JP2019188550A (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method, and control program
JP2019188551A (en) * 2018-04-26 2019-10-31 オムロン株式会社 Control system, control method, and control program
JP2022514980A (en) * 2018-12-27 2022-02-16 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッド Digital microscopy systems, methods and computer programs for operating digital microscopy systems
JP7271676B2 (en) 2018-12-27 2023-05-11 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッド Digital microscope system, method and computer program for operating digital microscope system
CN113260941A (en) * 2019-01-09 2021-08-13 三菱电机株式会社 Control device and control method
KR20210095918A (en) * 2019-01-09 2021-08-03 미쓰비시덴키 가부시키가이샤 Control device and control method
KR102537029B1 (en) 2019-01-09 2023-05-26 미쓰비시덴키 가부시키가이샤 Control device and control method
CN113260941B (en) * 2019-01-09 2023-10-24 三菱电机株式会社 Control device and control method
US11874679B2 (en) 2019-01-09 2024-01-16 Mitsubishi Electric Corporation Using an imaging device to correct positioning errors
JP7059968B2 (en) 2019-03-01 2022-04-26 オムロン株式会社 Control device and alignment device
EP3933542A4 (en) * 2019-03-01 2022-11-16 Omron Corporation Control device and alignment device
WO2020179507A1 (en) * 2019-03-01 2020-09-10 オムロン株式会社 Control device and alignment device
JP2020140646A (en) * 2019-03-01 2020-09-03 オムロン株式会社 Controller and positioning device
WO2022239588A1 (en) * 2021-05-13 2022-11-17 パナソニックIpマネジメント株式会社 Motor control system, control device, control method, and program
WO2023089925A1 (en) * 2021-11-16 2023-05-25 パナソニックIpマネジメント株式会社 Component mounting system

Similar Documents

Publication Publication Date Title
JP2015213139A (en) Positioning device
CN107015530B (en) Simulation device and simulation method
US9302391B2 (en) Object gripping apparatus, method of controlling the same and storage medium
JP6952368B2 (en) A device and method for linearly moving a first moving body and a second moving body with respect to an object.
JP6188440B2 (en) Robot apparatus and robot control method
CN100438746C (en) Method of moving a device provided with a camera to a desired position by means of a control system, and such a system
KR101540278B1 (en) Surface mounting apparatus, and correction coefficient calculating method of surface mounting apparatus
CN109421047B (en) Robot system
JP2017170599A (en) Positioning device using robot
JP2018051670A (en) Robot, control device of robot, and position teaching method for robot
JP2012146907A (en) Electronic component mounting method
TWI772731B (en) Control device and control method
JP4701037B2 (en) Image acquisition method and apparatus for electronic components
JP6752977B2 (en) Parts mounting machine and parts mounting method
JP2009016673A (en) Method for correcting component suction position and component transferring apparatus
CN109143968B (en) Control device, position control system, position control method, and recording medium
JP2017004033A (en) Positioning control system and frequency characteristic identification method
JP7059968B2 (en) Control device and alignment device
EP3589105A1 (en) Substrate working device and image processing method
JPWO2018096669A1 (en) Laser processing apparatus, laser processing method, and laser processing program
JP7162574B2 (en) Identification method of controller and frequency characteristics
JP7040567B2 (en) Control device, control method of control device, information processing program, and recording medium
JP6407433B2 (en) Model data creation device, model data creation method, mounting reference point determination device, mounting reference point determination method
CN115452866A (en) Control system, control method, and storage medium
JP7050171B2 (en) Mobile positioning control device and component mounting machine