JP2011065399A - Simulation device, simulation method, and simulation program - Google Patents

Simulation device, simulation method, and simulation program Download PDF

Info

Publication number
JP2011065399A
JP2011065399A JP2009215226A JP2009215226A JP2011065399A JP 2011065399 A JP2011065399 A JP 2011065399A JP 2009215226 A JP2009215226 A JP 2009215226A JP 2009215226 A JP2009215226 A JP 2009215226A JP 2011065399 A JP2011065399 A JP 2011065399A
Authority
JP
Japan
Prior art keywords
model
detection
reference mark
image
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009215226A
Other languages
Japanese (ja)
Other versions
JP5365443B2 (en
Inventor
Junzo Une
淳三 宇根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009215226A priority Critical patent/JP5365443B2/en
Publication of JP2011065399A publication Critical patent/JP2011065399A/en
Application granted granted Critical
Publication of JP5365443B2 publication Critical patent/JP5365443B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Debugging And Monitoring (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for simulating the detection of a two-dimensional position by pattern recognition without performing image recognition concerning a simulation device using a three-dimensional model. <P>SOLUTION: The simulation device includes: a three-dimensional mechanism model information storage part 33 for storing data of a three-dimensional mechanism model including a mark sensor model and a reference mark model; and a reference mark detecting part 34. The reference mark detecting part 34 includes: a mark sensor detection area setting part 303 for setting a mark sensor detection area in the space of the three-dimensional mechanism model, based on data with the optical specification of a real camera, which is set in the mark sensor model; a reference mark extracting part 304 for extracting the reference mark model existing within the mark sensor detection area; and a detection result setting part 308 for allowing the coordinate of a detection position to be the object of the reference mark detection, which is obtained based on the position of the extracted reference mark model, to be set as the reference mark detection result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は,実装置の三次元モデルを用いてシミュレーションを行うシミュレーション装置,シミュレーション方法およびシミュレーションプログラムに関するものである。   The present invention relates to a simulation apparatus, a simulation method, and a simulation program that perform simulation using a three-dimensional model of an actual apparatus.

産業用ロボットなどの装置において,パターン認識による二次元位置の検出を行うものがある。   Some devices such as industrial robots detect a two-dimensional position by pattern recognition.

例えば,フリップチップボンダ等の部品搭載装置は,カメラでプリント基板や半導体チップなどの部品上の基準マークを認識することにより,部品の位置を補正し,部品の搭載を行う。基準マークの認識では,パターン認識処理,すなわちカメラ画像とテンプレート画像とのマッチング処理が行われる。   For example, a component mounting apparatus such as a flip chip bonder corrects the position of a component by recognizing a reference mark on the component such as a printed circuit board or a semiconductor chip with a camera, and mounts the component. In recognition of the reference mark, pattern recognition processing, that is, matching processing between a camera image and a template image is performed.

このような部品搭載装置の開発段階では,部品搭載装置をコンピュータ制御するための機構制御プログラムの開発や,搭載対象の部品に関するデータの作成が行われる。開発された機構制御プログラムや搭載対象の部品に関するデータの検証では,機構制御プログラムを組み込んだコンピュータからの制御で部品搭載装置の実装置を制御し,実ワークや専用の治具などを使用して,実際に部品搭載装置に搭載動作を行わせる。専用の治具としては,例えば,ガラス基板とガラスチップなどが用いられる。その後,搭載されたワークの状態を顕微鏡で測定して確認するなどにより,開発された機構制御プログラムや搭載対象の部品に関するデータの検証が行われる。   In such a component mounting device development stage, a mechanism control program for computer control of the component mounting device is developed and data relating to the component to be mounted is created. In the verification of the data related to the developed mechanism control program and components to be mounted, the actual device of the component mounting device is controlled by the control from the computer in which the mechanism control program is incorporated, and the actual workpiece or dedicated jig is used. Actually, the component mounting device performs the mounting operation. As the dedicated jig, for example, a glass substrate and a glass chip are used. After that, the mechanism control program that has been developed and the data related to the parts to be mounted are verified by checking the state of the mounted workpiece with a microscope.

なお,産業用ロボットなどの装置において,装置による作業の対象となる物品は,ワークとも呼ばれる。例えば,フリップチップボンダ等の部品搭載装置では,基板やチップなどの搭載対象部品が,ワークと呼ばれる。   In an apparatus such as an industrial robot, an article that is an object of work by the apparatus is also called a workpiece. For example, in a component mounting apparatus such as a flip chip bonder, a component to be mounted such as a substrate or a chip is called a workpiece.

しかし,実装置を用いる方法では,部品搭載装置の立上げ,すなわち部品搭載装置の機械的な調整や認識データの確定が完了するまで,機構制御プログラムのデバッグが行えないという問題がある。また,機構制御プログラムにおけるアライメントアルゴリズムや搭載対象の部品に関するデータに起因する計算誤差と,画像認識や顕微鏡測定における計測誤差との切り分けが困難であるという問題がある。   However, the method using the actual device has a problem that the mechanism control program cannot be debugged until the component mounting device is started up, that is, until the mechanical adjustment of the component mounting device and the confirmation of the recognition data are completed. In addition, there is a problem that it is difficult to distinguish between calculation errors caused by alignment algorithms in mechanism control programs and data related to components to be mounted, and measurement errors in image recognition and microscope measurement.

なお,実装置の代わりにコンピュータ上の三次元モデルを使用して,機構制御プログラムの検証を行うシミュレーションの技術が知られている。また,視覚センサを使うロボットの動作シミュレーションを行う際に,視覚センサによるワークの位置・姿勢の検出結果をあらかじめ補正量として設定しておき,ロボットの動作シミュレーション中に読み出してロボットの移動目標位置を補正する技術が知られている。また,視覚センサをモデル化し,シミュレーション中にワークモデルの位置を模擬的に三次元計測する技術が知られている。   A simulation technique for verifying a mechanism control program using a three-dimensional model on a computer instead of an actual device is known. In addition, when performing a motion simulation of a robot that uses a visual sensor, the detection result of the position and orientation of the workpiece by the visual sensor is set in advance as a correction amount, and is read out during the robot motion simulation to determine the robot's movement target position. Techniques for correcting are known. There is also known a technique for modeling a visual sensor and measuring the position of a work model in a three-dimensional manner during simulation.

特開2001−147703号公報JP 2001-147703 A 特開2005−135278号公報JP-A-2005-135278 特開2007−241857号公報JP 2007-241857 A

上記の三次元機構モデルを用いるシミュレーションの技術を用いることにより,実装置の立上げを待たずに機構制御プログラムの検証を行うことが可能となる。例えば,部品搭載装置の三次元モデルを用いたシミュレーションでは,機構制御プログラムによるモータ制御の検証を行うことができる。   By using the above-described simulation technique using the three-dimensional mechanism model, it is possible to verify the mechanism control program without waiting for the actual apparatus to be started up. For example, in a simulation using a three-dimensional model of a component mounting device, motor control can be verified by a mechanism control program.

しかし,実装置においてパターン認識による二次元位置検出処理が必要となる制御については,三次元モデルを用いたシミュレーションによる検証が,困難となる。   However, control that requires two-dimensional position detection processing by pattern recognition in an actual device is difficult to verify by simulation using a three-dimensional model.

例えば,部品搭載装置において,アライメント制御では,ワークの位置を調整する制御が行われる。具体的には,部品搭載装置では,カメラによってワーク上の基準マークがあると予測される位置の画像が撮像され,そのカメラ画像とテンプレート画像とのマッチングによって,基準マークの位置検出が行われる。機構制御プログラムによるアライメント制御では,検出された基準マークの位置に基づいて,部品搭載装置におけるワークの位置を調整する制御が行われる。   For example, in a component mounting apparatus, control for adjusting the position of a workpiece is performed in alignment control. Specifically, in the component mounting apparatus, an image of a position where it is predicted that there is a reference mark on the workpiece is captured by the camera, and the position of the reference mark is detected by matching the camera image with the template image. In the alignment control by the mechanism control program, control for adjusting the position of the workpiece in the component mounting apparatus is performed based on the detected position of the reference mark.

しかし,部品搭載装置の三次元モデルに実際の部品搭載装置が備えるカメラに対応する部品モデルがあっても,あくまでカメラの形状を模した部品モデルであり,その部品モデルがワークモデル上の基準マークを撮像して画像認識を行えるわけではない。そのため,部品搭載装置の三次元モデルを用いたシミュレーションによって,機構制御プログラムによるアライメント制御の検証を行うことは,非常に困難となる。   However, even if there is a part model corresponding to the camera of the actual part mounting device in the 3D model of the part mounting device, it is a part model imitating the shape of the camera, and the part model is a reference mark on the work model. It is not possible to perform image recognition by capturing the image. Therefore, it is very difficult to verify alignment control by a mechanism control program by simulation using a three-dimensional model of a component mounting device.

本発明は,上記の問題の解決を図り,三次元モデルを用いたシミュレーションにおいて,画像認識を行わずに,パターン認識による二次元位置の検出をシミュレートすることが可能となる技術を提供することを目的とする。   The present invention solves the above problems and provides a technique capable of simulating detection of a two-dimensional position by pattern recognition without performing image recognition in a simulation using a three-dimensional model. With the goal.

シミュレーション装置は,画像認識のシミュレーションに用いるイメージセンサモデルと,画像認識のシミュレーションで検出する認識対象モデルとを含む三次元モデルのデータを記憶する三次元モデル情報記憶部と,シミュレーション空間上にイメージセンサモデルによって決定されるイメージセンサ検出領域を設定する検出領域設定部と,三次元モデル情報記憶部からイメージセンサ検出領域内に存在する認識対象モデルを抽出する認識対象抽出部と,抽出された認識対象モデルの位置に基づいてシミュレーションが対象とする画像認識の目的である検出位置を求め,得られた検出位置を検出結果に設定する検出結果設定部とを備える。   The simulation apparatus includes a three-dimensional model information storage unit that stores data of a three-dimensional model including an image sensor model used for image recognition simulation and a recognition target model detected by the image recognition simulation, and an image sensor on the simulation space. A detection region setting unit for setting an image sensor detection region determined by the model, a recognition target extraction unit for extracting a recognition target model existing in the image sensor detection region from the three-dimensional model information storage unit, and the extracted recognition target A detection result setting unit that obtains a detection position, which is an object of image recognition targeted for simulation, based on the position of the model, and sets the obtained detection position as a detection result;

上記の技術により,三次元モデルを用いたシミュレーションにおいて,画像認識を行わずに,パターン認識による二次元位置の検出をシミュレートすることが可能となる。   With the above technique, it is possible to simulate detection of a two-dimensional position by pattern recognition without performing image recognition in a simulation using a three-dimensional model.

本実施の形態による実装置システムの構成例を示す図である。It is a figure which shows the structural example of the real apparatus system by this Embodiment. 本実施の形態によるシミュレーションシステムの例を示す図である。It is a figure which shows the example of the simulation system by this Embodiment. 本実施の形態による三次元機構モデルの例を示す図である。It is a figure which shows the example of the three-dimensional mechanism model by this Embodiment. 本実施の形態によるマークセンサモデルの例を説明する図である。It is a figure explaining the example of the mark sensor model by this Embodiment. 本実施の形態によるマークセンサモデル属性データの例を示す図である。It is a figure which shows the example of the mark sensor model attribute data by this Embodiment. 本実施の形態による基準マークモデルの例を説明する図である。It is a figure explaining the example of the reference mark model by this Embodiment. 本実施の形態によるテンプレート画像の原点位置に相当する位置への基準マークモデルの設置を説明する図である。It is a figure explaining installation of the reference mark model in the position equivalent to the origin position of the template image by this Embodiment. 本実施の形態による基準マークモデル属性データの例を示す図である。It is a figure which shows the example of the reference mark model attribute data by this Embodiment. 本実施の形態による基準マーク検出部の構成例を示す図である。It is a figure which shows the structural example of the reference mark detection part by this Embodiment. 本実施の形態の実装置におけるカメラの撮像を説明する図である。It is a figure explaining the imaging of the camera in the real apparatus of this Embodiment. 本実施の形態によるカメラデータの例を示す図である。It is a figure which shows the example of the camera data by this Embodiment. 本実施の形態の実装置におけるカメラのカメラ視野を示す図である。It is a figure which shows the camera visual field of the camera in the real apparatus of this Embodiment. 本実施の形態の実装置におけるカメラにより得られたカメラ画像の例を示す図である。It is a figure which shows the example of the camera image obtained with the camera in the real apparatus of this Embodiment. 本実施の形態によるマークセンサ検出領域の設定を説明する図である。It is a figure explaining the setting of the mark sensor detection area by this Embodiment. 本実施の形態による認識データの例を示す図である。It is a figure which shows the example of the recognition data by this Embodiment. 本実施の形態の実装置によるサーチ範囲の設定を説明する図である。It is a figure explaining the setting of the search range by the real apparatus of this Embodiment. 本実施の形態のシミュレーション装置による基準マーク検出範囲の設定を説明する図である。It is a figure explaining the setting of the reference mark detection range by the simulation apparatus of this Embodiment. 本実施の形態による回転サーチ範囲を説明する図である。It is a figure explaining the rotation search range by this Embodiment. 本実施の形態によるテンプレート画像の例(1)を示す図である。It is a figure which shows the example (1) of the template image by this Embodiment. 本実施の形態によるテンプレート画像の例(2)を示す図である。It is a figure which shows the example (2) of the template image by this Embodiment. 本実施の形態の実装置によるテンプレート画像を用いた画像認識を説明する図である。It is a figure explaining the image recognition using the template image by the real apparatus of this Embodiment. 本実施の形態によるテンプレート画像領域の設定と判定とを説明する図である。It is a figure explaining the setting and determination of the template image area | region by this Embodiment. 本実施の形態による検出結果データの例を示す図である。It is a figure which shows the example of the detection result data by this Embodiment. 本実施の形態の実装置による基準マーク検出結果を説明する図である。It is a figure explaining the reference mark detection result by the real apparatus of this Embodiment. 本実施の形態のシミュレーション装置による基準マークモデルの検出結果の設定(1)を説明する図である。It is a figure explaining the setting (1) of the detection result of the reference mark model by the simulation apparatus of this Embodiment. 本実施の形態のシミュレーション装置による基準マークモデルの検出結果の設定(2)を説明する図である。It is a figure explaining the setting (2) of the detection result of the reference mark model by the simulation apparatus of this Embodiment. 本実施の形態のシミュレーション装置による検出角度の設定を説明する図である。It is a figure explaining the setting of the detection angle by the simulation apparatus of this Embodiment. 本実施の形態の実装置による基準マーク検出処理フローチャートである。It is a reference mark detection process flowchart by the real apparatus of this Embodiment. 本実施の形態のシミュレーション装置の基準マーク検出部による基準マーク検出処理フローチャートである。It is a reference mark detection process flowchart by the reference mark detection part of the simulation apparatus of this Embodiment. 本実施の形態のシミュレーション装置の基準マーク検出部による基準マーク検出処理フローチャートである。It is a reference mark detection process flowchart by the reference mark detection part of the simulation apparatus of this Embodiment. 本実施の形態によるフリップチップボンダの構成例を示す図である。It is a figure which shows the structural example of the flip chip bonder by this Embodiment. 本実施の形態のフリップチップボンダにおけるチップ供給部・チップ搭載部の機構の例を示す図である。It is a figure which shows the example of the mechanism of the chip | tip supply part and chip | tip mounting part in the flip chip bonder of this Embodiment. 本実施の形態によるフリップチップボンダの三次元機構モデルへのマークセンサモデルの設置例を示す図である。It is a figure which shows the example of installation of the mark sensor model to the three-dimensional mechanism model of the flip chip bonder by this Embodiment. 本実施の形態によるフリップチップボンダの三次元機構モデルへの基準マークモデルの設置例を示す図である。It is a figure which shows the example of installation of the reference mark model to the three-dimensional mechanism model of the flip chip bonder by this Embodiment.

以下,本実施の形態について,図を用いて説明する。   Hereinafter, the present embodiment will be described with reference to the drawings.

図1は,本実施の形態による実装置システムの構成例を示す図である。   FIG. 1 is a diagram showing a configuration example of an actual apparatus system according to the present embodiment.

図1に示す実装置システムは,産業用ロボットなどの実装置20と,実装置20を制御する制御装置10とを有する。   The real device system shown in FIG. 1 includes a real device 20 such as an industrial robot and a control device 10 that controls the real device 20.

制御装置10は,CPU(Central Processing Unit ),メモリ等を備えるコンピュータである。制御装置10は,機構制御処理部11を備える。   The control device 10 is a computer including a CPU (Central Processing Unit), a memory, and the like. The control device 10 includes a mechanism control processing unit 11.

機構制御処理部11は,実装置20に対して各種指令を送ることにより,実装置20を制御する。機構制御処理部11は,制御装置10のコンピュータが備えるCPU,メモリ等のハードウェアと,機構制御プログラムとにより実現される。   The mechanism control processing unit 11 controls the real device 20 by sending various commands to the real device 20. The mechanism control processing unit 11 is realized by hardware such as a CPU and a memory provided in the computer of the control device 10 and a mechanism control program.

機構制御処理部11は,モータ制御部12,アライメント制御部13を備える。モータ制御部12は,実装置20が備えるモータの制御を行う。アライメント制御部13は,実装置20におけるワーク25の位置調整などの制御を行う。   The mechanism control processing unit 11 includes a motor control unit 12 and an alignment control unit 13. The motor control unit 12 controls the motor provided in the actual device 20. The alignment control unit 13 performs control such as position adjustment of the workpiece 25 in the actual apparatus 20.

図1に示すシステムにおける実装置20は,画像認識によって検出対象の位置検出を行う機能を有する。具体的には,実装置20は,カメラ21,画像認識部22を備える。また,実装置20は,カメラ21に関するデータであるカメラデータ23や,テンプレート画像に関するデータを含む画像認識に関するデータである認識データ24などを記憶する記憶部(図示省略)を備える。   The real device 20 in the system shown in FIG. 1 has a function of detecting the position of a detection target by image recognition. Specifically, the real device 20 includes a camera 21 and an image recognition unit 22. In addition, the real device 20 includes a storage unit (not shown) that stores camera data 23 that is data related to the camera 21, recognition data 24 that is data related to image recognition including data related to the template image, and the like.

カメラ21は,検出対象を含む画像を撮像するイメージセンサである。カメラ21は,撮像により得られたカメラ画像を画像認識部22に送る。例えば,ワーク25上に存在する基準マークが検出対象である場合に,カメラ21は,ワーク25上の基準マークを含む領域の画像を撮像する。   The camera 21 is an image sensor that captures an image including a detection target. The camera 21 sends a camera image obtained by imaging to the image recognition unit 22. For example, when the reference mark existing on the work 25 is a detection target, the camera 21 captures an image of an area including the reference mark on the work 25.

画像認識部22は,カメラデータ23と認識データとに基づいて,パターンマッチングの処理により,検出対象の位置検出を行う。パターンマッチングでは,画像認識部22は,カメラ画像内をあらかじめ用意されたテンプレート画像で走査して,テンプレート画像との近似度が最も高いカメラ画像内の領域の位置情報を得る。カメラ画像内の領域とテンプレート画像との近似度は,例えば正規化相関法によって得られる相関値などである。画像認識部22は,実装置20のコンピュータが備えるCPU,メモリ等のハードウェアと,ソフトウェアプログラムとにより実現される。   The image recognition unit 22 detects the position of the detection target by pattern matching based on the camera data 23 and the recognition data. In pattern matching, the image recognition unit 22 scans the camera image with a template image prepared in advance, and obtains position information of an area in the camera image having the highest degree of approximation with the template image. The degree of approximation between the region in the camera image and the template image is, for example, a correlation value obtained by a normalized correlation method. The image recognition unit 22 is realized by hardware such as a CPU and a memory provided in the computer of the actual device 20 and a software program.

なお,本実施の形態では,実装置20の作業対象であるワーク25上に存在する基準マークが検出対象となる例を中心に,説明を行う。   In the present embodiment, the description will be focused on an example in which a reference mark existing on the workpiece 25 that is a work target of the actual apparatus 20 is a detection target.

図1に示す実装置システムにおいて,例えば,機構制御処理部11から実装置20にモータ指令が送られると,実装置20では,モータ指令に応じた駆動制御が行われる。このとき,実装置20から機構制御処理部11に対して,センサ値などの結果が返される。   In the actual apparatus system shown in FIG. 1, for example, when a motor command is sent from the mechanism control processing unit 11 to the actual apparatus 20, the actual apparatus 20 performs drive control according to the motor command. At this time, a result such as a sensor value is returned from the actual device 20 to the mechanism control processing unit 11.

また,例えば,機構制御処理部11から実装置20に対して,ワーク25のアライメント制御のための基準マーク検出指令が送られると,実装置20では,カメラ21がワーク25上の基準マークを撮像し,画像認識部22によるパターンマッチングが行われる。実装置20から機構制御処理部11に対しては,基準マークの検出位置,検出角度,相関値等のデータを含む基準マーク検出結果が返される。   Further, for example, when a reference mark detection command for alignment control of the workpiece 25 is sent from the mechanism control processing unit 11 to the actual device 20, the camera 21 captures a reference mark on the workpiece 25 in the actual device 20. Then, pattern matching is performed by the image recognition unit 22. A reference mark detection result including data such as a reference mark detection position, a detection angle, and a correlation value is returned from the actual apparatus 20 to the mechanism control processing unit 11.

図2は,本実施の形態によるシミュレーションシステムの例を示す図である。   FIG. 2 is a diagram illustrating an example of a simulation system according to the present embodiment.

図2に示すシミュレーションシステムは,図1に示す実装置システムにおける実装置20の代わりに,実装置20の機構を三次元モデルでシミュレートするシミュレーション装置30を用いたシステムである。以下では,実装置20を電子的にモデル化した三次元モデルを,三次元機構モデルと呼ぶものとする。このようなシミュレーション装置30を用いることにより,実装置20を用いなくても,制御装置10における機構制御プログラムの検証を行うことができる。   The simulation system shown in FIG. 2 is a system using a simulation device 30 that simulates the mechanism of the real device 20 with a three-dimensional model instead of the real device 20 in the real device system shown in FIG. Hereinafter, a three-dimensional model obtained by modeling the actual device 20 electronically will be referred to as a three-dimensional mechanism model. By using such a simulation device 30, the mechanism control program in the control device 10 can be verified without using the actual device 20.

図2に示すシミュレーションシステムは,制御装置10,シミュレーション装置30,表示装置35を有する。   The simulation system shown in FIG. 2 includes a control device 10, a simulation device 30, and a display device 35.

制御装置10は,図1に示す制御装置10と同様である。   The control device 10 is the same as the control device 10 shown in FIG.

シミュレーション装置30は,入出力処理部31,三次元機構シミュレーション部32を備える。シミュレーション装置30およびシミュレーション装置が備える各機能部は,コンピュータが備えるCPU,メモリ等のハードウェアと,ソフトウェアプログラムとにより実現される。   The simulation apparatus 30 includes an input / output processing unit 31 and a three-dimensional mechanism simulation unit 32. The simulation device 30 and each functional unit included in the simulation device are realized by hardware such as a CPU and a memory included in the computer, and a software program.

入出力処理部31は,制御装置10からの各種指令の入力や,各種指令に対する結果の制御装置10への出力を行う。   The input / output processing unit 31 inputs various commands from the control device 10 and outputs the results of the various commands to the control device 10.

三次元機構シミュレーション部32は,三次元機構モデルを用いたシミュレーションを行う。三次元機構シミュレーション部32は,三次元機構モデル情報記憶部33,基準マーク検出部34を備える。   The three-dimensional mechanism simulation unit 32 performs a simulation using a three-dimensional mechanism model. The three-dimensional mechanism simulation unit 32 includes a three-dimensional mechanism model information storage unit 33 and a reference mark detection unit 34.

三次元機構モデル情報記憶部33は,図1に示す実装置20を模した三次元機構モデルのデータを記憶する,コンピュータがアクセス可能な記憶装置である。   The three-dimensional mechanism model information storage unit 33 is a computer-accessible storage device that stores data of a three-dimensional mechanism model simulating the real device 20 shown in FIG.

基準マーク検出部34は,三次元機構モデルにおける基準マーク検出処理を行う。基準マーク検出部34による処理の詳細については後述する。   The reference mark detection unit 34 performs reference mark detection processing in the three-dimensional mechanism model. Details of the processing by the reference mark detection unit 34 will be described later.

表示装置35は,シミュレーション装置30による三次元機構モデルの動作を画面に表示するディスプレイなどの装置である。   The display device 35 is a device such as a display that displays the operation of the three-dimensional mechanism model by the simulation device 30 on a screen.

なお,制御装置10とシミュレーション装置30とは,1台のコンピュータで実現されてもよいし,それぞれ別のコンピュータで実現されてもよい。   The control device 10 and the simulation device 30 may be realized by one computer or may be realized by different computers.

図2に示すシミュレーションシステムにおいて,例えば,機構制御処理部11からシミュレーション装置30にモータ指令が送られると,シミュレーション装置30では,入出力処理部31が,そのモータ指令を入力する。   In the simulation system shown in FIG. 2, for example, when a motor command is sent from the mechanism control processing unit 11 to the simulation device 30, in the simulation device 30, the input / output processing unit 31 inputs the motor command.

三次元機構シミュレーション部32は,入出力処理部31を介して入力されたモータ指令に基づいて,三次元機構モデルにおける各部品モデルの位置を更新する。具体的には,三次元機構シミュレーション部32は,モータ指令の内容に応じた機構演算を行い,その演算結果に応じて変更が必要となる部品モデルの位置を算出する。三次元機構シミュレーション部32は,算出された部品モデルの位置に基づいて,三次元機構モデルの描画処理を行う。表示装置35に,各部品モデルの位置が更新された三次元機構モデルが表示される。   The three-dimensional mechanism simulation unit 32 updates the position of each component model in the three-dimensional mechanism model based on the motor command input via the input / output processing unit 31. Specifically, the three-dimensional mechanism simulation unit 32 performs a mechanism calculation according to the contents of the motor command, and calculates the position of the part model that needs to be changed according to the calculation result. The three-dimensional mechanism simulation unit 32 performs a drawing process of the three-dimensional mechanism model based on the calculated position of the part model. A three-dimensional mechanism model in which the position of each component model is updated is displayed on the display device 35.

三次元機構シミュレーション部32は,三次元機構モデルにおける各部品モデルの位置と,あらかじめ設定されたセンサ定義とに基づいて,入出力処理部31を介して機構制御処理部11にセンサ値を出力する。センサ定義では,部品モデルの位置とセンサON/OFFの条件が定義されている。   The three-dimensional mechanism simulation unit 32 outputs a sensor value to the mechanism control processing unit 11 via the input / output processing unit 31 based on the position of each component model in the three-dimensional mechanism model and a preset sensor definition. . In the sensor definition, the position of the part model and the sensor ON / OFF condition are defined.

また,例えば,機構制御処理部11からシミュレーション装置30に対して,アライメント制御のための基準マーク検出指令が送られると,シミュレーション装置30では,入出力処理部31が,その基準マーク検出指令を入力する。   For example, when a reference mark detection command for alignment control is sent from the mechanism control processing unit 11 to the simulation device 30, the input / output processing unit 31 inputs the reference mark detection command in the simulation device 30. To do.

三次元機構シミュレーション部32において,基準マーク検出部34は,入出力処理部31を介して入力された基準マーク検出指令に基づいて,三次元機構モデルにおける基準マーク検出処理を行う。基準マーク検出部34による基準マーク検出処理の詳細については,後述する。   In the three-dimensional mechanism simulation unit 32, the reference mark detection unit 34 performs reference mark detection processing in the three-dimensional mechanism model based on the reference mark detection command input via the input / output processing unit 31. Details of the reference mark detection processing by the reference mark detection unit 34 will be described later.

三次元機構シミュレーション部32は,基準マーク検出部34による基準マークの検出結果として,検出位置,検出角度,相関値等の基準マーク検出結果を,入出力処理部31を介して機構制御処理部11に出力する。   The three-dimensional mechanism simulation unit 32 uses a reference mark detection result such as a detection position, a detection angle, and a correlation value as a detection result of the reference mark by the reference mark detection unit 34 via the input / output processing unit 31. Output to.

本実施の形態による三次元機構モデルを用いたシミュレーションでは,基準マーク検出のシミュレーションを行うための準備として,三次元機構モデルにマークセンサモデルと基準マークモデルとが設置される。   In the simulation using the three-dimensional mechanism model according to the present embodiment, a mark sensor model and a reference mark model are installed in the three-dimensional mechanism model as preparation for performing a reference mark detection simulation.

図3は,本実施の形態による三次元機構モデルの例を示す図である。   FIG. 3 is a diagram illustrating an example of a three-dimensional mechanism model according to the present embodiment.

図3に示す三次元機構モデル360は,フリップチップボンダにおけるチップ供給部の機構を模した三次元機構モデル360の例である。このような三次元機構モデル360は,三次元CAD(Computer Aided Design )等を用いて作成される。   A three-dimensional mechanism model 360 shown in FIG. 3 is an example of a three-dimensional mechanism model 360 simulating a mechanism of a chip supply unit in a flip chip bonder. Such a three-dimensional mechanism model 360 is created using a three-dimensional CAD (Computer Aided Design) or the like.

三次元機構モデル360は,複数の部品モデルを有するアセンブリモデルである。三次元機構モデル360において,カメラモデル361は,実装置20におけるカメラ21を模した部品モデルである。図3に示すカメラモデル361は,フリップチップボンダにおいて,チップトレイ上に置かれた半導体チップを撮像するカメラ21を模した部品モデルである。   The three-dimensional mechanism model 360 is an assembly model having a plurality of part models. In the three-dimensional mechanism model 360, the camera model 361 is a part model that imitates the camera 21 in the actual device 20. A camera model 361 shown in FIG. 3 is a component model that imitates the camera 21 that images a semiconductor chip placed on a chip tray in a flip chip bonder.

また,三次元機構モデル360において,ワークモデル362は,実装置20の作業の対象であるワーク25を模した部品モデルである。図3に示すワークモデル362は,フリップチップボンダにおいて,チップトレイ上に置かれた半導体チップを模した部品モデルである。   In the three-dimensional mechanism model 360, the work model 362 is a part model imitating the work 25 that is a work target of the actual apparatus 20. A work model 362 shown in FIG. 3 is a component model simulating a semiconductor chip placed on a chip tray in a flip chip bonder.

三次元機構モデル情報記憶部33には,三次元CAD等を用いて作成された三次元機構モデル360のデータが記憶される。   The three-dimensional mechanism model information storage unit 33 stores data of a three-dimensional mechanism model 360 created using a three-dimensional CAD or the like.

三次元機構モデル360のデータには,三次元機構モデル360における各部品モデルの形状や位置座標,ローカル座標系などのデータが記録される。また,各部品モデルには,それぞれ個別に属性データが設定可能である。なお,部品モデルの位置座標は,すべてが,アセンブリモデルである三次元機構モデル360の座標系で位置表現されているわけではない。通常,三次元のアセンブリモデルを構成する部品モデル同士の関係は木構造となっており,子となる部品モデルの位置座標は,親となる部品モデルに設定されたローカル座標系で位置表現される。   In the data of the three-dimensional mechanism model 360, data such as the shape, position coordinates, and local coordinate system of each part model in the three-dimensional mechanism model 360 is recorded. In addition, attribute data can be individually set for each part model. The position coordinates of the part model are not all expressed in the coordinate system of the three-dimensional mechanism model 360 that is an assembly model. Normally, the relationship between the component models that make up the three-dimensional assembly model is a tree structure, and the position coordinates of the child component models are expressed in the local coordinate system set for the parent component model. .

図4は,本実施の形態によるマークセンサモデルの例を説明する図である。   FIG. 4 is a diagram for explaining an example of the mark sensor model according to the present embodiment.

マークセンサモデル363は,実装置20におけるカメラ21などのイメージセンサをモデル化した部品モデルである。本実施の形態では,ワーク25上に存在する基準マークを検出対象としているので,イメージセンサの部品モデルを,マークセンサモデル363と呼んでいる。   The mark sensor model 363 is a part model obtained by modeling an image sensor such as the camera 21 in the actual apparatus 20. In this embodiment, since the reference mark existing on the workpiece 25 is a detection target, the part model of the image sensor is called a mark sensor model 363.

本実施の形態では,マークセンサモデル363は,図4に示すように,四角錐で表される。これは,表示装置35に表示される三次元ビュー上での視覚的表現を目的としたものである。内部的には,マークセンサモデル363は,実体として形状を持たない,すなわち体積を持たない部品モデルとして,三次元機構モデル360の空間に設置される。   In the present embodiment, the mark sensor model 363 is represented by a quadrangular pyramid as shown in FIG. This is intended for visual expression on a three-dimensional view displayed on the display device 35. Internally, the mark sensor model 363 is installed in the space of the three-dimensional mechanism model 360 as a part model that does not have a shape as an entity, that is, does not have a volume.

本実施の形態では,マークセンサモデル363は,図4に示すように,実装置20におけるカメラ21に相当するカメラモデル361に設置される。このとき,マークセンサモデル363を表す四角錐の底面中心が,カメラモデル361において,実装置20のカメラ21の入射面であるレンズ先端の中心に相当する位置となるように,マークセンサモデル363が設置される。   In the present embodiment, the mark sensor model 363 is installed in a camera model 361 corresponding to the camera 21 in the actual apparatus 20, as shown in FIG. At this time, the mark sensor model 363 is positioned so that the center of the bottom surface of the quadrangular pyramid representing the mark sensor model 363 corresponds to the center of the lens tip that is the incident surface of the camera 21 of the actual device 20 in the camera model 361. Installed.

また,図4に示すように,マークセンサモデル363のローカル座標系として,マークセンサモデル363にマークセンサ座標系が設定される。本実施の形態では,マークセンサ座標系のX軸,Y軸,Z軸を,それぞれXc 軸,Yc 軸,Zc 軸と表すものとする。マークセンサ座標系のXc 軸,Yc 軸は,それぞれ実装置20のカメラ21による撮像で得られるカメラ画像のX軸,Y軸に相当する方向に設定される。マークセンサ座標系のZc 軸は,実装置20のカメラ21の撮像方向となる。 As shown in FIG. 4, the mark sensor coordinate system is set in the mark sensor model 363 as the local coordinate system of the mark sensor model 363. In the present embodiment, the X axis, Y axis, and Z axis of the mark sensor coordinate system are expressed as X c axis, Y c axis, and Z c axis, respectively. X c axes of the mark sensor coordinate system, Y c-axis, X-axis of the camera images respectively obtained by the imaging by the camera 21 in the real device 20, is set in the direction corresponding to the Y-axis. The Zc axis of the mark sensor coordinate system is the imaging direction of the camera 21 of the actual device 20.

本実施の形態では,実装置20のカメラ21による撮像で得られるカメラ画像の原点は,カメラ画像の中心であるものとする。実装置20の仕様に対応するために,三次元機構モデル360におけるマークセンサ座標系の原点は,実装置20のカメラ21におけるレンズの中心に相当する位置,すなわちマークセンサモデル363を表す四角錐の底面中心の位置に設定される。   In the present embodiment, it is assumed that the origin of the camera image obtained by imaging with the camera 21 of the actual device 20 is the center of the camera image. In order to correspond to the specifications of the real device 20, the origin of the mark sensor coordinate system in the three-dimensional mechanism model 360 is a position corresponding to the center of the lens in the camera 21 of the real device 20, that is, a quadrangular pyramid representing the mark sensor model 363. Set to the position of the bottom center.

図5は,本実施の形態によるマークセンサモデル属性データの例を示す図である。   FIG. 5 is a diagram illustrating an example of mark sensor model attribute data according to the present embodiment.

三次元機構モデル360に設置されるマークセンサモデル363には,その部品モデルの属性データとして,図5に示すようなマークセンサモデル属性データ331が設定される。   In the mark sensor model 363 installed in the three-dimensional mechanism model 360, mark sensor model attribute data 331 as shown in FIG. 5 is set as attribute data of the component model.

図5に示すマークセンサモデル属性データ331において,マークセンサ番号(MSNO)は,三次元機構モデル360に設置された各マークセンサモデル363を一意に識別する識別情報である。また,検出サイズ(DX,DY),検出距離(ZOFF),検出範囲(DZ)は,実装置20のカメラ21における光学的仕様に対応する情報である。マークセンサモデル属性データ331についての詳細な説明は,後述する。   In the mark sensor model attribute data 331 shown in FIG. 5, the mark sensor number (MSNO) is identification information for uniquely identifying each mark sensor model 363 installed in the three-dimensional mechanism model 360. The detection size (DX, DY), the detection distance (ZOFF), and the detection range (DZ) are information corresponding to the optical specifications of the camera 21 of the actual device 20. A detailed description of the mark sensor model attribute data 331 will be described later.

なお,図4に示す例は,すでにカメラモデル361が設置された三次元機構モデル360に対して,後からカメラモデル361とは別にマークセンサモデル363を設置する例である。例えば,三次元機構モデル360の作成時に,カメラモデル361自身をマークセンサモデル363として設置するようにしてもよい。この場合には,カメラモデル361がマークセンサモデル363の実態となる。このとき,カメラモデル361のローカル座標系としてマークセンサ座標系を設定し,カメラモデル361の属性データとしてマークセンサモデル属性データ331を設定するようにすればよい。   Note that the example shown in FIG. 4 is an example in which the mark sensor model 363 is installed separately from the camera model 361 later with respect to the three-dimensional mechanism model 360 in which the camera model 361 is already installed. For example, the camera model 361 itself may be installed as the mark sensor model 363 when the three-dimensional mechanism model 360 is created. In this case, the camera model 361 becomes the actual state of the mark sensor model 363. At this time, the mark sensor coordinate system may be set as the local coordinate system of the camera model 361, and the mark sensor model attribute data 331 may be set as the attribute data of the camera model 361.

図6は,本実施の形態による基準マークモデルの例を説明する図である。   FIG. 6 is a diagram for explaining an example of the reference mark model according to the present embodiment.

基準マークモデル364は,実装置20における画像認識による認識の対象をモデル化した部品モデルである。本実施の形態では,実装置20による作業の対象であるワーク25上に存在する基準マークを検出対象としているので,画像認識の対象を表す部品モデルを,基準マークモデル364と呼んでいる。   The reference mark model 364 is a component model obtained by modeling a recognition target by image recognition in the real device 20. In the present embodiment, since the reference mark existing on the workpiece 25 that is the work target of the actual apparatus 20 is the detection target, the part model representing the image recognition target is called the reference mark model 364.

本実施の形態では,基準マークモデル364は,図6(A)に示すように,矩形付き矢印で表される。これは,表示装置35に表示される三次元ビュー上での視覚的表現を目的としたものである。内部的には,基準マークモデル364は,実体として形状を持たない,すなわち体積を持たない部品モデルとして,三次元機構モデル360の空間に設置される。   In the present embodiment, the reference mark model 364 is represented by a rectangular arrow as shown in FIG. This is intended for visual expression on a three-dimensional view displayed on the display device 35. Internally, the reference mark model 364 is installed in the space of the three-dimensional mechanism model 360 as a part model that does not have a shape as an entity, that is, does not have a volume.

また,図6(A)に示すように,基準マークモデル364のローカル座標系として,基準マークモデル364に基準マーク座標系が設定される。基準マーク座標系は,空間内での基準マークモデル364の位置と姿勢とを表している。本実施の形態では,基準マーク座標系のX軸,Y軸,Z軸を,それぞれXm 軸,Ym 軸,Zm 軸と表すものとする。 As shown in FIG. 6A, the reference mark coordinate system is set in the reference mark model 364 as the local coordinate system of the reference mark model 364. The reference mark coordinate system represents the position and orientation of the reference mark model 364 in space. In this embodiment aspect, X-axis of the reference mark coordinate system, Y-axis, the Z-axis, X m-axis, respectively, Y m axis, and represents the Z m axis.

本実施の形態では,図6(A)に示すように,基準マークモデル364を表す矩形付き矢印において,矢印の出発点が,基準マーク座標系の原点を表している。また,基準マークモデル364を表す矩形付き矢印において,矢印が向く方向が,基準マーク座標系のZm 軸方向を表している。また,基準マークモデル364を表す矩形付き矢印において,矢印に対して矩形片が張り出した方向が,基準マーク座標系のXm 軸方向を表している。 In the present embodiment, as shown in FIG. 6A, in the arrow with a rectangle representing the reference mark model 364, the starting point of the arrow represents the origin of the reference mark coordinate system. Further, in the arrow with a rectangle representing the reference mark model 364, the direction in which the arrow points represents the Zm axis direction of the reference mark coordinate system. Further, the rectangular with arrows representing the reference mark model 364, the direction of projecting rectangular piece against arrows represent the X m-axis direction of the reference mark coordinate system.

本実施の形態では,実装置20の画像認識による位置検出の対象がワーク25上の基準マークであるので,その基準マークのモデルである基準マークモデル364は,図6(B)に示すように,ワーク25に相当するワークモデル362に設置される。このとき,基準マークモデル364が設置される位置は,画像認識によりテンプレート画像と一致すると判定されるワーク25上の位置に相当する,ワークモデル362上の位置である。   In the present embodiment, since the target of position detection by image recognition of the actual apparatus 20 is the reference mark on the workpiece 25, the reference mark model 364 which is a model of the reference mark is as shown in FIG. , The work model 362 corresponding to the work 25 is installed. At this time, the position where the reference mark model 364 is installed is a position on the work model 362 corresponding to a position on the work 25 determined to match the template image by image recognition.

具体的には,例えば,実装置20においてワーク25上の基準マークの中心位置が目的とする検出位置であるような場合に,その検出位置に相当するワークモデル362上の位置が基準マーク座標系の原点となるように,基準マークモデル364が設置される。また,例えば,実装置20において画像認識により基準マークが認識されたときのテンプレート画像の原点位置に対応するワーク25上の位置に相当する,ワークモデル362上の位置が基準マーク座標系の原点となるように,基準マークモデル364が設置される。このような具体的な基準マークモデル364の設置位置は,実装置20における画像認識処理の設計や,シミュレーション装置30における基準マーク検出部34による処理の設計に応じて定められる。   Specifically, for example, when the center position of the reference mark on the work 25 is the target detection position in the actual apparatus 20, the position on the work model 362 corresponding to the detection position is the reference mark coordinate system. The reference mark model 364 is set so as to be the origin of. Further, for example, the position on the workpiece model 362 corresponding to the position on the workpiece 25 corresponding to the origin position of the template image when the reference mark is recognized by image recognition in the actual apparatus 20 is the origin of the reference mark coordinate system. As shown, a reference mark model 364 is installed. The specific installation position of the reference mark model 364 is determined in accordance with the design of the image recognition process in the actual apparatus 20 and the design of the process by the reference mark detection unit 34 in the simulation apparatus 30.

図7は,本実施の形態によるテンプレート画像の原点位置に相当する位置への基準マークモデルの設置を説明する図である。   FIG. 7 is a diagram illustrating the installation of the reference mark model at a position corresponding to the origin position of the template image according to the present embodiment.

図7(A)は,カメラ21の撮像方向から見たワーク25の例である。ワーク25上に,画像認識による位置検出の対象である基準マーク26が存在する。   FIG. 7A shows an example of the work 25 viewed from the imaging direction of the camera 21. On the work 25, there is a reference mark 26 which is a position detection target by image recognition.

図7(B)は,図7(A)に示す基準マーク26の位置検出に用いるテンプレート画像27である。図7(B)に示すテンプレート画像27の原点は,テンプレート画像27の中心位置であるものとする。   FIG. 7B shows a template image 27 used for detecting the position of the reference mark 26 shown in FIG. The origin of the template image 27 shown in FIG. 7B is assumed to be the center position of the template image 27.

図7(A)において,破線で示す枠の領域が,カメラ21による撮像画像とテンプレート画像27とがマッチする領域である。すなわち,図7(A)において,点aの位置が,テンプレート画像27の原点に対応する位置となる。   In FIG. 7A, a frame area indicated by a broken line is an area where the image captured by the camera 21 matches the template image 27. That is, in FIG. 7A, the position of the point a is a position corresponding to the origin of the template image 27.

図7(C)は,図7(A)に示すワーク25をモデル化したワークモデル362である。図(C)に示すワークモデル362において,点bの位置が,図7(A)に示すワーク25の点aの位置に相当する位置である。図7(C)に示すワークモデル362において,テンプレート画像27の原点位置に相当する位置に基準マークモデル364が設置される場合には,点bの位置が基準マーク座標系の原点となるように,基準マークモデル364が設置される。   FIG. 7C shows a work model 362 obtained by modeling the work 25 shown in FIG. In the work model 362 shown in FIG. (C), the position of the point b is a position corresponding to the position of the point a of the work 25 shown in FIG. In the work model 362 shown in FIG. 7C, when the reference mark model 364 is installed at a position corresponding to the origin position of the template image 27, the position of the point b becomes the origin of the reference mark coordinate system. , A reference mark model 364 is installed.

また,基準マークモデル364は,マークセンサモデル363に対してワークモデル362が正しい姿勢で設置されるときに,マークセンサ座標系の各軸の方向と基準マーク座標系の各軸の方向との関係が,所定の関係になるように設置される。例えば,ワークモデル362が正しい姿勢で設置されるときに,マークセンサ座標系のXc 軸,Yc 軸,Zc 軸と基準マーク座標系のXm 軸,Ym 軸,Zm 軸とがそれぞれ平行になるように,基準マークモデル364がワークモデル362に設置される。 Further, the reference mark model 364 is a relationship between the direction of each axis of the mark sensor coordinate system and the direction of each axis of the reference mark coordinate system when the work model 362 is installed in a correct posture with respect to the mark sensor model 363. Are installed in a predetermined relationship. For example, when a work model 362 is placed in the correct position, X c axes of the mark sensor coordinate system, Y c-axis, X m-axis of the Z c-axis and the reference mark coordinate system, Y m axis, and the Z m axis A reference mark model 364 is installed on the work model 362 so as to be parallel to each other.

図8は,本実施の形態による基準マークモデル属性データの例を示す図である。   FIG. 8 is a diagram illustrating an example of reference mark model attribute data according to the present embodiment.

三次元機構モデル360に設置される基準マークモデル364には,その部品モデルの属性データとして,図8に示すような基準マークモデル属性データ332が設定される。図8に示す基準マークモデル属性データ332において,マークセンサ番号(MSNO)は,三次元機構モデル360を用いるシミュレーションで,その基準マークモデル364を検出の対象とするマークセンサモデル363のマークセンサ番号である。また,相関値(TH)は,パターンマッチング結果を仮定して設定される相関値である。基準マークモデル属性データ332におけるマークセンサ番号や相関値が,基準マーク検出処理においてどのように使用されるかについては,後述する。   In the reference mark model 364 installed in the three-dimensional mechanism model 360, reference mark model attribute data 332 as shown in FIG. 8 is set as attribute data of the component model. In the reference mark model attribute data 332 shown in FIG. 8, the mark sensor number (MSNO) is a mark sensor number of the mark sensor model 363 whose detection target is the reference mark model 364 in the simulation using the three-dimensional mechanism model 360. is there. The correlation value (TH) is a correlation value set on the assumption of the pattern matching result. How the mark sensor number and the correlation value in the reference mark model attribute data 332 are used in the reference mark detection process will be described later.

図9は,本実施の形態による基準マーク検出部の構成例を示す図である。   FIG. 9 is a diagram illustrating a configuration example of the reference mark detection unit according to the present embodiment.

基準マーク検出部34は,基準マーク検出指令受付部301,カメラ部品移動処理部302,マークセンサ検出領域設定部303,基準マーク抽出部304,認識情報記憶部305,テンプレート画像領域判定部306,相関値判定部307,検出結果設定部308,基準マーク検出結果記憶部309,基準マーク検出結果出力部310を備える。   The reference mark detection unit 34 includes a reference mark detection command reception unit 301, a camera part movement processing unit 302, a mark sensor detection region setting unit 303, a reference mark extraction unit 304, a recognition information storage unit 305, a template image region determination unit 306, a correlation. A value determination unit 307, a detection result setting unit 308, a reference mark detection result storage unit 309, and a reference mark detection result output unit 310 are provided.

基準マーク検出指令受付部301は,入出力処理部31を介して入力された,制御装置10からの基準マーク検出指令を受け付ける。基準マーク検出指令には,実装値20において撮像を行うカメラ21を特定するカメラ番号や,実装置20における画像認識に用いる認識データを特定するテンプレート番号などの情報が含まれている。   The reference mark detection command receiving unit 301 receives a reference mark detection command from the control device 10 input via the input / output processing unit 31. The reference mark detection command includes information such as a camera number that identifies the camera 21 that performs imaging at the mounted value 20 and a template number that identifies recognition data used for image recognition in the actual device 20.

カメラ部品移動処理部302は,シミュレーション上で三次元機構モデル360を動作し,カメラモデル361の位置を,実装置20におけるカメラ21の撮像位置に相当する位置に移動する。移動するカメラモデル361は,基準マーク検出指令で指定されたカメラ番号のカメラ21に対応するカメラモデル361である。このときのカメラモデル361の移動先の位置は,実装置20におけるカメラ21の撮像位置に応じて,あらかじめ設定された位置である。   The camera component movement processing unit 302 operates the three-dimensional mechanism model 360 on the simulation, and moves the position of the camera model 361 to a position corresponding to the imaging position of the camera 21 in the actual device 20. The moving camera model 361 is a camera model 361 corresponding to the camera 21 with the camera number designated by the reference mark detection command. The position of the movement destination of the camera model 361 at this time is a position set in advance according to the imaging position of the camera 21 in the actual device 20.

なお,カメラモデル361に設置されたマークセンサモデル363は,カメラモデル361のローカル座標系を用いた相対位置が設定されているので,カメラモデル361の移動と同時に目的とする位置に移動される。   The mark sensor model 363 installed in the camera model 361 is moved to the target position simultaneously with the movement of the camera model 361 because the relative position using the local coordinate system of the camera model 361 is set.

マークセンサ検出領域設定部303は,マークセンサモデル363に設定された属性データに基づいて,三次元機構モデル360を用いたシミュレーション空間上に,基準マークモデル364の検出を行う領域の設定を行う。以下では,基準マークモデル364の検出を行う領域を,マークセンサ検出領域と呼ぶものとする。マークセンサ検出領域の設定の詳細については,後述する。   The mark sensor detection area setting unit 303 sets an area for detecting the reference mark model 364 on the simulation space using the three-dimensional mechanism model 360 based on the attribute data set in the mark sensor model 363. Hereinafter, an area where the reference mark model 364 is detected is referred to as a mark sensor detection area. Details of the setting of the mark sensor detection area will be described later.

基準マーク抽出部304は,三次元機構モデル情報記憶部33に記憶された三次元機構モデル360のデータから,マークセンサ検出領域内に存在する基準マークモデル364を抽出する。ここで抽出される基準マークモデル364は,その属性データに設定されたマークセンサ番号が,マークセンサ検出領域が設定されたマークセンサモデル363の属性データのマークセンサ番号に一致するものである。図5に示すように,マークセンサモデル363の属性データであるマークセンサモデル属性データ331には,マークセンサ番号が設定されている。また,図8に示すように,基準マークモデル364の属性データである基準マークモデル属性データ332には,マークセンサ番号が設定されている。   The reference mark extraction unit 304 extracts the reference mark model 364 existing in the mark sensor detection area from the data of the three-dimensional mechanism model 360 stored in the three-dimensional mechanism model information storage unit 33. In the reference mark model 364 extracted here, the mark sensor number set in the attribute data matches the mark sensor number of the attribute data of the mark sensor model 363 in which the mark sensor detection area is set. As shown in FIG. 5, a mark sensor number is set in the mark sensor model attribute data 331 that is the attribute data of the mark sensor model 363. As shown in FIG. 8, the mark sensor number is set in the reference mark model attribute data 332 that is the attribute data of the reference mark model 364.

例えば,ワーク25上の狭い範囲に,それぞれが別々のカメラ21によって検出される複数の基準マークが存在するようなケースも考えられる。このような場合には,そのワーク25をモデル化したワークモデル362上の狭い範囲に,別々のマークセンサモデル363から設定されたマークセンサ検出領域で抽出されるべき基準マークモデル364が,存在するようになる。すなわち,あるマークセンサモデル363から設定されたマークセンサ検出領域内に,そのマークセンサ検出領域で抽出されるべきではない基準マークモデル364が存在するようになる。   For example, there may be a case where a plurality of reference marks, each detected by a separate camera 21, exist in a narrow range on the work 25. In such a case, a reference mark model 364 to be extracted in a mark sensor detection region set from different mark sensor models 363 exists in a narrow range on the work model 362 obtained by modeling the work 25. It becomes like this. That is, the reference mark model 364 that should not be extracted in the mark sensor detection area exists in the mark sensor detection area set from a certain mark sensor model 363.

このような狭い範囲に異なる複数の基準マークモデル364が存在する場合でも,属性データのマークセンサ番号によってマークセンサモデル363と基準マークモデル364との対応を設定することにより,適切な基準マークモデル364の抽出が可能となる。   Even when there are a plurality of different reference mark models 364 in such a narrow range, an appropriate reference mark model 364 is set by setting the correspondence between the mark sensor model 363 and the reference mark model 364 according to the mark sensor number of the attribute data. Can be extracted.

認識情報記憶部305は,実装置20における画像認識による基準マーク26の認識に使用する,テンプレート画像27に関するデータである認識データ24を記憶する,コンピュータがアクセス可能な記憶装置である。認識データ24には,画像認識における環境設定のデータや,パターンマッチング用のテンプレート画像27のデータなどが含まれている。本実施の形態では,実装置20で基準マーク26の検出に用いられる認識データ24を,シミュレーション装置30による基準マーク検出のシミュレーションに,そのまま用いる。   The recognition information storage unit 305 is a computer-accessible storage device that stores recognition data 24 that is data related to the template image 27 used for recognition of the reference mark 26 by image recognition in the actual device 20. The recognition data 24 includes environment setting data for image recognition, data for a template image 27 for pattern matching, and the like. In the present embodiment, the recognition data 24 used for the detection of the reference mark 26 in the actual device 20 is used as it is for the simulation of the reference mark detection by the simulation device 30.

テンプレート画像領域判定部306は,マークセンサ検出領域から抽出された基準マークモデル364に対応するテンプレート画像27の領域を設定し,設定されたテンプレート画像領域が,マークセンサ検出領域内に収まるか否かを判定する。テンプレート画像領域は,実装置20での画像認識においてテンプレート画像27とマッチするカメラ画像上の領域に相当する,基準マークモデル364を含むXc −Yc 平面上の領域である。テンプレート画像領域の設定とその判定との詳細については,後述する。 The template image area determination unit 306 sets an area of the template image 27 corresponding to the reference mark model 364 extracted from the mark sensor detection area, and whether or not the set template image area falls within the mark sensor detection area. Determine. The template image area is an area on the X c -Y c plane including the reference mark model 364 corresponding to the area on the camera image that matches the template image 27 in the image recognition in the real device 20. Details of the setting of the template image area and its determination will be described later.

相関値判定部307は,マークセンサ検出領域から抽出された基準マークモデル364の属性データに設定された相関値が,所定の閾値以上であるか否かを判定する。図8に示すように,基準マークモデル364の属性データである基準マークモデル属性データ332には,相関値が設定されている。   The correlation value determination unit 307 determines whether or not the correlation value set in the attribute data of the reference mark model 364 extracted from the mark sensor detection area is equal to or greater than a predetermined threshold value. As shown in FIG. 8, correlation values are set in the reference mark model attribute data 332 that is the attribute data of the reference mark model 364.

例えば,制御装置10からの基準マーク検出指令に対して,実装置20における画像認識では,カメラ画像上の領域を少しずつずらしながら,カメラ画像上の領域とテンプレート画像27との相関値を算出する処理が行われる。実装置20では,算出された相関値が所定の閾値以上で最も高いカメラ画像上の領域が基準マーク26の検出領域と判断され,その基準マーク検出結果が制御装置10に返される。   For example, in the image recognition in the real device 20 in response to the reference mark detection command from the control device 10, the correlation value between the region on the camera image and the template image 27 is calculated while gradually shifting the region on the camera image. Processing is performed. In the actual apparatus 20, the area on the camera image where the calculated correlation value is equal to or higher than a predetermined threshold is determined as the detection area of the reference mark 26, and the reference mark detection result is returned to the control apparatus 10.

実装置20では,所定の閾値以上の相関値が得られるカメラ画像上の領域がなかった場合には,基準マーク26が検出されなかったと判断され,その旨が基準マーク検出結果として制御装置10に返される。すなわち,実装置20では,実際にはカメラ画像上に目的とする基準マーク26が写っている領域があったとしても,テンプレート画像27とのマッチング結果が悪ければ基準マーク26は検出されなかったものと判断され,基準マーク26なしの結果が制御装置10に返される。   In the actual device 20, if there is no region on the camera image where a correlation value equal to or greater than a predetermined threshold value is obtained, it is determined that the reference mark 26 has not been detected, and that fact is sent to the control device 10 as a reference mark detection result. returned. That is, in the actual apparatus 20, even if there is an area where the target reference mark 26 is actually shown on the camera image, the reference mark 26 is not detected if the matching result with the template image 27 is bad. The result without the reference mark 26 is returned to the control device 10.

制御装置10上の機構制御プログラムに,実際にはカメラ21の視野内に存在する基準マーク26が検出されなかった場合の対処アルゴリズムが用意されている場合もある。シミュレーション装置30を用いた検証によって,このようなアルゴリズムの検証を行うためには,シミュレーション装置30上で,実存する基準マーク26が画像認識により検出されないケースを演出する必要がある。ところが,本実施の形態によるシミュレーション装置30による基準マーク26の検出では,実際に画像認識が行われないため,相関値の算出は行われない。   In some cases, the mechanism control program on the control device 10 is provided with an algorithm for dealing with a case where the reference mark 26 actually present in the field of view of the camera 21 is not detected. In order to verify such an algorithm by verification using the simulation device 30, it is necessary to produce a case where the existing reference mark 26 is not detected by image recognition on the simulation device 30. However, in the detection of the reference mark 26 by the simulation apparatus 30 according to the present embodiment, since the image recognition is not actually performed, the correlation value is not calculated.

そこで,本実施の形態では,基準マークモデル364の属性データに相関値を設定し,その相関値の閾値判定により,基準マーク26が検出されるケースと検出されないケースとが演出できるようになっている。シミュレーションにおいて,基準マークモデル364が検出されるケースを想定する場合には,基準マークモデル364の属性データに設定された相関値を所定の閾値以上に設定しておけばよい。また,シミュレーションにおいて,あえて実存する基準マークモデル364が検出されないケースを想定する場合には,基準マークモデル364の属性データに設定された相関値を所定の閾値より小さい値に設定しておけばよい。   Therefore, in the present embodiment, a correlation value is set in the attribute data of the reference mark model 364, and a case where the reference mark 26 is detected and a case where the reference mark 26 is not detected can be produced by determining the threshold value of the correlation value. Yes. When assuming a case in which the reference mark model 364 is detected in the simulation, the correlation value set in the attribute data of the reference mark model 364 may be set to a predetermined threshold value or more. In the simulation, when it is assumed that the existing reference mark model 364 is not detected, the correlation value set in the attribute data of the reference mark model 364 may be set to a value smaller than a predetermined threshold value. .

このように,基準マークモデル364の属性データとして相関値を設定できるようにすることにより,シミュレーション装置30によって,実存する基準マーク26が画像処理により検出されないようなケースに対処するプログラムの検証などが可能となる。   As described above, by enabling the correlation value to be set as the attribute data of the reference mark model 364, the simulation apparatus 30 can verify a program for dealing with a case where the existing reference mark 26 is not detected by image processing. It becomes possible.

検出結果設定部308は,テンプレート画像領域がマークセンサ検出領域内に収まっており,かつ属性データに設定された相関値が所定の閾値以上である場合に,基準マークモデル364が検出されたと判断する。検出結果設定部308は,三次元機構モデル情報記憶部33から検出されたと判断された基準マークモデル364の位置データを取得し,取得された基準マークモデル364の位置データに基づいて,目的とする検出位置を求める。   The detection result setting unit 308 determines that the reference mark model 364 has been detected when the template image area is within the mark sensor detection area and the correlation value set in the attribute data is greater than or equal to a predetermined threshold value. . The detection result setting unit 308 acquires the position data of the reference mark model 364 determined to be detected from the three-dimensional mechanism model information storage unit 33, and sets the target based on the acquired position data of the reference mark model 364. Find the detection position.

検出結果設定部308は,得られた検出位置を基準マーク検出結果として設定し,基準マーク検出結果記憶部309に記憶する。このとき,検出結果設定部308は,得られた検出位置をマークセンサ座標系に変換して,基準マーク検出結果に設定する。   The detection result setting unit 308 sets the obtained detection position as a reference mark detection result and stores it in the reference mark detection result storage unit 309. At this time, the detection result setting unit 308 converts the obtained detection position into the mark sensor coordinate system and sets it as the reference mark detection result.

基準マーク検出結果記憶部309は,基準マーク検出結果を記憶する,コンピュータがアクセス可能な記憶装置である。   The reference mark detection result storage unit 309 is a computer-accessible storage device that stores the reference mark detection result.

基準マーク検出結果出力部310は,基準マーク検出結果記憶部309に記憶された基準マーク検出結果を,入出力処理部31を介して,制御装置10に出力する。   The reference mark detection result output unit 310 outputs the reference mark detection result stored in the reference mark detection result storage unit 309 to the control device 10 via the input / output processing unit 31.

このような本実施の形態による基準マーク検出部34を備えるシミュレーション装置30によって,三次元機構モデル360を用いたシミュレーションで,画像認識を行わずに,パターン認識による基準マーク26の二次元位置の検出をシミュレートすることが可能となる。   In the simulation using the three-dimensional mechanism model 360 by the simulation apparatus 30 including the reference mark detection unit 34 according to this embodiment, the two-dimensional position of the reference mark 26 is detected by pattern recognition without performing image recognition. Can be simulated.

以下では,実装置20の動作と比較しながら,シミュレーション装置30の基準マーク検出部34が備える各機能部による処理の詳細を説明する。   In the following, details of processing by each functional unit included in the reference mark detection unit 34 of the simulation apparatus 30 will be described while comparing with the operation of the actual apparatus 20.

図10〜図14を用いて,マークセンサ検出領域の設定を詳細に説明する。   The setting of the mark sensor detection area will be described in detail with reference to FIGS.

図10は,本実施の形態の実装置におけるカメラの撮像を説明する図である。   FIG. 10 is a diagram for explaining the imaging of the camera in the real apparatus of the present embodiment.

図10に示す例は,実装置20において,カメラ21がワーク25上面の基準マーク26を撮像している状態を示している。図10に示すX軸,Y軸,Z軸で示される座標は,実装置20の座標系を示している。ここでは,カメラ21は,Z軸に平行な方向を向いているものとする。また,カメラ21の撮像素子28の水平方向はX軸に,垂直方向はY軸に平行であるものとし,撮像素子28の撮像面はX−Y平面に平行であるものとする。   The example shown in FIG. 10 shows a state where the camera 21 is imaging the reference mark 26 on the upper surface of the work 25 in the actual apparatus 20. The coordinates indicated by the X, Y, and Z axes shown in FIG. 10 indicate the coordinate system of the actual device 20. Here, it is assumed that the camera 21 faces a direction parallel to the Z axis. Further, it is assumed that the horizontal direction of the image sensor 28 of the camera 21 is parallel to the X axis, the vertical direction is parallel to the Y axis, and the imaging surface of the image sensor 28 is parallel to the XY plane.

図11は,本実施の形態によるカメラデータの例を示す図である。   FIG. 11 is a diagram illustrating an example of camera data according to the present embodiment.

図11に示すカメラデータ23は,実装置20が備えるカメラ21に関するデータである。   The camera data 23 shown in FIG. 11 is data related to the camera 21 provided in the actual device 20.

図11に示すカメラデータ23において,カメラ番号(1〜n)は,実装置20が備えるカメラ21を一意に識別する識別番号である。   In the camera data 23 shown in FIG. 11, camera numbers (1 to n) are identification numbers that uniquely identify the cameras 21 included in the actual device 20.

図11に示すカメラデータ23において,画素数(HN,VN)は,カメラ21における水平方向すなわちX軸方向の画素数HNと,垂直方向すなわちY軸方向の画素数VNとを示す。セルサイズ(XS,YS)は,カメラ21の撮像素子28におけるセルのX軸方向のサイズXSと,Y軸方向のサイズYSとを示す。レンズ倍率(LN)は,カメラ21のレンズの設定倍率を示す。   In the camera data 23 shown in FIG. 11, the number of pixels (HN, VN) indicates the number of pixels HN in the horizontal direction, that is, the X-axis direction, and the number of pixels VN in the vertical direction, that is, the Y-axis direction. The cell size (XS, YS) indicates a cell size XS in the X-axis direction and a size YS in the Y-axis direction of the image sensor 28 of the camera 21. The lens magnification (LN) indicates the set magnification of the camera 21 lens.

図11に示すカメラデータ23において,ワーキングディスタンス(WD)は,図10に示すように,カメラ21のレンズ先端からワーク25までの距離を示す。   In the camera data 23 shown in FIG. 11, the working distance (WD) indicates the distance from the lens tip of the camera 21 to the workpiece 25, as shown in FIG.

図11に示すカメラデータ23において,被写界深度(SZ)は,カメラ21のピントが合う奥行き方向の幅を示す。   In the camera data 23 shown in FIG. 11, the depth of field (SZ) indicates the width in the depth direction in which the camera 21 is focused.

図12は,本実施の形態の実装置におけるカメラのカメラ視野を示す図である。   FIG. 12 is a diagram showing the camera field of view of the camera in the actual apparatus of the present embodiment.

図10において,カメラ視野(SX,SY)は,カメラ21の視野の範囲を示す。カメラ視野の中心が,カメラの中心と一致する。カメラ視野は,図11に示すカメラデータ23における画素数,セルサイズ,レンズ倍率などのデータから求められる。すなわち,図12に示すように,カメラ視野のX軸方向のサイズSX,Y軸方向のサイズSYは,それぞれ,
SX=HN*XS/LN
SY=VN*YS/LN
で求められる。
In FIG. 10, the camera field of view (SX, SY) indicates the range of the field of view of the camera 21. The center of the camera field of view coincides with the center of the camera. The camera field of view is obtained from data such as the number of pixels, cell size, and lens magnification in the camera data 23 shown in FIG. That is, as shown in FIG. 12, the size SX in the X-axis direction and the size SY in the Y-axis direction of the camera field of view are respectively
SX = HN * XS / LN
SY = VN * YS / LN
Is required.

図10において,カメラ視野(SX,SY)と被写界深度(SZ)からなる空間は,カメラ21により撮像されたカメラ画像から,テンプレート画像27を用いたマッチングにより,ワーク25上の基準マーク26が十分に検出可能な空間領域を示している。すなわち,図10において,ワーク25上の基準マーク26が,カメラ視野と被写界深度からなる空間内に含まれていれば,実装置20の画像認識部22による処理で,基準マーク26の位置が検出される可能性は高い。   In FIG. 10, a space composed of the camera field of view (SX, SY) and the depth of field (SZ) is obtained by matching a reference mark 26 on the workpiece 25 by matching using a template image 27 from a camera image captured by the camera 21. Indicates a sufficiently detectable spatial region. That is, in FIG. 10, if the reference mark 26 on the work 25 is included in the space composed of the camera field of view and the depth of field, the position of the reference mark 26 is determined by the processing by the image recognition unit 22 of the actual device 20. Is likely to be detected.

図13は,本実施の形態の実装置におけるカメラにより得られたカメラ画像の例を示す図である。   FIG. 13 is a diagram illustrating an example of a camera image obtained by the camera in the real apparatus according to the present embodiment.

カメラ21の撮像により得られたカメラ画像29は,例えば,図13に示すようなものとなる。図13に示すカメラ画像29において,太線は撮像されたワーク25の辺であり,十字型の図形はワーク25上面に存在する基準マーク26である。実装置20において,画像認識部22は,図13に示すようなカメラ画像29上をテンプレート画像27で走査することにより,基準マーク26の検出を行う。   A camera image 29 obtained by imaging with the camera 21 is, for example, as shown in FIG. In the camera image 29 shown in FIG. 13, the thick line is the side of the imaged work 25, and the cross-shaped figure is the reference mark 26 existing on the upper surface of the work 25. In the actual apparatus 20, the image recognition unit 22 detects the reference mark 26 by scanning the camera image 29 as shown in FIG. 13 with the template image 27.

本実施の形態では,図13に示すように,カメラ画像29の原点を,カメラの中心に設定している。図13に示すように,カメラ画像29の座標系は,Xc 軸,Yc 軸とで示される座標系となる。実装置20におけるカメラ画像29の座標系と,三次元機構モデル360におけるマークセンサ座標系とが,ともにXc 軸,Yc 軸とで示されているが,これは,マークセンサ座標系が,実装置20におけるカメラ画像29の座標系に合わせて設定されているからである。 In the present embodiment, as shown in FIG. 13, the origin of the camera image 29 is set at the center of the camera. As shown in FIG. 13, the coordinate system of the camera image 29, X c-axis, a coordinate system represented by a Y c axis. The coordinate system of the camera image 29 in the actual apparatus 20 and the mark sensor coordinate system in the three-dimensional mechanism model 360 are both indicated by the X c axis and the Y c axis. This is because it is set in accordance with the coordinate system of the camera image 29 in the actual device 20.

図14は,本実施の形態によるマークセンサ検出領域の設定を説明する図である。   FIG. 14 is a diagram for explaining the setting of the mark sensor detection area according to the present embodiment.

マークセンサ検出領域設定部303は,図5に示すようなマークセンサモデル属性データ331に基づいて,図14に示すようなマークセンサ検出領域365の設定を行う。   The mark sensor detection area setting unit 303 sets the mark sensor detection area 365 as shown in FIG. 14 based on the mark sensor model attribute data 331 as shown in FIG.

図14(A)は,マークセンサモデル363と,設定されるマークセンサ検出領域365との関係を示す図である。図14(B)は,設定されるマークセンサ検出領域365の形状を示す図である。図14(A)に示すX軸,Y軸,Z軸で示される座標は,実装置20の座標系に合わせて設定された三次元機構モデル360の座標系である。   FIG. 14A is a diagram showing the relationship between the mark sensor model 363 and the mark sensor detection area 365 to be set. FIG. 14B is a diagram showing the shape of the mark sensor detection area 365 to be set. The coordinates indicated by the X axis, the Y axis, and the Z axis shown in FIG. 14A are the coordinate system of the three-dimensional mechanism model 360 set in accordance with the coordinate system of the actual apparatus 20.

図5に示すマークセンサモデル属性データ331において,検出サイズ(DX,DY)は,それぞれ,図10,図12に示すカメラ視野(SX,SY)に相当する。図5に示すマークセンサモデル属性データ331において,検出距離(ZOFF)は,図11に示すカメラデータ23におけるワーキングディスタンス(WD)に相当する。図5に示すマークセンサモデル属性データ331において,検出範囲(DZ)は,図11に示すカメラデータ23における被写界深度(SZ)に相当する。このように,マークセンサモデル属性データ331には,実カメラ21の光学的使用に基づいたデータが設定されている。   In the mark sensor model attribute data 331 shown in FIG. 5, the detection size (DX, DY) corresponds to the camera field of view (SX, SY) shown in FIGS. 10 and 12, respectively. In the mark sensor model attribute data 331 shown in FIG. 5, the detection distance (ZOFF) corresponds to the working distance (WD) in the camera data 23 shown in FIG. In the mark sensor model attribute data 331 shown in FIG. 5, the detection range (DZ) corresponds to the depth of field (SZ) in the camera data 23 shown in FIG. As described above, data based on the optical use of the actual camera 21 is set in the mark sensor model attribute data 331.

マークセンサ検出領域365の形状は,マークセンサモデル属性データ331に設定された検出サイズと検出範囲とに基づいて設定される。すなわち,本実施の形態によるマークセンサ検出領域365は,図14(B)に示すように,マークセンサ座標系のXc 軸方向のサイズがDX,Yc 軸方向のサイズがDY,Zc 軸方向のサイズがDZである直方体の形状となる。 The shape of the mark sensor detection area 365 is set based on the detection size and detection range set in the mark sensor model attribute data 331. That is, the mark sensor detection area 365 according to this embodiment, FIG. 14 as shown in (B), DX is X c-axis direction size of the mark sensor coordinate system, the size of the Y c-axis direction DY, Z c axis It becomes the shape of a rectangular parallelepiped whose size in the direction is DZ.

三次元機構モデル360の空間におけるマークセンサ検出領域365の位置は,マークセンサモデル属性データ331に設定された検出距離に基づいて設定される。本実施の形態では,図14(A)に示すように,マークセンサモデル363の底面中心から,Zc 軸方向にZOFFだけ離れた位置がマークセンサ検出領域365の重心の位置となるように,マークセンサ検出領域365が設定される。なお,マークセンサモデル363の底面は,実装置20におけるカメラ21の入射面であるレンズ先端に合わせて,設定されている。 The position of the mark sensor detection area 365 in the space of the three-dimensional mechanism model 360 is set based on the detection distance set in the mark sensor model attribute data 331. In this embodiment, as shown in FIG. 14 (A), from the bottom center of the mark sensor model 363, as position apart ZOFF to Z c axis direction becomes a position of the center of gravity of the mark sensor detection area 365, A mark sensor detection area 365 is set. The bottom surface of the mark sensor model 363 is set in accordance with the front end of the lens that is the incident surface of the camera 21 in the actual apparatus 20.

このように,マークセンサ検出領域設定部303は,マークセンサモデル363に設定された属性データに基づいて,実装置20におけるカメラ視野と被写界深度からなる空間に対応する,マークセンサ検出領域365の空間を設定する。   As described above, the mark sensor detection area setting unit 303 is based on the attribute data set in the mark sensor model 363, and corresponds to the space composed of the camera field of view and the depth of field in the actual apparatus 20. Set the space.

マークセンサ検出領域365の設定後,基準マーク抽出部304が,三次元機構モデル情報記憶部33に記憶された三次元機構モデル360のデータに基づいて,マークセンサ検出領域365内に存在する基準マークモデル364を抽出する。基準マーク抽出部304によって,図14(B)に示すように,設定されたマークセンサ検出領域365の空間内に設置されている基準マークモデル364が,基準マーク検出部34により位置検出が行われる基準マークモデル364の候補として抽出される。   After setting the mark sensor detection area 365, the reference mark extraction unit 304 uses the reference mark data existing in the mark sensor detection area 365 based on the data of the three-dimensional mechanism model 360 stored in the three-dimensional mechanism model information storage unit 33. A model 364 is extracted. As shown in FIG. 14B, the fiducial mark extraction unit 304 detects the position of the fiducial mark model 364 installed in the set mark sensor detection region 365 by the fiducial mark detection unit 34. The reference mark model 364 is extracted as a candidate.

図15〜図22を用いて,テンプレート画像領域の設定と,テンプレート画像領域がマークセンサ検出領域に収まるかの判定とを詳細に説明する。   The setting of the template image area and the determination of whether the template image area fits in the mark sensor detection area will be described in detail with reference to FIGS.

図15は,本実施の形態による認識データの例を示す図である。   FIG. 15 is a diagram illustrating an example of recognition data according to the present embodiment.

図15に示す認識データ24は,実装置20において,画像認識部22で用いられるテンプレート画像27に関するデータなどの,画像認識に関するデータである。また,図15に示す認識データ24は,シミュレーション装置30において,基準マーク検出部34の認識情報記憶部305に記憶されるデータでもある。   The recognition data 24 shown in FIG. 15 is data relating to image recognition, such as data relating to the template image 27 used in the image recognition unit 22 in the actual apparatus 20. 15 is also data stored in the recognition information storage unit 305 of the reference mark detection unit 34 in the simulation apparatus 30.

図15に示す認識データ24において,テンプレート番号(1〜m)は,実装置20において画像認識に用いるテンプレート画像27を一意に識別する識別情報である。   In the recognition data 24 shown in FIG. 15, the template numbers (1 to m) are identification information for uniquely identifying the template image 27 used for image recognition in the real device 20.

図15に示す認識データ24において,照明種別(LTID)は,同軸照明,斜光照明などの,カメラ21による撮像時の被写体に対する照明の種別を示す。照明ボリューム(LTVOL)は,カメラ21による撮像時の被写体に対する照明の光量を示す。露光時間(EXPOS)は,カメラ21による撮像時の露光時間を示す。   In the recognition data 24 shown in FIG. 15, the illumination type (LTID) indicates the type of illumination for the subject at the time of imaging by the camera 21 such as coaxial illumination and oblique illumination. The illumination volume (LTVOL) indicates the amount of illumination light with respect to the subject when the camera 21 captures an image. The exposure time (EXPOS) indicates the exposure time when the camera 21 captures an image.

画像認識に用いるテンプレート画像27は,例えば,カメラ21によってあらかじめ撮像された画像から生成される。認識データ24における照明種別,照明ボリューム,露光時間などのデータは,テンプレート画像27の生成時における撮像条件である。基準マーク26の検出時には,撮像条件を画像認識に用いるテンプレート画像27の生成時の撮像条件に合わせて,カメラ21による撮像が行われる。   The template image 27 used for image recognition is generated from an image captured in advance by the camera 21, for example. Data such as the illumination type, illumination volume, and exposure time in the recognition data 24 are imaging conditions when the template image 27 is generated. When the reference mark 26 is detected, the camera 21 captures an image according to the image capturing condition used when generating the template image 27 used for image recognition.

図15に示す認識データ24において,テンプレート画像(TMPLT.BMP )は,画像認識に用いるテンプレート画像27のファイル名を示す。テンプレートサイズ(XL,YL)は,テンプレート画像27のXt 軸方向のサイズXL,Yt 軸方向のサイズYLを示す。本実施の形態では,テンプレート画像27の座標系を,テンプレート画像27の中心を原点とするXt 軸,Yt 軸で表すものとする。 In the recognition data 24 shown in FIG. 15, the template image (TMPLT.BMP) indicates the file name of the template image 27 used for image recognition. Template size (XL, YL) shows the X t axis direction size XL, Y t axis direction of the size YL of the template image 27. In this embodiment, the coordinate system of the template image 27, X t axis with the origin at the center of the template image 27, as represented by Y t axis.

図15に示す認識データ24において,基準位置(XP,YP)としては,テンプレート画像27の原点を基準として,基準マーク26を含むテンプレート画像27の中心や,テンプレート画像27の中で特徴のある位置などの座標値が示される。検出位置(XOFF,YOFF)としては,基準マーク26の検出結果として出力される点が,基準位置からのオフセット量で示される。   In the recognition data 24 shown in FIG. 15, the reference position (XP, YP) is based on the origin of the template image 27, the center of the template image 27 including the reference mark 26, or a characteristic position in the template image 27. Coordinate values such as are shown. As the detection position (XOFF, YOFF), the point output as the detection result of the reference mark 26 is indicated by an offset amount from the reference position.

図15に示す認識データ24において,範囲指定有無(AREFLG)は,テンプレート画像27を用いた画像認識を,カメラ画像29上の領域の範囲を指定して行うか否かを示すフラグである。AREFLG=1のときには範囲指定が行われ,AREFLG=0のときには範囲指定が行われない。サーチ範囲(AX1,AY1,AX2,AY2)は,AREFLG=1のときに指定される,カメラ画像29上の領域の範囲を示す。カメラ画像29上の座標(AX1,AY1)の点と,座標(AX2,AY2)の点とを対角とする矩形の領域が,テンプレート画像27を用いた画像認識の範囲となる。   In the recognition data 24 shown in FIG. 15, the range designation presence / absence (AREFLG) is a flag indicating whether or not the image recognition using the template image 27 is performed by designating the range of the area on the camera image 29. When AREFLG = 1, the range is specified, and when AREFLG = 0, the range is not specified. The search range (AX1, AY1, AX2, AY2) indicates the range of the area on the camera image 29 specified when AREFLG = 1. A rectangular area having a coordinate (AX1, AY1) point on the camera image 29 and a coordinate (AX2, AY2) point as a diagonal is a range of image recognition using the template image 27.

図16は,本実施の形態の実装置によるサーチ範囲の設定を説明する図である。   FIG. 16 is a diagram for explaining the setting of the search range by the real apparatus of the present embodiment.

実装置20において,図15に示す認識データ24の範囲指定有無(AREFLG)が1である場合には,テンプレート画像27を用いた画像認識を行うカメラ画像29上の範囲が限定される。   In the real device 20, when the range designation presence / absence (AREFLG) of the recognition data 24 shown in FIG. 15 is 1, the range on the camera image 29 that performs image recognition using the template image 27 is limited.

画像認識部22は,認識データ24の範囲指定有無(AREFLG)が1である場合に,認識データ24のサーチ範囲で指定された点(AX1,AY1),点(AX2,AY2)を対角とする矩形の範囲に,テンプレート画像27を用いた画像認識を行う範囲を限定する。図16に示すように,点(AX1,AY1),点(AX2,AY2)を対角とする矩形の範囲が,サーチ範囲210,すなわちテンプレート画像27を用いた画像認識を行う範囲となる。   When the range designation presence / absence (AREFLG) of the recognition data 24 is 1, the image recognition unit 22 uses the points (AX1, AY1) and (AX2, AY2) designated in the search range of the recognition data 24 as diagonals. The range in which image recognition using the template image 27 is performed is limited to the rectangular range. As shown in FIG. 16, a rectangular range having the points (AX1, AY1) and (AX2, AY2) as diagonal lines is a search range 210, that is, a range in which image recognition using the template image 27 is performed.

図17は,本実施の形態のシミュレーション装置による基準マーク検出範囲の設定を説明する図である。   FIG. 17 is a diagram for explaining the setting of the reference mark detection range by the simulation apparatus of the present embodiment.

シミュレーション装置30において,認識情報記憶部305に記憶された認識データ24の範囲指定有無(AREFLG)が1である場合には,マークセンサ検出領域365における基準マークモデル364を抽出する領域の範囲が限定される。マークセンサ検出領域設定部303は,認識データ24の範囲指定有無(AREFLG)が1である場合に,認識データ24のサーチ範囲(AX1,AY1,AX2,AY2)の指定に従って,基準マークモデル364を抽出する領域の範囲を限定する。   In the simulation apparatus 30, when the range designation presence / absence (AREFLG) of the recognition data 24 stored in the recognition information storage unit 305 is 1, the range of the region from which the reference mark model 364 is extracted in the mark sensor detection region 365 is limited. Is done. When the range designation presence / absence (AREFLG) of the recognition data 24 is 1, the mark sensor detection area setting unit 303 sets the reference mark model 364 according to the designation of the search range (AX1, AY1, AX2, AY2) of the recognition data 24. Limit the range of areas to be extracted.

図17(A)は,二次元のXc −Yc 平面で表されたマークセンサ検出領域365を示す。図17(A)に示すマークセンサ検出領域365は,実装置20におけるカメラ画像29に相当する。すなわち,図17(A)に示すマークセンサ検出領域365のXc −Yc 平面において,点(AX1,AY1),点(AX2,AY2)を対角とする矩形の範囲が,限定された基準マーク抽出範囲366となる。 FIG. 17A shows a mark sensor detection region 365 represented by a two-dimensional X c -Y c plane. A mark sensor detection region 365 shown in FIG. 17A corresponds to the camera image 29 in the actual apparatus 20. That is, in the X c -Y c plane of the mark sensor detection area 365 shown in FIG. 17 (A), point (AX1, AY1), point rectangular range to (AX2, AY2) diagonal is limited reference A mark extraction range 366 is obtained.

図17(B)は,三次元空間で表されたマークセンサ検出領域365である。マークセンサ検出領域365の三次元空間では,図17(B)に示すように,(AX1,AY1)の直線と(AX2,AY2)直線とに基づいて設定された直方体の空間が,基準マーク抽出範囲366となる。   FIG. 17B shows a mark sensor detection area 365 represented in a three-dimensional space. In the three-dimensional space of the mark sensor detection area 365, as shown in FIG. 17B, a rectangular parallelepiped space set based on the (AX1, AY1) straight line and the (AX2, AY2) straight line is a reference mark extraction. A range 366 is obtained.

図15に示す認識データ24において,回転サーチ有無(ROTFLG)は,回転されたテンプレート画像27を用いた画像認識を行うか否かを示すフラグである。ROTFLG=1のときには回転されたテンプレート画像27を用いた画像認識が行われ,ROTFLG=0のときには回転されたテンプレート画像27を用いた画像認識が行われない。回転サーチ範囲(ANG1,ANG2)は,ROTFLG=1のときに指定される,テンプレート画像27の回転角度の範囲を示す。   In the recognition data 24 shown in FIG. 15, “rotation search presence / absence (ROTFLG)” is a flag indicating whether or not to perform image recognition using the rotated template image 27. When ROTFLG = 1, image recognition using the rotated template image 27 is performed, and when ROTFLG = 0, image recognition using the rotated template image 27 is not performed. The rotation search range (ANG1, ANG2) indicates the range of the rotation angle of the template image 27 specified when ROTFLG = 1.

図18は,本実施の形態による回転サーチ範囲を説明する図である。   FIG. 18 is a diagram for explaining a rotation search range according to the present embodiment.

図18(A)に示すように,図15に示す認識データ24の回転サーチ範囲において,ANG1は,時計回り方向のテンプレート画像27の回転角度の上限を示す。また,図18(B)に示すように,図15に示す認識データ24の回転サーチ範囲において,ANG2は,反時計回り方向のテンプレート画像27の回転角度の上限を示す。   As shown in FIG. 18A, ANG1 indicates the upper limit of the rotation angle of the template image 27 in the clockwise direction in the rotation search range of the recognition data 24 shown in FIG. As shown in FIG. 18B, ANG2 indicates the upper limit of the rotation angle of the template image 27 in the counterclockwise direction in the rotation search range of the recognition data 24 shown in FIG.

実装置20の画像認識部22は,図15に示す認識データ24において,ROTFLG=1のときに,ANG1〜ANG2の範囲で,例えば1度ずつテンプレート画像27の角度を変えながら画像認識を行う。   In the recognition data 24 shown in FIG. 15, the image recognition unit 22 of the actual device 20 performs image recognition while changing the angle of the template image 27, for example, in the range of ANG1 to ANG2 when ROTFLG = 1.

図15に示す認識データ24において,判定閾値(THRSLD)は,カメラ画像29上の領域とテンプレート画像27との間の相関値の下限を示す閾値である。すなわち,画像認識部22は,画像認識の結果,カメラ画像29上の領域とテンプレート画像27との間の最大の相関値が判定閾値以上でなければ,基準マーク26が検出されなかったと判定する。なお,シミュレーション装置30において,基準マーク検出部34の相関値判定部307では,認識情報記憶部305に記憶された認識データ24の判定閾値を所定の閾値として,相関値の判定を行う。   In the recognition data 24 shown in FIG. 15, the determination threshold value (THRSLD) is a threshold value indicating the lower limit of the correlation value between the area on the camera image 29 and the template image 27. In other words, the image recognition unit 22 determines that the reference mark 26 has not been detected unless the maximum correlation value between the area on the camera image 29 and the template image 27 is equal to or greater than the determination threshold. In the simulation apparatus 30, the correlation value determination unit 307 of the reference mark detection unit 34 determines the correlation value using the determination threshold value of the recognition data 24 stored in the recognition information storage unit 305 as a predetermined threshold value.

図19は,本実施の形態によるテンプレート画像の例(1)を示す図である。   FIG. 19 is a diagram showing an example (1) of a template image according to this embodiment.

図19に示すテンプレート画像27は,原点,基準位置,検出位置が同じ点である場合の例である。このとき,図15に示す認識データ24において,基準位置(XP,YP)=(0,0),検出位置(XOFF,YOFF)=(0,0)となる。   A template image 27 shown in FIG. 19 is an example when the origin, the reference position, and the detection position are the same point. At this time, in the recognition data 24 shown in FIG. 15, the reference position (XP, YP) = (0, 0) and the detection position (XOFF, YOFF) = (0, 0).

図19に示すテンプレート画像27において,基準マーク26の中心位置の座標が目的とする検出位置である。基準マーク26の大きさがテンプレート画像27の大きさに対して十分に小さい場合などには,図19に示すような原点,基準位置,検出位置が同じであるテンプレートが用意できる。   In the template image 27 shown in FIG. 19, the coordinate of the center position of the reference mark 26 is the target detection position. When the size of the reference mark 26 is sufficiently smaller than the size of the template image 27, a template having the same origin, reference position, and detection position as shown in FIG. 19 can be prepared.

図20は,本実施の形態によるテンプレート画像の例(2)を示す図である。   FIG. 20 is a diagram illustrating an example (2) of the template image according to the present embodiment.

図20において,基準マーク26の中心位置の座標が目的とする検出位置であるものとする。このとき,図20(A)に示すように,基準マーク26の大きさに対してテンプレート画像27の大きさが十分でないような場合には,原点,基準位置,検出位置を同じ点に設定することが難しい。このような場合には,図20(B)に示すように,原点,基準位置,検出位置が異なったテンプレート画像が用意される。   In FIG. 20, it is assumed that the coordinate of the center position of the reference mark 26 is the target detection position. At this time, as shown in FIG. 20A, when the size of the template image 27 is not sufficient with respect to the size of the reference mark 26, the origin, the reference position, and the detection position are set to the same point. It is difficult. In such a case, as shown in FIG. 20B, template images having different origins, reference positions, and detection positions are prepared.

図20(A)において,特徴点は,画像認識において認識しやすい特徴のある点である。図20(A)に示す例では,矩形の基準マーク26の角の部分が,認識が容易な特徴点となる。図20(B)に示すように,認識しやすい特徴点が,テンプレート画像27の基準位置として設定される。認識データ24の基準位置(XP,YP)には,テンプレート画像27の原点に対する特徴点の座標が設定される。   In FIG. 20A, feature points are points with features that are easy to recognize in image recognition. In the example shown in FIG. 20A, the corner portion of the rectangular reference mark 26 is a feature point that can be easily recognized. As shown in FIG. 20B, a feature point that is easy to recognize is set as a reference position of the template image 27. At the reference position (XP, YP) of the recognition data 24, the coordinates of the feature point with respect to the origin of the template image 27 are set.

図20(B)に示すように,検出位置は,図20(A)に示す基準マーク26の中心位置である。認識データ24の検出位置(XOFF,YOFF)には,テンプレート画像27の原点に対する特徴点の座標が設定される。   As shown in FIG. 20B, the detection position is the center position of the reference mark 26 shown in FIG. At the detection position (XOFF, YOFF) of the recognition data 24, the coordinates of the feature point with respect to the origin of the template image 27 are set.

なお,図19,図20に示すテンプレート画像27は,基準マーク26を検出対象として,目的となる検出位置を求めるためのテンプレート画像27である。検出対象が基準マーク26以外,例えばプリント基板に搭載する半導体チップなどであってもよい。例えば,図20に示すテンプレート画像27において,検索対象が基準マーク26ではなく基板に搭載するチップであり,基準位置がチップの角であり,検出位置がチップの中心位置であってもよい。   A template image 27 shown in FIGS. 19 and 20 is a template image 27 for obtaining a target detection position with the reference mark 26 as a detection target. The detection target other than the reference mark 26 may be, for example, a semiconductor chip mounted on a printed circuit board. For example, in the template image 27 shown in FIG. 20, the search target may be a chip mounted on the substrate instead of the reference mark 26, the reference position may be the corner of the chip, and the detection position may be the center position of the chip.

図21は,本実施の形態の実装置によるテンプレート画像を用いた画像認識を説明する図である。   FIG. 21 is a diagram for explaining image recognition using a template image by the real apparatus according to the present embodiment.

実装置20において,画像認識部22は,図21(A)に示すように,テンプレートサーチを行い,テンプレート画像27とマッチするカメラ画像29上の領域を検出する。   In the real device 20, the image recognition unit 22 performs a template search and detects a region on the camera image 29 that matches the template image 27 as shown in FIG.

具体的には,画像認識部22は,カメラ画像29の領域を少しずつ変えながらテンプレート画像27とのマッチングを行い,テンプレート画像27との相関値が最大となるカメラ画像29上の領域を検出する。画像認識部22は,得られた最大の相関値が図15に示す認識データの判定閾値以上である場合に,その相関値が得られたカメラ画像29上の領域とテンプレート画像27とがマッチすると判定する。そのテンプレート画像27とマッチすると判定されたカメラ画像29上の領域が,目的とする基準マーク26が写った領域とされる。   Specifically, the image recognition unit 22 performs matching with the template image 27 while changing the region of the camera image 29 little by little, and detects the region on the camera image 29 where the correlation value with the template image 27 is maximized. . When the obtained maximum correlation value is equal to or larger than the determination threshold value of the recognition data shown in FIG. 15, the image recognition unit 22 matches the area on the camera image 29 from which the correlation value is obtained with the template image 27. judge. An area on the camera image 29 determined to match the template image 27 is an area in which the target reference mark 26 is reflected.

このように,実装置20では,テンプレート画像27とマッチする領域が,カメラ画像29上に存在する場合に,基準マーク26が検出されたものと判定される。逆に言えば,カメラ画像29に基準マーク26が写っていても,画像認識によって十分な相関値が得られなければ,テンプレート画像27とマッチするカメラ画像29上の領域はないと判定され,基準マーク26が検出されなかったものと判定される。   As described above, in the real device 20, when the region that matches the template image 27 exists on the camera image 29, it is determined that the reference mark 26 has been detected. In other words, even if the reference mark 26 appears in the camera image 29, if a sufficient correlation value cannot be obtained by image recognition, it is determined that there is no region on the camera image 29 that matches the template image 27, and the reference It is determined that the mark 26 has not been detected.

例えば,図21(B)に示すように,基準マーク26がカメラ画像29の端の方に写っているようなケースも考えられる。このようなケースでは,カメラ画像29上の基準マーク26が写った部分にテンプレート画像27とマッチする十分な領域が確保できない。すなわち,実装置20では,カメラ視野内に基準マーク26が存在しても,テンプレート画像とのマッチングでは,その基準マーク26を検出できない場合がある。   For example, as shown in FIG. 21B, a case where the reference mark 26 is reflected toward the end of the camera image 29 can be considered. In such a case, a sufficient area that matches the template image 27 cannot be secured in the portion of the camera image 29 where the reference mark 26 appears. That is, in the actual apparatus 20, even if the reference mark 26 exists in the camera field of view, the reference mark 26 may not be detected by matching with the template image.

これに対して,本実施の形態の三次元機構モデル360を用いたシミュレーション装置30では,テンプレート画像27を用いた画像認識を行わずに,三次元機構モデル360に設置された基準マークモデル364の検出を行う。具体的には,図14(B)に示すように,シミュレーション装置30では,マークセンサ検出領域365内に存在する基準マークモデル364の抽出が行われる。このとき,単純にマークセンサ検出領域365内から抽出された基準マークモデル364を基準マーク検出結果としてしまうと,実装置20における画像認識では検出されない基準マーク26に相当する基準マークモデル364が,検出されてしまう可能性がある。   On the other hand, in the simulation apparatus 30 using the three-dimensional mechanism model 360 of the present embodiment, the reference mark model 364 installed in the three-dimensional mechanism model 360 is not recognized without performing image recognition using the template image 27. Perform detection. Specifically, as shown in FIG. 14B, the simulation apparatus 30 extracts the reference mark model 364 existing in the mark sensor detection area 365. At this time, if the reference mark model 364 extracted from the mark sensor detection area 365 is simply used as the reference mark detection result, the reference mark model 364 corresponding to the reference mark 26 that is not detected by image recognition in the actual apparatus 20 is detected. There is a possibility of being.

そこで,本実施の形態によるシミュレーション装置30では,基準マーク検出部34におけるテンプレート画像領域判定部306が,抽出された基準マークモデル364の周囲にテンプレート画像領域を設定する。テンプレート画像領域判定部306は,設定されたテンプレート画像領域が,マークセンサ検出領域365内に収まるか否かを判定する。   Therefore, in the simulation apparatus 30 according to the present embodiment, the template image region determination unit 306 in the reference mark detection unit 34 sets a template image region around the extracted reference mark model 364. The template image area determination unit 306 determines whether or not the set template image area falls within the mark sensor detection area 365.

図22は,本実施の形態によるテンプレート画像領域の設定と判定とを説明する図である。   FIG. 22 is a diagram for explaining setting and determination of a template image area according to the present embodiment.

図22では,マークセンサ検出領域365が,基準マーク抽出部304により抽出された基準マークモデル364の位置を含むXc −Yc 平面で表されている。これは,実装置20におけるカメラ画像29に相当する。 In FIG. 22, the mark sensor detection area 365 is represented by an X c -Y c plane including the position of the reference mark model 364 extracted by the reference mark extraction unit 304. This corresponds to the camera image 29 in the actual apparatus 20.

上述したように,本実施の形態では,基準マークモデル364は,ワークモデル362上の,実ワーク25上のテンプレート画像27の原点位置が想定された位置に設置されている。すなわち,三次元機構モデル360のシミュレーション空間上で,実装置20において画像認識により基準マーク26が検出されたときのテンプレート画像27の領域をシミュレートすると,図22(A)に示すような基準マークモデル364を中心とする矩形領域となる。   As described above, in the present embodiment, the reference mark model 364 is installed on the work model 362 at a position where the origin position of the template image 27 on the actual work 25 is assumed. That is, when the area of the template image 27 when the reference mark 26 is detected by image recognition in the real apparatus 20 on the simulation space of the three-dimensional mechanism model 360 is simulated, the reference mark as shown in FIG. A rectangular area centered on the model 364 is formed.

テンプレート画像領域判定部306は,図22(A)に示すような基準マークモデル364を中心とする矩形領域を,テンプレート画像領域367として設定する。なお,本実施の形態による基準マーク検出部34における認識情報記憶部305には,実装置20と同じ認識データ24が記憶されている。テンプレート画像領域判定部306は,認識情報記憶部305に記憶された認識データ24から,テンプレート画像領域367のサイズ等を求めることができる。   The template image region determination unit 306 sets a rectangular region centered on the reference mark model 364 as shown in FIG. The recognition information storage unit 305 in the reference mark detection unit 34 according to the present embodiment stores the same recognition data 24 as that of the actual device 20. The template image area determination unit 306 can obtain the size of the template image area 367 from the recognition data 24 stored in the recognition information storage unit 305.

テンプレート画像領域判定部306は,設定されたテンプレート画像領域367が,マークセンサ検出領域365内に収まるか否かを判定する。   The template image area determination unit 306 determines whether or not the set template image area 367 is within the mark sensor detection area 365.

図22(A)は,設定されたテンプレート画像領域367が,マークセンサ検出領域365内に収まっている例である。すなわち,図22(A)においてマークセンサ検出領域365から抽出された基準マークモデル364は,実装置20における画像認識で検出され得る基準マーク26に相当する基準マークモデル364であるといえる。   FIG. 22A shows an example in which the set template image area 367 is within the mark sensor detection area 365. That is, it can be said that the reference mark model 364 extracted from the mark sensor detection region 365 in FIG. 22A is a reference mark model 364 corresponding to the reference mark 26 that can be detected by image recognition in the actual device 20.

図22(B)は,設定されたテンプレート画像領域367が,マークセンサ検出領域365内に収まっていない例である。すなわち,図22(B)においてマークセンサ検出領域365から抽出された基準マークモデル364は,実装置20における画像認識では検出されない基準マーク26に相当する基準マークモデル364であるといえる。   FIG. 22B shows an example in which the set template image area 367 does not fit within the mark sensor detection area 365. That is, it can be said that the reference mark model 364 extracted from the mark sensor detection region 365 in FIG. 22B is a reference mark model 364 corresponding to the reference mark 26 that is not detected by image recognition in the actual device 20.

このように,シミュレーション装置30における基準マーク検出部34のテンプレート画像領域判定部306により,実装置20におけるテンプレート画像27を用いたカメラ画像29上の領域のマッチング走査を,シミュレートすることができる。   As described above, the template image region determination unit 306 of the reference mark detection unit 34 in the simulation device 30 can simulate the matching scanning of the region on the camera image 29 using the template image 27 in the actual device 20.

図23〜図27を用いて,基準マーク検出結果の設定について詳細に説明する。   The setting of the reference mark detection result will be described in detail with reference to FIGS.

図23は,本実施の形態による検出結果データの例を示す図である。   FIG. 23 is a diagram illustrating an example of detection result data according to the present embodiment.

図23に示す検出結果データ211は,実装置20における基準マーク26の検出結果である。また,図23に示す検出結果データ211は,シミュレーション装置30における基準マークモデル364の検出結果でもある。   The detection result data 211 shown in FIG. 23 is a detection result of the reference mark 26 in the actual device 20. Further, the detection result data 211 shown in FIG. 23 is also a detection result of the reference mark model 364 in the simulation apparatus 30.

実装置20での検出結果データ211において,検出結果番号(1〜TNO)は,検出された基準マーク26の1つ1つに割り振られた番号である。また,シミュレーション装置30での検出結果データ211において,検出結果番号(1〜TNO)は,検出された基準マークモデル364の1つ1つに割り振られた番号である。   In the detection result data 211 in the actual apparatus 20, the detection result numbers (1 to TNO) are numbers assigned to the detected reference marks 26 one by one. Further, in the detection result data 211 in the simulation apparatus 30, the detection result numbers (1 to TNO) are numbers assigned to the detected reference mark models 364 one by one.

実装置20での検出結果データ211において,検出座標(TX,TY)は,基準マーク26が検出されたと判定されたカメラ画像29の領域の位置に基づいて求められた,検出位置の座標を示す。検出座標は,基準マーク26の検出に用いられたテンプレート画像27の原点,基準位置,検出位置の関係から求められる。また,シミュレーション装置30での検出結果データ211において,検出座標(TX,TY)は,マークセンサ検出領域365から抽出された基準マークモデル364の位置に基づいて求められた,検出位置の座標を示す。   In the detection result data 211 in the real apparatus 20, the detection coordinates (TX, TY) indicate the coordinates of the detection position obtained based on the position of the area of the camera image 29 where it is determined that the reference mark 26 has been detected. . The detection coordinates are obtained from the relationship between the origin, reference position, and detection position of the template image 27 used for detecting the reference mark 26. Further, in the detection result data 211 in the simulation apparatus 30, the detection coordinates (TX, TY) indicate the coordinates of the detection position obtained based on the position of the reference mark model 364 extracted from the mark sensor detection area 365. .

実装置20での検出結果データ211において,検出角度(TA)は,基準マーク26が検出されたときのテンプレート画像27の回転角度を示す。また,シミュレーション装置30での検出結果データ211において,検出角度(TA)は,マークセンサ座標系と,検出された基準マークモデル364の基準マーク座標系との関係から求められた,基準マークモデル364の姿勢を示す角度である。なお,実装置20またはシミュレーション装置30において,検出角度は,認識データ24の回転サーチ有無ROTFLGが1である場合に,検出結果として求められる。   In the detection result data 211 of the actual apparatus 20, the detection angle (TA) indicates the rotation angle of the template image 27 when the reference mark 26 is detected. In the detection result data 211 in the simulation apparatus 30, the detection angle (TA) is obtained from the relationship between the mark sensor coordinate system and the reference mark coordinate system of the detected reference mark model 364, and the reference mark model 364. It is an angle indicating the posture of. In the actual apparatus 20 or the simulation apparatus 30, the detection angle is obtained as a detection result when the rotation search presence / absence ROTFLG of the recognition data 24 is 1.

実装置20での検出結果データ211において,相関値(TV)は,基準マーク26が検出されたときの,テンプレート画像27とカメラ画像29上の領域との間の相関値を示す。また,シミュレーション装置30での検出結果データ211において,相関値(TV)は,マークセンサ検出領域365から抽出された基準マークモデル364の属性データに設定された相関値(TH)である。   In the detection result data 211 of the actual device 20, the correlation value (TV) indicates the correlation value between the template image 27 and the area on the camera image 29 when the reference mark 26 is detected. In the detection result data 211 in the simulation apparatus 30, the correlation value (TV) is the correlation value (TH) set in the attribute data of the reference mark model 364 extracted from the mark sensor detection area 365.

シミュレーション装置30の基準マーク検出部34において,検出結果データ211は,基準マーク検出結果記憶部309に記憶される。   In the reference mark detection unit 34 of the simulation apparatus 30, the detection result data 211 is stored in the reference mark detection result storage unit 309.

図24は,本実施の形態の実装置による基準マーク検出結果を説明する図である。   FIG. 24 is a diagram for explaining the reference mark detection result by the actual apparatus of the present embodiment.

図24において,破線の矩形枠で示す領域は,テンプレート画像27とマッチすると判定されたカメラ画像29上の領域である。検出位置がテンプレート画像27の中心位置である場合には,図24に示すカメラ画像29において,破線の矩形枠で示す領域の中心位置が,目的とする基準マーク26の検出位置となる。図24に示すように,検出位置の座標(TX,TY)は,カメラ画像29の座標系で表される。   In FIG. 24, an area indicated by a broken-line rectangular frame is an area on the camera image 29 determined to match the template image 27. When the detection position is the center position of the template image 27, the center position of the area indicated by the dashed rectangular frame in the camera image 29 shown in FIG. As shown in FIG. 24, the coordinates (TX, TY) of the detection position are expressed in the coordinate system of the camera image 29.

また,認識データ24において,回転サーチ有無ROTFLG=1である場合には,検出結果データ211に検出角度が設定される。このとき,例えば図24に示すように,検出角度(TA)は,テンプレート画像27の回転角度,すなわちカメラ画像29に対する破線の矩形枠で示す領域の角度である。   Further, in the recognition data 24, when the rotation search presence / absence ROTFLG = 1, the detection angle is set in the detection result data 211. At this time, for example, as shown in FIG. 24, the detection angle (TA) is the rotation angle of the template image 27, that is, the angle of the region indicated by the dashed rectangular frame with respect to the camera image 29.

図25は,本実施の形態のシミュレーション装置による基準マークモデルの検出結果の設定(1)を説明する図である。   FIG. 25 is a diagram for explaining setting (1) of the detection result of the reference mark model by the simulation apparatus of the present embodiment.

図25に示す例は,実装置20における図19に示す原点,基準位置,検出位置が同じテンプレート画像27を用いた基準マーク26の検出が,シミュレーション装置30によってシミュレートされた場合の例である。   The example shown in FIG. 25 is an example in which the simulation apparatus 30 simulates the detection of the reference mark 26 using the template image 27 having the same origin, reference position, and detection position shown in FIG. .

図25(A)では,マークセンサ検出領域365が,基準マーク抽出部304により抽出された基準マークモデル364の位置を含むXc −Yc 平面で表されている。これは,実装置20におけるカメラ画像29に相当する。 In FIG. 25A, the mark sensor detection region 365 is represented by an X c -Y c plane including the position of the reference mark model 364 extracted by the reference mark extraction unit 304. This corresponds to the camera image 29 in the actual apparatus 20.

図25(A)に示すように,マークセンサ検出領域365から抽出された基準マークモデル364を中心として,テンプレート画像領域367が設定されている。図25に示すテンプレート画像領域367は,図19に示すテンプレート画像27に相当する。すなわち,図25(B)に示すように,テンプレート画像領域367に,テンプレート画像27の座標系を想定すると,基準マークモデル364の位置が,テンプレート画像27の原点であると仮定できる。   As shown in FIG. 25A, a template image region 367 is set around the reference mark model 364 extracted from the mark sensor detection region 365. A template image area 367 shown in FIG. 25 corresponds to the template image 27 shown in FIG. That is, as shown in FIG. 25B, assuming the coordinate system of the template image 27 in the template image region 367, it can be assumed that the position of the reference mark model 364 is the origin of the template image 27.

シミュレーション装置30の基準マーク検出部34において,検出結果設定部308は,認識情報記憶部305に記憶された認識データ24から,基準位置,検出位置のデータを取得する。ここでは,検出結果設定部308は,図19に示すテンプレート画像27の認識データ24から,基準位置(XP,YP)=(0,0),検出位置(XOFF,YOFF)=(0,0)のデータを得る。   In the reference mark detection unit 34 of the simulation apparatus 30, the detection result setting unit 308 acquires reference position and detection position data from the recognition data 24 stored in the recognition information storage unit 305. Here, the detection result setting unit 308 obtains the reference position (XP, YP) = (0, 0), the detection position (XOFF, YOFF) = (0, 0) from the recognition data 24 of the template image 27 shown in FIG. Get the data.

取得された基準位置,検出位置のデータから,図25(B)に示すように,テンプレート画像領域367において,テンプレート画像27の原点,基準位置,検出位置は,すべて同じ位置である。すなわち,図25に示す例において,基準マークモデル364の検出結果として求める検出座標は,基準マークモデル364の位置座標となる。   From the acquired reference position and detection position data, as shown in FIG. 25B, in the template image region 367, the origin, reference position, and detection position of the template image 27 are all the same position. That is, in the example shown in FIG. 25, the detection coordinates obtained as the detection result of the reference mark model 364 are the position coordinates of the reference mark model 364.

図25に示す例において,検出結果設定部308は,目的とする検出位置の座標,すなわち基準マークモデル364の位置座標を,基準マークモデル364の検出座標として,基準マーク検出結果記憶部309に記憶する検出結果データ211に設定する。本実施の形態では,図25(A)に示すように,検出座標として,マークセンサ座標系に変換された検出位置の座標(TX,TY)が,検出結果データ211に設定される。なお,ここで設定される検出座標は,カメラ画像29の座標系を想定したマークセンサ座標系のXc 軸,Yc 軸からなる二次元の位置座標である。 In the example shown in FIG. 25, the detection result setting unit 308 stores the coordinates of the target detection position, that is, the position coordinates of the reference mark model 364 in the reference mark detection result storage unit 309 as the detection coordinates of the reference mark model 364. The detection result data 211 is set. In this embodiment, as shown in FIG. 25A, the detection position coordinates (TX, TY) converted into the mark sensor coordinate system are set in the detection result data 211 as the detection coordinates. Here, the detection coordinates to be set, X c-axis coordinate system mark sensor coordinate system that assumes the camera image 29 is a two-dimensional coordinates consisting of Y c axis.

図26は,本実施の形態のシミュレーション装置による基準マークモデルの検出結果の設定(2)を説明する図である。   FIG. 26 is a diagram for explaining setting (2) of the detection result of the reference mark model by the simulation apparatus of the present embodiment.

図26に示す例は,実装置20における図20(B)に示す原点,基準位置,検出位置がそれぞれ異なるテンプレート画像27を用いた基準マーク26の検出が,シミュレーション装置30によってシミュレートされた場合の例である。   In the example illustrated in FIG. 26, the detection of the reference mark 26 using the template image 27 having different origins, reference positions, and detection positions illustrated in FIG. 20B in the actual apparatus 20 is simulated by the simulation apparatus 30. It is an example.

図26(A)では,マークセンサ検出領域365が,基準マーク抽出部304により抽出された基準マークモデル364の位置を含むXc −Yc 平面で表されている。これは,実装置20におけるカメラ画像29に相当する。 In FIG. 26A, the mark sensor detection region 365 is represented by an X c -Y c plane including the position of the reference mark model 364 extracted by the reference mark extraction unit 304. This corresponds to the camera image 29 in the actual apparatus 20.

図26(A)に示すように,マークセンサ検出領域365から抽出された基準マークモデル364を中心として,テンプレート画像領域367が設定されている。図26に示すテンプレート画像領域367は,図20(B)に示すテンプレート画像27に相当する。すなわち,図26(B)に示すように,テンプレート画像領域367に,テンプレート画像27の座標系を想定すると,基準マークモデル364の位置が,テンプレート画像27の原点であると仮定できる。   As shown in FIG. 26A, a template image region 367 is set around the reference mark model 364 extracted from the mark sensor detection region 365. A template image region 367 illustrated in FIG. 26 corresponds to the template image 27 illustrated in FIG. That is, as shown in FIG. 26B, assuming the coordinate system of the template image 27 in the template image region 367, it can be assumed that the position of the reference mark model 364 is the origin of the template image 27.

シミュレーション装置30の基準マーク検出部34において,検出結果設定部308は,認識情報記憶部305に記憶された認識データ24から,基準位置,検出位置のデータを取得する。ここでは,検出結果設定部308は,図20(B)に示すテンプレート画像27の認識データ24から,基準位置(XP,YP),検出位置(XOFF,YOFF)のデータを得る。   In the reference mark detection unit 34 of the simulation apparatus 30, the detection result setting unit 308 acquires reference position and detection position data from the recognition data 24 stored in the recognition information storage unit 305. Here, the detection result setting unit 308 obtains data of the reference position (XP, YP) and the detection position (XOFF, YOFF) from the recognition data 24 of the template image 27 shown in FIG.

図26(B)に示すように,テンプレート画像領域367において,基準位置は,テンプレート画像27の原点に対して(XP,YP)の位置となる。また,図26(B)に示すように,テンプレート画像領域367において,検出位置は,基準位置に対して(XOFF,YOFF)の位置となる。検出結果設定部308は,テンプレート画像領域367において,テンプレート画像27の原点,基準位置,検出位置との関係から,基準マークモデル364の位置に対する検出位置,すなわちテンプレート画像の原点に対する検出位置を求める。   As shown in FIG. 26B, in the template image region 367, the reference position is a position (XP, YP) with respect to the origin of the template image 27. Further, as shown in FIG. 26B, in the template image region 367, the detection position is a position (XOFF, YOFF) with respect to the reference position. The detection result setting unit 308 obtains a detection position with respect to the position of the reference mark model 364, that is, a detection position with respect to the origin of the template image, from the relationship between the origin, reference position, and detection position of the template image 27 in the template image region 367.

検出結果設定部308は,図26(A)に示すように,基準マークモデル364の位置に対する検出位置の座標をマークセンサ座標系に変換し,得られた座標(TX,TY)を検出座標として,基準マーク検出結果記憶部309に記憶する検出結果データ211に設定する。なお,ここで設定される検出座標は,カメラ画像29の座標系を想定したマークセンサ座標系のXc 軸,Yc 軸からなる二次元の位置座標である。 As shown in FIG. 26A, the detection result setting unit 308 converts the coordinates of the detection position with respect to the position of the reference mark model 364 into the mark sensor coordinate system, and uses the obtained coordinates (TX, TY) as detection coordinates. , The detection result data 211 stored in the reference mark detection result storage unit 309 is set. Here, the detection coordinates to be set, X c-axis coordinate system mark sensor coordinate system that assumes the camera image 29 is a two-dimensional coordinates consisting of Y c axis.

図27は,本実施の形態のシミュレーション装置による検出角度の設定を説明する図である。   FIG. 27 is a diagram for explaining setting of the detection angle by the simulation apparatus of the present embodiment.

実装置20では,図15に示す認識データ24の回転サーチ有無(ROTFLG)が1である場合に,回転されたテンプレート画像27を用いた画像認識が行われる。このとき,実装置20では,検出結果データ211に検出角度が設定される。   In the real device 20, when the presence / absence of rotation search (ROTFLG) in the recognition data 24 shown in FIG. 15 is 1, image recognition using the rotated template image 27 is performed. At this time, in the real device 20, the detection angle is set in the detection result data 211.

シミュレーション装置30では,認識情報記憶部305に記憶された認識データ24の回転サーチ有無が1である場合に,基準マーク検出部34の検出結果設定部308が,マークセンサ座標系と基準マーク座標系との関係に基づいて,基準マークモデル364の検出角度を求める。検出結果設定部308は,得られた検出角度を,基準マーク検出結果記憶部に記憶する検出結果データ211に設定する。   In the simulation apparatus 30, when the presence / absence of rotation search of the recognition data 24 stored in the recognition information storage unit 305 is 1, the detection result setting unit 308 of the reference mark detection unit 34 performs the mark sensor coordinate system and the reference mark coordinate system. Based on this relationship, the detection angle of the reference mark model 364 is obtained. The detection result setting unit 308 sets the obtained detection angle in the detection result data 211 stored in the reference mark detection result storage unit.

本実施の形態では,上述したように,マークセンサモデル363に対してワークモデル362が正しい姿勢で設置されるときに,マークセンサ座標系のXc 軸,Yc 軸と基準マーク座標系のXm 軸,Ym 軸とがそれぞれ平行になるように,基準マーク座標系が設定される。すなわち,マークセンサ座標系のXc 軸,Yc 軸と基準マーク座標系のXm 軸,Ym 軸とが平行でなければ,基準マークモデル364が設置されたワークモデル362が,マークセンサモデル363に対して,正しい姿勢から回転した状態で設置されていることになる。 In this embodiment, as described above, when the workpiece model 362 with respect to the mark sensor model 363 is placed in the correct position, X c axes of the mark sensor coordinate system, Y c-axis and the reference mark coordinate system X The reference mark coordinate system is set so that the m axis and the Y m axis are parallel to each other. That, X c axes of the mark sensor coordinate system, Y c-axis and the reference mark coordinate system X m-axis of, if not parallel with Y m axis, workpiece model 362 reference mark model 364 is installed, the mark sensor model It is installed in a state rotated from the correct posture with respect to 363.

図27では,マークセンサ検出領域365が,基準マーク抽出部304により抽出された基準マークモデル364の位置を含むXc −Yc 平面で表されている。図27に示すマークセンサ検出領域365において,マークセンサ座標系のXc 軸,Yc 軸と,検出された基準マークモデル364に設定された基準マーク座標系のXm 軸,Ym 軸とは,時計回りにTAだけズレていることがわかる。 In FIG. 27, the mark sensor detection region 365 is represented by an X c -Y c plane including the position of the reference mark model 364 extracted by the reference mark extraction unit 304. In the mark sensor detection area 365 shown in FIG. 27, X c axes of the mark sensor coordinate system, and Y c-axis, X m-axis of the reference mark coordinate system set to the reference mark model 364 is detected, the Y m axis , You can see that the TA is shifted clockwise.

検出結果設定部308が,マークセンサ座標系と基準マーク座標系との関係が,あらかじめ定められた関係からどのくらいの角度でズレているかを求め,得られたズレの角度TAを検出角度として,検出結果データ211に設定する。   The detection result setting unit 308 determines how much the relationship between the mark sensor coordinate system and the reference mark coordinate system is deviated from a predetermined relationship, and detects the obtained misalignment angle TA as a detection angle. The result data 211 is set.

以下では,実装置20による基準マーク検出処理の流れと比較して,シミュレーション装置30の基準マーク検出部34による基準マーク検出処理の流れを説明する。   Hereinafter, the flow of the reference mark detection process performed by the reference mark detection unit 34 of the simulation apparatus 30 will be described in comparison with the flow of the reference mark detection process performed by the actual apparatus 20.

図28は,本実施の形態の実装置による基準マーク検出処理フローチャートである。   FIG. 28 is a flowchart of the reference mark detection process performed by the actual apparatus according to the present embodiment.

実装置20が制御装置10の機構制御処理部11から基準マーク検出指令を受けると(ステップS10),画像認識部22は,基準マーク検出指令に含まれるカメラ番号,テンプレート番号で指示されたカメラデータ23,認識データ24を,記憶部から取得する(ステップS11)。   When the real device 20 receives a reference mark detection command from the mechanism control processing unit 11 of the control device 10 (step S10), the image recognition unit 22 uses the camera number and template number included in the reference mark detection command. 23, the recognition data 24 is acquired from the storage unit (step S11).

実装置20は,基準マーク検出指令に含まれるカメラ番号で指示されたカメラ21を,目的とする基準マーク26を撮像するための所定の位置に移動する(ステップS12)。このときのカメラ21の移動先となる位置は,あらかじめ設定された位置である。   The actual device 20 moves the camera 21 indicated by the camera number included in the reference mark detection command to a predetermined position for imaging the target reference mark 26 (step S12). The position to which the camera 21 is moved at this time is a preset position.

実装置20は,目的とする基準マーク26を撮像するカメラ21の照明をONにする(ステップS13)。   The actual device 20 turns on the illumination of the camera 21 that captures the target reference mark 26 (step S13).

画像認識部22は,カメラ21で撮像されたカメラ画像29を取得する(ステップS14)。   The image recognition unit 22 acquires a camera image 29 captured by the camera 21 (step S14).

画像認識部22は,画像認識処理を行う(ステップS15)。具体的には,画像認識部22は,カメラ画像29上の領域と,基準マーク検出指令に含まれるテンプレート番号に応じたテンプレート画像27とのマッチング処理を行う。画像認識部22は,マッチング処理において,テンプレート画像27との相関値が最も高くかつ所定の判定閾値より大きいカメラ画像29上の領域が検出された場合に,そのカメラ画像29上の領域が目的とする基準マーク26が検出された領域であると判定する。画像認識部22は,基準マーク検出指令に含まれるテンプレート番号で指示された認識データ24に基づいて,基準マーク26が検出されたと判定されたカメラ画像29上の領域の位置から,目的とする検出位置の座標を求める。   The image recognition unit 22 performs image recognition processing (step S15). Specifically, the image recognition unit 22 performs a matching process between the region on the camera image 29 and the template image 27 corresponding to the template number included in the reference mark detection command. In the matching process, when an area on the camera image 29 having the highest correlation value with the template image 27 and greater than a predetermined determination threshold is detected in the matching process, the image recognition unit 22 sets the area on the camera image 29 as the target. It is determined that the reference mark 26 to be detected is the detected area. The image recognition unit 22 detects the target detection from the position of the area on the camera image 29 where it is determined that the reference mark 26 is detected based on the recognition data 24 indicated by the template number included in the reference mark detection command. Find the coordinates of the position.

実装置20は,得られた検出位置の座標を基準マーク検出結果として,制御装置10の機構制御処理部11に出力する(ステップS16)。また,実装置20は,カメラ21の照明をOFFにする(ステップS17)。   The actual device 20 outputs the obtained detection position coordinates as a reference mark detection result to the mechanism control processing unit 11 of the control device 10 (step S16). Further, the actual device 20 turns off the illumination of the camera 21 (step S17).

図29,図30は,本実施の形態のシミュレーション装置の基準マーク検出部による基準マーク検出処理フローチャートである。   FIG. 29 and FIG. 30 are reference mark detection processing flowcharts by the reference mark detection unit of the simulation apparatus of the present embodiment.

シミュレーション装置30の基準マーク検出部34において,基準マーク検出指令受付部301は,制御装置10の機構制御処理部11から発行された,基準マーク検出指令を受け付ける(ステップS20)。基準マーク検出部34は,受け付けられた基準マーク検出指令に含まれるカメラ番号とテンプレート番号とを取得する(ステップS21)。   In the reference mark detection unit 34 of the simulation device 30, the reference mark detection command reception unit 301 receives the reference mark detection command issued from the mechanism control processing unit 11 of the control device 10 (step S20). The reference mark detection unit 34 acquires the camera number and template number included in the received reference mark detection command (step S21).

カメラ部品移動処理部302は,三次元機構モデル360において,取得されたカメラ番号に対応するカメラモデル361を,目的とする基準マークモデル364が設置された所定の位置に移動する(ステップS22)。このときのカメラモデル361の移動先となる位置は,あらかじめ設定された位置である。   In the three-dimensional mechanism model 360, the camera component movement processing unit 302 moves the camera model 361 corresponding to the acquired camera number to a predetermined position where the target reference mark model 364 is installed (step S22). The position to which the camera model 361 is moved at this time is a preset position.

マークセンサ検出領域設定部303は,基準マーク検出指令に含まれるカメラ番号から,マークセンサ番号を取得する(ステップS23)。例えば,実装置20における該当カメラ21のカメラ番号と,三次元機構モデル360における該当マークセンサモデル363に設定されたマークセンサ番号とが,同じ番号に設定されている場合には,マークセンサ検出領域設定部303は,カメラ番号をマークセンサ番号に読み替える。また,例えば,マークセンサ検出領域設定部303は,あらかじめ用意されたカメラ番号とマークセンサ番号との対応テーブルを参照して,カメラ番号からマークセンサ番号を取得する。   The mark sensor detection area setting unit 303 acquires the mark sensor number from the camera number included in the reference mark detection command (step S23). For example, when the camera number of the corresponding camera 21 in the actual apparatus 20 and the mark sensor number set in the corresponding mark sensor model 363 in the three-dimensional mechanism model 360 are set to the same number, the mark sensor detection area The setting unit 303 replaces the camera number with the mark sensor number. For example, the mark sensor detection area setting unit 303 refers to a correspondence table of camera numbers and mark sensor numbers prepared in advance, and acquires the mark sensor number from the camera number.

ここで取得されたマークセンサ番号が属性データに設定されたマークセンサモデル363が,実装置20におけてカメラ番号に該当するカメラ21の役割を,シミュレーション装置30の三次元機構モデル360上で実現するマークセンサモデル363となる。   The mark sensor model 363 in which the acquired mark sensor number is set in the attribute data realizes the role of the camera 21 corresponding to the camera number in the real apparatus 20 on the three-dimensional mechanism model 360 of the simulation apparatus 30. The mark sensor model 363 to be used.

マークセンサ検出領域設定部303は,三次元機構モデル情報記憶部33に記憶された三次元機構モデル360のデータを参照し,マークセンサモデル363の属性データに設定された検出サイズ,検出距離,検出幅を取得する(ステップS24)。   The mark sensor detection area setting unit 303 refers to the data of the three-dimensional mechanism model 360 stored in the three-dimensional mechanism model information storage unit 33, and detects the detection size, detection distance, and detection set in the attribute data of the mark sensor model 363. The width is acquired (step S24).

マークセンサ検出領域設定部303は,取得された検出サイズ,検出距離,検出幅に基づいて,三次元機構モデル360のシミュレーション空間上に,マークセンサ検出領域365を設定する(ステップS25)。なお,認識情報記憶部305に記憶された認識データ24の範囲指定有無(AREFLG)=1である場合には,マークセンサ検出領域設定部303は,図17に示すように,マークセンサ検出領域365を減縮した基準マーク抽出範囲366を設定する。   The mark sensor detection area setting unit 303 sets the mark sensor detection area 365 on the simulation space of the three-dimensional mechanism model 360 based on the acquired detection size, detection distance, and detection width (step S25). If the range designation presence / absence (AREFLG) of the recognition data 24 stored in the recognition information storage unit 305 is 1, the mark sensor detection region setting unit 303, as shown in FIG. A reference mark extraction range 366 in which is reduced is set.

基準マーク抽出部304は,三次元機構モデル情報記憶部33に記憶された三次元機構モデル360のデータを参照し,三次元機構モデル360に設定されたすべての基準マークモデル364から,属性データに設定されたマークセンサ番号を確認する。基準マーク抽出部304は,マークセンサモデル363のマークセンサ番号と一致するマークセンサ番号が設定された基準マークモデル364を抽出する(ステップS26)。   The reference mark extraction unit 304 refers to the data of the three-dimensional mechanism model 360 stored in the three-dimensional mechanism model information storage unit 33, and converts the reference mark model 364 set in the three-dimensional mechanism model 360 into attribute data. Check the set mark sensor number. The reference mark extraction unit 304 extracts the reference mark model 364 in which the mark sensor number that matches the mark sensor number of the mark sensor model 363 is set (step S26).

基準マーク検出部34は,基準マーク検出処理による基準マークモデル364の検出数と,基準マークモデル364のカウンタiとを初期化する。すなわち,基準マーク検出部34は,検出数を0に設定し(ステップS27),iを1に設定する(ステップS28)。   The reference mark detection unit 34 initializes the number of reference mark models 364 detected by the reference mark detection process and the counter i of the reference mark model 364. That is, the reference mark detection unit 34 sets the number of detections to 0 (step S27) and sets i to 1 (step S28).

基準マーク抽出部304は,三次元機構モデル情報記憶部33の三次元機構モデル360のデータを参照し,抽出されたi番目の基準マークモデル364の座標を取得する(ステップS29)。基準マーク抽出部304は,取得された座標から,抽出されたi番目の基準マークモデル364がマークセンサ検出領域365内に存在するか否かを判定する(ステップS30)。   The reference mark extraction unit 304 refers to the data of the three-dimensional mechanism model 360 in the three-dimensional mechanism model information storage unit 33 and acquires the coordinates of the extracted i-th reference mark model 364 (step S29). The reference mark extraction unit 304 determines whether or not the extracted i-th reference mark model 364 exists in the mark sensor detection area 365 from the acquired coordinates (step S30).

抽出されたi番目の基準マークモデル364がマークセンサ検出領域365内に存在しなければ(ステップS30のNO),基準マーク検出部34は,ステップS38の処理に進む。   If the extracted i-th reference mark model 364 does not exist in the mark sensor detection area 365 (NO in step S30), the reference mark detection unit 34 proceeds to the process in step S38.

抽出されたi番目の基準マークモデル364がマークセンサ検出領域365内に存在すれば(ステップS30のYES),テンプレート画像領域判定部306は,抽出されたi番目の基準マークモデル364に対するテンプレート画像領域367を設定する(ステップS31)。具体的には,テンプレート画像領域判定部306は,認識情報記憶部305に記憶された,基準マーク検出指令に含まれるテンプレート番号を持つ認識データ24から,テンプレートサイズを取得する。テンプレート画像領域判定部306は,取得されたテンプレートサイズに基づいて,図22に示すように,基準マークモデル364の位置を中心とするテンプレート画像領域367を設定する。   If the extracted i-th reference mark model 364 exists in the mark sensor detection area 365 (YES in step S30), the template image area determination unit 306 determines the template image area for the extracted i-th reference mark model 364. 367 is set (step S31). Specifically, the template image area determination unit 306 acquires the template size from the recognition data 24 having the template number included in the reference mark detection command stored in the recognition information storage unit 305. Based on the acquired template size, the template image area determination unit 306 sets a template image area 367 centered on the position of the reference mark model 364 as shown in FIG.

テンプレート画像領域判定部306は,設定されたテンプレート画像領域367がマークセンサ検出領域365内に収まっているか否かを判定する(ステップS32)。   The template image region determination unit 306 determines whether or not the set template image region 367 is within the mark sensor detection region 365 (step S32).

設定されたテンプレート画像領域367がマークセンサ検出領域365内に収まっていなければ(ステップS32のNO),基準マーク検出部34は,ステップS38の処理に進む。   If the set template image area 367 does not fit within the mark sensor detection area 365 (NO in step S32), the reference mark detection unit 34 proceeds to the process in step S38.

設定されたテンプレート画像領域367がマークセンサ検出領域365内に収まっていれば(ステップS32のYES),相関値判定部307は,抽出されたi番目の基準マークモデル364に設定された相関値を取得する(ステップS33)。より具体的には,相関値判定部307は,三次元機構モデル情報記憶部33に記憶された三次元機構モデル360のデータを参照し,抽出されたi番目の基準マークモデル364の属性データに設定された相関値を取得する。   If the set template image region 367 is within the mark sensor detection region 365 (YES in step S32), the correlation value determination unit 307 displays the correlation value set in the extracted i-th reference mark model 364. Obtain (step S33). More specifically, the correlation value determination unit 307 refers to the data of the three-dimensional mechanism model 360 stored in the three-dimensional mechanism model information storage unit 33 and uses the extracted attribute data of the i-th reference mark model 364 as the attribute data. Get the set correlation value.

相関値判定部307は,認識情報記憶部305に記憶された,基準マーク検出指令に含まれるテンプレート番号を持つ認識データ24から判定閾値を取得し,取得された相関値が取得された判定閾値以上であるか否かを判定する(ステップS34)。   The correlation value determination unit 307 acquires a determination threshold value from the recognition data 24 stored in the recognition information storage unit 305 and having the template number included in the reference mark detection command, and the acquired correlation value is equal to or greater than the acquired determination threshold value. It is determined whether or not (step S34).

取得された相関値が取得された判定閾値以上でなければ(ステップS34のNO),すなわち取得された相関値が取得された判定閾値より小さければ,基準マーク検出部34は,ステップS38の処理に進む。   If the acquired correlation value is not equal to or greater than the acquired determination threshold value (NO in step S34), that is, if the acquired correlation value is smaller than the acquired determination threshold value, the reference mark detection unit 34 performs the process in step S38. move on.

取得された相関値が取得された判定閾値以上であれば(ステップS34のYES),基準マーク検出部34は,検出数をインクリメントする(ステップS35)。   If the acquired correlation value is equal to or greater than the acquired determination threshold (YES in step S34), the reference mark detection unit 34 increments the number of detections (step S35).

検出結果設定部308は,抽出されたi番目の基準マークモデル364の位置をテンプレート画像27の原点としたときの検出位置の座標を,マークセンサモデル363のマークセンサ座標系に変換する(ステップS36)。具体的には,検出結果設定部308は,認識情報記憶部305に記憶された,基準マーク検出指令に含まれるテンプレート番号を持つ認識データ24から,該当テンプレート画像27における基準位置,検出位置を取得する。検出結果設定部308は,取得された該当テンプレート画像27における基準位置,検出位置に基づいて,抽出されたi番目の基準マークモデル364の位置をテンプレート画像27の原点としたときの検出位置の座標を求める。検出結果設定部308は,得られた検出位置の座標を,マークセンサモデル363のマークセンサ座標系に変換する。   The detection result setting unit 308 converts the coordinates of the detected position when the position of the extracted i-th reference mark model 364 is the origin of the template image 27 into the mark sensor coordinate system of the mark sensor model 363 (step S36). ). Specifically, the detection result setting unit 308 acquires the reference position and the detection position in the corresponding template image 27 from the recognition data 24 stored in the recognition information storage unit 305 and having the template number included in the reference mark detection command. To do. The detection result setting unit 308 coordinates the detection position when the position of the extracted i-th reference mark model 364 is set as the origin of the template image 27 based on the acquired reference position and detection position in the corresponding template image 27. Ask for. The detection result setting unit 308 converts the coordinates of the obtained detection position into the mark sensor coordinate system of the mark sensor model 363.

なお,認識情報記憶部305に記憶された認識データ24の回転サーチ有無(ROTFLG)=1である場合には,検出結果設定部308は,図27に示すように,抽出されたi番目の基準マークモデル364の検出角度を求める。   When the rotation search presence / absence (ROTFLG) = 1 of the recognition data 24 stored in the recognition information storage unit 305 is 1, the detection result setting unit 308, as shown in FIG. The detection angle of the mark model 364 is obtained.

検出結果設定部308は,抽出されたi番目の基準マークモデル364の検出結果を,基準マーク検出結果記憶部309に記憶される検出結果データ211に設定する(ステップS37)。具体的には,検出結果設定部308は,検出結果データ211の検出結果番号に,検出数を設定する。また,検出結果設定部308は,検出結果データ211の検出座標に,マークセンサ座標系に変換された検出位置の座標を設定する。なお,ここで設定される検出座標は,カメラ画像29の座標系を想定したマークセンサ座標系のXc 軸,Yc 軸からなる二次元の位置座標となる。また,検出結果設定部308は,検出結果データ211の検出角度に,マークセンサ座標系と基準マーク座標系との関係から求められた検出角度を設定する。また,検出結果設定部308は,検出結果データ211の相関値に,基準マークモデル364の属性データから得られた相関値を設定する。 The detection result setting unit 308 sets the detection result of the extracted i-th reference mark model 364 in the detection result data 211 stored in the reference mark detection result storage unit 309 (step S37). Specifically, the detection result setting unit 308 sets the number of detections as the detection result number of the detection result data 211. Further, the detection result setting unit 308 sets the coordinates of the detection position converted into the mark sensor coordinate system as the detection coordinates of the detection result data 211. Here, the detection coordinates to be set, X c-axis coordinate system mark sensor coordinate system that assumes the camera image 29, the two-dimensional coordinates consisting of Y c axis. Further, the detection result setting unit 308 sets the detection angle obtained from the relationship between the mark sensor coordinate system and the reference mark coordinate system as the detection angle of the detection result data 211. Further, the detection result setting unit 308 sets the correlation value obtained from the attribute data of the reference mark model 364 as the correlation value of the detection result data 211.

基準マーク検出部34は,ステップS26で抽出されたすべての基準マークモデル364についての処理が終了したか否かを判定する(ステップS38)。   The reference mark detection unit 34 determines whether or not the processing for all the reference mark models 364 extracted in step S26 has been completed (step S38).

すべての基準マークモデル364についての処理が終了していなければ(ステップS38のNO),基準マーク検出部34は,iをインクリメントし(ステップS39),ステップS29に戻って,次の基準マークモデル364についての処理に進む。   If the processing for all the reference mark models 364 has not been completed (NO in step S38), the reference mark detection unit 34 increments i (step S39), returns to step S29, and returns to the next reference mark model 364. Proceed to the process.

すべての基準マークモデル364についての処理が終了していれば(ステップS38のYES),基準マーク検出結果出力部310は,基準マーク検出結果記憶部309に記憶された検出結果データ211を,基準マーク検出結果として,制御装置10の機構制御処理部11に出力する(ステップS40)。   If the processing for all the reference mark models 364 has been completed (YES in step S38), the reference mark detection result output unit 310 uses the detection result data 211 stored in the reference mark detection result storage unit 309 as the reference mark. The detection result is output to the mechanism control processing unit 11 of the control device 10 (step S40).

以下では,実装置20としてフリップチップボンダを想定し,三次元機構モデル360を用いたシミュレーション装置30によって,フリップチップボンダにおける基板やチップなどの部品上にある基準マーク26の検出をシミュレートする実施例の説明を行う。   In the following, it is assumed that a flip chip bonder is assumed as the actual device 20, and the detection of the reference mark 26 on a component such as a substrate or a chip in the flip chip bonder is simulated by the simulation device 30 using the three-dimensional mechanism model 360. An example will be explained.

図31は,本実施の形態によるフリップチップボンダの構成例を示す図である。   FIG. 31 is a diagram showing a configuration example of the flip chip bonder according to the present embodiment.

基板292上にチップ291を搭載するフリップチップボンダ250は,チップ供給部260,反転供給部270,チップ搭載部280を備える。なお,図31では省略されているが,フリップチップボンダ250は制御装置10に接続されており,フリップチップボンダ250は,制御装置10からの制御により,各種動作,処理を行う。   The flip chip bonder 250 for mounting the chip 291 on the substrate 292 includes a chip supply unit 260, an inversion supply unit 270, and a chip mounting unit 280. Although omitted in FIG. 31, the flip chip bonder 250 is connected to the control device 10, and the flip chip bonder 250 performs various operations and processes under the control of the control device 10.

チップ供給部260は,チップトレイ261からチップ291を供給する。チップ供給部260では,画像認識によってチップ291の外形を認識して,チップ291の中心位置や姿勢を検出するチップ外形認識が行われる。なお,チップ外形認識の処理は,検出対象が基準マーク26の代わりにチップ291自身の外形となった,基準マーク認識処理であると考えてよい。このとき,例えば,図20(B)に示すようなテンプレート画像27を用いた,チップ291の中心位置を検出する画像認識が行われる。また,チップ供給部260では,プリアライメントと呼ばれる,チップ291の姿勢の調整が行われる。   The chip supply unit 260 supplies the chips 291 from the chip tray 261. The chip supply unit 260 recognizes the outer shape of the chip 291 by image recognition, and performs chip outer shape recognition for detecting the center position and posture of the chip 291. The chip outline recognition process may be considered as a reference mark recognition process in which the detection target is the outline of the chip 291 itself instead of the reference mark 26. At this time, for example, image recognition for detecting the center position of the chip 291 is performed using a template image 27 as shown in FIG. Further, the tip supply unit 260 adjusts the posture of the tip 291 called pre-alignment.

反転供給部270は,チップ供給部260から供給されたチップ291を反転(フリップ)する。チップ291は,チップ供給部260のチップトレイ261上に,裏側が上を向いた状態で置かれている。反転供給部270は,裏側が上を向いた状態となっているチップ291を,表側が上を向いた状態に反転する。   The inversion supply unit 270 inverts (flips) the chip 291 supplied from the chip supply unit 260. The chip 291 is placed on the chip tray 261 of the chip supply unit 260 with the back side facing up. The reversal supply unit 270 reverses the chip 291 whose back side is facing upward into a state where the front side is facing upward.

チップ搭載部280は,チップ291を基板292に搭載する。チップ搭載部280では,アライメントと呼ばれる,チップ291と基板292との間の位置関係や姿勢の調整が行われる。   The chip mounting unit 280 mounts the chip 291 on the substrate 292. In the chip mounting portion 280, adjustment of the positional relationship and posture between the chip 291 and the substrate 292, which is called alignment, is performed.

図32は,本実施の形態のフリップチップボンダにおけるチップ供給部・チップ搭載部の機構の例を示す図である。   FIG. 32 is a diagram showing an example of the mechanism of the chip supply unit / chip mounting unit in the flip chip bonder of the present embodiment.

図32(A)は,チップ供給部260の機構の例を示す。チップ供給部260は,チップトレイ261,吸着ノズル262,チップ供給カメラ263,仮置き台264を備える。なお,図32(A)において,太線の矢印は,チップ供給部260の機構の可動方向を示している。   FIG. 32A shows an example of the mechanism of the chip supply unit 260. The chip supply unit 260 includes a chip tray 261, a suction nozzle 262, a chip supply camera 263, and a temporary placement table 264. In FIG. 32A, the thick arrow indicates the movable direction of the mechanism of the chip supply unit 260.

チップ供給部260は,チップトレイ261上の目的とするチップ291に,チップ供給カメラ263を位置決めする。チップ供給部260は,チップ供給カメラ263での撮像により得られたカメラ画像29とテンプレート画像27とを用いた画像認識によりチップ291の外形認識を行う。チップ供給部260では,チップ291の外形認識の結果として,チップ291の中心位置と,傾きの角度が得られる。なお,認識エラーが発生した場合,すなわちチップ291の外形認識に失敗した場合には,チップトレイ261上の該当位置にチップなしと判定され,次のチップ291に,チップ供給カメラ263が位置決めされる。   The chip supply unit 260 positions the chip supply camera 263 on the target chip 291 on the chip tray 261. The chip supply unit 260 recognizes the outer shape of the chip 291 by image recognition using the camera image 29 and the template image 27 obtained by imaging with the chip supply camera 263. In the chip supply unit 260, the center position of the chip 291 and the angle of inclination are obtained as a result of the outer shape recognition of the chip 291. When a recognition error occurs, that is, when the outer shape recognition of the chip 291 fails, it is determined that there is no chip at the corresponding position on the chip tray 261, and the chip supply camera 263 is positioned on the next chip 291. .

チップ供給部260は,チップ291の外形認識の結果に基づいて,目的とするチップ291の中心位置に吸着ノズル262を位置決めし,吸着ノズル262によりチップ291をピックアップする。チップ供給部260は,チップ291の外形認識の結果に基づいて,吸着ノズル262を回転させてチップ291の傾きを補正するプリアライメントを行い,チップ291を仮置き台264に設置する。   The chip supply unit 260 positions the suction nozzle 262 at the center position of the target chip 291 based on the result of the outer shape recognition of the chip 291, and picks up the chip 291 by the suction nozzle 262. The chip supply unit 260 performs pre-alignment for rotating the suction nozzle 262 to correct the inclination of the chip 291 based on the result of the outer shape recognition of the chip 291, and places the chip 291 on the temporary placement table 264.

図32(B)は,チップ搭載部280の機構の例を示す。チップ搭載部280は,アライメントカメラ281,カメラステージ282,上下2視野光学系部283,ヘッド284,アライメントステージ285を備える。なお,図32(B)において,太線の矢印は,チップ搭載部280の機構の可動方向を示している。   FIG. 32B shows an example of the mechanism of the chip mounting portion 280. The chip mounting unit 280 includes an alignment camera 281, a camera stage 282, upper and lower two-field optical system units 283, a head 284, and an alignment stage 285. In FIG. 32B, a thick arrow indicates the movable direction of the mechanism of the chip mounting portion 280.

チップ搭載部280において,カメラステージ282上のアライメントカメラ281の先に取り付けられた上下2視野光学系部283は,プリズムとミラーとを用いた仕組みによって,上下2視野の光景をアライメントカメラ281に送る。すなわち,アライメントカメラ281は,上下2視野光学系部283によって,ヘッド284に付いたチップ291側の上視野の画像と,アライメントステージ285上に置かれた基板292側の下視野画像とを,1台で撮像できる。   In the chip mounting unit 280, the upper and lower two-field optical system unit 283 attached to the tip of the alignment camera 281 on the camera stage 282 sends a view of the upper and lower two fields of view to the alignment camera 281 by a mechanism using a prism and a mirror. . That is, the alignment camera 281 uses the upper and lower two-field optical system unit 283 to convert the upper-field image on the chip 291 side attached to the head 284 and the lower-field image on the substrate 292 placed on the alignment stage 285 to 1 Can be imaged on a table.

チップ搭載部280は,上下2視野光学系部283を介したアライメントカメラ281の撮像により,ヘッド284に付いたチップ291の画像と,アライメントステージ285上に置かれた基盤292のチップ291を搭載する部分の画像とを取得する。チップ搭載部280は,得られたチップ291の画像と,基板292の画像とのそれぞれに対して画像認識による基準マーク26の検出を行う。   The chip mounting unit 280 mounts the image of the chip 291 attached to the head 284 and the chip 291 of the base 292 placed on the alignment stage 285 by imaging with the alignment camera 281 via the upper and lower two-field optical system unit 283. Get a partial image. The chip mounting unit 280 detects the reference mark 26 by image recognition for each of the obtained image of the chip 291 and the image of the substrate 292.

ここでは,チップ291の画像と基盤292のチップ291を搭載する部分の画像とから,それぞれ2つずつ基準マーク26が検出される。チップ搭載部280は,基準マーク26の検出結果として,チップ291上の2つの基準マーク26の位置と,基板292上の2つの基準マーク26の位置とを取得する。それぞれ得られた2つずつの基準マーク26の位置から,チップ291の中心位置と傾き,基盤292のチップ291を搭載する部分の中心位置と傾きを求めることができる。   Here, two reference marks 26 are detected from each of the image of the chip 291 and the image of the part on which the chip 291 of the base 292 is mounted. The chip mounting unit 280 acquires the positions of the two reference marks 26 on the chip 291 and the positions of the two reference marks 26 on the substrate 292 as detection results of the reference marks 26. From the obtained positions of the two reference marks 26, the center position and inclination of the chip 291 and the center position and inclination of the portion of the base 292 where the chip 291 is mounted can be obtained.

チップ搭載部280は,アライメントを行う。すなわち,チップ搭載部280は,アライメントステージ285を動作し,チップ291と傾きが同じになるように基板292を回転させる。また,チップ搭載部280は,アライメントステージ285を動作し,チップ291の中心位置と基盤292のチップ291を搭載する部分の中心位置とを合わせるように,基板292を移動する。   The chip mounting unit 280 performs alignment. That is, the chip mounting unit 280 operates the alignment stage 285 to rotate the substrate 292 so that the inclination is the same as that of the chip 291. The chip mounting unit 280 moves the substrate 292 so that the alignment stage 285 operates to align the center position of the chip 291 with the center position of the portion of the base 292 where the chip 291 is mounted.

このようにチップ291の位置や傾きと基板292の位置や傾きとの関係が調整されたところで,チップ搭載部280は,基盤292へのチップ291の搭載を行う。   As described above, when the relationship between the position and inclination of the chip 291 and the position and inclination of the substrate 292 is adjusted, the chip mounting unit 280 mounts the chip 291 on the base 292.

図33は,本実施の形態によるフリップチップボンダの三次元機構モデルへのマークセンサモデルの設置例を示す図である。   FIG. 33 is a diagram showing an installation example of the mark sensor model on the three-dimensional mechanism model of the flip chip bonder according to the present embodiment.

フリップチップボンダ250を制御するプログラムにおけるアライメントアルゴリズムや搭載データの検証が行われるときには,シミュレーション装置30で用いるフリップチップボンダ250の三次元機構モデル360に対して,マークセンサモデル363が設置される。   When the alignment algorithm and the mounted data in the program for controlling the flip chip bonder 250 are verified, the mark sensor model 363 is installed for the three-dimensional mechanism model 360 of the flip chip bonder 250 used in the simulation apparatus 30.

上述のように,フリップチップボンダ250では,チップ供給部260とチップ搭載部280との2箇所で,画像認識による位置の取得が行われる。   As described above, in the flip chip bonder 250, the position is acquired by image recognition at the two locations of the chip supply unit 260 and the chip mounting unit 280.

図33において,チップ供給カメラモデル361aは,図32(A)に示す実装置20のチップ供給部260におけるチップ供給カメラ263をモデル化したものである。チップ供給カメラモデル361aには,実装置20におけるチップ供給カメラ263の撮像方向に合わせて,マークセンサモデル363aが設置される。マークセンサモデル363aには,Xc1軸,Yc1軸,Zc1軸からなるマークセンサ座標系が設定される。 33, the chip supply camera model 361a is obtained by modeling the chip supply camera 263 in the chip supply unit 260 of the real device 20 shown in FIG. In the chip supply camera model 361a, a mark sensor model 363a is installed in accordance with the imaging direction of the chip supply camera 263 in the actual device 20. The mark sensor model 363a, X c1 axis, Y c1 axis, the mark sensor coordinate system consisting of Z c1 axis is set.

図33において,上下2視野光学系部モデル361bは,図32(A)に示す実装置20のチップ搭載部280における上下2視野光学系部283をモデル化したものである。上述したように,チップ搭載部280では,上下2視野光学系部283を介してアライメントカメラ281で撮像を行うことにより,上下2方向の画像が1台のカメラ21で撮像される。このことは,実質的に,上下2視野光学系部283の部分に,上視野を撮像するカメラ21と下視野を撮像するカメラ21とが別々に配置されていることと同じである。そのため,三次元機構モデル360では,上下2視野光学系部モデル361bに対して,2つのマークセンサモデル363が設置される。   In FIG. 33, an upper / lower two-field optical system part model 361b models the upper / lower two-field optical system part 283 in the chip mounting part 280 of the actual device 20 shown in FIG. As described above, in the chip mounting unit 280, images are taken by the alignment camera 281 via the upper and lower two-field optical system units 283, so that images in the upper and lower directions are taken by the single camera 21. This is substantially the same as that the camera 21 for imaging the upper visual field and the camera 21 for imaging the lower visual field are separately disposed in the upper and lower two-field optical system unit 283. Therefore, in the three-dimensional mechanism model 360, two mark sensor models 363 are installed with respect to the upper and lower two-field optical system model 361b.

上下2視野光学系部モデル361bには,実装置20における上下2視野光学系部283の下視野方向に合わせて,マークセンサモデル363bが設置される。マークセンサモデル363bには,Xc2軸,Yc2軸,Zc2軸からなるマークセンサ座標系が設定される。また,上下2視野光学系部モデル361bには,実装置20における上下2視野光学系部283の上視野方向に合わせて,マークセンサモデル363cが設置される。マークセンサモデル363cには,Xc3軸,Yc3軸,Zc3軸からなるマークセンサ座標系が設定される。 A mark sensor model 363b is installed in the upper and lower two-field optical system part model 361b in accordance with the lower visual field direction of the upper and lower two-field optical system part 283 in the actual apparatus 20. The mark sensor model 363 b, X c2 axis, Y c2 axis, the mark sensor coordinate system consisting of Z c2 axis is set. In addition, a mark sensor model 363c is installed in the upper and lower two-field optical system part model 361b in accordance with the upper field direction of the upper and lower two-field optical system part 283 in the actual apparatus 20. The mark sensor model 363 c, X c3 axis, Y c3 axis, the mark sensor coordinate system consisting of Z c3 axis is set.

図34は,本実施の形態によるフリップチップボンダの三次元機構モデルへの基準マークモデルの設置例を示す図である。   FIG. 34 is a diagram showing an installation example of the reference mark model on the three-dimensional mechanism model of the flip chip bonder according to the present embodiment.

図34において,チップモデル362aは,実装置20のフリップチップボンダ250におけるワーク25であるチップ291をモデル化したワークモデル362である。また,基板モデル362bは,実装置20のフリップチップボンダ250におけるワーク25である基板292をモデル化したワークモデル362である。   In FIG. 34, a chip model 362a is a work model 362 obtained by modeling a chip 291 that is the work 25 in the flip chip bonder 250 of the actual apparatus 20. The board model 362 b is a work model 362 that models the board 292 that is the work 25 in the flip chip bonder 250 of the actual apparatus 20.

図34に示すように,チップモデル362aには,基準マークモデル364aと,2つの基準マークモデル364cとが設置されている。なお,基準マークモデル364aと基準マークモデル364cは,実ワーク25であるチップ291の裏面に相当する,チップモデル362aの面に設置されている。また,図34に示すように,基板モデル362bには,シミュレーションにおいてチップモデル362を搭載する位置ごとに,2つずつの基準マークモデル364bが設置されている。設置された基準マークモデル364には,基準マーク座標系が設定される。   As shown in FIG. 34, the chip model 362a is provided with a reference mark model 364a and two reference mark models 364c. The reference mark model 364a and the reference mark model 364c are installed on the surface of the chip model 362a corresponding to the back surface of the chip 291 that is the actual workpiece 25. As shown in FIG. 34, two reference mark models 364b are installed in the substrate model 362b for each position where the chip model 362 is mounted in the simulation. A reference mark coordinate system is set for the installed reference mark model 364.

なお,基準マークモデル364aには,図33に示すマークセンサモデル363aに設定されたマークセンサ番号と同じマークセンサ番号が設定されている。また,基準マークモデル364bには,図33に示すマークセンサモデル363bに設定されたマークセンサ番号と同じマークセンサ番号が設定されている。また,基準マークモデル364cには,図33に示すマークセンサモデル363cに設定されたマークセンサ番号と同じマークセンサ番号が設定されている。   In the reference mark model 364a, the same mark sensor number as the mark sensor number set in the mark sensor model 363a shown in FIG. 33 is set. In the reference mark model 364b, the same mark sensor number as the mark sensor number set in the mark sensor model 363b shown in FIG. 33 is set. In the reference mark model 364c, the same mark sensor number as the mark sensor number set in the mark sensor model 363c shown in FIG. 33 is set.

本実施の形態では,フリップチップボンダ250のチップ供給部260におけるチップ外形認識で,検出対象であるチップ291の角の部分を基準位置とする,図20(B)に示すようなテンプレート画像27を用いた画像認識が行われる。すなわち,図20(B)に示すテンプレート画像27において,検出対象が基準マーク26の代わりにチップ291自身であるものとする。なお,検出位置は,チップ291の中心位置である。   In the present embodiment, a template image 27 as shown in FIG. 20B is used in which the corner portion of the chip 291 to be detected is used as a reference position in the chip outer shape recognition in the chip supply unit 260 of the flip chip bonder 250. The used image recognition is performed. That is, in the template image 27 shown in FIG. 20B, the detection target is the chip 291 itself instead of the reference mark 26. The detection position is the center position of the chip 291.

基準マークモデル364aは,フリップチップボンダ250のチップ供給部260におけるチップ外形認識の処理をシミュレーション装置30でシミュレートすることを想定して,チップモデル362a上に設置される。図34に示すように,基準マークモデル364aは,チップ291の左上角が写っているテンプレート画像27の原点に相当する位置に設置される。   The reference mark model 364a is installed on the chip model 362a assuming that the simulation of the chip external shape recognition process in the chip supply unit 260 of the flip chip bonder 250 is simulated. As shown in FIG. 34, the reference mark model 364a is installed at a position corresponding to the origin of the template image 27 in which the upper left corner of the chip 291 is shown.

シミュレーション装置30による,実装置20のチップ供給部260におけるチップ外形認識のシミュレートでは,図33に示すマークセンサモデル363aの属性データから設定されるマークセンサ検出領域365からの基準マークモデル364aの抽出が行われる。シミュレーション装置30では,チップ外形認識のシミュレートによって,チップモデル362aの中心位置が検出される。なお,設定されたマークセンサ番号が異なるので,マークセンサモデル363aの属性データから設定されるマークセンサ検出領域365から,基準マークモデル364cは抽出されない。   In the simulation of chip outline recognition in the chip supply unit 260 of the actual apparatus 20 by the simulation apparatus 30, the reference mark model 364a is extracted from the mark sensor detection area 365 set from the attribute data of the mark sensor model 363a shown in FIG. Is done. In the simulation apparatus 30, the center position of the chip model 362a is detected by simulating chip outer shape recognition. Since the set mark sensor numbers are different, the reference mark model 364c is not extracted from the mark sensor detection area 365 set from the attribute data of the mark sensor model 363a.

また,その後のプリアライメントのシミュレートのために,マークセンサモデル363aのマークセンサ座標系と基準マークモデル364aの基準マーク座標系との関係から,基準マークモデル364aの検出角度,すなわちチップモデル362aの傾きが検出される。   In order to simulate the pre-alignment thereafter, the detection angle of the reference mark model 364a, that is, the chip model 362a of the chip model 362a is determined from the relationship between the mark sensor coordinate system of the mark sensor model 363a and the reference mark coordinate system of the reference mark model 364a. Tilt is detected.

本実施の形態では,フリップチップボンダ250のチップ搭載部280におけるアライメントのための基準マーク26の検出で,図19に示すような十字型の基準マーク26のテンプレート画像27を用いた画像認識が行われる。   In the present embodiment, image recognition using the template image 27 of the cross-shaped reference mark 26 as shown in FIG. 19 is performed by detecting the reference mark 26 for alignment in the chip mounting portion 280 of the flip chip bonder 250. Is called.

基準マークモデル364bは,フリップチップボンダ250のチップ搭載部280における基準マーク26の検出処理をシミュレーション装置30でシミュレートすることを想定して,基板モデル362b上に設置される。基準マークモデル364bは,基準マーク26が写っているテンプレート画像27の原点に相当する位置に設置される。   The reference mark model 364b is installed on the substrate model 362b on the assumption that the simulation apparatus 30 simulates the detection process of the reference mark 26 in the chip mounting portion 280 of the flip chip bonder 250. The reference mark model 364b is installed at a position corresponding to the origin of the template image 27 in which the reference mark 26 is shown.

また,基準マークモデル364cは,フリップチップボンダ250のチップ搭載部280における基準マーク26の検出処理をシミュレーション装置30でシミュレートすることを想定して,チップモデル362a上に設置される。基準マークモデル364cは,基準マーク26が写っているテンプレート画像27の原点に相当する位置に設置される。   The reference mark model 364c is installed on the chip model 362a on the assumption that the simulation process 30 simulates the detection process of the reference mark 26 in the chip mounting portion 280 of the flip chip bonder 250. The reference mark model 364c is installed at a position corresponding to the origin of the template image 27 in which the reference mark 26 is shown.

シミュレーション装置30による,実装置20のチップ搭載部280における基準マーク26検出のシミュレートでは,図33に示すマークセンサモデル363bの属性データから設定されるマークセンサ検出領域365からの基準マークモデル364bの抽出が行われる。シミュレーション装置30では,基準マーク26検出のシミュレートによって,基板モデル362b上のチップモデル362aを搭載する部分の外側に配置された基準マーク364bの中心位置が検出される。   In the simulation of the reference mark 26 detection in the chip mounting unit 280 of the actual device 20 by the simulation device 30, the reference mark model 364b from the mark sensor detection region 365 set from the attribute data of the mark sensor model 363b shown in FIG. Extraction is performed. In the simulation apparatus 30, the center position of the reference mark 364b disposed outside the portion on which the chip model 362a is mounted on the substrate model 362b is detected by simulating the reference mark 26 detection.

また,シミュレーション装置30による,実装置20のチップ搭載部280における基準マーク26検出のシミュレートでは,図33に示すマークセンサモデル363cの属性データから設定されるマークセンサ検出領域365からの基準マークモデル364cの抽出が行われる。シミュレーション装置30では,基準マーク26検出のシミュレートによって,チップモデル362aの角部分に配置された基準マーク364cの中心位置が検出される。   In the simulation of the reference mark 26 detection in the chip mounting unit 280 of the actual device 20 by the simulation device 30, the reference mark model from the mark sensor detection region 365 set from the attribute data of the mark sensor model 363c shown in FIG. Extraction of 364c is performed. In the simulation apparatus 30, the center position of the reference mark 364c arranged at the corner portion of the chip model 362a is detected by simulating the detection of the reference mark 26.

以上説明した本実施の形態のシミュレーション装置30による処理は,コンピュータが備えるCPU,メモリ等のハードウェアとソフトウェアプログラムとにより実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。   The processing by the simulation device 30 of the present embodiment described above can be realized by hardware such as CPU and memory provided in the computer and a software program, and the program can be recorded on a computer-readable recording medium. It can also be provided through a network.

以上,本実施の形態について説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。   Although the present embodiment has been described above, the present invention can naturally be modified in various ways within the scope of the gist thereof.

例えば,本実施の形態では,主にフリップチップボンダ等の部品搭載装置における基準マーク26の位置検出を,三次元機構モデルを用いてシミュレートするシミュレーション装置30について説明したが,本発明はこのような本実施の形態に限られるものではない。例えば,テンプレート画像27を用いた画像認識により目的とする対象の位置検出を行う実装置20のシミュレートであれば,本実施の形態で説明したシミュレーション装置30の技術が,十分に適用可能である。   For example, in the present embodiment, the simulation apparatus 30 for simulating the detection of the position of the reference mark 26 in a component mounting apparatus such as a flip chip bonder using a three-dimensional mechanism model has been described. However, the present embodiment is not limited to this embodiment. For example, if the simulation of the real apparatus 20 that detects the position of the target object by image recognition using the template image 27, the technique of the simulation apparatus 30 described in the present embodiment is sufficiently applicable. .

また,必ずしもワーク25やワーク25上の基準マーク26が検出対象である必要はない。例えば,検出対象が,実装置20自身の一部であってもよい。   Further, the workpiece 25 and the reference mark 26 on the workpiece 25 do not necessarily have to be detected. For example, the detection target may be a part of the actual device 20 itself.

10 制御装置
11 機構制御処理部
12 モータ制御部
13 アライメント制御部
20 実装置
21 カメラ
22 画像認識部
23 カメラデータ
24 認識データ
25 ワーク
30 シミュレーション装置
31 入出力処理部
32 三次元機構シミュレーション部
33 三次元機構モデル情報記憶部
34 基準マーク検出部
35 表示装置
301 基準マーク検出指令受付部
302 カメラ部品移動処理部
303 マークセンサ検出領域設定部
304 基準マーク抽出部
305 認識情報記憶部
306 テンプレート画像領域判定部
307 相関値判定部
308 検出結果設定部
309 基準マーク検出結果記憶部
310 基準マーク検出結果出力部
DESCRIPTION OF SYMBOLS 10 Control apparatus 11 Mechanism control processing part 12 Motor control part 13 Alignment control part 20 Real apparatus 21 Camera 22 Image recognition part 23 Camera data 24 Recognition data 25 Work 30 Simulation apparatus 31 Input / output processing part 32 3D mechanism simulation part 33 3D Mechanism model information storage unit 34 Reference mark detection unit 35 Display device 301 Reference mark detection command reception unit 302 Camera part movement processing unit 303 Mark sensor detection region setting unit 304 Reference mark extraction unit 305 Recognition information storage unit 306 Template image region determination unit 307 Correlation value determination unit 308 Detection result setting unit 309 Reference mark detection result storage unit 310 Reference mark detection result output unit

Claims (6)

画像認識のシミュレーションに用いるイメージセンサモデルと,画像認識のシミュレーションで検出する認識対象モデルとを含む三次元モデルのデータを記憶する三次元モデル情報記憶部と,
シミュレーション空間上に,前記イメージセンサモデルによって決定されるイメージセンサ検出領域を設定する検出領域設定部と,
前記三次元モデル情報記憶部から,前記イメージセンサ検出領域内に存在する認識対象モデルを抽出する認識対象抽出部と,
前記抽出された認識対象モデルの位置に基づいて,シミュレーションが対象とする画像認識の目的である検出位置を求め,得られた検出位置を検出結果に設定する検出結果設定部とを備える
ことを特徴とするシミュレーション装置。
A three-dimensional model information storage unit for storing data of a three-dimensional model including an image sensor model used for image recognition simulation and a recognition target model detected by the image recognition simulation;
A detection area setting unit for setting an image sensor detection area determined by the image sensor model on a simulation space;
A recognition target extraction unit for extracting a recognition target model existing in the image sensor detection region from the three-dimensional model information storage unit;
A detection result setting unit that obtains a detection position that is an object of image recognition targeted by the simulation based on the position of the extracted recognition target model and sets the obtained detection position as a detection result; A simulation device.
前記画像認識で用いられるテンプレート画像に関するデータを記憶する認識情報記憶部と,
前記テンプレート画像に関するデータに基づいて,前記抽出された認識対象モデルの位置に応じたテンプレート画像の領域を設定し,設定されたテンプレート画像の領域が前記イメージセンサ検出領域内であるか否かを判定するテンプレート画像領域判定部とをさらに備え,
前記検出結果設定部は,前記設定されたテンプレート画像の領域が前記イメージセンサ検出領域内であると判定された場合に,前記抽出された認識対象モデルの位置に基づいて,シミュレーションが対象とする画像認識の目的である検出位置を求め,得られた検出位置を検出結果に設定する
ことを特徴とする請求項1に記載のシミュレーション装置。
A recognition information storage unit for storing data relating to a template image used in the image recognition;
Based on the data related to the template image, a template image area is set according to the position of the extracted recognition target model, and it is determined whether or not the set template image area is within the image sensor detection area. A template image area determination unit for performing
The detection result setting unit, when it is determined that the set template image area is within the image sensor detection area, based on the position of the extracted recognition target model, The simulation apparatus according to claim 1, wherein a detection position which is a purpose of recognition is obtained, and the obtained detection position is set as a detection result.
前記検出結果設定部は,さらに,前記イメージセンサモデルの座標系と前記抽出された認識対象モデルの座標系との関係から,前記抽出された認識対象モデルの検出角度を求め,得られた検出角度を検出結果に設定する
ことを特徴とする請求項1または請求項2に記載のシミュレーション装置。
The detection result setting unit further obtains a detection angle of the extracted recognition target model from a relationship between a coordinate system of the image sensor model and a coordinate system of the extracted recognition target model, and obtains the detected angle The simulation apparatus according to claim 1, wherein: is set as a detection result.
前記抽出された認識対象モデルに設定された相関値を取得し,その取得された相関値が所定の閾値以上であるか否かを判定する相関値判定部をさらに備え,
前記検出結果設定部は,前記抽出された認識対象モデルのデータに設定された相関値が所定の閾値以上であると判定された場合に,前記抽出された認識対象モデルの位置に基づいて,シミュレーションが対象とする画像認識の目的である検出位置を求め,得られた検出位置を検出結果に設定する
ことを特徴とする請求項1から請求項3までのいずれかに記載のシミュレーション装置。
A correlation value determining unit that acquires a correlation value set in the extracted recognition target model and determines whether the acquired correlation value is equal to or greater than a predetermined threshold;
The detection result setting unit performs simulation based on the position of the extracted recognition target model when it is determined that the correlation value set in the extracted recognition target model data is equal to or greater than a predetermined threshold. The simulation apparatus according to any one of claims 1 to 3, wherein a detection position, which is an object of image recognition, is obtained, and the obtained detection position is set as a detection result.
三次元モデルのデータが記憶された記憶装置にアクセス可能なコンピュータによるシミュレーション方法であって,
前記コンピュータが,
前記記憶装置に記憶された三次元モデルに含まれるイメージセンサモデルによって決定されるイメージセンサ検出領域を,シミュレーション空間上に設定する過程と,
前記記憶装置に記憶された前記三次元モデルに含まれる認識対象モデルを,前記イメージセンサ検出領域から抽出する過程と,
前記抽出された認識対象モデルの位置に基づいて,シミュレーションが対象とする画像認識の目的である検出位置を求め,得られた検出位置を検出結果に設定する過程とを実行する
ことを特徴とするシミュレーション方法。
A computer simulation method capable of accessing a storage device storing data of a three-dimensional model,
The computer is
Setting an image sensor detection region determined by an image sensor model included in a three-dimensional model stored in the storage device on a simulation space;
Extracting a recognition target model included in the three-dimensional model stored in the storage device from the image sensor detection region;
And performing a process of obtaining a detection position which is a purpose of image recognition targeted by the simulation based on the extracted position of the recognition target model and setting the obtained detection position as a detection result. Simulation method.
三次元モデルのデータが記憶された記憶装置にアクセス可能なコンピュータに実行させるためのプログラムであって,
前記コンピュータに,
前記記憶装置に記憶された三次元モデルに含まれるイメージセンサモデルによって決定されるイメージセンサ検出領域を,シミュレーション空間上に設定する手順と,
前記記憶装置に記憶された前記三次元モデルに含まれる認識対象モデルを,前記イメージセンサ検出領域から抽出する手順と,
前記抽出された認識対象モデルの位置に基づいて,シミュレーションが対象とする画像認識の目的である検出位置を求め,得られた検出位置を検出結果に設定する手順とを
実行させるためのシミュレーションプログラム。
A program for causing a computer accessible to a storage device in which data of a three-dimensional model is stored,
In the computer,
A procedure for setting an image sensor detection area determined by an image sensor model included in a three-dimensional model stored in the storage device on a simulation space;
Extracting a recognition target model included in the three-dimensional model stored in the storage device from the image sensor detection area;
A simulation program for executing a procedure for obtaining a detection position, which is a purpose of image recognition targeted by simulation, based on the extracted position of the recognition target model and setting the obtained detection position as a detection result.
JP2009215226A 2009-09-17 2009-09-17 Simulation device, simulation method, and simulation program Expired - Fee Related JP5365443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009215226A JP5365443B2 (en) 2009-09-17 2009-09-17 Simulation device, simulation method, and simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009215226A JP5365443B2 (en) 2009-09-17 2009-09-17 Simulation device, simulation method, and simulation program

Publications (2)

Publication Number Publication Date
JP2011065399A true JP2011065399A (en) 2011-03-31
JP5365443B2 JP5365443B2 (en) 2013-12-11

Family

ID=43951577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009215226A Expired - Fee Related JP5365443B2 (en) 2009-09-17 2009-09-17 Simulation device, simulation method, and simulation program

Country Status (1)

Country Link
JP (1) JP5365443B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013094961A (en) * 2011-11-04 2013-05-20 Fanuc Robotics America Corp Robot teach device with 3-d display
JP2014045109A (en) * 2012-08-28 2014-03-13 Yamaha Motor Co Ltd Bump recognition method of electronic component
JP2016157764A (en) * 2015-02-24 2016-09-01 三菱電機株式会社 Printed wiring board work support method and printed wiring board work support system
JPWO2015194043A1 (en) * 2014-06-20 2017-04-20 株式会社牧野フライス製作所 Machine tool controller
WO2023007621A1 (en) * 2021-07-28 2023-02-02 ファナック株式会社 Simulation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241857A (en) * 2006-03-10 2007-09-20 Fanuc Ltd Device for robot simulation, program, storage medium, and method
JP2009080514A (en) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp Sensor arrangement design support system
JP2009170516A (en) * 2008-01-11 2009-07-30 Yamaha Motor Co Ltd Surface mounting machine, and electronic component mounting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241857A (en) * 2006-03-10 2007-09-20 Fanuc Ltd Device for robot simulation, program, storage medium, and method
JP2009080514A (en) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp Sensor arrangement design support system
JP2009170516A (en) * 2008-01-11 2009-07-30 Yamaha Motor Co Ltd Surface mounting machine, and electronic component mounting method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013094961A (en) * 2011-11-04 2013-05-20 Fanuc Robotics America Corp Robot teach device with 3-d display
US9415509B2 (en) 2011-11-04 2016-08-16 Fanuc America Corporation Robot teach device with 3-D display
JP2014045109A (en) * 2012-08-28 2014-03-13 Yamaha Motor Co Ltd Bump recognition method of electronic component
JPWO2015194043A1 (en) * 2014-06-20 2017-04-20 株式会社牧野フライス製作所 Machine tool controller
US10324451B2 (en) 2014-06-20 2019-06-18 Makino Milling Machine Co., Ltd. Control device for machine tool
JP2016157764A (en) * 2015-02-24 2016-09-01 三菱電機株式会社 Printed wiring board work support method and printed wiring board work support system
WO2023007621A1 (en) * 2021-07-28 2023-02-02 ファナック株式会社 Simulation device

Also Published As

Publication number Publication date
JP5365443B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
US11544874B2 (en) System and method for calibration of machine vision cameras along at least three discrete planes
US8559704B2 (en) Three-dimensional vision sensor
US10279473B2 (en) Image processing device, image processing method, and computer program
TWI670153B (en) Robot and robot system
JP6427972B2 (en) Robot, robot system and control device
JP5365443B2 (en) Simulation device, simulation method, and simulation program
JP4885867B2 (en) POSITION INFORMATION DETECTING DEVICE, POSITION INFORMATION DETECTING METHOD, AND POSITION INFORMATION DETECTING PROGRAM
JP2016167229A (en) Coordinate transformation parameter determination device, coordinate transformation parameter determination method, and computer program for coordinate transformation parameter determination
JP5111447B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
US12002240B2 (en) Vision system for a robotic machine
US20220092330A1 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP2017146938A (en) Book detection device, book detection method, and computer program for book detection
CN109715307A (en) Bending machine with workspace image capture device and the method for indicating workspace
JP2007309808A (en) Method and system for detecting position of object
JP2020180914A (en) Device, method, and program for detecting position attitude of object
TWI290613B (en) Position detecting method and position detecting device and position detecting system
JP2018194542A (en) Image processing system, image processing apparatus, and image processing program
JP7331527B2 (en) Apparatus, method and program for determining robot motion
KR101535801B1 (en) Process inspection device, method and system for assembling process in product manufacturing using depth map sensors
JP4908523B2 (en) POSITION INFORMATION DETECTING DEVICE, POSITION INFORMATION DETECTING METHOD, AND POSITION INFORMATION DETECTING PROGRAM
CN115153855B (en) Positioning and aligning method and device for micro mechanical arm and electronic equipment
JP2021024052A (en) Image processing device, image processing method and program
JPH0545117A (en) Optical method for measuring three-dimensional position
CN114295331A (en) Multi-camera module optical axis testing method, device, equipment and medium
JP4741943B2 (en) Inspection apparatus and inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130826

R150 Certificate of patent or registration of utility model

Ref document number: 5365443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees