JP2015232464A - Calibration device, calibration method, and calibration program - Google Patents

Calibration device, calibration method, and calibration program Download PDF

Info

Publication number
JP2015232464A
JP2015232464A JP2014118902A JP2014118902A JP2015232464A JP 2015232464 A JP2015232464 A JP 2015232464A JP 2014118902 A JP2014118902 A JP 2014118902A JP 2014118902 A JP2014118902 A JP 2014118902A JP 2015232464 A JP2015232464 A JP 2015232464A
Authority
JP
Japan
Prior art keywords
target
calibration
mark
design data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014118902A
Other languages
Japanese (ja)
Inventor
高橋 文之
Fumiyuki Takahashi
文之 高橋
哲男 肥塚
Tetsuo Hizuka
哲男 肥塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014118902A priority Critical patent/JP2015232464A/en
Publication of JP2015232464A publication Critical patent/JP2015232464A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a calibration device capable of calibrating design data with respect to parts or the like outside a camera visual field range, a calibration method and a calibration program.SOLUTION: The calibration device includes a first target 70 which is arranged in the visual field range of an imaging apparatus 10, according to the design data and has a mirror surface, a second target 80 which is arranged outside the visual field range of the imaging apparatus, according to the design data and captured by the imaging apparatus through the mirror surface, an estimation part 54 which estimates information relating to the second target on the basis of an image obtained by the imaging apparatus, and a calibration part 62 which calibrates the design data on the basis of the information estimated by the estimation part.

Description

本件は、校正装置、校正方法および校正プログラムに関する。   The present case relates to a calibration apparatus, a calibration method, and a calibration program.

近年、ものづくり分野におけるデジタル化が進み、設計データをデザインや設計工程のみならず試作、製造、販売・サービス等の工程にも活用し、PLM(Product Life cycle Management)全体の効率化、省力化等を図る動きが進んでいる。例えば、設計データに従って検査装置や組み立て装置の仮想装置をPC上で生成して現実装置のティーチング作業をオフラインで行い、現実装置の動作をシミュレーションすることで、現実装置の運用効率化などを行うことができる。   In recent years, digitization in the manufacturing field has progressed, and design data can be used not only for design and design processes, but also for processes such as prototyping, manufacturing, sales, and services, to improve the efficiency and labor savings of the entire PLM (Product Life cycle Management). The movement to plan is progressing. For example, a virtual device of an inspection device or an assembly device is generated on a PC according to design data, the teaching operation of the real device is performed offline, and the operation of the real device is simulated, thereby improving the operational efficiency of the real device Can do.

仮想装置を用いて現実装置のオフラインティーチングや動作シミュレーションを行う際に、仮想装置と現実装置との差異を少なくすることが好ましい。ここで、仮想装置は設計データと相違なく生成することが可能であるが、現実装置は必ずしも設計データと一致するようには製作されてはおらず、設計データとの誤差が存在する。したがって、設計データに従って仮想装置を生成した後は、現実装置との差異が解消するように仮想装置側の設計データを修正する作業(以下、仮想装置キャリブレーションと称する)を行うことが望ましい。カメラを備える装置に関するカメラキャリブレーションの手法については、非特許文献1で開示されている。   When performing offline teaching or operation simulation of a real device using a virtual device, it is preferable to reduce the difference between the virtual device and the real device. Here, the virtual device can be generated without any difference from the design data, but the real device is not necessarily manufactured to match the design data, and there is an error with the design data. Therefore, after the virtual device is generated according to the design data, it is desirable to perform an operation for correcting the design data on the virtual device side (hereinafter referred to as virtual device calibration) so as to eliminate the difference from the real device. Non-Patent Document 1 discloses a camera calibration method related to an apparatus including a camera.

Z. Zhang. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.Z. Zhang.A flexible new technique for camera calibration.IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000.

しかしながら、非特許文献1の技術では、カメラの視野の範囲外に配置された部品等についてはキャリブレーションを実施することができない。   However, with the technique of Non-Patent Document 1, calibration cannot be performed for components and the like arranged outside the field of view of the camera.

1つの側面では、本件は、カメラ視野範囲外の部品等に対して設計データを校正することができる校正装置、校正方法および校正プログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide a calibration apparatus, a calibration method, and a calibration program that can calibrate design data with respect to a component or the like outside the camera field of view.

1つの態様では、校正装置は、設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置され、前記鏡面を介して前記撮像装置によって撮像される第2ターゲットと、前記撮像装置によって得られる画像に基づいて、前記第2ターゲットに係る情報を推定する推定部と、前記推定部によって推定された情報に基づいて、前記設計データを校正する校正部と、を備える。   In one aspect, the calibration device is arranged in the field of view of the imaging device according to design data, and has a first target having a mirror surface, and is arranged outside the field of vision of the imaging device according to the design data, and the A second target imaged by the imaging device; an estimation unit for estimating information on the second target based on an image obtained by the imaging device; and the design based on the information estimated by the estimation unit. A calibration unit for calibrating the data.

1つの態様では、校正方法は、設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置された第2ターゲットとを前記鏡面を利用して撮像し、前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定し、推定された前記情報に基づいて、前記設計データを校正する。   In one aspect, the calibration method includes: a first target having a mirror surface disposed in a field of view of an imaging device according to design data; and a second target disposed outside the field of view of the imaging device according to the design data. An image is captured using a mirror surface, information on the second target is estimated based on an image obtained by the imaging, and the design data is calibrated based on the estimated information.

1つの態様では、校正プログラムは、設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置された第2ターゲットとを前記鏡面を利用して撮像する処理と、前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定する処理と、推定された前記情報に基づいて、前記設計データを校正する処理と、をコンピュータに実行させる。   In one aspect, the calibration program includes a first target that is arranged in the field of view of the imaging device according to design data and has a mirror surface, and a second target that is arranged outside the field of vision of the imaging device according to the design data. A process for imaging using a mirror surface, a process for estimating information on the second target based on the image obtained by the imaging, and a process for calibrating the design data based on the estimated information And make the computer execute.

カメラ視野範囲外の部品等に対して設計データを校正することができる。   Design data can be calibrated for parts outside the camera field of view.

キャリブレーションターゲットを例示する図である。It is a figure which illustrates a calibration target. 比較例に係る仮想装置キャリブレーションについて例示する図である。It is a figure illustrated about virtual device calibration concerning a comparative example. 部品の配置を例示する図である。It is a figure which illustrates arrangement | positioning of components. 実施例1に係るシミュレーション装置の全体構成を例示する図である。1 is a diagram illustrating an overall configuration of a simulation apparatus according to Embodiment 1. FIG. (a)および(b)は第1ターゲットおよび第2ターゲットを例示する斜視図である。(A) And (b) is a perspective view which illustrates the 1st target and the 2nd target. シミュレーション装置を用いたキャリブレーションの原理について説明する図である。It is a figure explaining the principle of the calibration using a simulation apparatus. キャリブレーションの詳細について説明するフローチャートの一例である。It is an example of the flowchart explaining the detail of a calibration. 第1ターゲットおよび第2ターゲットの他の例を例示する斜視図である。It is a perspective view which illustrates other examples of the 1st target and the 2nd target. キャリブレーションの原理について説明する図である。It is a figure explaining the principle of calibration. キャリブレーションの原理について説明する図である。It is a figure explaining the principle of calibration. 第1ターゲットの別例である。This is another example of the first target. ハードウェア構成を説明するためのブロック図である。It is a block diagram for demonstrating a hardware configuration.

実施例の説明に先立って、現実装置に対して仮想装置を生成するシミュレーション装置に対するキャリブレーション(比較例)の概要について説明する。   Prior to the description of the embodiment, an outline of calibration (comparative example) for a simulation apparatus that generates a virtual apparatus for a real apparatus will be described.

現実装置は、カメラを備える装置である。例えば、現実装置は、CCDカメラ、CMOSカメラなどで部品の位置・姿勢を検出し、その情報を元に部品の組み立てを行う組み立て装置または部品の欠陥などを検査・測定する検査/計測装置などである。この現実装置の設計データに従って生成された仮想装置のキャリブレーションは、例えば、カメラとキャリブレーションターゲットとを用いて行う。キャリブレーションターゲットとは、位置や寸法が既知のマークが印刷あるいは配置されたものである。例えば、図1で例示するように、キャリブレーションターゲット101は、位置関係が既知のマーク102が付された面を有している。以下にカメラを用いた仮想装置キャリブレーションの手順を示す。   The real device is a device including a camera. For example, a real device is an assembly device that detects the position / orientation of a component with a CCD camera, a CMOS camera, etc., and assembles the component based on the information, or an inspection / measurement device that inspects / measures a defect of the component, etc. is there. The calibration of the virtual device generated according to the design data of the real device is performed using, for example, a camera and a calibration target. A calibration target is a mark on which a mark whose position and dimensions are known is printed or arranged. For example, as illustrated in FIG. 1, the calibration target 101 has a surface with a mark 102 with a known positional relationship. The virtual device calibration procedure using the camera is shown below.

図2は、比較例に係る仮想装置キャリブレーションについて例示する図である。図2で例示するように、現実装置は、カメラ103、ステージ機構104などを備える。仮想装置キャリブレーションの際には、キャリブレーションターゲット101を、マーク102が付された面がカメラ103と対向するようにステージ機構104に載置する。次に、ステージ機構104によってキャリブレーションターゲット101の姿勢を複数に変化させながら、マーク102をカメラ103で撮像する。   FIG. 2 is a diagram illustrating the virtual device calibration according to the comparative example. As illustrated in FIG. 2, the real device includes a camera 103, a stage mechanism 104, and the like. In the virtual device calibration, the calibration target 101 is placed on the stage mechanism 104 so that the surface with the mark 102 faces the camera 103. Next, the mark 102 is imaged by the camera 103 while the stage mechanism 104 changes the posture of the calibration target 101 in plural.

次に、複数の姿勢においてカメラ103による撮像によって得られた画像105におけるマーク102の2次元座標を求め、得られた座標からカメラ103の内部パラメータ(焦点距離、主点位置など)を推定する。例えば、非特許文献1の技術を用いることができる。次に、カメラ103の内部パラメータと、複数姿勢におけるマーク102の2次元座標とから、カメラ103の座標を基準としたマーク102の3次元座標p を推定する。ここで「m」は、撮像した姿勢の数であり、「n」は、キャリブレーションに用いたマーク102の数である。 Next, two-dimensional coordinates of the mark 102 in the image 105 obtained by imaging with the camera 103 in a plurality of postures are obtained, and internal parameters (focal length, principal point position, etc.) of the camera 103 are estimated from the obtained coordinates. For example, the technique of nonpatent literature 1 can be used. Next, to estimate the internal parameters of the camera 103, and a two-dimensional coordinate of the mark 102 in a plurality posture, a three-dimensional coordinate p m n of the mark 102 relative to the coordinates of the camera 103. Here, “m” is the number of captured postures, and “n” is the number of marks 102 used for calibration.

次に、パーソナルコンピュータ(PC)106において、現実装置の設計データ(設計値、動作仕様等)に従って、仮想キャリブレーションターゲット107、仮想カメラ108および仮想ステージ機構109を仮想的に生成する。仮想キャリブレーションターゲット107は、設計データに従ってキャリブレーションターゲット101を仮想的に生成したものである。仮想カメラ108は、設計データに従ってカメラ103を仮想的に生成したものである。また、仮想ステージ機構109は、設計データに従ってステージ機構104を仮想的に生成したものである。次に、仮想ステージ機構109によって仮想キャリブレーションターゲット107の姿勢を複数に変化させながら、マークを仮想カメラ108で撮像する。次に、複数の姿勢における仮想画像110におけるマークの2次元座標を求め、得られた座標から仮想カメラ108の座標を基準としたマークの3次元座標P を推定する。 Next, in the personal computer (PC) 106, the virtual calibration target 107, the virtual camera 108, and the virtual stage mechanism 109 are virtually generated according to the design data (design values, operation specifications, etc.) of the real device. The virtual calibration target 107 is obtained by virtually generating the calibration target 101 according to the design data. The virtual camera 108 is obtained by virtually generating the camera 103 according to the design data. The virtual stage mechanism 109 is a virtual generation of the stage mechanism 104 according to the design data. Next, the virtual camera 108 captures an image of the mark while changing the posture of the virtual calibration target 107 to plural by the virtual stage mechanism 109. Next, determine the two-dimensional coordinates of the mark in the virtual image 110 in the plurality of pose estimates the three-dimensional coordinates P m n of the mark from the obtained coordinates relative to the coordinates of the virtual camera 108.

次に、仮想装置キャリブレーションを行う。具体的には、現実装置におけるマークの3次元座標p と仮想装置におけるマークの3次元座標P との差異が小さくなるように設計データを校正する。例えば、以下の関数が最小となるようなキャリブレーションパラメータcを最適化処理により求め、設計データに反映させる。なお、キャリブレーションパラメータcは、例えば、機構系ベース座標や各機構系の原点位置など現実装置と仮想装置との差異を校正するために必要なパラメータ群である。

Figure 2015232464
Next, virtual device calibration is performed. Specifically, the difference between the 3-dimensional coordinates P m n of the mark in the virtual device and the three-dimensional coordinates p m n of the mark in the real device to calibrate the design data so as to reduce. For example, a calibration parameter c that minimizes the following function is obtained by optimization processing and reflected in design data. Note that the calibration parameter c is a parameter group necessary for calibrating the difference between the real device and the virtual device, such as the mechanical system base coordinates and the origin position of each mechanical system.
Figure 2015232464

しかしながら、この方式では、カメラ103の視野範囲外の部品について、キャリブレーションを実施することができない。例えば、図3で例示するように、ステージ機構104に光を照射する照明用部品111は、カメラ103の視野範囲外に配置されているため、キャリブレーションの対象とすることができない。そこで、キャリブレーション用のカメラを複数設置することが考えられる。しかしながら、キャリブレーション用の専用カメラを追加する必要がある、複数台のカメラを設置するスペースが無い場合がある、複数のカメラ間のキャリブレーションを行う必要がある、といった問題が生じる。そこで、以下の実施例では、カメラ視野範囲外の部品等に対してキャリブレーションを実施することができる校正装置、校正方法および校正プログラムについて説明する。   However, with this method, calibration cannot be performed for components outside the visual field range of the camera 103. For example, as illustrated in FIG. 3, the illumination component 111 that irradiates the stage mechanism 104 with light is disposed outside the field of view of the camera 103, and thus cannot be a calibration target. Therefore, it is conceivable to install a plurality of calibration cameras. However, there are problems that it is necessary to add a dedicated camera for calibration, there is a case where there is no space for installing a plurality of cameras, and it is necessary to perform calibration between a plurality of cameras. Therefore, in the following embodiments, a calibration apparatus, a calibration method, and a calibration program capable of performing calibration on components outside the camera field of view will be described.

図4は、実施例1に係るシミュレーション装置100の全体構成を例示する図である。図4で例示するように、シミュレーション装置100は、カメラ10、ステージ機構20、照明30、ステージ機構40、PC50、PC60などを備える。カメラ10、ステージ機構20,40および照明30は、現実装置として機能し、設計データ(設計値、動作仕様等)に従って作成されている。   FIG. 4 is a diagram illustrating the overall configuration of the simulation apparatus 100 according to the first embodiment. As illustrated in FIG. 4, the simulation apparatus 100 includes a camera 10, a stage mechanism 20, an illumination 30, a stage mechanism 40, a PC 50, a PC 60, and the like. The camera 10, the stage mechanisms 20 and 40, and the illumination 30 function as real devices and are created according to design data (design values, operation specifications, etc.).

カメラ10および照明30は、例えば、組み立て、検査、計測などを行うための機器である。ステージ機構20,40は、例えば、サンプルを設置、移動等させるための機器である。ステージ機構20は、カメラ10の視野範囲内に設置されている。照明30およびステージ機構40は、カメラ10の視野範囲外に設置されている。本実施例においては、照明30をステージ機構40により動かすことができる。   The camera 10 and the illumination 30 are devices for performing assembly, inspection, measurement, and the like, for example. The stage mechanisms 20 and 40 are, for example, devices for installing and moving a sample. The stage mechanism 20 is installed within the visual field range of the camera 10. The illumination 30 and the stage mechanism 40 are installed outside the visual field range of the camera 10. In the present embodiment, the illumination 30 can be moved by the stage mechanism 40.

PC50は、現実装置の各部を制御する制御部としての機能を有し、カメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54として機能する。PC60は、仮想装置を生成および制御する制御部としての機能を有し、最適化計算部61および仮想装置校正部62として機能する。シミュレーション装置100においては、PC60を用いて仮想装置を操作することによって、シミュレーションを行うことができる。その一方で、仮想装置キャリブレーションを行う際には、シミュレーション装置100は、校正装置として機能する。   The PC 50 has a function as a control unit that controls each unit of the real device, and functions as a camera control unit 51, a mechanism control unit 52, an image processing control unit 53, and a mark coordinate estimation unit 54. The PC 60 has a function as a control unit that generates and controls a virtual device, and functions as an optimization calculation unit 61 and a virtual device calibration unit 62. In the simulation apparatus 100, the simulation can be performed by operating the virtual apparatus using the PC 60. On the other hand, when performing virtual device calibration, the simulation device 100 functions as a calibration device.

シミュレーション装置100を校正装置として用いる場合、ステージ機構20に第1ターゲット70が載置され、ステージ機構40に第2ターゲット80が載置される。ステージ機構20,40が設計データに従って作成されているため、第1ターゲット70は、設計データに従ってステージ機構20に配置され、第2ターゲット80は、設計データに従ってステージ機構40に配置されることになる。第1ターゲット70および第2ターゲット80は、両方ともキャリブレーションターゲットである。また、PC60は、設計データに従って、仮想装置を生成する。PC60は、カメラ10、ステージ機構20,40、照明30、第1ターゲット70および第2ターゲット80に対応させて、仮想カメラ10a、仮想ステージ機構20a,40a、仮想照明30a、仮想第1ターゲット70aおよび仮想第2ターゲット80aを生成する。   When the simulation apparatus 100 is used as a calibration apparatus, the first target 70 is placed on the stage mechanism 20 and the second target 80 is placed on the stage mechanism 40. Since the stage mechanisms 20 and 40 are created according to the design data, the first target 70 is arranged on the stage mechanism 20 according to the design data, and the second target 80 is arranged on the stage mechanism 40 according to the design data. . Both the first target 70 and the second target 80 are calibration targets. Further, the PC 60 generates a virtual device according to the design data. The PC 60 corresponds to the camera 10, the stage mechanisms 20, 40, the illumination 30, the first target 70, and the second target 80, and the virtual camera 10a, the virtual stage mechanisms 20a, 40a, the virtual illumination 30a, the virtual first target 70a, and A virtual second target 80a is generated.

図5(a)は、第1ターゲット70を例示する斜視図である。図5(b)は、第2ターゲット80を例示する斜視図である。図5(a)および図5(b)で例示するように、本実施例においては、2種類のキャリブレーションターゲットを使用する。第1ターゲット70は、鏡面71上に、拡散面のマーク72が複数付された構成を有する。第2ターゲット80は、拡散面81上に、拡散面のマーク82が複数付された構成を有する。   FIG. 5A is a perspective view illustrating the first target 70. FIG. 5B is a perspective view illustrating the second target 80. As illustrated in FIGS. 5A and 5B, in this embodiment, two types of calibration targets are used. The first target 70 has a configuration in which a plurality of diffusion surface marks 72 are provided on a mirror surface 71. The second target 80 has a configuration in which a plurality of diffusion surface marks 82 are provided on the diffusion surface 81.

図6は、シミュレーション装置100を用いたキャリブレーションの原理について説明する図である。図6で例示するように、第1ターゲット70をステージ機構20上に載置し、照明30を介して第2ターゲット80をステージ機構40上に載置する。また、第2ターゲット80が第1ターゲット70の鏡面71で反射してカメラ10で撮像できるようにステージ機構20,40を制御する。次に、得られた画像90からマーク72とマーク82とを分離抽出し、マーク72の3次元座標を推定する。また、カメラ10の光軸上のマーク82の虚像80bの3次元座標を推定する。マーク72の3次元座標から第1ターゲット70の位置・姿勢(法線)を算出する。第1ターゲット70の位置・姿勢とマーク82の虚像の3次元座標から第2ターゲット80に係る情報を推定する。例えば、第2ターゲット80に係る情報として、マーク82の3次元座標、第2ターゲット80の姿勢などが挙げられる。次に、第2ターゲット80に係る情報に関して、現実装置と仮想装置との差異が小さくなるように、現実装置の設計データ(仮想装置を生成するための設計データ)を校正する。   FIG. 6 is a diagram for explaining the principle of calibration using the simulation apparatus 100. As illustrated in FIG. 6, the first target 70 is placed on the stage mechanism 20, and the second target 80 is placed on the stage mechanism 40 via the illumination 30. Further, the stage mechanisms 20 and 40 are controlled so that the second target 80 is reflected by the mirror surface 71 of the first target 70 and can be imaged by the camera 10. Next, the mark 72 and the mark 82 are separated and extracted from the obtained image 90, and the three-dimensional coordinates of the mark 72 are estimated. Further, the three-dimensional coordinates of the virtual image 80b of the mark 82 on the optical axis of the camera 10 are estimated. The position / orientation (normal line) of the first target 70 is calculated from the three-dimensional coordinates of the mark 72. Information on the second target 80 is estimated from the position and orientation of the first target 70 and the three-dimensional coordinates of the virtual image of the mark 82. For example, as information related to the second target 80, the three-dimensional coordinates of the mark 82, the attitude of the second target 80, and the like can be cited. Next, the design data of the real device (design data for generating the virtual device) is calibrated so that the difference between the real device and the virtual device becomes small regarding the information related to the second target 80.

図7は、以上のキャリブレーションの詳細について説明するフローチャートの一例である。機構制御部52は、第2ターゲット80が第1ターゲット70の鏡面71で反射してカメラ10で撮像できるように、ステージ機構20およびステージ機構40を制御する(ステップS1)。次に、カメラ制御部51は、第1ターゲット70および第2ターゲット80が撮像されるように、カメラ10を制御する(ステップS2)。それにより、第1ターゲットの実像および第2ターゲットの鏡像が撮像される。   FIG. 7 is an example of a flowchart for explaining the details of the above calibration. The mechanism control unit 52 controls the stage mechanism 20 and the stage mechanism 40 so that the second target 80 is reflected by the mirror surface 71 of the first target 70 and can be imaged by the camera 10 (step S1). Next, the camera control unit 51 controls the camera 10 so that the first target 70 and the second target 80 are imaged (step S2). Thereby, a real image of the first target and a mirror image of the second target are captured.

次に、画像処理制御部53は、ステップS2で得られた画像から、第1ターゲット70のマーク72と第2ターゲット80のマーク82とを別々に分離・抽出する処理を行う(ステップS3)。なお、マーク72とマーク82とを容易に分離できるように、マーク72の色とマーク82の色とを異ならせておいてもよい。   Next, the image processing control unit 53 performs a process of separately separating and extracting the mark 72 of the first target 70 and the mark 82 of the second target 80 from the image obtained in step S2 (step S3). Note that the color of the mark 72 and the color of the mark 82 may be different so that the mark 72 and the mark 82 can be easily separated.

次に、マーク座標推定部54は、抽出されたマーク72の2次元座標からマーク72の3次元座標を推定することで、カメラ10の位置を基準とする第1ターゲット70の位置および姿勢(法線ベクトル)を推定する(ステップS4)。次に、マーク座標推定部54は、抽出されたマーク82の2次元座標からカメラ10の位置を基準とする虚像3次元座標q´を推定する(ステップS5)。「n」はマーク82の数である。カメラキャリブレーションでは、マークの設計データ(マークサイズや相対位置)が必要であるが、本実施例では第2ターゲット80の鏡像を扱うため、正規の第2ターゲット80の設計とは左右が反転している。そのため本実施例においては、正規の設計データを左右反転させたデータを一時的に生成してカメラキャリブレーションを行う。 Next, the mark coordinate estimation unit 54 estimates the three-dimensional coordinates of the mark 72 from the extracted two-dimensional coordinates of the mark 72, so that the position and orientation (method) of the first target 70 with respect to the position of the camera 10 is used. (Line vector) is estimated (step S4). Next, the mark coordinate estimation unit 54 estimates a virtual image three-dimensional coordinate q ′ n based on the position of the camera 10 from the extracted two-dimensional coordinates of the mark 82 (step S5). “N” is the number of marks 82. In camera calibration, mark design data (mark size and relative position) is required. However, in this embodiment, since the mirror image of the second target 80 is handled, the right and left are reversed from the design of the regular second target 80. ing. For this reason, in this embodiment, camera calibration is performed by temporarily generating data obtained by horizontally inverting regular design data.

次に、マーク座標推定部54は、ステップS4およびステップS5で得られた情報から、カメラ10の位置を基準とする第2ターゲット80のマーク82の3次元座標qを推定する(ステップS6)。次に、最適化計算部61は、3次元座標qと、仮想装置におけるマーク82の3次元座標Qとを含む下記の関数が最小となるように、キャリブレーションパラメータcを最適化処理により求める(ステップS7)。次に、仮想装置校正部62は、得られたキャリブレーションパラメータcを用いて設計データを校正する(ステップS8)。

Figure 2015232464
Next, the mark coordinate estimation unit 54 estimates the three-dimensional coordinate q n of the mark 82 of the second target 80 with reference to the position of the camera 10 from the information obtained in steps S4 and S5 (step S6). . Next, the optimization calculation unit 61 optimizes the calibration parameter c so that the following function including the three-dimensional coordinate q n and the three-dimensional coordinate Q n of the mark 82 in the virtual device is minimized. Obtained (step S7). Next, the virtual device calibration unit 62 calibrates the design data using the obtained calibration parameter c (step S8).
Figure 2015232464

本実施例によれば、カメラの視野範囲外の第2ターゲットを、視野範囲内の第1ターゲットの鏡面を介して撮像することから、カメラ視野範囲外の部品等に対して設計データを校正することができる。また、撮像によって得られる画像に基づいて第1ターゲットの位置および姿勢を推定し、当該位置および姿勢と第2ターゲットの虚像とから第2ターゲットの3次元座標を推定することから、高い精度で第2ターゲットの3次元座標を推定することができる。第1ターゲットの鏡面に拡散面のマークを付し、第2ターゲットの拡散面にマークを付し、画像におけるこれらのマークを用いることから、高い精度で第2ターゲットの3次元座標を推定することができる。   According to this embodiment, since the second target outside the field of view of the camera is imaged through the mirror surface of the first target within the field of view, the design data is calibrated with respect to components outside the field of view of the camera. be able to. In addition, since the position and orientation of the first target are estimated based on the image obtained by imaging, and the three-dimensional coordinates of the second target are estimated from the position and orientation and the virtual image of the second target, the first target can be obtained with high accuracy. Two-dimensional coordinates of two targets can be estimated. Since the mark of the diffusion surface is attached to the mirror surface of the first target, the mark is attached to the diffusion surface of the second target, and these marks in the image are used, the three-dimensional coordinates of the second target are estimated with high accuracy. Can do.

なお、上記例では、複数の姿勢における画像を取得していないが、第1ターゲット70および第2ターゲット80の両方がカメラ10で撮像できる範囲で、第1ターゲット70および第2ターゲット80の姿勢を変動させてもよい。この場合においては、現実装置と仮想装置との差異をより小さくすることができる。また、PC50およびPC60として、1台の装置を用いてもよい。   In the above example, images in a plurality of postures are not acquired, but the postures of the first target 70 and the second target 80 are within a range that can be imaged by both the first target 70 and the second target 80. It may be varied. In this case, the difference between the real device and the virtual device can be further reduced. Moreover, you may use one apparatus as PC50 and PC60.

(変形例)
第1ターゲット70および第2ターゲット80を同じ大きさにした場合、レンズパースペクティブの影響によりカメラ10より遠い位置にある第2ターゲット80の鏡面像は第1ターゲット70より小さく映る。また、第1ターゲット70の付近でピントが合うように焦点位置が調整されていれば、第2ターゲット80は、ボケた画像となるおそれがある。小さく映り、さらにボケの影響が加わると、第2ターゲット80のマーク82の2次元座標検出が非常に困難になる。
(Modification)
When the first target 70 and the second target 80 have the same size, the specular image of the second target 80 located far from the camera 10 appears smaller than the first target 70 due to the influence of the lens perspective. Further, if the focal position is adjusted so that the focus is in the vicinity of the first target 70, the second target 80 may become a blurred image. If the image appears small and is further affected by blurring, it is very difficult to detect the two-dimensional coordinates of the mark 82 of the second target 80.

そこで、図8で例示するように、第2ターゲット80を第1ターゲット70よりも大きくすることで、マーク82をマーク72よりも大きくすることが好ましい。この場合、図9で例示するように、カメラ10と虚像80bとの距離がカメラ10と第1ターゲット70との距離より大きくても、図10で例示するように、画像90において、マーク72,82を同じ程度の大きさにすることができる。あるいは、ボケの影響を考慮してマーク72よりもマーク82が大きく見えるようにマークサイズを設定してもよい。なお、この場合には、第1ターゲットと第2ターゲットの設計データをそれぞれ用意し、それぞれのターゲットのキャリブレーションに応じて使用する設計データを適宜切り替える。   Therefore, as illustrated in FIG. 8, it is preferable to make the mark 82 larger than the mark 72 by making the second target 80 larger than the first target 70. In this case, as illustrated in FIG. 9, even if the distance between the camera 10 and the virtual image 80b is larger than the distance between the camera 10 and the first target 70, as illustrated in FIG. 82 can be the same size. Alternatively, the mark size may be set so that the mark 82 looks larger than the mark 72 in consideration of the influence of blur. In this case, design data for the first target and the second target are prepared, and the design data to be used is switched as appropriate according to the calibration of each target.

図11は、第1ターゲット70の別例である。第1ターゲット70の鏡面71に拡散面のマーク72を付した場合、マーク72上では第2ターゲット80が写らない。そこで、図11のように、マーク72が付された拡散面73にハーフミラー74を結合するように第1ターゲット70を作成すると、第1ターゲット70および第2ターゲット80が混合された形で撮像される。この場合、両者のマークが互いに遮られることがないため、マーク位置の検出が高精度に行える。ただし、マーク72およびマーク82の色は、同系の色とならないようにすることが好ましい。   FIG. 11 is another example of the first target 70. When the diffusing surface mark 72 is attached to the mirror surface 71 of the first target 70, the second target 80 is not reflected on the mark 72. Therefore, as shown in FIG. 11, when the first target 70 is formed so that the half mirror 74 is coupled to the diffusing surface 73 with the mark 72, the first target 70 and the second target 80 are mixed and imaged. Is done. In this case, since both marks are not shielded from each other, the mark position can be detected with high accuracy. However, it is preferable that the colors of the mark 72 and the mark 82 are not similar colors.

図12は、カメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54、最適化計算部61および仮想装置校正部62のハードウェア構成を説明するためのブロック図である。図12を参照して、カメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54、最適化計算部61および仮想装置校正部62は、CPU201、RAM202、記憶装置203、表示装置204等を備える。   FIG. 12 is a block diagram for explaining the hardware configuration of the camera control unit 51, mechanism control unit 52, image processing control unit 53, mark coordinate estimation unit 54, optimization calculation unit 61, and virtual device calibration unit 62. . Referring to FIG. 12, the camera control unit 51, the mechanism control unit 52, the image processing control unit 53, the mark coordinate estimation unit 54, the optimization calculation unit 61, and the virtual device calibration unit 62 include a CPU 201, a RAM 202, a storage device 203, A display device 204 and the like are provided.

CPU(Central Processing Unit)201は、中央演算処理装置である。CPU201は、1以上のコアを含む。RAM(Random Access Memory)202は、CPU201が実行するプログラム、CPU201が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置203は、不揮発性記憶装置である。記憶装置203として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。記憶装置203は、校正プログラムを記憶している。表示装置204は、液晶ディスプレイ、エレクトロルミネッセンスパネルなどであり、仮想装置、校正結果などを表示する。上記例ではカメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54、最適化計算部61および仮想装置校正部62は、プログラムの実行によって実現されているが、専用の回路等のハードウェアを用いてもよい。   A CPU (Central Processing Unit) 201 is a central processing unit. The CPU 201 includes one or more cores. A RAM (Random Access Memory) 202 is a volatile memory that temporarily stores programs executed by the CPU 201, data processed by the CPU 201, and the like. The storage device 203 is a nonvolatile storage device. As the storage device 203, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used. The storage device 203 stores a calibration program. The display device 204 is a liquid crystal display, an electroluminescence panel, or the like, and displays a virtual device, a calibration result, and the like. In the above example, the camera control unit 51, the mechanism control unit 52, the image processing control unit 53, the mark coordinate estimation unit 54, the optimization calculation unit 61, and the virtual device calibration unit 62 are realized by executing a program. Hardware such as a circuit may be used.

なお、上記例において、カメラ10が撮像装置の一例である。マーク座標推定部54が、第2ターゲットの3次元座標を推定する推定部として機能し、仮想装置構成部62が、推定部によって推定された3次元座標に基づいて設計データを校正する校正部として機能する。   In the above example, the camera 10 is an example of an imaging device. The mark coordinate estimation unit 54 functions as an estimation unit that estimates the three-dimensional coordinates of the second target, and the virtual device configuration unit 62 functions as a calibration unit that calibrates design data based on the three-dimensional coordinates estimated by the estimation unit. Function.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

10 カメラ
20,40 ステージ機構
30 照明
51 カメラ制御部
52 機構制御部
53 画像処理制御部
54 マーク座標推定部
61 最適化計算部
62 仮想装置校正部
70 第1ターゲット
71 鏡面
72,82 マーク
80 第2ターゲット
81 拡散面
DESCRIPTION OF SYMBOLS 10 Camera 20, 40 Stage mechanism 30 Illumination 51 Camera control part 52 Mechanism control part 53 Image processing control part 54 Mark coordinate estimation part 61 Optimization calculation part 62 Virtual apparatus calibration part 70 1st target 71 Mirror surface 72, 82 Mark 80 2nd Target 81 Diffusion surface

Claims (7)

設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、
前記設計データに従って前記撮像装置の視野範囲外に配置され、前記鏡面を介して前記撮像装置によって撮像される第2ターゲットと、
前記撮像装置によって得られる画像に基づいて、前記第2ターゲットに係る情報を推定する推定部と、
前記推定部によって推定された情報に基づいて、前記設計データを校正する校正部と、を備えることを特徴とする校正装置。
A first target having a mirror surface disposed in the field of view of the imaging device according to the design data;
A second target arranged outside the field of view of the imaging device according to the design data and imaged by the imaging device through the mirror surface;
An estimation unit that estimates information on the second target based on an image obtained by the imaging device;
A calibration device comprising: a calibration unit that calibrates the design data based on information estimated by the estimation unit.
前記推定部は、前記撮像装置によって得られる画像に基づいて前記第1ターゲットの位置および姿勢を推定し、当該位置と前記第2ターゲットの虚像とから前記第2ターゲットの位置を推定することを特徴とする請求項1記載の校正装置。   The estimation unit estimates the position and orientation of the first target based on an image obtained by the imaging device, and estimates the position of the second target from the position and a virtual image of the second target. The calibration device according to claim 1. 前記第1ターゲットの鏡面には、拡散面のマークが付され、
前記撮像装置によって撮像される前記第2ターゲットのいずれかの面は、拡散面であり、当該拡散面にマークが付され、
前記推定部は、前記撮像装置によって得られる画像に含まれる前記第1ターゲットのマークと前記第2ターゲットのマークとに基づいて、前記第2ターゲットのマークの位置を推定することを特徴とする請求項1または2記載の校正装置。
The mirror surface of the first target is marked with a diffusion surface mark.
Any surface of the second target imaged by the imaging device is a diffusion surface, and the diffusion surface is marked.
The estimation unit estimates a position of the mark of the second target based on the mark of the first target and the mark of the second target included in an image obtained by the imaging device. Item 3. The calibration device according to item 1 or 2.
前記第1ターゲットの鏡面は、マークが付された拡散面に貼り付けられたハーフミラーの表面であることを特徴とする請求項3記載の校正装置。   4. The calibration apparatus according to claim 3, wherein the mirror surface of the first target is a surface of a half mirror attached to a diffusion surface with a mark. 前記第2ターゲットのマークは、前記第1ターゲットのマークよりも大きいことを特徴とする請求項3または4記載の校正装置。   The calibration apparatus according to claim 3 or 4, wherein the mark of the second target is larger than the mark of the first target. 設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置された第2ターゲットとを前記鏡面を利用して撮像し、
前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定し、
推定された前記情報に基づいて、前記設計データを校正する、ことを特徴とする校正方法。
A first target having a mirror surface arranged in the field of view of the imaging device according to the design data and a second target arranged outside the field of view of the imaging device in accordance with the design data are imaged using the mirror surface,
Based on the image obtained by the imaging, information related to the second target is estimated,
A calibration method, wherein the design data is calibrated based on the estimated information.
設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置された第2ターゲットとを前記鏡面を利用して撮像する処理と、
前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定する処理と、
推定された前記情報に基づいて、前記設計データを校正する処理と、をコンピュータに実行させることを特徴とする校正プログラム。
A process of imaging, using the mirror surface, a first target that is arranged in the field of view of the imaging device according to design data and has a mirror surface, and a second target that is arranged outside the field of vision of the imaging device according to the design data; ,
A process of estimating information on the second target based on an image obtained by the imaging;
A calibration program for causing a computer to execute a process of calibrating the design data based on the estimated information.
JP2014118902A 2014-06-09 2014-06-09 Calibration device, calibration method, and calibration program Withdrawn JP2015232464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014118902A JP2015232464A (en) 2014-06-09 2014-06-09 Calibration device, calibration method, and calibration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014118902A JP2015232464A (en) 2014-06-09 2014-06-09 Calibration device, calibration method, and calibration program

Publications (1)

Publication Number Publication Date
JP2015232464A true JP2015232464A (en) 2015-12-24

Family

ID=54934000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014118902A Withdrawn JP2015232464A (en) 2014-06-09 2014-06-09 Calibration device, calibration method, and calibration program

Country Status (1)

Country Link
JP (1) JP2015232464A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830906A (en) * 2018-05-31 2018-11-16 福州大学 A kind of camera parameters automatic calibration method based on virtual Binocular Vision Principle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830906A (en) * 2018-05-31 2018-11-16 福州大学 A kind of camera parameters automatic calibration method based on virtual Binocular Vision Principle
CN108830906B (en) * 2018-05-31 2023-10-24 福州大学 Automatic calibration method for camera parameters based on virtual binocular vision principle

Similar Documents

Publication Publication Date Title
CN106408612B (en) Machine vision system calibration
TWI566204B (en) Three dimensional object recognition
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
US10664994B2 (en) System and method for calibration of machine vision cameras along at least three discrete planes
JP5999615B2 (en) Camera calibration information generating apparatus, camera calibration information generating method, and camera calibration information generating program
TW201520540A (en) Inspection apparatus, method, and computer program product for machine vision inspection
CN107155341B (en) Three-dimensional scanning system and frame
KR20180123575A (en) Camera Calibration System
JP6519265B2 (en) Image processing method
JP2019100917A (en) Inspection program generation system, generation method of inspection program and generation program of inspection program
KR20110089486A (en) Mounting boards inspection apparatus and method thereof
JP2018004357A5 (en)
JP2017182785A (en) System and method for efficiently scoring probes in image with vision system
JP2013036831A (en) Calibration apparatus and distortion error calculation method
JP2015031601A (en) Three-dimensional measurement instrument, method, and program
JP2014112043A (en) Stereoscopic shape recognition device and light source position estimation method for stereoscopic shape recognition device
CN108062790B (en) Three-dimensional coordinate system establishing method applied to object three-dimensional reconstruction
TWI575307B (en) Data correction apparatus, drawing apparatus, data correction method, and drawing method
JP2010184300A (en) Attitude changing device and attitude changing method
JP2017198470A (en) Measurement device, measurement method, system, and goods manufacturing method
JP5740370B2 (en) Region specifying apparatus, method, and program
JP2015232464A (en) Calibration device, calibration method, and calibration program
KR20140113449A (en) Drawing data generating method, drawing method, drawing data generating apparatus and drawing apparatus
JP7179439B2 (en) Information processing device, information processing method and program
JP6822086B2 (en) Simulation equipment, simulation method and simulation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20171225