JP2015232464A - Calibration device, calibration method, and calibration program - Google Patents
Calibration device, calibration method, and calibration program Download PDFInfo
- Publication number
- JP2015232464A JP2015232464A JP2014118902A JP2014118902A JP2015232464A JP 2015232464 A JP2015232464 A JP 2015232464A JP 2014118902 A JP2014118902 A JP 2014118902A JP 2014118902 A JP2014118902 A JP 2014118902A JP 2015232464 A JP2015232464 A JP 2015232464A
- Authority
- JP
- Japan
- Prior art keywords
- target
- calibration
- mark
- design data
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本件は、校正装置、校正方法および校正プログラムに関する。 The present case relates to a calibration apparatus, a calibration method, and a calibration program.
近年、ものづくり分野におけるデジタル化が進み、設計データをデザインや設計工程のみならず試作、製造、販売・サービス等の工程にも活用し、PLM(Product Life cycle Management)全体の効率化、省力化等を図る動きが進んでいる。例えば、設計データに従って検査装置や組み立て装置の仮想装置をPC上で生成して現実装置のティーチング作業をオフラインで行い、現実装置の動作をシミュレーションすることで、現実装置の運用効率化などを行うことができる。 In recent years, digitization in the manufacturing field has progressed, and design data can be used not only for design and design processes, but also for processes such as prototyping, manufacturing, sales, and services, to improve the efficiency and labor savings of the entire PLM (Product Life cycle Management). The movement to plan is progressing. For example, a virtual device of an inspection device or an assembly device is generated on a PC according to design data, the teaching operation of the real device is performed offline, and the operation of the real device is simulated, thereby improving the operational efficiency of the real device Can do.
仮想装置を用いて現実装置のオフラインティーチングや動作シミュレーションを行う際に、仮想装置と現実装置との差異を少なくすることが好ましい。ここで、仮想装置は設計データと相違なく生成することが可能であるが、現実装置は必ずしも設計データと一致するようには製作されてはおらず、設計データとの誤差が存在する。したがって、設計データに従って仮想装置を生成した後は、現実装置との差異が解消するように仮想装置側の設計データを修正する作業(以下、仮想装置キャリブレーションと称する)を行うことが望ましい。カメラを備える装置に関するカメラキャリブレーションの手法については、非特許文献1で開示されている。 When performing offline teaching or operation simulation of a real device using a virtual device, it is preferable to reduce the difference between the virtual device and the real device. Here, the virtual device can be generated without any difference from the design data, but the real device is not necessarily manufactured to match the design data, and there is an error with the design data. Therefore, after the virtual device is generated according to the design data, it is desirable to perform an operation for correcting the design data on the virtual device side (hereinafter referred to as virtual device calibration) so as to eliminate the difference from the real device. Non-Patent Document 1 discloses a camera calibration method related to an apparatus including a camera.
しかしながら、非特許文献1の技術では、カメラの視野の範囲外に配置された部品等についてはキャリブレーションを実施することができない。 However, with the technique of Non-Patent Document 1, calibration cannot be performed for components and the like arranged outside the field of view of the camera.
1つの側面では、本件は、カメラ視野範囲外の部品等に対して設計データを校正することができる校正装置、校正方法および校正プログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide a calibration apparatus, a calibration method, and a calibration program that can calibrate design data with respect to a component or the like outside the camera field of view.
1つの態様では、校正装置は、設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置され、前記鏡面を介して前記撮像装置によって撮像される第2ターゲットと、前記撮像装置によって得られる画像に基づいて、前記第2ターゲットに係る情報を推定する推定部と、前記推定部によって推定された情報に基づいて、前記設計データを校正する校正部と、を備える。 In one aspect, the calibration device is arranged in the field of view of the imaging device according to design data, and has a first target having a mirror surface, and is arranged outside the field of vision of the imaging device according to the design data, and the A second target imaged by the imaging device; an estimation unit for estimating information on the second target based on an image obtained by the imaging device; and the design based on the information estimated by the estimation unit. A calibration unit for calibrating the data.
1つの態様では、校正方法は、設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置された第2ターゲットとを前記鏡面を利用して撮像し、前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定し、推定された前記情報に基づいて、前記設計データを校正する。 In one aspect, the calibration method includes: a first target having a mirror surface disposed in a field of view of an imaging device according to design data; and a second target disposed outside the field of view of the imaging device according to the design data. An image is captured using a mirror surface, information on the second target is estimated based on an image obtained by the imaging, and the design data is calibrated based on the estimated information.
1つの態様では、校正プログラムは、設計データに従って撮像装置の視野範囲に配置され、鏡面を有する第1ターゲットと、前記設計データに従って前記撮像装置の視野範囲外に配置された第2ターゲットとを前記鏡面を利用して撮像する処理と、前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定する処理と、推定された前記情報に基づいて、前記設計データを校正する処理と、をコンピュータに実行させる。 In one aspect, the calibration program includes a first target that is arranged in the field of view of the imaging device according to design data and has a mirror surface, and a second target that is arranged outside the field of vision of the imaging device according to the design data. A process for imaging using a mirror surface, a process for estimating information on the second target based on the image obtained by the imaging, and a process for calibrating the design data based on the estimated information And make the computer execute.
カメラ視野範囲外の部品等に対して設計データを校正することができる。 Design data can be calibrated for parts outside the camera field of view.
実施例の説明に先立って、現実装置に対して仮想装置を生成するシミュレーション装置に対するキャリブレーション(比較例)の概要について説明する。 Prior to the description of the embodiment, an outline of calibration (comparative example) for a simulation apparatus that generates a virtual apparatus for a real apparatus will be described.
現実装置は、カメラを備える装置である。例えば、現実装置は、CCDカメラ、CMOSカメラなどで部品の位置・姿勢を検出し、その情報を元に部品の組み立てを行う組み立て装置または部品の欠陥などを検査・測定する検査/計測装置などである。この現実装置の設計データに従って生成された仮想装置のキャリブレーションは、例えば、カメラとキャリブレーションターゲットとを用いて行う。キャリブレーションターゲットとは、位置や寸法が既知のマークが印刷あるいは配置されたものである。例えば、図1で例示するように、キャリブレーションターゲット101は、位置関係が既知のマーク102が付された面を有している。以下にカメラを用いた仮想装置キャリブレーションの手順を示す。
The real device is a device including a camera. For example, a real device is an assembly device that detects the position / orientation of a component with a CCD camera, a CMOS camera, etc., and assembles the component based on the information, or an inspection / measurement device that inspects / measures a defect of the component, etc. is there. The calibration of the virtual device generated according to the design data of the real device is performed using, for example, a camera and a calibration target. A calibration target is a mark on which a mark whose position and dimensions are known is printed or arranged. For example, as illustrated in FIG. 1, the
図2は、比較例に係る仮想装置キャリブレーションについて例示する図である。図2で例示するように、現実装置は、カメラ103、ステージ機構104などを備える。仮想装置キャリブレーションの際には、キャリブレーションターゲット101を、マーク102が付された面がカメラ103と対向するようにステージ機構104に載置する。次に、ステージ機構104によってキャリブレーションターゲット101の姿勢を複数に変化させながら、マーク102をカメラ103で撮像する。
FIG. 2 is a diagram illustrating the virtual device calibration according to the comparative example. As illustrated in FIG. 2, the real device includes a
次に、複数の姿勢においてカメラ103による撮像によって得られた画像105におけるマーク102の2次元座標を求め、得られた座標からカメラ103の内部パラメータ(焦点距離、主点位置など)を推定する。例えば、非特許文献1の技術を用いることができる。次に、カメラ103の内部パラメータと、複数姿勢におけるマーク102の2次元座標とから、カメラ103の座標を基準としたマーク102の3次元座標pm nを推定する。ここで「m」は、撮像した姿勢の数であり、「n」は、キャリブレーションに用いたマーク102の数である。
Next, two-dimensional coordinates of the
次に、パーソナルコンピュータ(PC)106において、現実装置の設計データ(設計値、動作仕様等)に従って、仮想キャリブレーションターゲット107、仮想カメラ108および仮想ステージ機構109を仮想的に生成する。仮想キャリブレーションターゲット107は、設計データに従ってキャリブレーションターゲット101を仮想的に生成したものである。仮想カメラ108は、設計データに従ってカメラ103を仮想的に生成したものである。また、仮想ステージ機構109は、設計データに従ってステージ機構104を仮想的に生成したものである。次に、仮想ステージ機構109によって仮想キャリブレーションターゲット107の姿勢を複数に変化させながら、マークを仮想カメラ108で撮像する。次に、複数の姿勢における仮想画像110におけるマークの2次元座標を求め、得られた座標から仮想カメラ108の座標を基準としたマークの3次元座標Pm nを推定する。
Next, in the personal computer (PC) 106, the
次に、仮想装置キャリブレーションを行う。具体的には、現実装置におけるマークの3次元座標pm nと仮想装置におけるマークの3次元座標Pm nとの差異が小さくなるように設計データを校正する。例えば、以下の関数が最小となるようなキャリブレーションパラメータcを最適化処理により求め、設計データに反映させる。なお、キャリブレーションパラメータcは、例えば、機構系ベース座標や各機構系の原点位置など現実装置と仮想装置との差異を校正するために必要なパラメータ群である。
しかしながら、この方式では、カメラ103の視野範囲外の部品について、キャリブレーションを実施することができない。例えば、図3で例示するように、ステージ機構104に光を照射する照明用部品111は、カメラ103の視野範囲外に配置されているため、キャリブレーションの対象とすることができない。そこで、キャリブレーション用のカメラを複数設置することが考えられる。しかしながら、キャリブレーション用の専用カメラを追加する必要がある、複数台のカメラを設置するスペースが無い場合がある、複数のカメラ間のキャリブレーションを行う必要がある、といった問題が生じる。そこで、以下の実施例では、カメラ視野範囲外の部品等に対してキャリブレーションを実施することができる校正装置、校正方法および校正プログラムについて説明する。
However, with this method, calibration cannot be performed for components outside the visual field range of the
図4は、実施例1に係るシミュレーション装置100の全体構成を例示する図である。図4で例示するように、シミュレーション装置100は、カメラ10、ステージ機構20、照明30、ステージ機構40、PC50、PC60などを備える。カメラ10、ステージ機構20,40および照明30は、現実装置として機能し、設計データ(設計値、動作仕様等)に従って作成されている。
FIG. 4 is a diagram illustrating the overall configuration of the
カメラ10および照明30は、例えば、組み立て、検査、計測などを行うための機器である。ステージ機構20,40は、例えば、サンプルを設置、移動等させるための機器である。ステージ機構20は、カメラ10の視野範囲内に設置されている。照明30およびステージ機構40は、カメラ10の視野範囲外に設置されている。本実施例においては、照明30をステージ機構40により動かすことができる。
The
PC50は、現実装置の各部を制御する制御部としての機能を有し、カメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54として機能する。PC60は、仮想装置を生成および制御する制御部としての機能を有し、最適化計算部61および仮想装置校正部62として機能する。シミュレーション装置100においては、PC60を用いて仮想装置を操作することによって、シミュレーションを行うことができる。その一方で、仮想装置キャリブレーションを行う際には、シミュレーション装置100は、校正装置として機能する。
The
シミュレーション装置100を校正装置として用いる場合、ステージ機構20に第1ターゲット70が載置され、ステージ機構40に第2ターゲット80が載置される。ステージ機構20,40が設計データに従って作成されているため、第1ターゲット70は、設計データに従ってステージ機構20に配置され、第2ターゲット80は、設計データに従ってステージ機構40に配置されることになる。第1ターゲット70および第2ターゲット80は、両方ともキャリブレーションターゲットである。また、PC60は、設計データに従って、仮想装置を生成する。PC60は、カメラ10、ステージ機構20,40、照明30、第1ターゲット70および第2ターゲット80に対応させて、仮想カメラ10a、仮想ステージ機構20a,40a、仮想照明30a、仮想第1ターゲット70aおよび仮想第2ターゲット80aを生成する。
When the
図5(a)は、第1ターゲット70を例示する斜視図である。図5(b)は、第2ターゲット80を例示する斜視図である。図5(a)および図5(b)で例示するように、本実施例においては、2種類のキャリブレーションターゲットを使用する。第1ターゲット70は、鏡面71上に、拡散面のマーク72が複数付された構成を有する。第2ターゲット80は、拡散面81上に、拡散面のマーク82が複数付された構成を有する。
FIG. 5A is a perspective view illustrating the
図6は、シミュレーション装置100を用いたキャリブレーションの原理について説明する図である。図6で例示するように、第1ターゲット70をステージ機構20上に載置し、照明30を介して第2ターゲット80をステージ機構40上に載置する。また、第2ターゲット80が第1ターゲット70の鏡面71で反射してカメラ10で撮像できるようにステージ機構20,40を制御する。次に、得られた画像90からマーク72とマーク82とを分離抽出し、マーク72の3次元座標を推定する。また、カメラ10の光軸上のマーク82の虚像80bの3次元座標を推定する。マーク72の3次元座標から第1ターゲット70の位置・姿勢(法線)を算出する。第1ターゲット70の位置・姿勢とマーク82の虚像の3次元座標から第2ターゲット80に係る情報を推定する。例えば、第2ターゲット80に係る情報として、マーク82の3次元座標、第2ターゲット80の姿勢などが挙げられる。次に、第2ターゲット80に係る情報に関して、現実装置と仮想装置との差異が小さくなるように、現実装置の設計データ(仮想装置を生成するための設計データ)を校正する。
FIG. 6 is a diagram for explaining the principle of calibration using the
図7は、以上のキャリブレーションの詳細について説明するフローチャートの一例である。機構制御部52は、第2ターゲット80が第1ターゲット70の鏡面71で反射してカメラ10で撮像できるように、ステージ機構20およびステージ機構40を制御する(ステップS1)。次に、カメラ制御部51は、第1ターゲット70および第2ターゲット80が撮像されるように、カメラ10を制御する(ステップS2)。それにより、第1ターゲットの実像および第2ターゲットの鏡像が撮像される。
FIG. 7 is an example of a flowchart for explaining the details of the above calibration. The
次に、画像処理制御部53は、ステップS2で得られた画像から、第1ターゲット70のマーク72と第2ターゲット80のマーク82とを別々に分離・抽出する処理を行う(ステップS3)。なお、マーク72とマーク82とを容易に分離できるように、マーク72の色とマーク82の色とを異ならせておいてもよい。
Next, the image
次に、マーク座標推定部54は、抽出されたマーク72の2次元座標からマーク72の3次元座標を推定することで、カメラ10の位置を基準とする第1ターゲット70の位置および姿勢(法線ベクトル)を推定する(ステップS4)。次に、マーク座標推定部54は、抽出されたマーク82の2次元座標からカメラ10の位置を基準とする虚像3次元座標q´nを推定する(ステップS5)。「n」はマーク82の数である。カメラキャリブレーションでは、マークの設計データ(マークサイズや相対位置)が必要であるが、本実施例では第2ターゲット80の鏡像を扱うため、正規の第2ターゲット80の設計とは左右が反転している。そのため本実施例においては、正規の設計データを左右反転させたデータを一時的に生成してカメラキャリブレーションを行う。
Next, the mark coordinate
次に、マーク座標推定部54は、ステップS4およびステップS5で得られた情報から、カメラ10の位置を基準とする第2ターゲット80のマーク82の3次元座標qnを推定する(ステップS6)。次に、最適化計算部61は、3次元座標qnと、仮想装置におけるマーク82の3次元座標Qnとを含む下記の関数が最小となるように、キャリブレーションパラメータcを最適化処理により求める(ステップS7)。次に、仮想装置校正部62は、得られたキャリブレーションパラメータcを用いて設計データを校正する(ステップS8)。
本実施例によれば、カメラの視野範囲外の第2ターゲットを、視野範囲内の第1ターゲットの鏡面を介して撮像することから、カメラ視野範囲外の部品等に対して設計データを校正することができる。また、撮像によって得られる画像に基づいて第1ターゲットの位置および姿勢を推定し、当該位置および姿勢と第2ターゲットの虚像とから第2ターゲットの3次元座標を推定することから、高い精度で第2ターゲットの3次元座標を推定することができる。第1ターゲットの鏡面に拡散面のマークを付し、第2ターゲットの拡散面にマークを付し、画像におけるこれらのマークを用いることから、高い精度で第2ターゲットの3次元座標を推定することができる。 According to this embodiment, since the second target outside the field of view of the camera is imaged through the mirror surface of the first target within the field of view, the design data is calibrated with respect to components outside the field of view of the camera. be able to. In addition, since the position and orientation of the first target are estimated based on the image obtained by imaging, and the three-dimensional coordinates of the second target are estimated from the position and orientation and the virtual image of the second target, the first target can be obtained with high accuracy. Two-dimensional coordinates of two targets can be estimated. Since the mark of the diffusion surface is attached to the mirror surface of the first target, the mark is attached to the diffusion surface of the second target, and these marks in the image are used, the three-dimensional coordinates of the second target are estimated with high accuracy. Can do.
なお、上記例では、複数の姿勢における画像を取得していないが、第1ターゲット70および第2ターゲット80の両方がカメラ10で撮像できる範囲で、第1ターゲット70および第2ターゲット80の姿勢を変動させてもよい。この場合においては、現実装置と仮想装置との差異をより小さくすることができる。また、PC50およびPC60として、1台の装置を用いてもよい。
In the above example, images in a plurality of postures are not acquired, but the postures of the
(変形例)
第1ターゲット70および第2ターゲット80を同じ大きさにした場合、レンズパースペクティブの影響によりカメラ10より遠い位置にある第2ターゲット80の鏡面像は第1ターゲット70より小さく映る。また、第1ターゲット70の付近でピントが合うように焦点位置が調整されていれば、第2ターゲット80は、ボケた画像となるおそれがある。小さく映り、さらにボケの影響が加わると、第2ターゲット80のマーク82の2次元座標検出が非常に困難になる。
(Modification)
When the
そこで、図8で例示するように、第2ターゲット80を第1ターゲット70よりも大きくすることで、マーク82をマーク72よりも大きくすることが好ましい。この場合、図9で例示するように、カメラ10と虚像80bとの距離がカメラ10と第1ターゲット70との距離より大きくても、図10で例示するように、画像90において、マーク72,82を同じ程度の大きさにすることができる。あるいは、ボケの影響を考慮してマーク72よりもマーク82が大きく見えるようにマークサイズを設定してもよい。なお、この場合には、第1ターゲットと第2ターゲットの設計データをそれぞれ用意し、それぞれのターゲットのキャリブレーションに応じて使用する設計データを適宜切り替える。
Therefore, as illustrated in FIG. 8, it is preferable to make the
図11は、第1ターゲット70の別例である。第1ターゲット70の鏡面71に拡散面のマーク72を付した場合、マーク72上では第2ターゲット80が写らない。そこで、図11のように、マーク72が付された拡散面73にハーフミラー74を結合するように第1ターゲット70を作成すると、第1ターゲット70および第2ターゲット80が混合された形で撮像される。この場合、両者のマークが互いに遮られることがないため、マーク位置の検出が高精度に行える。ただし、マーク72およびマーク82の色は、同系の色とならないようにすることが好ましい。
FIG. 11 is another example of the
図12は、カメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54、最適化計算部61および仮想装置校正部62のハードウェア構成を説明するためのブロック図である。図12を参照して、カメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54、最適化計算部61および仮想装置校正部62は、CPU201、RAM202、記憶装置203、表示装置204等を備える。
FIG. 12 is a block diagram for explaining the hardware configuration of the
CPU(Central Processing Unit)201は、中央演算処理装置である。CPU201は、1以上のコアを含む。RAM(Random Access Memory)202は、CPU201が実行するプログラム、CPU201が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置203は、不揮発性記憶装置である。記憶装置203として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。記憶装置203は、校正プログラムを記憶している。表示装置204は、液晶ディスプレイ、エレクトロルミネッセンスパネルなどであり、仮想装置、校正結果などを表示する。上記例ではカメラ制御部51、機構制御部52、画像処理制御部53、マーク座標推定部54、最適化計算部61および仮想装置校正部62は、プログラムの実行によって実現されているが、専用の回路等のハードウェアを用いてもよい。
A CPU (Central Processing Unit) 201 is a central processing unit. The
なお、上記例において、カメラ10が撮像装置の一例である。マーク座標推定部54が、第2ターゲットの3次元座標を推定する推定部として機能し、仮想装置構成部62が、推定部によって推定された3次元座標に基づいて設計データを校正する校正部として機能する。
In the above example, the
以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.
10 カメラ
20,40 ステージ機構
30 照明
51 カメラ制御部
52 機構制御部
53 画像処理制御部
54 マーク座標推定部
61 最適化計算部
62 仮想装置校正部
70 第1ターゲット
71 鏡面
72,82 マーク
80 第2ターゲット
81 拡散面
DESCRIPTION OF
Claims (7)
前記設計データに従って前記撮像装置の視野範囲外に配置され、前記鏡面を介して前記撮像装置によって撮像される第2ターゲットと、
前記撮像装置によって得られる画像に基づいて、前記第2ターゲットに係る情報を推定する推定部と、
前記推定部によって推定された情報に基づいて、前記設計データを校正する校正部と、を備えることを特徴とする校正装置。 A first target having a mirror surface disposed in the field of view of the imaging device according to the design data;
A second target arranged outside the field of view of the imaging device according to the design data and imaged by the imaging device through the mirror surface;
An estimation unit that estimates information on the second target based on an image obtained by the imaging device;
A calibration device comprising: a calibration unit that calibrates the design data based on information estimated by the estimation unit.
前記撮像装置によって撮像される前記第2ターゲットのいずれかの面は、拡散面であり、当該拡散面にマークが付され、
前記推定部は、前記撮像装置によって得られる画像に含まれる前記第1ターゲットのマークと前記第2ターゲットのマークとに基づいて、前記第2ターゲットのマークの位置を推定することを特徴とする請求項1または2記載の校正装置。 The mirror surface of the first target is marked with a diffusion surface mark.
Any surface of the second target imaged by the imaging device is a diffusion surface, and the diffusion surface is marked.
The estimation unit estimates a position of the mark of the second target based on the mark of the first target and the mark of the second target included in an image obtained by the imaging device. Item 3. The calibration device according to item 1 or 2.
前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定し、
推定された前記情報に基づいて、前記設計データを校正する、ことを特徴とする校正方法。 A first target having a mirror surface arranged in the field of view of the imaging device according to the design data and a second target arranged outside the field of view of the imaging device in accordance with the design data are imaged using the mirror surface,
Based on the image obtained by the imaging, information related to the second target is estimated,
A calibration method, wherein the design data is calibrated based on the estimated information.
前記撮像によって得られた画像に基づいて、前記第2ターゲットに係る情報を推定する処理と、
推定された前記情報に基づいて、前記設計データを校正する処理と、をコンピュータに実行させることを特徴とする校正プログラム。 A process of imaging, using the mirror surface, a first target that is arranged in the field of view of the imaging device according to design data and has a mirror surface, and a second target that is arranged outside the field of vision of the imaging device according to the design data; ,
A process of estimating information on the second target based on an image obtained by the imaging;
A calibration program for causing a computer to execute a process of calibrating the design data based on the estimated information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014118902A JP2015232464A (en) | 2014-06-09 | 2014-06-09 | Calibration device, calibration method, and calibration program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014118902A JP2015232464A (en) | 2014-06-09 | 2014-06-09 | Calibration device, calibration method, and calibration program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015232464A true JP2015232464A (en) | 2015-12-24 |
Family
ID=54934000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014118902A Withdrawn JP2015232464A (en) | 2014-06-09 | 2014-06-09 | Calibration device, calibration method, and calibration program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015232464A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830906A (en) * | 2018-05-31 | 2018-11-16 | 福州大学 | A kind of camera parameters automatic calibration method based on virtual Binocular Vision Principle |
-
2014
- 2014-06-09 JP JP2014118902A patent/JP2015232464A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830906A (en) * | 2018-05-31 | 2018-11-16 | 福州大学 | A kind of camera parameters automatic calibration method based on virtual Binocular Vision Principle |
CN108830906B (en) * | 2018-05-31 | 2023-10-24 | 福州大学 | Automatic calibration method for camera parameters based on virtual binocular vision principle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106408612B (en) | Machine vision system calibration | |
TWI566204B (en) | Three dimensional object recognition | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
US10664994B2 (en) | System and method for calibration of machine vision cameras along at least three discrete planes | |
JP5999615B2 (en) | Camera calibration information generating apparatus, camera calibration information generating method, and camera calibration information generating program | |
TW201520540A (en) | Inspection apparatus, method, and computer program product for machine vision inspection | |
CN107155341B (en) | Three-dimensional scanning system and frame | |
KR20180123575A (en) | Camera Calibration System | |
JP6519265B2 (en) | Image processing method | |
JP2019100917A (en) | Inspection program generation system, generation method of inspection program and generation program of inspection program | |
KR20110089486A (en) | Mounting boards inspection apparatus and method thereof | |
JP2018004357A5 (en) | ||
JP2017182785A (en) | System and method for efficiently scoring probes in image with vision system | |
JP2013036831A (en) | Calibration apparatus and distortion error calculation method | |
JP2015031601A (en) | Three-dimensional measurement instrument, method, and program | |
JP2014112043A (en) | Stereoscopic shape recognition device and light source position estimation method for stereoscopic shape recognition device | |
CN108062790B (en) | Three-dimensional coordinate system establishing method applied to object three-dimensional reconstruction | |
TWI575307B (en) | Data correction apparatus, drawing apparatus, data correction method, and drawing method | |
JP2010184300A (en) | Attitude changing device and attitude changing method | |
JP2017198470A (en) | Measurement device, measurement method, system, and goods manufacturing method | |
JP5740370B2 (en) | Region specifying apparatus, method, and program | |
JP2015232464A (en) | Calibration device, calibration method, and calibration program | |
KR20140113449A (en) | Drawing data generating method, drawing method, drawing data generating apparatus and drawing apparatus | |
JP7179439B2 (en) | Information processing device, information processing method and program | |
JP6822086B2 (en) | Simulation equipment, simulation method and simulation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170309 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20171225 |