JP6282098B2 - Calibration apparatus and method - Google Patents

Calibration apparatus and method Download PDF

Info

Publication number
JP6282098B2
JP6282098B2 JP2013248030A JP2013248030A JP6282098B2 JP 6282098 B2 JP6282098 B2 JP 6282098B2 JP 2013248030 A JP2013248030 A JP 2013248030A JP 2013248030 A JP2013248030 A JP 2013248030A JP 6282098 B2 JP6282098 B2 JP 6282098B2
Authority
JP
Japan
Prior art keywords
calibration
image
index
camera
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013248030A
Other languages
Japanese (ja)
Other versions
JP2015106287A (en
Inventor
小竹 大輔
大輔 小竹
内山 晋二
晋二 内山
久義 降籏
久義 降籏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013248030A priority Critical patent/JP6282098B2/en
Publication of JP2015106287A publication Critical patent/JP2015106287A/en
Application granted granted Critical
Publication of JP6282098B2 publication Critical patent/JP6282098B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明はカメラを含んだ計測装置のキャリブレーション方法に関する。   The present invention relates to a calibration method for a measuring apparatus including a camera.

画像を利用する三次元計測技術は、実物からの三次元モデル生成や物体の位置姿勢計測など様々な目的に利用することができる。画像を利用する三次元計測の方法としては、相対的な位置及び姿勢が既知な二台のカメラ(ステレオカメラ)により撮影された画像をもとに三角測量の原理に基づいて行う方法が一般的である。また、三次元計測の信頼性を高めるために、ステレオカメラの一方のカメラをプロジェクタなどの照明装置に置き換えることも広く行われている。   The three-dimensional measurement technique using an image can be used for various purposes such as generating a three-dimensional model from an actual object and measuring the position and orientation of an object. As a method of three-dimensional measurement using images, a method based on the principle of triangulation based on images taken by two cameras (stereo cameras) whose relative positions and orientations are known is generally used. It is. In order to increase the reliability of three-dimensional measurement, one of the stereo cameras is widely replaced with an illumination device such as a projector.

三角測量の原理に基づいて三次元計測を行うためには、カメラ(プロジェクタ)の内部パラメータ及びカメラとカメラ(またはカメラとプロジェクタ)の間の相対的な位置及び姿勢を事前にキャリブレーションしておく必要がある。   In order to perform three-dimensional measurement based on the principle of triangulation, the internal parameters of the camera (projector) and the relative position and orientation between the camera and camera (or camera and projector) are calibrated in advance. There is a need.

特許文献1には、指標が配置された平面を、平面に垂直な方向に移動ステージを用いて既知の移動量だけ移動させることで、指標が三次元的に分布したとみなせる校正用物体を用いてカメラ及びプロジェクタのキャリブレーションを行う方法が開示されている。この場合、校正用物体上の指標の三次元座標は、指標の平面上の座標と移動ステージの移動量によって決定される。   Patent Document 1 uses a calibration object that can be regarded as a three-dimensional distribution of an index by moving a plane on which the index is arranged by a known movement amount in a direction perpendicular to the plane using a moving stage. A method for calibrating a camera and a projector is disclosed. In this case, the three-dimensional coordinates of the index on the calibration object are determined by the coordinates on the plane of the index and the moving amount of the moving stage.

特開平11−166818号公報JP-A-11-166818

Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.11, pp.1330−1334, 2000.Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330-1334, 2000.

特許文献1に開示される方法では、指標が配置された平面を移動ステージによって移動させる方向が取り付け誤差などによって平面に垂直な方向に一致しない場合には、校正用物体上の指標の座標に誤差が含まれるためにキャリブレーションの精度が低かった。   In the method disclosed in Patent Document 1, if the direction in which the plane on which the index is arranged is moved by the moving stage does not coincide with the direction perpendicular to the plane due to an attachment error or the like, an error occurs in the coordinates of the index on the calibration object. Calibration accuracy was low.

本発明は、上記の課題に鑑みてなされたものであり、カメラを含んだ計測装置のキャリブレーションを高精度に行うことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to perform calibration of a measuring apparatus including a camera with high accuracy.

上記の課題を解決するために、本発明のキャリブレーション装置は、相対位置姿勢が固定された2つの撮像装置と校正用物体とのいずれか一方を予め定められた移動間隔で直線上を複数回移動させ、移動させる毎に前記2つの撮像装置により前記校正用物体を撮影した複数の画像を取得する取得手段と、前記直線の方向の概略値と前記2つの撮像装置それぞれのパラメータの概略値とを取得する概略値取得手段と、前記校正用物体上の指標の位置情報を保持する保持手段と、前記複数の画像のそれぞれから前記校正用物体上の指標を検出し、検出した指標の画像上の画像座標と前記保持手段に保持された指標の位置情報との対応関係を求める検出手段と、前記複数の画像における前記指標の画像座標と位置情報との対応関係に基づいて、当該複数の画像は、前記2つの撮像装置と校正用物体とのいずれか一方を前記予め定められた移動間隔で前記直線上を移動させる毎に撮影された画像であり、該直線の方向は未定であるという条件の下で、前記直線の方向の概略値と前記2つの撮像装置それぞれに関するパラメータの概略値を補正することにより、当該2つの撮像装置それぞれに関するパラメータを導出するパラメータ導出手段と、前記複数の画像における前記指標の画像座標と位置情報との対応関係と、前記パラメータ導出手段により導出された前記2つの撮像装置それぞれに関するパラメータとに基づいて、当該2つの撮像装置の相対位置姿勢を導出する位置姿勢導出手段とを有する。   In order to solve the above-described problem, the calibration device of the present invention is configured so that either one of two imaging devices whose relative positions and orientations are fixed and a calibration object are moved a plurality of times on a straight line at predetermined movement intervals. An acquisition means for acquiring a plurality of images obtained by capturing the calibration object by the two imaging devices each time it is moved, an approximate value of the direction of the straight line, and an approximate value of a parameter of each of the two imaging devices, An approximate value acquisition means for acquiring the position information of the index on the calibration object, and an index on the calibration object is detected from each of the plurality of images. Detection means for obtaining a correspondence between the image coordinates of the index and the position information of the index held in the holding means, and based on the correspondence between the image coordinates of the index and the position information in the plurality of images, The number of images is an image taken every time one of the two imaging devices and the calibration object is moved on the straight line at the predetermined movement interval, and the direction of the straight line is undetermined. Parameter deriving means for deriving a parameter for each of the two imaging devices by correcting the approximate value of the direction of the straight line and the approximate value of the parameters for each of the two imaging devices under the condition that there are The relative position and orientation of the two imaging devices are derived based on the correspondence between the image coordinates of the index and the position information in the image of the image and the parameters relating to the two imaging devices derived by the parameter deriving means. Position and orientation deriving means.

本発明により、カメラを含んだ計測装置のキャリブレーションを高精度に行うことができる。   According to the present invention, calibration of a measuring apparatus including a camera can be performed with high accuracy.

第1の実施形態に係るキャリブレーション装置1の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the calibration apparatus 1 which concerns on 1st Embodiment. 第1の実施形態におけるキャリブレーション時の機器の配置を説明する図である。It is a figure explaining arrangement | positioning of the apparatus at the time of calibration in 1st Embodiment. 3次元空間中の点の画像への投影モデルを表す図である。It is a figure showing the projection model to the image of the point in three-dimensional space. 校正用物体とカメラの位置関係を説明する図である。It is a figure explaining the positional relationship of the calibration object and a camera. 第1の実施形態でのキャリブレーションの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the calibration in 1st Embodiment. パラメータ算出の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of parameter calculation. カメラの内部パラメータ算出の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the internal parameter calculation of a camera. カメラ間の相対的な位置及び姿勢の算出の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of calculation of the relative position and attitude | position between cameras. 第2の実施形態におけるキャリブレーション時の機器の配置を説明する図である。It is a figure explaining arrangement | positioning of the apparatus at the time of calibration in 2nd Embodiment. 第3の実施形態に係るキャリブレーション装置3の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the calibration apparatus 3 which concerns on 3rd Embodiment. 特徴検出部350の詳細な構成を示すブロック図である。4 is a block diagram showing a detailed configuration of a feature detection unit 350. FIG. 第3の実施形態における指標のプロジェクタ画像上の座標と世界座標との対応付けの処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of matching with the coordinate on the projector image of the parameter | index and world coordinate in 3rd Embodiment. グレイコードパターンのパターン画像を表す図である。It is a figure showing the pattern image of a gray code pattern. 第4の実施形態におけるキャリブレーション時の機器の配置を説明する図である。It is a figure explaining arrangement | positioning of the apparatus at the time of calibration in 4th Embodiment. 第4の実施形態における校正用物体とカメラ及びプロジェクタの配置を説明する図である。It is a figure explaining the arrangement | positioning of the calibration object in 4th Embodiment, a camera, and a projector. 第5の実施形態におけるパラメータ算出の手順を示すフローチャートである。It is a flowchart which shows the procedure of the parameter calculation in 5th Embodiment.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
第1の実施形態では、2台のカメラ(ステレオカメラ)によって構成される三次元計測装置のキャリブレーションを行う場合について説明する。また、本実施形態では、校正用物体をシーン中に固定し、三次元計測装置(ステレオカメラ)を移動ステージによって移動させるものとする。キャリブレーション対象のパラメータは、2台のカメラの内部パラメータ及びカメラ間の相対的な位置及び姿勢である。なお、本実施形態では、移動ステージによって移動したときの各位置における校正用物体に対する各カメラの姿勢は同じであるとする。
(First embodiment)
In the first embodiment, a case will be described in which calibration of a three-dimensional measurement apparatus configured by two cameras (stereo cameras) is performed. In the present embodiment, the calibration object is fixed in the scene, and the three-dimensional measurement apparatus (stereo camera) is moved by the moving stage. The parameters to be calibrated are the internal parameters of the two cameras and the relative position and orientation between the cameras. In the present embodiment, it is assumed that the posture of each camera with respect to the calibration object at each position when moved by the moving stage is the same.

図1は、本実施形態に係るキャリブレーション装置1の概略構成の一例を示すブロック図である。図1に示すように、キャリブレーション装置1は、画像入力部140、特徴検出部150、パラメータ算出部160、移動情報保存部170、校正用物体情報保存部180から構成されている。また、キャリブレーション装置1には、制御部100、第1の撮像部110、第2の撮像部120、校正情報保存部190が接続されている。   FIG. 1 is a block diagram illustrating an example of a schematic configuration of a calibration apparatus 1 according to the present embodiment. As shown in FIG. 1, the calibration apparatus 1 includes an image input unit 140, a feature detection unit 150, a parameter calculation unit 160, a movement information storage unit 170, and a calibration object information storage unit 180. The calibration device 1 is connected to a control unit 100, a first imaging unit 110, a second imaging unit 120, and a calibration information storage unit 190.

図2は、本実施形態において三次元計測装置のキャリブレーションを行う際の機器の配置を示している。図2に示すように、校正用物体を構成する平面上に円形の指標を等間隔に配置する。また、本実施形態では、キャリブレーション計算を安定化させるために校正用物体の平面以外の部分にも指標を配置する。以下、校正用物体の平面上にある指標を平面マーカ、平面以外の部分にある指標を立体マーカと呼ぶ。ただし、立体マーカを校正用物体上に配置することは必須ではなく、平面マーカのみが配置された校正用物体を利用してもよい。   FIG. 2 shows an arrangement of devices when performing calibration of the three-dimensional measuring apparatus in the present embodiment. As shown in FIG. 2, circular indicators are arranged at equal intervals on a plane constituting the calibration object. Further, in the present embodiment, in order to stabilize the calibration calculation, an index is also arranged on a portion other than the plane of the calibration object. Hereinafter, an index on the plane of the calibration object is called a plane marker, and an index on a portion other than the plane is called a three-dimensional marker. However, it is not essential to arrange the three-dimensional marker on the calibration object, and a calibration object in which only the planar marker is arranged may be used.

校正用物体に平面マーカと立体マーカ(立体指標)を配置することで、校正用物体上の指標の分布が3次元的になるようにする。校正用物体上に三次元の座標系(以下、世界座標系と呼ぶ)を規定するために、平面マーカの一部を同心円にする。   By arranging a plane marker and a three-dimensional marker (three-dimensional index) on the calibration object, the distribution of the index on the calibration object becomes three-dimensional. In order to define a three-dimensional coordinate system (hereinafter referred to as a world coordinate system) on the calibration object, a part of the planar marker is concentric.

以下、同心円の平面マーカを同心円マーカと呼ぶ。本実施形態では、同心円マーカをL字状に配置し、L字の角の部分にあたる同心円マーカの中心位置を世界座標系の原点とする。また、平面の法線方向を世界座標系のZ軸とし、L字の長手方向をX軸、短手方向をY軸とする。平面マーカは世界座標系における平面Z=0上にあるとする。世界座標系における各指標の三次元座標(位置情報)は、校正用物体情報保存部180に保存される。これらの座標は、校正用物体の設計値をそのまま用いてもよいし、接触式の三次元座標計測機などの計測機を用いて別途計測された座標を用いてもよい。   Hereinafter, concentric planar markers are referred to as concentric markers. In the present embodiment, the concentric markers are arranged in an L shape, and the center position of the concentric marker corresponding to the corner portion of the L shape is set as the origin of the world coordinate system. Also, the normal direction of the plane is the Z axis of the world coordinate system, the L direction is the X axis, and the short direction is the Y axis. It is assumed that the plane marker is on the plane Z = 0 in the world coordinate system. The three-dimensional coordinates (position information) of each index in the world coordinate system are stored in the calibration object information storage unit 180. As these coordinates, the design values of the calibration object may be used as they are, or coordinates measured separately using a measuring machine such as a contact-type three-dimensional coordinate measuring machine may be used.

第1の撮像部110、第2の撮像部120は濃淡またはカラー画像を撮影するカメラである。第1の撮像部110、第2の撮像部120は、制御部100からの指示をもとに画像の撮影を行う。第1の撮像部110、第2の撮像部120はそれぞれ図2におけるカメラL、カメラRに相当する。カメラL、カメラRは互いの相対的な位置及び姿勢が変化しないように固定されており、ステレオカメラを構成している。   The first image capturing unit 110 and the second image capturing unit 120 are cameras that capture grayscale or color images. The first imaging unit 110 and the second imaging unit 120 capture an image based on an instruction from the control unit 100. The first imaging unit 110 and the second imaging unit 120 correspond to the camera L and the camera R in FIG. The cameras L and R are fixed so that their relative positions and postures do not change, and constitute a stereo camera.

移動部130は、ステレオカメラを直線上で移動させるための移動ステージである。移動部130は図2における移動ステージに相当する。キャリブレーション時には、移動ステージによってステレオカメラは予め決められた間隔で直線上を移動する。なお、予め決められた間隔は、一定の間隔であっても異なる間隔であってもよい。   The moving unit 130 is a moving stage for moving the stereo camera on a straight line. The moving unit 130 corresponds to the moving stage in FIG. At the time of calibration, the stereo camera moves on a straight line at a predetermined interval by the moving stage. The predetermined interval may be a constant interval or a different interval.

制御部100は、第1の撮像部110、第2の撮像部120、移動部130の制御を行う。制御部100はコンピュータによって実現される。キャリブレーション用の画像を撮影する際には、制御部100は移動部130に予め決められた距離だけ移動するよう指示を行い、移動が終了する毎に第1の撮像部110、第2の撮像部120に画像を撮影するよう指示を行う。   The control unit 100 controls the first imaging unit 110, the second imaging unit 120, and the moving unit 130. The control unit 100 is realized by a computer. When taking an image for calibration, the control unit 100 instructs the moving unit 130 to move by a predetermined distance, and the first imaging unit 110 and the second imaging unit each time the movement is completed. The unit 120 is instructed to take an image.

制御部100と移動部130は、例えばRS−232Cケーブルによって接続されており、RS−232Cのインタフェースを介して移動の指示を送る。また、制御部100と第1の撮像部110、第2の撮像部120は、例えばカメラリンクケーブルによって接続されており、カメラリンクのインタフェースを介して撮影の指示を送る。しかしながら、制御部100と移動部130、制御部100と第1の撮像部110、第2の撮像部120の接続方法はこれに限るものではなく、USBやIEEE1394、GbEなど他の接続方法であっても本発明の本質を損ねるものではない。   The control unit 100 and the moving unit 130 are connected by, for example, an RS-232C cable, and send a movement instruction via the RS-232C interface. The control unit 100, the first imaging unit 110, and the second imaging unit 120 are connected by, for example, a camera link cable, and send a shooting instruction via a camera link interface. However, the connection method between the control unit 100 and the moving unit 130, the control unit 100 and the first imaging unit 110, and the second imaging unit 120 is not limited to this, and other connection methods such as USB, IEEE 1394, and GbE are used. However, the essence of the present invention is not impaired.

以下では、本実施形態のキャリブレーション装置1の画像入力部140、特徴検出部150、パラメータ算出部160、移動情報保持部170、校正用物体情報保持部180のそれぞれについて説明を行う。キャリブレーション装置1は、例えばメモリとCPUとを備えるパーソナルコンピュータによって実現される。そして、キャリブレーション装置1は、図1に示す構成がプログラムもしくは回路として組み込まれている。なお、移動情報保持部170および校正用物体情報保持部180は例えば、メモリやハードディスクなどから構成される。   Hereinafter, each of the image input unit 140, the feature detection unit 150, the parameter calculation unit 160, the movement information holding unit 170, and the calibration object information holding unit 180 of the calibration apparatus 1 of the present embodiment will be described. The calibration device 1 is realized by a personal computer including a memory and a CPU, for example. The calibration apparatus 1 incorporates the configuration shown in FIG. 1 as a program or a circuit. Note that the movement information holding unit 170 and the calibration object information holding unit 180 include, for example, a memory and a hard disk.

画像入力部140は、移動部130によって予め決められた間隔だけステレオカメラが移動する毎に、第1の撮像部110、第2の撮像部120が撮影する校正用物体の画像を入力する。画像の入力は、例えばカメラリンクのインタフェースを介して行う。しかしながら、画像の入力方法はこれに限るものではなく、USBやIEEE1394、GbEなど他のインタフェースを介して入力してもよい。   The image input unit 140 inputs an image of the calibration object captured by the first imaging unit 110 and the second imaging unit 120 each time the stereo camera moves by a predetermined interval by the moving unit 130. For example, an image is input through a camera link interface. However, the image input method is not limited to this, and may be input via another interface such as USB, IEEE 1394, or GbE.

また、画像を撮影する時に画像入力部140と第1の撮像部110、第2の撮像部120が接続している必要は必ずしもなく、予め撮影を行って不図示の記憶媒体上に保存した画像を読み出して入力してもよい。入力された画像は、例えば、キャリブレーション装置1内のメモリやハードディクスに記憶される。   Further, it is not always necessary that the image input unit 140 is connected to the first imaging unit 110 and the second imaging unit 120 when an image is captured, and an image that has been captured in advance and saved on a storage medium (not illustrated). May be read and input. The input image is stored in, for example, a memory or hard disk in the calibration apparatus 1.

特徴検出部150は、画像入力部140を介して入力された画像(メモリ領域に記憶されている)から、校正用物体上の指標を検出し、校正用物体情報保存部180に保存された指標との対応付けを行う。特徴検出部150は、対応付けの結果として、指標の画像上の座標と校正用物体情報保存部180に保存された指標の世界座標との対応をパラメータ算出部160へと出力する。   The feature detection unit 150 detects an index on the calibration object from the image (stored in the memory area) input via the image input unit 140, and the index stored in the calibration object information storage unit 180. Is associated. The feature detection unit 150 outputs, as a result of the association, the correspondence between the coordinates on the image of the index and the world coordinates of the index stored in the calibration object information storage unit 180 to the parameter calculation unit 160.

移動情報保存部170は、移動部130によってステレオカメラが直線上を移動した時の移動間隔を保持する。保持する移動間隔は、例えば制御部100が移動部130に与えた制御値であってもよいし、移動部130に移動量を検知するエンコーダが付属してる場合はエンコーダの値から得てもよい。   The movement information storage unit 170 holds a movement interval when the movement unit 130 moves the stereo camera on a straight line. The movement interval to be held may be, for example, a control value given to the moving unit 130 by the control unit 100, or may be obtained from an encoder value when an encoder for detecting the movement amount is attached to the moving unit 130. .

パラメータ算出部160は、特徴検出部150から出力される指標の画像上の座標と世界座標との対応及び移動情報保存部170に保存された移動量をもとに、各カメラの内部パラメータ及びカメラ間の相対的な位置及び姿勢の算出を行う。詳細については後述する。   The parameter calculation unit 160 determines the internal parameters of each camera and the camera based on the correspondence between the coordinates on the image of the index output from the feature detection unit 150 and the world coordinates and the movement amount stored in the movement information storage unit 170. The relative position and orientation between them are calculated. Details will be described later.

校正情報保存部190は、パラメータ算出部160によって算出された2台のカメラの内部パラメータ及びカメラ間の相対的な位置及び姿勢を保存する。   The calibration information storage unit 190 stores the internal parameters of the two cameras calculated by the parameter calculation unit 160 and the relative positions and orientations between the cameras.

次に、本実施形態におけるカメラの投影モデルについて説明する。図3に示すように、カメラ座標系(三次元)を、Z軸が光軸と一致し、X軸、Y軸がそれぞれ画像の水平方向、垂直方向と平行になるようにとる。カメラ座標系の原点はカメラのレンズ中心とする。カメラ座標系における三次元座標が(X,Y,Z)の点は、ピンホールカメラモデルによって数1で表される正規化画像座標(x,y)に投影される。 Next, a camera projection model in this embodiment will be described. As shown in FIG. 3, the camera coordinate system (three-dimensional) is taken such that the Z axis coincides with the optical axis, and the X axis and Y axis are parallel to the horizontal and vertical directions of the image, respectively. The origin of the camera coordinate system is the lens center of the camera. A point having a three-dimensional coordinate (X c , Y c , Z c ) in the camera coordinate system is projected to a normalized image coordinate (x c , y c ) expressed by Equation 1 by a pinhole camera model.

Figure 0006282098

ここで正規化画像座標とは、カメラ座標系においてZ=1の位置に画像面を設定したときの画像面上での位置である。正規化座標系の原点は光軸(Z軸)と画像面の交点であり、x軸、y軸はそれぞれ画像の水平方向、垂直方向と平行であるとする。正規化画像座標が(x,y)の点の実画像上での座標(以下、ピクセル座標)(u,v)は数2で表される。
Figure 0006282098

Here, the normalized image coordinates are positions on the image plane when the image plane is set at a position of Z = 1 in the camera coordinate system. The origin of the normalized coordinate system is the intersection of the optical axis (Z-axis) and the image plane, and the x-axis and y-axis are parallel to the horizontal and vertical directions of the image, respectively. The coordinates (hereinafter, pixel coordinates) (u c , v c ) on the actual image of the point having the normalized image coordinates (x c , y c ) are expressed by the following equation (2).

Figure 0006282098

ここで、f、fは焦点距離、(c,c)は画像中心の座標(正規化画像座標系の原点の実画像上でのピクセル座標)である。数3に示すように、実際のカメラによって撮影される場合には正規化画像座標にレンズ歪みの影響が加わる。
Figure 0006282098

Here, f x and f y are focal lengths, and (c x , c y ) are image center coordinates (pixel coordinates on the actual image at the origin of the normalized image coordinate system). As shown in Equation 3, when the image is taken by an actual camera, the normalized image coordinates are affected by lens distortion.

Figure 0006282098

ただし、
Figure 0006282098


である。k,k,kは半径方向の歪み係数、p,pは接線方向の歪み係数である。焦点距離f、f、画像中心c、c、歪み係数k,k,k,p,pをカメラの内部パラメータと呼ぶ。
Figure 0006282098

However,
Figure 0006282098


It is. k 1 , k 2 , and k 3 are radial distortion coefficients, and p 1 and p 2 are tangential distortion coefficients. The focal lengths f x and f y , the image centers c x and c y , and the distortion coefficients k 1 , k 2 , k 3 , p 1 and p 2 are referred to as camera internal parameters.

次に、校正用物体の座標系(世界座標系)からカメラ座標系への座標変換について説明する。図4に示すように、カメラ(カメラ座標系の原点)が移動ステージによって移動する直線(以下、直線A)と世界座標系の平面Z=0の交点aの世界座標をt=[t0]とする。 Next, coordinate conversion from the coordinate system (world coordinate system) of the calibration object to the camera coordinate system will be described. As shown in FIG. 4, the world coordinates of the intersection point a between the straight line (hereinafter referred to as the straight line A) on which the camera (the origin of the camera coordinate system) is moved by the moving stage and the plane Z w = 0 of the world coordinate system are expressed as t l = [t x ty 0] t .

また世界座標系における直線Aの方向ベクトルをd=[d(d +d +d =1)とする。カメラの初期位置を交点aから直線Aに距離Zだけ離れた位置とし、移動ステージによりカメラは毎回ΔZずつ移動するものとする。移動ステージをi回(i=0,1,..,M−1)動かした時のカメラ座標Xと世界座標Xとの関係は数4のようになる。 In addition, the direction vector of the straight line A in the world coordinate system is assumed to be d 1 = [d x d y d z ] t (d x 2 + d y 2 + d z 2 = 1). The initial position of the camera from the intersection a between position away line A distance Z 0, the moving stage camera is assumed to be moved by each [Delta] Z. When the moving stage is moved i times (i = 0, 1,..., M−1), the relationship between the camera coordinates Xc and the world coordinates Xw is as shown in Equation 4.

Figure 0006282098

ここでRwcは世界座標系におけるカメラの姿勢を表す3×3回転行列である。前述したように、本実施形態では、移動ステージによる移動により世界座標系におけるカメラの姿勢は変化しないという前提であるため、Rwcはカメラが移動しても変化しない。数4を変形することにより数5が得られる。
Figure 0006282098

Here, R wc is a 3 × 3 rotation matrix representing the posture of the camera in the world coordinate system. As described above, in the present embodiment, since it is premised that the posture of the camera in the world coordinate system does not change due to movement by the moving stage, R wc does not change even when the camera moves. Equation 5 is obtained by transforming Equation 4.

Figure 0006282098

ただし
Figure 0006282098

である。
Figure 0006282098

However,
Figure 0006282098

It is.

図5は、本実施形態における三次元計測装置のキャリブレーションの処理手順を示すフローチャートである。   FIG. 5 is a flowchart showing a calibration processing procedure of the three-dimensional measurement apparatus according to this embodiment.

(ステップS1010)
ステップS1010では、本実施形態におけるキャリブレーションの初期化処理を行う。まず、校正用物体に関する情報を不図示の記憶装置から読み込んで校正用物体情報保持部180に保持させる。前述したように、校正用物体情報保持部180が保持する情報は、世界座標系における各指標の三次元座標(X, Y, Z)である。また、移動部130によってステレオカメラが直線上を移動した時の移動間隔ΔZを移動情報保存部170に保持させる。ここでは移動間隔ΔZは常に一定であるとする。
(Step S1010)
In step S1010, calibration initialization processing in the present embodiment is performed. First, information relating to a calibration object is read from a storage device (not shown) and held in the calibration object information holding unit 180. As described above, the information held by the calibration object information holding unit 180 is the three-dimensional coordinates (X w , Y w , Z w ) of each index in the world coordinate system. Further, the movement information storage unit 170 holds the movement interval ΔZ when the stereo camera moves on a straight line by the movement unit 130. Here, it is assumed that the movement interval ΔZ is always constant.

(ステップS1020)
ステップS1020では、画像入力部140を介してカメラL及びカメラRにより撮影された校正用物体の画像を入力する。移動ステージによってカメラL及びカメラRが直線上を所定の間隔で移動し停止する毎に撮影された画像を入力する。すなわち、移動ステージによりステレオカメラがM−1回動く場合、初期位置も含めて2M枚の画像を入力する。
(Step S1020)
In step S1020, an image of the calibration object photographed by the camera L and the camera R is input via the image input unit 140. The camera L and the camera R are moved on the straight line at predetermined intervals by the moving stage, and an image taken every time is stopped is input. That is, when the stereo camera rotates M-1 by the moving stage, 2M images including the initial position are input.

(ステップS1030)
ステップS1030では、ステップS1020で入力された画像から指標(円形マーカ)の検出を行う。指標の検出処理は、ステップS1020で入力されたすべての画像に対して行う。図2に示すように校正用物体は白色であり、指標は黒色の円であることから、画像の二値化及び黒色の領域のラベリング処理を行って円領域の候補を抽出し、各円領域の候補の面積を閾値処理することで指標に相当する領域を検出する。
(Step S1030)
In step S1030, an index (circular marker) is detected from the image input in step S1020. The index detection process is performed on all the images input in step S1020. As shown in FIG. 2, since the calibration object is white and the index is a black circle, binarization of the image and labeling processing of the black area are performed to extract circular area candidates. A region corresponding to the index is detected by performing threshold processing on the candidate area.

また、座標系を規定する同心円マーカについては、同様に二値化及びラベリング処理の結果をもとに、黒色の領域の中に白色の領域がありかつ既定の面積以上の領域として検出を行う。   Similarly, a concentric marker that defines a coordinate system is detected as a region having a white region in a black region and having a predetermined area or more based on the results of binarization and labeling.

画像から指標を検出した後、検出された指標の対応付けを行う。まず、画像上で同心円マーカがのる2本の直線を推定し、2本の直線の交点付近にある指標を原点の指標と対応付ける。原点に対応付けられた指標及び前述の2本の直線の方向をもとに他の指標の対応付けを行う。対応付け結果はカメラ毎に保持される。対応の情報は、指標の世界座標系上の座標   After the index is detected from the image, the detected index is associated. First, two straight lines with concentric markers on the image are estimated, and an index near the intersection of the two straight lines is associated with the index at the origin. Based on the index associated with the origin and the direction of the two straight lines, the other indices are associated. The association result is held for each camera. Corresponding information is the coordinates of the indicator in the world coordinate system

Figure 0006282098

及びカメラ画像上の座標
Figure 0006282098

移動ステージの移動回数iの組として保持する。
Figure 0006282098

And coordinates on the camera image
Figure 0006282098

It is held as a set of the number of times i of movement stage movement.

(ステップS1040)
ステップS1040では、ステップS1030までに得られた対応の情報を用いて、カメラL及びカメラRの内部パラメータ及びカメラLとカメラ2の間(撮像装置間)の相対的な位置及び姿勢を算出する。図6は、ステップS1040におけるパラメータ算出(導出)の手順を示すフローチャートである。以下、図6のフローチャートに基づいてパラメータ算出の詳細な手順について説明する。
(Step S1040)
In step S1040, using the corresponding information obtained up to step S1030, the internal parameters of camera L and camera R and the relative position and orientation between camera L and camera 2 (between the imaging devices) are calculated. FIG. 6 is a flowchart showing the procedure of parameter calculation (derivation) in step S1040. Hereinafter, a detailed procedure of parameter calculation will be described based on the flowchart of FIG.

(ステップS1110)
ステップS1110では、まずカメラLの内部パラメータの算出を行う。図7は、カメラの内部パラメータを算出する処理手順を説明するフローチャートである。本ステップでは、まず初期値を必要としない方法により未知パラメータの概略値の算出(概略値取得)を行った後、数6に示される評価関数が最小となるような未知パラメータを非線形最適化により算出する。
(Step S1110)
In step S1110, first, internal parameters of the camera L are calculated. FIG. 7 is a flowchart illustrating a processing procedure for calculating the internal parameters of the camera. In this step, first, an approximate value of an unknown parameter is calculated (approximate value acquisition) by a method that does not require an initial value, and then an unknown parameter that minimizes the evaluation function shown in Equation 6 is nonlinearly optimized. calculate.

Figure 0006282098

ただし、
Figure 0006282098

は算出される未知パラメータに基づいて計算される指標の座標、
Figure 0006282098

は画像上で検出された指標の座標である。また、Nは対応付けされた指標の総数である。
Figure 0006282098

However,
Figure 0006282098

Is the index coordinates calculated based on the calculated unknown parameters,
Figure 0006282098

Is the coordinates of the index detected on the image. N is the total number of associated indexes.

(ステップS1210)
ステップS1210では、未知パラメータの概略値の算出を行う。概略値の算出においては、レンズ歪みの影響は無視するものとする。ここで未知パラメータとは、レンズ歪み係数以外のカメラの内部パラメータ(焦点距離、画像中心)、世界座標系におけるカメラの姿勢、カメラが移動ステージによって移動する直線のパラメータ、直線上のカメラの初期位置である。
(Step S1210)
In step S1210, the approximate value of the unknown parameter is calculated. In calculating the approximate value, the influence of lens distortion is ignored. Here, the unknown parameters are the camera internal parameters (focal length, image center) other than the lens distortion coefficient, the camera posture in the world coordinate system, the straight line parameter that the camera moves on the moving stage, and the initial position of the camera on the straight line It is.

概略値の算出は、次のような順序で行う。まず直線Aが撮影画像上に投影される位置(A,A)を後述する画像処理により求める。(A,A)を用いることでカメラの内部パラメータの画像中心を未知パラメータから除外することができる。次に、(A,A)と平面マーカの対応情報をもとに直線Aが平面Z=0を通過する位置を求める。最後に、残ったパラメータを算出する。 The approximate value is calculated in the following order. First, the position (A x , A y ) where the straight line A is projected on the captured image is obtained by image processing to be described later. By using (A x , A y ), the image center of the camera's internal parameters can be excluded from the unknown parameters. Next, a position at which the straight line A passes through the plane Z w = 0 is obtained based on the correspondence information between (A x , A y ) and the plane marker. Finally, the remaining parameters are calculated.

(1) A,Aの算出
カメラ座標系における直線Aの方向ベクトルをd=[dcxcyczと表すと、レンズ歪みの影響を無視する場合には、画像上に投影される直線Aのピクセル座標(A,A)は次式のように表される。
(1) Calculation of A x , A y When the direction vector of the straight line A in the camera coordinate system is expressed as d c = [d cx d cy d cz ] t , if the influence of lens distortion is ignored, The pixel coordinates (A x , A y ) of the projected straight line A are expressed as follows:

Figure 0006282098

ただし、d= Rcwである。
一方、カメラを直線A上で移動させた場合、校正用物体上の各指標の画像座標(ピクセル座標)の移動軌跡は理論的には一点(A,A)で交わる。そこで、カメラの位置を変えて撮影したときの校正用物体上の各指標の移動軌跡をもとに (A,A)を算出する。
Figure 0006282098

However, d c = R cw d l .
On the other hand, when the camera is moved on the straight line A, the movement locus of the image coordinates (pixel coordinates) of each index on the calibration object theoretically intersects at one point (A x , A y ). Therefore, (A x , A y ) is calculated based on the movement trajectory of each index on the calibration object when the camera position is changed.

(2) t,tの算出
次に、直線Aと平面Z=0との交点aの平面座標(t,t)を算出する。ステップS1030で得られる平面マーカのピクセル座標(u,v)と平面座標(X,Y)との対応からピクセル座標と平面座標の変換行列を算出し、(A,A)を平面座標(t,t)をに変換する。
(2) t x, calculation of t y is then calculated plane coordinates of the intersection a of the straight line A and the plane Z w = 0 (t x, t y). From the correspondence between the pixel coordinates (u, v) and the plane coordinates (X w , Y w ) of the plane marker obtained in step S1030, a transformation matrix between the pixel coordinates and the plane coordinates is calculated, and (A x , A y ) is determined as a plane. The coordinates (t x , t y ) are converted into

(3)他のパラメータの推定
= Rcwであることから、数5における世界座標系からカメラ座標系への変換を次式のように表し直す。
(3) Estimation of other parameters Since d c = R cw d l , the transformation from the world coordinate system to the camera coordinate system in Equation 5 is re-expressed as follows:

Figure 0006282098

数2、数7、数8より正規化画像座標からピクセル座標への変換は次式のように表すことができる。
Figure 0006282098

回転行列Rcwを次のように表す。
Figure 0006282098

数1、数8、数9、数10より
Figure 0006282098

ただし、
Figure 0006282098

である。数11は、対応付けられたすべての指標について成り立つ。そこで、数11を各指標について立式したものを連立方程式として未知パラメータ
Figure 0006282098

The conversion from the normalized image coordinates to the pixel coordinates can be expressed by the following equation from Equations 2, 7, and 8.
Figure 0006282098

The rotation matrix R cw is expressed as follows.
Figure 0006282098

From Equation 1, Equation 8, Equation 9, and Equation 10
Figure 0006282098

However,
Figure 0006282098

It is. Equation 11 holds for all the associated indices. Therefore, unknown parameters are obtained by formulating Equation 11 for each index as simultaneous equations.

Figure 0006282098

を算出する。Pの各成分は例えば最小二乗法により算出する。Pの各成分を算出した後、数12の11個の式及び回転行列の正規直交性及びdが単位ベクトルであることを利用して、回転行列Rcwの各要素、直線上のカメラの初期位置Z、方向ベクトルdの各成分、焦点距離f、fを算出する。なお、複数の解の組合せが存在する場合には、焦点距離が正の値になるといった妥当な解の組合せを選択することで一意な解を得る。さらに、算出されたf、f、A、A、dを用いて数7からc、cを算出する。最後に
Figure 0006282098

Is calculated. Each component of P is calculated by, for example, the least square method. After calculating the components of P, by utilizing the fact that the number 12 of the 11 pieces of the formula and the rotation matrix orthonormality and d c of a unit vector, each element of the rotation matrix R cw, the straight line of the camera initial position Z 0, calculates each component of the direction vector d c, the focal length f x, the f y. When there are a plurality of solution combinations, a unique solution is obtained by selecting an appropriate solution combination in which the focal length is a positive value. Furthermore, the calculated f x, f y, A x , A y, having 7 with d c c x, calculates the c y. Finally

Figure 0006282098

からdを算出する。
Figure 0006282098

D 1 is calculated from

以上のようにして、未知パラメータである焦点距離f、f、画像中心c、c、カメラが移動する直線の方向ベクトルd、カメラの姿勢を表す3×3回転行列Rcw、直線上のカメラの初期位置Zの概略値を算出する。レンズ歪み係数[kの概略値はすべて0とする。 As described above, the focal lengths f x and f y that are unknown parameters, the image centers c x and c y , the direction vector d l of the straight line along which the camera moves, the 3 × 3 rotation matrix R cw that represents the posture of the camera, calculating the approximate values of the initial position Z 0 of the straight line of the camera. The approximate values of the lens distortion coefficients [k 1 k 2 k 3 p 1 p 2 ] t are all 0.

なお、ステップS1210では、検出された指標の対応情報をもとに未知パラメータの概略値を計算により算出したが、設計パラメータなど概略値として利用可能な情報があらかじめ分かっている場合には必ずしも概略値を計算によって求めなくてもよい。   In step S1210, the approximate value of the unknown parameter is calculated by calculation based on the correspondence information of the detected index. However, if the information that can be used as the approximate value such as the design parameter is known in advance, the approximate value is not necessarily obtained. May not be obtained by calculation.

(ステップS1220)
ステップS1220では、ステップS1210で得られた未知パラメータの概略値を初期値として、数6に示される評価関数が最小となるように未知パラメータの最適化を行う。最適化の対象となる未知パラメータは、カメラの内部パラメータ、カメラが移動する直線の方向ベクトルd、直線上のカメラの初期位置Z、世界座標系に対するカメラの姿勢である。最適化計算は、例えばガウス・ニュートン法によって行う。しかしながら、最適化計算の方法はこれに限るものではなく、数6に示される評価関数を最小化する方法であれば他のいかなる方法であってもよい。例えば、ニュートン法や最急降下法、共役勾配法を用いてもよい。
(Step S1220)
In step S1220, the unknown parameter is optimized so that the evaluation function shown in Equation 6 is minimized using the approximate value of the unknown parameter obtained in step S1210 as an initial value. The unknown parameters to be optimized are the internal parameters of the camera, the direction vector d 1 of the straight line along which the camera moves, the initial position Z 0 of the camera on the straight line, and the attitude of the camera with respect to the world coordinate system. The optimization calculation is performed by, for example, the Gauss-Newton method. However, the optimization calculation method is not limited to this, and any other method may be used as long as it minimizes the evaluation function shown in Equation 6. For example, a Newton method, steepest descent method, or conjugate gradient method may be used.

(ステップS1120)
ステップS1120では、カメラRの内部パラメータのキャリブレーションを行う。ステップS1120の処理はステップS1110の処理と同一であるため説明を省略する。
(Step S1120)
In step S1120, the internal parameters of the camera R are calibrated. Since the process of step S1120 is the same as the process of step S1110, description thereof is omitted.

(ステップS1130)
ステップS1110、S1120においてカメラL、カメラRの内部パラメータのキャリブレーションを行った後、ステップS1030では、カメラLとカメラRの相対的な位置及び姿勢のキャリブレーションを行う。図8はカメラLとカメラRの相対的な位置及び姿勢を算出する処理手順を説明するフローチャートである。本ステップでは、まず初期値を必要としない方法により未知パラメータの概略値の算出を行った後、数13によって示される評価関数が最小となるように非線形最適化によって未知パラメータを算出する。
(Step S1130)
After the internal parameters of the cameras L and R are calibrated in steps S1110 and S1120, the relative positions and orientations of the cameras L and R are calibrated in step S1030. FIG. 8 is a flowchart illustrating a processing procedure for calculating the relative positions and orientations of the camera L and the camera R. In this step, first, an approximate value of an unknown parameter is calculated by a method that does not require an initial value, and then an unknown parameter is calculated by nonlinear optimization so that the evaluation function represented by Equation 13 is minimized.

Figure 0006282098

ただし、
Figure 0006282098

は算出される未知パラメータに基づいて計算されるカメラLの画像上での指標の座標、
Figure 0006282098

However,
Figure 0006282098

Is the coordinate of the index on the image of the camera L calculated based on the calculated unknown parameter,

Figure 0006282098


はカメラLの画像上で検出された指標の座標、
Figure 0006282098


Is the coordinates of the index detected on the image of the camera L,

Figure 0006282098

は算出される未知パラメータに基づいて計算されるカメラRの画像上での指標の座標、
Figure 0006282098

Is the coordinates of the index on the image of the camera R calculated based on the calculated unknown parameter,

Figure 0006282098

はカメラRの画像上で検出された指標の座標である。また、N、NはそれぞれカメラL、カメラRにより撮影された画像における対応付けされた指標の総数である。
Figure 0006282098

Is the coordinates of the index detected on the image of the camera R. N 1 and N 2 are the total number of indices associated with the images taken by the cameras L and R, respectively.

(ステップS1310)
ステップS1310では、カメラLに対するカメラRの相対的な位置及び姿勢(位置姿勢)の概略値を算出する。カメラLに対するカメラRの相対的な位置及び姿勢の概略値は、ステップS1110、S1120における内部パラメータのキャリブレーション時に算出された世界座標系に対する各カメラの位置及び姿勢をもとに算出する。また、カメラが移動する直線の方向ベクトルや直線上のカメラの初期位置の概略値は、カメラLのカメラの内部パラメータのキャリブレーション時に算出された値を用いる。
(Step S1310)
In step S1310, an approximate value of the relative position and orientation (position and orientation) of the camera R with respect to the camera L is calculated. The approximate values of the relative position and orientation of the camera R with respect to the camera L are calculated based on the position and orientation of each camera with respect to the world coordinate system calculated at the time of calibration of internal parameters in steps S1110 and S1120. Further, as the direction vector of the straight line along which the camera moves and the approximate value of the initial position of the camera on the straight line, values calculated during the calibration of the camera internal parameters of the camera L are used.

しかしながら、概略値の算出方法はこれに限るものではなく、夫々のカメラの内部パラメータのキャリブレーション時に算出された値の組合せのうち、数14の値が小さくなる組合せを概略値として用いてもよい。   However, the method of calculating the approximate value is not limited to this, and a combination of values calculated at the time of calibration of the internal parameters of each camera may be used as the approximate value. .

(ステップS1320)
ステップS1320では、ステップS1310で得られた未知パラメータの概略値を初期値として、数13に示される評価関数が最小となるように未知パラメータの最適化を行う。
(Step S1320)
In step S1320, the unknown parameter is optimized so that the evaluation function shown in Equation 13 is minimized with the approximate value of the unknown parameter obtained in step S1310 as an initial value.

本ステップにおける未知パラメータは、カメラLに対するカメラRの相対的な位置及び姿勢、カメラが移動する直線の方向ベクトル、世界座標系におけるカメラLの姿勢、直線上のカメラLの初期位置である。本ステップにおける最適化はステップS1220で説明したものと同様であるため説明を省略する。   The unknown parameters in this step are the relative position and orientation of the camera R with respect to the camera L, the direction vector of the straight line to which the camera moves, the posture of the camera L in the world coordinate system, and the initial position of the camera L on the straight line. Since optimization in this step is the same as that described in step S1220, description thereof is omitted.

以上述べた方法によって、ステレオカメラによって構成される三次元計測装置のキャリブレーションを行う。   By the method described above, the calibration of the three-dimensional measuring apparatus constituted by the stereo camera is performed.

以上述べたように、第1の実施形態では、三次元計測装置(ステレオカメラ)を移動ステージによって移動させたときの移動間隔を既知として、三次元計測装置のキャリブレーションを行う方法について説明した。   As described above, in the first embodiment, the method for calibrating the three-dimensional measurement apparatus is described with the movement interval when the three-dimensional measurement apparatus (stereo camera) is moved by the moving stage being known.

キャリブレーションの際に三次元計測装置が直線上を移動しかつ移動間隔が既知であるという制約条件をキャリブレーション計算に利用することで、移動方向に関するパラメータが未知であっても高精度にキャリブレーションすることが可能になる。また、事前に校正用物体における特定の方向と移動ステージによる移動の方向を一致させる必要がなくなり、三次元計測装置のキャリブレーションが簡便化される。   By using the constraint condition that the 3D measuring device moves on a straight line and the movement interval is known for calibration calculation at the time of calibration, calibration can be performed with high accuracy even if parameters related to the moving direction are unknown. It becomes possible to do. Further, it is not necessary to make the specific direction of the calibration object coincide with the direction of movement by the moving stage in advance, and the calibration of the three-dimensional measuring apparatus is simplified.

本発明によってキャリブレーションされる三次元計測装置の一例が2台のカメラから構成されるステレオカメラである。   An example of the three-dimensional measuring apparatus calibrated by the present invention is a stereo camera composed of two cameras.

しかしながら、三次元計測装置の構成はこれに限るものではなく、3台以上のカメラを用いてもよい。この場合には、各カメラの内部パラメータをカメラ毎に推定した後、全てのカメラの画像上で検出された指標の再投影誤差の和を最小化するようにカメラ間の相対的な位置及び姿勢を推定すればよい。   However, the configuration of the three-dimensional measurement apparatus is not limited to this, and three or more cameras may be used. In this case, after estimating the internal parameters of each camera for each camera, the relative positions and postures between the cameras are minimized so as to minimize the sum of the reprojection errors of the indices detected on the images of all the cameras. Can be estimated.

(第2の実施形態)
第1の実施形態では、校正用物体をシーン中に固定し、移動ステージによって三次元計測装置(ステレオカメラ)を移動させる場合に本発明を適用したときのキャリブレーション方法について説明した。第2の実施形態では、三次元計測装置を固定し、校正用物体を移動ステージによって移動させる場合のキャリブレーション方法について説明する。
(Second Embodiment)
In the first embodiment, the calibration method when the present invention is applied to the case where the calibration object is fixed in the scene and the three-dimensional measuring device (stereo camera) is moved by the moving stage has been described. In the second embodiment, a calibration method in the case where the three-dimensional measurement apparatus is fixed and the calibration object is moved by the moving stage will be described.

第2の実施形態における三次元計測装置1の概略構成は図1と同一であるので説明を省略する。但し、図9に示すように、第2の実施形態では移動部130はステレオカメラではなく校正用物体を所定の間隔で直線上に移動させる。ステレオカメラを構成する各カメラは、移動部130によって校正用物体が所定の間隔だけ移動させられるごとに、校正用物体の画像を撮影する。なお、第1の実施形態でも述べたように、移動ステージによって移動させる間隔は、既知の情報として得られるのであれば一定であっても、移動毎に異なっていてもよい。   Since the schematic configuration of the three-dimensional measuring apparatus 1 in the second embodiment is the same as that in FIG. However, as shown in FIG. 9, in the second embodiment, the moving unit 130 moves the calibration object instead of the stereo camera on a straight line at a predetermined interval. Each camera constituting the stereo camera captures an image of the calibration object each time the calibration object is moved by the moving unit 130 by a predetermined interval. As described in the first embodiment, the interval of movement by the movement stage may be constant as long as it is obtained as known information, or may be different for each movement.

次に、第2の実施形態における校正用物体の座標系からカメラ座標系への変換について説明する。第2の実施形態では、移動ステージ上での初期位置にあるときの校正用物体の座標系を世界座標系であるとする。校正用物体は、移動ステージにより毎回ΔZずつ移動するものとする。また世界座標系における移動ステージによる移動方向のベクトルをd=[d(d +d +d =1)とする。 Next, conversion of the calibration object from the coordinate system to the camera coordinate system in the second embodiment will be described. In the second embodiment, the coordinate system of the calibration object at the initial position on the moving stage is assumed to be the world coordinate system. It is assumed that the calibration object moves by ΔZ each time by the moving stage. In addition, a vector in the moving direction by the moving stage in the world coordinate system is set to d l = [d x d y d z ] t (d x 2 + d y 2 + d z 2 = 1).

移動ステージをi回(i=0,1,…,M−1)動かした時の校正用物体上での座標Xと世界座標Xとの関係は数14のように表される。 The moving stage i times the relationship between the coordinate X b and world coordinates X w on the calibration object when (i = 0,1, ..., M -1) is moved is expressed as Expression 14.

Figure 0006282098
Figure 0006282098

カメラ座標系に対する世界座標系の姿勢を表す3×3回転行列をRcw、位置を表す3次元ベクトルをtcwとすると,カメラ座標と世界座標との関係は数15のように表される。 When a 3 × 3 rotation matrix that represents the attitude of the world coordinate system with respect to the camera coordinate system is R cw and a three-dimensional vector that represents the position is t cw , the relationship between the camera coordinates and the world coordinates is expressed by Equation 15.

Figure 0006282098
Figure 0006282098

一方、世界座標系に対するカメラ座標系の位置をtwcを次式のように表す。 On the other hand, the position of the camera coordinate system with respect to the world coordinate system is expressed as twc as follows.

Figure 0006282098

但し
Figure 0006282098

であり、dとtは平行でないものとする。twcとtcwの間には次式のように関係がある。
Figure 0006282098

However,
Figure 0006282098

And d l and t l are not parallel. There is a relationship between t wc and t cw as shown in the following equation.

Figure 0006282098

数14、数15、数16、数17から次式が得られる。
Figure 0006282098
Figure 0006282098

The following equations are obtained from Equations 14, 15, 16, and 17.
Figure 0006282098

数18は、第1の実施形態における数5とほぼ同じ形になっている((Z+iΔZ)dの符号が反転しているのは、第1の実施形態でカメラが移動する方向と第2の実施形態で校正用物体が移動する方向が反対であるためである)。 Expression 18 has substantially the same form as Expression 5 in the first embodiment (the sign of (Z 0 + iΔZ) d 1 is reversed because the camera moves in the first embodiment. This is because the calibration object moves in the opposite direction in the second embodiment).

これは、校正用物体を固定して移動ステージによりカメラを移動させる場合と、カメラを固定して移動ステージにより校正用物体を移動させる場合とが等価であることを示している。そのため、カメラを固定して移動ステージにより校正用物体を移動させて撮影した画像を用いる場合にも、第1の実施形態で開示した方法によりキャリブレーションを行うことができる。以降の処理は第1の実施形態と同等であるため説明を省略する。
以上述べたように、第2の実施形態では、校正用物体を移動ステージによって直線上を移動させたときの移動間隔を既知として、三次元計測装置のキャリブレーションを行う方法について説明した。
This indicates that the case where the calibration object is fixed and the camera is moved by the moving stage is equivalent to the case where the camera is fixed and the calibration object is moved by the moving stage. Therefore, calibration can be performed by the method disclosed in the first embodiment even when using an image obtained by fixing the camera and moving the calibration object by the moving stage. Subsequent processing is the same as that of the first embodiment, and thus description thereof is omitted.
As described above, in the second embodiment, the method for calibrating the three-dimensional measurement apparatus is described with the movement interval when the calibration object is moved on the straight line by the moving stage as known.

校正用物体が移動ステージによって移動する場合であっても、校正用物体が直線上を移動しかつ移動間隔が既知であるという制約条件を利用することで、移動方向に関するパラメータが未知であっても高精度にキャリブレーションすることが可能になる。   Even when the calibration object is moved by the moving stage, the parameter regarding the moving direction is unknown by using the constraint that the calibration object moves on a straight line and the movement interval is known. Calibration with high accuracy becomes possible.

また、事前に校正用物体における特定の方向と移動ステージによる移動の方向を一致させる必要がなくなり、三次元計測装置のキャリブレーションが簡便化される。   Further, it is not necessary to make the specific direction of the calibration object coincide with the direction of movement by the moving stage in advance, and the calibration of the three-dimensional measuring apparatus is simplified.

(第3の実施形態)
第1の実施形態及び第2の実施形態では、三次元計測装置として2台のカメラから構成されるステレオカメラを対象としたキャリブレーション方法について説明した。本実施形態では、ステレオカメラの一方をプロジェクタに置き換えた三次元計測装置のキャリブレーションに本発明を適用した場合について述べる。
(Third embodiment)
In the first embodiment and the second embodiment, the calibration method for a stereo camera including two cameras as the three-dimensional measurement apparatus has been described. In the present embodiment, a case will be described in which the present invention is applied to calibration of a three-dimensional measurement apparatus in which one of the stereo cameras is replaced with a projector.

図10は、本実施形態に係るキャリブレーション装置3の概略構成の一例を示すブロック図である。   FIG. 10 is a block diagram illustrating an example of a schematic configuration of the calibration apparatus 3 according to the present embodiment.

キャリブレーション装置3は、画像入力部340、特徴検出部350、パラメータ算出部360、移動情報保存部370、校正用物体情報保存部380から構成されている。また、キャリブレーション装置3には、制御部300、撮像部310、照明部320、校正情報保存部390が接続されている。なお本実施形態で用いる校正用物体は第1の実施形態で用いた校正用物体と同一であるため説明を省略する。   The calibration device 3 includes an image input unit 340, a feature detection unit 350, a parameter calculation unit 360, a movement information storage unit 370, and a calibration object information storage unit 380. The calibration device 3 is connected to a control unit 300, an imaging unit 310, an illumination unit 320, and a calibration information storage unit 390. Note that the calibration object used in the present embodiment is the same as the calibration object used in the first embodiment, and a description thereof will be omitted.

撮像部310は、濃淡またはカラー画像を撮影するカメラである。また、照明部320は投影型のプロジェクタである。プロジェクタは、常に決まったパターンや画像を空間中に投影するものであってもよいし、任意の画像を切り替えて投影するものであってもよい。   The imaging unit 310 is a camera that captures a grayscale or color image. The illumination unit 320 is a projection type projector. The projector may always project a fixed pattern or image into the space, or may switch and project an arbitrary image.

ここでは、任意の画像を切り替えて投影することができるプロジェクタを利用するものとする。図2に示す2台のカメラと同様に、カメラとプロジェクタは互いの相対的な位置及び姿勢が変化しないように固定されている。   Here, a projector capable of switching and projecting an arbitrary image is used. Similar to the two cameras shown in FIG. 2, the camera and the projector are fixed so that their relative positions and postures do not change.

プロジェクタは、輝度値が一様なパターン及びキャリブレーション用のパターン画像を照射する。一様なパターンを照射して撮影された画像は校正用物体上の指標の検出に利用する。常に決まったパターンを投影するプロジェクタを用いる場合には、プロジェクタによる投影を行わず、環境光のもとで撮影された画像を校正用物体上の指標の検出に利用する。   The projector emits a pattern having a uniform luminance value and a pattern image for calibration. An image taken by irradiating a uniform pattern is used to detect an index on the calibration object. When a projector that always projects a fixed pattern is used, an image taken under ambient light is used for detection of an index on a calibration object without performing projection by the projector.

本実施形態では、キャリブレーション用のパターン画像として空間コード化法のパターンを投影する。空間コード化法では各画素の空間コードを決定するために複数の縞パターン画像を切り替えて投影・撮像する。本実施形態では、プロジェクタは水平及び垂直方向の縞パターンを照射するものとする。プロジェクタは、制御部300からの指示をもとにパターンの投影を行う。カメラは制御部300からの指示に基づいてプロジェクタがパターンを投影したら、画像の撮影を行う。   In the present embodiment, a pattern of the spatial encoding method is projected as a pattern image for calibration. In the spatial coding method, a plurality of fringe pattern images are switched and projected and imaged in order to determine the spatial code of each pixel. In the present embodiment, it is assumed that the projector irradiates horizontal and vertical stripe patterns. The projector projects a pattern based on an instruction from the control unit 300. The camera captures an image when the projector projects a pattern based on an instruction from the control unit 300.

移動部330は、カメラとプロジェクタを直線上で移動させるための移動ステージである。本実施形態では、第1の実施形態と同様に、移動ステージによりカメラとプロジェクタを所定の間隔で直線上を移動させ、シーン中に固定された校正用物体の画像を撮影する。校正用物体には一様なパターン及びプロジェクタのキャリブレーション用のパターン画像を照射して別々に画像を撮影する。   The moving unit 330 is a moving stage for moving the camera and the projector on a straight line. In the present embodiment, as in the first embodiment, the camera and the projector are moved on a straight line at a predetermined interval by the moving stage, and an image of the calibration object fixed in the scene is taken. The calibration object is irradiated with a uniform pattern and a pattern image for calibration of the projector, and images are taken separately.

制御部300は、第2の撮像部120の替わりに照明部320の制御を行う以外は実施例1の制御部100と同一の機能を持つため説明を省略する。   The control unit 300 has the same function as that of the control unit 100 of the first embodiment except that it controls the illumination unit 320 instead of the second imaging unit 120, and thus description thereof is omitted.

画像入力部340は、制御部300によって移動部330が所定の距離だけ移動するごとに、撮像部310が撮影する校正用物体の画像をコンピュータに入力する。第1の実施形態の画像入力部140と同様に、画像入力部340と撮像部310が必ずしも接続している必要はなく、予め撮影を行って不図示の記憶媒体上に保存した画像を読みだして入力してもよい。   The image input unit 340 inputs an image of a calibration object imaged by the imaging unit 310 to the computer every time the moving unit 330 moves by a predetermined distance by the control unit 300. Similar to the image input unit 140 of the first embodiment, the image input unit 340 and the imaging unit 310 are not necessarily connected, and an image that has been captured in advance and saved on a storage medium (not shown) is read out. May be entered.

校正用物体情報保存部380の機能は第1の実施形態の校正用物体情報保存部180の機能と同一であるため説明を省略する。   Since the function of the calibration object information storage unit 380 is the same as the function of the calibration object information storage unit 180 of the first embodiment, a description thereof will be omitted.

特徴検出部350は、画像入力部340を介して入力された画像から、校正用物体上の指標を検出し校正用物体情報保存部380に保存された指標との対応付けを行う。   The feature detection unit 350 detects an index on the calibration object from the image input via the image input unit 340 and associates the index with the index stored in the calibration object information storage unit 380.

図11は、特徴検出部350の詳細な構成を示すブロック図である。特徴検出部350は、指標検出部351、パターン検出部352から構成される。指標検出部351の機能は第1の実施形態の特徴検出部150の機能と同一であるため説明を省略する。   FIG. 11 is a block diagram illustrating a detailed configuration of the feature detection unit 350. The feature detection unit 350 includes an index detection unit 351 and a pattern detection unit 352. Since the function of the index detection unit 351 is the same as the function of the feature detection unit 150 of the first embodiment, description thereof is omitted.

パターン検出部354は、画像入力部340を介して入力された縞パターンが照射された画像をもとに各画素の水平・垂直方向の空間コード及び水平・垂直方向の空間コードの境界座標を算出する。指標検出部351において検出された指標の座標及びパターン検出部352において算出された水平・垂直方向の空間コードの境界座標を用いてプロジェクタ画像上での指標の座標を算出し、世界座標と対応付ける。   The pattern detection unit 354 calculates the horizontal and vertical spatial codes of each pixel and the boundary coordinates of the horizontal and vertical spatial codes of each pixel based on the image irradiated with the stripe pattern input via the image input unit 340. To do. Using the coordinate of the index detected by the index detection unit 351 and the boundary coordinates of the horizontal and vertical spatial codes calculated by the pattern detection unit 352, the coordinate of the index on the projector image is calculated and associated with the world coordinate.

移動情報保存部370は、移動部330によって三次元計測装置を構成するカメラとプロジェクタが直線上を移動した時の移動間隔を保持する。   The movement information storage unit 370 holds a movement interval when the camera and the projector constituting the three-dimensional measurement apparatus are moved on a straight line by the movement unit 330.

パラメータ算出部360は、特徴検出部350から得られる指標の画像上の座標と世界座標との対応及び移動情報保存部370に保存された移動量をもとに、カメラとプロジェクタの内部パラメータ及びカメラとプロジェクタの間の相対的な位置及び姿勢の算出を行う。   Based on the correspondence between the coordinates on the image of the index obtained from the feature detection unit 350 and the world coordinates and the movement amount stored in the movement information storage unit 370, the parameter calculation unit 360 The relative position and orientation between the projector and the projector are calculated.

校正情報保存部390は、パラメータ算出部360によって算出されたカメラとプロジェクタの内部パラメータ及びカメラとプロジェクタの間の相対的な位置及び姿勢を保存する。   The calibration information storage unit 390 stores the internal parameters of the camera and the projector calculated by the parameter calculation unit 360 and the relative position and orientation between the camera and the projector.

第3の実施形態における三次元計測装置のキャリブレーションの処理手順は、基本的には図5に示す第1の実施形態における処理手順と同一である。第1の実施形態と第3の実施形態の違いは二つある。   The calibration processing procedure of the three-dimensional measuring apparatus in the third embodiment is basically the same as the processing procedure in the first embodiment shown in FIG. There are two differences between the first embodiment and the third embodiment.

1つは、ステップS1020において、輝度値が一様なパターン及びキャリブレーション用のパターン画像を照射した画像を入力する点にある。もう1つの違いは、ステップS1030において、指標のカメラR上の画像上の座標ではなくプロジェクタ画像上の座標を算出し世界座標と対応付けることにある。   One is that, in step S1020, an image irradiated with a pattern having a uniform luminance value and a pattern image for calibration is input. Another difference is that in step S1030, coordinates on the projector image, not coordinates on the image on the camera R, are calculated and associated with world coordinates.

ここで、レンズを用いた光学系としてプロジェクタを見た場合、カメラとの違いはレンズを通して画像を入力するか出力するかの違いだけであるとため、プロジェクタの投影モデルはカメラと同じモデルによって記述することができる。そのため、カメラとプロジェクタのキャリブレーションには本質的な違いはなく、同じ方法によって行うことができる。
以下では、指標のプロジェクタ画像上の座標と世界座標と対応付ける方法について説明する。対応付け情報が得られた後のステップS1040の処理は実施例1と同一であるため説明を省略する。
Here, when the projector is viewed as an optical system using a lens, the only difference from the camera is whether the image is input or output through the lens, so the projection model of the projector is described by the same model as the camera. can do. Therefore, there is no essential difference between the calibration of the camera and the projector, and it can be performed by the same method.
Hereinafter, a method for associating the coordinates of the index on the projector image with the world coordinates will be described. Since the processing in step S1040 after the association information is obtained is the same as that in the first embodiment, description thereof is omitted.

図12は、第3の実施形態における指標のプロジェクタ画像上の座標と世界座標と対応付けの処理手順を示すフローチャートである。   FIG. 12 is a flowchart illustrating a processing procedure for associating coordinates on the projector image with indices and world coordinates according to the third embodiment.

(ステップS3110)
ステップS3110では、ステップS1020で入力された一様なパターンを照射して撮影した校正用物体の画像から指標を検出し校正用物体情報保存部380に保存された指標の世界座標との対応付けを行う。本ステップの処理は第1の実施形態のステップS1030と同一であるため説明を省略する。
(Step S3110)
In step S 3110, the index is detected from the image of the calibration object captured by irradiating the uniform pattern input in step S 1020, and the index stored in the calibration object information storage unit 380 is associated with the world coordinates. Do. Since the processing in this step is the same as that in step S1030 of the first embodiment, description thereof is omitted.

(ステップS3120)
ステップS3120では、ステップS1020で入力された縞パターンが照射された画像から、水平・垂直方向の空間コードの境界を算出する。空間コード化法で用いられる代表的な縞パターンはグレイコードパターンである(図13)。
(Step S3120)
In step S3120, the horizontal and vertical spatial code boundaries are calculated from the image irradiated with the stripe pattern input in step S1020. A typical fringe pattern used in the spatial coding method is a gray code pattern (FIG. 13).

まず、グレイコードパターンを構成する各縞パターンを照射して撮影した画像を二値化し、画素毎に二値化結果(0または1)を並べることにより符号(空間コード)を算出する。   First, an image captured by irradiating each stripe pattern constituting a gray code pattern is binarized, and a code (space code) is calculated by arranging binarization results (0 or 1) for each pixel.

空間コードは、該当する画素に照射されたプロジェクタ画像上でのラインのIDを表すものであり、水平方向と垂直方向のそれぞれについて算出する。この結果をもとに、水平方向と垂直方向のそれぞれについて、撮像画像上における空間コードの境界を算出する。   The space code represents the ID of a line on the projector image irradiated to the corresponding pixel, and is calculated for each of the horizontal direction and the vertical direction. Based on this result, the boundary of the spatial code on the captured image is calculated for each of the horizontal direction and the vertical direction.

次に、水平方向と垂直方向の空間コードの境界を用いて、垂直・水平方向の縞パターンの交点の座標を算出する。空間コードにより各交点のカメラ画像上での座標とプロジェクタ画像上での座標を対応づけることができる。この対応はステップS3130で利用する。   Next, the coordinates of the intersection of the vertical and horizontal stripe patterns are calculated using the boundary between the horizontal and vertical spatial codes. The coordinates on the camera image of each intersection and the coordinates on the projector image can be associated with each other by the space code. This correspondence is used in step S3130.

(ステップS3130)
ステップS3130では、次に指標の世界座標とプロジェクタ画像上の座標の対応付けを行う。
(Step S3130)
In step S3130, next, the world coordinates of the index are associated with the coordinates on the projector image.

まず、ステップS3110において世界座標との対応付けができているカメラ画像上で検出された指標毎に、カメラ画像上での近傍領域(ここでは半径r画素以内とする)にある空間コードの交点(ステップS3120で算出)を探索する。   First, for each index detected on the camera image that is associated with the world coordinates in step S3110, the intersection of spatial codes in the vicinity area (here, within radius r pixels) on the camera image ( Search in step S3120.

次に、指標の周辺は局所的に平面であると仮定し、探索された交点のカメラ画像上の座標とプロジェクタ画像上の座標をもとにカメラ画像上の座標をプロジェクタ画像上の座標に変換するホモグラフィー変換を算出する。ホモグラフィー変換は、例えばR. Hartley & A. Zisserman「Multiple View Geometry」(Cambridge University Press)にて開示されているDirect Linear Transform(DLT)法により算出する。最後に、算出したホモグラフィー変換を用いて指標のカメラ画像上での座標をプロジェクタ画像上での座標に変換する。このようにして、指標の世界座標とプロジェクタ画像上の座標の対応付けを行う。   Next, assuming that the area around the index is a plane locally, the coordinates on the camera image are converted to the coordinates on the projector image based on the coordinates on the camera image and the coordinates on the projector image of the searched intersection. Calculate the homography transformation. Homographic transformation is described in, for example, Hartley & A. It is calculated by the Direct Linear Transform (DLT) method disclosed in Zisserman “Multiple View Geometry” (Cambridge University Press). Finally, using the calculated homography conversion, the coordinates of the index on the camera image are converted into the coordinates on the projector image. In this way, the world coordinates of the index are associated with the coordinates on the projector image.

以上のように得られた指標のプロジェクタ画像上の座標と世界座標との対応付け結果を用いて、第1の実施形態と同様の処理によりプロジェクタの内部パラメータ及びカメラとプロジェクタの間の相対的な位置及び姿勢を算出する。   Using the result of associating the coordinates of the index on the projector image and the world coordinates obtained as described above, the internal parameters of the projector and the relative parameters between the camera and the projector are processed by the same process as in the first embodiment. Calculate the position and orientation.

以上述べたように、第3の実施形態では、カメラとプロジェクタによって構成される三次元計測装置を移動ステージによって移動させた時の移動間隔を既知として、三次元計測装置のキャリブレーションを行う方法について説明した。   As described above, in the third embodiment, a method for calibrating a three-dimensional measurement apparatus with a known movement interval when the three-dimensional measurement apparatus constituted by a camera and a projector is moved by a moving stage is known. explained.

三次元計測装置がカメラとプロジェクタから構成される場合であっても、三次元計測装置が直線上を移動しかつ移動間隔が既知であるという制約条件をキャリブレーション計算に利用することで、移動方向に関するパラメータが未知であっても高精度にキャリブレーションすることが可能になる。   Even if the 3D measuring device is composed of a camera and a projector, the direction of movement can be obtained by using the constraint that the 3D measuring device moves on a straight line and the movement interval is known for the calibration calculation. It is possible to calibrate with high accuracy even if the parameter is unknown.

さらに副次的な効果として、事前に校正用物体における特定の方向と移動ステージによる移動の方向を一致させる必要がなくなり、三次元計測装置のキャリブレーションが簡便化される。   Further, as a secondary effect, it is not necessary to make the specific direction of the calibration object coincide with the direction of movement by the moving stage in advance, and the calibration of the three-dimensional measuring apparatus is simplified.

本実施形態では、カメラとプロジェクタから構成される三次元計測装置のキャリブレーションを行う際に、プロジェクタは空間コード化法に用いる縞パターン画像を投影した。しかしながら、プロジェクタが投影するパターン画像はこれに限るものではなく、パターン画像とカメラ画像の対応をとれるパターン画像であれば他の画像であってもよい。   In the present embodiment, when calibrating a three-dimensional measuring apparatus including a camera and a projector, the projector projects a fringe pattern image used for the spatial coding method. However, the pattern image projected by the projector is not limited to this, and any other image may be used as long as the pattern image can correspond to the camera image.

例えば、複数のパターン画像を投影・撮影するものとしては、位相シフト法のためのパターン画像を投影してもよい。   For example, for projecting and photographing a plurality of pattern images, a pattern image for the phase shift method may be projected.

また、1枚のパターン画像をカメラで撮影した画像からパターン画像とカメラ画像の対応をとれるパターン画像であってもよい。   Moreover, the pattern image which can take the correspondence of a pattern image and a camera image from the image which image | photographed one pattern image with the camera may be sufficient.

また、本実施形態では、プロジェクタ画像上の指標の座標を算出するのに、プロジェクタによって投影される空間コードの垂直・水平パターンの交点の座標から推定されるホモグラフィー変換によりカメラ画像上の指標の座標を変換していた。しかしながら、プロジェクタ画像上の指標の座標を算出する方法はこれに限るものではなく、カメラ画像上の指標の座標と近傍の空間コードの垂直・水平パターンの交点への距離をもとに内挿により算出してもよい。   Further, in the present embodiment, in order to calculate the coordinates of the index on the projector image, the index of the index on the camera image is calculated by homography conversion estimated from the coordinates of the intersection of the vertical and horizontal patterns of the spatial code projected by the projector. The coordinates were converted. However, the method of calculating the coordinates of the index on the projector image is not limited to this, and interpolation is performed based on the distance between the coordinates of the index on the camera image and the intersection of the vertical and horizontal patterns of the nearby spatial code. It may be calculated.

(第4の実施形態).
第3の実施形態では、プロジェクタの内部パラメータ及びカメラとプロジェクタの相対的な位置及び姿勢のキャリブレーションを、校正用物体上の指標の世界座標とプロジェクタ画像上の座標の対応を用いて行う方法について説明した。これに対し第4の実施系形態では、校正用物体上の指標を用いずに、プロジェクタが投影するパターンのプロジェクタ画像上の座標とカメラ画像上の座標との対応をもとに上記のパラメータのキャリブレーションを行う方法について説明する。
(Fourth embodiment).
In the third embodiment, a method for calibrating the internal parameters of the projector and the relative positions and orientations of the camera and the projector by using the correspondence between the world coordinates of the index on the calibration object and the coordinates on the projector image. explained. On the other hand, in the fourth embodiment, without using the index on the calibration object, the above parameters are set based on the correspondence between the coordinates on the projector image and the coordinates on the camera image of the pattern projected by the projector. A method for performing calibration will be described.

なお本実施形態では、第2の実施系形態と同様に、校正用物体を移動ステージによって移動させる場合のキャリブレーション方法について説明する。   In this embodiment, as in the second embodiment, a calibration method in the case where the calibration object is moved by the moving stage will be described.

また、本実施形態では、カメラの内部パラメータは第1の実施形態または第2の実施形態で説明した方法等により、あらかじめキャリブレーションされているものとする。また、プロジェクタの内部パラメータ、カメラとプロジェクタの間の相対的な位置及び姿勢などのキャリブレーション対象のパラメータの概略値は設計値などから得られているものとする。   In this embodiment, it is assumed that the internal parameters of the camera are calibrated in advance by the method described in the first embodiment or the second embodiment. Further, it is assumed that approximate values of parameters to be calibrated such as internal parameters of the projector and relative positions and orientations between the camera and the projector are obtained from design values and the like.

図14は、第4の実施形態において三次元計測装置のキャリブレーションを行う際の機器の配置を示している。第4の実施形態では、校正用物体として共通の法線ベクトルを持つ高さの違う複数の平面によって構成される物体を利用する。なお、平面間の高さの差異Δrは既知であるとする。ここでは平面の数は2個であるとする。しかしながら、平面の数は2個に限るものではなく、3個以上の平面によって構成されていてもよい。   FIG. 14 shows an arrangement of devices when performing calibration of the three-dimensional measurement apparatus in the fourth embodiment. In the fourth embodiment, an object composed of a plurality of planes having different heights having a common normal vector is used as a calibration object. Note that the height difference Δr between planes is known. Here, it is assumed that the number of planes is two. However, the number of planes is not limited to two, and may be constituted by three or more planes.

第4の実施形態におけるキャリブレーションの処理の手順は基本的には図5に示す第1の実施形態の手順と同一である。ただし、ステップS1020の画像入力において入力される画像は、縞パターンを投影した校正用物体の画像である。   The procedure of the calibration process in the fourth embodiment is basically the same as the procedure of the first embodiment shown in FIG. However, the image input in the image input in step S1020 is an image of the calibration object on which the fringe pattern is projected.

また、ステップS1030では指標の検出は行わず、垂直・水平方向の縞パターンの交点の座標の算出及び対応付けのみ行うものとする。対応付け情報としては、垂直・水平方向の縞パターンの交点のカメラ及びプロジェクタ画像上の座標、各交点に相当する光線が校正用物体上で反射する時の平面のIDの組みとして保持されるものとする。   In step S1030, the index is not detected, and only the calculation and association of the coordinates of the intersections of the vertical and horizontal stripe patterns are performed. The correspondence information is held as a set of coordinates on the camera and projector image at the intersection of the vertical and horizontal stripe patterns, and the plane ID when the light beam corresponding to each intersection is reflected on the calibration object And

以下では、ステップS1040におけるパラメータ算出の処理について述べる。第4の実施系形態では、カメラの内部パラメータは既知としているため、プロジェクタの内部パラメータ及びカメラとプロジェクタの間の相対的な位置及び姿勢を算出する。なお、これまでの実施形態では内部パラメータを算出した後で相対的な位置及び姿勢を算出していたのに対し、第4の実施形態ではプロジェクタの内部パラメータとカメラとプロジェクタの相対的な位置及び姿勢を同時に算出する。   Hereinafter, the parameter calculation process in step S1040 will be described. In the fourth embodiment, since the internal parameters of the camera are known, the internal parameters of the projector and the relative position and orientation between the camera and the projector are calculated. In the previous embodiments, the relative position and orientation were calculated after calculating the internal parameters, whereas in the fourth embodiment, the internal parameters of the projector and the relative positions of the camera and the projector were calculated. Calculate the posture at the same time.

第4の実施形態におけるキャリブレーション計算の処理手順は基本的には図7のフローチャートに示されているものと同一であるため、図7のステップ番号S1210〜S1220をS4210〜S4220として処理内容を説明する。ここでは数19に示される評価関数が最小となるような未知パラメータを非線形最適化により算出する。   Since the processing procedure of the calibration calculation in the fourth embodiment is basically the same as that shown in the flowchart of FIG. 7, the processing contents will be described with step numbers S1210 to S1220 of FIG. 7 as S4210 to S4220. To do. Here, an unknown parameter that minimizes the evaluation function shown in Equation 19 is calculated by nonlinear optimization.

Figure 0006282098

ただし、
Figure 0006282098

は算出される未知パラメータに基づいて計算されるプロジェクタ画像上のパターンの交点の座標、
Figure 0006282098

However,
Figure 0006282098

Is the coordinates of the intersection of the pattern on the projector image calculated based on the calculated unknown parameter,

Figure 0006282098

はプロジェクタが投影するパターン画像上でのパターンの交点の座標である。また、Nは対応付けされたパターンの交点の総数である。
Figure 0006282098

Is the coordinates of the intersection of the patterns on the pattern image projected by the projector. N is the total number of intersections of the associated patterns.

(ステップS4210)
ステップS4210では、未知パラメータの概略値の入力を行う。ここで未知パラメータとは、プロジェクタの内部パラメータ(焦点距離、画像中心、レンズ歪み係数)、カメラとプロジェクタの相対的な位置及び姿勢、校正用物体の位置及び姿勢、校正用物体の移動ベクトルである。
(Step S4210)
In step S4210, an approximate value of an unknown parameter is input. Here, the unknown parameters are the internal parameters of the projector (focal length, image center, lens distortion coefficient), the relative position and orientation of the camera and projector, the position and orientation of the calibration object, and the movement vector of the calibration object. .

校正用物体は法線ベクトルが共通で高さの違う複数の平面から構成されているため、校正用物体の位置及び姿勢は校正用物体を構成するある平面のパラメータとなる。これらの未知パラメータの概略値は、前述のように、設計値などをもとに入力する。もしくは、特許文献1で開示されている移動ベクトルを既知とする方法によって算出する。   Since the calibration object is composed of a plurality of planes having the same normal vector and different heights, the position and orientation of the calibration object are parameters of a certain plane constituting the calibration object. As described above, approximate values of these unknown parameters are input based on design values and the like. Alternatively, the movement vector disclosed in Patent Document 1 is calculated by a known method.

(ステップS4220)
ステップS4220では、ステップS4210で得られた未知パラメータの概略値を初期値として、数19に示される評価関数が最小となるように未知パラメータの最適化を行う。
(Step S4220)
In step S4220, the unknown parameter is optimized so that the evaluation function shown in Equation 19 is minimized with the approximate value of the unknown parameter obtained in step S4210 as an initial value.

はじめにカメラ側の正規化画像座標(x, y)とプロジェクタ側の正規化画像座標(x,y)との関連について説明する。 First, the relationship between the normalized image coordinates (x c , y c ) on the camera side and the normalized image coordinates (x p , y p ) on the projector side will be described.

まず、既知であるカメラの内部パラメータを用いて、数2、数3をもとにパターンの交点のカメラ画像上のピクセル座標(u,v)を歪みのない正規化画像座標(x, y)に変換する。 First, using the known camera internal parameters, pixel coordinates (u c , v c ) on the camera image at the intersection of the pattern based on Equations 2 and 3 are normalized image coordinates (x c ) without distortion. , Y c ).

数2に基づいてピクセル座標(u,v)を歪みのある正規化画像座標(x’, y’)に変換し、さらに数3に基づいて歪みのある正規化画像座標(x’, y’)を歪みのない正規化画像座標(x, y)に変換する。ただし、歪みのある正規化画像座標(x’, y’)から歪みのない正規化画像座標(x, y)を解析的に求めるのは困難なので、x、yに初期値(例えば、x’、y’)を与え、ニュートン法などの繰返し計算によってx、yを算出する。 The pixel coordinates (u c , v c ) are converted into distorted normalized image coordinates (x ′ c , y ′ c ) based on Equation 2, and further distorted normalized image coordinates (x ' c , y' c ) is transformed into normalized image coordinates (x c , y c ) without distortion. However, since it is difficult to analytically obtain the normalized image coordinates (x c , y c ) without distortion from the normalized image coordinates (x ′ c , y ′ c ) with distortion, the initial values are set to x c , y c . Values (for example, x ′ c , y ′ c ) are given, and x c and y c are calculated by iterative calculation such as Newton's method.

次に、カメラ側の正規化画像座標(x, y)とプロジェクタ側の正規化画像座標(x,y)を関連付ける。図15は、第4の実施形態における校正用物体とカメラ及びプロジェクタの配置を説明する図である。校正用物体を構成する一方の平面(平面ID:1、以下平面1とする)の初期位置(移動ステージによる移動がない場合)におけるカメラ座標系における方程式を Next, the normalized image coordinates (x c , y c ) on the camera side are associated with the normalized image coordinates (x p , y p ) on the projector side. FIG. 15 is a diagram for explaining the arrangement of the calibration object, the camera, and the projector in the fourth embodiment. An equation in the camera coordinate system at the initial position (when there is no movement by the moving stage) of one plane (plane ID: 1, hereinafter referred to as plane 1) constituting the calibration object is

Figure 0006282098

とする。ただしnは平面1の法線ベクトル(単位ベクトル)、rはカメラ座標系の原点から平面1までの距離である。平面1が移動ステージによって方向d(dは単位ベクトル)にiΔZ(i=0,1,…,M−1)だけ移動する場合、平面の方程式は次式のようになる。
Figure 0006282098

And However n c is the normal vector of the plane 1 (unit vector), the r c is the distance from the origin of the camera coordinate system to the plane 1. IΔZ the plane 1 moves the stage in a direction d c (d c is the unit vector) (i = 0,1, ..., M-1) when moving only plane equation is expressed by the following equation.

Figure 0006282098

平面1と校正用物体を構成する他方の平面(平面ID:2、以下平面2とする)は平面1と法線ベクトルが共通で高さの差異がΔrである。平面2が移動ステージによって方向dにiΔZ(i=0,1,…,M−1)だけ移動する場合、平面の方程式は次式のようになる。
Figure 0006282098

The plane 1 and the other plane constituting the calibration object (plane ID: 2, hereinafter referred to as plane 2) have the same normal vector as that of plane 1 and have a height difference Δr. IΔZ direction d c plane 2 by moving the stage (i = 0,1, ..., M -1) when moving only plane equation is expressed by the following equation.

Figure 0006282098

ここで、カメラ座標系からプロジェクタ座標系への変換を数22のように表す。
Figure 0006282098

Here, the transformation from the camera coordinate system to the projector coordinate system is expressed as in Expression 22.

Figure 0006282098

平面1上のある点のカメラ側の正規化画像座標を(x,y)、プロジェクタ側の正規化画像座標を(x,y)と両者には次のような関係がある。
Figure 0006282098

The normalized image coordinates on the camera side of a certain point on the plane 1 are (x c , y c ), the normalized image coordinates on the projector side are (x p , y p ), and both have the following relationship.

Figure 0006282098

ただし、
Figure 0006282098

となる。また、平面2の場合には
Figure 0006282098

ただし
Figure 0006282098

となる。
Figure 0006282098

However,
Figure 0006282098

It becomes. In the case of plane 2,
Figure 0006282098

However,
Figure 0006282098

It becomes.

以上のように、カメラ側の正規化画像座標(x, y)とプロジェクタ側の正規化画像座標(x,y)は数23、24により関連付けられる。さらに、プロジェクタ側の正規化画像座標(x,y)は、数2及び数3によりプロジェクタ側のピクセル座標に変換される。 As described above, the normalized image coordinates (x c , y c ) on the camera side and the normalized image coordinates (x p , y p ) on the projector side are related by Equations 23 and 24. Further, the normalized image coordinates (x p , y p ) on the projector side are converted into pixel coordinates on the projector side according to Equations 2 and 3.

ステップS4220では、数2、数3、数23、数24をもとに、数19に示される評価関数が最小となるように未知パラメータの最適化を行う。   In step S4220, the unknown parameters are optimized so that the evaluation function shown in Equation 19 is minimized based on Equations 2, 3, 23, and 24.

本ステップにおいて最適化される未知パラメータは、プロジェクタの内部パラメータ、カメラとプロジェクタの相対的な位置及び姿勢、校正用物体の位置及び姿勢、校正用物体の移動ベクトルである。本ステップにおける最適化は第1の実施形態のステップS1220で説明したものと同様であるため説明を省略する。   The unknown parameters optimized in this step are the internal parameters of the projector, the relative position and orientation of the camera and the projector, the position and orientation of the calibration object, and the movement vector of the calibration object. Since optimization in this step is the same as that described in step S1220 of the first embodiment, description thereof is omitted.

以上述べたように、第4の実施形態では、移動ステージによる校正用物体の移動間隔を既知として、プロジェクタが投影するパターンのプロジェクタ画像上の座標とカメラ画像上の座標との対応をもとに三次元計測装置のキャリブレーションを行う方法について説明した。   As described above, in the fourth embodiment, based on the correspondence between the coordinates on the projector image of the pattern projected by the projector and the coordinates on the camera image, the movement interval of the calibration object by the moving stage is known. A method for calibrating a three-dimensional measuring apparatus has been described.

プロジェクタが投影するパターンのプロジェクタ画像上の座標とカメラ画像上の座標との対応を用いる場合であっても、三次元計測装置が直線上を移動しかつ移動間隔が既知であるという制約条件をキャリブレーション計算に利用することで、移動方向に関するパラメータが未知であっても高精度にキャリブレーションすることが可能になる。   Even when using the correspondence between the coordinates on the projector image of the pattern projected by the projector and the coordinates on the camera image, the constraint condition that the 3D measuring device moves on a straight line and the movement interval is known is calibrated. By using this for the calculation of the calibration, it is possible to perform calibration with high accuracy even if the parameter relating to the moving direction is unknown.

なお、第4の実施形態では、垂直・水平方向の縞パターンの交点のプロジェクタ画像上の座標とカメラ画像上の座標との対応を用いてキャリブレーションする方法について説明した。しかしながら、座標の対応は交点の座標のような2次元座標に限るものでない。   In the fourth embodiment, the calibration method has been described using the correspondence between the coordinates on the projector image and the coordinates on the camera image at the intersection of the vertical and horizontal stripe patterns. However, the correspondence of coordinates is not limited to two-dimensional coordinates such as the coordinates of intersections.

例えば、プロジェクタ画像上での直線のパラメータとカメラ画像上での2次元座標の対応であってもよい。第4の実施形態では、カメラ画像上で検出された交点の2次元座標を推定するパラメータを用いて変換すると対応するプロジェクタ画像上の2次元座標に一致するという拘束条件をもとにキャリブレーションを行った。   For example, it may be a correspondence between a straight line parameter on the projector image and a two-dimensional coordinate on the camera image. In the fourth embodiment, the calibration is performed based on the constraint that when the conversion is performed using the parameter for estimating the two-dimensional coordinates of the intersection detected on the camera image, the two-dimensional coordinates on the corresponding projector image are matched. went.

一方、直線パラメータとの対応を用いる場合、カメラ画像上での2次元座標を推定パラメータにより変換したプロジェクタ画像上での2次元座標は、対応として得られているプロジェクタ画像上の直線上にあるという拘束条件をもとにキャリブレーションを行う。   On the other hand, when the correspondence with the straight line parameter is used, the two-dimensional coordinate on the projector image obtained by converting the two-dimensional coordinate on the camera image by the estimation parameter is on the straight line on the projector image obtained as the correspondence. Perform calibration based on constraint conditions.

(第5の実施形態)
以上述べた実施形態では、カメラ(プロジェクタ)または校正用物体が移動ステージによって移動する直線のパラメータを他のパラメータと一緒に数値計算によって求めていた。
(Fifth embodiment)
In the embodiment described above, the parameters of the straight line along which the camera (projector) or the calibration object moves by the moving stage are obtained together with other parameters by numerical calculation.

しかしながら、直線のパラメータを求める方法はこれに限るものではなく、直線のパラメータの候補を複数設定し、夫々の直線パラメータを既知として複数回キャリブレーションを行い、最も評価値がよいときのパラメータを選択してもよい。   However, the method for obtaining the straight line parameters is not limited to this, and a plurality of straight line parameter candidates are set, each straight line parameter is known and calibration is performed multiple times, and the parameter with the best evaluation value is selected. May be.

本実施形態では、第2の実施形態と同様に、校正用物体を移動ステージによって移動させて行う場合のステレオカメラのキャリブレーションについて説明する。本実施例における三次元計測装置のキャリブレーションの処理手順はステップS1040のパラメータ算出の処理を除いては図5に示す第1の実施形態のフローチャートと同一である。以下では、本実施形態におけるパラメータ算出処理について説明する。   In the present embodiment, as in the second embodiment, calibration of a stereo camera when the calibration object is moved by a moving stage will be described. The calibration processing procedure of the three-dimensional measuring apparatus according to the present embodiment is the same as the flowchart of the first embodiment shown in FIG. 5 except for the parameter calculation processing in step S1040. Below, the parameter calculation process in this embodiment is demonstrated.

図16は、第5の実施形態におけるパラメータ算出の手順を示すフローチャートである。以下、図16のフローチャートに基づいてパラメータ算出の詳細な手順について説明する。   FIG. 16 is a flowchart illustrating a parameter calculation procedure according to the fifth embodiment. The detailed procedure for parameter calculation will be described below based on the flowchart of FIG.

(ステップS5110)
ステップS5110では、校正用物体が移動ステージによって移動する直線の方向の候補を複数設定する。ここでは、校正用物体の移動方向が校正用物体を構成する平面の法線方向にほぼ一致するとして、平面の法線方向の近辺でN個の方向をサンプリングすることで候補の設定を行う。
(Step S5110)
In step S5110, a plurality of straight line direction candidates in which the calibration object moves on the moving stage are set. Here, assuming that the moving direction of the calibration object substantially coincides with the normal direction of the plane constituting the calibration object, candidates are set by sampling N directions in the vicinity of the normal direction of the plane.

なお、必ずしも校正用物体の移動方向が校正用物体を構成する平面の法線方向にほぼ一致する必要はなく、サンプリングの基準となる概略の移動方向の情報が得られるのであればいかなる移動方向であってもよい。   Note that the movement direction of the calibration object does not necessarily coincide with the normal direction of the plane constituting the calibration object, and any movement direction can be used as long as information on the approximate movement direction serving as a sampling reference can be obtained. There may be.

サンプリングは、単位球上に等間隔に設定された点と校正用物体の原点を結んで行ってもよいし、校正用物体から一定間隔離れたところに設置された平面上に等間隔に設定された点と原点を結んで行ってもよい。その他、複数の方向を設定する方法であればいかなる方法であってもよい。   Sampling may be performed by connecting points set at equal intervals on the unit sphere and the origin of the calibration object, or set at regular intervals on a plane installed at a fixed distance from the calibration object. It is also possible to connect the origin and the origin. In addition, any method may be used as long as it is a method for setting a plurality of directions.

(ステップS5120)
ステップS5120では、変数iに1を代入する。
(Step S5120)
In step S5120, 1 is substituted into variable i.

(ステップS5130)
ステップS5130では、ステップS5110で設定されたi番目の方向を既知の情報として、キャリブレーション計算を行う。既知である校正用物体の移動方向をもとに同一の座標系(基準座標系)における校正用物体上の各マーカの三次元座標を算出する。
基準座標系は、例えば初期位置にある校正用物体の座標系と同じであるとする。基準座標系における各マーカの三次元座標を算出したら、図6に示すフローチャートと同様に未知パラメータの算出を行う。未知パラメータの算出は、例えば特許文献1に開示される方法により行う。
(Step S5130)
In step S5130, calibration calculation is performed using the i-th direction set in step S5110 as known information. Based on the known movement direction of the calibration object, the three-dimensional coordinates of each marker on the calibration object in the same coordinate system (reference coordinate system) are calculated.
The reference coordinate system is assumed to be the same as the coordinate system of the calibration object at the initial position, for example. When the three-dimensional coordinates of each marker in the reference coordinate system are calculated, unknown parameters are calculated in the same manner as the flowchart shown in FIG. The unknown parameter is calculated by a method disclosed in Patent Document 1, for example.

(ステップS5140)
ステップS5140では、ステップS5130で算出されたパラメータの評価値を算出する。評価値は、例えば数13の値を用いる。さらに、ステップS5130で算出されたパラメータとその評価値の組合せを保存する。
(Step S5140)
In step S5140, the parameter evaluation value calculated in step S5130 is calculated. For example, the value of Equation 13 is used as the evaluation value. Further, the combination of the parameter calculated in step S5130 and its evaluation value is stored.

(ステップS5150)
ステップS5150では、すべての直線の方向の候補についてパラメータ及び評価値の算出が完了したかどうか判定し、完了していればステップS5170に進む。完了していなければ、ステップS5160でiに1を加算しステップS5130に戻る。
(Step S5150)
In step S5150, it is determined whether the calculation of parameters and evaluation values has been completed for all straight line direction candidates. If completed, the process advances to step S5170. If not completed, 1 is added to i in step S5160, and the process returns to step S5130.

(ステップS5170)
ステップS5170では、ステップS5140において算出された評価値のうち最も良いものを選択し、選択された評価値を算出した時のパラメータを最終的なキャリブレーション結果として出力する。なお、数13の値を評価値として用いる場合には、評価値が最も小さいものを最もよい評価値として選択する。
(Step S5170)
In step S5170, the best evaluation value calculated in step S5140 is selected, and the parameter when the selected evaluation value is calculated is output as the final calibration result. When using the value of Equation 13 as the evaluation value, the one with the smallest evaluation value is selected as the best evaluation value.

以上述べたように、第5の実施形態では、直線のパラメータの候補を複数設定し、夫々の直線パラメータを既知として複数回キャリブレーションを行い、最も評価値がよいときのパラメータを選択する方法について説明した。なお、第5の実施形態で説明した方法は複数台のカメラから構成されるステレオカメラのキャリブレーションだけでなく、任意の台数のカメラとプロジェクタから構成される三次元計測装置のキャリブレーションに適用してもよい。また、数6を評価値として用いることで、単眼のカメラのキャリブレーションに適用してもよい。また、移動ステージによって校正用物体を移動させる場合だけでなく、三次元計測装置を移動させてもよい。さらには、図16のフローチャートに示される処理を段階的に行ってもよい。すなわち、直線の方向をはじめは粗くサンプリングしてパラメータ算出を行い、最も良い評価値の直線の方向の近傍で細かくサンプリング間隔を行って再度パラメータ算出を行う処理を繰り返すことでパラメータの精度を向上させてもよい。   As described above, in the fifth embodiment, there is a method for setting a plurality of straight line parameter candidates, performing calibration a plurality of times with each straight line parameter being known, and selecting the parameter having the best evaluation value. explained. Note that the method described in the fifth embodiment is applied not only to calibration of a stereo camera including a plurality of cameras but also to calibration of a three-dimensional measurement apparatus including an arbitrary number of cameras and projectors. May be. Moreover, you may apply to the calibration of a monocular camera by using Formula 6 as an evaluation value. Further, not only when the calibration object is moved by the moving stage, but also the three-dimensional measuring device may be moved. Furthermore, the processing shown in the flowchart of FIG. 16 may be performed stepwise. In other words, parameter calculation is performed by roughly sampling the direction of the straight line and calculating the parameter again by repeating the process of calculating the parameter again with a fine sampling interval near the direction of the straight line of the best evaluation value. May be.

(変形例1)
以上述べた実施形態では、校正用物体に対する各カメラの姿勢は一定であるとし、移動ステージの移動によって変化しないものとしていた。
(Modification 1)
In the embodiment described above, the posture of each camera with respect to the calibration object is assumed to be constant, and is not changed by the movement of the moving stage.

しかしながら、必ずしも各カメラの姿勢は一定でなくてもよく、未知パラメータとして推定してもよい。具体的には、数5におけるRcwを共通とせずにステージが移動する毎に変わるパラメータとして、移動位置ごとにRcwに対する補正値を算出して補正してもよい。 However, the posture of each camera is not necessarily constant and may be estimated as an unknown parameter. Specifically, as a parameter that changes each time the stage moves without sharing R cw in Equation 5, a correction value for R cw may be calculated and corrected for each movement position.

また、姿勢の変化が微小である場合には、内部パラメータの概略値を算出する際には校正用物体に対する各カメラの姿勢を一定とし、最適化計算を行う際に各カメラの姿勢を未知パラメータとして推定してもよい。   In addition, when the change in posture is small, the posture of each camera with respect to the calibration object is fixed when calculating the approximate value of the internal parameter, and the posture of each camera is set as an unknown parameter when performing the optimization calculation. May be estimated.

本変形例によって、移動ステージの機構的な問題によって各カメラの姿勢が移動する毎に微小に変化する場合であっても高精度にキャリブレーションを行うことができるため、移動ステージに対する制約が減る。   According to this modification, even when the posture of each camera changes minutely due to a mechanical problem of the moving stage, calibration can be performed with high accuracy, so that restrictions on the moving stage are reduced.

同様に第4の実施形態においても、カメラに対する校正用物体を構成する平面の法線ベクトルの向きは一定であるとしていた。しかしながら、カメラに対する平面の法線ベクトルの向きは移動毎に一定である必要はなく、個別に未知パラメータとして推定してもよい。この場合、数20、数21におけるnが移動毎に異なる未知パラメータとなる。 Similarly, in the fourth embodiment, the direction of the normal vector of the plane constituting the calibration object with respect to the camera is assumed to be constant. However, the orientation of the normal vector of the plane with respect to the camera need not be constant for each movement, and may be estimated as an unknown parameter individually. In this case, nc in Equations 20 and 21 are unknown parameters that differ for each movement.

(変形例2)
以上述べた実施形態では、校正用物体上に規定された座標系における校正用物体上の各指標の座標は既知であるとしていた。しかしながら、校正用物体が複数の物体から構成され、各物体上に規定された座標系における物体上の各指標の座標が既知である場合には、各物体間の相対的な位置及び姿勢(相対位置姿勢)も未知パラメータとして推定してもよい。具体的には、数5における複数の物体のうち一つの物体に規定された座標系を世界座標(数5におけるX)とし、他の物体の座標系Xと世界座標系の間の座標変換を
(Modification 2)
In the embodiment described above, the coordinates of each index on the calibration object in the coordinate system defined on the calibration object are known. However, when the calibration object is composed of a plurality of objects and the coordinates of each index on the object in the coordinate system defined on each object are known, the relative position and orientation between the objects (relative The position and orientation may also be estimated as an unknown parameter. Specifically, the coordinate system defined in one object among the plurality of objects in several 5 and (X w in Equation 5) world coordinates, the coordinates between the coordinate system X b and the world coordinate system of the other objects Convert

Figure 0006282098

と表して、Rwb、twbも未知パラメータとして同時に推定する。この場合、内部パラメータの概略値を算出する際には複数の物体のうち一つの物体上の指標のみを利用し、最適化計算を行う際に複数の物体上の指標を利用し物体間の相対的な位置及び姿勢も推定する。
Figure 0006282098

R wb and t wb are also estimated simultaneously as unknown parameters. In this case, when calculating the approximate value of the internal parameter, only the index on one object among the plurality of objects is used, and the index on the plurality of objects is used when performing the optimization calculation. The estimated position and orientation are also estimated.

また概略値を算出する際には、校正用物体を構成する物体ごとに算出を行い、それらの中から数6で示される評価関数が最小になる概略値を選択してもよい。また、最適化計算を行う際には、変形例1で述べた各カメラの姿勢も未知パラメータに含めて推定してもよい。すなわち、最適か計算の中で、各部分校正用物体の相対位置姿勢が補正されることにより、各部分校正用物体上の指標の座標情報も更新される。これにより、広い空間を対象としたキャリブレーションを行う際に巨大な校正用物体を製作する必要がなく、精度よくキャリブレーションを行うことができる。   When calculating the approximate value, the calculation may be performed for each object constituting the calibration object, and the approximate value that minimizes the evaluation function expressed by Equation 6 may be selected from them. When performing the optimization calculation, the posture of each camera described in the first modification may be estimated by including it in the unknown parameter. That is, the coordinate information of the index on each partial calibration object is also updated by correcting the relative position and orientation of each partial calibration object during the calculation of the optimum. Thereby, it is not necessary to manufacture a huge calibration object when performing calibration for a wide space, and calibration can be performed with high accuracy.

また、同様に第4の実施形態においても、校正用物体を構成する複数の平面の位置関係は既知であるとしていた。ここで、位置関係が既知の平面から構成される校正用物体を部分校正用物体と呼ぶ。しかしながら、校正用物体が、位置関係が未知な複数の部分校正用物体から構成される場合には、各部分校正用物体間の位置関係も未知パラメータして推定してもよい。   Similarly, in the fourth embodiment, the positional relationship between a plurality of planes constituting the calibration object is known. Here, a calibration object composed of a plane having a known positional relationship is referred to as a partial calibration object. However, when the calibration object is composed of a plurality of partial calibration objects whose positional relationships are unknown, the positional relationship between the partial calibration objects may also be estimated using unknown parameters.

(変形例3)
以上述べた実施形態では、三次元計測装置や校正用物体を所定の間隔で直線上を移動させるために移動ステージを用いた。しかしながら、所定の間隔で直線上を移動させるのは移動ステージに限るものではない。例えば、より自由度の高い移動ステージやロボットを用いて直線上を移動させてもよい。また、機械的に移動させるのではなく、事前に高精度に厚みが計測されている物体などに校正用物体を載せることで平行移動を実現してもよい。本変形例により、キャリブレーションの際に三次元計測装置または校正用物体を所定の間隔で直線上を移動させるのに用いるハードウェアの選択肢が増えることにより、より汎用的な条件で本発明を実施することが可能になる。
(Modification 3)
In the embodiment described above, the moving stage is used to move the three-dimensional measuring apparatus and the calibration object on a straight line at predetermined intervals. However, moving on a straight line at a predetermined interval is not limited to the moving stage. For example, it may be moved on a straight line using a moving stage or a robot with a higher degree of freedom. Alternatively, the translation may be realized by placing a calibration object on an object whose thickness is measured in advance with high accuracy, instead of mechanically moving it. With this modification, the present invention is implemented under more general conditions by increasing the choice of hardware used to move the three-dimensional measuring device or calibration object on the straight line at predetermined intervals during calibration. It becomes possible to do.

(変形例4)移動量は等間隔でなくてもよい
以上述べた実施例では、三次元計測装置や校正用物体を移動ステージによって移動させる間隔は等間隔としていた。しかしながら、移動ステージによる移動間隔は移動毎に一定である必要はなく、既知の値として入手可能であれば移動毎に異なっていてもよい。
(Modification 4) The movement amount may not be equal. In the above-described embodiments, the intervals at which the three-dimensional measuring device and the calibration object are moved by the movement stage are equal. However, the movement interval by the movement stage does not need to be constant for each movement, and may be different for each movement as long as it is available as a known value.

(変形例5)カメラモデル(レンズ歪みのモデル)は他のモデルであってもよい
以上述べた実施形態では、レンズ歪みのモデルとして半径方向の歪みと接線方向の歪みを有するモデル(数3)を用いていた。しかしながら、レンズ歪みのモデルはこれに限るものではなく、例えばLenzらによって提案されているモデル(R. Lenz and D. Fritsch, “Accuracy of videometry with CCD sensors,” ISPRS Journal of Photogrammetry and Remote Sensing, vol.45, pp.90−110, 1999.)を用いてもよい。Lenzのモデルは次の式で表される。
(Modification 5) The camera model (lens distortion model) may be another model. In the embodiment described above, a model having a radial distortion and a tangential distortion as a lens distortion model (Equation 3) Was used. However, the lens distortion model is not limited to this. For example, a model proposed by Lenz et al. (R. Lenz and D. Fritsch, “Accuracy of videometry with CCD sensors,” .45, pp. 90-110, 1999.). The Lenz model is expressed by the following equation.

Figure 0006282098

ただし、
Figure 0006282098

である。すなわち、歪みのない座標と歪みの加わった座標の関係を関数として表すことができればいかなるレンズ歪みのモデルを用いてもよい。
Figure 0006282098

However,
Figure 0006282098

It is. In other words, any lens distortion model may be used as long as the relationship between coordinates without distortion and coordinates with distortion can be expressed as a function.

(変形例6)校正用物体上の指標は点でなくてもよい
以上述べた実施形態では、校正用物体上の指標として例えば円形上のマーカなど校正用物体上の配置情報が位置として表される指標を用いていた。しかしながら、校正用物体上の指標はこれに限るものではなく、配置情報が位置以外の表現方法によって表されるものであってもよい。
(Modification 6) The index on the calibration object may not be a point. In the embodiment described above, the position information on the calibration object such as a circular marker is represented as the position as the index on the calibration object. Index was used. However, the index on the calibration object is not limited to this, and the arrangement information may be expressed by an expression method other than the position.

例えば、校正用物体上における市松模様の各辺のような直線であってもよい。この場合、校正用物体上の指標の配置情報は、直線のパラメータとなる。この直線に対応する画像特徴(例えばエッジ)を検出し、推定パラメータによって算出される校正用物体上の直線の画像上での投影像である直線上に画像特徴が存在するという拘束条件を用いてキャリブレーションを行う。   For example, it may be a straight line such as each side of a checkered pattern on the calibration object. In this case, the arrangement information of the index on the calibration object is a straight line parameter. An image feature (for example, an edge) corresponding to the straight line is detected, and a constraint condition that the image feature exists on a straight line that is a projected image on the straight image on the calibration object calculated by the estimation parameter is used. Perform calibration.

<定義>
本実施形態における校正用物体は、例えば、表面に校正用物体上での座標が既知な指標が分布している校正用物体であってもよいし、互いの位置関係が既知な複数の平面から構成される校正用物体であってもよい。校正用物体上では指標が三次元的に分布していてもよいし、平面的に分布していてもよい。また、複数の平面は必ずしも平行である必要はなく、任意の角度をなす複数の平面であってもよい。また、校正用物体上の指標は、画像上で検出可能で一意に特定可能であればいかなる指標であってもよい。例えば、市松模様の交点であってもよいし、固有の識別子を持つ正方形形状の指標であってもよい。また、校正用物体は、相対的な位置関係が固定されている複数の部分校正用物体によっていればよい。さらには相対位置関係が未知であってもよい。
<Definition>
The calibration object in the present embodiment may be, for example, a calibration object in which indices with known coordinates on the calibration object are distributed on the surface, or from a plurality of planes whose positional relationships are known. It may be a calibration object configured. On the calibration object, the indices may be distributed three-dimensionally or may be distributed in a plane. Further, the plurality of planes are not necessarily parallel, and may be a plurality of planes forming an arbitrary angle. The index on the calibration object may be any index as long as it can be detected on the image and uniquely identified. For example, it may be a checkered intersection or a square index having a unique identifier. The calibration object may be a plurality of partial calibration objects whose relative positional relationships are fixed. Furthermore, the relative positional relationship may be unknown.

本実施形態におけるキャリブレーション対象の撮像装置は、投影モデルをピンホールモデルとレンズ歪みのモデルによって記述できるものであれば、いかなるカメラやプロジェクタであってもよい。また、本発明におけるキャリブレーション対象の三次元計測装置は、2台のカメラから構成されるステレオカメラでもよいし、3台以上のカメラから構成されていてもよい。また、カメラとプロジェクタによって構成される三次元計測装置であってもよい。   The imaging device to be calibrated in the present embodiment may be any camera or projector as long as the projection model can be described by a pinhole model and a lens distortion model. In addition, the three-dimensional measurement apparatus to be calibrated in the present invention may be a stereo camera composed of two cameras, or may be composed of three or more cameras. Further, it may be a three-dimensional measuring device including a camera and a projector.

本実施形態における移動手段は、シーン中に撮像装置を固定して校正用物体を移動させるか、または校正用物体を固定して撮像装置を移動させる。移動手段は、直線的に校正用物体/撮像装置を移動させる移動ステージであってもいし、より自由度の高い移動ステージやロボットであってもよい。また、機械的に移動させるのではなく、事前に高精度に厚みが計測されている物体などに校正用物体を載せることで実現してもよい。また、移動手段によって移動する間隔は、既知の情報として得られるのであれば、一定の間隔であっても、移動毎に異なる間隔であってもよい。   The moving means in the present embodiment moves the calibration object while fixing the imaging apparatus in the scene, or moves the imaging apparatus while fixing the calibration object. The moving means may be a moving stage that linearly moves the calibration object / imaging device, or may be a moving stage or a robot with a higher degree of freedom. Further, it may be realized by placing a calibration object on an object whose thickness is measured with high accuracy in advance, instead of mechanically moving it. Further, the interval of movement by the moving means may be a constant interval or a different interval for each movement as long as it is obtained as known information.

本実施形態における特徴検出手段は、キャリブレーションのための画像上の特徴の検出を行う。特徴検出手段は、校正用物体上の指標を検出する。また、プロジェクタが校正用物体上に投影するパターンを検出する。プロジェクタが投影するパターンは、空間コード化法のパターンのように複数のパターンから構成されるパターンであっても、単一のパターンであってもよい。   The feature detection means in the present embodiment detects features on the image for calibration. The feature detection means detects an index on the calibration object. Further, the projector detects a pattern projected on the calibration object. The pattern projected by the projector may be a pattern composed of a plurality of patterns, such as a spatial coding method pattern, or a single pattern.

本実施形態におけるパラメータ算出手段は、特徴検出手段が検出する特徴の画像上の座標、校正用物体に関する幾何的な情報、移動手段による既知の移動量に基づいて、カメラやプロジェクタの内部パラメータ、三次元計測装置を構成するカメラとカメラ(プロジェクタ)の間の相対的な位置及び姿勢を算出する。また、パラメータ算出手段は、移動ステージによる移動毎に異なるパラメータとして校正用物体と撮像装置の姿勢を算出してもよい。また、校正用物体が、互いの位置関係が未知な複数の部分校正用物体から構成される場合には、部分校正用物体間の位置関係を算出してもよい。パラメータ算出手段は、校正用物体上の指標の座標を利用してキャリブレーションを行ってもよいし、プロジェクタが投影するパターンの座標を利用してキャリブレーションを行ってもよい。さらに、移動ステージによって移動する直線のパラメータは数値計算によって求めてもよいし、直線のパラメータの候補を複数設定し、夫々の直線パラメータを既知として複数回キャリブレーションを行い、最も評価値がよいときのパラメータを選択してもよい。   The parameter calculation means in this embodiment is based on the coordinates of the feature image detected by the feature detection means, the geometric information about the calibration object, the known movement amount by the movement means, the internal parameters of the camera and the projector, the cubic The relative position and orientation between the camera and the camera (projector) constituting the original measuring apparatus are calculated. The parameter calculation means may calculate the calibration object and the orientation of the imaging device as different parameters for each movement by the moving stage. Further, when the calibration object is composed of a plurality of partial calibration objects whose mutual positional relationships are unknown, the positional relationship between the partial calibration objects may be calculated. The parameter calculation means may perform calibration using the coordinates of the index on the calibration object, or may perform calibration using the coordinates of the pattern projected by the projector. Furthermore, the parameters of the straight line moving by the moving stage may be obtained by numerical calculation, or when a plurality of straight line parameter candidates are set, each straight line parameter is known and calibration is performed multiple times, and the best evaluation value is obtained The parameters may be selected.

本実施形態におけるキャリブレーションでは、移動ステージによる移動方向と移動間隔であれば、他のパラメータが変化してもよい。例えば、移動ステージによる移動により、撮像装置や校正用物体の姿勢が変化してもよい。   In the calibration in the present embodiment, other parameters may be changed as long as the moving direction and the moving interval by the moving stage. For example, the posture of the imaging device or the calibration object may be changed by the movement of the moving stage.

Claims (10)

相対位置姿勢が固定された2つの撮像装置と校正用物体とのいずれか一方を予め定められた移動間隔直線上を複数回移動させ、移動させる毎に前記2つの撮像装置により前記校正用物体を撮影した複数の画像を取得する取得手段と、
前記直線の方向の概略値と前記2つの撮像装置それぞれのパラメータの概略値とを取得する概略値取得手段と、
前記校正用物体上の指標の位置情報を保持する保持手段と、
前記複数の画像のそれぞれから前記校正用物体上の指標を検出し、検出した指標の画像上の画像座標と前記保持手段に保持された指標の位置情報との対応関係を求める検出手段と、
前記複数の画像における前記指標の画像座標と位置情報との対応関係に基づいて、当該複数の画像は、前記2つの撮像装置と校正用物体とのいずれか一方を前記予め定められた移動間隔で前記直線上を移動させる毎に撮影された画像であり、該直線の方向は未定であるという条件の下で、前記直線の方向の概略値と前記2つの撮像装置それぞれに関するパラメータの概略値を補正することにより、当該2つの撮像装置それぞれに関するパラメータを導出するパラメータ導出手段と
前記複数の画像における前記指標の画像座標と位置情報との対応関係と、前記パラメータ導出手段により導出された前記2つの撮像装置それぞれに関するパラメータとに基づいて、当該2つの撮像装置の相対位置姿勢を導出する位置姿勢導出手段とを有するキャリブレーション装置。
A straight line in any movement interval one of a predetermined and two imaging devices relative position and orientation is fixed and the calibration object are moved a plurality of times, the calibration by the two imaging devices for each Before moving Acquisition means for acquiring a plurality of images obtained by photographing the object ;
An approximate value acquisition means for acquiring an approximate value in the direction of the straight line and an approximate value of a parameter of each of the two imaging devices;
Holding means for holding position information of an index on the calibration object;
Detecting means for detecting an index on the calibration object from each of the plurality of images , and obtaining a correspondence relationship between image coordinates of the detected index image on the image and position information of the index held in the holding means ;
Based on the correspondence between the image coordinates and the position information of the index in the plurality of images, the plurality of images at said predetermined movement interval one of the calibration object and the two imaging devices It is an image taken every time it moves on the straight line , and the approximate value of the straight line direction and the approximate value of the parameters relating to each of the two imaging devices are corrected under the condition that the direction of the straight line is undetermined. Parameter deriving means for deriving parameters relating to each of the two imaging devices ,
Based on the correspondence between the image coordinates and position information of the index in the plurality of images and the parameters relating to each of the two imaging devices derived by the parameter deriving means, the relative positions and orientations of the two imaging devices are calculated. A calibration apparatus having position and orientation deriving means for deriving .
前記パラメータ導出手段は、前記直線の方向の概略値と前記2つの撮像装置それぞれに関するパラメータの概略値とを初期値として、繰り返し計算により前記2つの撮像装置それぞれに関するパラメータを導出することを特徴とする請求項1に記載のキャリブレーション装置。 The parameter derivation means, and an approximate value of the parameter for each direction of the approximate values and the two imaging devices of the linear as an initial value, and wherein the deriving the parameters for each said two imaging devices by iterative calculation The calibration device according to claim 1. 前記パラメータ導出手段は、前記指標の画像上の画像座標と、前記撮像装置の概略パラメータに基づいて前記保持される指標を前記画像上に投影した投影座標とのずれを小さくするように、前記直線の方向の概略値と前記2つの撮像装置それぞれに関するパラメータの概略値とを補正することにより、前記2つの撮像装置それぞれに関するパラメータを導出することを特徴とする請求項1または2に記載のキャリブレーション装置。 The parameter deriving means includes image coordinates on the image of the index, the index is the holding on the basis of the outline parameters of the imaging device so as to reduce the deviation between the projected coordinates projected onto the image, the straight line by correcting the approximate value of the parameter for each approximate value and the two imaging devices in the direction of, the calibration according to claim 1 or 2, wherein the deriving the parameters for each said two imaging devices apparatus. 前記校正用物体、複数の部分校正用物体によって構成されている場合に、
前記保持手段は、前記複数の部分校正用物体に配置される指標の位置情報をそれぞれ保持し、
前記パラメータ導出手段は、前記検出手段によって検出される前記複数の部分校正用物体に配置されるそれぞれの指標の画像上の画像座標と前記保持される指標の位置情報との対応関係と、前記予め定められた移動間隔とに基づいて、更に、初期値として与えられる前記複数の部分校正用物体間の相対的な位置姿勢を補正することにより、前記複数の部分校正用物体間の相対的な位置姿勢を導出し、該導出される相対的な位置姿勢と前記撮像装置の概略パラメータとに基づいて、前記投影座標を導出することを特徴とする請求項3に記載のキャリブレーション装置。
When the calibration object is composed of a plurality of partial calibration objects,
The holding means holds position information of indices arranged on the plurality of partial calibration objects,
The parameter derivation unit includes a correspondence relationship between the position information of the index image coordinates to be the holding of the image of each indicator disposed on the plurality of partial calibration object detected by the detecting means, the advance Based on the determined movement interval , the relative position between the plurality of partial calibration objects is further corrected by correcting the relative position and orientation between the plurality of partial calibration objects given as initial values. 4. The calibration apparatus according to claim 3, wherein an orientation is derived, and the projection coordinates are derived based on the derived relative position and orientation and an approximate parameter of the imaging apparatus.
前記校正用物体は、平面を有し、該平面上に複数の指標が存在することを特徴とする請求項1乃至4のいずれか1項に記載のキャリブレーション装置。   5. The calibration apparatus according to claim 1, wherein the calibration object has a flat surface, and a plurality of indices exist on the flat surface. 前記校正用物体は、前記平面に、更に立体指標を備えることを特徴とする請求項5に記載のキャリブレーション装置。   The calibration apparatus according to claim 5, wherein the calibration object further includes a three-dimensional index on the plane. 前記パラメータ導出手段は、前記撮像装置または前記校正用物体が前記予め定められた移動間隔ごとに移動したときの各位置における前記校正用物体に対する撮像装置の姿勢を推定することを特徴とする請求項1乃至6のいずれか1項に記載のキャリブレーション装置。 The parameter derivation unit estimates an attitude of the imaging apparatus with respect to the calibration object at each position when the imaging apparatus or the calibration object moves at each predetermined movement interval. The calibration device according to any one of 1 to 6. 前記撮像装置に関するパラメータは、前記撮像装置に含まれるカメラの内部パラメータを含むことを特徴とする請求項1乃至7のいずれか1項に記載のキャリブレーション装置。   The calibration apparatus according to claim 1, wherein the parameter relating to the imaging apparatus includes an internal parameter of a camera included in the imaging apparatus. キャリブレーション装置の取得手段が、相対位置姿勢が固定された2つの撮像装置と校正用物体とのいずれか一方を予め定められた移動間隔直線上を複数回移動させ、移動させる毎に前記2つの撮像装置により前記校正用物体を撮影した複数の画像を取得する取得工程と、
前記キャリブレーション装置の概略値取得手段が、前記直線の方向の概略値と前記2つの撮像装置それぞれのパラメータの概略値とを取得する概略値取得工程と、
前記キャリブレーション装置の取得手段が、前記複数の画像のそれぞれから前記校正用物体上の指標を検出し、検出した指標の画像上の画像座標と保持手段に保持された指標の位置情報との対応関係を求める検出工程と、
前記キャリブレーション装置のパラメータ導出手段が、前記複数の画像における前記指標の画像座標と位置情報との対応関係に基づいて、当該複数の画像は、前記2つの撮像装置と校正用物体とのいずれか一方を前記予め定められた移動間隔で前記直線上を移動させる毎に撮影された画像であり、該直線の方向は未定であるという条件の下で、前記直線の方向の概略値と前記2つの撮像装置それぞれに関するパラメータの概略値とを補正することにより、当該2つの撮像装置それぞれに関するパラメータを導出するパラメータ導出工程と
前記キャリブレーション装置の位置姿勢導出手段が、前記複数の画像における前記指標の画像座標と位置情報との対応関係と、前記パラメータ導出工程により導出された前記2つの撮像装置それぞれに関するパラメータとに基づいて、当該2つの撮像装置の相対位置姿勢を導出する位置姿勢導出工程とを有するキャリブレーション方法。
Acquisition means of the calibration device, a straight line in any movement interval one of a predetermined relative position and orientation is fixed with two imaging devices and the calibration object are moved a plurality of times, each time Before moving An obtaining step of obtaining a plurality of images obtained by photographing the calibration object by the two imaging devices;
An approximate value acquisition unit for acquiring an approximate value in the direction of the straight line and an approximate value of a parameter of each of the two imaging devices;
The acquisition unit of the calibration apparatus detects an index on the calibration object from each of the plurality of images , and the correspondence between the image coordinates of the detected index on the image and the position information of the index held in the holding unit A detection process for determining the relationship ;
Based on the correspondence between the image coordinates of the index and the position information in the plurality of images, the parameter deriving unit of the calibration device is configured so that the plurality of images are either the two imaging devices or the calibration object. An image taken each time one of the images is moved on the straight line at the predetermined movement interval, and the approximate value of the direction of the straight line and the two by correcting the approximate value of the parameter for each imaging device, and the parameter deriving step of deriving the parameters for each said two imaging devices,
The position and orientation deriving means of the calibration device is based on the correspondence between the image coordinates of the index and the position information in the plurality of images, and the parameters relating to each of the two imaging devices derived by the parameter deriving step. A calibration method including a position and orientation deriving step of deriving a relative position and orientation of the two imaging devices .
コンピュータを請求項1乃至のいずれか1項のキャリブレーション装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the calibration apparatus of any one of Claims 1 thru | or 8 .
JP2013248030A 2013-11-29 2013-11-29 Calibration apparatus and method Active JP6282098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013248030A JP6282098B2 (en) 2013-11-29 2013-11-29 Calibration apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013248030A JP6282098B2 (en) 2013-11-29 2013-11-29 Calibration apparatus and method

Publications (2)

Publication Number Publication Date
JP2015106287A JP2015106287A (en) 2015-06-08
JP6282098B2 true JP6282098B2 (en) 2018-02-21

Family

ID=53436347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013248030A Active JP6282098B2 (en) 2013-11-29 2013-11-29 Calibration apparatus and method

Country Status (1)

Country Link
JP (1) JP6282098B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126267A (en) * 2016-01-15 2017-07-20 株式会社Pfu Image processing system, image processing method and computer program
US10719956B2 (en) 2017-03-14 2020-07-21 Nec Corporation Camera parameter estimation apparatus, camera parameter estimation method, and computer-readable recording medium
WO2019017328A1 (en) * 2017-07-21 2019-01-24 日本電気株式会社 Correction device and correction method
JP2019078621A (en) 2017-10-24 2019-05-23 セイコーエプソン株式会社 Encoder, robot and printer
CN109872368B (en) * 2017-12-04 2023-05-16 广东虚拟现实科技有限公司 Image processing method, device and test system
WO2019206247A1 (en) * 2018-04-27 2019-10-31 Shanghai Truthvision Information Technology Co., Ltd System and method for camera calibration
JP2020066066A (en) 2018-10-22 2020-04-30 セイコーエプソン株式会社 Robot system, calibration jig of robot and calibration method of robot
WO2020217360A1 (en) * 2019-04-24 2020-10-29 日本電気株式会社 Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium
JP7409163B2 (en) 2020-03-06 2024-01-09 株式会社豊田中央研究所 Stationary sensor calibration device and stationary sensor calibration method
CN111432204A (en) * 2020-03-30 2020-07-17 杭州栖金科技有限公司 Camera testing device and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08110807A (en) * 1995-09-04 1996-04-30 Omron Corp Method and device for automatic calibration
JPH11166818A (en) * 1997-12-04 1999-06-22 Suzuki Motor Corp Calibrating method and device for three-dimensional shape measuring device
JP4892792B2 (en) * 2001-07-04 2012-03-07 コニカミノルタホールディングス株式会社 Measuring apparatus and measuring method
JP3735344B2 (en) * 2002-12-27 2006-01-18 オリンパス株式会社 Calibration apparatus, calibration method, and calibration program

Also Published As

Publication number Publication date
JP2015106287A (en) 2015-06-08

Similar Documents

Publication Publication Date Title
JP6282098B2 (en) Calibration apparatus and method
US10979694B2 (en) Information processing apparatus, method, and storage medium
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
EP2543483B1 (en) Information processing apparatus and information processing method
JP6370038B2 (en) Position and orientation measurement apparatus and method
JP4095491B2 (en) Distance measuring device, distance measuring method, and distance measuring program
US9672630B2 (en) Contour line measurement apparatus and robot system
US10502557B2 (en) Method for the three dimensional measurement of a moving objects during a known movement
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
US7724379B2 (en) 3-Dimensional shape measuring method and device thereof
US20130230235A1 (en) Information processing apparatus and information processing method
WO2011013301A1 (en) Position and orientation calibration method and apparatus
JP2011027724A (en) Three-dimensional measurement apparatus, measurement method therefor, and program
JP2015090298A (en) Information processing apparatus, and information processing method
JP2021173740A (en) System and method for efficiently 3d re-constructing objects using telecentric line-scan cameras
JP2013079854A (en) System and method for three-dimentional measurement
JP7353757B2 (en) Methods for measuring artifacts
JP7427370B2 (en) Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium
JP6237032B2 (en) Color and three-dimensional shape measuring method and apparatus
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
JP6486083B2 (en) Information processing apparatus, information processing method, and program
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
Hui et al. Surface measurement based on instantaneous random illumination
US20230333028A1 (en) Method and system for inspecting a surface with artifical intelligence assist

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180123

R151 Written notification of patent or utility model registration

Ref document number: 6282098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151