JP2017011537A - Camera calibration method, camera calibration device and camera calibration program - Google Patents

Camera calibration method, camera calibration device and camera calibration program Download PDF

Info

Publication number
JP2017011537A
JP2017011537A JP2015125914A JP2015125914A JP2017011537A JP 2017011537 A JP2017011537 A JP 2017011537A JP 2015125914 A JP2015125914 A JP 2015125914A JP 2015125914 A JP2015125914 A JP 2015125914A JP 2017011537 A JP2017011537 A JP 2017011537A
Authority
JP
Japan
Prior art keywords
calibration
posture
correspondence
information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015125914A
Other languages
Japanese (ja)
Other versions
JP6355206B2 (en
Inventor
信哉 志水
Shinya Shimizu
信哉 志水
憲作 藤井
Kensaku Fujii
憲作 藤井
真衣 西村
Mai Nishimura
真衣 西村
章平 延原
Shohei Nobuhara
章平 延原
隆司 松山
Takashi Matsuyama
隆司 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Nippon Telegraph and Telephone Corp
Original Assignee
Kyoto University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Nippon Telegraph and Telephone Corp filed Critical Kyoto University
Priority to JP2015125914A priority Critical patent/JP6355206B2/en
Publication of JP2017011537A publication Critical patent/JP2017011537A/en
Application granted granted Critical
Publication of JP6355206B2 publication Critical patent/JP6355206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera calibration method, a camera calibration device and a camera calibration program capable of achieving calibration of a camera model, even if an unknown refractive layer exists between a camera and a subject.SOLUTION: A camera calibration method has: a correspondence acquisition step of acquiring information about correspondence of a pixel and the position on a calibration object, for each posture thereof, from an image group capturing calibration objects of different postures as subjects; intersection line detection step of detecting a pixel group corresponding to an intersection line of the calibration objects of different postures in a photographic space; a posture estimation step of estimating the posture of the calibration object by using information about correspondence in the intersection line, and outputting posture information; and a light ray information acquisition step of acquiring light ray information indicating the correspondence of the pixel and light rays in the photographic space, by using the information about the correspondence, and the posture information.SELECTED DRAWING: Figure 2

Description

本発明は、カメラと被写体の間に屈折層が存在する場合におけるカメラキャリブレーション方法、カメラキャリブレーション装置及びカメラキャリブレーションプログラムに関する。   The present invention relates to a camera calibration method, a camera calibration device, and a camera calibration program when a refractive layer exists between a camera and a subject.

従来、カメラで撮影された画像から、三次元情報として、例えば被写体の形状や、被写体とカメラとの位置関係を抽出する技術が知られている。このような技術は、ロボットビジョン、拡張現実感を提供するシステム等において、非常に重要となる技術である。このような三次元情報の抽出を行うためには、画像上の各画素と現実空間での光線の対応関係に関する情報と、複数のカメラ間の位置関係に関する情報とを取得する必要がある。そして、これらの情報を取得する処理は、カメラキャリブレーションと呼ばれている。特に、画像上の各画素と現実空間での光線の対応関係に関する情報を取得する処理は、内部キャリブレーションと呼ばれ、複数のカメラ間の位置関係に関する情報を取得する処理は、外部キャリブレーションと呼ばれている。   2. Description of the Related Art Conventionally, a technique for extracting, for example, the shape of a subject and the positional relationship between the subject and the camera as three-dimensional information from an image taken with a camera is known. Such a technique is very important in a robot vision, a system that provides augmented reality, and the like. In order to extract such three-dimensional information, it is necessary to acquire information related to the correspondence between each pixel on the image and light rays in the real space and information related to the positional relationship between a plurality of cameras. And the process which acquires such information is called camera calibration. In particular, the process of acquiring information about the correspondence between each pixel on the image and the light beam in the real space is called internal calibration, and the process of acquiring information about the positional relationship between a plurality of cameras is called external calibration. being called.

一般的なカメラキャリブレーションでは、オブジェクトと画像平面の間の写像が、ピンホールカメラモデルなど透視投影カメラモデルで表現できることを前提としている。そのような透視投影カメラモデルでは、オブジェクトからの光線は、カメラの投影中心に向かって直進しながら集束することを前提としている。そのため、カメラとオブジェクトの間に屈折層がある場合は、スネルの法則に基づき屈折層の屈折をモデル化することで、カメラキャリブレーションを実現する。そして、屈折のモデル化を行うためには、屈折層の屈折率及び位置・形状に関する情報が必要となる。しかし、予めそれらの情報を得ることは、一般的に困難であるため、屈折のモデル化を行うことができないという問題がある。また、仮に、それらの情報が得られたとしても、屈折層の形状等が複雑な場合は、屈折のモデル化の処理も複雑になるという問題がある。   In general camera calibration, it is assumed that a mapping between an object and an image plane can be expressed by a perspective camera model such as a pinhole camera model. In such a perspective projection camera model, it is assumed that the light rays from the object converge while moving straight toward the projection center of the camera. Therefore, when there is a refractive layer between the camera and the object, camera calibration is realized by modeling the refraction of the refractive layer based on Snell's law. In order to model refraction, information on the refractive index, position, and shape of the refractive layer is required. However, since it is generally difficult to obtain such information in advance, there is a problem that refraction modeling cannot be performed. Even if such information is obtained, if the shape of the refractive layer is complicated, there is a problem that the modeling process of refraction is complicated.

透視投影カメラモデルとは異なるカメラモデルとして、非特許文献1で提案されているRaxel(ray−pixel)カメラモデルが存在する。Raxelカメラモデルでは、画像上の各画素と三次元空間における光線とを直接対応付けている。そのため、屈折層における光線の屈折をモデル化せずに、カメラキャリブレーションにおいて、画素と光線の対応付けを求める。
例えば、非特許文献2に記載の手法は、カメラとの間に屈折層を含んだ撮影対象とする空間中に、チェッカーボードなどの較正物体を設置し、画素からその較正物体平面上の点へのマッピングを表す近似関数を求めることでキャリブレーションを実現している。
As a camera model different from the perspective projection camera model, there is a Raxel (ray-pixel) camera model proposed in Non-Patent Document 1. In the Raxel camera model, each pixel on an image is directly associated with a light beam in a three-dimensional space. Therefore, the correspondence between the pixel and the light beam is obtained in the camera calibration without modeling the refraction of the light beam in the refractive layer.
For example, in the technique described in Non-Patent Document 2, a calibration object such as a checkerboard is installed in a space to be imaged including a refractive layer between the camera and a pixel to a point on the calibration object plane. Calibration is realized by obtaining an approximation function that represents the mapping of.

Michael D. Grossbarg, Shree K. Nayar, “The Raxel Imaging Model and Ray-Based Calibration,” International Journal of Computer Vision, 61(2), pp. 119-137, 2005.Michael D. Grossbarg, Shree K. Nayar, “The Raxel Imaging Model and Ray-Based Calibration,” International Journal of Computer Vision, 61 (2), pp. 119-137, 2005. Tomohiko Yano, Shohei Nobuhara, Takashi Matsuyama, “3D Shape from Silhouettes in Water for Online Novel-View Synthesis,” 第16回 画像の認識理解シンポジウム(MIRU), 2013.Tomohiko Yano, Shohei Nobuhara, Takashi Matsuyama, “3D Shape from Silhouettes in Water for Online Novel-View Synthesis,” 16th Image Recognition and Understanding Symposium (MIRU), 2013.

しかしながら、上記非特許文献2に記載の手法は、近似関数で近似する精度の問題から屈折層の形状に制約があり、任意の屈折層に適用するのは困難であるという問題がある。さらに、キャリブレーションにおいて、カメラに対する較正物体の姿勢に関する情報が必要となる。そして、その姿勢に関する情報を取得するために、経路中に屈折層を含む空間に設置された較正物体を撮影すると同時に、屈折層を含まない空間に設置された別の較正物体を撮影する必要がある。つまり、非特許文献2に記載の手法は、本来対象とする空間をカメラの一部でしか撮影できないことになり、高精細な画像を取得することができないという問題がある。また、非特許文献2に記載の手法は、屈折層を含む空間および屈折層を含まない空間の両方の空間が撮影可能な状況でしか、使用できないという問題がある。   However, the method described in Non-Patent Document 2 has a problem that the shape of the refractive layer is limited due to the accuracy of approximation with an approximation function, and it is difficult to apply the method to any refractive layer. Further, in the calibration, information regarding the posture of the calibration object with respect to the camera is required. And in order to acquire information about the posture, it is necessary to photograph a calibration object installed in a space including a refractive layer in the path, and simultaneously image another calibration object installed in a space not including the refractive layer. is there. That is, the method described in Non-Patent Document 2 has a problem that a space that is originally targeted can be captured only by a part of the camera, and a high-definition image cannot be acquired. Further, the technique described in Non-Patent Document 2 has a problem that it can be used only in a situation where both a space including a refractive layer and a space not including a refractive layer can be photographed.

上記事情に鑑み、本発明は、カメラと被写体との間に未知の屈折層または複雑な形状の屈折層が存在する場合であっても、カメラモデルのキャリブレーションを実現することができるカメラキャリブレーション方法、カメラキャリブレーション装置及びカメラキャリブレーションプログラムを提供することを目的とする。   In view of the above circumstances, the present invention provides a camera calibration that can realize camera model calibration even when an unknown refractive layer or a complicated refractive layer exists between the camera and the subject. It is an object to provide a method, a camera calibration device, and a camera calibration program.

本発明の一態様は、屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション方法であって、前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得ステップと、前記姿勢の異なる較正物体が、撮影空間において交わる交線に対応する画素群を検出する交線検出ステップと、前記交線検出ステップで検出された前記交線における前記対応関係取得ステップで取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定ステップと、前記対応関係取得ステップで取得された前記対応関係に関する情報と、前記姿勢推定ステップで推定された前記姿勢情報とを用いて、画素と前記撮影空間中の光線との対応関係を示す光線情報を取得する光線情報取得ステップとを有するカメラキャリブレーション方法である。   One aspect of the present invention is a camera calibration method for associating each pixel of an image obtained by photographing a subject through a refraction layer with a light beam from the subject, the posture of the subject as the subject Correspondence acquisition step for acquiring information on the correspondence between the pixel and the position on the calibration object for each posture of the calibration object from a group of images obtained by photographing different calibration objects; Using the information about the correspondence acquired in the intersection detection step for detecting a pixel group corresponding to the intersection line intersecting in the imaging space and the correspondence acquisition step in the intersection detected in the intersection detection step , The posture estimation step of estimating the posture of the calibration object and outputting posture information, and the correspondence relationship acquired in the correspondence relationship acquisition step. And a ray calibration information acquisition step of acquiring ray information indicating a correspondence relationship between pixels and rays in the imaging space using the information to be obtained and the posture information estimated in the posture estimation step. It is.

本発明の一態様は、上記のカメラキャリブレーション方法であって、前記姿勢推定ステップにおいて、前記交線が2つの前記較正物体上で定義されることを用いて前記較正物体の姿勢を推定する。   One aspect of the present invention is the above-described camera calibration method, wherein in the posture estimation step, the posture of the calibration object is estimated using the fact that the intersection line is defined on the two calibration objects.

本発明の一態様は、上記のカメラキャリブレーション方法であって、前記姿勢推定ステップにおいて、複数の前記交線が前記撮影空間上において1点で交わることを用いて前記較正物体の姿勢を推定する。   One aspect of the present invention is the above-described camera calibration method, wherein in the posture estimation step, the posture of the calibration object is estimated using a plurality of intersecting lines intersecting at one point on the imaging space. .

本発明の一態様は、上記のカメラキャリブレーション方法であって、前記交線検出ステップにおいて、前記異なる姿勢の較正物体を撮影した画像間で、同じ位置の画素における較正平面密度が同じ場合に、当該画素を前記交線が存在する画素として検出する。   One aspect of the present invention is the camera calibration method described above, wherein, in the intersection detection step, the calibration plane density in the pixel at the same position is the same between the images obtained by photographing the calibration objects of the different postures. The pixel is detected as a pixel where the intersection line exists.

本発明の一態様は、上記のカメラキャリブレーション方法であって、前記対応関係取得ステップで取得した前記対応関係に関する情報と、前記姿勢推定ステップで推定した前記較正物体の姿勢とを用いて、前記較正物体の姿勢の推定の評価値を取得する評価値取得ステップをさらに有する。   One aspect of the present invention is the above-described camera calibration method, using the information related to the correspondence acquired in the correspondence acquisition step and the posture of the calibration object estimated in the posture estimation step. The method further includes an evaluation value acquisition step of acquiring an evaluation value for estimating the posture of the calibration object.

本発明の一態様は、上記のカメラキャリブレーション方法であって、前記評価値取得ステップにおいて、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積を用いて、前記較正物体の姿勢の推定の評価値を取得する。   One aspect of the present invention is the camera calibration method described above, wherein in the evaluation value acquisition step, two or more line segments for one pixel from a position on the calibration object sampled at the same pixel. And an evaluation value for estimating the posture of the calibration object is obtained using the outer product between the direction vectors corresponding to the line segment.

本発明の一態様は、屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション装置であって、前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得部と、前記姿勢の異なる較正物体が、撮影空間において交わる交線に対応する画素群を検出する交線検出部と、前記交線検出部で検出された前記交線における前記対応関係取得部で取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定部と、前記対応関係取得部で取得された前記対応関係に関する情報と、前記姿勢推定部で推定された前記姿勢情報とを用いて、画素と前記撮影空間中の光線との対応関係を示す光線情報を取得する光線情報取得部とを備えるカメラキャリブレーション装置である。   One aspect of the present invention is a camera calibration device for associating each pixel of an image obtained by photographing a subject through a refractive layer with a light beam from the subject, the posture of the subject as the subject For each posture of the calibration object, from a group of images obtained by photographing different calibration objects, a correspondence acquisition unit that acquires information on the correspondence between the pixel and the position on the calibration object, and a calibration object having a different posture By using the information on the correspondence acquired by the intersection detection unit for detecting a pixel group corresponding to the intersection line intersecting in the imaging space, and the correspondence acquisition unit for the intersection detected by the intersection detection unit A posture estimation unit that estimates the posture of the calibration object and outputs posture information, information about the correspondence acquired by the correspondence relationship acquisition unit, and information estimated by the posture estimation unit. It was used and the posture information, a camera calibration device and a light information acquiring section for acquiring light information indicating a correspondence relationship between the light beam in the imaging space and pixel.

本発明の一態様は、上記カメラキャリブレーション方法をコンピュータに実行させるためのカメラキャリブレーションプログラムである。   One aspect of the present invention is a camera calibration program for causing a computer to execute the camera calibration method.

本発明によれば、カメラと被写体との間に未知の屈折層または複雑な形状の屈折層が存在する場合であっても、カメラモデルのキャリブレーションを実現することができる。   According to the present invention, calibration of a camera model can be realized even when an unknown refraction layer or a complicated refraction layer exists between a camera and a subject.

本実施形態におけるカメラキャリブレーションを行う撮影空間を示す図である。It is a figure which shows the imaging | photography space which performs camera calibration in this embodiment. 本実施形態におけるカメラキャリブレーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera calibration apparatus in this embodiment. 本実施形態におけるカメラキャリブレーション装置10の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera calibration apparatus 10 in this embodiment. 較正物体3の姿勢を推定する第1の方法を説明するための図である。It is a figure for demonstrating the 1st method of estimating the attitude | position of the calibration object. 較正物体3の姿勢を推定する第2の方法を説明するための図である。It is a figure for demonstrating the 2nd method of estimating the attitude | position of the calibration object. 本実施形態におけるカメラキャリブレーション装置10のハードウェアの構成例を示す図である。It is a figure which shows the structural example of the hardware of the camera calibration apparatus 10 in this embodiment.

以下、図面を参照して、本発明の実施形態におけるカメラキャリブレーション装置について説明する。
まず、1つのカメラにおけるキャリブレーションとして、撮影空間中の光線とカメラで撮影された画像の画素とのマッピングの処理(内部キャリブレーション)について説明する。図1は、本実施形態におけるカメラキャリブレーションが行われる撮影空間を示す図である。図1に示す通り、カメラ1と撮影空間との間に未知の屈折層2が存在し、撮影空間中に較正物体3または較正物体3’が配置されている。ここで、較正物体3’は、較正物体3と同一物体であって、較正物体3の姿勢が変更された後の状態を示すものである。なお、較正物体3として、どのような物体を用いても構わないが、後述するように、画素と較正物体3上の位置との対応関係が得られるものを使う必要がある。本実施形態においては、較正物体3として、グレイコードを表示する平面ディスプレイを用いる。
Hereinafter, a camera calibration apparatus according to an embodiment of the present invention will be described with reference to the drawings.
First, as a calibration in one camera, a mapping process (internal calibration) between a light beam in an imaging space and a pixel of an image captured by the camera will be described. FIG. 1 is a diagram illustrating an imaging space in which camera calibration is performed in the present embodiment. As shown in FIG. 1, an unknown refractive layer 2 exists between the camera 1 and the imaging space, and a calibration object 3 or a calibration object 3 ′ is arranged in the imaging space. Here, the calibration object 3 ′ is the same object as the calibration object 3, and shows a state after the posture of the calibration object 3 is changed. Although any object may be used as the calibration object 3, it is necessary to use an object that can obtain the correspondence between the pixel and the position on the calibration object 3, as will be described later. In the present embodiment, a flat display that displays a gray code is used as the calibration object 3.

図2は、本実施形態におけるカメラキャリブレーション装置の構成を示すブロック図である。図2に示すように、カメラキャリブレーション装置10は、画像入力部11と、対応関係取得部12と、交線検出部13と、姿勢推定部14と、光線情報出力部15とを備えている。図1には、示していないが、カメラキャリブレーション装置10は、カメラ1で撮影された画像を入力可能で、入力された画像に対して画像処理を行うコンピュータ端末である。   FIG. 2 is a block diagram illustrating a configuration of the camera calibration apparatus according to the present embodiment. As shown in FIG. 2, the camera calibration apparatus 10 includes an image input unit 11, a correspondence relationship acquisition unit 12, an intersection detection unit 13, a posture estimation unit 14, and a ray information output unit 15. . Although not shown in FIG. 1, the camera calibration device 10 is a computer terminal that can input an image captured by the camera 1 and performs image processing on the input image.

画像入力部11は、較正物体3、3’を撮影した画像(群)を入力する。対応関係取得部12は、画像入力部11により入力された画像中の画素と較正物体3上の位置とを対応付ける情報を取得する。交線検出部13は、姿勢の異なる較正物体3と較正物体3’とが撮影空間中で構成する交線を画像上で検出する。姿勢推定部14は、複数の較正物体3、3’間の相対的な姿勢を推定する。光線情報出力部15は、対応関係取得部12で取得した情報と、姿勢推定部14で推定した複数の較正物体3、3’の姿勢に関する情報とを用いて、各画素に対して光線を対応付ける処理を行う。   The image input unit 11 inputs an image (group) obtained by photographing the calibration objects 3 and 3 ′. The correspondence relationship acquisition unit 12 acquires information that associates pixels in the image input by the image input unit 11 with positions on the calibration object 3. The intersection line detection unit 13 detects an intersection line formed by the calibration object 3 and the calibration object 3 ′ having different postures in the imaging space on the image. The posture estimation unit 14 estimates a relative posture between the plurality of calibration objects 3 and 3 ′. The light ray information output unit 15 associates a light ray with each pixel using the information acquired by the correspondence acquisition unit 12 and the information on the postures of the plurality of calibration objects 3 and 3 ′ estimated by the posture estimation unit 14. Process.

次に、図2に示すカメラキャリブレーション装置10の動作を説明する。図3は、本実施形態におけるカメラキャリブレーション装置10の動作を示すフローチャートである。
まず、画像入力部11は、較正物体3の姿勢を変化させながら撮影した画像群{In,m|n=1,…,N,m=1,…Mn}を入力する(ステップS101)。ここで、入力された画像群中に含まれる較正物体3の姿勢の数をNとし、較正物体3がn番目の姿勢である場合の画像の枚数をMnとする。ここで、Nは3以上とし、Mnは画素とn番目の姿勢の較正物体3上の位置を対応付けるのに必要な画像の枚数とする。Mnは較正物体3の種類や撮影空間の大きさなどに依存する。
Next, the operation of the camera calibration apparatus 10 shown in FIG. 2 will be described. FIG. 3 is a flowchart showing the operation of the camera calibration apparatus 10 in the present embodiment.
First, the image input unit 11 inputs a group of images {In, m | n = 1,..., N, m = 1,... Mn} taken while changing the posture of the calibration object 3 (step S101). Here, N is the number of postures of the calibration object 3 included in the input image group, and Mn is the number of images when the calibration object 3 is in the nth posture. Here, N is 3 or more, and Mn is the number of images necessary for associating the pixel with the position on the calibration object 3 in the nth posture. Mn depends on the type of the calibration object 3 and the size of the imaging space.

次に、対応関係取得部12は、入力された画像群から3つの異なる姿勢の較正物体3を含む画像群を選択する(ステップS102)。ここで、対応関係取得部12は、種々の方法を用いて較正物体3と較正物体3’の姿勢の違いの有無を判断して、異なる姿勢の較正物体3を含む画像を選択可能である。対応関係取得部12は、例えば、画像中に占める較正物体3の領域の大きさが同程度で、画像中の較正物体3の領域の形状の変化が大きい画像を複数選択する構成である。そのような構成とすることで、後述の処理で検出する撮影空間中の較正物体3の交線が存在する可能性を高めることができる。以下の説明では、選択された画像における較正物体3の姿勢(未知)をΦ、Φ、Φとする。 Next, the correspondence relationship acquisition unit 12 selects an image group including the calibration object 3 having three different postures from the input image group (step S102). Here, the correspondence relationship acquisition unit 12 can determine whether there is a difference in posture between the calibration object 3 and the calibration object 3 ′ using various methods, and can select an image including the calibration object 3 having a different posture. The correspondence relationship acquisition unit 12 is configured to select a plurality of images having the same size of the area of the calibration object 3 in the image and a large change in the shape of the area of the calibration object 3 in the image, for example. With such a configuration, it is possible to increase the possibility that there is an intersection line of the calibration object 3 in the imaging space detected by the processing described later. In the following description, the posture (unknown) of the calibration object 3 in the selected image is Φ 1 , Φ 2 , and Φ 3 .

次に、対応関係取得部12は、較正物体3の姿勢ごとに、画素と較正物体3上の位置を対応付ける(ステップS103)。具体的には、画像平面上の座標値(画素位置)と、較正物体3上で定義された座標系における座標値を対応付ける。ここでの方法は、較正物体3の種類によって異なる。   Next, the correspondence relationship acquisition unit 12 associates the pixel with the position on the calibration object 3 for each posture of the calibration object 3 (step S103). Specifically, the coordinate value (pixel position) on the image plane is associated with the coordinate value in the coordinate system defined on the calibration object 3. The method here differs depending on the type of the calibration object 3.

例えば、較正物体3が、平面ディスプレイで構成されており、かつ、較正物体3が、座標値をエンコードしたグレイコードパターンの系列を表示している場合について説明する。画像入力部11は、グレイコードパターンを表示する較正物体3を、撮影して得た画像群を入力する。対応関係取得部12は、入力された画像群から各画素で撮影された信号の系列を求め、それをデコードすることで、その画素に対応する較正物体3上の座標値を得ることができる。グレイコードを用いた画素と較正物体3の平面(較正平面)上の位置との対応付けに関しては、例えば非特許文献1に詳細が記載されている。   For example, a case will be described in which the calibration object 3 is configured by a flat display and the calibration object 3 displays a series of gray code patterns in which coordinate values are encoded. The image input unit 11 inputs an image group obtained by photographing the calibration object 3 that displays a gray code pattern. The correspondence acquisition unit 12 can obtain a coordinate value on the calibration object 3 corresponding to the pixel by obtaining a sequence of signals photographed at each pixel from the input image group and decoding it. For example, Non-Patent Document 1 describes in detail the correspondence between the pixel using the gray code and the position on the plane (calibration plane) of the calibration object 3.

ここで、ステップS103の結果として得られる、画素kに対する姿勢Φの較正物体3上の点Pk,iの姿勢Φの較正物体3を基準とした座標系における座標値をpk,i [i](k=1,…,numPixs,i=1,…,3)で表す。ここで、numPixsは、姿勢Φの較正物体3上の点と対応関係が得られる画素の数である。各画素と較正物体3上の座標値とを対応付けた後、交線検出部13は、姿勢の異なる較正物体3が撮影空間において交わる交線を画像上で検出する(ステップS104)。なお、姿勢の異なる較正物体3が撮影空間において交わる交線とは、姿勢の異なる較正物体3が、撮影空間中に同時に存在していると仮想して、仮想上の姿勢の異なる較正物体3の平面が交差する部分である。 Here, the coordinate value in the coordinate system based on the calibration object 3 of the posture Φ i of the point P k, i on the calibration object 3 of the posture Φ i with respect to the pixel k obtained as a result of step S103 is represented by p k, i. [i] (k = 1,..., numPixs i , i = 1,..., 3) Here, numPixs i is the number of pixels that can be correlated with a point on the calibration object 3 in the posture Φ i . After associating each pixel with the coordinate value on the calibration object 3, the intersection line detection unit 13 detects on the image an intersection line where the calibration objects 3 having different postures intersect in the imaging space (step S104). Note that an intersection line where calibration objects 3 having different postures intersect in the imaging space is assumed that calibration objects 3 having different postures are simultaneously present in the imaging space, and calibration objects 3 having different virtual postures are assumed. This is the part where the planes intersect.

姿勢Φの較正物体3と姿勢Φの較正物体3’とで構成される交線上の画素を{Ki,j(a)|a=1,…,numPixs(i,j)}とする。numPixs(i,j)は、姿勢Φの較正物体3を撮影した画像中の姿勢Φの較正物体3と、姿勢Φの較正物体3’とで構成される交線上の画素数であり、Ki,j(a)=Kj,i(a)である。 The pixels on the configured intersection line out with orientation [Phi i calibration object 3 and the orientation [Phi j calibration object 3 of '| and {K i, j (a) a = 1, ..., numPixs (i, j)} . numPixs (i, j) is the position [Phi i calibration object 3 in an image obtained by photographing the calibration object 3 orientation [Phi i, be a number of pixels on the intersecting line composed out with orientation [Phi j calibration object 3 ' , K i, j (a) = K j, i (a).

なお、交線検出部13は、どのような方法を用いて姿勢Φの較正物体3と、姿勢Φの較正物体3’との交線を検出しても構わない。交線検出部13は、例えば、画像上の各画素または各画素を中心とする一定の領域において、撮影された較正平面の面積が占める割合である較正平面密度を用いる方法を用いても構わない。つまり、異なる姿勢の較正物体3を撮影した画像間で、同じ位置の画素が同じ較正平面密度を持つ場合に、交線が存在するとし、そのような画素の集合を求めることで交線を検出することができる。なお、較正物体3が平面ディスプレイで構成されている場合、較正平面の面積として平面ディスプレイの画素数を用い、画像上の画素あたりの平面ディスプレイの画素の密度である画素密度を用いて交線を検出することができる。 Incidentally, the intersection line detection unit 13, and any way calibration object 3 orientation [Phi i with, may be detected intersection of the orientation [Phi j calibration object 3 '. For example, the intersection detection unit 13 may use a method of using a calibration plane density that is a ratio of the area of the captured calibration plane in each pixel on the image or in a certain region centered on each pixel. . In other words, if pixels at the same position have the same calibration plane density between images taken of calibration objects 3 of different orientations, an intersection line exists, and the intersection line is detected by obtaining a set of such pixels. can do. When the calibration object 3 is configured by a flat display, the number of pixels of the flat display is used as the area of the calibration plane, and the intersection line is calculated using the pixel density that is the density of the flat display pixels per pixel on the image. Can be detected.

平面ディスプレイを較正物体3として用いる場合には、上記説明したグレイコードのように画素と較正物体上の位置との対応が取れるようなものが好ましい。また、グレイコード以外であっても、画素密度を取得しやすいパターンを撮影した画像を、平面ディスプレイに表示して、較正物体3としても構わない。また、平面ディスプレイを用いない場合においても、画像上の各画素または各画素を中心とする一定の領域で撮影される較正物体3上の面積や、較正物体3上の単位面積の領域が撮影された画像上の画素数などを検出できるものを較正物体3として用いてもよい。このような較正物体3を用いることで、交線検出部13において、交線を検出することが可能となる。   When a flat display is used as the calibration object 3, it is preferable that the correspondence between the pixel and the position on the calibration object can be taken as in the Gray code described above. Moreover, even if it is other than the Gray code, an image obtained by capturing a pattern that can easily acquire the pixel density may be displayed on the flat display as the calibration object 3. Even when a flat display is not used, each pixel on the image or an area on the calibration object 3 photographed in a certain area centered on each pixel or a unit area on the calibration object 3 is photographed. An object that can detect the number of pixels on the image may be used as the calibration object 3. By using such a calibration object 3, the intersection line detection unit 13 can detect the intersection line.

なお、交線検出部13は、交線が十分な精度で求まらなかった場合は、交線を検出できなかったと判断する。また、交線検出部13は、交線検出の精度として、どのような尺度を用いても構わない。交線検出部13は、例えば、交線として検出した画素群に対応する較正物体3上の点群{pKi,j(a) [i],i}の直線性を用いて交線の検出精度を評価する。また、交線検出部13は、例えば、点群の直線性の評価値として、点群に対して得られる尤もらしい直線を求め、その直線と各点との距離の合計値や分散値を用いてもよい。また、交線検出部13は、点群の直線性の評価値として、直線からの距離が一定以内の点の数を用いてもよい。 The intersection line detection unit 13 determines that the intersection line cannot be detected when the intersection line is not obtained with sufficient accuracy. Further, the intersection line detection unit 13 may use any scale as the accuracy of the intersection line detection. For example, the intersection line detection unit 13 detects the intersection line by using the linearity of the point group {p Ki, j (a) [i] , i} on the calibration object 3 corresponding to the pixel group detected as the intersection line. Assess accuracy. Further, the intersection line detection unit 13 obtains a likely straight line obtained for the point group, for example, as an evaluation value of the linearity of the point group, and uses a total value or a dispersion value of the distance between the straight line and each point. May be. Further, the intersection detection unit 13 may use the number of points within a certain distance from the straight line as the evaluation value of the linearity of the point group.

また、交線検出部13は、点群{pKi,j(a) [i],i}のうち、直線性を満たさないものを交線に対応する画素群から除外するようにしてもよい。この場合、交線検出部13は、残った画素の数が一定数以下の場合は、交線が検出できなかったと判断してもよい。 Further, the intersection line detection unit 13 may exclude the point group {p Ki, j (a) [i] , i} that does not satisfy linearity from the pixel group corresponding to the intersection line. . In this case, the intersection line detection unit 13 may determine that the intersection line has not been detected when the number of remaining pixels is equal to or less than a certain number.

ここで、全ての姿勢間で3つの交線が検出できなかった場合や、各交線で2点以上の交線上の点が検出できなかった場合は(ステップS105のNO)、対応関係取得部12は、別の姿勢の較正物体3を含む組み合わせの画像群を選択し(ステップS106)、ステップS103へ戻る。なお、ステップS103の較正物体3の姿勢ごとに、画素と較正物体3上の位置を対応付ける処理は、図3に示すように、異なる姿勢の組み合わせが選ばれるたびに繰り返す手順に限らず、他の手順でもよい。例えば、カメラキャリブレーション装置10内に十分な記憶領域が確保され、姿勢ごとに画素と較正物体3上の位置を対応付けた結果を、その記憶領域に蓄積した場合の手順である。カメラキャリブレーション装置10は、例えば、新たに選ばれた異なる姿勢の組み合わせの中に、既に画素と較正物体3上の位置との対応関係を求めた画像群について蓄積済みのものがあった場合は、その記憶領域から蓄積済みの画素と較正物体3上の位置を対応付けた結果を読み出すという手順を行う。   Here, when three intersection lines cannot be detected between all postures, or when two or more points on the intersection line cannot be detected in each intersection line (NO in step S105), the correspondence acquisition unit 12 selects a group of images including the calibration object 3 in another posture (step S106), and returns to step S103. Note that the process of associating the pixel with the position on the calibration object 3 for each posture of the calibration object 3 in step S103 is not limited to a procedure that is repeated every time a combination of different postures is selected, as shown in FIG. It may be a procedure. For example, this is a procedure in a case where a sufficient storage area is secured in the camera calibration apparatus 10 and the result of associating the pixel and the position on the calibration object 3 for each posture is accumulated in the storage area. For example, when the camera calibration device 10 has already accumulated an image group for which the correspondence relationship between the pixel and the position on the calibration object 3 has already been acquired, among the newly selected combinations of different postures. Then, a procedure of reading out the result of associating the accumulated pixel with the position on the calibration object 3 from the storage area is performed.

なお、図3に示した処理手順に限らず、例えば、ステップS102の次にステップS104の処理を行う手順や、ステップS105の条件をチェックしたのちにステップS103の処理を行う手順であってもよい。ただし、上記説明した検出した交線の較正物体3上での直線性を評価する場合は、一部の画素についてはステップS104の中で、ステップS103の対応関係を求める処理を行う必要がある。   Note that the procedure is not limited to the procedure shown in FIG. 3. For example, the procedure of performing step S104 after step S102 or the procedure of performing step S103 after checking the conditions of step S105 may be used. . However, when evaluating the linearity of the detected intersection line on the calibration object 3 described above, it is necessary to perform the process of obtaining the correspondence relationship in step S103 in step S104 for some pixels.

次に、3つの交線を検出でき、かつ、各交線上で2点以上の点を検出できた場合は(ステップS105のYES)、姿勢推定部14は、検出した交線上の点の情報を用いて、較正物体3の姿勢を求める(ステップS107)。なお、姿勢推定部14は、求める較正物体3の姿勢を、どのような情報で表現してもよい。また、姿勢推定部14は、例えば、姿勢Φの較正物体3に対する座標系を、ある基準となる姿勢の較正物体3に対する座標系に変換するための回転行列Rと並進ベクトルtの形で表してもよい。 Next, when three intersection lines can be detected and two or more points can be detected on each intersection line (YES in step S105), the posture estimation unit 14 obtains information on the detected points on the intersection line. Using this, the posture of the calibration object 3 is obtained (step S107). Note that the posture estimation unit 14 may express the posture of the calibration object 3 to be obtained with any information. In addition, the posture estimation unit 14, for example, forms of a rotation matrix R i and a translation vector t i for converting a coordinate system for the calibration object 3 with the posture Φ i into a coordinate system for the calibration object 3 with a certain reference posture. It may be expressed as

以下の説明は、姿勢Φに対する姿勢を基準とした回転行列と並進ベクトルを用いて、較正物体3の姿勢を表現し、それら回転行列と並進ベクトルを推定する第1の方法について説明を行う。この回転行列Rと並進ベクトルtを求める処理では、検出した交線が2つの較正物体3上で定義されることを利用する。つまり、1つの交線が2つの異なる座標系で表現されることを利用する。 In the following description, a first method for expressing the posture of the calibration object 3 using a rotation matrix and a translation vector based on the posture with respect to the posture Φ 1 and estimating the rotation matrix and the translation vector will be described. In the process of obtaining the rotation matrix R i and the translation vector t i , it is used that the detected intersection line is defined on the two calibration objects 3. That is, it is utilized that one intersection line is expressed in two different coordinate systems.

以下、姿勢推定部14における較正物体3の姿勢の推定処理について具体的に説明する。
図4は、較正物体3の姿勢を推定する第1の方法を説明するための図である。図4は、交線検出部13で検出された姿勢Φ〜Φである較正物体3の較正平面が交差する3つの交線の一例が示されている。図4に示すように各交線上の点P(i=1,…,6)を定義する。この時、各点Pは2つの較正物体上の点であることから次の(式1)に示す関係が成り立つ。

Figure 2017011537
Hereinafter, the posture estimation process of the calibration object 3 in the posture estimation unit 14 will be specifically described.
FIG. 4 is a diagram for explaining a first method for estimating the posture of the calibration object 3. FIG. 4 shows an example of three intersection lines where the calibration planes of the calibration object 3 in the postures Φ 1 to Φ 3 detected by the intersection line detection unit 13 intersect. As shown in FIG. 4, points P i (i = 1,..., 6) on each intersection line are defined. At this time, since each point Pi is a point on two calibration objects, the relationship shown in the following (Equation 1) is established.
Figure 2017011537

この関係から、点Pの姿勢Φjの較正物体3を基準とした座標系における座標値をpi [j]で表すとすると、次の(式2)〜(式4)の関係が成り立つ。

Figure 2017011537
From this relationship, if the coordinate value in the coordinate system with the calibration object 3 of the posture Φ j of the point P i is represented by p i [j] , the following relationships (Expression 2) to (Expression 4) hold. .
Figure 2017011537

また、直線Pと直線Pの内積と、直線Pと直線Pの内積について、それぞれ、次の(式5)、(式6)の関係が成り立つ。なお、直線Pとは点PとPとを結ぶ直線のことを示す。

Figure 2017011537
Further, for the inner product of the straight line P 1 P 2 and the straight line P 5 P 6 and the inner product of the straight line P 3 P 4 and the straight line P 5 P 6 , the following relationships (Equation 5) and (Equation 6) are established, respectively. The straight line P i P j indicates a straight line connecting the points P i and P j .
Figure 2017011537

これらをR、R、t、tについて整理すると、R、R、t、tの要素を含むベクトルxと、R、R、t、tの要素を含まない行列M及びベクトルbを用いて、Mx=bの形で表現される連立方程式が得られる。そのため、この連立方程式を解くことで回転行列R、Rと並進ベクトルt、tが求まる。なお、回転行列と並進ベクトルを求める方法は、どのような方法を用いてもよい。例えば、特異値分解を利用して回転行列と並進ベクトルを求めてもよい。 If these are organized for R 2, R 3, t 2 , t 3, and the vector x comprising the elements of R 2, R 3, t 2 , t 3, the elements of R 2, R 3, t 2 , t 3 The simultaneous equations expressed in the form of Mx = b are obtained by using the matrix M and the vector b which are not included. Therefore, by solving this simultaneous equation, rotation matrices R 2 and R 3 and translation vectors t 2 and t 3 are obtained. Note that any method may be used to obtain the rotation matrix and the translation vector. For example, the rotation matrix and the translation vector may be obtained using singular value decomposition.

なお、上記の回転行列と並進ベクトルを求める説明では3つの交線上の2点(合計6点)を用いたが、交線上に3点以上の点が存在する場合は、任意の方法で点を選択して、上記処理を行ってもよい。更に、複数の組み合わせを用いて推定・検証することで、ノイズに対して頑健に推定を行う方法を用いてもかまわない。そのような方法の代表的なものにRANSAC(RANdom SAmple Consensus)と呼ばれる方法がある。   In the above description for obtaining the rotation matrix and the translation vector, two points on three intersecting lines (6 points in total) are used. However, if there are three or more points on the intersecting line, the points can be determined by an arbitrary method. You may select and perform the said process. Furthermore, a method of performing robust estimation against noise by performing estimation / verification using a plurality of combinations may be used. A representative example of such a method is a method called RANSAC (RANdom Sample Consensus).

また、3つの姿勢の較正物体3が互いに並行でなく、かつ、3つの較正物体3の交線が1直線で交差していない場合、3つの姿勢の較正物体3が三角錐の各面の一部となることを利用して、回転行列Rと並進ベクトルtを求めてもよい。より具体的には、3つの交線が三角錐の頂点となる1点で交わることを利用して回転行列と並進ベクトルを求めてもよい。 In addition, when the three calibrating objects 3 are not parallel to each other and the intersecting lines of the three calibrating objects 3 do not intersect with one straight line, the three calibrating objects 3 are arranged on one side of the triangular pyramid. The rotation matrix R i and the translation vector t i may be obtained by using the part. More specifically, the rotation matrix and the translation vector may be obtained by utilizing the fact that three intersecting lines intersect at one point that is the apex of the triangular pyramid.

以下、回転行列と並進ベクトルを用いて較正物体3の姿勢を推定する第2の方法について具体的に説明を行う。
図5は、較正物体3の姿勢を推定する第2の方法を説明するための図である。図5に示すように、姿勢Φ〜Φである較正物体3の較正平面が交差する各交線上の点P(i=1,3,5)及び、3交線の交点Oを定義する。この時、点P(i=1,3,5)については上述の説明と同じ関係が成立するのに加えて、交点Oの姿勢Φの較正物体3を基準とした座標系における座標値o[i]は、各交線を表す直線の交点を求めることで計算できる。この時、線分及び内積の等価性より、次の(式7)〜(式11)の関係が成り立つ。

Figure 2017011537
Hereinafter, the second method for estimating the posture of the calibration object 3 using the rotation matrix and the translation vector will be specifically described.
FIG. 5 is a diagram for explaining a second method for estimating the posture of the calibration object 3. As shown in FIG. 5, a point P i (i = 1, 3, 5) on each intersection line where the calibration planes of the calibration object 3 having postures Φ 1 to Φ 3 intersect and an intersection point O of the three intersection lines are defined. To do. At this time, for the point P i (i = 1, 3, 5), in addition to the same relationship as described above, the coordinate value in the coordinate system based on the calibration object 3 of the posture Φ i of the intersection O is used. o [i] can be calculated by obtaining the intersection of straight lines representing each intersection line. At this time, the following relations (Expression 7) to (Expression 11) are established from the equivalence of the line segment and the inner product.
Figure 2017011537

これらを回転行列R、Rについて整理すると、回転行列R、Rの要素を含むベクトルx’と、回転行列R、Rの要素を含まない行列M’及びベクトルb’を用いて、M’x’=b’の形で表現される連立方程式が得られる。そのため、この連立方程式を解くことで回転行列R、Rを求めることができる。なお、回転行列R、Rを求める方法として、どのような方法を用いてもよい。そして、回転行列R、Rが得られたら次の(式12)、(式13)によって並進ベクトルが得られる。

Figure 2017011537
When these organizing the rotation matrix R 2, R 3, vector x containing the elements of the rotation matrix R 2, R 3 and 'a rotation matrix R 2, matrix does not include an element of R 3 M' and the vector b 'using Thus, simultaneous equations expressed in the form of M′x ′ = b ′ are obtained. Therefore, the rotation matrices R 2 and R 3 can be obtained by solving the simultaneous equations. Note that any method may be used as a method of obtaining the rotation matrices R 2 and R 3 . When the rotation matrices R 2 and R 3 are obtained, translation vectors are obtained by the following (Expression 12) and (Expression 13).
Figure 2017011537

なお、上記の回転行列を求める説明では、各交線上の1点(合計3点)を用いたが、交線上に2点以上の点が存在する場合は、任意の方法で点を選択して、上記処理を行っても構わない。更に、交線上の複数の点の組み合わせを用いて推定・検証することで、ノイズに対して頑健に推定を行う方法を用いてもよい。そのような方法の代表的なものにRANSAC(RANdom SAmple Consensus)と呼ばれる手法がある。   In the above description for calculating the rotation matrix, one point on each intersection line (three points in total) was used. However, if there are two or more points on the intersection line, select a point by any method. The above processing may be performed. Furthermore, a method of performing robust estimation against noise by estimating / verifying using a combination of a plurality of points on the intersection line may be used. A representative example of such a method is a method called RANSAC (RANdom Sample Consensus).

較正物体3の姿勢の関係が得られたら、光線情報出力部15は、各画素に対して、その画素でサンプリングされる光線を対応付けた結果を生成する(ステップS108)。生成された結果は、カメラキャリブレーション装置10の出力となる。なお、画素と光線を対応付ける表現は、どのような形式で表現してもよい。例えば、各画素をインデックスとし、光線を表す直線の式を返すルックアップテーブルを用いて表現してもよい。   When the posture relationship of the calibration object 3 is obtained, the light ray information output unit 15 generates a result of associating each pixel with the light ray sampled by that pixel (step S108). The generated result is an output of the camera calibration device 10. The expression for associating the pixel with the light beam may be expressed in any format. For example, each pixel may be used as an index, and may be expressed using a look-up table that returns a straight line expression representing a ray.

画素kでサンプリングされた光線は、較正物体3上の座標値{pk,i [i]|(i=1,2,3)}から直線を推定することで求めることができる。なお、ここでは姿勢Φの較正物体3を基準とした座標系で光線を表現するものとしたが、別の姿勢を基準とした座標系を用いても構わない。 The light beam sampled at the pixel k can be obtained by estimating a straight line from the coordinate value {p k, i [i] | (i = 1, 2, 3)} on the calibration object 3. Here, the light beam is expressed in a coordinate system based on the calibration object 3 having the posture Φ 1 , but a coordinate system based on another posture may be used.

また、較正物体3の姿勢を推定する処理(ステップS107)が終了した後、キャリブレーションの精度、つまり較正物体3の姿勢の推定の精度を表す評価値を求めてもよい。この評価値は、較正物体3の姿勢の推定が正しく行われたか否かを表すことのできるものであれば、どのような評価値を用いてもよい。評価値の具体例1は、画素ごとに得られる較正物体3上の点で構成される2本以上の線分の外積のノルムについて、和や最大値、分散を求めて、評価値としたものである。また、評価値の具体例2は、画素ごとに得られる較正物体3上の点で構成される2本以上の線分を求めて、その線分に対応する方向ベクトルの差分ベクトルのノルムについて、和や最大値、分散を求めて、評価値としたものである。更に、評価値の具体例3は、各画素に対応付けられた光線と較正物体3上の点の距離について、和や最大値、分散を求めて、評価値としたものである。更に、評価値の具体例4は、各画素に対応付けられた光線と較正物体3上の点の較正物体3平面上での距離について、和や最大値、分散を求めて、評価値としたものである。   Further, after the process of estimating the posture of the calibration object 3 (step S107) is completed, an evaluation value representing the accuracy of calibration, that is, the accuracy of estimation of the posture of the calibration object 3 may be obtained. This evaluation value may be any evaluation value as long as it can indicate whether or not the posture of the calibration object 3 has been correctly estimated. Specific example 1 of the evaluation value is an evaluation value obtained by calculating the sum, maximum value, and variance of the norm of the outer product of two or more line segments composed of points on the calibration object 3 obtained for each pixel. It is. Further, specific example 2 of the evaluation value obtains two or more line segments constituted by points on the calibration object 3 obtained for each pixel, and regarding the norm of the difference vector of the direction vector corresponding to the line segment, The sum, maximum value, and variance are obtained and used as evaluation values. Furthermore, the specific example 3 of the evaluation value is obtained by calculating the sum, the maximum value, and the variance of the distance between the light ray associated with each pixel and the point on the calibration object 3 and obtaining the evaluation value. Furthermore, specific example 4 of the evaluation value is the evaluation value obtained by calculating the sum, maximum value, and variance of the distance between the ray associated with each pixel and the point on the calibration object 3 on the calibration object 3 plane. Is.

また、別の姿勢の較正物体3を撮影した画像を追加し、更新された画像群から異なる姿勢の較正物体3に対する画像群を選択し、ステップS103へ戻っても構わない。なお、追加する画像は、どのような姿勢の較正物体3を撮影した画像であってもよい。例えば、既に入力されている画像群と比較し、同じ較正物体3であって画像上の較正物体3の大きさが大きく異なるような画像を追加してもよい。また、同じ較正物体3であって画像上の較正物体3の大きさは同じだが形状が異なるような画像を追加してもよい。前者は、既に入力されている画像と比較して、画像を撮影したカメラから較正物体3までの距離が異なるような画像であることを意味する。以上のような異なる姿勢の較正物体3を含む画像を入力することで、より長い経路で光線の直進性を考慮したキャリブレーションが可能となる。一方、後者は、より狭い空間での光線の直進性を考慮することで、より頑健にキャリブレーションを行うことが可能となる。   Alternatively, an image obtained by capturing the calibration object 3 having another posture may be added, an image group for the calibration object 3 having a different posture may be selected from the updated image group, and the process may return to step S103. The image to be added may be an image obtained by photographing the calibration object 3 in any posture. For example, an image that is the same calibration object 3 and the size of the calibration object 3 on the image is significantly different from that of the already input image group may be added. Moreover, you may add the image which is the same calibration object 3, and the same size but the shape of the calibration object 3 on an image differs. The former means that the distance from the camera that captured the image to the calibration object 3 is different from that of the already input image. By inputting an image including the calibration object 3 having a different posture as described above, it is possible to perform calibration in consideration of the straightness of the light beam through a longer path. On the other hand, the latter makes it possible to perform calibration more robustly by considering the straightness of the light beam in a narrower space.

(ハードウェアの構成例)
図6は、本実施形態におけるカメラキャリブレーション装置10のハードウェアの構成例を示す図である。
図6に示すように、カメラキャリブレーション装置10を、コンピュータによって構成する場合のハードウェア構成を示すブロック図である。カメラキャリブレーション装置10は、プログラムを実行するCPU(Central Processing Unit)100と、CPU100がアクセスするプログラムやデータが格納されるRAM等のメモリ101と、カメラ等からの処理対象の画像信号を入力する画像入力部102と、カメラキャリブレーション処理をCPU100に実行させるソフトウェアプログラムであるカメラキャリブレーションプログラム105が格納されたプログラム記憶装置103と、CPU100がメモリ101にロードされたカメラキャリブレーションプログラム105を実行することにより生成された画素と光線の対応関係を出力する光線情報出力部104とが、バスで接続された構成になっている。
(Hardware configuration example)
FIG. 6 is a diagram illustrating a hardware configuration example of the camera calibration device 10 according to the present embodiment.
As shown in FIG. 6, it is a block diagram which shows the hardware constitutions when the camera calibration apparatus 10 is comprised by a computer. The camera calibration apparatus 10 receives a CPU (Central Processing Unit) 100 that executes a program, a memory 101 such as a RAM that stores programs and data accessed by the CPU 100, and an image signal to be processed from the camera or the like. The image input unit 102, a program storage device 103 that stores a camera calibration program 105 that is a software program that causes the CPU 100 to execute camera calibration processing, and the CPU 100 executes the camera calibration program 105 that is loaded into the memory 101. In this configuration, a light ray information output unit 104 that outputs the correspondence between the generated pixel and the light ray is connected by a bus.

なお、画像入力部102は、ディスク装置等により画像信号を記憶し、記憶した画像信号を読み出すことで画像信号を入力する記憶部で構成してもよい。また、光線情報出力部104は、ディスク装置等により画素と光線の対応関係を示す光線情報を記憶する記憶部で構成してもよい。また、バスで接続されたCPUやメモリや補助記憶装置などを備え、カメラキャリブレーションプログラムを実行することによってカメラキャリブレーションを備える装置として機能する。なお、カメラキャリブレーションの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。カメラキャリブレーションプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。カメラキャリブレーションプログラムは、電気通信回線を介して送信されてもよい。   Note that the image input unit 102 may be configured by a storage unit that stores an image signal by a disk device or the like and inputs the image signal by reading the stored image signal. The light beam information output unit 104 may be configured by a storage unit that stores light beam information indicating the correspondence between pixels and light beams by a disk device or the like. Also, it includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and functions as a device having camera calibration by executing a camera calibration program. Note that all or part of each function of camera calibration may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The camera calibration program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The camera calibration program may be transmitted via a telecommunication line.

このように、本実施形態におけるカメラキャリブレーション装置10を、コンピュータで実現することができる。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   Thus, the camera calibration device 10 in the present embodiment can be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上説明したように、光線が撮影空間中で直進することを利用して、複数の姿勢で同一の較正物体を撮影した画像群から、画素と光線の対応関係を生成することにより、カメラと被写体との間に任意の屈折層(未知の屈折層または複雑な形状の屈折層)を含む場合においても、カメラのキャリブレーションを実現することができる。また、カメラと被写体との間に屈折層を含まない空間を通して、被写体を撮影不可能な状況においても、カメラのキャリブレーションを実現することができる。   As described above, the camera and the subject are generated by generating the correspondence relationship between the pixel and the light from the group of images obtained by photographing the same calibration object in a plurality of postures using the fact that the light travels straight in the photographing space. Even when an arbitrary refractive layer (an unknown refractive layer or a complicated-shaped refractive layer) is included between the two, a camera calibration can be realized. In addition, the camera calibration can be realized even in a situation where the subject cannot be photographed through a space that does not include a refractive layer between the camera and the subject.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

本発明のカメラキャリブレーション方法、カメラキャリブレーション装置及びカメラキャリブレーションプログラムは、カメラと被写体との間に未知の屈折層がある場合において、画素と光線とを対応付けを行うことが不可欠な用途に適用することができる。   The camera calibration method, camera calibration apparatus, and camera calibration program of the present invention are indispensable for associating pixels with light rays when there is an unknown refractive layer between the camera and the subject. Can be applied.

1…カメラ, 2…屈折層, 3、3’…較正物体, 10…カメラキャリブレーション装置, 11…画像入力部, 12…対応関係取得部, 13…交線検出部, 14…姿勢推定部, 15…光線情報出力部 DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Refraction layer 3, 3 '... Calibration object, 10 ... Camera calibration apparatus, 11 ... Image input part, 12 ... Correspondence acquisition part, 13 ... Intersection detection part, 14 ... Posture estimation part, 15: Ray information output unit

Claims (8)

屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション方法であって、
前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得ステップと、
前記姿勢の異なる較正物体が、撮影空間において交わる交線に対応する画素群を検出する交線検出ステップと、
前記交線検出ステップで検出された前記交線における前記対応関係取得ステップで取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定ステップと、
前記対応関係取得ステップで取得された前記対応関係に関する情報と、前記姿勢推定ステップで推定された前記姿勢情報とを用いて、画素と前記撮影空間中の光線との対応関係を示す光線情報を取得する光線情報取得ステップとを有するカメラキャリブレーション方法。
A camera calibration method for associating each pixel of an image obtained by photographing a subject through a refraction layer with a light beam from the subject,
A correspondence acquisition step for acquiring information on a correspondence relationship between the pixel and the position on the calibration object for each posture of the calibration object from an image group obtained by photographing calibration objects having different postures as the subject;
An intersection detection step of detecting a pixel group corresponding to an intersection of the calibration objects having different postures in the imaging space;
A posture estimation step of estimating posture of the calibration object and outputting posture information using information on the correspondence acquired in the correspondence acquisition step in the intersection detected in the intersection detection step;
Using the information on the correspondence acquired in the correspondence acquisition step and the posture information estimated in the posture estimation step, light information indicating the correspondence between the pixels and the light rays in the imaging space is acquired. And a light beam information acquisition step.
前記姿勢推定ステップにおいて、前記交線が2つの前記較正物体上で定義されることを用いて前記較正物体の姿勢を推定する請求項1に記載のカメラキャリブレーション方法。   The camera calibration method according to claim 1, wherein, in the posture estimation step, the posture of the calibration object is estimated using the fact that the intersection line is defined on two calibration objects. 前記姿勢推定ステップにおいて、複数の前記交線が前記撮影空間上において1点で交わることを用いて前記較正物体の姿勢を推定する請求項1に記載のカメラキャリブレーション方法。   The camera calibration method according to claim 1, wherein in the posture estimation step, the posture of the calibration object is estimated using a plurality of intersecting lines intersecting at one point on the imaging space. 前記交線検出ステップにおいて、前記異なる姿勢の較正物体を撮影した画像間で、同じ位置の画素における較正平面密度が同じ場合に、当該画素を前記交線が存在する画素として検出する請求項1から請求項3のいずれか一項に記載のカメラキャリブレーション方法。   The crossing detection step detects the pixel as a pixel where the crossing line exists when the calibration plane density of the pixel at the same position is the same between the images obtained by photographing the calibration objects of the different postures. The camera calibration method according to claim 3. 前記対応関係取得ステップで取得した前記対応関係に関する情報と、前記姿勢推定ステップで推定した前記較正物体の姿勢とを用いて、前記較正物体の姿勢の推定の評価値を取得する評価値取得ステップをさらに有する請求項1から4のいずれか一項に記載のカメラキャリブレーション方法。   An evaluation value acquisition step of acquiring an evaluation value for estimating the posture of the calibration object using the information regarding the correspondence relationship acquired in the correspondence relationship acquisition step and the posture of the calibration object estimated in the posture estimation step. The camera calibration method according to any one of claims 1 to 4, further comprising: 前記評価値取得ステップにおいて、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積を用いて、前記較正物体の姿勢の推定の評価値を取得する請求項5に記載のカメラキャリブレーション方法。   In the evaluation value acquisition step, two or more line segments are obtained for one pixel from the position on the calibration object sampled by the same pixel, and an outer product between direction vectors corresponding to the line segment is used. The camera calibration method according to claim 5, wherein an evaluation value for estimating the posture of the calibration object is acquired. 屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション装置であって、
前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得部と、
前記姿勢の異なる較正物体が、撮影空間において交わる交線に対応する画素群を検出する交線検出部と、
前記交線検出部で検出された前記交線における前記対応関係取得部で取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定部と、
前記対応関係取得部で取得された前記対応関係に関する情報と、前記姿勢推定部で推定された前記姿勢情報とを用いて、画素と前記撮影空間中の光線との対応関係を示す光線情報を取得する光線情報取得部とを備えるカメラキャリブレーション装置。
A camera calibration device for associating each pixel of an image obtained by photographing a subject through a refractive layer with a light beam from the subject,
A correspondence acquisition unit that acquires information on a correspondence between the pixel and the position on the calibration object for each posture of the calibration object from an image group obtained by photographing calibration objects having different postures as the subject;
An intersection detection unit for detecting a pixel group corresponding to an intersection line in which the calibration objects having different postures intersect in an imaging space;
A posture estimation unit that estimates posture of the calibration object and outputs posture information using information about the correspondence acquired by the correspondence acquisition unit in the intersection detected by the intersection detection unit;
Using the information on the correspondence acquired by the correspondence acquisition unit and the posture information estimated by the posture estimation unit, light information indicating the correspondence between the pixels and the light rays in the imaging space is acquired. And a light beam information acquisition unit.
請求項1から6のいずれか一項に記載のカメラキャリブレーション方法をコンピュータに実行させるためのカメラキャリブレーションプログラム。   A camera calibration program for causing a computer to execute the camera calibration method according to claim 1.
JP2015125914A 2015-06-23 2015-06-23 Camera calibration method, camera calibration device, and camera calibration program Active JP6355206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015125914A JP6355206B2 (en) 2015-06-23 2015-06-23 Camera calibration method, camera calibration device, and camera calibration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015125914A JP6355206B2 (en) 2015-06-23 2015-06-23 Camera calibration method, camera calibration device, and camera calibration program

Publications (2)

Publication Number Publication Date
JP2017011537A true JP2017011537A (en) 2017-01-12
JP6355206B2 JP6355206B2 (en) 2018-07-11

Family

ID=57764051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015125914A Active JP6355206B2 (en) 2015-06-23 2015-06-23 Camera calibration method, camera calibration device, and camera calibration program

Country Status (1)

Country Link
JP (1) JP6355206B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3537103A1 (en) 2018-03-07 2019-09-11 Ricoh Company, Ltd. Calibration reference point acquisition system and calibration reference point acquisition method
KR20210009019A (en) * 2019-07-16 2021-01-26 남서울대학교 산학협력단 System for determining position and attitude of camera using the inner product of vectors and three-dimensional coordinate transformation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070347A (en) * 2006-08-17 2008-03-27 Univ Of Miyazaki Automatic calibration device and calibration method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070347A (en) * 2006-08-17 2008-03-27 Univ Of Miyazaki Automatic calibration device and calibration method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3537103A1 (en) 2018-03-07 2019-09-11 Ricoh Company, Ltd. Calibration reference point acquisition system and calibration reference point acquisition method
KR20210009019A (en) * 2019-07-16 2021-01-26 남서울대학교 산학협력단 System for determining position and attitude of camera using the inner product of vectors and three-dimensional coordinate transformation
KR102265081B1 (en) 2019-07-16 2021-06-14 남서울대학교 산학협력단 System for determining position and attitude of camera using the inner product of vectors and three-dimensional coordinate transformation

Also Published As

Publication number Publication date
JP6355206B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
JPWO2018147329A1 (en) Free viewpoint video generation method and free viewpoint video generation system
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
JP5901447B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
JP2019510311A (en) Method and computer program product for calibrating a stereo imaging system using a planar mirror
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
EP3998582A1 (en) Three-dimensional model generation method and three-dimensional model generation device
JP2018129007A (en) Learning data generation apparatus, learning apparatus, estimation apparatus, learning data generation method, and computer program
JP2019128641A (en) Image processing device, image processing method and program
JP5987114B2 (en) High resolution image generation apparatus, high resolution image generation method, and high resolution image generation program
JP6573196B2 (en) Distance information correction apparatus, distance information correction method, and distance information correction program
JP6355206B2 (en) Camera calibration method, camera calibration device, and camera calibration program
CN112883920A (en) Point cloud deep learning-based three-dimensional face scanning feature point detection method and device
JP2019016164A (en) Learning data generation device, estimation device, estimation method, and computer program
JP6384961B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium
JP2013231607A (en) Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program
CN112634439B (en) 3D information display method and device
KR20160049639A (en) Stereoscopic image registration method based on a partial linear method
WO2017187935A1 (en) Information processing apparatus, information processing method, and program
KR20150119770A (en) Method for measuring 3-dimensional cordinates with a camera and apparatus thereof
JP5086120B2 (en) Depth information acquisition method, depth information acquisition device, program, and recording medium
JP2018088228A (en) Intersection detection device, camera calibration system, intersection detection method, camera calibration method, program and recording medium
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
CN111272271A (en) Vibration measurement method, system, computer device and storage medium
JP7211271B2 (en) Image selection method, image selection program, and image selection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180608

R150 Certificate of patent or registration of utility model

Ref document number: 6355206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350