JP2016213783A - Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium - Google Patents

Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium Download PDF

Info

Publication number
JP2016213783A
JP2016213783A JP2015098252A JP2015098252A JP2016213783A JP 2016213783 A JP2016213783 A JP 2016213783A JP 2015098252 A JP2015098252 A JP 2015098252A JP 2015098252 A JP2015098252 A JP 2015098252A JP 2016213783 A JP2016213783 A JP 2016213783A
Authority
JP
Japan
Prior art keywords
calibration
camera
posture
calibration object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015098252A
Other languages
Japanese (ja)
Other versions
JP6384961B2 (en
Inventor
信哉 志水
Shinya Shimizu
信哉 志水
憲作 藤井
Kensaku Fujii
憲作 藤井
真衣 西村
Mai Nishimura
真衣 西村
章平 延原
Shohei Nobuhara
章平 延原
隆司 松山
Takashi Matsuyama
隆司 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Nippon Telegraph and Telephone Corp
Original Assignee
Kyoto University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Nippon Telegraph and Telephone Corp filed Critical Kyoto University
Priority to JP2015098252A priority Critical patent/JP6384961B2/en
Publication of JP2016213783A publication Critical patent/JP2016213783A/en
Application granted granted Critical
Publication of JP6384961B2 publication Critical patent/JP6384961B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a camera calibration apparatus, a camera calibration method, a camera calibration program, and a recording medium capable of realizing calibration of a camera model even when there is an unknown refractive layer between a camera and a subject.SOLUTION: A camera calibration apparatus comprises: a correspondence relationship acquiring unit that acquires information on a correspondence relationship between a pixel and a position on a calibration object for each attitude of a calibration object from an image group obtained by photographing the calibration object with different attitudes; an attitude estimation unit for estimating the attitude of the calibration object to output attitude information; and a ray information acquisition unit that acquires ray information indicating a correspondence relationship between the pixel and a light beam using the information on the correspondence relationship and the attitude information. The attitude estimation unit estimates the attitude of the calibration object using a fact that the position on the calibration object sampled with the same pixel among the plurality of images exists on a straight line in the photographing space.SELECTED DRAWING: Figure 2

Description

本発明は、カメラと被写体の間に屈折層が存在する場合におけるカメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体に関する。   The present invention relates to a camera calibration device, a camera calibration method, a camera calibration program, and a recording medium when a refractive layer exists between a camera and a subject.

従来、カメラで撮影された画像から、三次元情報として、例えば被写体の形状や、被写体とカメラとの位置関係を抽出する技術が知られている。このような技術は、ロボットビジョン、拡張現実感を提供するシステム等において、非常に重要となる技術である。このような三次元情報の抽出を行うためには、画像上の各画素と現実空間での光線の対応関係に関する情報と、複数のカメラ間の位置関係に関する情報とを取得する必要がある。そして、これらの情報を取得する処理は、カメラキャリブレーションと呼ばれている。特に、画像上の各画素と現実空間での光線の対応関係に関する情報を取得する処理は、内部キャリブレーションと呼ばれ、複数のカメラ間の位置関係に関する情報を取得する処理は、外部キャリブレーションと呼ばれている。   2. Description of the Related Art Conventionally, a technique for extracting, for example, the shape of a subject and the positional relationship between the subject and the camera as three-dimensional information from an image taken with a camera is known. Such a technique is very important in a robot vision, a system that provides augmented reality, and the like. In order to extract such three-dimensional information, it is necessary to acquire information related to the correspondence between each pixel on the image and light rays in the real space and information related to the positional relationship between a plurality of cameras. And the process which acquires such information is called camera calibration. In particular, the process of acquiring information about the correspondence between each pixel on the image and the light beam in the real space is called internal calibration, and the process of acquiring information about the positional relationship between a plurality of cameras is called external calibration. being called.

一般的なカメラキャリブレーションでは、オブジェクトと画像平面の間の写像が、ピンホールカメラモデルなど透視投影カメラモデルで表現できることを前提としている。そのような透視投影カメラモデルでは、オブジェクトからの光線は、カメラの投影中心に向かって直進しながら集束することを前提としている。そのため、カメラとオブジェクトの間に屈折層がある場合は、スネルの法則に基づき屈折層の屈折をモデル化することで、カメラキャリブレーションを実現する。そして、屈折のモデル化を行うためには、屈折層の屈折率及び位置・形状に関する情報が必要となる。しかし、予めそれらの情報を得ることは、一般的に困難であるため、屈折のモデル化を行うことができないという問題がある。また、仮に、それらの情報が得られたとしても、屈折層の形状等が複雑な場合は、屈折のモデル化の処理も複雑になるという問題がある。   In general camera calibration, it is assumed that a mapping between an object and an image plane can be expressed by a perspective camera model such as a pinhole camera model. In such a perspective projection camera model, it is assumed that the light rays from the object converge while moving straight toward the projection center of the camera. Therefore, when there is a refractive layer between the camera and the object, camera calibration is realized by modeling the refraction of the refractive layer based on Snell's law. In order to model refraction, information on the refractive index, position, and shape of the refractive layer is required. However, since it is generally difficult to obtain such information in advance, there is a problem that refraction modeling cannot be performed. Even if such information is obtained, if the shape of the refractive layer is complicated, there is a problem that the modeling process of refraction is complicated.

透視投影カメラモデルとは異なるカメラモデルとして、非特許文献1で提案されているRaxel(ray−pixel)カメラモデルが存在する。Raxelカメラモデルでは、画像上の各画素と三次元空間における光線とを直接対応付ける。そのため、屈折層における光線の屈折をモデル化せずに、カメラキャリブレーションにおいて、画素と光線の対応付けを求めることができる。
例えば、非特許文献2に記載の手法は、カメラとの間に屈折層を含んだ撮影対象とする空間中に、チェッカーボードなどの較正物体を設置し、画素からその較正物体平面上の点へのマッピングを表す近似関数を求めることでキャリブレーションを実現している。
As a camera model different from the perspective projection camera model, there is a Raxel (ray-pixel) camera model proposed in Non-Patent Document 1. In the Raxel camera model, each pixel on an image is directly associated with a light beam in a three-dimensional space. Therefore, it is possible to obtain the correspondence between pixels and light rays in camera calibration without modeling the refraction of light rays in the refraction layer.
For example, in the technique described in Non-Patent Document 2, a calibration object such as a checkerboard is installed in a space to be imaged including a refractive layer between the camera and a pixel to a point on the calibration object plane. Calibration is realized by obtaining an approximation function that represents the mapping of.

Michael D. Grossbarg, Shree K. Nayar, “The Raxel Imaging Model and Ray-Based Calibration,” International Journal of Computer Vision, 61(2), pp. 119-137, 2005.Michael D. Grossbarg, Shree K. Nayar, “The Raxel Imaging Model and Ray-Based Calibration,” International Journal of Computer Vision, 61 (2), pp. 119-137, 2005. Tomohiko Yano, Shohei Nobuhara, Takashi Matsuyama, “3D Shape from Silhouettes in Water for Online Novel-View Synthesis,” 第16回 画像の認識理解シンポジウム(MIRU), 2013.Tomohiko Yano, Shohei Nobuhara, Takashi Matsuyama, “3D Shape from Silhouettes in Water for Online Novel-View Synthesis,” 16th Image Recognition and Understanding Symposium (MIRU), 2013.

しかしながら、非特許文献2に記載の手法は、近似関数で近似する精度の問題から屈折層の形状に制約があり、任意の屈折層に適用するのは困難であるという問題がある。さらに、キャリブレーションにおいて、カメラに対する較正物体の姿勢に関する情報が必要となる。そして、その姿勢に関する情報を取得するために、経路中に屈折層を含む空間に設置された較正物体を撮影すると同時に、屈折層を含まない空間に設置された別の較正物体を撮影する必要がある。つまり、非特許文献2に記載の手法は、本来対象とする空間をカメラの一部でしか撮影できないことになり、高精細な画像を取得することができないという問題がある。また、非特許文献2に記載の手法は、屈折層を含む空間および屈折層を含まない空間の両方の空間が撮影可能な状況でしか、使用できないという問題がある。   However, the technique described in Non-Patent Document 2 has a problem that the shape of the refracting layer is limited due to the problem of accuracy of approximation with an approximation function, and it is difficult to apply to any refracting layer. Further, in the calibration, information regarding the posture of the calibration object with respect to the camera is required. And in order to acquire information about the posture, it is necessary to photograph a calibration object installed in a space including a refractive layer in the path, and simultaneously image another calibration object installed in a space not including the refractive layer. is there. That is, the method described in Non-Patent Document 2 has a problem that a space that is originally targeted can be captured only by a part of the camera, and a high-definition image cannot be acquired. Further, the technique described in Non-Patent Document 2 has a problem that it can be used only in a situation where both a space including a refractive layer and a space not including a refractive layer can be photographed.

上記事情に鑑み、本発明は、カメラと被写体との間に未知の屈折層または複雑な形状の屈折層が存在する場合であっても、カメラモデルのキャリブレーションを実現することができるカメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体を提供することを目的とする。   In view of the above circumstances, the present invention provides a camera calibration that can realize camera model calibration even when an unknown refractive layer or a complicated refractive layer exists between the camera and the subject. An object is to provide an apparatus, a camera calibration method, a camera calibration program, and a recording medium.

本発明の一態様は、屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション装置であって、前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得部と、前記対応関係取得部で取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定部と、前記対応関係取得部で取得された前記対応関係に関する情報と、前記姿勢推定部で推定された前記姿勢情報とを用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得部とを備え、前記姿勢推定部は、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション装置である。   One aspect of the present invention is a camera calibration device for associating each pixel of an image obtained by photographing a subject through a refractive layer with a light beam from the subject, the posture of the subject as the subject Acquired by the correspondence acquisition unit for acquiring information on the correspondence between the pixel and the position on the calibration object for each posture of the calibration object from the group of images obtained by photographing different calibration objects. Using the information on the correspondence relationship, the posture estimation unit that estimates the posture of the calibration object and outputs posture information, the information on the correspondence relationship acquired by the correspondence relationship acquisition unit, and the posture estimation unit A light ray information acquisition unit that acquires light ray information indicating a correspondence relationship between pixels and light rays using the estimated posture information, and the posture estimation unit includes a plurality of images. Position on the calibration object sampled in one pixel, a camera calibration device for estimating the pose of the calibration object using that exist on a straight line in the imaging space.

本発明の一態様は、前記姿勢推定部は、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積を最小化するように前記較正物体の姿勢を推定する。   In one aspect of the present invention, the posture estimation unit obtains two or more line segments for one pixel from a position on the calibration object sampled by the same pixel, and a direction vector corresponding to the line segment. The posture of the calibration object is estimated so as to minimize the outer product.

本発明の一態様は、前記対応関係に関する情報と、前記姿勢情報とを用いて、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積に基づくキャリブレーション評価値を求めるキャリブレーション評価部を更に備える。   In one embodiment of the present invention, two or more line segments are obtained for one pixel from the position on the calibration object sampled by the same pixel using the information on the correspondence and the posture information. And a calibration evaluation unit for obtaining a calibration evaluation value based on the outer product between the direction vectors corresponding to the line segment.

本発明の一態様は、姿勢の異なる前記較正物体を撮影した画像群から、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する対象画像選択部を更に備え、前記対応関係取得部は、前記対象画像選択部が選択した画像群から較正物体の姿勢ごとに、画素と較正物体上の位置との対応関係に関する情報を取得する。   One aspect of the present invention is an object for selecting three or more image groups in which calibration objects having different postures with respect to the camera are photographed with a small difference in distance from the camera, from the image groups in which the calibration objects having different postures are photographed. An image selection unit is further included, and the correspondence relationship acquisition unit acquires information regarding the correspondence relationship between the pixel and the position on the calibration object for each posture of the calibration object from the image group selected by the target image selection unit.

本発明の一態様は、前記較正物体を撮影した画像に対して、前記較正物体が撮影されている領域の割合にしたがって、前記カメラから前記較正物体までの距離を推定する距離推定部と、前記較正物体を撮影した画像群に対して、前記較正物体の撮影されている領域の形状の違いにしたがって、前記カメラに対する前記較正物体の姿勢の類似度を推定する類似度推定部とを更に備え、前記対象画像選択部は、前記距離推定部で推定された距離と、前記類似度推定部で推定された類似度とに基づいて、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する。   One aspect of the present invention is a distance estimation unit that estimates a distance from the camera to the calibration object according to a ratio of a region where the calibration object is captured with respect to an image obtained by capturing the calibration object; A degree-of-similarity estimation unit that estimates the degree of similarity of the posture of the calibration object with respect to the camera according to the difference in the shape of the area where the calibration object is imaged with respect to the image group obtained by imaging the calibration object; The target image selection unit is a calibration having a small difference in distance from the camera and a different posture with respect to the camera based on the distance estimated by the distance estimation unit and the similarity estimated by the similarity estimation unit. A group of three or more images in which an object is photographed is selected.

本発明の一態様は、屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション方法であって、前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得ステップと、前記対応関係取得ステップで取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定ステップと、前記対応関係取得ステップで取得された前記対応関係に関する情報と、前記姿勢推定ステップで推定された前記姿勢情報とを用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得ステップとを備え、前記姿勢推定ステップは、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション方法である。   One aspect of the present invention is a camera calibration method for associating each pixel of an image obtained by photographing a subject through a refraction layer with a light beam from the subject, the posture of the subject as the subject Acquired in the correspondence acquisition step and the correspondence acquisition step for acquiring information related to the correspondence between the pixel and the position on the calibration object for each posture of the calibration object from the group of images obtained by photographing different calibration objects. Using the information on the correspondence relationship, the posture estimation step of estimating the posture of the calibration object and outputting posture information, the information on the correspondence relationship acquired in the correspondence relationship acquisition step, and the posture estimation step A light ray information obtaining step for obtaining light ray information indicating a correspondence relationship between a pixel and a light ray using the estimated posture information; The posture estimation step is a camera calibration method that estimates the posture of the calibration object using the fact that the position on the calibration object sampled by the same pixel between a plurality of images exists in a straight line in the imaging space. .

本発明の一態様は、上記カメラキャリブレーション方法をコンピュータに実行させるためのカメラキャリブレーションプログラムである。   One aspect of the present invention is a camera calibration program for causing a computer to execute the camera calibration method.

本発明の一態様は、上記カメラキャリブレーションプログラムを記録した記録媒体である。   One aspect of the present invention is a recording medium on which the camera calibration program is recorded.

本発明によれば、カメラと被写体との間に未知の屈折層または複雑な形状の屈折層が存在する場合であっても、カメラモデルのキャリブレーションを実現することができる。   According to the present invention, calibration of a camera model can be realized even when an unknown refraction layer or a complicated refraction layer exists between a camera and a subject.

第1の実施形態におけるカメラキャリブレーションを行う撮影空間を示す図である。It is a figure which shows the imaging | photography space which performs camera calibration in 1st Embodiment. 第1の実施形態における第1キャリブレーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st calibration apparatus in 1st Embodiment. 第1の実施形態における第1キャリブレーション装置10の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 1st calibration apparatus 10 in 1st Embodiment. 第2の実施形態におけるカメラキャリブレーションを行う撮影空間を示す図である。It is a figure which shows the imaging | photography space which performs camera calibration in 2nd Embodiment. 第2の実施形態における第2キャリブレーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the 2nd calibration apparatus in 2nd Embodiment. 第2の実施形態における第2キャリブレーション装置20の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd calibration apparatus 20 in 2nd Embodiment. 第1の実施形態における第1キャリブレーション装置10又は第2の実施形態における第2キャリブレーション装置20のハードウェアの構成例を示す図である。It is a figure which shows the structural example of the hardware of the 1st calibration apparatus 10 in 1st Embodiment, or the 2nd calibration apparatus 20 in 2nd Embodiment.

以下、図面を参照して、本発明の実施形態におけるカメラキャリブレーション装置について説明する。
(第1の実施形態)
まず、第1の実施形態として、1つのカメラにおけるキャリブレーションとして、撮影空間中の光線とカメラで撮影された画像の画素とのマッピングの処理(内部キャリブレーション)について説明する。図1は、第1の実施形態におけるカメラキャリブレーションが行われる撮影空間を示す図である。図1に示す通り、カメラ1と撮影空間との間に未知の屈折層2が存在し、撮影空間中に較正物体3、3’が設置されている。ここで、較正物体3’は、較正物体3と同一物体であって、較正物体3の姿勢が変更された後の状態を示すものである。なお、較正物体3として、どのような物体を用いても構わないが、後述する画素と較正物体3上の位置との対応関係が得られるものを使う必要がある。本実施形態においては、較正物体3として、グレイコードを表示する平面ディスプレイなどが用いられる。
Hereinafter, a camera calibration apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
First, as a first embodiment, a mapping process (internal calibration) between a light beam in an imaging space and a pixel of an image captured by the camera will be described as calibration in one camera. FIG. 1 is a diagram illustrating an imaging space in which camera calibration is performed in the first embodiment. As shown in FIG. 1, an unknown refractive layer 2 exists between the camera 1 and the imaging space, and calibration objects 3 and 3 'are installed in the imaging space. Here, the calibration object 3 ′ is the same object as the calibration object 3, and shows a state after the posture of the calibration object 3 is changed. Note that any object may be used as the calibration object 3, but it is necessary to use an object that can obtain a correspondence between a pixel and a position on the calibration object 3, which will be described later. In the present embodiment, a flat display or the like that displays a gray code is used as the calibration object 3.

図2は、第1の実施形態における第1キャリブレーション装置の構成を示すブロック図である。図2に示すように、第1キャリブレーション装置10は、画像入力部11と、対応関係取得部12と、姿勢推定部13と、光線情報出力部14とを備えている。図1には、示していないが、第1キャリブレーション装置10は、カメラ1で撮影された画像を入力可能で、入力された画像に対して画像処理を行うコンピュータ端末である。   FIG. 2 is a block diagram illustrating a configuration of the first calibration apparatus according to the first embodiment. As illustrated in FIG. 2, the first calibration device 10 includes an image input unit 11, a correspondence relationship acquisition unit 12, a posture estimation unit 13, and a light ray information output unit 14. Although not shown in FIG. 1, the first calibration device 10 is a computer terminal that can input an image captured by the camera 1 and performs image processing on the input image.

画像入力部11は、較正物体3を撮影した画像(群)を入力する。対応関係取得部12は、画像入力部11により入力された画像中の画素と較正物体3上の位置とを対応付ける情報を取得する。姿勢推定部13は、複数の較正物体3、3’間の相対的な姿勢を推定する。光線情報出力部14は、画素に対して光線を対応付ける。   The image input unit 11 inputs an image (group) obtained by photographing the calibration object 3. The correspondence relationship acquisition unit 12 acquires information that associates pixels in the image input by the image input unit 11 with positions on the calibration object 3. The posture estimation unit 13 estimates a relative posture between the plurality of calibration objects 3 and 3 ′. The light ray information output unit 14 associates light rays with pixels.

次に、図2に示す第1キャリブレーション装置10の動作を説明する。図3は、第1の実施形態における第1キャリブレーション装置10の動作を示すフローチャートである。
まず、画像入力部11は、較正物体3の姿勢を変化させながら撮影した画像群{In,m|n=0,…,N−1,m=0,…Mn−1}を入力する(ステップS101)。ここで、入力された画像群中に含まれる較正物体3の姿勢の数をNとし、較正物体3がn番目の姿勢である場合の画像の枚数をMnとする。ここで、Nは3以上とし、Mnは画素とn番目の姿勢の較正物体3上の位置を対応付けるのに必要な画像の枚数とする。Mnは較正物体3の種類や撮影空間の大きさなどに依存する。
Next, the operation of the first calibration device 10 shown in FIG. 2 will be described. FIG. 3 is a flowchart illustrating the operation of the first calibration device 10 according to the first embodiment.
First, the image input unit 11 inputs a group of images {I n, m | n = 0,..., N−1, m = 0,... M n −1} taken while changing the posture of the calibration object 3. (Step S101). Here, N is the number of postures of the calibration object 3 included in the input image group, and M n is the number of images when the calibration object 3 is in the nth posture. Here, N is 3 or more, and M n is the number of images necessary for associating the pixel with the position on the calibration object 3 in the nth posture. M n depends on the type of the calibration object 3 and the size of the imaging space.

次に、対応関係取得部12は、較正物体3の姿勢ごとに、画素と較正物体3上の位置を対応付ける(ステップS102)。具体的には、画像平面上の座標値(画素位置)と、較正物体3上で定義された座標系における座標値を対応付ける。ここでの方法は、較正物体3の種類によって異なる。   Next, the correspondence acquisition unit 12 associates a pixel with a position on the calibration object 3 for each posture of the calibration object 3 (step S102). Specifically, the coordinate value (pixel position) on the image plane is associated with the coordinate value in the coordinate system defined on the calibration object 3. The method here differs depending on the type of the calibration object 3.

例えば、較正物体3が、平面ディスプレイで構成されており、かつ、較正物体3が、座標値をエンコードしたグレイコードパターンの系列を表示している場合について説明する。画像入力部11は、グレイコードパターンを表示する較正物体3を、撮影して得た画像群を入力する。対応関係取得部12は、入力された画像群から各画素で撮影された信号の系列を求め、それをデコードすることで、その画素に対応する較正物体3上の座標値を得ることができる。グレイコードを用いた画素と較正物体3の平面上の位置との対応付けに関しては、例えば非特許文献1に詳細が記載されている。   For example, a case will be described in which the calibration object 3 is configured by a flat display and the calibration object 3 displays a series of gray code patterns in which coordinate values are encoded. The image input unit 11 inputs an image group obtained by photographing the calibration object 3 that displays a gray code pattern. The correspondence acquisition unit 12 can obtain a coordinate value on the calibration object 3 corresponding to the pixel by obtaining a sequence of signals photographed at each pixel from the input image group and decoding it. Regarding the correspondence between the pixel using the gray code and the position on the plane of the calibration object 3, details are described in Non-Patent Document 1, for example.

ここで、ステップS102の結果として得られる、画素kに対するn番目の姿勢の較正物体3上の点Pk,mの座標値をpk,n(k=1,…,numPixs,n=1,…,N)で表す。ここで、numPixsは、光線との対応関係を求める画素の数である。 Here, the coordinate value of the point P k, m on the calibration object 3 in the nth posture with respect to the pixel k, obtained as a result of step S102, is expressed as p k, n (k = 1,..., NumPixs, n = 1, ..., N). Here, numPixs is the number of pixels for which a correspondence relationship with a light ray is obtained.

各画素と較正物体3上の座標値との対応付けた後、姿勢推定部13は、較正物体3の姿勢に関する情報を推定する(ステップS103)。姿勢推定部13において、どのように較正物体3の姿勢に関する情報を表すかは、限定されるものではない。例えば、較正物体3のある姿勢を基準として、異なる姿勢となる較正物体3’を、基準の姿勢に変換するための回転行列Rと並進ベクトルtとを用いる形式で表しても構わない。以下の説明では、姿勢推定部13は、n=1に対する姿勢を基準とした回転行列と並進ベクトルを用いて姿勢を表現する。 After associating each pixel with the coordinate value on the calibration object 3, the posture estimation unit 13 estimates information regarding the posture of the calibration object 3 (step S103). How the posture estimation unit 13 represents information related to the posture of the calibration object 3 is not limited. For example, a calibration object 3 ′ having a different posture with a certain posture of the calibration object 3 as a reference may be expressed in a format using a rotation matrix R n and a translation vector t n for converting to a reference posture. In the following description, the posture estimation unit 13 expresses a posture using a rotation matrix and a translation vector based on the posture with respect to n = 1.

この回転行列Rと並進ベクトルtを求める処理では、各画素でサンプリングされる光線は、撮影空間中を直進してきたものであるという性質を用いる。つまり、画素kでサンプリングされた較正物体3上の点が、撮影空間中で同一直線上に存在することを用いる。回転行列Rと並進ベクトルtを用いると、以下の(式1)のように、画素kに対するn番目の姿勢の較正物体3上の座標値pk,nを、1番目の姿勢に対する座標系(以下、基準座標系と呼ぶ)における座標値Pk,n [1]で表すことができる。

Figure 2016213783
In the processing for obtaining the rotation matrix R n and the translation vector t n , the property that the light beam sampled by each pixel has been traveling straight through the imaging space is used. That is, it is used that points on the calibration object 3 sampled at the pixel k exist on the same straight line in the imaging space. When the rotation matrix R n and the translation vector t n are used, the coordinate value p k, n on the calibration object 3 of the nth posture with respect to the pixel k is expressed as the coordinate for the first posture as shown in (Equation 1) below. It can be represented by a coordinate value P k, n [1] in a system (hereinafter referred to as a reference coordinate system).
Figure 2016213783

このとき、基準座標系での線分Pk,lk,nの方向ベクトルは以下の(式2)で与えられる。

Figure 2016213783
At this time, the direction vector of the line segment P k, l P k, n in the reference coordinate system is given by the following (formula 2).
Figure 2016213783

画素kでサンプリングされた較正物体3上の点が撮影空間中で同一直線上に存在する場合、姿勢iと姿勢jの方向ベクトルの外積が0となる。つまり、以下の(式3)で示される外積が0となる回転上列と並進ベクトルが求める姿勢となる。

Figure 2016213783
When the points on the calibration object 3 sampled by the pixel k exist on the same straight line in the imaging space, the outer product of the direction vectors of the posture i and the posture j is zero. That is, the rotation upper row where the outer product represented by the following (Equation 3) is 0 and the translation vector are obtained.
Figure 2016213783

ここで、×は外積を示し、Mは座標値pk,nのみで構成される行列、hは回転行列及び並進ベクトルで構成されるベクトルである。なお、ここで同一直線上に存在する条件が成立するためには、3点以上の点が存在する必要がある。つまり、N≧3である必要がある。ここではN=3として説明を行うが、N>3の場合に拡張可能であることは容易に類推可能である。 Here, x indicates an outer product, M k is a matrix composed only of coordinate values p k, n , and h is a vector composed of a rotation matrix and a translation vector. Here, in order to satisfy the condition that exists on the same straight line, it is necessary to have three or more points. That is, it is necessary that N ≧ 3. Here, the description will be made assuming that N = 3, but it can be easily inferred that the expansion is possible when N> 3.

上記の条件は、画素ごとに得られるため、全てをまとめると下記の(式4)に示す連立方程式が得られる。

Figure 2016213783
姿勢推定部13は、この連立方程式を解くことで回転行列と並進ベクトルを求めて、較正物体3の姿勢を推定する。なお、(式4)の連立方程式は、どのような方法を用いて解いても構わない。 Since the above condition is obtained for each pixel, the simultaneous equations shown in the following (Equation 4) can be obtained by collecting all the conditions.
Figure 2016213783
The posture estimation unit 13 calculates the rotation matrix and the translation vector by solving the simultaneous equations, and estimates the posture of the calibration object 3. Note that the simultaneous equations of (Equation 4) may be solved using any method.

なお、(式4)に示す連立方程式を解かずに較正物体3の姿勢を求める方法もある。例えば、外積の大きさを最小化するような最適化問題を解くことで較正物体3の姿勢を推定しても構わない。つまり、較正物体3の姿勢を表すベクトルをh^(実際のハット(^)はhの上)とし、画素kでサンプリングされた較正物体3上の点によって構成される線分(2本以上の線分)の外積をgで表すと、較正物体3の姿勢を示すベクトルhは次の(式5)に示す最小化問題を解くことで得られる。

Figure 2016213783
There is also a method for obtaining the posture of the calibration object 3 without solving the simultaneous equations shown in (Equation 4). For example, the posture of the calibration object 3 may be estimated by solving an optimization problem that minimizes the size of the outer product. In other words, a vector representing the posture of the calibration object 3 is represented by h ^ (actual hat (^) is on h), and a line segment (two or more lines) constituted by points on the calibration object 3 sampled by the pixel k. When the outer product of the line segment) is represented by g k , the vector h indicating the posture of the calibration object 3 can be obtained by solving the minimization problem shown in the following (Equation 5).
Figure 2016213783

また、外積gを用いたGの代わりに、以下の(式6)を用いて、外積のノルムg’を用いたG’を最小化することで較正物体3の姿勢を示すベクトルhを求めても構わない。較正物体3の姿勢を示すベクトルhのノルムを用いることで外積の各成分を最小化するのではなく、全成分を効率よく最小化する。これにより、最小化に要する演算量を低下させ、較正物体3の姿勢を示す適切なベクトルhを求めることが可能となる。

Figure 2016213783
Further, instead of G using the outer product g k , a vector h indicating the posture of the calibration object 3 is obtained by minimizing G ′ using the outer product norm g ′ k using the following (Equation 6). You can ask for it. By using the norm of the vector h indicating the posture of the calibration object 3, not all components of the outer product are minimized, but all components are efficiently minimized. As a result, the amount of calculation required for minimization can be reduced, and an appropriate vector h indicating the posture of the calibration object 3 can be obtained.
Figure 2016213783

更に、姿勢推定部13は、外積を用いずに方向ベクトルが一致する条件を用いて、較正物体3の姿勢を推定するようにしても構わない。例えば、画素kでサンプリングされた較正物体3上の点の方向ベクトルの差分ベクトルの単位ベクトルdとすると、以下の(式7)、(式8)を用いた最小化問題を解くことで、較正物体3の姿勢を示すベクトルhを求めることができる。

Figure 2016213783
Furthermore, the posture estimation unit 13 may estimate the posture of the calibration object 3 using a condition in which the direction vectors match without using an outer product. For example, assuming that the unit vector d k of the difference vector of the direction vector of the point on the calibration object 3 sampled by the pixel k is to solve the minimization problem using the following (Equation 7) and (Equation 8): A vector h indicating the posture of the calibration object 3 can be obtained.
Figure 2016213783

較正物体3の姿勢に関する情報を推定した後、光線情報出力部14は、各画素に対して、その画素でサンプリングされる光線を対応付けた光線情報を生成する(ステップS104)。生成された光線情報は、第1キャリブレーション装置10の出力となる。なお、どのような形で対応付けを表現しても構わない。本実施形態における光線情報は、例えば、各画素をインデックスとし、光線を表す直線の式を返すルックアップテーブルを用いて表したものである。   After estimating information related to the posture of the calibration object 3, the light ray information output unit 14 generates light ray information in which light rays sampled by the pixels are associated with each pixel (step S104). The generated light ray information becomes an output of the first calibration device 10. Note that the association may be expressed in any form. The light ray information in the present embodiment is represented using, for example, a look-up table that returns an expression of a straight line representing a light ray with each pixel as an index.

なお、較正物体3の姿勢を推定する処理(ステップS103)が終了した後、キャリブレーションの精度、つまり較正物体3の姿勢の推定の精度を表す評価値を求めても構わない。この評価値は、較正物体3の姿勢の推定が正しく行われたか否かを表すことのできるものであれば、どのような評価値を用いても構わない。評価値の具体例1は、画素ごとに得られる較正物体3上の点で構成される線分の外積のノルムについて、和や最大値、分散を求めて、評価値としたものである。また、評価値の具体例2は、画素ごとに得られる較正物体3上の点で構成される方向ベクトルの差分ベクトルのノルムについて、和や最大値、分散を求めて、評価値としたものである。更に、評価値の具体例3は、各画素に対応付けられた光線と較正物体3上の点の距離について、和や最大値、分散を求めて、評価値としたものである。更に、評価値の具体例4は、各画素に対応付けられた光線と較正物体3上の点の較正物体3平面上での距離について、和や最大値、分散を求めて、評価値としたものである。   Note that after the process of estimating the posture of the calibration object 3 (step S103) is completed, an evaluation value indicating the accuracy of calibration, that is, the accuracy of estimation of the posture of the calibration object 3, may be obtained. This evaluation value may be any evaluation value as long as it can indicate whether or not the posture of the calibration object 3 has been correctly estimated. Specific example 1 of the evaluation value is obtained by obtaining the sum, maximum value, and variance of the norm of the outer product of the line segment constituted by the points on the calibration object 3 obtained for each pixel, and setting the evaluation value. Specific example 2 of the evaluation value is an evaluation value obtained by calculating the sum, maximum value, and variance of the norm of the difference vector of the direction vector formed by the points on the calibration object 3 obtained for each pixel. is there. Furthermore, the specific example 3 of the evaluation value is obtained by calculating the sum, the maximum value, and the variance of the distance between the light ray associated with each pixel and the point on the calibration object 3 and obtaining the evaluation value. Furthermore, specific example 4 of the evaluation value is the evaluation value obtained by calculating the sum, maximum value, and variance of the distance between the ray associated with each pixel and the point on the calibration object 3 on the calibration object 3 plane. Is.

求めた評価値が予め定められた精度を満たさないことを表す場合、第1キャリブレーション装置10は、別の姿勢の較正物体3’を撮影した画像を追加し、更新された画像群を用いて較正物体3’の姿勢を推定する処理(ステップS103)を再度行っても構わない。   When the obtained evaluation value represents that the predetermined accuracy is not satisfied, the first calibration device 10 adds an image obtained by photographing the calibration object 3 ′ of another posture, and uses the updated image group. The process of estimating the posture of the calibration object 3 ′ (step S103) may be performed again.

なお、画像を追加する際には、どのような姿勢の較正物体3を、撮影した画像を追加しても構わない。例えば、既に入力されている画像群と比較し、同じ較正物体3であって画像上の較正物体3の大きさが大きく異なるような画像を追加しても構わないし、同じ較正物体3であって画像上の較正物体3の大きさは同じだが形状が異なるような画像を追加しても構わない。前者は、既に入力されている画像と比較して、画像を撮影したカメラから較正物体3までの距離が異なるような画像であることを意味する。このような画像を入力することで、より長い経路で光線の直進性を考慮したキャリブレーションが可能となる。一方、後者の画像は、より狭い空間での光線の直進性を考慮した、より頑健なキャリブレーションを行うことが可能となる。   In addition, when adding an image, you may add the image | photographed image of the calibration object 3 of what kind of attitude | position. For example, it is possible to add an image that is the same calibration object 3 and the size of the calibration object 3 on the image is significantly different from that of the already input image group. An image having the same size but different shape of the calibration object 3 on the image may be added. The former means that the distance from the camera that captured the image to the calibration object 3 is different from that of the already input image. By inputting such an image, it is possible to perform calibration in consideration of the straightness of the light beam through a longer path. On the other hand, the latter image can be more robustly calibrated in consideration of the straightness of light rays in a narrower space.

なお、新たな画像を追加する際に、過去に取得した画像群を全て蓄積しておくのではなく、画像を入れ替えて画像の総数は変化しないようにしても構わない。画像の総数を一定に保つことで、必要なメモリ量や演算量を一定に保つことが可能となる。   In addition, when adding a new image, it is not necessary to store all the image groups acquired in the past, but to replace the images so that the total number of images does not change. By keeping the total number of images constant, it is possible to keep the necessary memory amount and calculation amount constant.

上記の説明では、画像入力部11より、入力された画像をすべて用いてキャリブレーション処理が行われるが、入力された画像のうち一部のみを選択して使用するようにしても構わない。例えば、画像入力部11より、入力された画像群に基づいて、カメラ1から較正物体3までの距離が大きく変化するような画像群を選択するようにしても構わないし、カメラ1から較正物体3までの距離は同程度で較正物体3の姿勢が大きく変化するような画像群を選択するようにしても構わない。   In the above description, the calibration process is performed by using all the input images from the image input unit 11, but only a part of the input images may be selected and used. For example, the image input unit 11 may select an image group in which the distance from the camera 1 to the calibration object 3 changes greatly based on the input image group, or the camera 1 and the calibration object 3 may be selected. It is also possible to select an image group in which the distance up to the same level and the posture of the calibration object 3 change greatly.

なお、カメラ1から較正物体3までの距離や較正物体3の姿勢に関する情報を正確に得るためにはキャリブレーションを実施する必要がある。それらの情報は別途与えられても構わないし、画像から推定するようにしても構わない。例えば、画像上の較正物体の大きさを用いて、カメラから較正物体までの距離を推定しても構わないし、画像上での較正物体の形状を比較することで較正物体の姿勢の類似性を推定しても構わない。例えば、対応関係取得部12は、カメラ1から較正物体3までの距離の推定方法として、較正物体3を撮影した画像に対して、較正物体3が撮影されている領域の割合にしたがって、カメラ1から較正物体3までの距離を推定する。また、対応関係取得部12は、較正物体3を撮影した画像群に対して、較正物体3の撮影されている領域の形状の違いにしたがって、カメラ1に対する較正物体3の姿勢の類似度を推定する。次に、対応関係取得部12は、推定した距離、類似度に基づいて、カメラ1からの距離の違いが少なく、カメラ1に対する姿勢が異なる較正物体3を撮影した3枚以上の画像群を選択する。   Note that in order to accurately obtain information on the distance from the camera 1 to the calibration object 3 and the posture of the calibration object 3, it is necessary to perform calibration. Such information may be given separately or estimated from an image. For example, the size of the calibration object on the image may be used to estimate the distance from the camera to the calibration object, and the similarity of the posture of the calibration object can be determined by comparing the shape of the calibration object on the image. It may be estimated. For example, the correspondence acquisition unit 12 uses the camera 1 as an estimation method of the distance from the camera 1 to the calibration object 3 according to the ratio of the area where the calibration object 3 is captured with respect to the image obtained by capturing the calibration object 3. To the calibration object 3 is estimated. In addition, the correspondence acquisition unit 12 estimates the similarity of the posture of the calibration object 3 with respect to the camera 1 in accordance with the difference in the shape of the area where the calibration object 3 is photographed with respect to the image group obtained by photographing the calibration object 3. To do. Next, the correspondence relationship acquisition unit 12 selects three or more image groups obtained by photographing the calibration object 3 with a small difference in distance from the camera 1 and a different posture with respect to the camera 1 based on the estimated distance and similarity. To do.

(第2の実施形態)
次に、第2の実施形態として、複数のカメラ間の関係を求めるキャリブレーションについて説明する。具体的には、2つのカメラ間の相対的な位置関係を推定し、各画素にマッピングされた光線に対して、カメラ間で共通の座標系を用いた記述を求めるキャリブレーション(外部キャリブレーション)について説明する。
(Second Embodiment)
Next, as a second embodiment, calibration for obtaining a relationship between a plurality of cameras will be described. Specifically, calibration (external calibration) that estimates a relative positional relationship between two cameras and obtains a description using a common coordinate system between the cameras for the light rays mapped to each pixel. Will be described.

図4は、第2の実施形態におけるカメラキャリブレーションを行う撮影空間を示す図である。図4に示すように、複数のカメラ1a〜1cと、被写体となる較正物体3a、3a’、3b、3b’との間に未知の屈折層2が存在している。較正物体3a、3a’、3b、3b’は、異なる時刻に設置されていて、1度には1つの較正物体しか存在しないものとする。例えば、較正物体3a’は、較正物体3aの姿勢が変更されたものであり、同様に、較正物体3b’は、較正物体3bの姿勢が変更されたものである。なお、較正物体3a、較正物体3bは、異なる物体であっても同じ物体であってもよい。また、較正物体3a、3bとして、どのような物体を用いても構わないが、画素と較正物体上の位置との対応関係が得られるものを使う必要がある。本実施形態における較正物体3a、較正物体3bは、グレイコードを表示する平面ディスプレイなどが用いられる。   FIG. 4 is a diagram illustrating an imaging space in which camera calibration is performed in the second embodiment. As shown in FIG. 4, an unknown refractive layer 2 exists between the plurality of cameras 1 a to 1 c and the calibration objects 3 a, 3 a ′, 3 b, and 3 b ′ that are subjects. It is assumed that the calibration objects 3a, 3a ', 3b, 3b' are installed at different times and that only one calibration object exists at a time. For example, the calibration object 3a 'is obtained by changing the posture of the calibration object 3a. Similarly, the calibration object 3b' is obtained by changing the posture of the calibration object 3b. The calibration object 3a and the calibration object 3b may be different objects or the same object. Further, any object may be used as the calibration objects 3a and 3b, but it is necessary to use an object that can obtain the correspondence between the pixel and the position on the calibration object. As the calibration object 3a and the calibration object 3b in the present embodiment, a flat display or the like that displays a gray code is used.

なお、複数のカメラ1a〜1cに共通の座標系を用いた記述による光線と画素のマッピングを求める最も簡単な方法として、以下の方法が考えらえる。まず、複数のカメラ1a〜1cの各々は、第1の実施形態に示した第1キャリブレーション装置10の構成を有する。そして、複数のカメラ1a〜1cに対して、同じ較正物体の画像群を入力し、同じ画像の較正物体の姿勢を基準として光線を記述し、画素とのマッピングを求める方法である。本実施形態では、そのような方法がつかえないカメラ間においても、共通の座標系を用いた記述による光線と画素のマッピングを求める方法について説明する。   The following method can be considered as the simplest method for obtaining the mapping of light rays and pixels in the description using a common coordinate system for the plurality of cameras 1a to 1c. First, each of the plurality of cameras 1a to 1c has the configuration of the first calibration device 10 shown in the first embodiment. And it is a method which inputs the image group of the same calibration object with respect to several cameras 1a-1c, describes a light ray on the basis of the attitude | position of the calibration object of the same image, and calculates | requires mapping with a pixel. In the present embodiment, a description will be given of a method for obtaining a mapping between rays and pixels based on a description using a common coordinate system even between cameras for which such a method cannot be used.

上記最も簡単な方法が適用できない撮影空間として、例えば、図4に示される撮影空間がある。図4の撮影空間では、カメラ1aとカメラ1bは、共通の較正物体3aを用いて光線記述と画素からのマッピングを求めることが可能であり、カメラ1bとカメラ1cは、共通の較正物体3bを用いて光線記述と画素からのマッピングを求めることが可能である。しかし、カメラ1aとカメラ1cは、共通の較正物体を撮影することができない状況である。本実施形態では、このような図4に示される撮影空間に対して、3つのカメラ1a〜1cで共通の座標系を用いた記述による光線と画素のマッピングを求める方法を説明する。   As an imaging space to which the above simplest method cannot be applied, for example, there is an imaging space shown in FIG. In the shooting space of FIG. 4, the camera 1a and the camera 1b can obtain the ray description and the mapping from the pixel using the common calibration object 3a, and the camera 1b and the camera 1c have the common calibration object 3b. Can be used to determine ray descriptions and pixel mappings. However, the cameras 1a and 1c are in a situation where a common calibration object cannot be photographed. In the present embodiment, a method for obtaining ray-pixel mapping by description using a coordinate system common to the three cameras 1a to 1c in the imaging space shown in FIG. 4 will be described.

図5は、第2の実施形態における第2キャリブレーション装置の構成を示すブロック図である。図5に示すように、第2キャリブレーション装置20は、光線情報入力部21と、光線情報記憶部22と、カメラ位置情報推定部23と、光線記述変換部24とを備えている。
光線情報入力部21は、カメラの画素ごとに対応付けられた光線の情報(以下、光線情報とする。)を入力する。光線情報記憶部22は、入力されたカメラの画素ごとに対応付けられた光線情報を記憶する。カメラ位置情報推定部23は、光線情報を用いてカメラの位置関係を推定する。光線記述変換部24は、得られたカメラの位置関係に基づいて、光線に対して共通の座標系で表現した記述を求める。
FIG. 5 is a block diagram illustrating a configuration of the second calibration device according to the second embodiment. As shown in FIG. 5, the second calibration device 20 includes a light ray information input unit 21, a light ray information storage unit 22, a camera position information estimation unit 23, and a light ray description conversion unit 24.
The light ray information input unit 21 inputs light ray information (hereinafter referred to as light ray information) associated with each pixel of the camera. The light ray information storage unit 22 stores light ray information associated with each input camera pixel. The camera position information estimation unit 23 estimates the positional relationship of the camera using the light ray information. The light ray description conversion unit 24 obtains a description expressed in a common coordinate system for the light rays based on the obtained positional relationship of the cameras.

次に、第2の実施形態における第2キャリブレーション装置20の動作を説明する。図6は、第2の実施形態における第2キャリブレーション装置20の動作を示すフローチャートである。
まず、光線情報入力部21は、カメラ対(カメラ1aとカメラ1b又はカメラ1bとカメラ1c)に対して、カメラの画素ごとに対応付けられた光線情報を入力し、光線情報記憶部22に記憶する(ステップS201)。ここで、カメラ対ごとに入力される光線情報は、共通の座標系で記述されている。
Next, the operation of the second calibration device 20 in the second embodiment will be described. FIG. 6 is a flowchart showing the operation of the second calibration device 20 in the second embodiment.
First, the light ray information input unit 21 inputs light ray information associated with each pixel of the camera to the camera pair (camera 1a and camera 1b or camera 1b and camera 1c), and stores the light ray information in the light ray information storage unit 22. (Step S201). Here, the ray information input for each camera pair is described in a common coordinate system.

なお、カメラ対ごとに共通の座標系で記述された光線情報を求める方法は、どのような方法であってもよい。例えば、第1の実施形態で示した第1キャリブレーション装置10を用いて、同じ較正物体の画像群を入力し、同じ画像の較正物体の姿勢を基準として、各カメラにおける画素と光線のマッピングを求めることで、共通の座標系で記述された光線情報を求めることができる。   Note that any method may be used for obtaining the light ray information described in a common coordinate system for each camera pair. For example, by using the first calibration apparatus 10 shown in the first embodiment, an image group of the same calibration object is input, and pixel and light ray mapping in each camera is performed with reference to the posture of the calibration object of the same image. By obtaining, it is possible to obtain ray information described in a common coordinate system.

つまり、本実施形態においては、光線情報入力部21は、カメラ1aとカメラ1bに対して共通の座標系で記述された光線と画素とをマッピングする光線情報を入力して、カメラ1bとカメラ1cに対して共通の座標系で記述された光線と画素とをマッピングする光線情報を入力する。   That is, in the present embodiment, the light ray information input unit 21 inputs light ray information for mapping light rays and pixels described in a common coordinate system for the camera 1a and the camera 1b, and the camera 1b and the camera 1c. Are input with light ray information for mapping light rays and pixels described in a common coordinate system.

次に、カメラ位置情報推定部23は、複数の異なる座標系で表現された光線の記述が与えられた画素の集合{p|k=1,…,numCPixs}を求める(ステップS202)。この画素の集合は、カメラ1bの画素のうち、カメラ1aと共通の座標系で表された光線l12(k)へのマッピングを持つ画素の集合と、カメラ1cと共通の座標系であらわされた光線l23(k)へのマッピングを持つ画素の集合とを含む。ここで画素pに対応するカメラ1aと共通の座標系で表された光線をl12(k)、カメラ1cと共通の座標系で表された光線をl23(k)で表す。 Next, the camera position information estimation unit 23 obtains a set of pixels {p k | k = 1,..., NumCPixs} to which a description of light rays expressed in a plurality of different coordinate systems is given (step S202). This set of pixels is represented by a set of pixels having a mapping to the light beam l 12 (k) represented in the coordinate system common to the camera 1a and a coordinate system common to the camera 1c. And a set of pixels having a mapping to ray l 23 (k). Here cameras 1a and common rays represented by a coordinate system l 12 corresponding to the pixel p k (k), represents the light ray represented by the camera 1c common coordinate system l 23 (k).

次に、普通の座標系での光線記述が与えられた画素の集合が得られたら、カメラ位置情報推定部23は、それら座標系間の関係を推定する(ステップS203)。具体的には、下記の(式9)を満たす回転行列Rと並進ベクトルtを求める。なお、この(式9)では、カメラ1aの光線が与えられた座標系を基準としているが、カメラ1cの光線が与えられた座標系を基準としても構わない。

Figure 2016213783
Next, when a set of pixels having a ray description in an ordinary coordinate system is obtained, the camera position information estimation unit 23 estimates the relationship between the coordinate systems (step S203). Specifically, a rotation matrix R and a translation vector t that satisfy (Equation 9) below are obtained. In (Equation 9), the coordinate system to which the light beam of the camera 1a is given is used as a reference, but the coordinate system to which the light beam of the camera 1c is given may be used as a reference.
Figure 2016213783

回転行列Rと並進ベクトルtはどのような方法を用いて求めても構わないが、例えば、参考文献(B. Kamgar-Parsi and B. Kamgar-Parsi, "Algorithms for matching 3D line sets," TPAMI, vol.26, No. 5, pp.582−593, May 2004)の方法を用いて求めることができる。この時、全てのpについて上記(式9)を満たす回転行列と並進ベクトルを求めても構わない。しかし、画素の点数が多い場合、演算量が膨大になるほか、誤った光線の情報が含まれていた場合、その影響を受けて推定の精度が低下する。そのため、ステップS203では一部の画素のみを用いて推定するようにしても構わない。 The rotation matrix R and the translation vector t may be obtained by any method. For example, the reference (B. Kamgar-Parsi and B. Kamgar-Parsi, “Algorithms for matching 3D line sets,” TPAMI, vol.26, No. 5, pp.582-593, May 2004). At this time, it may also be determined translation vector and rotation matrix that satisfies the above equation (9) for all p k. However, if the number of pixels is large, the amount of calculation becomes enormous, and if incorrect ray information is included, the accuracy of estimation decreases due to the influence. Therefore, in step S203, estimation may be performed using only some pixels.

一部の画素のみを用いて推定を行った場合、推定された回転行列と並進ベクトルの推定精度を求める。どのような方法を用いて推定精度を表現しても構わない。例えば、推定された回転行列と並進ベクトルを用いて、カメラ1cと共通の座標系で表現されていた較正物体3b上の点q(k)を下記の(式10)によって変換して得られる点q’(k)と光線l12(k)との距離の和や最大値、分散を用いても構わない。また、q’(k)と光線l12(k)との較正物体上での距離の和や最大値、分散を用いても構わない。

Figure 2016213783
When estimation is performed using only some pixels, estimation accuracy of the estimated rotation matrix and translation vector is obtained. Any method may be used to express the estimation accuracy. For example, using the estimated rotation matrix and translation vector, the point q i (k) on the calibration object 3b expressed in the common coordinate system with the camera 1c is converted by the following (Equation 10). The sum, maximum value, or dispersion of the distance between the point q ′ i (k) and the light beam l 12 (k) may be used. Further, the sum, maximum value, and dispersion of the distance between q ′ i (k) and the light beam l 12 (k) on the calibration object may be used.
Figure 2016213783

さらに、カメラ1aと共通の座標系で表現されていた較正物体3a上の点s(k)を下記の(式11)によって変換して得られる点s’(k)と光線l23(k)との距離の和や最大値、分散を用いても構わないし、s’(k)と光線l23(k)との較正物体上での距離の和や最大値、分散を用いても構わない。

Figure 2016213783
なお、得られた推定精度が予め定めた閾値を超えていない場合は、別の画素の集合を用いて回転行列と並進ベクトルの推定をやり直す。 Further, a point s ′ j (k) obtained by converting the point s j (k) on the calibration object 3a expressed in the common coordinate system with the camera 1a by the following (formula 11) and the light beam l 23 ( k) may be used as the sum, maximum value, or variance of the distances, or using the sum, maximum value, or variance of the distances between the s ′ j (k) and the ray l 23 (k) on the calibration object. It doesn't matter.
Figure 2016213783
When the obtained estimation accuracy does not exceed a predetermined threshold value, the rotation matrix and the translation vector are estimated again using another set of pixels.

次に、回転行列と並進ベクトルの推定が終了したら、光線記述変換部24は、得られた回転行列と並進ベクトルを用いて、光線の記述を変換することで、共通の座標系における光線と画素のマッピングを生成して出力する(ステップS204)。具体的には、以下の(式12)にしたがって、カメラ1cと共通の座標系で表された光線群{l23(m)}に対して、カメラ1aと共通の座標系で表した光線群{l12(m)}を求めることで変換が行われる。

Figure 2016213783
Next, when the estimation of the rotation matrix and the translation vector is completed, the ray description conversion unit 24 converts the ray description using the obtained rotation matrix and the translation vector, so that the ray and the pixel in the common coordinate system are converted. Is generated and output (step S204). Specifically, in accordance with the following (Equation 12), for the light beam group {l 23 (m)} expressed in the coordinate system common to the camera 1c, the light beam group expressed in the coordinate system common to the camera 1a. Conversion is performed by obtaining {l 12 (m)}.
Figure 2016213783

(ハードウェアの構成例)
図7は、第1の実施形態における第1キャリブレーション装置10又は第2の実施形態における第2キャリブレーション装置20のハードウェアの構成例を示す図である。
図7に示すように、第1キャリブレーション装置10又は第2キャリブレーション装置20を、コンピュータによって構成する場合のハードウェア構成を示すブロック図である。第1キャリブレーション装置10又は第2キャリブレーション装置20は、プログラムを実行するCPU(Central Processing Unit)100と、CPU100がアクセスするプログラムやデータが格納されるRAM等のメモリ101と、カメラ等からの処理対象の画像信号を入力する画像入力部102と、カメラキャリブレーション処理をCPU100に実行させるソフトウェアプログラムであるカメラキャリブレーションプログラム105が格納されたプログラム記憶装置103と、CPU100がメモリ101にロードされたカメラキャリブレーションプログラム105を実行することにより生成された画素と光線の対応関係を出力する光線情報出力部104とが、バスで接続された構成になっている。
(Hardware configuration example)
FIG. 7 is a diagram illustrating a hardware configuration example of the first calibration device 10 according to the first embodiment or the second calibration device 20 according to the second embodiment.
As shown in FIG. 7, it is a block diagram showing a hardware configuration when the first calibration device 10 or the second calibration device 20 is configured by a computer. The first calibration device 10 or the second calibration device 20 includes a CPU (Central Processing Unit) 100 that executes a program, a memory 101 such as a RAM that stores programs and data accessed by the CPU 100, a camera, and the like. An image input unit 102 that inputs an image signal to be processed, a program storage device 103 that stores a camera calibration program 105 that is a software program that causes the CPU 100 to execute camera calibration processing, and the CPU 100 is loaded into the memory 101. A light beam information output unit 104 that outputs the correspondence between pixels and light beams generated by executing the camera calibration program 105 is connected by a bus.

なお、画像入力部102は、ディスク装置等により画像信号を記憶し、記憶した画像信号を読み出すことで画像信号を入力する記憶部で構成してもよい。また、光線情報出力部104は、ディスク装置等により画素と光線の対応関係を示す光線情報を記憶する記憶部で構成してもよい。また、バスで接続されたCPUやメモリや補助記憶装置などを備え、カメラキャリブレーションプログラムを実行することによってカメラキャリブレーションを備える装置として機能する。なお、カメラキャリブレーションの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。カメラキャリブレーションプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。カメラキャリブレーションプログラムは、電気通信回線を介して送信されてもよい。   Note that the image input unit 102 may be configured by a storage unit that stores an image signal by a disk device or the like and inputs the image signal by reading the stored image signal. The light beam information output unit 104 may be configured by a storage unit that stores light beam information indicating the correspondence between pixels and light beams by a disk device or the like. Also, it includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and functions as a device having camera calibration by executing a camera calibration program. Note that all or part of each function of camera calibration may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The camera calibration program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The camera calibration program may be transmitted via a telecommunication line.

このように、第1の実施形態における第1キャリブレーション装置10又は第2の実施形態における第2キャリブレーション装置20を、コンピュータで実現することができる。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   As described above, the first calibration device 10 in the first embodiment or the second calibration device 20 in the second embodiment can be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上説明したように、光線が撮影空間中で直進することを利用して、複数の姿勢で同一の較正物体を撮影した画像群から、画素と光線の対応関係を生成することにより、カメラと被写体との間に任意の屈折層(未知の屈折層または複雑な形状の屈折層)を含む場合においても、カメラのキャリブレーションを実現することができる。また、カメラと被写体との間に屈折層を含まない空間を通して、被写体を撮影不可能な状況においても、カメラのキャリブレーションを実現することができる。   As described above, the camera and the subject are generated by generating the correspondence relationship between the pixel and the light from the group of images obtained by photographing the same calibration object in a plurality of postures using the fact that the light travels straight in the photographing space. Even when an arbitrary refractive layer (an unknown refractive layer or a complicated-shaped refractive layer) is included between the two, a camera calibration can be realized. In addition, the camera calibration can be realized even in a situation where the subject cannot be photographed through a space that does not include a refractive layer between the camera and the subject.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

本発明のカメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体は、カメラと被写体との間に未知の屈折層がある場合においても、画素と光線とを対応付けを行うことが不可欠な用途に適用できる。   The camera calibration device, the camera calibration method, the camera calibration program, and the recording medium of the present invention can associate pixels with light rays even when there is an unknown refractive layer between the camera and the subject. Applicable to essential applications.

1、1a、1b、1c…カメラ、 2…屈折層、 3、3’、3a、3a’、3b、3b’…較正物体、 10…第1キャリブレーション装置、 11…画像入力部、 12…対応関係取得部、 13…姿勢推定部、 14…光線情報出力部、 20…第2キャリブレーション装置、 21…光線情報入力部、 22…光線情報記憶部、 23…カメラ位置情報推定部、 24…光線記述変換部 DESCRIPTION OF SYMBOLS 1, 1a, 1b, 1c ... Camera, 2 ... Refraction layer, 3, 3 ', 3a, 3a', 3b, 3b '... Calibration object, 10 ... 1st calibration apparatus, 11 ... Image input part, 12 ... Correspondence Relationship acquisition unit, 13 ... Posture estimation unit, 14 ... Ray information output unit, 20 ... Second calibration device, 21 ... Ray information input unit, 22 ... Ray information storage unit, 23 ... Camera position information estimation unit, 24 ... Ray Description converter

Claims (8)

屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション装置であって、
前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得部と、
前記対応関係取得部で取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定部と、
前記対応関係取得部で取得された前記対応関係に関する情報と、前記姿勢推定部で推定された前記姿勢情報とを用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得部とを備え、
前記姿勢推定部は、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション装置。
A camera calibration device for associating each pixel of an image obtained by photographing a subject through a refractive layer with a light beam from the subject,
A correspondence acquisition unit that acquires information on a correspondence between the pixel and the position on the calibration object for each posture of the calibration object from an image group obtained by photographing calibration objects having different postures as the subject;
A posture estimation unit that estimates posture of the calibration object and outputs posture information using information on the correspondence acquired by the correspondence acquisition unit;
A light ray information acquisition unit that acquires light ray information indicating a correspondence relationship between a pixel and a light beam using the information related to the correspondence relationship acquired by the correspondence relationship acquisition unit and the posture information estimated by the posture estimation unit. And
The posture estimation unit is a camera calibration device that estimates the posture of the calibration object by using a position on the calibration object sampled by the same pixel between a plurality of images on a straight line.
前記姿勢推定部は、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積を最小化するように前記較正物体の姿勢を推定する請求項1に記載のカメラキャリブレーション装置。   The posture estimation unit obtains two or more line segments for one pixel from positions on the calibration object sampled by the same pixel, and minimizes an outer product between direction vectors corresponding to the line segment. The camera calibration apparatus according to claim 1, wherein the posture of the calibration object is estimated as described above. 前記対応関係に関する情報と、前記姿勢情報とを用いて、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積に基づくキャリブレーション評価値を求めるキャリブレーション評価部を更に備える請求項1または請求項2に記載のカメラキャリブレーション装置。   Using the information on the correspondence relationship and the posture information, two or more line segments are obtained for one pixel from the position on the calibration object sampled by the same pixel, and the line segment corresponds to the line segment. The camera calibration apparatus according to claim 1, further comprising a calibration evaluation unit that obtains a calibration evaluation value based on an outer product between the direction vectors. 姿勢の異なる前記較正物体を撮影した画像群から、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する対象画像選択部を更に備え、
前記対応関係取得部は、前記対象画像選択部が選択した画像群から較正物体の姿勢ごとに、画素と較正物体上の位置との対応関係に関する情報を取得する請求項1から請求項3のいずれか一項に記載のカメラキャリブレーション装置。
A target image selection unit that selects three or more image groups in which calibration objects having different postures with respect to the camera are photographed with a small difference in distance from the camera from the image groups in which the calibration objects having different postures are captured;
4. The information processing apparatus according to claim 1, wherein the correspondence relationship acquisition unit acquires information about a correspondence relationship between a pixel and a position on the calibration object for each posture of the calibration object from the image group selected by the target image selection unit. The camera calibration device according to claim 1.
前記較正物体を撮影した画像に対して、前記較正物体が撮影されている領域の割合にしたがって、前記カメラから前記較正物体までの距離を推定する距離推定部と、
前記較正物体を撮影した画像群に対して、前記較正物体の撮影されている領域の形状の違いにしたがって、前記カメラに対する前記較正物体の姿勢の類似度を推定する類似度推定部とを更に備え、
前記対象画像選択部は、前記距離推定部で推定された距離と、前記類似度推定部で推定された類似度とに基づいて、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する請求項4に記載のカメラキャリブレーション装置。
A distance estimation unit that estimates a distance from the camera to the calibration object according to a ratio of a region where the calibration object is captured with respect to an image of the calibration object;
A similarity estimation unit for estimating the degree of similarity of the posture of the calibration object with respect to the camera according to the difference in the shape of the area where the calibration object is captured with respect to the image group obtained by capturing the calibration object; ,
The target image selection unit is a calibration having a small difference in distance from the camera and a different posture with respect to the camera based on the distance estimated by the distance estimation unit and the similarity estimated by the similarity estimation unit. The camera calibration device according to claim 4, wherein three or more image groups obtained by photographing an object are selected.
屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション方法であって、
前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得ステップと、
前記対応関係取得ステップで取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定ステップと、
前記対応関係取得ステップで取得された前記対応関係に関する情報と、前記姿勢推定ステップで推定された前記姿勢情報と用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得ステップとを備え、
前記姿勢推定ステップは、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション方法。
A camera calibration method for associating each pixel of an image obtained by photographing a subject through a refraction layer with a light beam from the subject,
A correspondence acquisition step for acquiring information on a correspondence relationship between the pixel and the position on the calibration object for each posture of the calibration object from an image group obtained by photographing calibration objects having different postures as the subject;
A posture estimation step of estimating posture of the calibration object and outputting posture information using information on the correspondence acquired in the correspondence relationship acquisition step;
A ray information acquisition step of obtaining ray information indicating a correspondence relationship between a pixel and a ray by using the information related to the correspondence acquired in the correspondence acquisition step and the posture information estimated in the posture estimation step; With
The posture estimation step is a camera calibration method for estimating a posture of the calibration object by using a position on the calibration object sampled with the same pixel between a plurality of images on a straight line.
請求項6に記載のカメラキャリブレーション方法をコンピュータに実行させるためのカメラキャリブレーションプログラム。   A camera calibration program for causing a computer to execute the camera calibration method according to claim 6. 請求項7に記載のカメラキャリブレーションプログラムを記録した記録媒体。   A recording medium on which the camera calibration program according to claim 7 is recorded.
JP2015098252A 2015-05-13 2015-05-13 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium Active JP6384961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015098252A JP6384961B2 (en) 2015-05-13 2015-05-13 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015098252A JP6384961B2 (en) 2015-05-13 2015-05-13 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium

Publications (2)

Publication Number Publication Date
JP2016213783A true JP2016213783A (en) 2016-12-15
JP6384961B2 JP6384961B2 (en) 2018-09-05

Family

ID=57550193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015098252A Active JP6384961B2 (en) 2015-05-13 2015-05-13 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium

Country Status (1)

Country Link
JP (1) JP6384961B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079845A1 (en) 2016-10-31 2018-05-03 新日鐵住金株式会社 Grain-oriented electromagnetic steel sheet

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070347A (en) * 2006-08-17 2008-03-27 Univ Of Miyazaki Automatic calibration device and calibration method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070347A (en) * 2006-08-17 2008-03-27 Univ Of Miyazaki Automatic calibration device and calibration method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PETER STURM AND SRIKUMAR RAMALINGAM: "A Generic Concept for Camera Calibration", PROC. 8TH EUROPEAN CONFERENCE ON COMPUTER VISION (ECCV '04), JPN7018001828, May 2004 (2004-05-01), pages 1 - 13, ISSN: 0003844817 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079845A1 (en) 2016-10-31 2018-05-03 新日鐵住金株式会社 Grain-oriented electromagnetic steel sheet

Also Published As

Publication number Publication date
JP6384961B2 (en) 2018-09-05

Similar Documents

Publication Publication Date Title
CN110264509B (en) Method, apparatus, and storage medium for determining pose of image capturing device
JP7058277B2 (en) Reconstruction method and reconfiguration device
JPWO2018147329A1 (en) Free viewpoint video generation method and free viewpoint video generation system
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP7227969B2 (en) Three-dimensional reconstruction method and three-dimensional reconstruction apparatus
CN112561978B (en) Training method of depth estimation network, depth estimation method of image and equipment
JP7123736B2 (en) Image processing device, image processing method, and program
JP2019190974A (en) Calibration device, calibration method and program
CN110462685B (en) Three-dimensional model reconstruction method and system
JP6573196B2 (en) Distance information correction apparatus, distance information correction method, and distance information correction program
JP2009186287A (en) Plane parameter estimating device, plane parameter estimating method, and plane parameter estimating program
JP6384961B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium
JP6355206B2 (en) Camera calibration method, camera calibration device, and camera calibration program
JP7067479B2 (en) Displacement measuring device, displacement measuring system, displacement measuring method and program
JP6991700B2 (en) Information processing equipment, information processing method, program
KR20150119770A (en) Method for measuring 3-dimensional cordinates with a camera and apparatus thereof
CN115700611A (en) Learning method, storage medium, and image processing apparatus
US9092840B2 (en) Image processing apparatus, control method of the same and non-transitory computer-readable storage medium
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP6297965B2 (en) Image processing apparatus, image processing method, and image processing program
JP6071142B2 (en) Image converter
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program
JP6168601B2 (en) Image converter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180803

R150 Certificate of patent or registration of utility model

Ref document number: 6384961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350