JP2016213783A - Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium - Google Patents
Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium Download PDFInfo
- Publication number
- JP2016213783A JP2016213783A JP2015098252A JP2015098252A JP2016213783A JP 2016213783 A JP2016213783 A JP 2016213783A JP 2015098252 A JP2015098252 A JP 2015098252A JP 2015098252 A JP2015098252 A JP 2015098252A JP 2016213783 A JP2016213783 A JP 2016213783A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- camera
- posture
- calibration object
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000036544 posture Effects 0.000 claims description 104
- 239000013598 vector Substances 0.000 claims description 34
- 238000011156 evaluation Methods 0.000 claims description 16
- 230000010365 information processing Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 15
- 238000013519 translation Methods 0.000 description 15
- 238000013507 mapping Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、カメラと被写体の間に屈折層が存在する場合におけるカメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体に関する。 The present invention relates to a camera calibration device, a camera calibration method, a camera calibration program, and a recording medium when a refractive layer exists between a camera and a subject.
従来、カメラで撮影された画像から、三次元情報として、例えば被写体の形状や、被写体とカメラとの位置関係を抽出する技術が知られている。このような技術は、ロボットビジョン、拡張現実感を提供するシステム等において、非常に重要となる技術である。このような三次元情報の抽出を行うためには、画像上の各画素と現実空間での光線の対応関係に関する情報と、複数のカメラ間の位置関係に関する情報とを取得する必要がある。そして、これらの情報を取得する処理は、カメラキャリブレーションと呼ばれている。特に、画像上の各画素と現実空間での光線の対応関係に関する情報を取得する処理は、内部キャリブレーションと呼ばれ、複数のカメラ間の位置関係に関する情報を取得する処理は、外部キャリブレーションと呼ばれている。 2. Description of the Related Art Conventionally, a technique for extracting, for example, the shape of a subject and the positional relationship between the subject and the camera as three-dimensional information from an image taken with a camera is known. Such a technique is very important in a robot vision, a system that provides augmented reality, and the like. In order to extract such three-dimensional information, it is necessary to acquire information related to the correspondence between each pixel on the image and light rays in the real space and information related to the positional relationship between a plurality of cameras. And the process which acquires such information is called camera calibration. In particular, the process of acquiring information about the correspondence between each pixel on the image and the light beam in the real space is called internal calibration, and the process of acquiring information about the positional relationship between a plurality of cameras is called external calibration. being called.
一般的なカメラキャリブレーションでは、オブジェクトと画像平面の間の写像が、ピンホールカメラモデルなど透視投影カメラモデルで表現できることを前提としている。そのような透視投影カメラモデルでは、オブジェクトからの光線は、カメラの投影中心に向かって直進しながら集束することを前提としている。そのため、カメラとオブジェクトの間に屈折層がある場合は、スネルの法則に基づき屈折層の屈折をモデル化することで、カメラキャリブレーションを実現する。そして、屈折のモデル化を行うためには、屈折層の屈折率及び位置・形状に関する情報が必要となる。しかし、予めそれらの情報を得ることは、一般的に困難であるため、屈折のモデル化を行うことができないという問題がある。また、仮に、それらの情報が得られたとしても、屈折層の形状等が複雑な場合は、屈折のモデル化の処理も複雑になるという問題がある。 In general camera calibration, it is assumed that a mapping between an object and an image plane can be expressed by a perspective camera model such as a pinhole camera model. In such a perspective projection camera model, it is assumed that the light rays from the object converge while moving straight toward the projection center of the camera. Therefore, when there is a refractive layer between the camera and the object, camera calibration is realized by modeling the refraction of the refractive layer based on Snell's law. In order to model refraction, information on the refractive index, position, and shape of the refractive layer is required. However, since it is generally difficult to obtain such information in advance, there is a problem that refraction modeling cannot be performed. Even if such information is obtained, if the shape of the refractive layer is complicated, there is a problem that the modeling process of refraction is complicated.
透視投影カメラモデルとは異なるカメラモデルとして、非特許文献1で提案されているRaxel(ray−pixel)カメラモデルが存在する。Raxelカメラモデルでは、画像上の各画素と三次元空間における光線とを直接対応付ける。そのため、屈折層における光線の屈折をモデル化せずに、カメラキャリブレーションにおいて、画素と光線の対応付けを求めることができる。
例えば、非特許文献2に記載の手法は、カメラとの間に屈折層を含んだ撮影対象とする空間中に、チェッカーボードなどの較正物体を設置し、画素からその較正物体平面上の点へのマッピングを表す近似関数を求めることでキャリブレーションを実現している。
As a camera model different from the perspective projection camera model, there is a Raxel (ray-pixel) camera model proposed in Non-Patent Document 1. In the Raxel camera model, each pixel on an image is directly associated with a light beam in a three-dimensional space. Therefore, it is possible to obtain the correspondence between pixels and light rays in camera calibration without modeling the refraction of light rays in the refraction layer.
For example, in the technique described in Non-Patent Document 2, a calibration object such as a checkerboard is installed in a space to be imaged including a refractive layer between the camera and a pixel to a point on the calibration object plane. Calibration is realized by obtaining an approximation function that represents the mapping of.
しかしながら、非特許文献2に記載の手法は、近似関数で近似する精度の問題から屈折層の形状に制約があり、任意の屈折層に適用するのは困難であるという問題がある。さらに、キャリブレーションにおいて、カメラに対する較正物体の姿勢に関する情報が必要となる。そして、その姿勢に関する情報を取得するために、経路中に屈折層を含む空間に設置された較正物体を撮影すると同時に、屈折層を含まない空間に設置された別の較正物体を撮影する必要がある。つまり、非特許文献2に記載の手法は、本来対象とする空間をカメラの一部でしか撮影できないことになり、高精細な画像を取得することができないという問題がある。また、非特許文献2に記載の手法は、屈折層を含む空間および屈折層を含まない空間の両方の空間が撮影可能な状況でしか、使用できないという問題がある。 However, the technique described in Non-Patent Document 2 has a problem that the shape of the refracting layer is limited due to the problem of accuracy of approximation with an approximation function, and it is difficult to apply to any refracting layer. Further, in the calibration, information regarding the posture of the calibration object with respect to the camera is required. And in order to acquire information about the posture, it is necessary to photograph a calibration object installed in a space including a refractive layer in the path, and simultaneously image another calibration object installed in a space not including the refractive layer. is there. That is, the method described in Non-Patent Document 2 has a problem that a space that is originally targeted can be captured only by a part of the camera, and a high-definition image cannot be acquired. Further, the technique described in Non-Patent Document 2 has a problem that it can be used only in a situation where both a space including a refractive layer and a space not including a refractive layer can be photographed.
上記事情に鑑み、本発明は、カメラと被写体との間に未知の屈折層または複雑な形状の屈折層が存在する場合であっても、カメラモデルのキャリブレーションを実現することができるカメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体を提供することを目的とする。 In view of the above circumstances, the present invention provides a camera calibration that can realize camera model calibration even when an unknown refractive layer or a complicated refractive layer exists between the camera and the subject. An object is to provide an apparatus, a camera calibration method, a camera calibration program, and a recording medium.
本発明の一態様は、屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション装置であって、前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得部と、前記対応関係取得部で取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定部と、前記対応関係取得部で取得された前記対応関係に関する情報と、前記姿勢推定部で推定された前記姿勢情報とを用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得部とを備え、前記姿勢推定部は、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション装置である。 One aspect of the present invention is a camera calibration device for associating each pixel of an image obtained by photographing a subject through a refractive layer with a light beam from the subject, the posture of the subject as the subject Acquired by the correspondence acquisition unit for acquiring information on the correspondence between the pixel and the position on the calibration object for each posture of the calibration object from the group of images obtained by photographing different calibration objects. Using the information on the correspondence relationship, the posture estimation unit that estimates the posture of the calibration object and outputs posture information, the information on the correspondence relationship acquired by the correspondence relationship acquisition unit, and the posture estimation unit A light ray information acquisition unit that acquires light ray information indicating a correspondence relationship between pixels and light rays using the estimated posture information, and the posture estimation unit includes a plurality of images. Position on the calibration object sampled in one pixel, a camera calibration device for estimating the pose of the calibration object using that exist on a straight line in the imaging space.
本発明の一態様は、前記姿勢推定部は、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積を最小化するように前記較正物体の姿勢を推定する。 In one aspect of the present invention, the posture estimation unit obtains two or more line segments for one pixel from a position on the calibration object sampled by the same pixel, and a direction vector corresponding to the line segment. The posture of the calibration object is estimated so as to minimize the outer product.
本発明の一態様は、前記対応関係に関する情報と、前記姿勢情報とを用いて、同一画素でサンプリングされた前記較正物体上の位置から、1つの画素に対して2本以上の線分を求め、当該線分に対応する方向ベクトル間の外積に基づくキャリブレーション評価値を求めるキャリブレーション評価部を更に備える。 In one embodiment of the present invention, two or more line segments are obtained for one pixel from the position on the calibration object sampled by the same pixel using the information on the correspondence and the posture information. And a calibration evaluation unit for obtaining a calibration evaluation value based on the outer product between the direction vectors corresponding to the line segment.
本発明の一態様は、姿勢の異なる前記較正物体を撮影した画像群から、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する対象画像選択部を更に備え、前記対応関係取得部は、前記対象画像選択部が選択した画像群から較正物体の姿勢ごとに、画素と較正物体上の位置との対応関係に関する情報を取得する。 One aspect of the present invention is an object for selecting three or more image groups in which calibration objects having different postures with respect to the camera are photographed with a small difference in distance from the camera, from the image groups in which the calibration objects having different postures are photographed. An image selection unit is further included, and the correspondence relationship acquisition unit acquires information regarding the correspondence relationship between the pixel and the position on the calibration object for each posture of the calibration object from the image group selected by the target image selection unit.
本発明の一態様は、前記較正物体を撮影した画像に対して、前記較正物体が撮影されている領域の割合にしたがって、前記カメラから前記較正物体までの距離を推定する距離推定部と、前記較正物体を撮影した画像群に対して、前記較正物体の撮影されている領域の形状の違いにしたがって、前記カメラに対する前記較正物体の姿勢の類似度を推定する類似度推定部とを更に備え、前記対象画像選択部は、前記距離推定部で推定された距離と、前記類似度推定部で推定された類似度とに基づいて、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する。 One aspect of the present invention is a distance estimation unit that estimates a distance from the camera to the calibration object according to a ratio of a region where the calibration object is captured with respect to an image obtained by capturing the calibration object; A degree-of-similarity estimation unit that estimates the degree of similarity of the posture of the calibration object with respect to the camera according to the difference in the shape of the area where the calibration object is imaged with respect to the image group obtained by imaging the calibration object; The target image selection unit is a calibration having a small difference in distance from the camera and a different posture with respect to the camera based on the distance estimated by the distance estimation unit and the similarity estimated by the similarity estimation unit. A group of three or more images in which an object is photographed is selected.
本発明の一態様は、屈折層を介して被写体を撮影することによって得られる画像の各画素と、前記被写体からの光線との対応付けを行うカメラキャリブレーション方法であって、前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得ステップと、前記対応関係取得ステップで取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定ステップと、前記対応関係取得ステップで取得された前記対応関係に関する情報と、前記姿勢推定ステップで推定された前記姿勢情報とを用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得ステップとを備え、前記姿勢推定ステップは、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション方法である。 One aspect of the present invention is a camera calibration method for associating each pixel of an image obtained by photographing a subject through a refraction layer with a light beam from the subject, the posture of the subject as the subject Acquired in the correspondence acquisition step and the correspondence acquisition step for acquiring information related to the correspondence between the pixel and the position on the calibration object for each posture of the calibration object from the group of images obtained by photographing different calibration objects. Using the information on the correspondence relationship, the posture estimation step of estimating the posture of the calibration object and outputting posture information, the information on the correspondence relationship acquired in the correspondence relationship acquisition step, and the posture estimation step A light ray information obtaining step for obtaining light ray information indicating a correspondence relationship between a pixel and a light ray using the estimated posture information; The posture estimation step is a camera calibration method that estimates the posture of the calibration object using the fact that the position on the calibration object sampled by the same pixel between a plurality of images exists in a straight line in the imaging space. .
本発明の一態様は、上記カメラキャリブレーション方法をコンピュータに実行させるためのカメラキャリブレーションプログラムである。 One aspect of the present invention is a camera calibration program for causing a computer to execute the camera calibration method.
本発明の一態様は、上記カメラキャリブレーションプログラムを記録した記録媒体である。 One aspect of the present invention is a recording medium on which the camera calibration program is recorded.
本発明によれば、カメラと被写体との間に未知の屈折層または複雑な形状の屈折層が存在する場合であっても、カメラモデルのキャリブレーションを実現することができる。 According to the present invention, calibration of a camera model can be realized even when an unknown refraction layer or a complicated refraction layer exists between a camera and a subject.
以下、図面を参照して、本発明の実施形態におけるカメラキャリブレーション装置について説明する。
(第1の実施形態)
まず、第1の実施形態として、1つのカメラにおけるキャリブレーションとして、撮影空間中の光線とカメラで撮影された画像の画素とのマッピングの処理(内部キャリブレーション)について説明する。図1は、第1の実施形態におけるカメラキャリブレーションが行われる撮影空間を示す図である。図1に示す通り、カメラ1と撮影空間との間に未知の屈折層2が存在し、撮影空間中に較正物体3、3’が設置されている。ここで、較正物体3’は、較正物体3と同一物体であって、較正物体3の姿勢が変更された後の状態を示すものである。なお、較正物体3として、どのような物体を用いても構わないが、後述する画素と較正物体3上の位置との対応関係が得られるものを使う必要がある。本実施形態においては、較正物体3として、グレイコードを表示する平面ディスプレイなどが用いられる。
Hereinafter, a camera calibration apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
First, as a first embodiment, a mapping process (internal calibration) between a light beam in an imaging space and a pixel of an image captured by the camera will be described as calibration in one camera. FIG. 1 is a diagram illustrating an imaging space in which camera calibration is performed in the first embodiment. As shown in FIG. 1, an unknown refractive layer 2 exists between the camera 1 and the imaging space, and
図2は、第1の実施形態における第1キャリブレーション装置の構成を示すブロック図である。図2に示すように、第1キャリブレーション装置10は、画像入力部11と、対応関係取得部12と、姿勢推定部13と、光線情報出力部14とを備えている。図1には、示していないが、第1キャリブレーション装置10は、カメラ1で撮影された画像を入力可能で、入力された画像に対して画像処理を行うコンピュータ端末である。
FIG. 2 is a block diagram illustrating a configuration of the first calibration apparatus according to the first embodiment. As illustrated in FIG. 2, the
画像入力部11は、較正物体3を撮影した画像(群)を入力する。対応関係取得部12は、画像入力部11により入力された画像中の画素と較正物体3上の位置とを対応付ける情報を取得する。姿勢推定部13は、複数の較正物体3、3’間の相対的な姿勢を推定する。光線情報出力部14は、画素に対して光線を対応付ける。
The
次に、図2に示す第1キャリブレーション装置10の動作を説明する。図3は、第1の実施形態における第1キャリブレーション装置10の動作を示すフローチャートである。
まず、画像入力部11は、較正物体3の姿勢を変化させながら撮影した画像群{In,m|n=0,…,N−1,m=0,…Mn−1}を入力する(ステップS101)。ここで、入力された画像群中に含まれる較正物体3の姿勢の数をNとし、較正物体3がn番目の姿勢である場合の画像の枚数をMnとする。ここで、Nは3以上とし、Mnは画素とn番目の姿勢の較正物体3上の位置を対応付けるのに必要な画像の枚数とする。Mnは較正物体3の種類や撮影空間の大きさなどに依存する。
Next, the operation of the
First, the
次に、対応関係取得部12は、較正物体3の姿勢ごとに、画素と較正物体3上の位置を対応付ける(ステップS102)。具体的には、画像平面上の座標値(画素位置)と、較正物体3上で定義された座標系における座標値を対応付ける。ここでの方法は、較正物体3の種類によって異なる。
Next, the
例えば、較正物体3が、平面ディスプレイで構成されており、かつ、較正物体3が、座標値をエンコードしたグレイコードパターンの系列を表示している場合について説明する。画像入力部11は、グレイコードパターンを表示する較正物体3を、撮影して得た画像群を入力する。対応関係取得部12は、入力された画像群から各画素で撮影された信号の系列を求め、それをデコードすることで、その画素に対応する較正物体3上の座標値を得ることができる。グレイコードを用いた画素と較正物体3の平面上の位置との対応付けに関しては、例えば非特許文献1に詳細が記載されている。
For example, a case will be described in which the
ここで、ステップS102の結果として得られる、画素kに対するn番目の姿勢の較正物体3上の点Pk,mの座標値をpk,n(k=1,…,numPixs,n=1,…,N)で表す。ここで、numPixsは、光線との対応関係を求める画素の数である。
Here, the coordinate value of the point P k, m on the
各画素と較正物体3上の座標値との対応付けた後、姿勢推定部13は、較正物体3の姿勢に関する情報を推定する(ステップS103)。姿勢推定部13において、どのように較正物体3の姿勢に関する情報を表すかは、限定されるものではない。例えば、較正物体3のある姿勢を基準として、異なる姿勢となる較正物体3’を、基準の姿勢に変換するための回転行列Rnと並進ベクトルtnとを用いる形式で表しても構わない。以下の説明では、姿勢推定部13は、n=1に対する姿勢を基準とした回転行列と並進ベクトルを用いて姿勢を表現する。
After associating each pixel with the coordinate value on the
この回転行列Rnと並進ベクトルtnを求める処理では、各画素でサンプリングされる光線は、撮影空間中を直進してきたものであるという性質を用いる。つまり、画素kでサンプリングされた較正物体3上の点が、撮影空間中で同一直線上に存在することを用いる。回転行列Rnと並進ベクトルtnを用いると、以下の(式1)のように、画素kに対するn番目の姿勢の較正物体3上の座標値pk,nを、1番目の姿勢に対する座標系(以下、基準座標系と呼ぶ)における座標値Pk,n [1]で表すことができる。
このとき、基準座標系での線分Pk,lPk,nの方向ベクトルは以下の(式2)で与えられる。
画素kでサンプリングされた較正物体3上の点が撮影空間中で同一直線上に存在する場合、姿勢iと姿勢jの方向ベクトルの外積が0となる。つまり、以下の(式3)で示される外積が0となる回転上列と並進ベクトルが求める姿勢となる。
ここで、×は外積を示し、Mkは座標値pk,nのみで構成される行列、hは回転行列及び並進ベクトルで構成されるベクトルである。なお、ここで同一直線上に存在する条件が成立するためには、3点以上の点が存在する必要がある。つまり、N≧3である必要がある。ここではN=3として説明を行うが、N>3の場合に拡張可能であることは容易に類推可能である。 Here, x indicates an outer product, M k is a matrix composed only of coordinate values p k, n , and h is a vector composed of a rotation matrix and a translation vector. Here, in order to satisfy the condition that exists on the same straight line, it is necessary to have three or more points. That is, it is necessary that N ≧ 3. Here, the description will be made assuming that N = 3, but it can be easily inferred that the expansion is possible when N> 3.
上記の条件は、画素ごとに得られるため、全てをまとめると下記の(式4)に示す連立方程式が得られる。
なお、(式4)に示す連立方程式を解かずに較正物体3の姿勢を求める方法もある。例えば、外積の大きさを最小化するような最適化問題を解くことで較正物体3の姿勢を推定しても構わない。つまり、較正物体3の姿勢を表すベクトルをh^(実際のハット(^)はhの上)とし、画素kでサンプリングされた較正物体3上の点によって構成される線分(2本以上の線分)の外積をgkで表すと、較正物体3の姿勢を示すベクトルhは次の(式5)に示す最小化問題を解くことで得られる。
また、外積gkを用いたGの代わりに、以下の(式6)を用いて、外積のノルムg’kを用いたG’を最小化することで較正物体3の姿勢を示すベクトルhを求めても構わない。較正物体3の姿勢を示すベクトルhのノルムを用いることで外積の各成分を最小化するのではなく、全成分を効率よく最小化する。これにより、最小化に要する演算量を低下させ、較正物体3の姿勢を示す適切なベクトルhを求めることが可能となる。
更に、姿勢推定部13は、外積を用いずに方向ベクトルが一致する条件を用いて、較正物体3の姿勢を推定するようにしても構わない。例えば、画素kでサンプリングされた較正物体3上の点の方向ベクトルの差分ベクトルの単位ベクトルdkとすると、以下の(式7)、(式8)を用いた最小化問題を解くことで、較正物体3の姿勢を示すベクトルhを求めることができる。
較正物体3の姿勢に関する情報を推定した後、光線情報出力部14は、各画素に対して、その画素でサンプリングされる光線を対応付けた光線情報を生成する(ステップS104)。生成された光線情報は、第1キャリブレーション装置10の出力となる。なお、どのような形で対応付けを表現しても構わない。本実施形態における光線情報は、例えば、各画素をインデックスとし、光線を表す直線の式を返すルックアップテーブルを用いて表したものである。
After estimating information related to the posture of the
なお、較正物体3の姿勢を推定する処理(ステップS103)が終了した後、キャリブレーションの精度、つまり較正物体3の姿勢の推定の精度を表す評価値を求めても構わない。この評価値は、較正物体3の姿勢の推定が正しく行われたか否かを表すことのできるものであれば、どのような評価値を用いても構わない。評価値の具体例1は、画素ごとに得られる較正物体3上の点で構成される線分の外積のノルムについて、和や最大値、分散を求めて、評価値としたものである。また、評価値の具体例2は、画素ごとに得られる較正物体3上の点で構成される方向ベクトルの差分ベクトルのノルムについて、和や最大値、分散を求めて、評価値としたものである。更に、評価値の具体例3は、各画素に対応付けられた光線と較正物体3上の点の距離について、和や最大値、分散を求めて、評価値としたものである。更に、評価値の具体例4は、各画素に対応付けられた光線と較正物体3上の点の較正物体3平面上での距離について、和や最大値、分散を求めて、評価値としたものである。
Note that after the process of estimating the posture of the calibration object 3 (step S103) is completed, an evaluation value indicating the accuracy of calibration, that is, the accuracy of estimation of the posture of the
求めた評価値が予め定められた精度を満たさないことを表す場合、第1キャリブレーション装置10は、別の姿勢の較正物体3’を撮影した画像を追加し、更新された画像群を用いて較正物体3’の姿勢を推定する処理(ステップS103)を再度行っても構わない。
When the obtained evaluation value represents that the predetermined accuracy is not satisfied, the
なお、画像を追加する際には、どのような姿勢の較正物体3を、撮影した画像を追加しても構わない。例えば、既に入力されている画像群と比較し、同じ較正物体3であって画像上の較正物体3の大きさが大きく異なるような画像を追加しても構わないし、同じ較正物体3であって画像上の較正物体3の大きさは同じだが形状が異なるような画像を追加しても構わない。前者は、既に入力されている画像と比較して、画像を撮影したカメラから較正物体3までの距離が異なるような画像であることを意味する。このような画像を入力することで、より長い経路で光線の直進性を考慮したキャリブレーションが可能となる。一方、後者の画像は、より狭い空間での光線の直進性を考慮した、より頑健なキャリブレーションを行うことが可能となる。
In addition, when adding an image, you may add the image | photographed image of the
なお、新たな画像を追加する際に、過去に取得した画像群を全て蓄積しておくのではなく、画像を入れ替えて画像の総数は変化しないようにしても構わない。画像の総数を一定に保つことで、必要なメモリ量や演算量を一定に保つことが可能となる。 In addition, when adding a new image, it is not necessary to store all the image groups acquired in the past, but to replace the images so that the total number of images does not change. By keeping the total number of images constant, it is possible to keep the necessary memory amount and calculation amount constant.
上記の説明では、画像入力部11より、入力された画像をすべて用いてキャリブレーション処理が行われるが、入力された画像のうち一部のみを選択して使用するようにしても構わない。例えば、画像入力部11より、入力された画像群に基づいて、カメラ1から較正物体3までの距離が大きく変化するような画像群を選択するようにしても構わないし、カメラ1から較正物体3までの距離は同程度で較正物体3の姿勢が大きく変化するような画像群を選択するようにしても構わない。
In the above description, the calibration process is performed by using all the input images from the
なお、カメラ1から較正物体3までの距離や較正物体3の姿勢に関する情報を正確に得るためにはキャリブレーションを実施する必要がある。それらの情報は別途与えられても構わないし、画像から推定するようにしても構わない。例えば、画像上の較正物体の大きさを用いて、カメラから較正物体までの距離を推定しても構わないし、画像上での較正物体の形状を比較することで較正物体の姿勢の類似性を推定しても構わない。例えば、対応関係取得部12は、カメラ1から較正物体3までの距離の推定方法として、較正物体3を撮影した画像に対して、較正物体3が撮影されている領域の割合にしたがって、カメラ1から較正物体3までの距離を推定する。また、対応関係取得部12は、較正物体3を撮影した画像群に対して、較正物体3の撮影されている領域の形状の違いにしたがって、カメラ1に対する較正物体3の姿勢の類似度を推定する。次に、対応関係取得部12は、推定した距離、類似度に基づいて、カメラ1からの距離の違いが少なく、カメラ1に対する姿勢が異なる較正物体3を撮影した3枚以上の画像群を選択する。
Note that in order to accurately obtain information on the distance from the camera 1 to the
(第2の実施形態)
次に、第2の実施形態として、複数のカメラ間の関係を求めるキャリブレーションについて説明する。具体的には、2つのカメラ間の相対的な位置関係を推定し、各画素にマッピングされた光線に対して、カメラ間で共通の座標系を用いた記述を求めるキャリブレーション(外部キャリブレーション)について説明する。
(Second Embodiment)
Next, as a second embodiment, calibration for obtaining a relationship between a plurality of cameras will be described. Specifically, calibration (external calibration) that estimates a relative positional relationship between two cameras and obtains a description using a common coordinate system between the cameras for the light rays mapped to each pixel. Will be described.
図4は、第2の実施形態におけるカメラキャリブレーションを行う撮影空間を示す図である。図4に示すように、複数のカメラ1a〜1cと、被写体となる較正物体3a、3a’、3b、3b’との間に未知の屈折層2が存在している。較正物体3a、3a’、3b、3b’は、異なる時刻に設置されていて、1度には1つの較正物体しか存在しないものとする。例えば、較正物体3a’は、較正物体3aの姿勢が変更されたものであり、同様に、較正物体3b’は、較正物体3bの姿勢が変更されたものである。なお、較正物体3a、較正物体3bは、異なる物体であっても同じ物体であってもよい。また、較正物体3a、3bとして、どのような物体を用いても構わないが、画素と較正物体上の位置との対応関係が得られるものを使う必要がある。本実施形態における較正物体3a、較正物体3bは、グレイコードを表示する平面ディスプレイなどが用いられる。
FIG. 4 is a diagram illustrating an imaging space in which camera calibration is performed in the second embodiment. As shown in FIG. 4, an unknown refractive layer 2 exists between the plurality of cameras 1 a to 1 c and the calibration objects 3 a, 3 a ′, 3 b, and 3 b ′ that are subjects. It is assumed that the calibration objects 3a, 3a ', 3b, 3b' are installed at different times and that only one calibration object exists at a time. For example, the
なお、複数のカメラ1a〜1cに共通の座標系を用いた記述による光線と画素のマッピングを求める最も簡単な方法として、以下の方法が考えらえる。まず、複数のカメラ1a〜1cの各々は、第1の実施形態に示した第1キャリブレーション装置10の構成を有する。そして、複数のカメラ1a〜1cに対して、同じ較正物体の画像群を入力し、同じ画像の較正物体の姿勢を基準として光線を記述し、画素とのマッピングを求める方法である。本実施形態では、そのような方法がつかえないカメラ間においても、共通の座標系を用いた記述による光線と画素のマッピングを求める方法について説明する。
The following method can be considered as the simplest method for obtaining the mapping of light rays and pixels in the description using a common coordinate system for the plurality of cameras 1a to 1c. First, each of the plurality of cameras 1a to 1c has the configuration of the
上記最も簡単な方法が適用できない撮影空間として、例えば、図4に示される撮影空間がある。図4の撮影空間では、カメラ1aとカメラ1bは、共通の較正物体3aを用いて光線記述と画素からのマッピングを求めることが可能であり、カメラ1bとカメラ1cは、共通の較正物体3bを用いて光線記述と画素からのマッピングを求めることが可能である。しかし、カメラ1aとカメラ1cは、共通の較正物体を撮影することができない状況である。本実施形態では、このような図4に示される撮影空間に対して、3つのカメラ1a〜1cで共通の座標系を用いた記述による光線と画素のマッピングを求める方法を説明する。
As an imaging space to which the above simplest method cannot be applied, for example, there is an imaging space shown in FIG. In the shooting space of FIG. 4, the camera 1a and the camera 1b can obtain the ray description and the mapping from the pixel using the
図5は、第2の実施形態における第2キャリブレーション装置の構成を示すブロック図である。図5に示すように、第2キャリブレーション装置20は、光線情報入力部21と、光線情報記憶部22と、カメラ位置情報推定部23と、光線記述変換部24とを備えている。
光線情報入力部21は、カメラの画素ごとに対応付けられた光線の情報(以下、光線情報とする。)を入力する。光線情報記憶部22は、入力されたカメラの画素ごとに対応付けられた光線情報を記憶する。カメラ位置情報推定部23は、光線情報を用いてカメラの位置関係を推定する。光線記述変換部24は、得られたカメラの位置関係に基づいて、光線に対して共通の座標系で表現した記述を求める。
FIG. 5 is a block diagram illustrating a configuration of the second calibration device according to the second embodiment. As shown in FIG. 5, the
The light ray
次に、第2の実施形態における第2キャリブレーション装置20の動作を説明する。図6は、第2の実施形態における第2キャリブレーション装置20の動作を示すフローチャートである。
まず、光線情報入力部21は、カメラ対(カメラ1aとカメラ1b又はカメラ1bとカメラ1c)に対して、カメラの画素ごとに対応付けられた光線情報を入力し、光線情報記憶部22に記憶する(ステップS201)。ここで、カメラ対ごとに入力される光線情報は、共通の座標系で記述されている。
Next, the operation of the
First, the light ray
なお、カメラ対ごとに共通の座標系で記述された光線情報を求める方法は、どのような方法であってもよい。例えば、第1の実施形態で示した第1キャリブレーション装置10を用いて、同じ較正物体の画像群を入力し、同じ画像の較正物体の姿勢を基準として、各カメラにおける画素と光線のマッピングを求めることで、共通の座標系で記述された光線情報を求めることができる。
Note that any method may be used for obtaining the light ray information described in a common coordinate system for each camera pair. For example, by using the
つまり、本実施形態においては、光線情報入力部21は、カメラ1aとカメラ1bに対して共通の座標系で記述された光線と画素とをマッピングする光線情報を入力して、カメラ1bとカメラ1cに対して共通の座標系で記述された光線と画素とをマッピングする光線情報を入力する。
That is, in the present embodiment, the light ray
次に、カメラ位置情報推定部23は、複数の異なる座標系で表現された光線の記述が与えられた画素の集合{pk|k=1,…,numCPixs}を求める(ステップS202)。この画素の集合は、カメラ1bの画素のうち、カメラ1aと共通の座標系で表された光線l12(k)へのマッピングを持つ画素の集合と、カメラ1cと共通の座標系であらわされた光線l23(k)へのマッピングを持つ画素の集合とを含む。ここで画素pkに対応するカメラ1aと共通の座標系で表された光線をl12(k)、カメラ1cと共通の座標系で表された光線をl23(k)で表す。
Next, the camera position
次に、普通の座標系での光線記述が与えられた画素の集合が得られたら、カメラ位置情報推定部23は、それら座標系間の関係を推定する(ステップS203)。具体的には、下記の(式9)を満たす回転行列Rと並進ベクトルtを求める。なお、この(式9)では、カメラ1aの光線が与えられた座標系を基準としているが、カメラ1cの光線が与えられた座標系を基準としても構わない。
回転行列Rと並進ベクトルtはどのような方法を用いて求めても構わないが、例えば、参考文献(B. Kamgar-Parsi and B. Kamgar-Parsi, "Algorithms for matching 3D line sets," TPAMI, vol.26, No. 5, pp.582−593, May 2004)の方法を用いて求めることができる。この時、全てのpkについて上記(式9)を満たす回転行列と並進ベクトルを求めても構わない。しかし、画素の点数が多い場合、演算量が膨大になるほか、誤った光線の情報が含まれていた場合、その影響を受けて推定の精度が低下する。そのため、ステップS203では一部の画素のみを用いて推定するようにしても構わない。 The rotation matrix R and the translation vector t may be obtained by any method. For example, the reference (B. Kamgar-Parsi and B. Kamgar-Parsi, “Algorithms for matching 3D line sets,” TPAMI, vol.26, No. 5, pp.582-593, May 2004). At this time, it may also be determined translation vector and rotation matrix that satisfies the above equation (9) for all p k. However, if the number of pixels is large, the amount of calculation becomes enormous, and if incorrect ray information is included, the accuracy of estimation decreases due to the influence. Therefore, in step S203, estimation may be performed using only some pixels.
一部の画素のみを用いて推定を行った場合、推定された回転行列と並進ベクトルの推定精度を求める。どのような方法を用いて推定精度を表現しても構わない。例えば、推定された回転行列と並進ベクトルを用いて、カメラ1cと共通の座標系で表現されていた較正物体3b上の点qi(k)を下記の(式10)によって変換して得られる点q’i(k)と光線l12(k)との距離の和や最大値、分散を用いても構わない。また、q’i(k)と光線l12(k)との較正物体上での距離の和や最大値、分散を用いても構わない。
さらに、カメラ1aと共通の座標系で表現されていた較正物体3a上の点sj(k)を下記の(式11)によって変換して得られる点s’j(k)と光線l23(k)との距離の和や最大値、分散を用いても構わないし、s’j(k)と光線l23(k)との較正物体上での距離の和や最大値、分散を用いても構わない。
次に、回転行列と並進ベクトルの推定が終了したら、光線記述変換部24は、得られた回転行列と並進ベクトルを用いて、光線の記述を変換することで、共通の座標系における光線と画素のマッピングを生成して出力する(ステップS204)。具体的には、以下の(式12)にしたがって、カメラ1cと共通の座標系で表された光線群{l23(m)}に対して、カメラ1aと共通の座標系で表した光線群{l12(m)}を求めることで変換が行われる。
(ハードウェアの構成例)
図7は、第1の実施形態における第1キャリブレーション装置10又は第2の実施形態における第2キャリブレーション装置20のハードウェアの構成例を示す図である。
図7に示すように、第1キャリブレーション装置10又は第2キャリブレーション装置20を、コンピュータによって構成する場合のハードウェア構成を示すブロック図である。第1キャリブレーション装置10又は第2キャリブレーション装置20は、プログラムを実行するCPU(Central Processing Unit)100と、CPU100がアクセスするプログラムやデータが格納されるRAM等のメモリ101と、カメラ等からの処理対象の画像信号を入力する画像入力部102と、カメラキャリブレーション処理をCPU100に実行させるソフトウェアプログラムであるカメラキャリブレーションプログラム105が格納されたプログラム記憶装置103と、CPU100がメモリ101にロードされたカメラキャリブレーションプログラム105を実行することにより生成された画素と光線の対応関係を出力する光線情報出力部104とが、バスで接続された構成になっている。
(Hardware configuration example)
FIG. 7 is a diagram illustrating a hardware configuration example of the
As shown in FIG. 7, it is a block diagram showing a hardware configuration when the
なお、画像入力部102は、ディスク装置等により画像信号を記憶し、記憶した画像信号を読み出すことで画像信号を入力する記憶部で構成してもよい。また、光線情報出力部104は、ディスク装置等により画素と光線の対応関係を示す光線情報を記憶する記憶部で構成してもよい。また、バスで接続されたCPUやメモリや補助記憶装置などを備え、カメラキャリブレーションプログラムを実行することによってカメラキャリブレーションを備える装置として機能する。なお、カメラキャリブレーションの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。カメラキャリブレーションプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。カメラキャリブレーションプログラムは、電気通信回線を介して送信されてもよい。
Note that the
このように、第1の実施形態における第1キャリブレーション装置10又は第2の実施形態における第2キャリブレーション装置20を、コンピュータで実現することができる。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
As described above, the
以上説明したように、光線が撮影空間中で直進することを利用して、複数の姿勢で同一の較正物体を撮影した画像群から、画素と光線の対応関係を生成することにより、カメラと被写体との間に任意の屈折層(未知の屈折層または複雑な形状の屈折層)を含む場合においても、カメラのキャリブレーションを実現することができる。また、カメラと被写体との間に屈折層を含まない空間を通して、被写体を撮影不可能な状況においても、カメラのキャリブレーションを実現することができる。 As described above, the camera and the subject are generated by generating the correspondence relationship between the pixel and the light from the group of images obtained by photographing the same calibration object in a plurality of postures using the fact that the light travels straight in the photographing space. Even when an arbitrary refractive layer (an unknown refractive layer or a complicated-shaped refractive layer) is included between the two, a camera calibration can be realized. In addition, the camera calibration can be realized even in a situation where the subject cannot be photographed through a space that does not include a refractive layer between the camera and the subject.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
本発明のカメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体は、カメラと被写体との間に未知の屈折層がある場合においても、画素と光線とを対応付けを行うことが不可欠な用途に適用できる。 The camera calibration device, the camera calibration method, the camera calibration program, and the recording medium of the present invention can associate pixels with light rays even when there is an unknown refractive layer between the camera and the subject. Applicable to essential applications.
1、1a、1b、1c…カメラ、 2…屈折層、 3、3’、3a、3a’、3b、3b’…較正物体、 10…第1キャリブレーション装置、 11…画像入力部、 12…対応関係取得部、 13…姿勢推定部、 14…光線情報出力部、 20…第2キャリブレーション装置、 21…光線情報入力部、 22…光線情報記憶部、 23…カメラ位置情報推定部、 24…光線記述変換部 DESCRIPTION OF SYMBOLS 1, 1a, 1b, 1c ... Camera, 2 ... Refraction layer, 3, 3 ', 3a, 3a', 3b, 3b '... Calibration object, 10 ... 1st calibration apparatus, 11 ... Image input part, 12 ... Correspondence Relationship acquisition unit, 13 ... Posture estimation unit, 14 ... Ray information output unit, 20 ... Second calibration device, 21 ... Ray information input unit, 22 ... Ray information storage unit, 23 ... Camera position information estimation unit, 24 ... Ray Description converter
Claims (8)
前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得部と、
前記対応関係取得部で取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定部と、
前記対応関係取得部で取得された前記対応関係に関する情報と、前記姿勢推定部で推定された前記姿勢情報とを用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得部とを備え、
前記姿勢推定部は、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション装置。 A camera calibration device for associating each pixel of an image obtained by photographing a subject through a refractive layer with a light beam from the subject,
A correspondence acquisition unit that acquires information on a correspondence between the pixel and the position on the calibration object for each posture of the calibration object from an image group obtained by photographing calibration objects having different postures as the subject;
A posture estimation unit that estimates posture of the calibration object and outputs posture information using information on the correspondence acquired by the correspondence acquisition unit;
A light ray information acquisition unit that acquires light ray information indicating a correspondence relationship between a pixel and a light beam using the information related to the correspondence relationship acquired by the correspondence relationship acquisition unit and the posture information estimated by the posture estimation unit. And
The posture estimation unit is a camera calibration device that estimates the posture of the calibration object by using a position on the calibration object sampled by the same pixel between a plurality of images on a straight line.
前記対応関係取得部は、前記対象画像選択部が選択した画像群から較正物体の姿勢ごとに、画素と較正物体上の位置との対応関係に関する情報を取得する請求項1から請求項3のいずれか一項に記載のカメラキャリブレーション装置。 A target image selection unit that selects three or more image groups in which calibration objects having different postures with respect to the camera are photographed with a small difference in distance from the camera from the image groups in which the calibration objects having different postures are captured;
4. The information processing apparatus according to claim 1, wherein the correspondence relationship acquisition unit acquires information about a correspondence relationship between a pixel and a position on the calibration object for each posture of the calibration object from the image group selected by the target image selection unit. The camera calibration device according to claim 1.
前記較正物体を撮影した画像群に対して、前記較正物体の撮影されている領域の形状の違いにしたがって、前記カメラに対する前記較正物体の姿勢の類似度を推定する類似度推定部とを更に備え、
前記対象画像選択部は、前記距離推定部で推定された距離と、前記類似度推定部で推定された類似度とに基づいて、前記カメラからの距離の違いが少なく、カメラに対する姿勢が異なる較正物体を撮影した3枚以上の画像群を選択する請求項4に記載のカメラキャリブレーション装置。 A distance estimation unit that estimates a distance from the camera to the calibration object according to a ratio of a region where the calibration object is captured with respect to an image of the calibration object;
A similarity estimation unit for estimating the degree of similarity of the posture of the calibration object with respect to the camera according to the difference in the shape of the area where the calibration object is captured with respect to the image group obtained by capturing the calibration object; ,
The target image selection unit is a calibration having a small difference in distance from the camera and a different posture with respect to the camera based on the distance estimated by the distance estimation unit and the similarity estimated by the similarity estimation unit. The camera calibration device according to claim 4, wherein three or more image groups obtained by photographing an object are selected.
前記被写体として姿勢の異なる較正物体を撮影した画像群から、前記較正物体の姿勢ごとに、前記画素と前記較正物体上の位置との対応関係に関する情報を取得する対応関係取得ステップと、
前記対応関係取得ステップで取得された前記対応関係に関する情報を用いて、前記較正物体の姿勢を推定して姿勢情報を出力する姿勢推定ステップと、
前記対応関係取得ステップで取得された前記対応関係に関する情報と、前記姿勢推定ステップで推定された前記姿勢情報と用いて、画素と光線との対応関係を示す光線情報を取得する光線情報取得ステップとを備え、
前記姿勢推定ステップは、複数の画像間における同一画素でサンプリングされた前記較正物体上の位置が、撮影空間において一直線上に存在することを用いて前記較正物体の姿勢を推定するカメラキャリブレーション方法。 A camera calibration method for associating each pixel of an image obtained by photographing a subject through a refraction layer with a light beam from the subject,
A correspondence acquisition step for acquiring information on a correspondence relationship between the pixel and the position on the calibration object for each posture of the calibration object from an image group obtained by photographing calibration objects having different postures as the subject;
A posture estimation step of estimating posture of the calibration object and outputting posture information using information on the correspondence acquired in the correspondence relationship acquisition step;
A ray information acquisition step of obtaining ray information indicating a correspondence relationship between a pixel and a ray by using the information related to the correspondence acquired in the correspondence acquisition step and the posture information estimated in the posture estimation step; With
The posture estimation step is a camera calibration method for estimating a posture of the calibration object by using a position on the calibration object sampled with the same pixel between a plurality of images on a straight line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015098252A JP6384961B2 (en) | 2015-05-13 | 2015-05-13 | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015098252A JP6384961B2 (en) | 2015-05-13 | 2015-05-13 | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016213783A true JP2016213783A (en) | 2016-12-15 |
JP6384961B2 JP6384961B2 (en) | 2018-09-05 |
Family
ID=57550193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015098252A Active JP6384961B2 (en) | 2015-05-13 | 2015-05-13 | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6384961B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018079845A1 (en) | 2016-10-31 | 2018-05-03 | 新日鐵住金株式会社 | Grain-oriented electromagnetic steel sheet |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008070347A (en) * | 2006-08-17 | 2008-03-27 | Univ Of Miyazaki | Automatic calibration device and calibration method |
-
2015
- 2015-05-13 JP JP2015098252A patent/JP6384961B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008070347A (en) * | 2006-08-17 | 2008-03-27 | Univ Of Miyazaki | Automatic calibration device and calibration method |
Non-Patent Citations (1)
Title |
---|
PETER STURM AND SRIKUMAR RAMALINGAM: "A Generic Concept for Camera Calibration", PROC. 8TH EUROPEAN CONFERENCE ON COMPUTER VISION (ECCV '04), JPN7018001828, May 2004 (2004-05-01), pages 1 - 13, ISSN: 0003844817 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018079845A1 (en) | 2016-10-31 | 2018-05-03 | 新日鐵住金株式会社 | Grain-oriented electromagnetic steel sheet |
Also Published As
Publication number | Publication date |
---|---|
JP6384961B2 (en) | 2018-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264509B (en) | Method, apparatus, and storage medium for determining pose of image capturing device | |
JP7058277B2 (en) | Reconstruction method and reconfiguration device | |
JPWO2018147329A1 (en) | Free viewpoint video generation method and free viewpoint video generation system | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
US20110249117A1 (en) | Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program | |
JP7227969B2 (en) | Three-dimensional reconstruction method and three-dimensional reconstruction apparatus | |
CN112561978B (en) | Training method of depth estimation network, depth estimation method of image and equipment | |
JP7123736B2 (en) | Image processing device, image processing method, and program | |
JP2019190974A (en) | Calibration device, calibration method and program | |
CN110462685B (en) | Three-dimensional model reconstruction method and system | |
JP6573196B2 (en) | Distance information correction apparatus, distance information correction method, and distance information correction program | |
JP2009186287A (en) | Plane parameter estimating device, plane parameter estimating method, and plane parameter estimating program | |
JP6384961B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium | |
JP6355206B2 (en) | Camera calibration method, camera calibration device, and camera calibration program | |
JP7067479B2 (en) | Displacement measuring device, displacement measuring system, displacement measuring method and program | |
JP6991700B2 (en) | Information processing equipment, information processing method, program | |
KR20150119770A (en) | Method for measuring 3-dimensional cordinates with a camera and apparatus thereof | |
CN115700611A (en) | Learning method, storage medium, and image processing apparatus | |
US9092840B2 (en) | Image processing apparatus, control method of the same and non-transitory computer-readable storage medium | |
JP2005063012A (en) | Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded | |
JP6297965B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6071142B2 (en) | Image converter | |
JP2015005200A (en) | Information processing apparatus, information processing system, information processing method, program, and memory medium | |
JP2017215706A (en) | Video synthesis method, video acquisition device, video synthesis system, and computer program | |
JP6168601B2 (en) | Image converter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6384961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |