JP2011086111A - Imaging apparatus calibration method and image synthesis device - Google Patents
Imaging apparatus calibration method and image synthesis device Download PDFInfo
- Publication number
- JP2011086111A JP2011086111A JP2009238338A JP2009238338A JP2011086111A JP 2011086111 A JP2011086111 A JP 2011086111A JP 2009238338 A JP2009238338 A JP 2009238338A JP 2009238338 A JP2009238338 A JP 2009238338A JP 2011086111 A JP2011086111 A JP 2011086111A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- error
- feature point
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
この発明は、複数の撮像装置が撮像した複数の画像データを、各撮像装置の位置関係に基づいて投影面上に合成するために、各撮像装置の位置関係を求める撮像装置校正方法、及び校正した撮像装置間の位置関係に基づいて全周画像を生成する画像合成装置に関するものである。 The present invention relates to an imaging device calibration method for obtaining a positional relationship of each imaging device and a calibration in order to synthesize a plurality of image data captured by the plurality of imaging devices on a projection plane based on the positional relationship of each imaging device. The present invention relates to an image synthesizing device that generates an all-round image based on the positional relationship between imaging devices.
複数のカメラ(撮像装置)が撮像した画像を合成して全周画像を生成するためには、各カメラの画像間の関係を求める必要がある。
従来、各カメラ画像間の関係を求めるカメラ校正手法として、平面射影変換に基づく手法がある。この平面射影変換は、各カメラの撮像対象が同一平面上にある場合にカメラ画像間に成り立つ変換であり、カメラ画像座標間の関係を記述した変換行列である。例えば、特許文献1のカメラ校正方法では、車両の前後左右に取り付けた4つのカメラについて、隣接する前−右カメラ間、前−左カメラ間、後−右カメラ間、後−左カメラ間のそれぞれの共通撮像領域に特徴点を配置し、隣接するカメラ画像上の特徴点の座標値対応関係に基づき、合成画像座標への変換パラメータを平面射影変換によって求める。各カメラで撮像した画像を地面上に投影して合成する際には、これらの変換パラメータを用いて撮像画像における各点の座標を地面上の座標に変換する。
In order to synthesize images captured by a plurality of cameras (imaging devices) and generate an all-round image, it is necessary to obtain a relationship between the images of the cameras.
Conventionally, as a camera calibration method for obtaining a relationship between camera images, there is a method based on planar projective transformation. This planar projective transformation is a transformation that is established between the camera images when the imaging target of each camera is on the same plane, and is a transformation matrix that describes the relationship between the camera image coordinates. For example, in the camera calibration method of Patent Document 1, for four cameras attached to the front, rear, left, and right of a vehicle, each of adjacent front-right cameras, front-left cameras, rear-right cameras, and rear-left cameras. The feature points are arranged in the common imaging region, and the conversion parameter to the composite image coordinates is obtained by plane projective transformation based on the coordinate value correspondence of the feature points on the adjacent camera images. When an image captured by each camera is projected onto the ground and synthesized, the coordinates of each point in the captured image are converted into coordinates on the ground using these conversion parameters.
また、撮像対象の3次元位置から各カメラの3次元位置姿勢を求め、求めた各カメラの位置姿勢からカメラ画像間の関係を求めるカメラ校正手法もある。例えば、非特許文献1の方法では、先ず、1番目のカメラで撮像された3次元物体の座標からこの1番目のカメラの位置を決定し、次に、位置が決定された1番目のカメラとこれから位置を決定する2番目のカメラに共通して撮像された物体の3次元位置を1番目のカメラのカメラ座標から求め、その3次元位置から2番目のカメラの位置を決定するようにして、複数のカメラのカメラ位置の校正を順番に行っていた。 There is also a camera calibration method for obtaining the three-dimensional position and orientation of each camera from the three-dimensional position of the imaging target and obtaining the relationship between the camera images from the obtained position and orientation of each camera. For example, in the method of Non-Patent Document 1, first, the position of the first camera is determined from the coordinates of a three-dimensional object imaged by the first camera, and then the first camera whose position is determined The three-dimensional position of the object imaged in common with the second camera for determining the position is determined from the camera coordinates of the first camera, and the position of the second camera is determined from the three-dimensional position. The camera positions of multiple cameras were calibrated sequentially.
従来のカメラ校正方法は以上のように構成されているので、特許文献1のように平面射影変換を用いる場合には、撮像対象が同一平面上に存在しなければならないという課題があった。そのため、360度の全周画像を合成する場合には、全てのカメラが撮像できる平面が存在し得ないので、平面射影変換では合成できない。全周を複数の平面に分割する方法もあるが、平面間の接合部分で不自然な画像となってしまうという問題が発生する。 Since the conventional camera calibration method is configured as described above, there is a problem that the imaging target must exist on the same plane when the planar projective transformation is used as in Patent Document 1. Therefore, when synthesizing a 360-degree all-round image, there cannot be a plane that can be captured by all cameras, and thus it cannot be synthesized by plane projective transformation. Although there is a method of dividing the entire circumference into a plurality of planes, there arises a problem that an unnatural image is formed at a joint portion between the planes.
また、非特許文献1のように撮像対象となる物体の3次元座標を用いる場合には、物体の3次元位置を測定する手法が必要であり、特に物体が遠距離にある場合には、物体の位置を正確に測定することが困難であるという課題があった。また、前のカメラ位置から順に次のカメラ位置を校正すると、校正の際の誤差が順に蓄積し、最後に校正したカメラでは1番目に構成したカメラと比較して相対的に誤差が大きくなってしまう。このように、誤差の蓄積が発生する手法を用いると、最初に校正されたカメラの撮像画像と最後に校正されたカメラの撮像画像が合成された全周画像において、最初に校正されたカメラの撮像画像と最後に校正されたカメラの撮像画像の合成部分の誤差が他の合成部分の誤差より大きくなってしまい、均一な全周画像が得られないという課題があった。 In addition, when using the three-dimensional coordinates of the object to be imaged as in Non-Patent Document 1, a method for measuring the three-dimensional position of the object is necessary, particularly when the object is at a long distance. There is a problem that it is difficult to accurately measure the position of. In addition, when the next camera position is calibrated sequentially from the previous camera position, errors at the time of calibration accumulate in order, and the last calibrated camera has a relatively larger error than the first configured camera. End up. In this way, using a method in which error accumulation occurs, the first calibrated camera's first calibrated camera image is combined with the last calibrated camera's captured image. There is a problem in that an error in the combined portion of the captured image and the captured image of the camera calibrated at the end is larger than an error in other combined portions, and a uniform all-round image cannot be obtained.
この発明は、上記のような課題を解決するためになされたもので、複数の撮像装置の撮像画像を合成して全周画像を生成する画像合成装置に対して、撮像対象物体の正確な3次元座標位置が分からなくとも各撮像装置の校正を行うと共に、各撮像装置間の誤差を均一に校正する撮像装置校正方法を提供することを目的とする。また、この撮像装置校正方法により校正した撮像装置の位置関係を用いて、合成誤差を全周画像全体で均一にする画像合成装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides an image capturing apparatus that accurately captures an object to be imaged with respect to an image composition apparatus that synthesizes captured images of a plurality of image capturing apparatuses to generate an entire circumference image. An object of the present invention is to provide an imaging apparatus calibration method that calibrates each imaging apparatus even if the dimensional coordinate position is not known, and uniformly calibrates an error between the imaging apparatuses. It is another object of the present invention to provide an image composition apparatus that makes the composition error uniform over the entire peripheral image using the positional relationship of the image capture apparatus calibrated by the image capture apparatus calibration method.
この発明に係る撮像装置校正方法は、隣接する撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定ステップと、各撮像装置の既知の位置関係に基づいて、複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定ステップと、初期位置設定ステップで設定した回転移動量及び平行移動量と、特徴点設定ステップで設定した特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正ステップとを備えるものである。 The imaging device calibration method according to the present invention includes a feature point setting step of extracting an object imaged in common between the adjacent imaging devices from each image data of the adjacent imaging devices, and setting the feature points as feature points. An initial position for setting the relative position of the other imaging device using the rotational movement amount and the parallel movement amount based on the position of the specific imaging device among the plurality of imaging devices based on the known positional relationship of the imaging device Using the setting step, the rotational movement amount and the parallel movement amount set in the initial position setting step, and the coordinate value on the image of the feature point set in the feature point setting step, the actual position of the positional relationship of each imaging device An image pickup apparatus position correcting step for correcting an error from the image pickup apparatus position.
また、この発明に係る画像合成装置は、全周を分割して撮像する複数の撮像装置と、複数の撮像装置が撮像した複数の画像データを取得する画像取得部と、隣接する撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定部と、各撮像装置の既知の位置関係に基づいて、複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定部と、初期位置設定部が設定した回転移動量及び平行移動量と、特徴点設定部で設定した特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正部と、撮像装置位置補正部が補正した位置関係に基づいて、複数の画像データを投影面上に合成し、全周画像を生成する画像合成部とを備えるものである。 The image composition device according to the present invention includes a plurality of imaging devices that divide and capture the entire circumference, an image acquisition unit that acquires a plurality of image data captured by the plurality of imaging devices, and each of the adjacent imaging devices. Based on the known positional relationship between each imaging device and a feature point setting unit that extracts from the image data each object imaged in common between the adjacent imaging devices and sets it as a feature point. An initial position setting unit that sets the relative position of the other imaging device using the rotational movement amount and the parallel movement amount with reference to the position of the specific imaging device, and the rotational movement amount and parallel set by the initial position setting unit An imaging device position correction unit that corrects an error from the actual position of the positional relationship of each imaging device using the movement amount and the coordinate value on the image of the feature point set by the feature point setting unit; Positional relationship corrected by the correction unit Based on, synthesizing a plurality of image data on the projection plane, in which and an image synthesizing unit for generating an all-around image.
この発明によれば、各撮像装置の位置関係として設定された回転移動量及び平行移動量と、特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正するようにしたので、特徴点である撮像対象物体の3次元座標位置を用いることなく各撮像装置の校正を行うことができると共に、各撮像装置間の誤差を均一に校正することのできる撮像装置校正方法を提供することができる。 According to the present invention, the rotational movement amount and the parallel movement amount set as the positional relationship of each imaging device, and the coordinate value on the image of the feature point, from the actual position of the positional relationship of each imaging device. Since the error is corrected, each imaging apparatus can be calibrated without using the three-dimensional coordinate position of the imaging target object that is the feature point, and the error between the imaging apparatuses can be calibrated uniformly. An imaging apparatus calibration method that can be provided can be provided.
また、この発明によれば、各撮像装置の位置関係として設定された回転移動量及び平行移動量と、特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正し、補正した位置関係に基づいて複数の画像データを投影面上に合成し、全周画像を生成するようにしたので、特徴点である撮像対象物体の3次元座標位置を用いることなく各撮像装置の校正を行うことができると共に、各撮像装置間の誤差を均一に校正することができ、さらに、画像の合成誤差を全周画像全体で均一にすることのできる画像合成装置を提供することができる。 In addition, according to the present invention, the actual position of the positional relationship of each imaging device using the rotational movement amount and the parallel movement amount set as the positional relationship of each imaging device and the coordinate value on the image of the feature point. Is corrected, and a plurality of image data is synthesized on the projection plane based on the corrected positional relationship to generate an all-round image. Therefore, the three-dimensional coordinate position of the imaging target object that is a feature point is determined. It is possible to calibrate each imaging device without using it, to calibrate the error between each imaging device uniformly, and to make image synthesis error uniform over the entire perimeter image An apparatus can be provided.
実施の形態1.
図1は、この発明の実施の形態1に係る画像合成装置の構成を示すブロック図である。この画像合成装置は、カメラ部101、画像取得部102、画像データ記憶部103、特徴点設定部104、特徴点位置補正部105、カメラ初期位置設定部106、カメラ位置補正部107、画像補正データ記憶部108、カメラ位置データ記憶部109、画像合成部110を備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an image composition apparatus according to Embodiment 1 of the present invention. The image composition apparatus includes a
カメラ部101は、カメラ(撮像装置)1〜4の4台を備え、全周を4分割して両端が重複するように撮像し、各画像を出力する。なお、本実施の形態1ではカメラが4台の場合を例に説明するが、これに限定されるものではなく、全周を何台のカメラで分割して撮像してもよい。画像取得部102は、カメラ部101から画像データを取得し、画像データ記憶部103に保存する。なお、画像データ記憶部103、画像補正データ記憶部108及びカメラ位置データ記憶部109は、メモリ等の記憶媒体から構成される。
The
特徴点設定部104は、画像データ記憶部103に保存された画像データ上に、校正に必要な特徴点を設定する。特徴点位置補正部105は、画像補正データ記憶部108に保存された画像補正データを用いて、画像データ上に設定された特徴点の位置を透視カメラで撮像した場合の位置に変換する。カメラ初期位置設定部106は、カメラ位置データ記憶部109に保存されたカメラ1〜4の初期位置データを取得して、カメラ位置に設定する。カメラ位置補正部107は、特徴点位置補正部105により補正された特徴点を用いて、カメラ1〜4のカメラ初期位置を現実に配置固定された正しいカメラ位置に補正すると共に、補正したカメラ位置を実際位置データとしてカメラ位置データ記憶部109に記憶させる。
The feature
画像合成部110は、カメラ位置データ記憶部109に記憶されたカメラ1〜4の実際位置データを用いて、カメラ1〜4が撮像した画像を合成し、全周画像を生成する。
The
次に、画像合成装置の動作を説明する。図2は、実施の形態1に係る画像合成装置の動作を示すフローチャートである。
先ず、画像取得部102がカメラ部101に撮像を指示すると、カメラ部101がカメラ1〜4を制御して同時に撮像を行う。そして、画像取得部102は撮像された画像データをカメラ部101より取得し、画像データ記憶部103に保存させる(ステップST1)。
Next, the operation of the image composition apparatus will be described. FIG. 2 is a flowchart showing the operation of the image composition apparatus according to the first embodiment.
First, when the
図3は、図1に示すカメラ部101の各カメラ1〜4の配置例を示すカメラ配置図である。図3において、カメラ部101は、カメラ1、カメラ2、カメラ3及びカメラ4の4台からなり、全周を撮像するように隣同士を略90度の角度を持って配置固定されている。各カメラ1〜4を配置した空間に、カメラ1の配置位置を基準にした仮想の3次元座標軸を設定し、この3次元座標軸をカメラ1のカメラ座標系と称す。
FIG. 3 is a camera arrangement diagram showing an arrangement example of the cameras 1 to 4 of the
また、カメラ2〜4の配置位置は、カメラ1の配置位置を基準とした相対位置として規定される。この相対位置は、カメラの回転移動R及び平行移動Tからなる移動量で表現することとし、回転移動Rは3×3の行列、平行移動Tは1×3の行列(ベクトル)とする。図3では、カメラ1に対するカメラ2の相対位置を回転移動R2及び平行移動T2で表現し、カメラ1に対するカメラ3の相対位置を回転移動R3及び平行移動T3で表現し、カメラ1に対するカメラ4の相対位置を回転移動R4及び平行移動T4で表現する。
なお、カメラ2〜4の配置位置を、カメラ座標系の絶対座標としての座標値と回転角で表現してもよい。この表現方法であっても、平行移動T及び回転移動Rで表現する相対位置に簡単に変換できる。
In addition, the arrangement positions of the
In addition, you may express the arrangement position of the cameras 2-4 with the coordinate value and rotation angle as an absolute coordinate of a camera coordinate system. Even this expression method can be easily converted into a relative position expressed by the parallel movement T and the rotational movement R.
続いて、特徴点設定部104が、画像データ記憶部103に保存された画像データ上に特徴点を設定する(ステップST2、特徴点設定ステップ)。特徴点とは、2つのカメラに共通する撮像領域にあって、2つのカメラから共通に撮像できる物体の画像上の点である。図3の例では、カメラ1の撮像視野201とカメラ2の撮像視野202が重なる共通撮像領域から、複数の特徴点211,212が抽出される。また、カメラ2の撮像視野202とカメラ3の撮像視野203が重なる共通撮像領域から複数の特徴点213,214が抽出され、カメラ3の撮像視野203とカメラ4の撮像視野204が重なる共通撮像領域から複数の特徴点215,216が抽出され、カメラ4の撮像視野204とカメラ1の撮像視野201が重なる共通撮像領域から複数の特徴点217,218が抽出される。
Subsequently, the feature
特徴点設定部104は、各カメラ1〜4が撮像した画像それぞれに2次元座標軸を設定し、ある特徴点について、一方の画像データに設定した2次元座標で表す座標値と、他方の画像データに設定した2次元座標で表す座標値をペアにして保存する。この2次元座標軸を、画像座標系と称す。例えば、カメラ1の画像データの横i1番目、縦j1番目のピクセルに特徴点があり、同一の特徴点がカメラ2の画像データの横i2番目、縦j2番目のピクセルにある場合には、カメラ1の画像座標系で表す座標値(i1,j1)とカメラ2の画像座標系で表す座標値(i2,j2)がペアで保存される。
The feature
本実施の形態1では、特徴点を設定する方法として、例えば、ユーザが画像を比較して画像データ上の座標値を入力して設定する方法、又は、SIFT(Scale−Invariant Feature Transform)のような画像処理を利用して特徴点を自動抽出してその座標値を設定する方法を用いる。画像処理を利用して特徴点を抽出する場合には、特徴点の座標値が(5.5,10.3)というように小数点の値になってもよい。 In the first embodiment, as a method of setting feature points, for example, a method in which a user compares images and inputs coordinate values on image data, or SIFT (Scale-Invariant Feature Transform) is used. A method of automatically extracting feature points by using simple image processing and setting the coordinate values is used. When feature points are extracted using image processing, the coordinate values of the feature points may be decimal values such as (5.5, 10.3).
続いて、特徴点位置補正部105は、画像補正データ記憶部108に予め設定されている画像補正データ(カメラ1〜4それぞれの内部パラメータ及びレンズ歪補正パラメータ等)により、特徴点設定部104が抽出した特徴点の位置を補正して、透視カメラで撮像した場合の位置に変換する(ステップST3)。一般にカメラは内部パラメータ及びレンズ歪により、透視カメラとはみなせない。そのため、カメラ1〜4も透視カメラとみなせない場合には、カメラ1〜4の画像データ上の特徴点の位置を、透視カメラで撮像した場合の位置に変換する必要がある。これは、ステップST4以降の各処理が、カメラ1〜4が透視カメラとみなせることを前提にして行う処理だからである。
なお、カメラ1〜4が透視カメラとみなせるのであればステップST3の処理は不要である。
Subsequently, the feature point
If the cameras 1 to 4 can be regarded as fluoroscopic cameras, the process of step ST3 is unnecessary.
本実施の形態1では、特徴点の位置を補正する方法として、例えば「Z.Zhang、A Flexible New Technique for Camera Calibration、Microsoft Research Technical Report MSR−TR−98−71、1999」に記載された手法により、予め画像補正データをカメラ毎に取得し、その画像補正データを用いて補正式により画像データ上の特徴点の位置を補正する方法を用いる。 In the first embodiment, as a method for correcting the position of a feature point, for example, a method described in “Z. Zhang, A Flexible New Technology for Camera Calibration, Microsoft Research Technical Report MSR-TR-98-71”, 1999. Thus, a method of acquiring image correction data for each camera in advance and correcting the position of the feature point on the image data using a correction formula using the image correction data is used.
続いて、カメラ初期位置設定部106は、カメラ位置データ記憶部109に保存されているカメラ1〜4の初期位置データを取得して、カメラ位置に設定する(ステップST4、初期位置設定ステップ)。上述のように、カメラ2〜4の初期位置は、カメラ1のカメラ座標系においてカメラ1の配置位置を基準とした回転移動R及び平行移動Tで表現する相対位置である。この初期位置データとしては、例えば、カメラ1〜4を固定するためのジグの設計値、又は、実際に配置固定したカメラ1〜4間の距離及び角度の測定値を用いる。いずれの場合にも、ジグの精度、カメラ配置固定時の誤差、測定時の誤差等に起因して、初期位置はカメラ1〜4の実際の配置固定位置(実際位置)に対して誤差を持つと考えられ、この誤差が合成画像生成時のずれとして表示されてしまう。そこで、この誤差を補正して、合成画像生成時に誤差が小さくなるようなカメラ1〜4の実際位置を求めることが必要となる。この誤差の補正をカメラ位置補正部107が行う。
Subsequently, the camera initial
続いて、カメラ位置補正部107は、カメラ1〜4の初期位置を補正して実際位置を求める(ステップST5、撮像装置位置補正ステップ)。この補正処理では、カメラ位置補正部107が基本行列を用いてカメラ位置の補正を行うため、先ず、この基本行列について以下に説明する。なお、基本行列についてのより詳細な説明は「佐藤淳、コンピュータビジョン―視覚の幾何学―、コロナ社、pp.83〜85,89」に記載されている。
Subsequently, the camera
図4は、3次元座標軸が設定された空間内に配置された2つの透視カメラA,Bから撮像対象305を見たときの関係を示す図である。図4において、透視カメラAは、その光学中心である視点301の位置に配置され、撮像面303の方向を向いている。他方、透視カメラBは、その視点302の位置に配置され、撮像面304の方向を向いている。撮像対象305は特徴点として撮像面303,304上に抽出・設定される物体であり、透視カメラA,Bと同じ空間に配置されている。また、透視カメラAの視点301から撮像対象305へ延びる直線と撮像面303とが交わる点を交点306とし、透視カメラBの視点302から撮像対象305へ延びる直線と撮像面304とが交わる点を交点307とする。この交点306は、透視カメラAが撮像した画像である撮像面303上に設定される特徴点であり、交点307は、透視カメラBが撮像した画像である撮像面304上に設定される特徴点である。また、透視カメラAの視点301と透視カメラBの視点302とを結ぶ直線が、撮像面303と交わる点を交点308とし、撮像面304と交わる点を交点309とする。また、交点306と交点308を結ぶ線を直線310とし、交点307と交点309を結ぶ線を直線311とする。なお、撮像面303,304上の交点306〜309は2次元の画像座標系の座標値で表される。
FIG. 4 is a diagram illustrating a relationship when the
一般に、交点308,309はエピポールと呼ばれ、直線310,311はエピポーラ線と呼ばれる。また、視点301と視点302の相対位置は回転移動R及び平行移動Tで表現し、透視カメラAの座標系での視点301から交点306へ向かうベクトルをx’とし、透視カメラBの座標系での視点302から交点307へ向かうベクトルをxとする。
ここで、透視カメラA,Bの座標系を説明する。図5は、透視カメラAを例にして、カメラ座標系を説明する図である。透視カメラAの座標系とは、視点301から伸びる視線方向に平行なZ軸と、Z軸に対して鉛直方向に伸び、撮像面303上に射影したY軸と、Z軸及びY軸に直交するX軸とから定義される座標系である。
In general, the intersection points 308 and 309 are called epipoles, and the
Here, the coordinate system of the perspective cameras A and B will be described. FIG. 5 is a diagram for explaining the camera coordinate system using the perspective camera A as an example. The coordinate system of the perspective camera A is a Z-axis parallel to the line-of-sight direction extending from the
図4に示すベクトルx’,x間には以下の関係式(1)が成り立つ。
ただし、[T]×は、Tと任意のベクトルVとの外積を[T]×V=T×Vと表せる行列である。下式(1)においてEは基本行列と呼ばれ、式(2)で定義するように、2つの透視カメラA,Bの画像座標間に成り立つ一般的な関係を表す行列である。この関係は、視点301,302から撮像面303,304上の座標に対するベクトル表現で記述されており、実際の撮像対象305までの距離に係わらず成り立つ。従って、基本行列Eを用いる本補正処理では、撮像対象305の3次元座標を用いることなく、透視カメラA,Bの画像データから求めたベクトルx’,xから実際のカメラ位置を求めることが可能である。
The following relational expression (1) is established between the vectors x ′ and x shown in FIG.
However, [T] × is a matrix that can express the outer product of T and an arbitrary vector V as [T] × V = T × V. In the following equation (1), E is called a basic matrix, and is a matrix representing a general relationship that holds between the image coordinates of the two perspective cameras A and B, as defined by equation (2). This relationship is described in a vector expression with respect to the coordinates on the imaging surfaces 303 and 304 from the
しかし、カメラ1〜4の初期位置データのように、実際位置に対して位置データに誤差がある場合には、上式(1)が成り立たない。そこで、カメラ位置補正部107による補正処理では、後述する誤差評価法に基づいて、カメラ1〜4の初期位置と実際位置の誤差を、上式(1)に基づいて評価し、全体の誤差を最小化するカメラ2〜4の相対位置を求めることにより、実際にカメラが配置固定されている正確な位置を求める。
However, when there is an error in the position data with respect to the actual position as in the initial position data of the cameras 1 to 4, the above equation (1) does not hold. Therefore, in the correction process by the camera
ここで、誤差の評価法を説明する。
上式(1)において、Ex=lとすると、上式(1)は下式(3)となり、この式(3)のlは、ベクトルx’の通る直線とみなすことができる。この直線を一般的にエピポーラ線と呼ぶ(詳細は上記文献を参照)。
Here, an error evaluation method will be described.
In the above equation (1), when Ex = 1, the above equation (1) becomes the following equation (3), and l in this equation (3) can be regarded as a straight line through which the vector x ′ passes. This straight line is generally called an epipolar line (see the above-mentioned document for details).
図6は、カメラ初期位置と実際のカメラ相対位置の誤差を評価する方法を説明する図である。図6において、直線401が上式(3)のエピポーラ線lに対応する直線である。透視カメラAを基準にした透視カメラBの回転移動R及び平行移動Tが実際位置に等しければ、エピポーラ線lに対応する直線は、直線310のように特徴点である交点306を通過する直線となる。しかし、回転移動R及び平行移動Tに実際位置との誤差がある場合には交点306が直線401上に乗らないため、交点306と直線401の距離402を、この回転移動R及び平行移動Tに含まれる誤差として評価する。
FIG. 6 is a diagram illustrating a method for evaluating an error between the camera initial position and the actual camera relative position. In FIG. 6, a
次に、上記誤差評価法に基づくカメラ位置補正部107の動作、即ち図2に示すステップST5の詳細を説明する。図7は、カメラ位置補正部107の動作を示すフローチャートである。カメラ位置補正部107の補正処理開始時、カメラ1〜4のカメラ位置は、カメラ初期位置設定部106によって設定された初期位置である。
Next, the operation of the camera
カメラ位置補正部107は、先ず、カメラ1を基準とするカメラ座標系で記述されたカメラ1のカメラ位置から、隣接するカメラ2〜4のカメラ座標系の変換式を求める(ステップST11)。これは、特徴点は隣接するカメラに共通して撮像されるため、上式(1)を適応するためには、隣接するカメラ間の回転移動R及び平行移動Tを求めることが必要であるからである。
具体的には、カメラ位置補正部107が、カメラ1の3次元座標値(x,y,z)=X1からカメラ1に隣接するカメラ2の3次元座標値X2、カメラ4の3次元座標値X4への座標系変換を、相対位置R2,T2,R4,T4を用いて下式(4),(5)により行う。
X2=R2X1+T2 (4)
X4=R4X1+T4 (5)
First, the camera
Specifically, the camera
X 2 = R 2 X 1 + T 2 (4)
X 4 = R 4 X 1 + T 4 (5)
同様に、カメラ位置補正部107はカメラ1からカメラ3への座標系変換を、相対位置R3,T3を用いて下式(6)により行う。
X3=R3X1+T3 (6)
Similarly, the camera
X 3 = R 3 X 1 + T 3 (6)
また、残る隣接関係であるカメラ2とカメラ3、カメラ3とカメラ4の関係は、それぞれ式(4)と式(6)、式(5)と式(6)を変形させることにより、下式(7),(8)と表せる。従って、カメラ位置補正部107は、下式(7),(8)を用いて、カメラ3からカメラ2、カメラ3からカメラ4への座標系変換を行う。これにより、カメラ位置補正部107は、全ての隣接カメラ間の座標系変換式を得る。
X2=R2R3 -1(X3−T3)+T2 (7)
X4=R4R3 -1(X3−T3)+T4 (8)
Further, the remaining relationship between the
X 2 = R 2 R 3 -1 (X 3 -T 3 ) + T 2 (7)
X 4 = R 4 R 3 −1 (X 3 −T 3 ) + T 4 (8)
続いて、カメラ位置補正部107は、ステップST11で求めた隣接カメラ間の座標系変換式(4)〜(8)を上式(2)に適用して、隣接するカメラ間の基本行列Eを求める(ステップST12)。
Subsequently, the camera
続いて、カメラ位置補正部107は、実際に撮像された画像上に設定された各特徴点211〜218の誤差、即ち交点とエピポーラ線との距離を、対応するカメラ間の基本行列Eを用いて上式(1)によりそれぞれ計算し、各特徴点211〜218の誤差の合計値を求める(ステップST13)。
以上、ステップST11〜ST13が誤差評価ステップである。
Subsequently, the camera
As described above, steps ST11 to ST13 are error evaluation steps.
続いて、カメラ位置補正部107は、ステップST13で求めた誤差の合計値が予め設定された指定値より大きい場合には(ステップST14“NO”)、続くステップST15にて現在のカメラ位置(即ち相対位置R2,T2,R3,T3,R4,T4)を変数として修正する。ステップST15で用いる修正方法としては、例えば、シンプレックス法、パウエル法等の一般的な関数最小化手法に基づいて修正する方法がある。
Subsequently, when the total value of the errors obtained in step ST13 is larger than the preset specified value (step ST14 “NO”), the camera
続いて、カメラ位置補正部107は、ステップST15で修正した新たなカメラ位置を用いてステップST11〜ST14の各処理を行い、新たなカメラ位置に基づく誤差の合計値が指定値以下になれば(ステップST14“YES”)、この新たなカメラ位置を実際位置データとしてカメラ位置データ記憶部109に出力する(ステップST16)。
以上、ステップST14〜ST16が誤差最小化ステップである。
Subsequently, the camera
As described above, steps ST14 to ST16 are error minimization steps.
説明を図2のフローチャートに戻す。画像合成部110は、ステップST5で求めた実際位置データを用いて、3次元空間上にある連続した面にカメラ1〜4が撮像した画像を投影することにより、合成画像を生成する(ステップST6)。
The description returns to the flowchart of FIG. The
図8は、画像合成部110の画像合成方法を説明する図である。図8では画像投影のための連続した投影面として円柱面500を用いた例を示すが、これに限定されるものではなく、一般的には連続面として円柱の他に球又は立方体が用いられる。ステップST5の補正処理によりカメラ1〜4の実際位置データが得られたので、画像合成部110はこの実際の配置位置及び姿勢に基づいて、各カメラ1〜4の画像を円柱面500にそれぞれ投影する。画像合成部110は、例えばカメラ1であれば、カメラ1の視点とカメラ画像1a上の各点(例えばピクセル)を結ぶ各直線を円柱面500まで延長し、各直線と円柱面500との各交点位置にカメラ画像1a上の各点の色を設定する。カメラ画像1a上の特徴点217も円柱面500に投影される。これにより、カメラ画像1aが円柱面500に投影され、投影画像1bが得られる。画像合成部110がこの処理を他のカメラ2〜4に対して行うことにより、連続した全周画像が生成される。
FIG. 8 is a diagram for explaining an image composition method of the
ここで、カメラ1とカメラ4に共通して設定された特徴点217を考える。特徴点217は、同一の撮像対象をカメラ1,4で撮像したものであるため、円柱面500の同じ位置に投影されなければならない。しかし、例えばカメラ4の位置がずれていると、カメラ4のカメラ画像4a上の特徴点217も円柱面500上のずれた位置(特徴点217’)に投影されてしまう。そのため、合成後の全周画像にもずれが生じてしまう。このようなずれを防止するために、本実施の形態1では、カメラ位置補正部107により初期位置データを補正して実際位置データを求める。この際、カメラ位置補正部107は全てのカメラ1〜4間の誤差を一括して最小化するので、特定のカメラ間の誤差の蓄積が発生しない。この結果、画像合成部110において合成誤差が均一な全周画像を合成することができる。
Here, a
以上より、実施の形態1によれば、複数のカメラ1〜4が全周を分割して撮像し、画像取得部102がカメラ1〜4の撮像した複数の画像データを取得し、特徴点設定部104が隣接するカメラ間の各画像データから共通に撮像された撮影対象物体をそれぞれ抽出して特徴点に設定し、カメラ初期位置設定部106がカメラ位置データ記憶部109に記憶された初期位置データに基づいてカメラ1の位置を基準にしてカメラ2〜4の相対位置を回転移動R2,R3,R4及び平行移動T2,T3,T4を用いて設定し、カメラ位置補正部107が回転移動R2,R3,R4及び平行移動T2,T3,T4から基本行列を求め、特徴点の画像上の座標値を用いて基本行列の誤差、即ち隣接するカメラ間で撮像された2つの画像データにおけるエピポーラ線と当該2つの画像データに共通する特徴点の座標位置との距離、を算出し、回転移動R2,R3,R4及び平行移動T2,T3,T4を変数にして誤差を最小化し、誤差を最小化したときの回転移動R2,R3,R4及び平行移動T2,T3,T4の値を補正後のカメラ1〜4の実際位置にするように構成した。このため、特徴点の3次元座標値を用いることなく、画像上の特徴点の座標値から求める基本行列をもとにカメラ1〜4の相対位置を求めるため、特徴点の3次元座標値を測定する必要がない。また、従来のようなカメラ間の位置関係を順に決定している手法と異なり、全てのカメラ間の誤差を一括して最小化するため、特定のカメラ位置への誤差の蓄積が発生せず、全てのカメラ間の誤差を均一に補正することができる。
As described above, according to the first embodiment, the plurality of cameras 1 to 4 divide the entire circumference and capture images, and the
また、画像合成部110が、カメラ位置補正部107が補正したカメラ1〜4の相対位置に基づいて、カメラ1〜4の画像データを円柱面500上に合成し、全周画像を生成するように構成した。カメラ位置補正部107は全てのカメラ間の誤差を一括して最小化しているので、この値を用いて合成した全周画像の画像間の合成誤差も均一にすることができる。
Further, the
実施の形態2.
上記実施の形態1では、カメラ1を基準にした各カメラ2〜4の平行移動T2,T3,T4及び回転移動R2,R3,R4を変数として用い、カメラ1〜4の初期位置と実際位置との誤差を最小化したが、回転移動R2,R3,R4のみを変数として用いてもよい。本実施の形態2では、回転移動R2,R3,R4のみを変数として用いる構成の画像合成装置を説明する。なお、本実施の形態2の画像合成装置は、図1に示す画像合成装置と図面上では同様の構成であるため、以下では図1を援用して説明する。
In the first embodiment, the parallel movements T 2 , T 3 , T 4 and the rotational movements R 2 , R 3 , R 4 of the
一般に、撮像対象が遠距離にある場合、カメラ1〜4の平行移動の誤差より回転移動の誤差の方が投影画像に与える影響が大きい。図9は、カメラの平行移動により発生したずれと回転移動により発生したずれを説明する図である。図9において、不図示のカメラは、真の視点601に位置し、撮像面602の方向を向いて撮像対象603を撮像する。視点601から撮像対象603へ延びる直線と撮像面602とが交わる2次元座標位置を交点604とする。
In general, when the imaging target is at a long distance, the rotational movement error has a greater influence on the projection image than the parallel movement error of the cameras 1 to 4. FIG. 9 is a diagram for explaining the deviation caused by the parallel movement of the camera and the deviation caused by the rotational movement. In FIG. 9, a camera (not shown) is located at the
ここで、カメラ校正の結果、カメラ位置に誤差があり、実際に撮像された撮像面602上には、交点605の2次元座標位置に撮像対象603があるとする。このカメラ位置の誤差が平行移動によるものである場合には、カメラ位置は視点606の3次元座標位置として求められる。この場合、視点606と交点605から求められる撮像対象603の位置は、撮像対象607の3次元座標位置となる。つまり、撮像対象603,607の位置のずれが平行移動によるずれとなる。
他方、ずれが回転方向により生ずる場合には、真の視点601と交点605から求められる撮像対象603の位置は、撮像対象608の3次元座標位置となり、撮像対象603,608の位置のずれが回転移動によるずれとなる。
Here, it is assumed that there is an error in the camera position as a result of camera calibration, and the
On the other hand, when the deviation occurs depending on the rotation direction, the position of the
平行移動によるずれは、真の視点601と撮像対象603の距離にかかわらず一定になるのに対し、回転移動によるずれは、真の視点601と撮像対象603の距離が大きくなるほど増加する。従って、撮像対象が遠距離であるほど、画像合成時に平行移動の合成ずれの割合が小さくなり、回転移動の合成ずれが支配的となる。
The shift due to the parallel movement becomes constant regardless of the distance between the
そこで、本実施の形態2に係る画像合成装置では、カメラ位置補正部107が図7に示すステップST15において、合成ずれに影響しやすい回転移動R2,R3,R4のみを変数として修正して、誤差の合計値を最小化する。なお、平行移動T2,T3,T4については、カメラ初期位置設定部106が補正処理開始前にカメラ位置として設定した初期位置データの値で固定すればよい。変数の数を少なくできることにより、誤差の合計値収束までの繰り返し処理の回数を減らし、高速にカメラ1〜4の実際位置を求めることができる。
Therefore, in the image composition device according to the second embodiment, the camera
以上より、実施の形態2によれば、カメラ位置補正部107が、回転移動R2,R3,R4及び平行移動T2,T3,T4から基本行列を求め、特徴点の画像上の座標値を用いて基本行列の誤差、即ち隣接するカメラ間で撮像された2つの画像データにおけるエピポーラ線と当該2つの画像データに共通する特徴点の座標位置との距離、を算出し、回転移動R2,R3,R4を変数にして誤差を最小化し、誤差を最小化したときの回転移動R2,R3,R4及びカメラ初期位置設定部106が設定した平行移動T2,T3,T4の値を補正後のカメラ1〜4の実際位置にするように構成した。このため、上記実施の形態1の効果に加えて、回転移動Rのみを変数として誤差を最小化したことにより、収束までの繰り返し処理の回数を減らし、高速にカメラ位置を校正することができる効果がある。
As described above, according to the second embodiment, the camera
1,2,3,4 カメラ(撮像装置)、101 カメラ部、102 画像取得部、103 画像データ記憶部、104 特徴点設定部、105 特徴点位置補正部、106 カメラ初期位置設定部、107 カメラ位置補正部、108 画像補正データ記憶部、109 カメラ位置データ記憶部、110 画像合成部、201〜204 撮像視野、211〜218 特徴点、301 透視カメラAの視点、302 透視カメラBの視点、303 透視カメラAの撮像面、304 透視カメラBの撮像面、305 撮像対象、306,307 交点、308,309 交点(エピポール)、310,311 直線(エピポーラ線)、401 直線(エピポーラ線)、402 距離(誤差)、500 円柱面、601 真の視点、602 撮像面、603,607,608 撮像対象、604,605 交点、606 視点、A,B 透視カメラ。 1, 2, 3, 4 Camera (imaging device), 101 camera unit, 102 image acquisition unit, 103 image data storage unit, 104 feature point setting unit, 105 feature point position correction unit, 106 camera initial position setting unit, 107 camera Position correction unit, 108 Image correction data storage unit, 109 Camera position data storage unit, 110 Image composition unit, 201-204 Imaging field of view, 211-218 Feature points, 301 Perspective of perspective camera A, 302 Perspective of perspective camera B, 303 Imaging surface of perspective camera A, 304 Imaging surface of perspective camera B, 305 Imaging target, 306, 307 intersection, 308, 309 intersection (epipole), 310, 311 straight line (epipolar line), 401 straight line (epipolar line), 402 distance (Error), 500 cylindrical surface, 601 true viewpoint, 602 imaging surface, 603, 607, 608 Imaging target, 604, 605 intersection, 606 viewpoint, A, B perspective camera.
Claims (5)
隣接する前記撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定ステップと、
前記各撮像装置の既知の位置関係に基づいて、前記複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定ステップと、
前記初期位置設定ステップで設定した回転移動量及び平行移動量と、前記特徴点設定ステップで設定した特徴点の画像上の座標値とを用いて、前記各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正ステップとを備えることを特徴とする撮像装置校正方法。 In order to synthesize a plurality of image data captured by a plurality of imaging devices on a projection plane based on a positional relationship between the imaging devices, an imaging device calibration method for obtaining a positional relationship between the imaging devices,
A feature point setting step of extracting an object imaged in common between the adjacent imaging devices from each image data of the adjacent imaging devices, and setting it as a feature point;
Based on the known positional relationship of each imaging device, the relative position of the other imaging device is set using the rotational movement amount and the parallel movement amount with reference to the position of a specific imaging device among the plurality of imaging devices. Initial position setting step to
Using the rotational movement amount and the parallel movement amount set in the initial position setting step and the coordinate value on the image of the feature point set in the feature point setting step, from the actual position of the positional relationship of each imaging device An image pickup apparatus calibration method comprising: an image pickup apparatus position correcting step for correcting an error of the image pickup apparatus.
回転移動量及び平行移動量から撮像装置間の基本行列を求め、特徴点設定ステップで設定した特徴点の画像上の座標値を用いて当該基本行列の誤差を算出する誤差評価ステップと、
前記回転移動量及び前記平行移動量を変数にして前記誤差を最小化し、前記誤差を最小化したときの回転移動量及び平行移動量に基づいて前記各撮像画像の位置関係の実際の位置からの誤差を補正する誤差最小化ステップとを有することを特徴とする請求項1記載の撮像装置校正方法。 The imaging device position correction step includes:
An error evaluation step of obtaining a basic matrix between the imaging devices from the rotational movement amount and the parallel movement amount, and calculating an error of the basic matrix using a coordinate value on the feature point image set in the feature point setting step;
The error is minimized by using the rotational movement amount and the parallel movement amount as variables, and the positional relationship of each captured image from the actual position based on the rotational movement amount and the parallel movement amount when the error is minimized. The imaging apparatus calibration method according to claim 1, further comprising an error minimization step of correcting an error.
回転移動量及び平行移動量から撮像装置間の基本行列を求め、特徴点設定ステップで設定した特徴点の画像上の座標値を用いて当該基本行列の誤差を算出する誤差評価ステップと、
前記回転移動量を変数にして前記誤差を最小化し、前記誤差を最小化したときの回転移動量に基づいて前記各撮像画像の位置関係の実際の位置からの誤差を補正する誤差最小化ステップとを有することを特徴とする請求項1記載の撮像装置校正方法。 The imaging device position correction step includes:
An error evaluation step of obtaining a basic matrix between the imaging devices from the rotational movement amount and the parallel movement amount, and calculating an error of the basic matrix using a coordinate value on the feature point image set in the feature point setting step;
An error minimizing step for minimizing the error using the rotational movement amount as a variable, and correcting an error from an actual position of the positional relationship of the captured images based on the rotational movement amount when the error is minimized; The imaging apparatus calibration method according to claim 1, further comprising:
前記複数の撮像装置が撮像した複数の画像データを取得する画像取得部と、
隣接する前記撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定部と、
前記各撮像装置の既知の位置関係に基づいて、前記複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定部と、
前記初期位置設定部が設定した回転移動量及び平行移動量と、前記特徴点設定部で設定した特徴点の画像上の座標値とを用いて、前記各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正部と、
前記撮像装置位置補正部が補正した位置関係に基づいて、前記複数の画像データを投影面上に合成し、全周画像を生成する画像合成部とを備えることを特徴とする画像合成装置。 A plurality of imaging devices that divide the entire circumference and image;
An image acquisition unit that acquires a plurality of image data captured by the plurality of imaging devices;
A feature point setting unit that extracts each object imaged in common between the adjacent imaging devices from each image data of the adjacent imaging devices, and sets it as a feature point;
Based on the known positional relationship of each imaging device, the relative position of the other imaging device is set using the rotational movement amount and the parallel movement amount with reference to the position of a specific imaging device among the plurality of imaging devices. An initial position setting unit to
Using the rotational movement amount and the parallel movement amount set by the initial position setting unit and the coordinate value on the image of the feature point set by the feature point setting unit, from the actual position of the positional relationship of each imaging device An imaging device position correction unit that corrects the error of
An image synthesizing apparatus comprising: an image synthesizing unit that synthesizes the plurality of image data on a projection plane based on the positional relationship corrected by the imaging device position correcting unit, and generates an all-round image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009238338A JP2011086111A (en) | 2009-10-15 | 2009-10-15 | Imaging apparatus calibration method and image synthesis device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009238338A JP2011086111A (en) | 2009-10-15 | 2009-10-15 | Imaging apparatus calibration method and image synthesis device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011086111A true JP2011086111A (en) | 2011-04-28 |
Family
ID=44079010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009238338A Pending JP2011086111A (en) | 2009-10-15 | 2009-10-15 | Imaging apparatus calibration method and image synthesis device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011086111A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013093787A (en) * | 2011-10-27 | 2013-05-16 | Secom Co Ltd | Camera system |
JP2013201677A (en) * | 2012-03-26 | 2013-10-03 | Mitsubishi Electric Corp | Imaging device calibration method and image composition device |
JP2015036629A (en) * | 2013-08-12 | 2015-02-23 | 株式会社リコー | Calibration device, method, and program |
US9076064B2 (en) | 2013-03-08 | 2015-07-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2017108387A (en) * | 2015-10-28 | 2017-06-15 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof |
KR20180007545A (en) * | 2016-07-13 | 2018-01-23 | 삼성전자주식회사 | Apparatus and Method of processing 3D image |
KR101811157B1 (en) * | 2013-12-19 | 2018-01-25 | 인텔 코포레이션 | Bowl-shaped imaging system |
JP2018077196A (en) * | 2016-11-11 | 2018-05-17 | スタンレー電気株式会社 | Monitoring system |
JP2018200484A (en) * | 2018-08-08 | 2018-12-20 | キヤノン株式会社 | Compound eye optical equipment |
US10442355B2 (en) | 2014-09-17 | 2019-10-15 | Intel Corporation | Object visualization in bowl-shaped imaging systems |
JP2019180016A (en) * | 2018-03-30 | 2019-10-17 | パナソニックIpマネジメント株式会社 | Image synthesizer, image composition method and program |
KR20220164218A (en) * | 2021-06-04 | 2022-12-13 | (주)에스지유 | Adjacent camera recognition system and method between multiple cameras for 3D image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003070021A (en) * | 2001-08-27 | 2003-03-07 | Sanyo Electric Co Ltd | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus |
JP2004354257A (en) * | 2003-05-29 | 2004-12-16 | Olympus Corp | Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device |
JP2007089111A (en) * | 2005-08-26 | 2007-04-05 | Kazuo Iwane | Synthetic display device of two-dimensional drawing and video image |
WO2009051028A1 (en) * | 2007-10-19 | 2009-04-23 | Kabushiki Kaisha Toyota Jidoshokki | Video display device and video display method |
JP2009199572A (en) * | 2008-01-25 | 2009-09-03 | Kazuo Iwane | Three-dimensional machine map, three-dimensional machine map generating device, navigation device, and automatic driving device |
-
2009
- 2009-10-15 JP JP2009238338A patent/JP2011086111A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003070021A (en) * | 2001-08-27 | 2003-03-07 | Sanyo Electric Co Ltd | Portable three-dimensional data input apparatus and stereoscopic model generating apparatus |
JP2004354257A (en) * | 2003-05-29 | 2004-12-16 | Olympus Corp | Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device |
JP2007089111A (en) * | 2005-08-26 | 2007-04-05 | Kazuo Iwane | Synthetic display device of two-dimensional drawing and video image |
WO2009051028A1 (en) * | 2007-10-19 | 2009-04-23 | Kabushiki Kaisha Toyota Jidoshokki | Video display device and video display method |
JP2009199572A (en) * | 2008-01-25 | 2009-09-03 | Kazuo Iwane | Three-dimensional machine map, three-dimensional machine map generating device, navigation device, and automatic driving device |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013093787A (en) * | 2011-10-27 | 2013-05-16 | Secom Co Ltd | Camera system |
JP2013201677A (en) * | 2012-03-26 | 2013-10-03 | Mitsubishi Electric Corp | Imaging device calibration method and image composition device |
US9076064B2 (en) | 2013-03-08 | 2015-07-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2015036629A (en) * | 2013-08-12 | 2015-02-23 | 株式会社リコー | Calibration device, method, and program |
KR101811157B1 (en) * | 2013-12-19 | 2018-01-25 | 인텔 코포레이션 | Bowl-shaped imaging system |
US10210597B2 (en) | 2013-12-19 | 2019-02-19 | Intel Corporation | Bowl-shaped imaging system |
US10442355B2 (en) | 2014-09-17 | 2019-10-15 | Intel Corporation | Object visualization in bowl-shaped imaging systems |
JP2017108387A (en) * | 2015-10-28 | 2017-06-15 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof |
CN107038724A (en) * | 2015-10-28 | 2017-08-11 | 舆图行动股份有限公司 | Panoramic fisheye camera image correction, synthesis and depth of field reconstruction method and system |
KR20180007545A (en) * | 2016-07-13 | 2018-01-23 | 삼성전자주식회사 | Apparatus and Method of processing 3D image |
KR102526754B1 (en) | 2016-07-13 | 2023-04-27 | 삼성전자주식회사 | Apparatus and Method of processing 3D image |
JP2018077196A (en) * | 2016-11-11 | 2018-05-17 | スタンレー電気株式会社 | Monitoring system |
JP2019180016A (en) * | 2018-03-30 | 2019-10-17 | パナソニックIpマネジメント株式会社 | Image synthesizer, image composition method and program |
JP2018200484A (en) * | 2018-08-08 | 2018-12-20 | キヤノン株式会社 | Compound eye optical equipment |
KR20220164218A (en) * | 2021-06-04 | 2022-12-13 | (주)에스지유 | Adjacent camera recognition system and method between multiple cameras for 3D image |
KR102513220B1 (en) * | 2021-06-04 | 2023-03-24 | 주식회사 지에프티 | Adjacent camera recognition system and method between multiple cameras for 3D image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011086111A (en) | Imaging apparatus calibration method and image synthesis device | |
CN109313814B (en) | Camera calibration system | |
CN101563709B (en) | Calibrating a camera system | |
EP2751521B1 (en) | Method and system for alignment of a pattern on a spatial coded slide image | |
KR102085228B1 (en) | Imaging processing method and apparatus for calibrating depth of depth sensor | |
Zhang et al. | A universal and flexible theodolite-camera system for making accurate measurements over large volumes | |
CN110728715A (en) | Camera angle self-adaptive adjusting method of intelligent inspection robot | |
JP2011253376A (en) | Image processing device, image processing method and program | |
JPWO2012039043A1 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
JP5070435B1 (en) | Three-dimensional relative coordinate measuring apparatus and method | |
TW201715880A (en) | An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
JP2009017480A (en) | Camera calibration device and program thereof | |
CN107610183B (en) | Calibration method of fringe projection phase height conversion mapping model | |
CN107038753B (en) | Stereoscopic vision three-dimensional reconstruction system and method | |
WO2020199439A1 (en) | Single- and dual-camera hybrid measurement-based three-dimensional point cloud computing method | |
WO2020208686A1 (en) | Camera calibration device, camera calibration method, and non-transitory computer-readable medium having program stored thereon | |
KR20130121290A (en) | Georeferencing method of indoor omni-directional images acquired by rotating line camera | |
JP2002516443A (en) | Method and apparatus for three-dimensional display | |
CN113744340A (en) | Calibrating cameras with non-central camera models of axial viewpoint offset and computing point projections | |
JP2017092756A (en) | Image processing system, image processing method, image projecting system and program | |
BR112021008558A2 (en) | apparatus, disparity estimation method, and computer program product | |
CN116363226A (en) | Real-time multi-camera multi-projector 3D imaging processing method and device | |
JP2008131176A (en) | Camera calibration device | |
JP5901379B2 (en) | Imaging apparatus calibration method and image composition apparatus | |
JP7033294B2 (en) | Imaging system, imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130730 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130917 |