JP2011086111A - Imaging apparatus calibration method and image synthesis device - Google Patents

Imaging apparatus calibration method and image synthesis device Download PDF

Info

Publication number
JP2011086111A
JP2011086111A JP2009238338A JP2009238338A JP2011086111A JP 2011086111 A JP2011086111 A JP 2011086111A JP 2009238338 A JP2009238338 A JP 2009238338A JP 2009238338 A JP2009238338 A JP 2009238338A JP 2011086111 A JP2011086111 A JP 2011086111A
Authority
JP
Japan
Prior art keywords
image
camera
error
feature point
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009238338A
Other languages
Japanese (ja)
Inventor
Masayuki Harada
雅之 原田
Tomoyuki Nozaki
智之 野崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009238338A priority Critical patent/JP2011086111A/en
Publication of JP2011086111A publication Critical patent/JP2011086111A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus calibration method for performing calibration without using the accurate three-dimensional coordinate position of an image pickup object, and for uniformly calibrating an error between imaging apparatuses. <P>SOLUTION: Cameras 1 to 4 divide and image a perimeter, and a feature point setting part 104 sets a common feature point to image data between the adjacent cameras, and a camera initial position setting part 106 sets the relative positions of the cameras 2 to 4 by using the position of the camera 1 as a reference and by using rotational movement and parallel movement, and a camera position correction part 107 calculates a basic matrix from the rotational movement and parallel movement, and calculates a distance between the epipolar line of an image between the adjacent cameras and the coordinate position of the feature point by using the coordinate value of the feature point on the image, and minimizes the distance by setting the rotational movement and parallel movement to variables, and sets the values of the rotational movement and parallel movement in minimizing the distance to the actual positions of the cameras 1 to 4 after correction. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、複数の撮像装置が撮像した複数の画像データを、各撮像装置の位置関係に基づいて投影面上に合成するために、各撮像装置の位置関係を求める撮像装置校正方法、及び校正した撮像装置間の位置関係に基づいて全周画像を生成する画像合成装置に関するものである。   The present invention relates to an imaging device calibration method for obtaining a positional relationship of each imaging device and a calibration in order to synthesize a plurality of image data captured by the plurality of imaging devices on a projection plane based on the positional relationship of each imaging device. The present invention relates to an image synthesizing device that generates an all-round image based on the positional relationship between imaging devices.

複数のカメラ(撮像装置)が撮像した画像を合成して全周画像を生成するためには、各カメラの画像間の関係を求める必要がある。
従来、各カメラ画像間の関係を求めるカメラ校正手法として、平面射影変換に基づく手法がある。この平面射影変換は、各カメラの撮像対象が同一平面上にある場合にカメラ画像間に成り立つ変換であり、カメラ画像座標間の関係を記述した変換行列である。例えば、特許文献1のカメラ校正方法では、車両の前後左右に取り付けた4つのカメラについて、隣接する前−右カメラ間、前−左カメラ間、後−右カメラ間、後−左カメラ間のそれぞれの共通撮像領域に特徴点を配置し、隣接するカメラ画像上の特徴点の座標値対応関係に基づき、合成画像座標への変換パラメータを平面射影変換によって求める。各カメラで撮像した画像を地面上に投影して合成する際には、これらの変換パラメータを用いて撮像画像における各点の座標を地面上の座標に変換する。
In order to synthesize images captured by a plurality of cameras (imaging devices) and generate an all-round image, it is necessary to obtain a relationship between the images of the cameras.
Conventionally, as a camera calibration method for obtaining a relationship between camera images, there is a method based on planar projective transformation. This planar projective transformation is a transformation that is established between the camera images when the imaging target of each camera is on the same plane, and is a transformation matrix that describes the relationship between the camera image coordinates. For example, in the camera calibration method of Patent Document 1, for four cameras attached to the front, rear, left, and right of a vehicle, each of adjacent front-right cameras, front-left cameras, rear-right cameras, and rear-left cameras. The feature points are arranged in the common imaging region, and the conversion parameter to the composite image coordinates is obtained by plane projective transformation based on the coordinate value correspondence of the feature points on the adjacent camera images. When an image captured by each camera is projected onto the ground and synthesized, the coordinates of each point in the captured image are converted into coordinates on the ground using these conversion parameters.

また、撮像対象の3次元位置から各カメラの3次元位置姿勢を求め、求めた各カメラの位置姿勢からカメラ画像間の関係を求めるカメラ校正手法もある。例えば、非特許文献1の方法では、先ず、1番目のカメラで撮像された3次元物体の座標からこの1番目のカメラの位置を決定し、次に、位置が決定された1番目のカメラとこれから位置を決定する2番目のカメラに共通して撮像された物体の3次元位置を1番目のカメラのカメラ座標から求め、その3次元位置から2番目のカメラの位置を決定するようにして、複数のカメラのカメラ位置の校正を順番に行っていた。   There is also a camera calibration method for obtaining the three-dimensional position and orientation of each camera from the three-dimensional position of the imaging target and obtaining the relationship between the camera images from the obtained position and orientation of each camera. For example, in the method of Non-Patent Document 1, first, the position of the first camera is determined from the coordinates of a three-dimensional object imaged by the first camera, and then the first camera whose position is determined The three-dimensional position of the object imaged in common with the second camera for determining the position is determined from the camera coordinates of the first camera, and the position of the second camera is determined from the three-dimensional position. The camera positions of multiple cameras were calibrated sequentially.

特開2008−187564号公報JP 2008-187564 A

三嶋、羽石、味戸、山崎、「被写体方向を保存したドーム投影のための複数枚画像の合成方法」、2006年度日本写真学会年次大会、1A−06K、pp.12〜13Mishima, Haneishi, Ajido, Yamazaki, “Composition Method of Multiple Images for Dome Projection Preserving Subject Direction”, 2006 Annual Meeting of the Photographic Society of Japan, 1A-06K, pp. 12-13

従来のカメラ校正方法は以上のように構成されているので、特許文献1のように平面射影変換を用いる場合には、撮像対象が同一平面上に存在しなければならないという課題があった。そのため、360度の全周画像を合成する場合には、全てのカメラが撮像できる平面が存在し得ないので、平面射影変換では合成できない。全周を複数の平面に分割する方法もあるが、平面間の接合部分で不自然な画像となってしまうという問題が発生する。   Since the conventional camera calibration method is configured as described above, there is a problem that the imaging target must exist on the same plane when the planar projective transformation is used as in Patent Document 1. Therefore, when synthesizing a 360-degree all-round image, there cannot be a plane that can be captured by all cameras, and thus it cannot be synthesized by plane projective transformation. Although there is a method of dividing the entire circumference into a plurality of planes, there arises a problem that an unnatural image is formed at a joint portion between the planes.

また、非特許文献1のように撮像対象となる物体の3次元座標を用いる場合には、物体の3次元位置を測定する手法が必要であり、特に物体が遠距離にある場合には、物体の位置を正確に測定することが困難であるという課題があった。また、前のカメラ位置から順に次のカメラ位置を校正すると、校正の際の誤差が順に蓄積し、最後に校正したカメラでは1番目に構成したカメラと比較して相対的に誤差が大きくなってしまう。このように、誤差の蓄積が発生する手法を用いると、最初に校正されたカメラの撮像画像と最後に校正されたカメラの撮像画像が合成された全周画像において、最初に校正されたカメラの撮像画像と最後に校正されたカメラの撮像画像の合成部分の誤差が他の合成部分の誤差より大きくなってしまい、均一な全周画像が得られないという課題があった。   In addition, when using the three-dimensional coordinates of the object to be imaged as in Non-Patent Document 1, a method for measuring the three-dimensional position of the object is necessary, particularly when the object is at a long distance. There is a problem that it is difficult to accurately measure the position of. In addition, when the next camera position is calibrated sequentially from the previous camera position, errors at the time of calibration accumulate in order, and the last calibrated camera has a relatively larger error than the first configured camera. End up. In this way, using a method in which error accumulation occurs, the first calibrated camera's first calibrated camera image is combined with the last calibrated camera's captured image. There is a problem in that an error in the combined portion of the captured image and the captured image of the camera calibrated at the end is larger than an error in other combined portions, and a uniform all-round image cannot be obtained.

この発明は、上記のような課題を解決するためになされたもので、複数の撮像装置の撮像画像を合成して全周画像を生成する画像合成装置に対して、撮像対象物体の正確な3次元座標位置が分からなくとも各撮像装置の校正を行うと共に、各撮像装置間の誤差を均一に校正する撮像装置校正方法を提供することを目的とする。また、この撮像装置校正方法により校正した撮像装置の位置関係を用いて、合成誤差を全周画像全体で均一にする画像合成装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an image capturing apparatus that accurately captures an object to be imaged with respect to an image composition apparatus that synthesizes captured images of a plurality of image capturing apparatuses to generate an entire circumference image. An object of the present invention is to provide an imaging apparatus calibration method that calibrates each imaging apparatus even if the dimensional coordinate position is not known, and uniformly calibrates an error between the imaging apparatuses. It is another object of the present invention to provide an image composition apparatus that makes the composition error uniform over the entire peripheral image using the positional relationship of the image capture apparatus calibrated by the image capture apparatus calibration method.

この発明に係る撮像装置校正方法は、隣接する撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定ステップと、各撮像装置の既知の位置関係に基づいて、複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定ステップと、初期位置設定ステップで設定した回転移動量及び平行移動量と、特徴点設定ステップで設定した特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正ステップとを備えるものである。   The imaging device calibration method according to the present invention includes a feature point setting step of extracting an object imaged in common between the adjacent imaging devices from each image data of the adjacent imaging devices, and setting the feature points as feature points. An initial position for setting the relative position of the other imaging device using the rotational movement amount and the parallel movement amount based on the position of the specific imaging device among the plurality of imaging devices based on the known positional relationship of the imaging device Using the setting step, the rotational movement amount and the parallel movement amount set in the initial position setting step, and the coordinate value on the image of the feature point set in the feature point setting step, the actual position of the positional relationship of each imaging device An image pickup apparatus position correcting step for correcting an error from the image pickup apparatus position.

また、この発明に係る画像合成装置は、全周を分割して撮像する複数の撮像装置と、複数の撮像装置が撮像した複数の画像データを取得する画像取得部と、隣接する撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定部と、各撮像装置の既知の位置関係に基づいて、複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定部と、初期位置設定部が設定した回転移動量及び平行移動量と、特徴点設定部で設定した特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正部と、撮像装置位置補正部が補正した位置関係に基づいて、複数の画像データを投影面上に合成し、全周画像を生成する画像合成部とを備えるものである。   The image composition device according to the present invention includes a plurality of imaging devices that divide and capture the entire circumference, an image acquisition unit that acquires a plurality of image data captured by the plurality of imaging devices, and each of the adjacent imaging devices. Based on the known positional relationship between each imaging device and a feature point setting unit that extracts from the image data each object imaged in common between the adjacent imaging devices and sets it as a feature point. An initial position setting unit that sets the relative position of the other imaging device using the rotational movement amount and the parallel movement amount with reference to the position of the specific imaging device, and the rotational movement amount and parallel set by the initial position setting unit An imaging device position correction unit that corrects an error from the actual position of the positional relationship of each imaging device using the movement amount and the coordinate value on the image of the feature point set by the feature point setting unit; Positional relationship corrected by the correction unit Based on, synthesizing a plurality of image data on the projection plane, in which and an image synthesizing unit for generating an all-around image.

この発明によれば、各撮像装置の位置関係として設定された回転移動量及び平行移動量と、特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正するようにしたので、特徴点である撮像対象物体の3次元座標位置を用いることなく各撮像装置の校正を行うことができると共に、各撮像装置間の誤差を均一に校正することのできる撮像装置校正方法を提供することができる。   According to the present invention, the rotational movement amount and the parallel movement amount set as the positional relationship of each imaging device, and the coordinate value on the image of the feature point, from the actual position of the positional relationship of each imaging device. Since the error is corrected, each imaging apparatus can be calibrated without using the three-dimensional coordinate position of the imaging target object that is the feature point, and the error between the imaging apparatuses can be calibrated uniformly. An imaging apparatus calibration method that can be provided can be provided.

また、この発明によれば、各撮像装置の位置関係として設定された回転移動量及び平行移動量と、特徴点の画像上の座標値とを用いて、各撮像装置の位置関係の実際の位置からの誤差を補正し、補正した位置関係に基づいて複数の画像データを投影面上に合成し、全周画像を生成するようにしたので、特徴点である撮像対象物体の3次元座標位置を用いることなく各撮像装置の校正を行うことができると共に、各撮像装置間の誤差を均一に校正することができ、さらに、画像の合成誤差を全周画像全体で均一にすることのできる画像合成装置を提供することができる。   In addition, according to the present invention, the actual position of the positional relationship of each imaging device using the rotational movement amount and the parallel movement amount set as the positional relationship of each imaging device and the coordinate value on the image of the feature point. Is corrected, and a plurality of image data is synthesized on the projection plane based on the corrected positional relationship to generate an all-round image. Therefore, the three-dimensional coordinate position of the imaging target object that is a feature point is determined. It is possible to calibrate each imaging device without using it, to calibrate the error between each imaging device uniformly, and to make image synthesis error uniform over the entire perimeter image An apparatus can be provided.

この発明の実施の形態1に係る画像合成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image synthesizing | combining apparatus which concerns on Embodiment 1 of this invention. 図1に示す画像合成装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image composition device illustrated in FIG. 1. 図1に示すカメラ部101の各カメラ1〜4の配置例を示すカメラ配置図である。It is a camera arrangement | positioning figure which shows the example of arrangement | positioning of each camera 1-4 of the camera part 101 shown in FIG. 3次元座標の設定された空間において、2つの透視カメラA,Bから撮像対象305を見たときの位置関係を示す図である。It is a figure which shows the positional relationship when the imaging target 305 is seen from two fluoroscopic cameras A and B in the space where the three-dimensional coordinate is set. 透視カメラAを例にして、カメラ座標系を説明する図である。It is a figure explaining a camera coordinate system for the perspective camera A as an example. カメラ初期位置とカメラ相対位置との誤差の評価法を説明する図である。It is a figure explaining the evaluation method of the error of a camera initial position and a camera relative position. 図1に示すカメラ位置補正部107の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera position correction | amendment part 107 shown in FIG. 図1に示す画像合成部110の画像合成方法を説明する図である。It is a figure explaining the image composition method of the image composition part 110 shown in FIG. カメラの平行移動により発生したずれと回転移動により発生したずれを説明する図である。It is a figure explaining the shift | offset | difference which generate | occur | produced by the parallel movement of the camera, and the shift | offset | difference which generate | occur | produced by rotational movement.

実施の形態1.
図1は、この発明の実施の形態1に係る画像合成装置の構成を示すブロック図である。この画像合成装置は、カメラ部101、画像取得部102、画像データ記憶部103、特徴点設定部104、特徴点位置補正部105、カメラ初期位置設定部106、カメラ位置補正部107、画像補正データ記憶部108、カメラ位置データ記憶部109、画像合成部110を備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an image composition apparatus according to Embodiment 1 of the present invention. The image composition apparatus includes a camera unit 101, an image acquisition unit 102, an image data storage unit 103, a feature point setting unit 104, a feature point position correction unit 105, a camera initial position setting unit 106, a camera position correction unit 107, and image correction data. A storage unit 108, a camera position data storage unit 109, and an image composition unit 110 are provided.

カメラ部101は、カメラ(撮像装置)1〜4の4台を備え、全周を4分割して両端が重複するように撮像し、各画像を出力する。なお、本実施の形態1ではカメラが4台の場合を例に説明するが、これに限定されるものではなく、全周を何台のカメラで分割して撮像してもよい。画像取得部102は、カメラ部101から画像データを取得し、画像データ記憶部103に保存する。なお、画像データ記憶部103、画像補正データ記憶部108及びカメラ位置データ記憶部109は、メモリ等の記憶媒体から構成される。   The camera unit 101 includes four cameras (imaging devices) 1 to 4, divides the entire circumference into four parts, images so that both ends overlap, and outputs each image. In the first embodiment, a case where there are four cameras will be described as an example. However, the present invention is not limited to this, and the entire circumference may be divided and captured by any number of cameras. The image acquisition unit 102 acquires image data from the camera unit 101 and stores it in the image data storage unit 103. The image data storage unit 103, the image correction data storage unit 108, and the camera position data storage unit 109 are configured from a storage medium such as a memory.

特徴点設定部104は、画像データ記憶部103に保存された画像データ上に、校正に必要な特徴点を設定する。特徴点位置補正部105は、画像補正データ記憶部108に保存された画像補正データを用いて、画像データ上に設定された特徴点の位置を透視カメラで撮像した場合の位置に変換する。カメラ初期位置設定部106は、カメラ位置データ記憶部109に保存されたカメラ1〜4の初期位置データを取得して、カメラ位置に設定する。カメラ位置補正部107は、特徴点位置補正部105により補正された特徴点を用いて、カメラ1〜4のカメラ初期位置を現実に配置固定された正しいカメラ位置に補正すると共に、補正したカメラ位置を実際位置データとしてカメラ位置データ記憶部109に記憶させる。   The feature point setting unit 104 sets feature points necessary for calibration on the image data stored in the image data storage unit 103. The feature point position correction unit 105 uses the image correction data stored in the image correction data storage unit 108 to convert the position of the feature point set on the image data into the position when the fluoroscopic camera captures the image. The camera initial position setting unit 106 acquires the initial position data of the cameras 1 to 4 stored in the camera position data storage unit 109 and sets the camera position. The camera position correcting unit 107 uses the feature points corrected by the feature point position correcting unit 105 to correct the initial camera positions of the cameras 1 to 4 to the correct camera positions that are actually arranged and fixed, and the corrected camera positions. Are stored in the camera position data storage unit 109 as actual position data.

画像合成部110は、カメラ位置データ記憶部109に記憶されたカメラ1〜4の実際位置データを用いて、カメラ1〜4が撮像した画像を合成し、全周画像を生成する。   The image synthesis unit 110 synthesizes images captured by the cameras 1 to 4 using the actual position data of the cameras 1 to 4 stored in the camera position data storage unit 109, and generates an all-round image.

次に、画像合成装置の動作を説明する。図2は、実施の形態1に係る画像合成装置の動作を示すフローチャートである。
先ず、画像取得部102がカメラ部101に撮像を指示すると、カメラ部101がカメラ1〜4を制御して同時に撮像を行う。そして、画像取得部102は撮像された画像データをカメラ部101より取得し、画像データ記憶部103に保存させる(ステップST1)。
Next, the operation of the image composition apparatus will be described. FIG. 2 is a flowchart showing the operation of the image composition apparatus according to the first embodiment.
First, when the image acquisition unit 102 instructs the camera unit 101 to capture an image, the camera unit 101 controls the cameras 1 to 4 and simultaneously captures images. Then, the image acquisition unit 102 acquires the captured image data from the camera unit 101 and stores it in the image data storage unit 103 (step ST1).

図3は、図1に示すカメラ部101の各カメラ1〜4の配置例を示すカメラ配置図である。図3において、カメラ部101は、カメラ1、カメラ2、カメラ3及びカメラ4の4台からなり、全周を撮像するように隣同士を略90度の角度を持って配置固定されている。各カメラ1〜4を配置した空間に、カメラ1の配置位置を基準にした仮想の3次元座標軸を設定し、この3次元座標軸をカメラ1のカメラ座標系と称す。   FIG. 3 is a camera arrangement diagram showing an arrangement example of the cameras 1 to 4 of the camera unit 101 shown in FIG. In FIG. 3, the camera unit 101 is composed of four cameras, a camera 1, a camera 2, a camera 3, and a camera 4. A virtual three-dimensional coordinate axis based on the arrangement position of the camera 1 is set in the space where the cameras 1 to 4 are arranged, and this three-dimensional coordinate axis is referred to as the camera coordinate system of the camera 1.

また、カメラ2〜4の配置位置は、カメラ1の配置位置を基準とした相対位置として規定される。この相対位置は、カメラの回転移動R及び平行移動Tからなる移動量で表現することとし、回転移動Rは3×3の行列、平行移動Tは1×3の行列(ベクトル)とする。図3では、カメラ1に対するカメラ2の相対位置を回転移動R2及び平行移動T2で表現し、カメラ1に対するカメラ3の相対位置を回転移動R3及び平行移動T3で表現し、カメラ1に対するカメラ4の相対位置を回転移動R4及び平行移動T4で表現する。
なお、カメラ2〜4の配置位置を、カメラ座標系の絶対座標としての座標値と回転角で表現してもよい。この表現方法であっても、平行移動T及び回転移動Rで表現する相対位置に簡単に変換できる。
In addition, the arrangement positions of the cameras 2 to 4 are defined as relative positions based on the arrangement position of the camera 1. This relative position is expressed by a movement amount composed of a rotational movement R and a parallel movement T of the camera. The rotational movement R is a 3 × 3 matrix, and the parallel movement T is a 1 × 3 matrix (vector). In FIG. 3, the relative position of the camera 2 with respect to the camera 1 is expressed by a rotational movement R 2 and a parallel movement T 2 , and the relative position of the camera 3 with respect to the camera 1 is expressed by a rotational movement R 3 and a parallel movement T 3. The relative position of the camera 4 with respect to is represented by a rotational movement R 4 and a parallel movement T 4 .
In addition, you may express the arrangement position of the cameras 2-4 with the coordinate value and rotation angle as an absolute coordinate of a camera coordinate system. Even this expression method can be easily converted into a relative position expressed by the parallel movement T and the rotational movement R.

続いて、特徴点設定部104が、画像データ記憶部103に保存された画像データ上に特徴点を設定する(ステップST2、特徴点設定ステップ)。特徴点とは、2つのカメラに共通する撮像領域にあって、2つのカメラから共通に撮像できる物体の画像上の点である。図3の例では、カメラ1の撮像視野201とカメラ2の撮像視野202が重なる共通撮像領域から、複数の特徴点211,212が抽出される。また、カメラ2の撮像視野202とカメラ3の撮像視野203が重なる共通撮像領域から複数の特徴点213,214が抽出され、カメラ3の撮像視野203とカメラ4の撮像視野204が重なる共通撮像領域から複数の特徴点215,216が抽出され、カメラ4の撮像視野204とカメラ1の撮像視野201が重なる共通撮像領域から複数の特徴点217,218が抽出される。   Subsequently, the feature point setting unit 104 sets feature points on the image data stored in the image data storage unit 103 (step ST2, feature point setting step). A feature point is a point on an image of an object that is in an imaging region common to two cameras and can be imaged in common from the two cameras. In the example of FIG. 3, a plurality of feature points 211 and 212 are extracted from a common imaging region where the imaging field 201 of the camera 1 and the imaging field 202 of the camera 2 overlap. A plurality of feature points 213 and 214 are extracted from a common imaging region where the imaging field 202 of the camera 2 and the imaging field 203 of the camera 3 overlap, and a common imaging region where the imaging field 203 of the camera 3 and the imaging field 204 of the camera 4 overlap. A plurality of feature points 215 and 216 are extracted from the image, and a plurality of feature points 217 and 218 are extracted from a common imaging region where the imaging field of view 204 of the camera 4 and the imaging field of view 201 of the camera 1 overlap.

特徴点設定部104は、各カメラ1〜4が撮像した画像それぞれに2次元座標軸を設定し、ある特徴点について、一方の画像データに設定した2次元座標で表す座標値と、他方の画像データに設定した2次元座標で表す座標値をペアにして保存する。この2次元座標軸を、画像座標系と称す。例えば、カメラ1の画像データの横i1番目、縦j1番目のピクセルに特徴点があり、同一の特徴点がカメラ2の画像データの横i2番目、縦j2番目のピクセルにある場合には、カメラ1の画像座標系で表す座標値(i1,j1)とカメラ2の画像座標系で表す座標値(i2,j2)がペアで保存される。 The feature point setting unit 104 sets a two-dimensional coordinate axis for each of the images captured by the cameras 1 to 4, and for a certain feature point, the coordinate value represented by the two-dimensional coordinates set in one image data and the other image data. The coordinate values represented by the two-dimensional coordinates set in are saved as a pair. This two-dimensional coordinate axis is referred to as an image coordinate system. For example, the horizontal i 1 th image data of the camera 1, there are feature points vertically j 1 th pixel, if the same feature points horizontal i 2 th image data of the camera 2 is in the vertical j 2 th pixel The coordinate value (i 1 , j 1 ) expressed in the image coordinate system of the camera 1 and the coordinate value (i 2 , j 2 ) expressed in the image coordinate system of the camera 2 are stored in pairs.

本実施の形態1では、特徴点を設定する方法として、例えば、ユーザが画像を比較して画像データ上の座標値を入力して設定する方法、又は、SIFT(Scale−Invariant Feature Transform)のような画像処理を利用して特徴点を自動抽出してその座標値を設定する方法を用いる。画像処理を利用して特徴点を抽出する場合には、特徴点の座標値が(5.5,10.3)というように小数点の値になってもよい。   In the first embodiment, as a method of setting feature points, for example, a method in which a user compares images and inputs coordinate values on image data, or SIFT (Scale-Invariant Feature Transform) is used. A method of automatically extracting feature points by using simple image processing and setting the coordinate values is used. When feature points are extracted using image processing, the coordinate values of the feature points may be decimal values such as (5.5, 10.3).

続いて、特徴点位置補正部105は、画像補正データ記憶部108に予め設定されている画像補正データ(カメラ1〜4それぞれの内部パラメータ及びレンズ歪補正パラメータ等)により、特徴点設定部104が抽出した特徴点の位置を補正して、透視カメラで撮像した場合の位置に変換する(ステップST3)。一般にカメラは内部パラメータ及びレンズ歪により、透視カメラとはみなせない。そのため、カメラ1〜4も透視カメラとみなせない場合には、カメラ1〜4の画像データ上の特徴点の位置を、透視カメラで撮像した場合の位置に変換する必要がある。これは、ステップST4以降の各処理が、カメラ1〜4が透視カメラとみなせることを前提にして行う処理だからである。
なお、カメラ1〜4が透視カメラとみなせるのであればステップST3の処理は不要である。
Subsequently, the feature point position correcting unit 105 uses the image correction data (internal parameters of each of the cameras 1 to 4, lens distortion correction parameters, etc.) set in advance in the image correction data storage unit 108. The position of the extracted feature point is corrected and converted to the position when imaged with a fluoroscopic camera (step ST3). Generally, a camera cannot be regarded as a fluoroscopic camera due to internal parameters and lens distortion. Therefore, when the cameras 1 to 4 cannot be regarded as perspective cameras, it is necessary to convert the positions of the feature points on the image data of the cameras 1 to 4 to positions when captured by the perspective cameras. This is because the processes after step ST4 are performed on the assumption that the cameras 1 to 4 can be regarded as fluoroscopic cameras.
If the cameras 1 to 4 can be regarded as fluoroscopic cameras, the process of step ST3 is unnecessary.

本実施の形態1では、特徴点の位置を補正する方法として、例えば「Z.Zhang、A Flexible New Technique for Camera Calibration、Microsoft Research Technical Report MSR−TR−98−71、1999」に記載された手法により、予め画像補正データをカメラ毎に取得し、その画像補正データを用いて補正式により画像データ上の特徴点の位置を補正する方法を用いる。   In the first embodiment, as a method for correcting the position of a feature point, for example, a method described in “Z. Zhang, A Flexible New Technology for Camera Calibration, Microsoft Research Technical Report MSR-TR-98-71”, 1999. Thus, a method of acquiring image correction data for each camera in advance and correcting the position of the feature point on the image data using a correction formula using the image correction data is used.

続いて、カメラ初期位置設定部106は、カメラ位置データ記憶部109に保存されているカメラ1〜4の初期位置データを取得して、カメラ位置に設定する(ステップST4、初期位置設定ステップ)。上述のように、カメラ2〜4の初期位置は、カメラ1のカメラ座標系においてカメラ1の配置位置を基準とした回転移動R及び平行移動Tで表現する相対位置である。この初期位置データとしては、例えば、カメラ1〜4を固定するためのジグの設計値、又は、実際に配置固定したカメラ1〜4間の距離及び角度の測定値を用いる。いずれの場合にも、ジグの精度、カメラ配置固定時の誤差、測定時の誤差等に起因して、初期位置はカメラ1〜4の実際の配置固定位置(実際位置)に対して誤差を持つと考えられ、この誤差が合成画像生成時のずれとして表示されてしまう。そこで、この誤差を補正して、合成画像生成時に誤差が小さくなるようなカメラ1〜4の実際位置を求めることが必要となる。この誤差の補正をカメラ位置補正部107が行う。   Subsequently, the camera initial position setting unit 106 acquires the initial position data of the cameras 1 to 4 stored in the camera position data storage unit 109, and sets the acquired camera position (step ST4, initial position setting step). As described above, the initial positions of the cameras 2 to 4 are relative positions expressed by the rotational movement R and the parallel movement T based on the arrangement position of the camera 1 in the camera coordinate system of the camera 1. As the initial position data, for example, a design value of a jig for fixing the cameras 1 to 4 or a measured value of a distance and an angle between the cameras 1 to 4 actually arranged and fixed is used. In any case, the initial position has an error relative to the actual arrangement fixed position (actual position) of the cameras 1 to 4 due to the accuracy of the jig, the error at the time of fixing the camera arrangement, the error at the time of measurement, and the like. This error is displayed as a shift at the time of composite image generation. Therefore, it is necessary to correct the error and obtain the actual positions of the cameras 1 to 4 so that the error is reduced when the composite image is generated. The camera position correction unit 107 corrects this error.

続いて、カメラ位置補正部107は、カメラ1〜4の初期位置を補正して実際位置を求める(ステップST5、撮像装置位置補正ステップ)。この補正処理では、カメラ位置補正部107が基本行列を用いてカメラ位置の補正を行うため、先ず、この基本行列について以下に説明する。なお、基本行列についてのより詳細な説明は「佐藤淳、コンピュータビジョン―視覚の幾何学―、コロナ社、pp.83〜85,89」に記載されている。   Subsequently, the camera position correcting unit 107 corrects the initial positions of the cameras 1 to 4 to obtain the actual position (step ST5, imaging device position correcting step). In this correction process, since the camera position correction unit 107 corrects the camera position using the basic matrix, first, the basic matrix will be described below. A more detailed description of the basic matrix is described in “Satoshi Sato, Computer Vision—Visual Geometry—, Corona, pp. 83-85, 89”.

図4は、3次元座標軸が設定された空間内に配置された2つの透視カメラA,Bから撮像対象305を見たときの関係を示す図である。図4において、透視カメラAは、その光学中心である視点301の位置に配置され、撮像面303の方向を向いている。他方、透視カメラBは、その視点302の位置に配置され、撮像面304の方向を向いている。撮像対象305は特徴点として撮像面303,304上に抽出・設定される物体であり、透視カメラA,Bと同じ空間に配置されている。また、透視カメラAの視点301から撮像対象305へ延びる直線と撮像面303とが交わる点を交点306とし、透視カメラBの視点302から撮像対象305へ延びる直線と撮像面304とが交わる点を交点307とする。この交点306は、透視カメラAが撮像した画像である撮像面303上に設定される特徴点であり、交点307は、透視カメラBが撮像した画像である撮像面304上に設定される特徴点である。また、透視カメラAの視点301と透視カメラBの視点302とを結ぶ直線が、撮像面303と交わる点を交点308とし、撮像面304と交わる点を交点309とする。また、交点306と交点308を結ぶ線を直線310とし、交点307と交点309を結ぶ線を直線311とする。なお、撮像面303,304上の交点306〜309は2次元の画像座標系の座標値で表される。   FIG. 4 is a diagram illustrating a relationship when the imaging target 305 is viewed from the two perspective cameras A and B arranged in the space in which the three-dimensional coordinate axes are set. In FIG. 4, the perspective camera A is disposed at the position of the viewpoint 301 that is the optical center thereof, and faces the direction of the imaging surface 303. On the other hand, the fluoroscopic camera B is arranged at the position of the viewpoint 302 and faces the direction of the imaging surface 304. An imaging target 305 is an object that is extracted and set as a feature point on the imaging surfaces 303 and 304 and is arranged in the same space as the perspective cameras A and B. In addition, a point where a straight line extending from the viewpoint 301 of the fluoroscopic camera A to the imaging target 305 and the imaging plane 303 intersect is defined as an intersection point 306, and a point extending from the perspective 302 of the perspective camera B to the imaging target 305 and a point intersecting the imaging plane 304 is defined. Let it be an intersection 307. The intersection point 306 is a feature point set on the imaging plane 303 that is an image captured by the perspective camera A, and the intersection point 307 is a feature point set on the imaging plane 304 that is an image captured by the perspective camera B. It is. In addition, a point where a straight line connecting the viewpoint 301 of the perspective camera A and the viewpoint 302 of the perspective camera B intersects the imaging surface 303 is defined as an intersection point 308, and a point intersecting the imaging surface 304 is defined as an intersection point 309. A line connecting the intersection point 306 and the intersection point 308 is a straight line 310, and a line connecting the intersection point 307 and the intersection point 309 is a straight line 311. Note that the intersection points 306 to 309 on the imaging surfaces 303 and 304 are represented by coordinate values of a two-dimensional image coordinate system.

一般に、交点308,309はエピポールと呼ばれ、直線310,311はエピポーラ線と呼ばれる。また、視点301と視点302の相対位置は回転移動R及び平行移動Tで表現し、透視カメラAの座標系での視点301から交点306へ向かうベクトルをx’とし、透視カメラBの座標系での視点302から交点307へ向かうベクトルをxとする。
ここで、透視カメラA,Bの座標系を説明する。図5は、透視カメラAを例にして、カメラ座標系を説明する図である。透視カメラAの座標系とは、視点301から伸びる視線方向に平行なZ軸と、Z軸に対して鉛直方向に伸び、撮像面303上に射影したY軸と、Z軸及びY軸に直交するX軸とから定義される座標系である。
In general, the intersection points 308 and 309 are called epipoles, and the straight lines 310 and 311 are called epipolar lines. The relative positions of the viewpoint 301 and the viewpoint 302 are expressed by a rotational movement R and a parallel movement T, and a vector from the viewpoint 301 to the intersection 306 in the coordinate system of the perspective camera A is x ′, and in the coordinate system of the perspective camera B Let x be a vector from the viewpoint 302 to the intersection 307.
Here, the coordinate system of the perspective cameras A and B will be described. FIG. 5 is a diagram for explaining the camera coordinate system using the perspective camera A as an example. The coordinate system of the perspective camera A is a Z-axis parallel to the line-of-sight direction extending from the viewpoint 301, a Y-axis extending in a direction perpendicular to the Z-axis and projected onto the imaging surface 303, and orthogonal to the Z-axis and the Y-axis. This is a coordinate system defined from the X axis.

図4に示すベクトルx’,x間には以下の関係式(1)が成り立つ。
ただし、[T]×は、Tと任意のベクトルVとの外積を[T]×V=T×Vと表せる行列である。下式(1)においてEは基本行列と呼ばれ、式(2)で定義するように、2つの透視カメラA,Bの画像座標間に成り立つ一般的な関係を表す行列である。この関係は、視点301,302から撮像面303,304上の座標に対するベクトル表現で記述されており、実際の撮像対象305までの距離に係わらず成り立つ。従って、基本行列Eを用いる本補正処理では、撮像対象305の3次元座標を用いることなく、透視カメラA,Bの画像データから求めたベクトルx’,xから実際のカメラ位置を求めることが可能である。

Figure 2011086111
The following relational expression (1) is established between the vectors x ′ and x shown in FIG.
However, [T] × is a matrix that can express the outer product of T and an arbitrary vector V as [T] × V = T × V. In the following equation (1), E is called a basic matrix, and is a matrix representing a general relationship that holds between the image coordinates of the two perspective cameras A and B, as defined by equation (2). This relationship is described in a vector expression with respect to the coordinates on the imaging surfaces 303 and 304 from the viewpoints 301 and 302, and holds regardless of the actual distance to the imaging target 305. Therefore, in this correction process using the basic matrix E, the actual camera position can be obtained from the vectors x ′ and x obtained from the image data of the perspective cameras A and B without using the three-dimensional coordinates of the imaging target 305. It is.
Figure 2011086111

しかし、カメラ1〜4の初期位置データのように、実際位置に対して位置データに誤差がある場合には、上式(1)が成り立たない。そこで、カメラ位置補正部107による補正処理では、後述する誤差評価法に基づいて、カメラ1〜4の初期位置と実際位置の誤差を、上式(1)に基づいて評価し、全体の誤差を最小化するカメラ2〜4の相対位置を求めることにより、実際にカメラが配置固定されている正確な位置を求める。   However, when there is an error in the position data with respect to the actual position as in the initial position data of the cameras 1 to 4, the above equation (1) does not hold. Therefore, in the correction process by the camera position correction unit 107, the error between the initial position and the actual position of the cameras 1 to 4 is evaluated based on the above equation (1) based on the error evaluation method described later, and the overall error is calculated. By obtaining the relative positions of the cameras 2 to 4 to be minimized, an accurate position where the cameras are actually arranged and fixed is obtained.

ここで、誤差の評価法を説明する。
上式(1)において、Ex=lとすると、上式(1)は下式(3)となり、この式(3)のlは、ベクトルx’の通る直線とみなすことができる。この直線を一般的にエピポーラ線と呼ぶ(詳細は上記文献を参照)。

Figure 2011086111
Here, an error evaluation method will be described.
In the above equation (1), when Ex = 1, the above equation (1) becomes the following equation (3), and l in this equation (3) can be regarded as a straight line through which the vector x ′ passes. This straight line is generally called an epipolar line (see the above-mentioned document for details).
Figure 2011086111

図6は、カメラ初期位置と実際のカメラ相対位置の誤差を評価する方法を説明する図である。図6において、直線401が上式(3)のエピポーラ線lに対応する直線である。透視カメラAを基準にした透視カメラBの回転移動R及び平行移動Tが実際位置に等しければ、エピポーラ線lに対応する直線は、直線310のように特徴点である交点306を通過する直線となる。しかし、回転移動R及び平行移動Tに実際位置との誤差がある場合には交点306が直線401上に乗らないため、交点306と直線401の距離402を、この回転移動R及び平行移動Tに含まれる誤差として評価する。   FIG. 6 is a diagram illustrating a method for evaluating an error between the camera initial position and the actual camera relative position. In FIG. 6, a straight line 401 is a straight line corresponding to the epipolar line l in the above equation (3). If the rotational movement R and the parallel movement T of the fluoroscopic camera B with respect to the fluoroscopic camera A are equal to the actual position, the straight line corresponding to the epipolar line l is a straight line passing through the intersection point 306 that is a characteristic point like the straight line 310. Become. However, when there is an error from the actual position in the rotational movement R and the parallel movement T, the intersection point 306 does not ride on the straight line 401. Therefore, the distance 402 between the intersection point 306 and the straight line 401 is set to the rotational movement R and the parallel movement T. Evaluate as included error.

次に、上記誤差評価法に基づくカメラ位置補正部107の動作、即ち図2に示すステップST5の詳細を説明する。図7は、カメラ位置補正部107の動作を示すフローチャートである。カメラ位置補正部107の補正処理開始時、カメラ1〜4のカメラ位置は、カメラ初期位置設定部106によって設定された初期位置である。   Next, the operation of the camera position correcting unit 107 based on the error evaluation method, that is, the details of step ST5 shown in FIG. 2 will be described. FIG. 7 is a flowchart showing the operation of the camera position correction unit 107. When the correction processing of the camera position correction unit 107 is started, the camera positions of the cameras 1 to 4 are the initial positions set by the camera initial position setting unit 106.

カメラ位置補正部107は、先ず、カメラ1を基準とするカメラ座標系で記述されたカメラ1のカメラ位置から、隣接するカメラ2〜4のカメラ座標系の変換式を求める(ステップST11)。これは、特徴点は隣接するカメラに共通して撮像されるため、上式(1)を適応するためには、隣接するカメラ間の回転移動R及び平行移動Tを求めることが必要であるからである。
具体的には、カメラ位置補正部107が、カメラ1の3次元座標値(x,y,z)=X1からカメラ1に隣接するカメラ2の3次元座標値X2、カメラ4の3次元座標値X4への座標系変換を、相対位置R2,T2,R4,T4を用いて下式(4),(5)により行う。
2=R21+T2 (4)
4=R41+T4 (5)
First, the camera position correction unit 107 obtains a conversion formula of the camera coordinate system of the adjacent cameras 2 to 4 from the camera position of the camera 1 described in the camera coordinate system with the camera 1 as a reference (step ST11). This is because feature points are imaged in common with adjacent cameras, and in order to apply the above equation (1), it is necessary to obtain rotational movement R and parallel movement T between adjacent cameras. It is.
Specifically, the camera position correcting unit 107 determines that the three-dimensional coordinate value X 2 of the camera 2 adjacent to the camera 1 from the three-dimensional coordinate value (x, y, z) = X 1 of the camera 1 and the three-dimensional of the camera 4. The coordinate system conversion to the coordinate value X 4 is performed by the following equations (4) and (5) using the relative positions R 2 , T 2 , R 4 and T 4 .
X 2 = R 2 X 1 + T 2 (4)
X 4 = R 4 X 1 + T 4 (5)

同様に、カメラ位置補正部107はカメラ1からカメラ3への座標系変換を、相対位置R3,T3を用いて下式(6)により行う。
3=R31+T3 (6)
Similarly, the camera position correction unit 107 performs coordinate system conversion from the camera 1 to the camera 3 by using the relative positions R 3 and T 3 according to the following equation (6).
X 3 = R 3 X 1 + T 3 (6)

また、残る隣接関係であるカメラ2とカメラ3、カメラ3とカメラ4の関係は、それぞれ式(4)と式(6)、式(5)と式(6)を変形させることにより、下式(7),(8)と表せる。従って、カメラ位置補正部107は、下式(7),(8)を用いて、カメラ3からカメラ2、カメラ3からカメラ4への座標系変換を行う。これにより、カメラ位置補正部107は、全ての隣接カメラ間の座標系変換式を得る。
2=R23 -1(X3−T3)+T2 (7)
4=R43 -1(X3−T3)+T4 (8)
Further, the remaining relationship between the camera 2 and the camera 3 and the relationship between the camera 3 and the camera 4 is obtained by transforming the equations (4) and (6), and (5) and (6), respectively. It can be expressed as (7) and (8). Therefore, the camera position correction unit 107 performs coordinate system conversion from the camera 3 to the camera 2 and from the camera 3 to the camera 4 using the following equations (7) and (8). Thereby, the camera position correction | amendment part 107 obtains the coordinate system conversion type | formula between all the adjacent cameras.
X 2 = R 2 R 3 -1 (X 3 -T 3 ) + T 2 (7)
X 4 = R 4 R 3 −1 (X 3 −T 3 ) + T 4 (8)

続いて、カメラ位置補正部107は、ステップST11で求めた隣接カメラ間の座標系変換式(4)〜(8)を上式(2)に適用して、隣接するカメラ間の基本行列Eを求める(ステップST12)。   Subsequently, the camera position correcting unit 107 applies the coordinate system conversion equations (4) to (8) between the adjacent cameras obtained in step ST11 to the above equation (2) to obtain the basic matrix E between the adjacent cameras. Obtained (step ST12).

続いて、カメラ位置補正部107は、実際に撮像された画像上に設定された各特徴点211〜218の誤差、即ち交点とエピポーラ線との距離を、対応するカメラ間の基本行列Eを用いて上式(1)によりそれぞれ計算し、各特徴点211〜218の誤差の合計値を求める(ステップST13)。
以上、ステップST11〜ST13が誤差評価ステップである。
Subsequently, the camera position correcting unit 107 uses the basic matrix E between the corresponding cameras for the error between the feature points 211 to 218 set on the actually captured image, that is, the distance between the intersection and the epipolar line. Respectively, and the total value of errors of the feature points 211 to 218 is obtained (step ST13).
As described above, steps ST11 to ST13 are error evaluation steps.

続いて、カメラ位置補正部107は、ステップST13で求めた誤差の合計値が予め設定された指定値より大きい場合には(ステップST14“NO”)、続くステップST15にて現在のカメラ位置(即ち相対位置R2,T2,R3,T3,R4,T4)を変数として修正する。ステップST15で用いる修正方法としては、例えば、シンプレックス法、パウエル法等の一般的な関数最小化手法に基づいて修正する方法がある。 Subsequently, when the total value of the errors obtained in step ST13 is larger than the preset specified value (step ST14 “NO”), the camera position correcting unit 107 continues the current camera position (ie, in step ST15). The relative positions R 2 , T 2 , R 3 , T 3 , R 4 , T 4 ) are corrected as variables. Examples of the correction method used in step ST15 include a correction method based on a general function minimization method such as a simplex method or a Powell method.

続いて、カメラ位置補正部107は、ステップST15で修正した新たなカメラ位置を用いてステップST11〜ST14の各処理を行い、新たなカメラ位置に基づく誤差の合計値が指定値以下になれば(ステップST14“YES”)、この新たなカメラ位置を実際位置データとしてカメラ位置データ記憶部109に出力する(ステップST16)。
以上、ステップST14〜ST16が誤差最小化ステップである。
Subsequently, the camera position correcting unit 107 performs each process of steps ST11 to ST14 using the new camera position corrected in step ST15, and if the total error based on the new camera position is equal to or less than the specified value ( In step ST14 “YES”), this new camera position is output as actual position data to the camera position data storage unit 109 (step ST16).
As described above, steps ST14 to ST16 are error minimization steps.

説明を図2のフローチャートに戻す。画像合成部110は、ステップST5で求めた実際位置データを用いて、3次元空間上にある連続した面にカメラ1〜4が撮像した画像を投影することにより、合成画像を生成する(ステップST6)。   The description returns to the flowchart of FIG. The image composition unit 110 generates a composite image by projecting images captured by the cameras 1 to 4 onto a continuous surface in the three-dimensional space using the actual position data obtained in step ST5 (step ST6). ).

図8は、画像合成部110の画像合成方法を説明する図である。図8では画像投影のための連続した投影面として円柱面500を用いた例を示すが、これに限定されるものではなく、一般的には連続面として円柱の他に球又は立方体が用いられる。ステップST5の補正処理によりカメラ1〜4の実際位置データが得られたので、画像合成部110はこの実際の配置位置及び姿勢に基づいて、各カメラ1〜4の画像を円柱面500にそれぞれ投影する。画像合成部110は、例えばカメラ1であれば、カメラ1の視点とカメラ画像1a上の各点(例えばピクセル)を結ぶ各直線を円柱面500まで延長し、各直線と円柱面500との各交点位置にカメラ画像1a上の各点の色を設定する。カメラ画像1a上の特徴点217も円柱面500に投影される。これにより、カメラ画像1aが円柱面500に投影され、投影画像1bが得られる。画像合成部110がこの処理を他のカメラ2〜4に対して行うことにより、連続した全周画像が生成される。   FIG. 8 is a diagram for explaining an image composition method of the image composition unit 110. Although FIG. 8 shows an example in which the cylindrical surface 500 is used as a continuous projection surface for image projection, the present invention is not limited to this, and generally a sphere or a cube is used as a continuous surface in addition to a cylinder. . Since the actual position data of the cameras 1 to 4 is obtained by the correction process in step ST5, the image composition unit 110 projects the images of the cameras 1 to 4 on the cylindrical surface 500 based on the actual arrangement position and orientation. To do. For example, in the case of the camera 1, the image composition unit 110 extends each straight line connecting the viewpoint of the camera 1 and each point (for example, pixel) on the camera image 1 a to the cylindrical surface 500. The color of each point on the camera image 1a is set at the intersection position. A feature point 217 on the camera image 1 a is also projected onto the cylindrical surface 500. Thereby, the camera image 1a is projected on the cylindrical surface 500, and the projection image 1b is obtained. The image synthesizing unit 110 performs this process on the other cameras 2 to 4 to generate a continuous all-round image.

ここで、カメラ1とカメラ4に共通して設定された特徴点217を考える。特徴点217は、同一の撮像対象をカメラ1,4で撮像したものであるため、円柱面500の同じ位置に投影されなければならない。しかし、例えばカメラ4の位置がずれていると、カメラ4のカメラ画像4a上の特徴点217も円柱面500上のずれた位置(特徴点217’)に投影されてしまう。そのため、合成後の全周画像にもずれが生じてしまう。このようなずれを防止するために、本実施の形態1では、カメラ位置補正部107により初期位置データを補正して実際位置データを求める。この際、カメラ位置補正部107は全てのカメラ1〜4間の誤差を一括して最小化するので、特定のカメラ間の誤差の蓄積が発生しない。この結果、画像合成部110において合成誤差が均一な全周画像を合成することができる。   Here, a feature point 217 set in common for the camera 1 and the camera 4 is considered. Since the feature point 217 is obtained by capturing the same imaging target with the cameras 1 and 4, the feature point 217 must be projected at the same position on the cylindrical surface 500. However, for example, if the position of the camera 4 is shifted, the feature point 217 on the camera image 4a of the camera 4 is also projected on the shifted position (feature point 217 ') on the cylindrical surface 500. For this reason, a deviation also occurs in the all-round image after synthesis. In order to prevent such a shift, in the first embodiment, the initial position data is corrected by the camera position correction unit 107 to obtain actual position data. At this time, since the camera position correction unit 107 minimizes errors between all the cameras 1 to 4 at a time, accumulation of errors between specific cameras does not occur. As a result, the image synthesis unit 110 can synthesize an all-round image with uniform synthesis error.

以上より、実施の形態1によれば、複数のカメラ1〜4が全周を分割して撮像し、画像取得部102がカメラ1〜4の撮像した複数の画像データを取得し、特徴点設定部104が隣接するカメラ間の各画像データから共通に撮像された撮影対象物体をそれぞれ抽出して特徴点に設定し、カメラ初期位置設定部106がカメラ位置データ記憶部109に記憶された初期位置データに基づいてカメラ1の位置を基準にしてカメラ2〜4の相対位置を回転移動R2,R3,R4及び平行移動T2,T3,T4を用いて設定し、カメラ位置補正部107が回転移動R2,R3,R4及び平行移動T2,T3,T4から基本行列を求め、特徴点の画像上の座標値を用いて基本行列の誤差、即ち隣接するカメラ間で撮像された2つの画像データにおけるエピポーラ線と当該2つの画像データに共通する特徴点の座標位置との距離、を算出し、回転移動R2,R3,R4及び平行移動T2,T3,T4を変数にして誤差を最小化し、誤差を最小化したときの回転移動R2,R3,R4及び平行移動T2,T3,T4の値を補正後のカメラ1〜4の実際位置にするように構成した。このため、特徴点の3次元座標値を用いることなく、画像上の特徴点の座標値から求める基本行列をもとにカメラ1〜4の相対位置を求めるため、特徴点の3次元座標値を測定する必要がない。また、従来のようなカメラ間の位置関係を順に決定している手法と異なり、全てのカメラ間の誤差を一括して最小化するため、特定のカメラ位置への誤差の蓄積が発生せず、全てのカメラ間の誤差を均一に補正することができる。 As described above, according to the first embodiment, the plurality of cameras 1 to 4 divide the entire circumference and capture images, and the image acquisition unit 102 acquires the plurality of image data captured by the cameras 1 to 4 and sets the feature points. The object 104 is extracted from each image data between adjacent cameras, and the object to be photographed is extracted and set as a feature point. The camera initial position setting unit 106 stores the initial position stored in the camera position data storage unit 109. Based on the data, the relative positions of the cameras 2 to 4 are set using the rotational movements R 2 , R 3 , R 4 and the parallel movements T 2 , T 3 , T 4 on the basis of the position of the camera 1 to correct the camera position. The unit 107 obtains a basic matrix from the rotational movements R 2 , R 3 , R 4 and the parallel movements T 2 , T 3 , T 4, and an error of the basic matrix using the coordinate values on the feature point image, that is, an adjacent camera Epi between two image data taken between Distance between the coordinate positions of feature points common to over La line and the two image data, is calculated, and the rotational movement R 2, R 3, R 4 and translation T 2, T 3, T 4 to a variable The error is minimized, and the values of the rotational movements R 2 , R 3 , R 4 and the parallel movements T 2 , T 3 , T 4 when the error is minimized are set to the corrected actual positions of the cameras 1 to 4. Configured. Therefore, in order to obtain the relative positions of the cameras 1 to 4 based on the basic matrix obtained from the coordinate values of the feature points on the image without using the three-dimensional coordinate values of the feature points, the three-dimensional coordinate values of the feature points are obtained. There is no need to measure. In addition, unlike conventional methods that determine the positional relationship between cameras in order, the error between all cameras is minimized, so there is no accumulation of errors at specific camera positions. An error between all cameras can be uniformly corrected.

また、画像合成部110が、カメラ位置補正部107が補正したカメラ1〜4の相対位置に基づいて、カメラ1〜4の画像データを円柱面500上に合成し、全周画像を生成するように構成した。カメラ位置補正部107は全てのカメラ間の誤差を一括して最小化しているので、この値を用いて合成した全周画像の画像間の合成誤差も均一にすることができる。   Further, the image composition unit 110 synthesizes the image data of the cameras 1 to 4 on the cylindrical surface 500 based on the relative positions of the cameras 1 to 4 corrected by the camera position correction unit 107 so as to generate an all-round image. Configured. Since the camera position correction unit 107 minimizes errors between all the cameras at once, it is also possible to make the synthesis error between the images of the all-round images synthesized using this value uniform.

実施の形態2.
上記実施の形態1では、カメラ1を基準にした各カメラ2〜4の平行移動T2,T3,T4及び回転移動R2,R3,R4を変数として用い、カメラ1〜4の初期位置と実際位置との誤差を最小化したが、回転移動R2,R3,R4のみを変数として用いてもよい。本実施の形態2では、回転移動R2,R3,R4のみを変数として用いる構成の画像合成装置を説明する。なお、本実施の形態2の画像合成装置は、図1に示す画像合成装置と図面上では同様の構成であるため、以下では図1を援用して説明する。
Embodiment 2. FIG.
In the first embodiment, the parallel movements T 2 , T 3 , T 4 and the rotational movements R 2 , R 3 , R 4 of the cameras 2 to 4 with respect to the camera 1 are used as variables, and the cameras 1 to 4 are used. Although the error between the initial position and the actual position is minimized, only the rotational movements R 2 , R 3 and R 4 may be used as variables. In the second embodiment, an image synthesizing apparatus that uses only rotational movements R 2 , R 3 , and R 4 as variables will be described. The image synthesizing apparatus according to the second embodiment has the same configuration as that of the image synthesizing apparatus shown in FIG. 1, and will be described below with reference to FIG.

一般に、撮像対象が遠距離にある場合、カメラ1〜4の平行移動の誤差より回転移動の誤差の方が投影画像に与える影響が大きい。図9は、カメラの平行移動により発生したずれと回転移動により発生したずれを説明する図である。図9において、不図示のカメラは、真の視点601に位置し、撮像面602の方向を向いて撮像対象603を撮像する。視点601から撮像対象603へ延びる直線と撮像面602とが交わる2次元座標位置を交点604とする。   In general, when the imaging target is at a long distance, the rotational movement error has a greater influence on the projection image than the parallel movement error of the cameras 1 to 4. FIG. 9 is a diagram for explaining the deviation caused by the parallel movement of the camera and the deviation caused by the rotational movement. In FIG. 9, a camera (not shown) is located at the true viewpoint 601 and images the imaging object 603 while facing the direction of the imaging surface 602. A two-dimensional coordinate position where a straight line extending from the viewpoint 601 to the imaging target 603 and the imaging surface 602 intersect is defined as an intersection 604.

ここで、カメラ校正の結果、カメラ位置に誤差があり、実際に撮像された撮像面602上には、交点605の2次元座標位置に撮像対象603があるとする。このカメラ位置の誤差が平行移動によるものである場合には、カメラ位置は視点606の3次元座標位置として求められる。この場合、視点606と交点605から求められる撮像対象603の位置は、撮像対象607の3次元座標位置となる。つまり、撮像対象603,607の位置のずれが平行移動によるずれとなる。
他方、ずれが回転方向により生ずる場合には、真の視点601と交点605から求められる撮像対象603の位置は、撮像対象608の3次元座標位置となり、撮像対象603,608の位置のずれが回転移動によるずれとなる。
Here, it is assumed that there is an error in the camera position as a result of camera calibration, and the imaging target 603 is located at the two-dimensional coordinate position of the intersection 605 on the imaging surface 602 that is actually imaged. When the camera position error is caused by parallel movement, the camera position is obtained as the three-dimensional coordinate position of the viewpoint 606. In this case, the position of the imaging target 603 obtained from the viewpoint 606 and the intersection 605 is the three-dimensional coordinate position of the imaging target 607. That is, the shift of the positions of the imaging targets 603 and 607 is a shift due to the parallel movement.
On the other hand, when the deviation occurs depending on the rotation direction, the position of the imaging target 603 obtained from the true viewpoint 601 and the intersection 605 becomes the three-dimensional coordinate position of the imaging target 608, and the positional deviation of the imaging targets 603 and 608 is rotated. Deviation due to movement.

平行移動によるずれは、真の視点601と撮像対象603の距離にかかわらず一定になるのに対し、回転移動によるずれは、真の視点601と撮像対象603の距離が大きくなるほど増加する。従って、撮像対象が遠距離であるほど、画像合成時に平行移動の合成ずれの割合が小さくなり、回転移動の合成ずれが支配的となる。   The shift due to the parallel movement becomes constant regardless of the distance between the true viewpoint 601 and the imaging target 603, whereas the shift due to the rotational movement increases as the distance between the true viewpoint 601 and the imaging target 603 increases. Therefore, the farther the imaging target is, the smaller the ratio of the composition deviation of the parallel movement during the image composition, and the composition deviation of the rotational movement becomes dominant.

そこで、本実施の形態2に係る画像合成装置では、カメラ位置補正部107が図7に示すステップST15において、合成ずれに影響しやすい回転移動R2,R3,R4のみを変数として修正して、誤差の合計値を最小化する。なお、平行移動T2,T3,T4については、カメラ初期位置設定部106が補正処理開始前にカメラ位置として設定した初期位置データの値で固定すればよい。変数の数を少なくできることにより、誤差の合計値収束までの繰り返し処理の回数を減らし、高速にカメラ1〜4の実際位置を求めることができる。 Therefore, in the image composition device according to the second embodiment, the camera position correction unit 107 corrects only the rotational movements R 2 , R 3 , and R 4 that are likely to affect the composition deviation as variables in step ST15 shown in FIG. To minimize the total error. Note that the translations T 2 , T 3 , and T 4 may be fixed at the initial position data value set as the camera position by the camera initial position setting unit 106 before starting the correction process. By reducing the number of variables, it is possible to reduce the number of iterations until the total error value converges, and to obtain the actual positions of the cameras 1 to 4 at high speed.

以上より、実施の形態2によれば、カメラ位置補正部107が、回転移動R2,R3,R4及び平行移動T2,T3,T4から基本行列を求め、特徴点の画像上の座標値を用いて基本行列の誤差、即ち隣接するカメラ間で撮像された2つの画像データにおけるエピポーラ線と当該2つの画像データに共通する特徴点の座標位置との距離、を算出し、回転移動R2,R3,R4を変数にして誤差を最小化し、誤差を最小化したときの回転移動R2,R3,R4及びカメラ初期位置設定部106が設定した平行移動T2,T3,T4の値を補正後のカメラ1〜4の実際位置にするように構成した。このため、上記実施の形態1の効果に加えて、回転移動Rのみを変数として誤差を最小化したことにより、収束までの繰り返し処理の回数を減らし、高速にカメラ位置を校正することができる効果がある。 As described above, according to the second embodiment, the camera position correcting unit 107 obtains a basic matrix from the rotational movements R 2 , R 3 , R 4 and the parallel movements T 2 , T 3 , T 4, and displays them on the feature point image. The basic matrix error, that is, the distance between the epipolar line in the two image data captured between adjacent cameras and the coordinate position of the feature point common to the two image data, is calculated using the coordinate values of The movements R 2 , R 3 , R 4 are used as variables to minimize the error, the rotational movements R 2 , R 3 , R 4 when the error is minimized, and the parallel movement T 2 , set by the camera initial position setting unit 106. The values of T 3 and T 4 are set to the actual positions of the corrected cameras 1 to 4. For this reason, in addition to the effect of the first embodiment, by minimizing the error using only the rotational movement R as a variable, the effect of reducing the number of iterations until convergence and calibrating the camera position at high speed can be achieved. There is.

1,2,3,4 カメラ(撮像装置)、101 カメラ部、102 画像取得部、103 画像データ記憶部、104 特徴点設定部、105 特徴点位置補正部、106 カメラ初期位置設定部、107 カメラ位置補正部、108 画像補正データ記憶部、109 カメラ位置データ記憶部、110 画像合成部、201〜204 撮像視野、211〜218 特徴点、301 透視カメラAの視点、302 透視カメラBの視点、303 透視カメラAの撮像面、304 透視カメラBの撮像面、305 撮像対象、306,307 交点、308,309 交点(エピポール)、310,311 直線(エピポーラ線)、401 直線(エピポーラ線)、402 距離(誤差)、500 円柱面、601 真の視点、602 撮像面、603,607,608 撮像対象、604,605 交点、606 視点、A,B 透視カメラ。   1, 2, 3, 4 Camera (imaging device), 101 camera unit, 102 image acquisition unit, 103 image data storage unit, 104 feature point setting unit, 105 feature point position correction unit, 106 camera initial position setting unit, 107 camera Position correction unit, 108 Image correction data storage unit, 109 Camera position data storage unit, 110 Image composition unit, 201-204 Imaging field of view, 211-218 Feature points, 301 Perspective of perspective camera A, 302 Perspective of perspective camera B, 303 Imaging surface of perspective camera A, 304 Imaging surface of perspective camera B, 305 Imaging target, 306, 307 intersection, 308, 309 intersection (epipole), 310, 311 straight line (epipolar line), 401 straight line (epipolar line), 402 distance (Error), 500 cylindrical surface, 601 true viewpoint, 602 imaging surface, 603, 607, 608 Imaging target, 604, 605 intersection, 606 viewpoint, A, B perspective camera.

Claims (5)

複数の撮像装置が撮像した複数の画像データを、前記各撮像装置の位置関係に基づいて投影面上に合成するために、前記各撮像装置の位置関係を求める撮像装置校正方法であって、
隣接する前記撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定ステップと、
前記各撮像装置の既知の位置関係に基づいて、前記複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定ステップと、
前記初期位置設定ステップで設定した回転移動量及び平行移動量と、前記特徴点設定ステップで設定した特徴点の画像上の座標値とを用いて、前記各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正ステップとを備えることを特徴とする撮像装置校正方法。
In order to synthesize a plurality of image data captured by a plurality of imaging devices on a projection plane based on a positional relationship between the imaging devices, an imaging device calibration method for obtaining a positional relationship between the imaging devices,
A feature point setting step of extracting an object imaged in common between the adjacent imaging devices from each image data of the adjacent imaging devices, and setting it as a feature point;
Based on the known positional relationship of each imaging device, the relative position of the other imaging device is set using the rotational movement amount and the parallel movement amount with reference to the position of a specific imaging device among the plurality of imaging devices. Initial position setting step to
Using the rotational movement amount and the parallel movement amount set in the initial position setting step and the coordinate value on the image of the feature point set in the feature point setting step, from the actual position of the positional relationship of each imaging device An image pickup apparatus calibration method comprising: an image pickup apparatus position correcting step for correcting an error of the image pickup apparatus.
撮像装置位置補正ステップは、
回転移動量及び平行移動量から撮像装置間の基本行列を求め、特徴点設定ステップで設定した特徴点の画像上の座標値を用いて当該基本行列の誤差を算出する誤差評価ステップと、
前記回転移動量及び前記平行移動量を変数にして前記誤差を最小化し、前記誤差を最小化したときの回転移動量及び平行移動量に基づいて前記各撮像画像の位置関係の実際の位置からの誤差を補正する誤差最小化ステップとを有することを特徴とする請求項1記載の撮像装置校正方法。
The imaging device position correction step includes:
An error evaluation step of obtaining a basic matrix between the imaging devices from the rotational movement amount and the parallel movement amount, and calculating an error of the basic matrix using a coordinate value on the feature point image set in the feature point setting step;
The error is minimized by using the rotational movement amount and the parallel movement amount as variables, and the positional relationship of each captured image from the actual position based on the rotational movement amount and the parallel movement amount when the error is minimized. The imaging apparatus calibration method according to claim 1, further comprising an error minimization step of correcting an error.
撮像装置位置補正ステップは、
回転移動量及び平行移動量から撮像装置間の基本行列を求め、特徴点設定ステップで設定した特徴点の画像上の座標値を用いて当該基本行列の誤差を算出する誤差評価ステップと、
前記回転移動量を変数にして前記誤差を最小化し、前記誤差を最小化したときの回転移動量に基づいて前記各撮像画像の位置関係の実際の位置からの誤差を補正する誤差最小化ステップとを有することを特徴とする請求項1記載の撮像装置校正方法。
The imaging device position correction step includes:
An error evaluation step of obtaining a basic matrix between the imaging devices from the rotational movement amount and the parallel movement amount, and calculating an error of the basic matrix using a coordinate value on the feature point image set in the feature point setting step;
An error minimizing step for minimizing the error using the rotational movement amount as a variable, and correcting an error from an actual position of the positional relationship of the captured images based on the rotational movement amount when the error is minimized; The imaging apparatus calibration method according to claim 1, further comprising:
撮像装置位置補正ステップでは、基本行列の誤差として、隣接する撮像装置間で撮像された2つの画像データにおけるエピポーラ線と特徴点設定部が設定した当該2つの画像データに共通する特徴点の座標位置との距離を算出することを特徴とする請求項1から請求項3のうちのいずれか1項記載の撮像装置校正方法。   In the imaging device position correction step, the coordinate position of the feature point common to the two image data set by the epipolar line and the feature point setting unit in the two image data captured between the adjacent imaging devices as an error of the basic matrix 4. The imaging apparatus calibration method according to claim 1, wherein a distance between the imaging apparatus and the camera is calculated. 全周を分割して撮像する複数の撮像装置と、
前記複数の撮像装置が撮像した複数の画像データを取得する画像取得部と、
隣接する前記撮像装置の各画像データから、当該隣接する撮像装置間で共通に撮像された物体をそれぞれ抽出して特徴点に設定する特徴点設定部と、
前記各撮像装置の既知の位置関係に基づいて、前記複数の撮像装置のうちの特定の撮像装置の位置を基準にしてその他の撮像装置の相対位置を回転移動量及び平行移動量を用いて設定する初期位置設定部と、
前記初期位置設定部が設定した回転移動量及び平行移動量と、前記特徴点設定部で設定した特徴点の画像上の座標値とを用いて、前記各撮像装置の位置関係の実際の位置からの誤差を補正する撮像装置位置補正部と、
前記撮像装置位置補正部が補正した位置関係に基づいて、前記複数の画像データを投影面上に合成し、全周画像を生成する画像合成部とを備えることを特徴とする画像合成装置。
A plurality of imaging devices that divide the entire circumference and image;
An image acquisition unit that acquires a plurality of image data captured by the plurality of imaging devices;
A feature point setting unit that extracts each object imaged in common between the adjacent imaging devices from each image data of the adjacent imaging devices, and sets it as a feature point;
Based on the known positional relationship of each imaging device, the relative position of the other imaging device is set using the rotational movement amount and the parallel movement amount with reference to the position of a specific imaging device among the plurality of imaging devices. An initial position setting unit to
Using the rotational movement amount and the parallel movement amount set by the initial position setting unit and the coordinate value on the image of the feature point set by the feature point setting unit, from the actual position of the positional relationship of each imaging device An imaging device position correction unit that corrects the error of
An image synthesizing apparatus comprising: an image synthesizing unit that synthesizes the plurality of image data on a projection plane based on the positional relationship corrected by the imaging device position correcting unit, and generates an all-round image.
JP2009238338A 2009-10-15 2009-10-15 Imaging apparatus calibration method and image synthesis device Pending JP2011086111A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009238338A JP2011086111A (en) 2009-10-15 2009-10-15 Imaging apparatus calibration method and image synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009238338A JP2011086111A (en) 2009-10-15 2009-10-15 Imaging apparatus calibration method and image synthesis device

Publications (1)

Publication Number Publication Date
JP2011086111A true JP2011086111A (en) 2011-04-28

Family

ID=44079010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009238338A Pending JP2011086111A (en) 2009-10-15 2009-10-15 Imaging apparatus calibration method and image synthesis device

Country Status (1)

Country Link
JP (1) JP2011086111A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093787A (en) * 2011-10-27 2013-05-16 Secom Co Ltd Camera system
JP2013201677A (en) * 2012-03-26 2013-10-03 Mitsubishi Electric Corp Imaging device calibration method and image composition device
JP2015036629A (en) * 2013-08-12 2015-02-23 株式会社リコー Calibration device, method, and program
US9076064B2 (en) 2013-03-08 2015-07-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2017108387A (en) * 2015-10-28 2017-06-15 トッパノ カンパニ, リミテッド.Toppano Co., Ltd. Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
KR20180007545A (en) * 2016-07-13 2018-01-23 삼성전자주식회사 Apparatus and Method of processing 3D image
KR101811157B1 (en) * 2013-12-19 2018-01-25 인텔 코포레이션 Bowl-shaped imaging system
JP2018077196A (en) * 2016-11-11 2018-05-17 スタンレー電気株式会社 Monitoring system
JP2018200484A (en) * 2018-08-08 2018-12-20 キヤノン株式会社 Compound eye optical equipment
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
JP2019180016A (en) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Image synthesizer, image composition method and program
KR20220164218A (en) * 2021-06-04 2022-12-13 (주)에스지유 Adjacent camera recognition system and method between multiple cameras for 3D image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070021A (en) * 2001-08-27 2003-03-07 Sanyo Electric Co Ltd Portable three-dimensional data input apparatus and stereoscopic model generating apparatus
JP2004354257A (en) * 2003-05-29 2004-12-16 Olympus Corp Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP2007089111A (en) * 2005-08-26 2007-04-05 Kazuo Iwane Synthetic display device of two-dimensional drawing and video image
WO2009051028A1 (en) * 2007-10-19 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki Video display device and video display method
JP2009199572A (en) * 2008-01-25 2009-09-03 Kazuo Iwane Three-dimensional machine map, three-dimensional machine map generating device, navigation device, and automatic driving device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070021A (en) * 2001-08-27 2003-03-07 Sanyo Electric Co Ltd Portable three-dimensional data input apparatus and stereoscopic model generating apparatus
JP2004354257A (en) * 2003-05-29 2004-12-16 Olympus Corp Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP2007089111A (en) * 2005-08-26 2007-04-05 Kazuo Iwane Synthetic display device of two-dimensional drawing and video image
WO2009051028A1 (en) * 2007-10-19 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki Video display device and video display method
JP2009199572A (en) * 2008-01-25 2009-09-03 Kazuo Iwane Three-dimensional machine map, three-dimensional machine map generating device, navigation device, and automatic driving device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093787A (en) * 2011-10-27 2013-05-16 Secom Co Ltd Camera system
JP2013201677A (en) * 2012-03-26 2013-10-03 Mitsubishi Electric Corp Imaging device calibration method and image composition device
US9076064B2 (en) 2013-03-08 2015-07-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2015036629A (en) * 2013-08-12 2015-02-23 株式会社リコー Calibration device, method, and program
KR101811157B1 (en) * 2013-12-19 2018-01-25 인텔 코포레이션 Bowl-shaped imaging system
US10210597B2 (en) 2013-12-19 2019-02-19 Intel Corporation Bowl-shaped imaging system
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
JP2017108387A (en) * 2015-10-28 2017-06-15 トッパノ カンパニ, リミテッド.Toppano Co., Ltd. Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
CN107038724A (en) * 2015-10-28 2017-08-11 舆图行动股份有限公司 Panoramic fisheye camera image correction, synthesis and depth of field reconstruction method and system
KR20180007545A (en) * 2016-07-13 2018-01-23 삼성전자주식회사 Apparatus and Method of processing 3D image
KR102526754B1 (en) 2016-07-13 2023-04-27 삼성전자주식회사 Apparatus and Method of processing 3D image
JP2018077196A (en) * 2016-11-11 2018-05-17 スタンレー電気株式会社 Monitoring system
JP2019180016A (en) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 Image synthesizer, image composition method and program
JP2018200484A (en) * 2018-08-08 2018-12-20 キヤノン株式会社 Compound eye optical equipment
KR20220164218A (en) * 2021-06-04 2022-12-13 (주)에스지유 Adjacent camera recognition system and method between multiple cameras for 3D image
KR102513220B1 (en) * 2021-06-04 2023-03-24 주식회사 지에프티 Adjacent camera recognition system and method between multiple cameras for 3D image

Similar Documents

Publication Publication Date Title
JP2011086111A (en) Imaging apparatus calibration method and image synthesis device
CN109313814B (en) Camera calibration system
CN101563709B (en) Calibrating a camera system
EP2751521B1 (en) Method and system for alignment of a pattern on a spatial coded slide image
KR102085228B1 (en) Imaging processing method and apparatus for calibrating depth of depth sensor
Zhang et al. A universal and flexible theodolite-camera system for making accurate measurements over large volumes
CN110728715A (en) Camera angle self-adaptive adjusting method of intelligent inspection robot
JP2011253376A (en) Image processing device, image processing method and program
JPWO2012039043A1 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP5070435B1 (en) Three-dimensional relative coordinate measuring apparatus and method
TW201715880A (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
JP2009017480A (en) Camera calibration device and program thereof
CN107610183B (en) Calibration method of fringe projection phase height conversion mapping model
CN107038753B (en) Stereoscopic vision three-dimensional reconstruction system and method
WO2020199439A1 (en) Single- and dual-camera hybrid measurement-based three-dimensional point cloud computing method
WO2020208686A1 (en) Camera calibration device, camera calibration method, and non-transitory computer-readable medium having program stored thereon
KR20130121290A (en) Georeferencing method of indoor omni-directional images acquired by rotating line camera
JP2002516443A (en) Method and apparatus for three-dimensional display
CN113744340A (en) Calibrating cameras with non-central camera models of axial viewpoint offset and computing point projections
JP2017092756A (en) Image processing system, image processing method, image projecting system and program
BR112021008558A2 (en) apparatus, disparity estimation method, and computer program product
CN116363226A (en) Real-time multi-camera multi-projector 3D imaging processing method and device
JP2008131176A (en) Camera calibration device
JP5901379B2 (en) Imaging apparatus calibration method and image composition apparatus
JP7033294B2 (en) Imaging system, imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130917