JP2022146988A - Camera calibration device, method, and program - Google Patents
Camera calibration device, method, and program Download PDFInfo
- Publication number
- JP2022146988A JP2022146988A JP2021048047A JP2021048047A JP2022146988A JP 2022146988 A JP2022146988 A JP 2022146988A JP 2021048047 A JP2021048047 A JP 2021048047A JP 2021048047 A JP2021048047 A JP 2021048047A JP 2022146988 A JP2022146988 A JP 2022146988A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- cameras
- corresponding points
- calibration
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012937 correction Methods 0.000 claims abstract description 45
- 239000003550 marker Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数のカメラの相対位置を高精度にキャリブレーションする装置、方法及びプログラムに関する。 The present invention relates to an apparatus, method, and program for calibrating the relative positions of a plurality of cameras with high accuracy.
自由視点映像技術は、複数カメラの映像を入力としてカメラの存在しない視点からの視聴を可能にする技術である。自由視点映像の生成手法として、非特許文献1の視体積交差法が知られている。視体積交差法は、図10に示すように異なるカメラ位置から撮影した複数枚のシルエット画像A,B,C,Dを3次元空間へ投影した際の積集合となる部分を3Dモデルとして復元する技術である。
Free-viewpoint video technology is a technology that enables viewing from viewpoints where there are no cameras by inputting video from multiple cameras. As a method for generating a free-viewpoint video, the visual volume intersection method disclosed in Non-Patent
3次元空間とシルエット画像との投影関係は、焦点距離などの内部パラメータおよびカメラの設置位置・向きを示す外部パラメータによって定まる。このとき、各カメラの内部パラメータや外部パラメータの推定に誤差が含まれると、3Dモデルを生成する際の積集合が本来の形状と異なる形で復元されてしまい、結果として生成される3Dモデルに欠損が生じることがある。 The projection relationship between the three-dimensional space and the silhouette image is determined by internal parameters such as the focal length and external parameters indicating the installation position and orientation of the camera. At this time, if there is an error in the estimation of the internal and external parameters of each camera, the intersection when generating the 3D model will be restored in a different form from the original shape, and the resulting 3D model will be Defects may occur.
特許文献1には、カメラパラメータに誤差が含まれることを前提として、カメラパラメータの誤差の大きさに応じてシルエットの輪郭を膨張・縮退することで3Dモデルに欠損が生じることを防止する技術が開示されている。
非特許文献2には、カメラパラメータの推定手法として、3次元空間座標が既知の複数の注目点をカメラで撮影し、各注目点の3次元空間座標とカメラ画像に映り込んだ各注目点に対応する点(対応点)とを、例えば非特許文献3が開示する手法により対応付け、複数の対応関係に基づく再投影誤差、すなわちカメラパラメータによって各注目点を3次元空間座標から画像座標へ投影した点とカメラ画像上の対応点との画像座標誤差、が小さくなるようにカメラパラメータを最適化する技術が開示されている。
In Non-Patent Document 2, as a method of estimating camera parameters, a plurality of points of interest whose 3D space coordinates are known are photographed with a camera, and the 3D space coordinates of each point of interest and each point of interest reflected in the camera image are Corresponding points (corresponding points) are associated, for example, by the method disclosed in Non-Patent
また、カメラ間の相対位置の精度を高める手法として、非特許文献4にはLoop Closingが開示されている。Loop Closingでは多数のカメラもしくはカメラの移動によって被写体の周りを取り囲んで撮影した複数画像に対して、画像上の多数の注目点を基に計算可能な画像の類似度(BoW)を評価し、被写体の周りを囲んだカメラがループを形成するという拘束条件を基に相対位置関係の最適化を行う。 In addition, Non-Patent Document 4 discloses Loop Closing as a technique for increasing the accuracy of relative positions between cameras. Loop Closing evaluates the image similarity (BoW), which can be calculated based on a large number of points of interest on the images, for multiple images captured by surrounding the subject with a large number of cameras or by moving the cameras. The relative positional relationship is optimized based on the constraint that the cameras surrounding the form a loop.
特許文献1では、シルエット画像を膨張又は縮退することで3Dモデルに欠損が生じることを防止するが、シルエット画像の修正のみでは3次元空間とシルエット画像との投影関係を正しく補正できないので、3Dモデルを本来の被写体の3D形状に近付けることが難しい。
In
非特許文献2,3が開示するカメラキャリブレーション手法では、カメラ間の相対位置が考慮されていないため、特許文献1が指摘するカメラパラメータの推定誤差に起因した3Dモデルの欠損を防止できない。
Since the camera calibration methods disclosed in
非特許文献4では、画像上の多数の注目点を基に画像の類似度を評価し、相対位置の最適化は実施しているが、検出される注目点の画像座標に誤差が含まれることが考慮されていない。 In Non-Patent Document 4, image similarity is evaluated based on a large number of points of interest on the image, and relative positions are optimized, but there is an error in the image coordinates of the detected points of interest. is not considered.
本発明の目的は、上記の技術課題を解決し、複数カメラ間に共通して映る点に注目して各カメラ間の相対位置を高精度に推定するカメラキャリブレーション装置、方法及びプログラムを提供することにある。 An object of the present invention is to solve the above technical problems and to provide a camera calibration device, method, and program for estimating the relative position between cameras with high accuracy by paying attention to common points captured by multiple cameras. That's what it is.
上記の目的を達成するために、本発明は、3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention provides an apparatus for relatively calibrating each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by a plurality of cameras, and has the following configuration: It is characterized by having
(1) 較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、前記複数のカメラの1台を基準カメラに決定する手段と、各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備した。 (1) means for associating a plurality of points of interest that appear in common on all camera images of the calibration coordinate model with corresponding points on the camera images; and means for determining one of the plurality of cameras as a reference camera. , means for estimating the relative position of each camera based on the projection relationship between the corresponding points of each camera image, and projecting the corresponding points of each camera to another camera based on the projection relationship, Means for correcting the image coordinates of the corresponding points of the camera based on the image coordinates of the projected points, and Means for calculating the extrinsic parameters of each camera based on the extrinsic parameters of the reference camera and the corrected corresponding points of each camera. Equipped with.
(2) 3次元空間座標との対応付け精度の高い一部のカメラを選択カメラに決定し、前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む各カメラへ投影するようにした。 (2) A part of cameras having a high degree of matching accuracy with the three-dimensional space coordinates is determined as the selected camera, and the means for correcting each corresponding point of the selected camera includes other selected cameras based on the projection relationship. Projected to each camera.
(3) 各カメラの補正後の各対応点の画像座標の誤差を計算する手段と、前記誤差が収束したか否かを判定する手段とを具備し、誤差が収束するまで基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すようにした。 (3) Selecting a reference camera until the error converges, comprising means for calculating the error of the image coordinates of each corresponding point after correction for each camera and means for determining whether the error has converged; The estimation of the relative position and the correction of the image coordinates of the corresponding points are repeated.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) 被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、外部パラメータの相対関係が高精度化される。したがって、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができるようになる。 (1) Since the positions of a plurality of cameras that photograph the subject from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and the extrinsic parameters are calculated based on the corrected relative positions, The relative relationship of external parameters is highly accurate. Therefore, it becomes possible to improve the quality of a 3D model produced based on multiple camera images.
(2) 比較的制度の高い選択カメラの各対応点を他の選択カメラを含む各カメラへ投影するようにしたので、対応付け精度が悪いカメラが存在しても、選択カメラによって対応付けを高精度化(座標補正)できるようになる。 (2) Since each corresponding point of a selected camera with relatively high accuracy is projected onto each camera including other selected cameras, even if there are cameras with poor matching accuracy, the selected camera can improve the matching. Accuracy improvement (coordinate correction) becomes possible.
(3) 誤差が収束するまで座標補正が繰り返されるので、全てのカメラの相対関係を高精度化できるようになる。 (3) Since the coordinate correction is repeated until the error converges, it becomes possible to improve the accuracy of the relative relationships of all cameras.
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、カメラ画像入力部10,歪補正部20,対応付け部30,カメラ決定部40,相対位置計算部50,画像座標補正部60およびカメラパラメータ計算部70を主要な構成としている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main parts of a
このようなカメラキャリブレーション装置1は、汎用の少なくとも一台のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。
Such a
本実施形態は、スポーツシーンを対象とした自由視点映像制作システムへの適用を想定し、図2に示すようにサッカーコートの周囲にコートを向いた16台のカメラを設置し、3Dモデル品質の向上を目的として各カメラのカメラパラメータを推定する場合を例にして説明する。 This embodiment assumes application to a free-viewpoint video production system for sports scenes. A case of estimating the camera parameters of each camera for the purpose of improvement will be described as an example.
画像入力部10には、視点の異なる複数(本実施形態では16台)のカメラで撮影した画像が入力される。歪補正部20は、入力したカメラ画像に対して歪補正を行う。本実施例では撮影時のカメラの設定情報から、非特許文献2などに開示される手法によってカメラごとに次式(1),(2)に代表される歪補正モデルのパラメータ(歪パラメータ)を事前計算し、当該歪パラメータを用いて歪補正を行う。
The
ここで、(x', y'),(x, y)は、それぞれ歪補正前および歪補正後の各カメラ画像上の座標(以下、画像座標と表現する場合もある)であり、ki,Piは、それぞれ放射歪、円周方向の歪に関する歪補正量である。 Here, (x', y') and (x, y) are coordinates on each camera image before distortion correction and after distortion correction (hereinafter sometimes referred to as image coordinates), and k i , P i are distortion correction amounts for radial distortion and circumferential distortion, respectively.
対応付け部30は、3次元座標が既知の較正用座標モデル(本実施形態では、サッカーフィールドモデル)を与えられ、歪補正されたカメラ画像を対象に較正用座標モデルの3次元空間座標 (X, Y, Z) とカメラの画像座標 (x, y)との対応付けを行う。
The associating
本実施形態では、図3に一例を示すようにサッカーコートの規格等から3次元空間座標が既知であるフィールドライン上の少なくとも4つの点に注目し、各注目点の3次元空間座標(Xi, Yi, Zi) とカメラに映ったその対応点の画像座標(xi, yi)との対応付けを行う。 In this embodiment, as an example is shown in FIG. 3, attention is paid to at least four points on the field line whose three-dimensional spatial coordinates are known from the standards of soccer courts, etc., and the three-dimensional spatial coordinates (Xi, Yi, Zi) is associated with the image coordinates (xi, yi) of the corresponding point captured by the camera.
このような対応付けは、全16台のカメラから入力された各画像フレームをコンピュータ上に表示させ、当該コンピュータを制御するポインティング装置を用いてフィールドライン上の各注目点と画像上の各対応点とを対応付けることで実施しても良いし、あるいは非特許文献3が開示する従来手法によって自動推定しても良い。
Such correspondence is performed by displaying each image frame input from all 16 cameras on a computer, and using a pointing device that controls the computer to point each point of interest on the field line and each corresponding point on the image. , or may be automatically estimated by the conventional method disclosed in Non-Patent
さらに、室内競技のように被写体との距離が近い撮影時には、ARマーカ等の既知のパターンを較正用座標モデルに用い、パターンマッチングなどにより自動で対応付けを行っても良い。なお、このような対応付けでは手動および自動のいずれにおいても、ポインティング操作のずれや推定精度の問題により各対応点の画像座標に誤差が含まれることは避けられない。 Furthermore, when photographing an object at a short distance, such as an indoor sport, a known pattern such as an AR marker may be used as a coordinate model for calibration, and the correlation may be automatically performed by pattern matching or the like. In such association, whether manually or automatically, it is unavoidable that the image coordinates of each corresponding point contain errors due to deviations in pointing operations and problems with estimation accuracy.
カメラ決定部40は、基準カメラ決定部41および選択カメラ決定部42を含む。基準カメラ決定部41は、各カメラの相対位置計算の基準となるカメラ1台を基準カメラに決定する。選択カメラ決定部42は、後述する画像座標補正部60が各カメラの画像座標を相対的に補正する際に使用する複数台のカメラを選択カメラに決定する。
前記基準カメラ決定部41は、全16台のカメラから任意の1台を基準カメラに決定できる。選択カメラ決定部42は、3次元空間の同一点に対応する各カメラ画像の点を3次元空間座標へ投影し、他のカメラとの収束具合に基づいて複数の選択カメラを決定する。
The reference
本実施形態では、対応付け部30で対応付けたサッカーコート上の各注目点の3次元空間座標とカメラ画像上の各対応点の画像座標との組み合わせから、非特許文献2が開示する手法などによりホモグラフィ行列の推定を実施し、推定したホモグラフィ行列を用いて各カメラからサッカーコート平面へ点を投影する。
In the present embodiment, the method disclosed in Non-Patent Document 2 or the like is calculated from the combination of the three-dimensional space coordinates of each point of interest on the soccer court and the image coordinates of each corresponding point on the camera image, which are associated by the
ここで、ホモグラフィ行列とは2つの異なる平面上の点の射影変換行列であり、サッカーコート平面上の点(Xi, Yi, 1)をカメラ画像上の点(xi, yi, 1)に射影する行列式は次式(3)で表される。 Here, the homography matrix is the projective transformation matrix of points on two different planes, and the point (X i , Y i , 1) on the soccer court plane is transformed into the point (x i , y i , The determinant projected onto 1) is expressed by the following equation (3).
本実施形態では、投影した点が他のカメラと大きくずれているカメラを除外して残りのカメラを選択カメラに決定すべく、全カメラから投影した点のマハラノビス距離によって閾値を設け、閾値を超えるカメラを除外するようにしている。 In this embodiment, a threshold is set according to the Mahalanobis distance of the points projected from all the cameras, and the threshold exceeds the threshold in order to exclude cameras whose projected points are greatly deviated from the other cameras and to determine the remaining cameras as the selected cameras. I'm trying to exclude cameras.
なお、選択カメラの決定方法は上記の手法に限定されるものではなく、評価するカメラごとに当該カメラを除く残り全てのカメラの画像に基づいて制作した一部カメラ3Dモデルと、全てのカメラの画像に基づいて制作した全カメラ3Dモデルとの品質を比較し、一部カメラ3Dモデルの品質が全カメラ3Dモデルの品質よりも優った時の当該除いたカメラ以外を選択カメラに決定するようにしても良い。 In addition, the method of determining the selected camera is not limited to the above method. Compare the quality with all camera 3D models created based on the image, and when the quality of some camera 3D models is better than the quality of all camera 3D models, select cameras other than the excluded camera. can be
あるいは上記の選択で残ったカメラのみを対象に同様の選択を繰り返し、所定の条件下で最終的に残ったカメラのみを選択カメラに決定するようにしても良い。3Dモデルの品質は、制作したモデルをカメラ位置に投影したときのシルエットとそのカメラに映る実写の被写体のシルエットとの一致具合により自動で評価できる。 Alternatively, the same selection may be repeated for only the cameras remaining in the above selection, and only the cameras finally remaining under predetermined conditions may be determined as the selected cameras. The quality of the 3D model can be automatically evaluated by the degree of matching between the silhouette of the produced model projected onto the camera position and the silhouette of the photographed subject captured by the camera.
なお、基準カメラについても選択カメラと同様に、3次元空間の同一点に対応する各カメラ画像の対応点を3次元空間へ投影し、再投影誤差が最小となる1台を選択すれば、カメラの相対位置のみならず絶対位置についてもより高精度化できるようになる。 As for the reference camera, as with the selected camera, by projecting the corresponding point of each camera image corresponding to the same point in the 3D space into the 3D space and selecting the one that minimizes the reprojection error, the camera Not only the relative position of , but also the absolute position can be made more precise.
相対位置計算部50は、図4に示すように、選択カメラごとに他の各カメラ(他の選択カメラおよび基準カメラを含む)との同一の注目点に対応する対応点の射影関係を計算してホモグラフィ行列を推定する。
As shown in FIG. 4, the relative
本実施形態では、前記対応付け部30が対応付けに用いた較正用座標モデルの各注目点に対応する各カメラ画像の各対応点に着目し、当該各対応点の画像座標の関係に基づいてホモグラフィ行列が計算される。
In this embodiment, attention is paid to each corresponding point of each camera image corresponding to each attention point of the calibration coordinate model used for the correspondence by the associating
画像座標補正部60は、相対位置計算部50が計算した各選択カメラと他の各カメラとの射影関係に基づいて各カメラの各対応点の画像座標を相対的に補正する。本実施形態では、初めに図5に示すように、選択カメラごとに他の各カメラとの相対位置関係を示すホモグラフィ行列を用いて各対応点を他の各カメラに投影する。したがって、選択カメラがM台であれば投影先の各カメラには対応点ごとにM個の点が投影されることになる。
The image coordinate
次いで、投影先のカメラごとに、各選択カメラから同一の対応点に関して投影された複数の点の代表値として、図6に示すように各点の画像座標の平均値や中央値を計算し、当該代表値を対応点ごとに補正後のカメラ画像座標として仮決定する。このとき、投影先が他の選択カメラであれば代表値計算に自身の対応点の画像座標を含めるが、投影先が選択カメラ以外であれば投影された点の画像座標のみから代表値の計算を実施する。 Next, as shown in FIG. 6, as representative values of a plurality of points projected with respect to the same corresponding point from each selected camera for each projection destination camera, the average value and median value of the image coordinates of each point are calculated, The representative value is tentatively determined as the corrected camera image coordinates for each corresponding point. At this time, if the projection destination is another selected camera, the image coordinates of its own corresponding points are included in the representative value calculation, but if the projection destination is other than the selected camera, the representative value is calculated only from the image coordinates of the projected points. to implement.
カメラパラメータ計算部70は、全てのカメラのカメラパラメータを計算してカメラ位置を決定する。カメラパラメータは3次元空間座標上の点(Xi, Yi, Zi)を画像座標上の点(xi, yi) に変換するものであり、次式(4)で表される。
A
ここで、(cx, cy)はカメラ画像中の主点であり、通常は画像中心である。fは焦点距離を示し、本実施形態ではズーム値の代わりに算出したい値である。これらは内部パラメータと呼ばれ、焦点距離を固定している限りは一定の値となる。また、r11~r33はカメラの回転量を示す回転行列、t1~t3はカメラの位置を示す並進行列であり、sはスケーリングに用いる係数である。回転行列r11~r33および並進行列t1~t3で構成される行列は外部パラメータと呼ばれる。 where (c x , c y ) is the principal point in the camera image, usually the image center. f indicates the focal length, which is a value to be calculated instead of the zoom value in this embodiment. These are called internal parameters, and are constant values as long as the focal length is fixed. Also, r 11 to r 33 are rotation matrices indicating the amount of camera rotation, t 1 to t 3 are translation matrices indicating camera positions, and s is a coefficient used for scaling. The matrices composed of rotation matrices r 11 to r 33 and translation matrices t 1 to t 3 are called extrinsic parameters.
本実施形態では、カメラ決定部40が決定した基準カメラについて補正後の各対応点の画像座標とサッカーコートの対応する注目点との関係でホモグラフィ行列を推定し、非特許文献2などによって予め求めた内部パラメータを用いることで基準カメラの外部パラメータを計算する。
In this embodiment, the homography matrix is estimated based on the relationship between the image coordinates of each corresponding point after correction and the corresponding point of interest on the soccer court for the reference camera determined by the
次いで、基準カメラと他の各カメラとのホモグラフィ行列および事前に用意した各カメラの内部パラメータを用いて、基準カメラからの相対位置を示す外部パラメータを決定する。そして、3次元空間のサッカーコートを基準に計算した基準カメラの外部パラメータと各カメラの相対位置を示す外部パラメータとに基づいて全てのカメラのサッカーコート基準の外部パラメータを計算し、カメラパラメータを出力する。 Next, using the homography matrix of the reference camera and each of the other cameras and the previously prepared intrinsic parameters of each camera, the extrinsic parameters indicating the relative position from the reference camera are determined. Then, based on the extrinsic parameters of the reference camera calculated based on the soccer court in 3D space and the extrinsic parameters indicating the relative position of each camera, the extrinsic parameters of the soccer court are calculated for all cameras, and the camera parameters are output. do.
本発明によれば、被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、図7に示すように、各カメラパラメータは実際のカメラパラメータとは多少ずれたパラメータを取り得るが各カメラの相対位置の誤差が減少する。その結果、外部パラメータの相対関係が高精度化されるので、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができる。 According to the present invention, the positions of a plurality of cameras that photograph an object from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and the extrinsic parameters are calculated based on the corrected relative positions. Therefore, as shown in FIG. 7, although each camera parameter can take a parameter slightly deviated from the actual camera parameter, the error in the relative position of each camera is reduced. As a result, since the relative relationship of the external parameters is highly accurate, it is possible to improve the quality of the 3D model produced based on the multiple camera images.
図8は、本発明の第2実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は誤差判定部80を具備し、再投影誤差が収束するまで各カメラの対応点の画像座標補正を繰り返すようにした点に特徴がある。
FIG. 8 is a functional block diagram showing the configuration of the main parts of the
誤差判定部80は、誤差計算部81および収束判定部82を含み、前記画像座標補正部60における各カメラの対応点の画像座標の補正により、基準カメラを除くカメラ間の相対位置が高精度化されたか否かを判定する。
The
前記誤差計算部81は、図9に示すように、前記基準カメラ決定部41が決定した基準カメラ(1台)に対して残り全てのカメラ(15台)から、対応点ごとに前記補正前および補正後の各画像座標を前記投影関係に基づいて再投影し、基準カメラが撮影した対応する各注目点の画素位置と各カメラからの再投影位置との距離をそれぞれ再投影誤差として計算する。
As shown in FIG. 9, the
収束判定部82は、基準カメラを除く残り全てカメラにおいて、補正後の画素位置の再投影誤差が補正前の画素位置の再投影誤差よりも小さければ、誤差補正が収束したと判断して当該補正後の各画素位置を各対応点の画素位置に決定する。
If the reprojection error of the pixel position after correction is smaller than the reprojection error of the pixel position before correction in all cameras other than the reference camera, the
これに対して、補正後の画素位置の再投影誤差の方が大きいカメラが存在すれば、当該カメラの各対応点の画像座標を補正前の画像座標に戻す一方、補正後の画像座標の再投影誤差の方が小さかったカメラについては当該補正後の画像座標を維持したまま前記カメラ決定部40へ戻る。
On the other hand, if there is a camera with a larger re-projection error of the pixel position after correction, the image coordinates of each corresponding point of that camera are returned to the image coordinates before correction, while the image coordinates after correction are re-projected. For the camera with the smaller projection error, the process returns to the
そして、カメラ決定部40における基準カメラおよび選択カメラの決定、相対位置推定部50における相対位置の決定並びに画像座標補正部60による画像座標補正の各処理を繰り返す。当該繰り返しは、今回の補正後の画像座標の再投影誤差が前回の補正後または補正前の画像座標の再投影誤差よりも大きいカメラ数がゼロまたは所定の閾値を下回るまで繰り返される。あるいは全てのカメラにおいて、今回の補正後の画像座標の再投影誤差と前回の補正後または補正前の画像座標の再投影誤差との差分の絶対値が所定の閾値を下回るまで繰り返されるようにしても良い。
Then, the determination of the reference camera and the selected camera by the
本実施形態によれば、外部パラメータの基準となる基準カメラに対する他の各カメラの相対位置が補正されるので、基準カメラの外部パラメータと他の各カメラの外部パラメータとの相対関係を高精度化できるようになり、3Dモデルの品質を更に向上させることができるようになる。 According to this embodiment, since the relative positions of the other cameras with respect to the reference camera serving as the reference of the external parameters are corrected, the relative relationship between the external parameters of the reference camera and the external parameters of the other cameras is improved. It will be possible to further improve the quality of the 3D model.
そして、上記の各実施形態によれば高品質な被写体3Dモデルを通信インフラ経由でもリアルタイムで提供することが可能となるので、地理的あるいは経済的な格差を超えて多くの人々に多様なエンターテインメントを提供できるようになる。その結果、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。
Furthermore, according to each of the above embodiments, it is possible to provide high-quality 3D models of subjects in real time even via communication infrastructure, thereby providing diverse entertainment to many people beyond geographical or economic disparities. be able to provide. As a result, the UN-led Sustainable Development Goals (SDGs) include Goal 9 “Build resilient infrastructure and promote inclusive and sustainable industrialization” and
なお、本実施形態では相対位置の誤差を再投影誤差として評価したが、本発明はこれのみに限定されるものではなく、補正前、補正後の各画像座標情報からそれぞれ3Dモデルを生成し、3Dモデルの品質に基づいて評価を行っても良い。 In this embodiment, the relative position error is evaluated as a reprojection error, but the present invention is not limited to this. An evaluation may be made based on the quality of the 3D model.
1…カメラキャリブレーション装置,10…カメラ画像入力部,20…歪補正部,30…対応付け部,40…カメラ決定部,41…基準カメラ決定部,42…選択カメラ決定部,50…相対位置計算部,60…画像座標補正部,70…カメラパラメータ計算部,80…誤差判定部,81…誤差計算部,82…収束判定部
1
Claims (15)
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、
前記複数のカメラの1台を基準カメラに決定する手段と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備したことを特徴とするカメラキャリブレーション装置。 In a device for relatively calibrating each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by a plurality of cameras,
means for associating a plurality of points of interest that appear in common on all camera images of the calibration coordinate model with corresponding points on the camera images;
means for determining one of the plurality of cameras as a reference camera;
means for estimating the relative position of each camera based on the projective relationship between the corresponding points of each camera image;
means for projecting the corresponding points of each camera onto another camera based on the projection relationship, and correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected points;
A camera calibration device comprising means for calculating the extrinsic parameters of each camera based on the extrinsic parameters of a reference camera and the corrected corresponding points of each camera.
前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項1に記載のカメラキャリブレーション装置。 Equipped with means for determining a selected plurality of selected cameras from all cameras,
2. The camera calibration apparatus according to claim 1, wherein said correcting means projects each corresponding point of the selected camera onto other cameras including other selected cameras based on said projection relationship.
前記誤差が収束したか否かを判定する手段とを具備し、
前記誤差の収束を判定する手段は、前記誤差が収束するまで前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項1ないし5のいずれかに記載のカメラキャリブレーション装置。 means for calculating the error of the image coordinates of each corresponding point after the correction for each camera;
and means for determining whether the error has converged,
6. The means for determining convergence of said error repeats selection of said reference camera, estimation of relative position, and correction of image coordinates of corresponding points until said error converges. A camera calibration device as described.
前記誤差の収束を判定する手段は、補正後の対応点の再投影誤差が補正前の対応点の再投影誤差よりも大きいカメラの各対応点を補正前に戻し、前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項6に記載のカメラキャリブレーション装置。 the means for calculating the error projects the corresponding points before and after the correction of each camera image onto a reference camera to calculate reprojection errors of the corresponding points before and after the correction;
The means for determining convergence of the error restores each corresponding point of the camera whose reprojection error of the corresponding point after correction is larger than the reprojection error of the corresponding point before correction to the state before correction, selects the reference camera, selects the relative 7. The camera calibration device according to claim 6, wherein estimation of positions and correction of image coordinates of corresponding points are repeated.
基準カメラの較正用座標モデルに対する射影関係と内部パラメータとに基づいて第1外部パラメータを計算し、
基準カメラと他のカメラとの射影関係および各カメラの内部パラメータに基づいて基準カメラと他のカメラとの相対位置を示す第2外部パラメータを計算し、
前記第1及び第2外部パラメータに基づいて各カメラの較正用座標モデルに対する外部パラメータを計算することを特徴とする請求項1ないし8のいずれかに記載のカメラキャリブレーション装置。 The means for calculating the extrinsic parameter comprises:
calculating a first extrinsic parameter based on the projection relation of the reference camera to the calibrating coordinate model and the extrinsic parameter;
calculating a second extrinsic parameter indicating the relative position of the reference camera and the other camera based on the projective relationship between the reference camera and the other camera and the intrinsic parameters of each camera;
9. The camera calibration apparatus according to any one of claims 1 to 8, wherein extrinsic parameters for calibration coordinate models of each camera are calculated based on said first and second extrinsic parameters.
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付け、
前記複数のカメラの1台を基準カメラに決定し、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定し、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正し、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算することを特徴とするカメラキャリブレーション方法。 In a method in which a computer relatively calibrates each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by a plurality of cameras,
Correlating a plurality of points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images,
determining one of the plurality of cameras as a reference camera;
estimating the relative position of each camera based on the projection relationship between each corresponding point of each camera image,
After projecting the corresponding points of each camera to another camera based on the projection relationship, correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected points,
A camera calibration method, wherein the extrinsic parameters of each camera are calculated based on the extrinsic parameters of a reference camera and the corrected corresponding points of each camera.
前記対応点の画像座標を補正する際に、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項13に記載のカメラキャリブレーション方法。 Decide a part of multiple selected from all cameras as the selected camera,
14. The camera calibration according to claim 13, wherein when correcting the image coordinates of the corresponding points, each corresponding point of the selected camera is projected onto other cameras including other selected cameras based on the projection relationship. application method.
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手順と、
前記複数のカメラの1台を基準カメラに決定する手順と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手順と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手順と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手順と、をコンピュータに実行させるカメラキャリブレーションプログラム。 In a program that relatively calibrates each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by multiple cameras,
a procedure for associating a plurality of points of interest that appear in common on all camera images of the calibration coordinate model with corresponding points on the camera images;
determining one of the plurality of cameras as a reference camera;
a step of estimating the relative position of each camera based on the projective relationship between the corresponding points of each camera image;
a step of projecting the corresponding points of each camera onto another camera based on the projection relationship, and then correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected points;
A camera calibration program for causing a computer to execute a procedure for calculating the extrinsic parameters of each camera based on the extrinsic parameters of the reference camera and the corrected corresponding points of each camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048047A JP7429667B2 (en) | 2021-03-23 | 2021-03-23 | Camera calibration device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048047A JP7429667B2 (en) | 2021-03-23 | 2021-03-23 | Camera calibration device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022146988A true JP2022146988A (en) | 2022-10-06 |
JP7429667B2 JP7429667B2 (en) | 2024-02-08 |
Family
ID=83462811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021048047A Active JP7429667B2 (en) | 2021-03-23 | 2021-03-23 | Camera calibration device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7429667B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4238586B2 (en) | 2003-01-30 | 2009-03-18 | ソニー株式会社 | Calibration processing apparatus, calibration processing method, and computer program |
JP2007025863A (en) | 2005-07-13 | 2007-02-01 | Advanced Telecommunication Research Institute International | Photographing system, photographing method, and image processing program |
JP5901379B2 (en) | 2012-03-26 | 2016-04-06 | 三菱電機株式会社 | Imaging apparatus calibration method and image composition apparatus |
JP6456244B2 (en) | 2015-05-25 | 2019-01-23 | Kddi株式会社 | Camera calibration method and apparatus |
CN108702439B (en) | 2016-02-29 | 2020-10-09 | 索尼公司 | Information processing apparatus, method, computer readable medium, and multi-camera system |
JP2018194891A (en) | 2017-05-12 | 2018-12-06 | 富士通株式会社 | Three-dimensional shape estimation method, three-dimensional shape estimation program and three-dimensional shape estimation apparatus |
JP2019190974A (en) | 2018-04-24 | 2019-10-31 | キヤノン株式会社 | Calibration device, calibration method and program |
-
2021
- 2021-03-23 JP JP2021048047A patent/JP7429667B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7429667B2 (en) | 2024-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875537B2 (en) | Multi view camera registration | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
JP5285619B2 (en) | Camera system calibration | |
WO2019179200A1 (en) | Three-dimensional reconstruction method for multiocular camera device, vr camera device, and panoramic camera device | |
US20200334842A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
JP2017156162A (en) | Information processing device, information processing method, and program | |
JP2019079487A (en) | Parameter optimization device, parameter optimization method and program | |
KR100996897B1 (en) | correction method of Radial Distortion Based on a Line-Fitting | |
WO2023116430A1 (en) | Video and city information model three-dimensional scene fusion method and system, and storage medium | |
CN110827321A (en) | Multi-camera cooperative active target tracking method based on three-dimensional information | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
US11284052B2 (en) | Method for automatically restoring a calibrated state of a projection system | |
JP7489253B2 (en) | Depth map generating device and program thereof, and depth map generating system | |
CN113763544A (en) | Image determination method, image determination device, electronic equipment and computer-readable storage medium | |
CN110619664B (en) | Laser pattern-assisted camera distance posture calculation method and server | |
JP5530391B2 (en) | Camera pose estimation apparatus, camera pose estimation method, and camera pose estimation program | |
JP2021128592A (en) | Image processing device, image processing method, learned model generation method, and program | |
JP7429667B2 (en) | Camera calibration device, method and program | |
JP2005141655A (en) | Three-dimensional modeling apparatus and three-dimensional modeling method | |
JP2005063041A (en) | Three-dimensional modeling apparatus, method, and program | |
Kano et al. | Accurate and practical calibration of multiple pan-tilt-zoom cameras for live broadcasts | |
CN114820798A (en) | Calibrator matching method and device | |
JP2019032660A (en) | Imaging system and imaging method | |
CN113920196A (en) | Visual positioning method and device and computer equipment | |
CN113763545A (en) | Image determination method, image determination device, electronic equipment and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7429667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |