JP7429667B2 - Camera calibration device, method and program - Google Patents
Camera calibration device, method and program Download PDFInfo
- Publication number
- JP7429667B2 JP7429667B2 JP2021048047A JP2021048047A JP7429667B2 JP 7429667 B2 JP7429667 B2 JP 7429667B2 JP 2021048047 A JP2021048047 A JP 2021048047A JP 2021048047 A JP2021048047 A JP 2021048047A JP 7429667 B2 JP7429667 B2 JP 7429667B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- cameras
- image
- calibration
- corresponding point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000012937 correction Methods 0.000 claims description 43
- 239000003550 marker Substances 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 41
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、複数のカメラの相対位置を高精度にキャリブレーションする装置、方法及びプログラムに関する。 The present invention relates to an apparatus, method, and program for calibrating the relative positions of a plurality of cameras with high precision.
自由視点映像技術は、複数カメラの映像を入力としてカメラの存在しない視点からの視聴を可能にする技術である。自由視点映像の生成手法として、非特許文献1の視体積交差法が知られている。視体積交差法は、図10に示すように異なるカメラ位置から撮影した複数枚のシルエット画像A,B,C,Dを3次元空間へ投影した際の積集合となる部分を3Dモデルとして復元する技術である。
Free viewpoint video technology is a technology that inputs video from multiple cameras and enables viewing from a viewpoint where no camera exists. As a free viewpoint video generation method, the visual volume intersection method described in Non-Patent
3次元空間とシルエット画像との投影関係は、焦点距離などの内部パラメータおよびカメラの設置位置・向きを示す外部パラメータによって定まる。このとき、各カメラの内部パラメータや外部パラメータの推定に誤差が含まれると、3Dモデルを生成する際の積集合が本来の形状と異なる形で復元されてしまい、結果として生成される3Dモデルに欠損が生じることがある。 The projection relationship between the three-dimensional space and the silhouette image is determined by internal parameters such as focal length and external parameters indicating the installation position and orientation of the camera. At this time, if errors are included in the estimation of the internal and external parameters of each camera, the intersection set when generating the 3D model will be restored in a shape different from the original shape, and the resulting 3D model will be Defects may occur.
特許文献1には、カメラパラメータに誤差が含まれることを前提として、カメラパラメータの誤差の大きさに応じてシルエットの輪郭を膨張・縮退することで3Dモデルに欠損が生じることを防止する技術が開示されている。
非特許文献2には、カメラパラメータの推定手法として、3次元空間座標が既知の複数の注目点をカメラで撮影し、各注目点の3次元空間座標とカメラ画像に映り込んだ各注目点に対応する点(対応点)とを、例えば非特許文献3が開示する手法により対応付け、複数の対応関係に基づく再投影誤差、すなわちカメラパラメータによって各注目点を3次元空間座標から画像座標へ投影した点とカメラ画像上の対応点との画像座標誤差、が小さくなるようにカメラパラメータを最適化する技術が開示されている。
Non-Patent Document 2 describes a camera parameter estimation method in which multiple points of interest whose three-dimensional spatial coordinates are known are photographed with a camera, and the three-dimensional spatial coordinates of each point of interest and each point of interest reflected in the camera image are calculated. Corresponding points (corresponding points) are correlated using the method disclosed in Non-Patent
また、カメラ間の相対位置の精度を高める手法として、非特許文献4にはLoop Closingが開示されている。Loop Closingでは多数のカメラもしくはカメラの移動によって被写体の周りを取り囲んで撮影した複数画像に対して、画像上の多数の注目点を基に計算可能な画像の類似度(BoW)を評価し、被写体の周りを囲んだカメラがループを形成するという拘束条件を基に相対位置関係の最適化を行う。 Furthermore, as a method for increasing the accuracy of relative positions between cameras, Loop Closing is disclosed in Non-Patent Document 4. Loop Closing evaluates image similarity (BoW), which can be calculated based on many points of interest on the images, for multiple images taken surrounding the subject by multiple cameras or moving cameras, and then The relative positional relationship is optimized based on the constraint that the cameras surrounding the frame form a loop.
特許文献1では、シルエット画像を膨張又は縮退することで3Dモデルに欠損が生じることを防止するが、シルエット画像の修正のみでは3次元空間とシルエット画像との投影関係を正しく補正できないので、3Dモデルを本来の被写体の3D形状に近付けることが難しい。
非特許文献2,3が開示するカメラキャリブレーション手法では、カメラ間の相対位置が考慮されていないため、特許文献1が指摘するカメラパラメータの推定誤差に起因した3Dモデルの欠損を防止できない。
The camera calibration methods disclosed in
非特許文献4では、画像上の多数の注目点を基に画像の類似度を評価し、相対位置の最適化は実施しているが、検出される注目点の画像座標に誤差が含まれることが考慮されていない。 Non-Patent Document 4 evaluates the similarity of images based on a large number of points of interest on the image and optimizes the relative position, but the image coordinates of the detected points of interest include errors. is not taken into account.
本発明の目的は、上記の技術課題を解決し、複数カメラ間に共通して映る点に注目して各カメラ間の相対位置を高精度に推定するカメラキャリブレーション装置、方法及びプログラムを提供することにある。 An object of the present invention is to solve the above technical problems and provide a camera calibration device, method, and program for estimating the relative position between each camera with high accuracy by focusing on the points that appear in common between multiple cameras. There is a particular thing.
上記の目的を達成するために、本発明は、3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention provides an apparatus for relatively calibrating each camera based on camera images taken by a plurality of cameras of a calibration coordinate model with known three-dimensional coordinates, which has the following configuration. It is characterized by having the following.
(1) 較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、前記複数のカメラの1台を基準カメラに決定する手段と、各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備した。 (1) means for associating a plurality of points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images; and means for determining one of the plurality of cameras as a reference camera; , a means for estimating the relative position of each camera based on a projection relationship between the cameras of each corresponding point of each camera image; and a means for projecting the corresponding point of each camera onto another camera based on the projection relationship; means for correcting the image coordinates of the corresponding points of the cameras based on the image coordinates of the projected points; and means for calculating the extrinsic parameters of each camera based on the extrinsic parameters of the reference camera and the corrected corresponding points of each camera. Equipped with.
(2) 3次元空間座標との対応付け精度の高い一部のカメラを選択カメラに決定し、前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む各カメラへ投影するようにした。 (2) The correcting means determines some cameras with high accuracy of correspondence with three-dimensional space coordinates as selected cameras, and the correcting means includes each corresponding point of the selected camera including other selected cameras based on the projective relationship. Projected to each camera.
(3) 各カメラの補正後の各対応点の画像座標の誤差を計算する手段と、前記誤差が収束したか否かを判定する手段とを具備し、誤差が収束するまで基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すようにした。 (3) comprising means for calculating an error in the image coordinates of each corresponding point after correction of each camera, and means for determining whether the error has converged, and selecting a reference camera until the error has converged; Estimation of relative positions and correction of image coordinates of corresponding points are repeated.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) 被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、外部パラメータの相対関係が高精度化される。したがって、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができるようになる。 (1) The positions of multiple cameras that photograph the subject from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and external parameters are calculated based on the corrected relative positions. The relative relationships of external parameters are highly accurate. Therefore, it becomes possible to improve the quality of 3D models created based on multiple camera images.
(2) 比較的制度の高い選択カメラの各対応点を他の選択カメラを含む各カメラへ投影するようにしたので、対応付け精度が悪いカメラが存在しても、選択カメラによって対応付けを高精度化(座標補正)できるようになる。 (2) Since each corresponding point of the selected camera with relatively high accuracy is projected to each camera including other selected cameras, even if there is a camera with poor matching accuracy, the selected camera can improve the matching. Accuracy (coordinate correction) will be possible.
(3) 誤差が収束するまで座標補正が繰り返されるので、全てのカメラの相対関係を高精度化できるようになる。 (3) Since coordinate correction is repeated until the error converges, the relative relationships of all cameras can be highly accurate.
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、カメラ画像入力部10,歪補正部20,対応付け部30,カメラ決定部40,相対位置計算部50,画像座標補正部60およびカメラパラメータ計算部70を主要な構成としている。
Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of main parts of a
このようなカメラキャリブレーション装置1は、汎用の少なくとも一台のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。
Such a
本実施形態は、スポーツシーンを対象とした自由視点映像制作システムへの適用を想定し、図2に示すようにサッカーコートの周囲にコートを向いた16台のカメラを設置し、3Dモデル品質の向上を目的として各カメラのカメラパラメータを推定する場合を例にして説明する。 This embodiment assumes application to a free-viewpoint video production system targeting sports scenes, and as shown in Figure 2, 16 cameras facing the soccer court are installed around the soccer court to create a 3D model quality image. An example will be explained in which camera parameters of each camera are estimated for the purpose of improvement.
画像入力部10には、視点の異なる複数(本実施形態では16台)のカメラで撮影した画像が入力される。歪補正部20は、入力したカメラ画像に対して歪補正を行う。本実施例では撮影時のカメラの設定情報から、非特許文献2などに開示される手法によってカメラごとに次式(1),(2)に代表される歪補正モデルのパラメータ(歪パラメータ)を事前計算し、当該歪パラメータを用いて歪補正を行う。
Images captured by a plurality of cameras (16 in this embodiment) from different viewpoints are input to the
ここで、(x', y'),(x, y)は、それぞれ歪補正前および歪補正後の各カメラ画像上の座標(以下、画像座標と表現する場合もある)であり、ki,Piは、それぞれ放射歪、円周方向の歪に関する歪補正量である。 Here, (x', y') and (x, y) are the coordinates on each camera image before and after distortion correction (hereinafter sometimes expressed as image coordinates), and k i , P i are distortion correction amounts for radial distortion and circumferential distortion, respectively.
対応付け部30は、3次元座標が既知の較正用座標モデル(本実施形態では、サッカーフィールドモデル)を与えられ、歪補正されたカメラ画像を対象に較正用座標モデルの3次元空間座標 (X, Y, Z) とカメラの画像座標 (x, y)との対応付けを行う。
The
本実施形態では、図3に一例を示すようにサッカーコートの規格等から3次元空間座標が既知であるフィールドライン上の少なくとも4つの点に注目し、各注目点の3次元空間座標(Xi, Yi, Zi) とカメラに映ったその対応点の画像座標(xi, yi)との対応付けを行う。 In this embodiment, as an example shown in FIG. 3, attention is paid to at least four points on the field line whose three-dimensional spatial coordinates are known from the standards of soccer courts, etc., and the three-dimensional spatial coordinates (Xi, Yi, Zi) and the image coordinates (xi, yi) of the corresponding point seen by the camera.
このような対応付けは、全16台のカメラから入力された各画像フレームをコンピュータ上に表示させ、当該コンピュータを制御するポインティング装置を用いてフィールドライン上の各注目点と画像上の各対応点とを対応付けることで実施しても良いし、あるいは非特許文献3が開示する従来手法によって自動推定しても良い。
This kind of correspondence is achieved by displaying each image frame input from all 16 cameras on a computer, and using a pointing device that controls the computer to identify each point of interest on the field line and each corresponding point on the image. It may be carried out by associating with the above, or it may be automatically estimated by the conventional method disclosed in
さらに、室内競技のように被写体との距離が近い撮影時には、ARマーカ等の既知のパターンを較正用座標モデルに用い、パターンマッチングなどにより自動で対応付けを行っても良い。なお、このような対応付けでは手動および自動のいずれにおいても、ポインティング操作のずれや推定精度の問題により各対応点の画像座標に誤差が含まれることは避けられない。 Furthermore, when shooting at a close distance to the subject, such as in an indoor competition, a known pattern such as an AR marker may be used as a calibration coordinate model, and correspondence may be automatically performed by pattern matching or the like. In addition, in both manual and automatic mapping, errors are inevitably included in the image coordinates of each corresponding point due to deviations in pointing operations and problems with estimation accuracy.
カメラ決定部40は、基準カメラ決定部41および選択カメラ決定部42を含む。基準カメラ決定部41は、各カメラの相対位置計算の基準となるカメラ1台を基準カメラに決定する。選択カメラ決定部42は、後述する画像座標補正部60が各カメラの画像座標を相対的に補正する際に使用する複数台のカメラを選択カメラに決定する。
The
前記基準カメラ決定部41は、全16台のカメラから任意の1台を基準カメラに決定できる。選択カメラ決定部42は、3次元空間の同一点に対応する各カメラ画像の点を3次元空間座標へ投影し、他のカメラとの収束具合に基づいて複数の選択カメラを決定する。
The reference
本実施形態では、対応付け部30で対応付けたサッカーコート上の各注目点の3次元空間座標とカメラ画像上の各対応点の画像座標との組み合わせから、非特許文献2が開示する手法などによりホモグラフィ行列の推定を実施し、推定したホモグラフィ行列を用いて各カメラからサッカーコート平面へ点を投影する。
In this embodiment, from the combination of the three-dimensional spatial coordinates of each point of interest on the soccer court, which are matched by the matching
ここで、ホモグラフィ行列とは2つの異なる平面上の点の射影変換行列であり、サッカーコート平面上の点(Xi, Yi, 1)をカメラ画像上の点(xi, yi, 1)に射影する行列式は次式(3)で表される。 Here, the homography matrix is a projective transformation matrix of points on two different planes, and it transforms a point (X i , Y i , 1) on the soccer court plane into a point (x i , y i , The determinant projected onto 1) is expressed by the following equation (3).
本実施形態では、投影した点が他のカメラと大きくずれているカメラを除外して残りのカメラを選択カメラに決定すべく、全カメラから投影した点のマハラノビス距離によって閾値を設け、閾値を超えるカメラを除外するようにしている。 In this embodiment, in order to exclude cameras whose projected points are significantly different from other cameras and determine the remaining cameras as selected cameras, a threshold is set based on the Mahalanobis distance of the projected points from all cameras, and if the projected point exceeds the threshold. I'm trying to exclude cameras.
なお、選択カメラの決定方法は上記の手法に限定されるものではなく、評価するカメラごとに当該カメラを除く残り全てのカメラの画像に基づいて制作した一部カメラ3Dモデルと、全てのカメラの画像に基づいて制作した全カメラ3Dモデルとの品質を比較し、一部カメラ3Dモデルの品質が全カメラ3Dモデルの品質よりも優った時の当該除いたカメラ以外を選択カメラに決定するようにしても良い。 Note that the method for determining the selected camera is not limited to the above method, and for each camera to be evaluated, a partial camera 3D model created based on images of all cameras other than the camera in question, and a 3D model of all cameras. The quality is compared with all camera 3D models created based on the image, and when the quality of some camera 3D models is higher than the quality of all camera 3D models, the camera other than the relevant camera is determined as the selected camera. It's okay.
あるいは上記の選択で残ったカメラのみを対象に同様の選択を繰り返し、所定の条件下で最終的に残ったカメラのみを選択カメラに決定するようにしても良い。3Dモデルの品質は、制作したモデルをカメラ位置に投影したときのシルエットとそのカメラに映る実写の被写体のシルエットとの一致具合により自動で評価できる。 Alternatively, the same selection may be repeated for only the cameras remaining in the above selection, and only the cameras that ultimately remain under predetermined conditions may be determined as the selected cameras. The quality of a 3D model can be automatically evaluated based on how well the silhouette of the created model when projected at the camera position matches the silhouette of the subject as seen by the camera.
なお、基準カメラについても選択カメラと同様に、3次元空間の同一点に対応する各カメラ画像の対応点を3次元空間へ投影し、再投影誤差が最小となる1台を選択すれば、カメラの相対位置のみならず絶対位置についてもより高精度化できるようになる。 As for the reference camera, in the same way as the selected camera, if the corresponding points of each camera image corresponding to the same point in the 3D space are projected into the 3D space and the one with the minimum reprojection error is selected, the camera Not only the relative position but also the absolute position can be made more precise.
相対位置計算部50は、図4に示すように、選択カメラごとに他の各カメラ(他の選択カメラおよび基準カメラを含む)との同一の注目点に対応する対応点の射影関係を計算してホモグラフィ行列を推定する。
As shown in FIG. 4, the relative
本実施形態では、前記対応付け部30が対応付けに用いた較正用座標モデルの各注目点に対応する各カメラ画像の各対応点に着目し、当該各対応点の画像座標の関係に基づいてホモグラフィ行列が計算される。
In this embodiment, the
画像座標補正部60は、相対位置計算部50が計算した各選択カメラと他の各カメラとの射影関係に基づいて各カメラの各対応点の画像座標を相対的に補正する。本実施形態では、初めに図5に示すように、選択カメラごとに他の各カメラとの相対位置関係を示すホモグラフィ行列を用いて各対応点を他の各カメラに投影する。したがって、選択カメラがM台であれば投影先の各カメラには対応点ごとにM個の点が投影されることになる。
The image coordinate
次いで、投影先のカメラごとに、各選択カメラから同一の対応点に関して投影された複数の点の代表値として、図6に示すように各点の画像座標の平均値や中央値を計算し、当該代表値を対応点ごとに補正後のカメラ画像座標として仮決定する。このとき、投影先が他の選択カメラであれば代表値計算に自身の対応点の画像座標を含めるが、投影先が選択カメラ以外であれば投影された点の画像座標のみから代表値の計算を実施する。 Next, for each projection destination camera, the average value and median value of the image coordinates of each point are calculated as the representative values of the multiple points projected from each selected camera regarding the same corresponding point, as shown in FIG. The representative value is provisionally determined as the corrected camera image coordinates for each corresponding point. At this time, if the projection destination is another selected camera, the image coordinates of its own corresponding point are included in the representative value calculation, but if the projection destination is other than the selected camera, the representative value is calculated only from the image coordinates of the projected point. Implement.
カメラパラメータ計算部70は、全てのカメラのカメラパラメータを計算してカメラ位置を決定する。カメラパラメータは3次元空間座標上の点(Xi, Yi, Zi)を画像座標上の点(xi, yi) に変換するものであり、次式(4)で表される。
The camera
ここで、(cx, cy)はカメラ画像中の主点であり、通常は画像中心である。fは焦点距離を示し、本実施形態ではズーム値の代わりに算出したい値である。これらは内部パラメータと呼ばれ、焦点距離を固定している限りは一定の値となる。また、r11~r33はカメラの回転量を示す回転行列、t1~t3はカメラの位置を示す並進行列であり、sはスケーリングに用いる係数である。回転行列r11~r33および並進行列t1~t3で構成される行列は外部パラメータと呼ばれる。 Here, (c x , c y ) is the principal point in the camera image, usually at the center of the image. f indicates the focal length, which in this embodiment is a value to be calculated instead of the zoom value. These are called internal parameters and remain constant values as long as the focal length is fixed. Further, r 11 to r 33 are rotation matrices indicating the amount of rotation of the camera, t 1 to t 3 are translation matrices indicating the position of the camera, and s is a coefficient used for scaling. A matrix composed of rotation matrices r 11 to r 33 and translation matrices t 1 to t 3 is called an extrinsic parameter.
本実施形態では、カメラ決定部40が決定した基準カメラについて補正後の各対応点の画像座標とサッカーコートの対応する注目点との関係でホモグラフィ行列を推定し、非特許文献2などによって予め求めた内部パラメータを用いることで基準カメラの外部パラメータを計算する。
In the present embodiment, the homography matrix is estimated based on the relationship between the image coordinates of each corresponding point after correction and the corresponding point of interest on the soccer court for the reference camera determined by the
次いで、基準カメラと他の各カメラとのホモグラフィ行列および事前に用意した各カメラの内部パラメータを用いて、基準カメラからの相対位置を示す外部パラメータを決定する。そして、3次元空間のサッカーコートを基準に計算した基準カメラの外部パラメータと各カメラの相対位置を示す外部パラメータとに基づいて全てのカメラのサッカーコート基準の外部パラメータを計算し、カメラパラメータを出力する。 Next, using homography matrices between the reference camera and each other camera and internal parameters of each camera prepared in advance, external parameters indicating the relative position from the reference camera are determined. Then, the external parameters of all cameras based on the soccer court are calculated based on the external parameters of the reference camera calculated based on the soccer court in 3D space and the external parameters indicating the relative position of each camera, and the camera parameters are output. do.
本発明によれば、被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、図7に示すように、各カメラパラメータは実際のカメラパラメータとは多少ずれたパラメータを取り得るが各カメラの相対位置の誤差が減少する。その結果、外部パラメータの相対関係が高精度化されるので、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができる。 According to the present invention, the positions of multiple cameras that photograph a subject from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and external parameters are calculated based on the corrected relative positions. Therefore, as shown in FIG. 7, although each camera parameter may take a parameter that is slightly different from the actual camera parameter, the error in the relative position of each camera is reduced. As a result, the relative relationships between external parameters become more precise, making it possible to improve the quality of 3D models created based on multiple camera images.
図8は、本発明の第2実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は誤差判定部80を具備し、再投影誤差が収束するまで各カメラの対応点の画像座標補正を繰り返すようにした点に特徴がある。
FIG. 8 is a functional block diagram showing the configuration of the main parts of the
誤差判定部80は、誤差計算部81および収束判定部82を含み、前記画像座標補正部60における各カメラの対応点の画像座標の補正により、基準カメラを除くカメラ間の相対位置が高精度化されたか否かを判定する。
The
前記誤差計算部81は、図9に示すように、前記基準カメラ決定部41が決定した基準カメラ(1台)に対して残り全てのカメラ(15台)から、対応点ごとに前記補正前および補正後の各画像座標を前記投影関係に基づいて再投影し、基準カメラが撮影した対応する各注目点の画素位置と各カメラからの再投影位置との距離をそれぞれ再投影誤差として計算する。
As shown in FIG. 9, the
収束判定部82は、基準カメラを除く残り全てカメラにおいて、補正後の画素位置の再投影誤差が補正前の画素位置の再投影誤差よりも小さければ、誤差補正が収束したと判断して当該補正後の各画素位置を各対応点の画素位置に決定する。
If the reprojection error of the pixel position after correction is smaller than the reprojection error of the pixel position before correction in all the remaining cameras except the reference camera, the
これに対して、補正後の画素位置の再投影誤差の方が大きいカメラが存在すれば、当該カメラの各対応点の画像座標を補正前の画像座標に戻す一方、補正後の画像座標の再投影誤差の方が小さかったカメラについては当該補正後の画像座標を維持したまま前記カメラ決定部40へ戻る。
On the other hand, if there is a camera with a larger reprojection error of the pixel position after correction, the image coordinates of each corresponding point of that camera will be returned to the image coordinates before correction, and the image coordinates after correction will be reprojected. For cameras with smaller projection errors, the process returns to the
そして、カメラ決定部40における基準カメラおよび選択カメラの決定、相対位置推定部50における相対位置の決定並びに画像座標補正部60による画像座標補正の各処理を繰り返す。当該繰り返しは、今回の補正後の画像座標の再投影誤差が前回の補正後または補正前の画像座標の再投影誤差よりも大きいカメラ数がゼロまたは所定の閾値を下回るまで繰り返される。あるいは全てのカメラにおいて、今回の補正後の画像座標の再投影誤差と前回の補正後または補正前の画像座標の再投影誤差との差分の絶対値が所定の閾値を下回るまで繰り返されるようにしても良い。
Then, the processes of determining the reference camera and selected camera by the
本実施形態によれば、外部パラメータの基準となる基準カメラに対する他の各カメラの相対位置が補正されるので、基準カメラの外部パラメータと他の各カメラの外部パラメータとの相対関係を高精度化できるようになり、3Dモデルの品質を更に向上させることができるようになる。 According to this embodiment, the relative position of each other camera with respect to the reference camera that serves as a reference for external parameters is corrected, so the relative relationship between the external parameters of the reference camera and the external parameters of each other camera is improved. This makes it possible to further improve the quality of 3D models.
そして、上記の各実施形態によれば高品質な被写体3Dモデルを通信インフラ経由でもリアルタイムで提供することが可能となるので、地理的あるいは経済的な格差を超えて多くの人々に多様なエンターテインメントを提供できるようになる。その結果、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。 According to each of the above embodiments, it is possible to provide high-quality 3D models of objects in real time even via communication infrastructure, so it is possible to provide a variety of entertainment to many people regardless of geographic or economic disparity. be able to provide it. As a result, Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations: ``Build resilient infrastructure and promote inclusive and sustainable industrialization'' and Goal 11: ``Make cities inclusive, safe and resilient.'' It will be possible to contribute to "making the world more sustainable and more sustainable."
なお、本実施形態では相対位置の誤差を再投影誤差として評価したが、本発明はこれのみに限定されるものではなく、補正前、補正後の各画像座標情報からそれぞれ3Dモデルを生成し、3Dモデルの品質に基づいて評価を行っても良い。 Note that in this embodiment, the relative position error was evaluated as a reprojection error, but the present invention is not limited to this, and a 3D model is generated from each image coordinate information before and after correction, Evaluation may be performed based on the quality of the 3D model.
1…カメラキャリブレーション装置,10…カメラ画像入力部,20…歪補正部,30…対応付け部,40…カメラ決定部,41…基準カメラ決定部,42…選択カメラ決定部,50…相対位置計算部,60…画像座標補正部,70…カメラパラメータ計算部,80…誤差判定部,81…誤差計算部,82…収束判定部 1... Camera calibration device, 10... Camera image input section, 20... Distortion correction section, 30... Corresponding section, 40... Camera determining section, 41... Reference camera determining section, 42... Selected camera determining section, 50... Relative position Calculation section, 60... Image coordinate correction section, 70... Camera parameter calculation section, 80... Error judgment section, 81... Error calculation section, 82... Convergence judgment section
Claims (15)
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、
前記複数のカメラの1台を基準カメラに決定する手段と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備したことを特徴とするカメラキャリブレーション装置。 In a device that relatively calibrates each camera based on camera images taken by multiple cameras of a calibration coordinate model whose three-dimensional coordinates are known,
means for associating a plurality of points of interest common to all camera images of the calibration coordinate model with corresponding points on the camera images;
means for determining one of the plurality of cameras as a reference camera;
means for estimating the relative position of each camera based on the projection relationship between the cameras of each corresponding point of each camera image;
means for projecting the corresponding point of each camera onto another camera based on the projection relationship, and correcting the image coordinates of the corresponding point of the projection destination camera based on the image coordinate of the projected point;
A camera calibration device comprising means for calculating an extrinsic parameter of each camera based on an extrinsic parameter of a reference camera and corrected corresponding points of each camera.
前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項1に記載のカメラキャリブレーション装置。 comprising means for determining a plurality of selected cameras from all the cameras as selected cameras;
2. The camera calibration apparatus according to claim 1, wherein the correcting means projects each corresponding point of the selected camera onto other cameras including another selected camera based on the projection relationship.
前記誤差が収束したか否かを判定する手段とを具備し、
前記誤差の収束を判定する手段は、前記誤差が収束するまで前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項1ないし5のいずれかに記載のカメラキャリブレーション装置。 means for calculating an error in the image coordinates of each corresponding point after the correction of each camera;
and means for determining whether the error has converged,
6. The means for determining the convergence of the error repeats the selection of the reference camera, the estimation of the relative position, and the correction of the image coordinates of the corresponding points until the error converges. Camera calibration device as described.
前記誤差の収束を判定する手段は、補正後の対応点の再投影誤差が補正前の対応点の再投影誤差よりも大きいカメラの各対応点を補正前に戻し、前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項6に記載のカメラキャリブレーション装置。 The means for calculating the error projects each corresponding point before and after correction of each camera image onto a reference camera, and calculates a reprojection error of each corresponding point before and after correction,
The means for determining the convergence of the errors returns each corresponding point of the camera to the state before correction, in which the reprojection error of the corresponding point after correction is larger than the reprojection error of the corresponding point before correction, and selects the reference camera, and 7. The camera calibration device according to claim 6, wherein position estimation and correction of image coordinates of corresponding points are repeated.
基準カメラの較正用座標モデルに対する射影関係と内部パラメータとに基づいて第1外部パラメータを計算し、
基準カメラと他のカメラとの射影関係および各カメラの内部パラメータに基づいて基準カメラと他のカメラとの相対位置を示す第2外部パラメータを計算し、
前記第1及び第2外部パラメータに基づいて各カメラの較正用座標モデルに対する外部パラメータを計算することを特徴とする請求項1ないし8のいずれかに記載のカメラキャリブレーション装置。 The means for calculating the external parameters include:
calculating a first extrinsic parameter based on the internal parameter and a projection relationship with respect to the calibration coordinate model of the reference camera;
calculating a second external parameter indicating the relative position of the reference camera and the other cameras based on the projective relationship between the reference camera and the other cameras and the internal parameters of each camera;
9. The camera calibration apparatus according to claim 1, wherein an external parameter for a calibration coordinate model of each camera is calculated based on the first and second external parameters.
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付け、
前記複数のカメラの1台を基準カメラに決定し、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定し、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正し、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算することを特徴とするカメラキャリブレーション方法。 A method in which a computer relatively calibrates each camera based on camera images taken by a plurality of cameras of a calibration coordinate model whose three-dimensional coordinates are known,
Associating multiple points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images,
determining one of the plurality of cameras as a reference camera;
Estimate the relative position of each camera based on the projection relationship between the cameras of each corresponding point in each camera image,
After projecting the corresponding points of each camera to another camera based on the projection relationship, correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected point,
A camera calibration method characterized in that an extrinsic parameter of each camera is calculated based on an extrinsic parameter of a reference camera and corresponding points after correction of each camera.
前記対応点の画像座標を補正する際に、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項13に記載のカメラキャリブレーション方法。 Decide some of the selected cameras from all the cameras as the selected cameras,
14. The camera calibrator according to claim 13, wherein when correcting the image coordinates of the corresponding points, each corresponding point of the selected camera is projected onto other cameras including another selected camera based on the projection relationship. tion method.
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手順と、
前記複数のカメラの1台を基準カメラに決定する手順と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手順と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手順と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手順と、をコンピュータに実行させるカメラキャリブレーションプログラム。 In a program that relatively calibrates each camera based on camera images taken by multiple cameras of a calibration coordinate model with known 3D coordinates,
a procedure for associating a plurality of points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images;
a procedure for determining one of the plurality of cameras as a reference camera;
a step of estimating the relative position of each camera based on the projective relationship between the cameras of each corresponding point of each camera image;
a step of projecting the corresponding point of each camera onto another camera based on the projection relationship, and then correcting the image coordinates of the corresponding point of the projection destination camera based on the image coordinate of the projected point;
A camera calibration program that causes a computer to execute steps for calculating external parameters of each camera based on external parameters of a reference camera and corresponding points after correction of each camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048047A JP7429667B2 (en) | 2021-03-23 | 2021-03-23 | Camera calibration device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021048047A JP7429667B2 (en) | 2021-03-23 | 2021-03-23 | Camera calibration device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022146988A JP2022146988A (en) | 2022-10-06 |
JP7429667B2 true JP7429667B2 (en) | 2024-02-08 |
Family
ID=83462811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021048047A Active JP7429667B2 (en) | 2021-03-23 | 2021-03-23 | Camera calibration device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7429667B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004235934A (en) | 2003-01-30 | 2004-08-19 | Sony Corp | Calibration processor, calibration processing method, and computer program |
JP2007025863A (en) | 2005-07-13 | 2007-02-01 | Advanced Telecommunication Research Institute International | Photographing system, photographing method, and image processing program |
JP2013201677A (en) | 2012-03-26 | 2013-10-03 | Mitsubishi Electric Corp | Imaging device calibration method and image composition device |
WO2017149869A1 (en) | 2016-02-29 | 2017-09-08 | ソニー株式会社 | Information processing device, method, program, and multi-camera system |
JP2018194891A (en) | 2017-05-12 | 2018-12-06 | 富士通株式会社 | Three-dimensional shape estimation method, three-dimensional shape estimation program and three-dimensional shape estimation apparatus |
JP6456244B2 (en) | 2015-05-25 | 2019-01-23 | Kddi株式会社 | Camera calibration method and apparatus |
JP2019190974A (en) | 2018-04-24 | 2019-10-31 | キヤノン株式会社 | Calibration device, calibration method and program |
-
2021
- 2021-03-23 JP JP2021048047A patent/JP7429667B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004235934A (en) | 2003-01-30 | 2004-08-19 | Sony Corp | Calibration processor, calibration processing method, and computer program |
JP2007025863A (en) | 2005-07-13 | 2007-02-01 | Advanced Telecommunication Research Institute International | Photographing system, photographing method, and image processing program |
JP2013201677A (en) | 2012-03-26 | 2013-10-03 | Mitsubishi Electric Corp | Imaging device calibration method and image composition device |
JP6456244B2 (en) | 2015-05-25 | 2019-01-23 | Kddi株式会社 | Camera calibration method and apparatus |
WO2017149869A1 (en) | 2016-02-29 | 2017-09-08 | ソニー株式会社 | Information processing device, method, program, and multi-camera system |
JP2018194891A (en) | 2017-05-12 | 2018-12-06 | 富士通株式会社 | Three-dimensional shape estimation method, three-dimensional shape estimation program and three-dimensional shape estimation apparatus |
JP2019190974A (en) | 2018-04-24 | 2019-10-31 | キヤノン株式会社 | Calibration device, calibration method and program |
Non-Patent Citations (1)
Title |
---|
鶴崎裕貴 外3名,Line Segment Detectorを用いたカメラキャリブレーションの高精度化に関する検討,情報処理学会 研究報告 オーディオビジュアル複合情報処理(AVM) 2020-AVM-108 [online] ,日本,情報処理学会,2020年02月20日,pp.1~6 |
Also Published As
Publication number | Publication date |
---|---|
JP2022146988A (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875339B (en) | Fisheye image splicing method based on strip-shaped calibration plate | |
JP5285619B2 (en) | Camera system calibration | |
CN107862720B (en) | Pose optimization method and pose optimization system based on multi-map fusion | |
JP6775969B2 (en) | Information processing equipment, information processing methods, and programs | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
US9774837B2 (en) | System for performing distortion correction and calibration using pattern projection, and method using the same | |
US9883163B2 (en) | Method and system for determining camera parameters from a long range gradient based on alignment differences in non-point image landmarks | |
JP4887374B2 (en) | A method for obtaining scattered parallax field in stereo vision | |
CN110728715A (en) | Camera angle self-adaptive adjusting method of intelligent inspection robot | |
CN107843251B (en) | Pose estimation method of mobile robot | |
JP2009017480A (en) | Camera calibration device and program thereof | |
JP5366258B2 (en) | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement | |
KR100996897B1 (en) | correction method of Radial Distortion Based on a Line-Fitting | |
US20080226159A1 (en) | Method and System For Calculating Depth Information of Object in Image | |
US11284052B2 (en) | Method for automatically restoring a calibrated state of a projection system | |
CN113870358A (en) | Method and equipment for joint calibration of multiple 3D cameras | |
KR20050061115A (en) | Apparatus and method for separating object motion from camera motion | |
WO2021161878A1 (en) | Image processing device, image processing method, method of generating learned model, and program | |
JP7489253B2 (en) | Depth map generating device and program thereof, and depth map generating system | |
CN113763544A (en) | Image determination method, image determination device, electronic equipment and computer-readable storage medium | |
JP7429667B2 (en) | Camera calibration device, method and program | |
Benosman et al. | A new catadioptric sensor for the panoramic vision of mobile robots | |
CN113902846B (en) | Indoor three-dimensional modeling method based on monocular depth camera and mileage sensor | |
CN114820798A (en) | Calibrator matching method and device | |
JP4248212B2 (en) | Stereo image processing apparatus and stereo image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7429667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |