JP2022146988A - Camera calibration device, method, and program - Google Patents

Camera calibration device, method, and program Download PDF

Info

Publication number
JP2022146988A
JP2022146988A JP2021048047A JP2021048047A JP2022146988A JP 2022146988 A JP2022146988 A JP 2022146988A JP 2021048047 A JP2021048047 A JP 2021048047A JP 2021048047 A JP2021048047 A JP 2021048047A JP 2022146988 A JP2022146988 A JP 2022146988A
Authority
JP
Japan
Prior art keywords
camera
cameras
corresponding points
calibration
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021048047A
Other languages
Japanese (ja)
Other versions
JP7429667B2 (en
Inventor
諒太 小磯
Ryota Koiso
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021048047A priority Critical patent/JP7429667B2/en
Publication of JP2022146988A publication Critical patent/JP2022146988A/en
Application granted granted Critical
Publication of JP7429667B2 publication Critical patent/JP7429667B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide a camera calibration device configured to accurately estimate relative positions of cameras by focusing on a point captured in common by the cameras, a method, and a program.SOLUTION: A camera calibration device includes: an association unit 30 which associates a plurality of points of interest captured in common in all camera images of a calibration coordinate model with corresponding points on the camera images; a reference camera determination unit 41 which determines one of the cameras as a reference camera; a relative position calculation unit 50 which calculates relative positions of the cameras on the basis of projection relationship, between the cameras, of the corresponding points of the camera images; an image coordinate correction unit 60 which projects the corresponding points of the cameras to the other cameras on the basis of the projection relationship, and corrects image coordinates of the corresponding points of the projected camera on the basis of image coordinates of the projected points; and a camera parameter calculation unit 70 which calculates external parameters of the cameras on the basis of external parameter of the reference camera and the corrected corresponding points of the cameras.SELECTED DRAWING: Figure 1

Description

本発明は、複数のカメラの相対位置を高精度にキャリブレーションする装置、方法及びプログラムに関する。 The present invention relates to an apparatus, method, and program for calibrating the relative positions of a plurality of cameras with high accuracy.

自由視点映像技術は、複数カメラの映像を入力としてカメラの存在しない視点からの視聴を可能にする技術である。自由視点映像の生成手法として、非特許文献1の視体積交差法が知られている。視体積交差法は、図10に示すように異なるカメラ位置から撮影した複数枚のシルエット画像A,B,C,Dを3次元空間へ投影した際の積集合となる部分を3Dモデルとして復元する技術である。 Free-viewpoint video technology is a technology that enables viewing from viewpoints where there are no cameras by inputting video from multiple cameras. As a method for generating a free-viewpoint video, the visual volume intersection method disclosed in Non-Patent Document 1 is known. In the visual volume intersection method, as shown in Fig. 10, multiple silhouette images A, B, C, and D taken from different camera positions are projected onto a three-dimensional space, and the intersection of these images is restored as a 3D model. Technology.

3次元空間とシルエット画像との投影関係は、焦点距離などの内部パラメータおよびカメラの設置位置・向きを示す外部パラメータによって定まる。このとき、各カメラの内部パラメータや外部パラメータの推定に誤差が含まれると、3Dモデルを生成する際の積集合が本来の形状と異なる形で復元されてしまい、結果として生成される3Dモデルに欠損が生じることがある。 The projection relationship between the three-dimensional space and the silhouette image is determined by internal parameters such as the focal length and external parameters indicating the installation position and orientation of the camera. At this time, if there is an error in the estimation of the internal and external parameters of each camera, the intersection when generating the 3D model will be restored in a different form from the original shape, and the resulting 3D model will be Defects may occur.

特許文献1には、カメラパラメータに誤差が含まれることを前提として、カメラパラメータの誤差の大きさに応じてシルエットの輪郭を膨張・縮退することで3Dモデルに欠損が生じることを防止する技術が開示されている。 Patent Document 1 discloses a technique for preventing defects in a 3D model by expanding or contracting the outline of a silhouette according to the magnitude of the camera parameter error, on the premise that the camera parameter contains an error. disclosed.

非特許文献2には、カメラパラメータの推定手法として、3次元空間座標が既知の複数の注目点をカメラで撮影し、各注目点の3次元空間座標とカメラ画像に映り込んだ各注目点に対応する点(対応点)とを、例えば非特許文献3が開示する手法により対応付け、複数の対応関係に基づく再投影誤差、すなわちカメラパラメータによって各注目点を3次元空間座標から画像座標へ投影した点とカメラ画像上の対応点との画像座標誤差、が小さくなるようにカメラパラメータを最適化する技術が開示されている。 In Non-Patent Document 2, as a method of estimating camera parameters, a plurality of points of interest whose 3D space coordinates are known are photographed with a camera, and the 3D space coordinates of each point of interest and each point of interest reflected in the camera image are Corresponding points (corresponding points) are associated, for example, by the method disclosed in Non-Patent Document 3, and each point of interest is projected from the three-dimensional spatial coordinates to the image coordinates by the reprojection error based on the plurality of correspondence relationships, that is, the camera parameters. There is disclosed a technique for optimizing camera parameters so that the image coordinate error between a point and a corresponding point on the camera image is small.

また、カメラ間の相対位置の精度を高める手法として、非特許文献4にはLoop Closingが開示されている。Loop Closingでは多数のカメラもしくはカメラの移動によって被写体の周りを取り囲んで撮影した複数画像に対して、画像上の多数の注目点を基に計算可能な画像の類似度(BoW)を評価し、被写体の周りを囲んだカメラがループを形成するという拘束条件を基に相対位置関係の最適化を行う。 In addition, Non-Patent Document 4 discloses Loop Closing as a technique for increasing the accuracy of relative positions between cameras. Loop Closing evaluates the image similarity (BoW), which can be calculated based on a large number of points of interest on the images, for multiple images captured by surrounding the subject with a large number of cameras or by moving the cameras. The relative positional relationship is optimized based on the constraint that the cameras surrounding the form a loop.

特願2020-212906号Patent application No. 2020-212906 特願2020-012676号Patent application No. 2020-012676 特願2020-127288号Patent application No. 2020-127288

Laurentini, A."The visual hull concept for silhouette based image understanding.", IEEE Transactions on Pattern Analysis and Machine Intelligence, 16, 150-162, (1994).Laurentini, A. "The visual hull concept for silhouette based image understanding.", IEEE Transactions on Pattern Analysis and Machine Intelligence, 16, 150-162, (1994). Z. Zhang. A flexible new technique for camera calibration. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 22(11):1330-1334, 2000.Z. Zhang. A flexible new technique for camera calibration. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 22(11):1330-1334, 2000. 鶴崎 裕貴、野中 敬介、渡邊 良亮、内藤 整, "Line Segment Detectorを用いたカメラキャリブレーションの高精度化に関する検討," , 2020-AVM-108, 7, pp. 1 - 6, 2020.Yuki Tsurusaki, Keisuke Nonaka, Ryosuke Watanabe, Tadashi Naito, "Study on Improving Accuracy of Camera Calibration Using Line Segment Detector," 2020-AVM-108, 7, pp. 1 - 6, 2020. R Mur-Artal, JMM Montiel, JD Tardos. ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 2015.R Mur-Artal, JMM Montiel, JD Tardos. ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 2015.

特許文献1では、シルエット画像を膨張又は縮退することで3Dモデルに欠損が生じることを防止するが、シルエット画像の修正のみでは3次元空間とシルエット画像との投影関係を正しく補正できないので、3Dモデルを本来の被写体の3D形状に近付けることが難しい。 In Patent Document 1, the silhouette image is expanded or contracted to prevent loss in the 3D model. is difficult to approximate the original 3D shape of the subject.

非特許文献2,3が開示するカメラキャリブレーション手法では、カメラ間の相対位置が考慮されていないため、特許文献1が指摘するカメラパラメータの推定誤差に起因した3Dモデルの欠損を防止できない。 Since the camera calibration methods disclosed in Non-Patent Documents 2 and 3 do not consider the relative position between cameras, it is not possible to prevent the loss of the 3D model caused by the camera parameter estimation error pointed out in Patent Document 1.

非特許文献4では、画像上の多数の注目点を基に画像の類似度を評価し、相対位置の最適化は実施しているが、検出される注目点の画像座標に誤差が含まれることが考慮されていない。 In Non-Patent Document 4, image similarity is evaluated based on a large number of points of interest on the image, and relative positions are optimized, but there is an error in the image coordinates of the detected points of interest. is not considered.

本発明の目的は、上記の技術課題を解決し、複数カメラ間に共通して映る点に注目して各カメラ間の相対位置を高精度に推定するカメラキャリブレーション装置、方法及びプログラムを提供することにある。 An object of the present invention is to solve the above technical problems and to provide a camera calibration device, method, and program for estimating the relative position between cameras with high accuracy by paying attention to common points captured by multiple cameras. That's what it is.

上記の目的を達成するために、本発明は、3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention provides an apparatus for relatively calibrating each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by a plurality of cameras, and has the following configuration: It is characterized by having

(1) 較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、前記複数のカメラの1台を基準カメラに決定する手段と、各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備した。 (1) means for associating a plurality of points of interest that appear in common on all camera images of the calibration coordinate model with corresponding points on the camera images; and means for determining one of the plurality of cameras as a reference camera. , means for estimating the relative position of each camera based on the projection relationship between the corresponding points of each camera image, and projecting the corresponding points of each camera to another camera based on the projection relationship, Means for correcting the image coordinates of the corresponding points of the camera based on the image coordinates of the projected points, and Means for calculating the extrinsic parameters of each camera based on the extrinsic parameters of the reference camera and the corrected corresponding points of each camera. Equipped with.

(2) 3次元空間座標との対応付け精度の高い一部のカメラを選択カメラに決定し、前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む各カメラへ投影するようにした。 (2) A part of cameras having a high degree of matching accuracy with the three-dimensional space coordinates is determined as the selected camera, and the means for correcting each corresponding point of the selected camera includes other selected cameras based on the projection relationship. Projected to each camera.

(3) 各カメラの補正後の各対応点の画像座標の誤差を計算する手段と、前記誤差が収束したか否かを判定する手段とを具備し、誤差が収束するまで基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すようにした。 (3) Selecting a reference camera until the error converges, comprising means for calculating the error of the image coordinates of each corresponding point after correction for each camera and means for determining whether the error has converged; The estimation of the relative position and the correction of the image coordinates of the corresponding points are repeated.

本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.

(1) 被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、外部パラメータの相対関係が高精度化される。したがって、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができるようになる。 (1) Since the positions of a plurality of cameras that photograph the subject from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and the extrinsic parameters are calculated based on the corrected relative positions, The relative relationship of external parameters is highly accurate. Therefore, it becomes possible to improve the quality of a 3D model produced based on multiple camera images.

(2) 比較的制度の高い選択カメラの各対応点を他の選択カメラを含む各カメラへ投影するようにしたので、対応付け精度が悪いカメラが存在しても、選択カメラによって対応付けを高精度化(座標補正)できるようになる。 (2) Since each corresponding point of a selected camera with relatively high accuracy is projected onto each camera including other selected cameras, even if there are cameras with poor matching accuracy, the selected camera can improve the matching. Accuracy improvement (coordinate correction) becomes possible.

(3) 誤差が収束するまで座標補正が繰り返されるので、全てのカメラの相対関係を高精度化できるようになる。 (3) Since the coordinate correction is repeated until the error converges, it becomes possible to improve the accuracy of the relative relationships of all cameras.

本発明の第1実施形態に係るカメラキャリブレーション装置の機能ブロック図である。1 is a functional block diagram of a camera calibration device according to a first embodiment of the present invention; FIG. 複数カメラの配置例を示した図である。FIG. 4 is a diagram showing an example of arrangement of multiple cameras; 較正用座標モデルとカメラの画像座標との対応付け方法を示した図である。FIG. 4 is a diagram showing a method of associating a calibration coordinate model with image coordinates of a camera; カメラ間の相対位置の計算方法を説明するための図である。FIG. 4 is a diagram for explaining a method of calculating relative positions between cameras; 対応点の画像座標を補正する方法を示した図(その1)である。FIG. 10 is a diagram (part 1) showing a method of correcting image coordinates of corresponding points; 対応点の画像座標を補正する方法を示した図(その2)である。FIG. 10 is a diagram (part 2) showing a method of correcting image coordinates of corresponding points; 本発明の効果を説明するための図である。It is a figure for demonstrating the effect of this invention. 本発明の第2実施形態に係るカメラキャリブレーション装置の機能ブロック図である。FIG. 5 is a functional block diagram of a camera calibration device according to a second embodiment of the present invention; 対応点の画像座標の誤差を判定する方法を示した図である。FIG. 10 is a diagram showing a method of determining an error in image coordinates of corresponding points; 視体積交差法による3Dモデルの生成方法を示した図である。FIG. 4 is a diagram showing a method of generating a 3D model by the visual volume intersection method;

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、カメラ画像入力部10,歪補正部20,対応付け部30,カメラ決定部40,相対位置計算部50,画像座標補正部60およびカメラパラメータ計算部70を主要な構成としている。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main parts of a camera calibration device 1 according to the first embodiment of the present invention. A section 40, a relative position calculation section 50, an image coordinate correction section 60, and a camera parameter calculation section 70 are main components.

このようなカメラキャリブレーション装置1は、汎用の少なくとも一台のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。 Such a camera calibration device 1 can be configured by installing an application (program) that implements each function in at least one general-purpose computer or server. Alternatively, a part of the application can be configured as a dedicated machine or a single-function machine that is made into hardware or software.

本実施形態は、スポーツシーンを対象とした自由視点映像制作システムへの適用を想定し、図2に示すようにサッカーコートの周囲にコートを向いた16台のカメラを設置し、3Dモデル品質の向上を目的として各カメラのカメラパラメータを推定する場合を例にして説明する。 This embodiment assumes application to a free-viewpoint video production system for sports scenes. A case of estimating the camera parameters of each camera for the purpose of improvement will be described as an example.

画像入力部10には、視点の異なる複数(本実施形態では16台)のカメラで撮影した画像が入力される。歪補正部20は、入力したカメラ画像に対して歪補正を行う。本実施例では撮影時のカメラの設定情報から、非特許文献2などに開示される手法によってカメラごとに次式(1),(2)に代表される歪補正モデルのパラメータ(歪パラメータ)を事前計算し、当該歪パラメータを用いて歪補正を行う。 The image input unit 10 receives images captured by a plurality of (16 in this embodiment) cameras with different viewpoints. The distortion correction unit 20 performs distortion correction on the input camera image. In this embodiment, from the setting information of the camera at the time of shooting, the parameters (distortion parameters) of the distortion correction model represented by the following equations (1) and (2) are calculated for each camera by the method disclosed in Non-Patent Document 2. Pre-calculate and perform distortion correction using the distortion parameters.

Figure 2022146988000002
Figure 2022146988000002

Figure 2022146988000003
Figure 2022146988000003

ここで、(x', y'),(x, y)は、それぞれ歪補正前および歪補正後の各カメラ画像上の座標(以下、画像座標と表現する場合もある)であり、ki,Piは、それぞれ放射歪、円周方向の歪に関する歪補正量である。 Here, (x', y') and (x, y) are coordinates on each camera image before distortion correction and after distortion correction (hereinafter sometimes referred to as image coordinates), and k i , P i are distortion correction amounts for radial distortion and circumferential distortion, respectively.

対応付け部30は、3次元座標が既知の較正用座標モデル(本実施形態では、サッカーフィールドモデル)を与えられ、歪補正されたカメラ画像を対象に較正用座標モデルの3次元空間座標 (X, Y, Z) とカメラの画像座標 (x, y)との対応付けを行う。 The associating unit 30 is given a calibration coordinate model (soccer field model in this embodiment) whose three-dimensional coordinates are known, and converts the distortion-corrected camera image into three-dimensional spatial coordinates (X , Y, Z) and the camera image coordinates (x, y).

本実施形態では、図3に一例を示すようにサッカーコートの規格等から3次元空間座標が既知であるフィールドライン上の少なくとも4つの点に注目し、各注目点の3次元空間座標(Xi, Yi, Zi) とカメラに映ったその対応点の画像座標(xi, yi)との対応付けを行う。 In this embodiment, as an example is shown in FIG. 3, attention is paid to at least four points on the field line whose three-dimensional spatial coordinates are known from the standards of soccer courts, etc., and the three-dimensional spatial coordinates (Xi, Yi, Zi) is associated with the image coordinates (xi, yi) of the corresponding point captured by the camera.

このような対応付けは、全16台のカメラから入力された各画像フレームをコンピュータ上に表示させ、当該コンピュータを制御するポインティング装置を用いてフィールドライン上の各注目点と画像上の各対応点とを対応付けることで実施しても良いし、あるいは非特許文献3が開示する従来手法によって自動推定しても良い。 Such correspondence is performed by displaying each image frame input from all 16 cameras on a computer, and using a pointing device that controls the computer to point each point of interest on the field line and each corresponding point on the image. , or may be automatically estimated by the conventional method disclosed in Non-Patent Document 3.

さらに、室内競技のように被写体との距離が近い撮影時には、ARマーカ等の既知のパターンを較正用座標モデルに用い、パターンマッチングなどにより自動で対応付けを行っても良い。なお、このような対応付けでは手動および自動のいずれにおいても、ポインティング操作のずれや推定精度の問題により各対応点の画像座標に誤差が含まれることは避けられない。 Furthermore, when photographing an object at a short distance, such as an indoor sport, a known pattern such as an AR marker may be used as a coordinate model for calibration, and the correlation may be automatically performed by pattern matching or the like. In such association, whether manually or automatically, it is unavoidable that the image coordinates of each corresponding point contain errors due to deviations in pointing operations and problems with estimation accuracy.

カメラ決定部40は、基準カメラ決定部41および選択カメラ決定部42を含む。基準カメラ決定部41は、各カメラの相対位置計算の基準となるカメラ1台を基準カメラに決定する。選択カメラ決定部42は、後述する画像座標補正部60が各カメラの画像座標を相対的に補正する際に使用する複数台のカメラを選択カメラに決定する。 Camera determination section 40 includes reference camera determination section 41 and selected camera determination section 42 . The reference camera determining unit 41 determines one camera that serves as a reference for relative position calculation of each camera as a reference camera. The selected camera determination unit 42 determines a plurality of cameras to be used when the image coordinate correction unit 60, which will be described later, relatively corrects the image coordinates of each camera.

前記基準カメラ決定部41は、全16台のカメラから任意の1台を基準カメラに決定できる。選択カメラ決定部42は、3次元空間の同一点に対応する各カメラ画像の点を3次元空間座標へ投影し、他のカメラとの収束具合に基づいて複数の選択カメラを決定する。 The reference camera determination unit 41 can determine any one of the 16 cameras as the reference camera. A selected camera determination unit 42 projects the points of each camera image corresponding to the same point in the three-dimensional space onto the three-dimensional space coordinates, and determines a plurality of selected cameras based on the degree of convergence with the other cameras.

本実施形態では、対応付け部30で対応付けたサッカーコート上の各注目点の3次元空間座標とカメラ画像上の各対応点の画像座標との組み合わせから、非特許文献2が開示する手法などによりホモグラフィ行列の推定を実施し、推定したホモグラフィ行列を用いて各カメラからサッカーコート平面へ点を投影する。 In the present embodiment, the method disclosed in Non-Patent Document 2 or the like is calculated from the combination of the three-dimensional space coordinates of each point of interest on the soccer court and the image coordinates of each corresponding point on the camera image, which are associated by the association unit 30. Then, the estimated homography matrix is used to project the points from each camera onto the soccer court plane.

ここで、ホモグラフィ行列とは2つの異なる平面上の点の射影変換行列であり、サッカーコート平面上の点(Xi, Yi, 1)をカメラ画像上の点(xi, yi, 1)に射影する行列式は次式(3)で表される。 Here, the homography matrix is the projective transformation matrix of points on two different planes, and the point (X i , Y i , 1) on the soccer court plane is transformed into the point (x i , y i , The determinant projected onto 1) is expressed by the following equation (3).

Figure 2022146988000004
Figure 2022146988000004

本実施形態では、投影した点が他のカメラと大きくずれているカメラを除外して残りのカメラを選択カメラに決定すべく、全カメラから投影した点のマハラノビス距離によって閾値を設け、閾値を超えるカメラを除外するようにしている。 In this embodiment, a threshold is set according to the Mahalanobis distance of the points projected from all the cameras, and the threshold exceeds the threshold in order to exclude cameras whose projected points are greatly deviated from the other cameras and to determine the remaining cameras as the selected cameras. I'm trying to exclude cameras.

なお、選択カメラの決定方法は上記の手法に限定されるものではなく、評価するカメラごとに当該カメラを除く残り全てのカメラの画像に基づいて制作した一部カメラ3Dモデルと、全てのカメラの画像に基づいて制作した全カメラ3Dモデルとの品質を比較し、一部カメラ3Dモデルの品質が全カメラ3Dモデルの品質よりも優った時の当該除いたカメラ以外を選択カメラに決定するようにしても良い。 In addition, the method of determining the selected camera is not limited to the above method. Compare the quality with all camera 3D models created based on the image, and when the quality of some camera 3D models is better than the quality of all camera 3D models, select cameras other than the excluded camera. can be

あるいは上記の選択で残ったカメラのみを対象に同様の選択を繰り返し、所定の条件下で最終的に残ったカメラのみを選択カメラに決定するようにしても良い。3Dモデルの品質は、制作したモデルをカメラ位置に投影したときのシルエットとそのカメラに映る実写の被写体のシルエットとの一致具合により自動で評価できる。 Alternatively, the same selection may be repeated for only the cameras remaining in the above selection, and only the cameras finally remaining under predetermined conditions may be determined as the selected cameras. The quality of the 3D model can be automatically evaluated by the degree of matching between the silhouette of the produced model projected onto the camera position and the silhouette of the photographed subject captured by the camera.

なお、基準カメラについても選択カメラと同様に、3次元空間の同一点に対応する各カメラ画像の対応点を3次元空間へ投影し、再投影誤差が最小となる1台を選択すれば、カメラの相対位置のみならず絶対位置についてもより高精度化できるようになる。 As for the reference camera, as with the selected camera, by projecting the corresponding point of each camera image corresponding to the same point in the 3D space into the 3D space and selecting the one that minimizes the reprojection error, the camera Not only the relative position of , but also the absolute position can be made more precise.

相対位置計算部50は、図4に示すように、選択カメラごとに他の各カメラ(他の選択カメラおよび基準カメラを含む)との同一の注目点に対応する対応点の射影関係を計算してホモグラフィ行列を推定する。 As shown in FIG. 4, the relative position calculation unit 50 calculates the projection relationship of corresponding points corresponding to the same point of interest for each selected camera and each other camera (including other selected cameras and reference cameras). to estimate the homography matrix.

本実施形態では、前記対応付け部30が対応付けに用いた較正用座標モデルの各注目点に対応する各カメラ画像の各対応点に着目し、当該各対応点の画像座標の関係に基づいてホモグラフィ行列が計算される。 In this embodiment, attention is paid to each corresponding point of each camera image corresponding to each attention point of the calibration coordinate model used for the correspondence by the associating unit 30, and based on the relationship of the image coordinates of each corresponding point, A homography matrix is computed.

画像座標補正部60は、相対位置計算部50が計算した各選択カメラと他の各カメラとの射影関係に基づいて各カメラの各対応点の画像座標を相対的に補正する。本実施形態では、初めに図5に示すように、選択カメラごとに他の各カメラとの相対位置関係を示すホモグラフィ行列を用いて各対応点を他の各カメラに投影する。したがって、選択カメラがM台であれば投影先の各カメラには対応点ごとにM個の点が投影されることになる。 The image coordinate correction unit 60 relatively corrects the image coordinates of each corresponding point of each camera based on the projection relationship between each selected camera calculated by the relative position calculation unit 50 and each other camera. In this embodiment, first, as shown in FIG. 5, each corresponding point is projected onto each other camera using a homography matrix that indicates the relative positional relationship between each selected camera and each other camera. Therefore, if there are M cameras to be selected, M points will be projected for each corresponding point on each camera of the projection destination.

次いで、投影先のカメラごとに、各選択カメラから同一の対応点に関して投影された複数の点の代表値として、図6に示すように各点の画像座標の平均値や中央値を計算し、当該代表値を対応点ごとに補正後のカメラ画像座標として仮決定する。このとき、投影先が他の選択カメラであれば代表値計算に自身の対応点の画像座標を含めるが、投影先が選択カメラ以外であれば投影された点の画像座標のみから代表値の計算を実施する。 Next, as shown in FIG. 6, as representative values of a plurality of points projected with respect to the same corresponding point from each selected camera for each projection destination camera, the average value and median value of the image coordinates of each point are calculated, The representative value is tentatively determined as the corrected camera image coordinates for each corresponding point. At this time, if the projection destination is another selected camera, the image coordinates of its own corresponding points are included in the representative value calculation, but if the projection destination is other than the selected camera, the representative value is calculated only from the image coordinates of the projected points. to implement.

カメラパラメータ計算部70は、全てのカメラのカメラパラメータを計算してカメラ位置を決定する。カメラパラメータは3次元空間座標上の点(Xi, Yi, Zi)を画像座標上の点(xi, yi) に変換するものであり、次式(4)で表される。 A camera parameter calculator 70 calculates the camera parameters of all cameras to determine camera positions. Camera parameters are used to transform a point (X i , Y i , Z i ) on three-dimensional space coordinates into a point (x i , y i ) on image coordinates, and are expressed by the following equation (4).

Figure 2022146988000005
Figure 2022146988000005

ここで、(cx, cy)はカメラ画像中の主点であり、通常は画像中心である。fは焦点距離を示し、本実施形態ではズーム値の代わりに算出したい値である。これらは内部パラメータと呼ばれ、焦点距離を固定している限りは一定の値となる。また、r11~r33はカメラの回転量を示す回転行列、t1~t3はカメラの位置を示す並進行列であり、sはスケーリングに用いる係数である。回転行列r11~r33および並進行列t1~t3で構成される行列は外部パラメータと呼ばれる。 where (c x , c y ) is the principal point in the camera image, usually the image center. f indicates the focal length, which is a value to be calculated instead of the zoom value in this embodiment. These are called internal parameters, and are constant values as long as the focal length is fixed. Also, r 11 to r 33 are rotation matrices indicating the amount of camera rotation, t 1 to t 3 are translation matrices indicating camera positions, and s is a coefficient used for scaling. The matrices composed of rotation matrices r 11 to r 33 and translation matrices t 1 to t 3 are called extrinsic parameters.

本実施形態では、カメラ決定部40が決定した基準カメラについて補正後の各対応点の画像座標とサッカーコートの対応する注目点との関係でホモグラフィ行列を推定し、非特許文献2などによって予め求めた内部パラメータを用いることで基準カメラの外部パラメータを計算する。 In this embodiment, the homography matrix is estimated based on the relationship between the image coordinates of each corresponding point after correction and the corresponding point of interest on the soccer court for the reference camera determined by the camera determination unit 40, and the Using the obtained intrinsic parameters, the extrinsic parameters of the reference camera are calculated.

次いで、基準カメラと他の各カメラとのホモグラフィ行列および事前に用意した各カメラの内部パラメータを用いて、基準カメラからの相対位置を示す外部パラメータを決定する。そして、3次元空間のサッカーコートを基準に計算した基準カメラの外部パラメータと各カメラの相対位置を示す外部パラメータとに基づいて全てのカメラのサッカーコート基準の外部パラメータを計算し、カメラパラメータを出力する。 Next, using the homography matrix of the reference camera and each of the other cameras and the previously prepared intrinsic parameters of each camera, the extrinsic parameters indicating the relative position from the reference camera are determined. Then, based on the extrinsic parameters of the reference camera calculated based on the soccer court in 3D space and the extrinsic parameters indicating the relative position of each camera, the extrinsic parameters of the soccer court are calculated for all cameras, and the camera parameters are output. do.

本発明によれば、被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、図7に示すように、各カメラパラメータは実際のカメラパラメータとは多少ずれたパラメータを取り得るが各カメラの相対位置の誤差が減少する。その結果、外部パラメータの相対関係が高精度化されるので、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができる。 According to the present invention, the positions of a plurality of cameras that photograph an object from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and the extrinsic parameters are calculated based on the corrected relative positions. Therefore, as shown in FIG. 7, although each camera parameter can take a parameter slightly deviated from the actual camera parameter, the error in the relative position of each camera is reduced. As a result, since the relative relationship of the external parameters is highly accurate, it is possible to improve the quality of the 3D model produced based on the multiple camera images.

図8は、本発明の第2実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は誤差判定部80を具備し、再投影誤差が収束するまで各カメラの対応点の画像座標補正を繰り返すようにした点に特徴がある。 FIG. 8 is a functional block diagram showing the configuration of the main parts of the camera calibration device 1 according to the second embodiment of the present invention. are omitted. This embodiment is characterized by having an error determination unit 80 and repeating the image coordinate correction of the corresponding points of each camera until the reprojection error converges.

誤差判定部80は、誤差計算部81および収束判定部82を含み、前記画像座標補正部60における各カメラの対応点の画像座標の補正により、基準カメラを除くカメラ間の相対位置が高精度化されたか否かを判定する。 The error determination unit 80 includes an error calculation unit 81 and a convergence determination unit 82. By correcting the image coordinates of the corresponding points of each camera in the image coordinate correction unit 60, the relative positions of the cameras other than the reference camera are made highly accurate. It is determined whether or not

前記誤差計算部81は、図9に示すように、前記基準カメラ決定部41が決定した基準カメラ(1台)に対して残り全てのカメラ(15台)から、対応点ごとに前記補正前および補正後の各画像座標を前記投影関係に基づいて再投影し、基準カメラが撮影した対応する各注目点の画素位置と各カメラからの再投影位置との距離をそれぞれ再投影誤差として計算する。 As shown in FIG. 9, the error calculation unit 81 calculates the pre-correction and the pre-correction and Each corrected image coordinate is reprojected based on the projection relationship, and the distance between the pixel position of each corresponding target point captured by the reference camera and the reprojection position from each camera is calculated as a reprojection error.

収束判定部82は、基準カメラを除く残り全てカメラにおいて、補正後の画素位置の再投影誤差が補正前の画素位置の再投影誤差よりも小さければ、誤差補正が収束したと判断して当該補正後の各画素位置を各対応点の画素位置に決定する。 If the reprojection error of the pixel position after correction is smaller than the reprojection error of the pixel position before correction in all cameras other than the reference camera, the convergence determination unit 82 determines that the error correction has converged, and performs the correction. Each subsequent pixel position is determined to be the pixel position of each corresponding point.

これに対して、補正後の画素位置の再投影誤差の方が大きいカメラが存在すれば、当該カメラの各対応点の画像座標を補正前の画像座標に戻す一方、補正後の画像座標の再投影誤差の方が小さかったカメラについては当該補正後の画像座標を維持したまま前記カメラ決定部40へ戻る。 On the other hand, if there is a camera with a larger re-projection error of the pixel position after correction, the image coordinates of each corresponding point of that camera are returned to the image coordinates before correction, while the image coordinates after correction are re-projected. For the camera with the smaller projection error, the process returns to the camera determination unit 40 while maintaining the corrected image coordinates.

そして、カメラ決定部40における基準カメラおよび選択カメラの決定、相対位置推定部50における相対位置の決定並びに画像座標補正部60による画像座標補正の各処理を繰り返す。当該繰り返しは、今回の補正後の画像座標の再投影誤差が前回の補正後または補正前の画像座標の再投影誤差よりも大きいカメラ数がゼロまたは所定の閾値を下回るまで繰り返される。あるいは全てのカメラにおいて、今回の補正後の画像座標の再投影誤差と前回の補正後または補正前の画像座標の再投影誤差との差分の絶対値が所定の閾値を下回るまで繰り返されるようにしても良い。 Then, the determination of the reference camera and the selected camera by the camera determination unit 40, the determination of the relative position by the relative position estimation unit 50, and the image coordinate correction by the image coordinate correction unit 60 are repeated. This repetition is repeated until the number of cameras for which the reprojection error of the image coordinates after the current correction is greater than the reprojection error of the image coordinates after or before the previous correction becomes zero or falls below a predetermined threshold. Alternatively, in all cameras, it is repeated until the absolute value of the difference between the reprojection error of the image coordinates after this correction and the reprojection error of the image coordinates after or before the previous correction falls below a predetermined threshold. Also good.

本実施形態によれば、外部パラメータの基準となる基準カメラに対する他の各カメラの相対位置が補正されるので、基準カメラの外部パラメータと他の各カメラの外部パラメータとの相対関係を高精度化できるようになり、3Dモデルの品質を更に向上させることができるようになる。 According to this embodiment, since the relative positions of the other cameras with respect to the reference camera serving as the reference of the external parameters are corrected, the relative relationship between the external parameters of the reference camera and the external parameters of the other cameras is improved. It will be possible to further improve the quality of the 3D model.

そして、上記の各実施形態によれば高品質な被写体3Dモデルを通信インフラ経由でもリアルタイムで提供することが可能となるので、地理的あるいは経済的な格差を超えて多くの人々に多様なエンターテインメントを提供できるようになる。その結果、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。 Furthermore, according to each of the above embodiments, it is possible to provide high-quality 3D models of subjects in real time even via communication infrastructure, thereby providing diverse entertainment to many people beyond geographical or economic disparities. be able to provide. As a result, the UN-led Sustainable Development Goals (SDGs) include Goal 9 “Build resilient infrastructure and promote inclusive and sustainable industrialization” and Goal 11 “Make cities inclusive, safe and resilient.” and make it sustainable.

なお、本実施形態では相対位置の誤差を再投影誤差として評価したが、本発明はこれのみに限定されるものではなく、補正前、補正後の各画像座標情報からそれぞれ3Dモデルを生成し、3Dモデルの品質に基づいて評価を行っても良い。 In this embodiment, the relative position error is evaluated as a reprojection error, but the present invention is not limited to this. An evaluation may be made based on the quality of the 3D model.

1…カメラキャリブレーション装置,10…カメラ画像入力部,20…歪補正部,30…対応付け部,40…カメラ決定部,41…基準カメラ決定部,42…選択カメラ決定部,50…相対位置計算部,60…画像座標補正部,70…カメラパラメータ計算部,80…誤差判定部,81…誤差計算部,82…収束判定部 1 Camera calibration device 10 Camera image input unit 20 Distortion correction unit 30 Association unit 40 Camera determination unit 41 Reference camera determination unit 42 Selected camera determination unit 50 Relative position Calculation unit 60 Image coordinate correction unit 70 Camera parameter calculation unit 80 Error determination unit 81 Error calculation unit 82 Convergence determination unit

Claims (15)

3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする装置において、
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、
前記複数のカメラの1台を基準カメラに決定する手段と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備したことを特徴とするカメラキャリブレーション装置。
In a device for relatively calibrating each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by a plurality of cameras,
means for associating a plurality of points of interest that appear in common on all camera images of the calibration coordinate model with corresponding points on the camera images;
means for determining one of the plurality of cameras as a reference camera;
means for estimating the relative position of each camera based on the projective relationship between the corresponding points of each camera image;
means for projecting the corresponding points of each camera onto another camera based on the projection relationship, and correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected points;
A camera calibration device comprising means for calculating the extrinsic parameters of each camera based on the extrinsic parameters of a reference camera and the corrected corresponding points of each camera.
全カメラから選択した一部の複数を選択カメラに決定する手段を具備し、
前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項1に記載のカメラキャリブレーション装置。
Equipped with means for determining a selected plurality of selected cameras from all cameras,
2. The camera calibration apparatus according to claim 1, wherein said correcting means projects each corresponding point of the selected camera onto other cameras including other selected cameras based on said projection relationship.
前記選択カメラに決定する手段は、各カメラの対応点を較正用座標モデルの3D空間への前記射影関係に基づき再投影した際の誤差の収束具合に基づいて選択カメラを決定することを特徴とする請求項2に記載のカメラキャリブレーション装置。 The means for determining the selected camera determines the selected camera based on the degree of convergence of errors when reprojecting the corresponding points of each camera onto the 3D space of the coordinate model for calibration based on the projection relationship. 3. The camera calibration device according to claim 2. 前記選択カメラに決定する手段は、カメラごとに当該カメラを除く残り全てのカメラの画像に基づいて制作した一部カメラ3Dモデルと全てのカメラの画像に基づいて制作した全カメラ3Dモデルとの品質を比較し、一部カメラ3Dモデルの品質が全カメラ3Dモデルの品質よりも優った時の当該除いたカメラ以外を選択カメラに決定することを特徴とする請求項2に記載のカメラキャリブレーション装置。 The means for determining the selected camera is the quality of the partial camera 3D model produced based on the images of all the remaining cameras excluding the camera concerned and the all camera 3D model produced based on the images of all cameras for each camera 3. The camera calibration device according to claim 2, wherein when the quality of the 3D models of some cameras is superior to the quality of the 3D models of all cameras, the cameras other than the excluded cameras are determined as the selected cameras. . 前記補正する手段は、投影先が他の選択カメラであれば当該他の選択カメラの各対応点および投影された点に基づいて各対応点の画像座標を補正し、投影先が選択カメラ以外であれば投影された点に基づいて各対応点の画像座標を補正することを特徴とする請求項2ないし4のいずれかに記載のカメラキャリブレーション装置。 If the projection destination is another selected camera, the correction means corrects the image coordinates of each corresponding point based on each corresponding point of the other selected camera and the projected point, and if the projection destination is other than the selected camera, 5. The camera calibration device according to claim 2, wherein the image coordinates of each corresponding point are corrected based on the projected point, if any. 各カメラの前記補正後の各対応点の画像座標の誤差を計算する手段と、
前記誤差が収束したか否かを判定する手段とを具備し、
前記誤差の収束を判定する手段は、前記誤差が収束するまで前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項1ないし5のいずれかに記載のカメラキャリブレーション装置。
means for calculating the error of the image coordinates of each corresponding point after the correction for each camera;
and means for determining whether the error has converged,
6. The means for determining convergence of said error repeats selection of said reference camera, estimation of relative position, and correction of image coordinates of corresponding points until said error converges. A camera calibration device as described.
前記誤差を計算する手段は、各カメラ画像の前記補正前および補正後の各対応点を基準カメラへ投影して補正前および補正後の各対応点の再投影誤差を計算し、
前記誤差の収束を判定する手段は、補正後の対応点の再投影誤差が補正前の対応点の再投影誤差よりも大きいカメラの各対応点を補正前に戻し、前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項6に記載のカメラキャリブレーション装置。
the means for calculating the error projects the corresponding points before and after the correction of each camera image onto a reference camera to calculate reprojection errors of the corresponding points before and after the correction;
The means for determining convergence of the error restores each corresponding point of the camera whose reprojection error of the corresponding point after correction is larger than the reprojection error of the corresponding point before correction to the state before correction, selects the reference camera, selects the relative 7. The camera calibration device according to claim 6, wherein estimation of positions and correction of image coordinates of corresponding points are repeated.
前記誤差の収束を判定する手段は、補正後の対応点の再投影誤差が補正前の対応点の再投影誤差よりも大きいカメラ数が所定の閾値以下となるまで、前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項7に記載のカメラキャリブレーション装置。 The means for judging convergence of the error continues to select the reference camera and perform relative 8. The camera calibration device according to claim 7, wherein estimation of positions and correction of image coordinates of corresponding points are repeated. 前記外部パラメータを計算する手段は、
基準カメラの較正用座標モデルに対する射影関係と内部パラメータとに基づいて第1外部パラメータを計算し、
基準カメラと他のカメラとの射影関係および各カメラの内部パラメータに基づいて基準カメラと他のカメラとの相対位置を示す第2外部パラメータを計算し、
前記第1及び第2外部パラメータに基づいて各カメラの較正用座標モデルに対する外部パラメータを計算することを特徴とする請求項1ないし8のいずれかに記載のカメラキャリブレーション装置。
The means for calculating the extrinsic parameter comprises:
calculating a first extrinsic parameter based on the projection relation of the reference camera to the calibrating coordinate model and the extrinsic parameter;
calculating a second extrinsic parameter indicating the relative position of the reference camera and the other camera based on the projective relationship between the reference camera and the other camera and the intrinsic parameters of each camera;
9. The camera calibration apparatus according to any one of claims 1 to 8, wherein extrinsic parameters for calibration coordinate models of each camera are calculated based on said first and second extrinsic parameters.
各カメラ画像からレンズ歪成分を除去する歪補正部を具備したことを特徴とする請求項1ないし9のいずれかに記載のカメラキャリブレーション装置。 10. The camera calibration device according to any one of claims 1 to 9, further comprising a distortion corrector that removes a lens distortion component from each camera image. 前記基準カメラに決定する手段は、対応点の前記較正用座標モデルに対する再投影誤差が最小のカメラを基準カメラに決定することを特徴とする請求項1ないし10のいずれかに記載のカメラキャリブレーション装置。 11. The camera calibration according to any one of claims 1 to 10, wherein the means for determining the reference camera determines a camera having a minimum reprojection error of corresponding points with respect to the calibration coordinate model as the reference camera. Device. 前記較正用座標モデルがARマーカであることを特徴とする請求項1ないし11のいずれかに記載のカメラキャリブレーション装置。 12. The camera calibration device according to any one of claims 1 to 11, wherein the calibration coordinate model is an AR marker. コンピュータが、3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする方法において、
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付け、
前記複数のカメラの1台を基準カメラに決定し、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定し、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正し、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算することを特徴とするカメラキャリブレーション方法。
In a method in which a computer relatively calibrates each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by a plurality of cameras,
Correlating a plurality of points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images,
determining one of the plurality of cameras as a reference camera;
estimating the relative position of each camera based on the projection relationship between each corresponding point of each camera image,
After projecting the corresponding points of each camera to another camera based on the projection relationship, correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected points,
A camera calibration method, wherein the extrinsic parameters of each camera are calculated based on the extrinsic parameters of a reference camera and the corrected corresponding points of each camera.
全カメラから選択した一部の複数を選択カメラに決定し、
前記対応点の画像座標を補正する際に、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項13に記載のカメラキャリブレーション方法。
Decide a part of multiple selected from all cameras as the selected camera,
14. The camera calibration according to claim 13, wherein when correcting the image coordinates of the corresponding points, each corresponding point of the selected camera is projected onto other cameras including other selected cameras based on the projection relationship. application method.
3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションするプログラムにおいて、
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手順と、
前記複数のカメラの1台を基準カメラに決定する手順と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手順と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手順と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手順と、をコンピュータに実行させるカメラキャリブレーションプログラム。
In a program that relatively calibrates each camera based on camera images of a calibration coordinate model with known three-dimensional coordinates taken by multiple cameras,
a procedure for associating a plurality of points of interest that appear in common on all camera images of the calibration coordinate model with corresponding points on the camera images;
determining one of the plurality of cameras as a reference camera;
a step of estimating the relative position of each camera based on the projective relationship between the corresponding points of each camera image;
a step of projecting the corresponding points of each camera onto another camera based on the projection relationship, and then correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected points;
A camera calibration program for causing a computer to execute a procedure for calculating the extrinsic parameters of each camera based on the extrinsic parameters of the reference camera and the corrected corresponding points of each camera.
JP2021048047A 2021-03-23 2021-03-23 Camera calibration device, method and program Active JP7429667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021048047A JP7429667B2 (en) 2021-03-23 2021-03-23 Camera calibration device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048047A JP7429667B2 (en) 2021-03-23 2021-03-23 Camera calibration device, method and program

Publications (2)

Publication Number Publication Date
JP2022146988A true JP2022146988A (en) 2022-10-06
JP7429667B2 JP7429667B2 (en) 2024-02-08

Family

ID=83462811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048047A Active JP7429667B2 (en) 2021-03-23 2021-03-23 Camera calibration device, method and program

Country Status (1)

Country Link
JP (1) JP7429667B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4238586B2 (en) 2003-01-30 2009-03-18 ソニー株式会社 Calibration processing apparatus, calibration processing method, and computer program
JP2007025863A (en) 2005-07-13 2007-02-01 Advanced Telecommunication Research Institute International Photographing system, photographing method, and image processing program
JP5901379B2 (en) 2012-03-26 2016-04-06 三菱電機株式会社 Imaging apparatus calibration method and image composition apparatus
JP6456244B2 (en) 2015-05-25 2019-01-23 Kddi株式会社 Camera calibration method and apparatus
CN108702439B (en) 2016-02-29 2020-10-09 索尼公司 Information processing apparatus, method, computer readable medium, and multi-camera system
JP2018194891A (en) 2017-05-12 2018-12-06 富士通株式会社 Three-dimensional shape estimation method, three-dimensional shape estimation program and three-dimensional shape estimation apparatus
JP2019190974A (en) 2018-04-24 2019-10-31 キヤノン株式会社 Calibration device, calibration method and program

Also Published As

Publication number Publication date
JP7429667B2 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
US11875537B2 (en) Multi view camera registration
US10789765B2 (en) Three-dimensional reconstruction method
JP5285619B2 (en) Camera system calibration
WO2019179200A1 (en) Three-dimensional reconstruction method for multiocular camera device, vr camera device, and panoramic camera device
US20200334842A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
JP2017156162A (en) Information processing device, information processing method, and program
JP2019079487A (en) Parameter optimization device, parameter optimization method and program
KR100996897B1 (en) correction method of Radial Distortion Based on a Line-Fitting
WO2023116430A1 (en) Video and city information model three-dimensional scene fusion method and system, and storage medium
CN110827321A (en) Multi-camera cooperative active target tracking method based on three-dimensional information
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
US11284052B2 (en) Method for automatically restoring a calibrated state of a projection system
JP7489253B2 (en) Depth map generating device and program thereof, and depth map generating system
CN113763544A (en) Image determination method, image determination device, electronic equipment and computer-readable storage medium
CN110619664B (en) Laser pattern-assisted camera distance posture calculation method and server
JP5530391B2 (en) Camera pose estimation apparatus, camera pose estimation method, and camera pose estimation program
JP2021128592A (en) Image processing device, image processing method, learned model generation method, and program
JP7429667B2 (en) Camera calibration device, method and program
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
Kano et al. Accurate and practical calibration of multiple pan-tilt-zoom cameras for live broadcasts
CN114820798A (en) Calibrator matching method and device
JP2019032660A (en) Imaging system and imaging method
CN113920196A (en) Visual positioning method and device and computer equipment
CN113763545A (en) Image determination method, image determination device, electronic equipment and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R150 Certificate of patent or registration of utility model

Ref document number: 7429667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150