JP7429667B2 - Camera calibration device, method and program - Google Patents

Camera calibration device, method and program Download PDF

Info

Publication number
JP7429667B2
JP7429667B2 JP2021048047A JP2021048047A JP7429667B2 JP 7429667 B2 JP7429667 B2 JP 7429667B2 JP 2021048047 A JP2021048047 A JP 2021048047A JP 2021048047 A JP2021048047 A JP 2021048047A JP 7429667 B2 JP7429667 B2 JP 7429667B2
Authority
JP
Japan
Prior art keywords
camera
cameras
image
calibration
corresponding point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021048047A
Other languages
Japanese (ja)
Other versions
JP2022146988A (en
Inventor
諒太 小磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021048047A priority Critical patent/JP7429667B2/en
Publication of JP2022146988A publication Critical patent/JP2022146988A/en
Application granted granted Critical
Publication of JP7429667B2 publication Critical patent/JP7429667B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数のカメラの相対位置を高精度にキャリブレーションする装置、方法及びプログラムに関する。 The present invention relates to an apparatus, method, and program for calibrating the relative positions of a plurality of cameras with high precision.

自由視点映像技術は、複数カメラの映像を入力としてカメラの存在しない視点からの視聴を可能にする技術である。自由視点映像の生成手法として、非特許文献1の視体積交差法が知られている。視体積交差法は、図10に示すように異なるカメラ位置から撮影した複数枚のシルエット画像A,B,C,Dを3次元空間へ投影した際の積集合となる部分を3Dモデルとして復元する技術である。 Free viewpoint video technology is a technology that inputs video from multiple cameras and enables viewing from a viewpoint where no camera exists. As a free viewpoint video generation method, the visual volume intersection method described in Non-Patent Document 1 is known. The visual volume intersection method reconstructs the intersection of multiple silhouette images A, B, C, and D taken from different camera positions into a 3D space as a 3D model, as shown in Figure 10. It's technology.

3次元空間とシルエット画像との投影関係は、焦点距離などの内部パラメータおよびカメラの設置位置・向きを示す外部パラメータによって定まる。このとき、各カメラの内部パラメータや外部パラメータの推定に誤差が含まれると、3Dモデルを生成する際の積集合が本来の形状と異なる形で復元されてしまい、結果として生成される3Dモデルに欠損が生じることがある。 The projection relationship between the three-dimensional space and the silhouette image is determined by internal parameters such as focal length and external parameters indicating the installation position and orientation of the camera. At this time, if errors are included in the estimation of the internal and external parameters of each camera, the intersection set when generating the 3D model will be restored in a shape different from the original shape, and the resulting 3D model will be Defects may occur.

特許文献1には、カメラパラメータに誤差が含まれることを前提として、カメラパラメータの誤差の大きさに応じてシルエットの輪郭を膨張・縮退することで3Dモデルに欠損が生じることを防止する技術が開示されている。 Patent Document 1 discloses a technology that prevents defects from occurring in a 3D model by expanding or contracting the outline of a silhouette according to the size of the error in the camera parameters, assuming that the camera parameters include errors. Disclosed.

非特許文献2には、カメラパラメータの推定手法として、3次元空間座標が既知の複数の注目点をカメラで撮影し、各注目点の3次元空間座標とカメラ画像に映り込んだ各注目点に対応する点(対応点)とを、例えば非特許文献3が開示する手法により対応付け、複数の対応関係に基づく再投影誤差、すなわちカメラパラメータによって各注目点を3次元空間座標から画像座標へ投影した点とカメラ画像上の対応点との画像座標誤差、が小さくなるようにカメラパラメータを最適化する技術が開示されている。 Non-Patent Document 2 describes a camera parameter estimation method in which multiple points of interest whose three-dimensional spatial coordinates are known are photographed with a camera, and the three-dimensional spatial coordinates of each point of interest and each point of interest reflected in the camera image are calculated. Corresponding points (corresponding points) are correlated using the method disclosed in Non-Patent Document 3, for example, and each point of interest is projected from 3D space coordinates to image coordinates using reprojection errors based on multiple correspondences, that is, camera parameters. A technique has been disclosed for optimizing camera parameters so that the image coordinate error between a given point and a corresponding point on a camera image is reduced.

また、カメラ間の相対位置の精度を高める手法として、非特許文献4にはLoop Closingが開示されている。Loop Closingでは多数のカメラもしくはカメラの移動によって被写体の周りを取り囲んで撮影した複数画像に対して、画像上の多数の注目点を基に計算可能な画像の類似度(BoW)を評価し、被写体の周りを囲んだカメラがループを形成するという拘束条件を基に相対位置関係の最適化を行う。 Furthermore, as a method for increasing the accuracy of relative positions between cameras, Loop Closing is disclosed in Non-Patent Document 4. Loop Closing evaluates image similarity (BoW), which can be calculated based on many points of interest on the images, for multiple images taken surrounding the subject by multiple cameras or moving cameras, and then The relative positional relationship is optimized based on the constraint that the cameras surrounding the frame form a loop.

特願2020-212906号Patent application No. 2020-212906 特願2020-012676号Patent application No. 2020-012676 特願2020-127288号Patent application No. 2020-127288

Laurentini, A."The visual hull concept for silhouette based image understanding.", IEEE Transactions on Pattern Analysis and Machine Intelligence, 16, 150-162, (1994).Laurentini, A. "The visual hull concept for silhouette based image understanding.", IEEE Transactions on Pattern Analysis and Machine Intelligence, 16, 150-162, (1994). Z. Zhang. A flexible new technique for camera calibration. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 22(11):1330-1334, 2000.Z. Zhang. A flexible new technique for camera calibration. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 22(11):1330-1334, 2000. 鶴崎 裕貴、野中 敬介、渡邊 良亮、内藤 整, "Line Segment Detectorを用いたカメラキャリブレーションの高精度化に関する検討," , 2020-AVM-108, 7, pp. 1 - 6, 2020.Yuki Tsurusaki, Keisuke Nonaka, Ryosuke Watanabe, Sei Naito, "Study on improving the accuracy of camera calibration using Line Segment Detector," 2020-AVM-108, 7, pp. 1 - 6, 2020. R Mur-Artal, JMM Montiel, JD Tardos. ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 2015.R Mur-Artal, JMM Montiel, JD Tardos. ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 2015.

特許文献1では、シルエット画像を膨張又は縮退することで3Dモデルに欠損が生じることを防止するが、シルエット画像の修正のみでは3次元空間とシルエット画像との投影関係を正しく補正できないので、3Dモデルを本来の被写体の3D形状に近付けることが難しい。 Patent Document 1 prevents defects from occurring in the 3D model by expanding or contracting the silhouette image, but since the projection relationship between the 3D space and the silhouette image cannot be correctly corrected by only modifying the silhouette image, the 3D model It is difficult to approximate the 3D shape of the original object.

非特許文献2,3が開示するカメラキャリブレーション手法では、カメラ間の相対位置が考慮されていないため、特許文献1が指摘するカメラパラメータの推定誤差に起因した3Dモデルの欠損を防止できない。 The camera calibration methods disclosed in Non-Patent Documents 2 and 3 do not take into account the relative positions between the cameras, and therefore cannot prevent the loss of the 3D model caused by the camera parameter estimation error pointed out in Patent Document 1.

非特許文献4では、画像上の多数の注目点を基に画像の類似度を評価し、相対位置の最適化は実施しているが、検出される注目点の画像座標に誤差が含まれることが考慮されていない。 Non-Patent Document 4 evaluates the similarity of images based on a large number of points of interest on the image and optimizes the relative position, but the image coordinates of the detected points of interest include errors. is not taken into account.

本発明の目的は、上記の技術課題を解決し、複数カメラ間に共通して映る点に注目して各カメラ間の相対位置を高精度に推定するカメラキャリブレーション装置、方法及びプログラムを提供することにある。 An object of the present invention is to solve the above technical problems and provide a camera calibration device, method, and program for estimating the relative position between each camera with high accuracy by focusing on the points that appear in common between multiple cameras. There is a particular thing.

上記の目的を達成するために、本発明は、3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention provides an apparatus for relatively calibrating each camera based on camera images taken by a plurality of cameras of a calibration coordinate model with known three-dimensional coordinates, which has the following configuration. It is characterized by having the following.

(1) 較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、前記複数のカメラの1台を基準カメラに決定する手段と、各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備した。 (1) means for associating a plurality of points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images; and means for determining one of the plurality of cameras as a reference camera; , a means for estimating the relative position of each camera based on a projection relationship between the cameras of each corresponding point of each camera image; and a means for projecting the corresponding point of each camera onto another camera based on the projection relationship; means for correcting the image coordinates of the corresponding points of the cameras based on the image coordinates of the projected points; and means for calculating the extrinsic parameters of each camera based on the extrinsic parameters of the reference camera and the corrected corresponding points of each camera. Equipped with.

(2) 3次元空間座標との対応付け精度の高い一部のカメラを選択カメラに決定し、前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む各カメラへ投影するようにした。 (2) The correcting means determines some cameras with high accuracy of correspondence with three-dimensional space coordinates as selected cameras, and the correcting means includes each corresponding point of the selected camera including other selected cameras based on the projective relationship. Projected to each camera.

(3) 各カメラの補正後の各対応点の画像座標の誤差を計算する手段と、前記誤差が収束したか否かを判定する手段とを具備し、誤差が収束するまで基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すようにした。 (3) comprising means for calculating an error in the image coordinates of each corresponding point after correction of each camera, and means for determining whether the error has converged, and selecting a reference camera until the error has converged; Estimation of relative positions and correction of image coordinates of corresponding points are repeated.

本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.

(1) 被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、外部パラメータの相対関係が高精度化される。したがって、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができるようになる。 (1) The positions of multiple cameras that photograph the subject from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and external parameters are calculated based on the corrected relative positions. The relative relationships of external parameters are highly accurate. Therefore, it becomes possible to improve the quality of 3D models created based on multiple camera images.

(2) 比較的制度の高い選択カメラの各対応点を他の選択カメラを含む各カメラへ投影するようにしたので、対応付け精度が悪いカメラが存在しても、選択カメラによって対応付けを高精度化(座標補正)できるようになる。 (2) Since each corresponding point of the selected camera with relatively high accuracy is projected to each camera including other selected cameras, even if there is a camera with poor matching accuracy, the selected camera can improve the matching. Accuracy (coordinate correction) will be possible.

(3) 誤差が収束するまで座標補正が繰り返されるので、全てのカメラの相対関係を高精度化できるようになる。 (3) Since coordinate correction is repeated until the error converges, the relative relationships of all cameras can be highly accurate.

本発明の第1実施形態に係るカメラキャリブレーション装置の機能ブロック図である。FIG. 1 is a functional block diagram of a camera calibration device according to a first embodiment of the present invention. 複数カメラの配置例を示した図である。FIG. 3 is a diagram showing an example of arrangement of multiple cameras. 較正用座標モデルとカメラの画像座標との対応付け方法を示した図である。FIG. 7 is a diagram showing a method of associating a calibration coordinate model with image coordinates of a camera. カメラ間の相対位置の計算方法を説明するための図である。FIG. 3 is a diagram for explaining a method of calculating relative positions between cameras. 対応点の画像座標を補正する方法を示した図(その1)である。FIG. 2 is a diagram (part 1) showing a method for correcting image coordinates of corresponding points; 対応点の画像座標を補正する方法を示した図(その2)である。FIG. 7 is a diagram (Part 2) showing a method for correcting image coordinates of corresponding points. 本発明の効果を説明するための図である。FIG. 3 is a diagram for explaining the effects of the present invention. 本発明の第2実施形態に係るカメラキャリブレーション装置の機能ブロック図である。FIG. 3 is a functional block diagram of a camera calibration device according to a second embodiment of the present invention. 対応点の画像座標の誤差を判定する方法を示した図である。FIG. 6 is a diagram showing a method for determining an error in image coordinates of corresponding points. 視体積交差法による3Dモデルの生成方法を示した図である。FIG. 2 is a diagram showing a method of generating a 3D model using a visual volume intersection method.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、カメラ画像入力部10,歪補正部20,対応付け部30,カメラ決定部40,相対位置計算部50,画像座標補正部60およびカメラパラメータ計算部70を主要な構成としている。 Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of main parts of a camera calibration device 1 according to a first embodiment of the present invention, including a camera image input section 10, a distortion correction section 20, a matching section 30, and a camera determination section 10. The main components include a section 40, a relative position calculation section 50, an image coordinate correction section 60, and a camera parameter calculation section 70.

このようなカメラキャリブレーション装置1は、汎用の少なくとも一台のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。 Such a camera calibration device 1 can be configured by installing an application (program) for realizing each function on at least one general-purpose computer or server. Alternatively, it can be configured as a dedicated machine or single-function machine in which part of the application is converted into hardware or software.

本実施形態は、スポーツシーンを対象とした自由視点映像制作システムへの適用を想定し、図2に示すようにサッカーコートの周囲にコートを向いた16台のカメラを設置し、3Dモデル品質の向上を目的として各カメラのカメラパラメータを推定する場合を例にして説明する。 This embodiment assumes application to a free-viewpoint video production system targeting sports scenes, and as shown in Figure 2, 16 cameras facing the soccer court are installed around the soccer court to create a 3D model quality image. An example will be explained in which camera parameters of each camera are estimated for the purpose of improvement.

画像入力部10には、視点の異なる複数(本実施形態では16台)のカメラで撮影した画像が入力される。歪補正部20は、入力したカメラ画像に対して歪補正を行う。本実施例では撮影時のカメラの設定情報から、非特許文献2などに開示される手法によってカメラごとに次式(1),(2)に代表される歪補正モデルのパラメータ(歪パラメータ)を事前計算し、当該歪パラメータを用いて歪補正を行う。 Images captured by a plurality of cameras (16 in this embodiment) from different viewpoints are input to the image input unit 10. The distortion correction unit 20 performs distortion correction on the input camera image. In this example, the parameters (distortion parameters) of the distortion correction model represented by the following equations (1) and (2) are calculated for each camera from the camera setting information at the time of shooting using the method disclosed in Non-Patent Document 2. Distortion correction is performed using the distortion parameters calculated in advance.

Figure 0007429667000001
Figure 0007429667000001

Figure 0007429667000002
Figure 0007429667000002

ここで、(x', y'),(x, y)は、それぞれ歪補正前および歪補正後の各カメラ画像上の座標(以下、画像座標と表現する場合もある)であり、ki,Piは、それぞれ放射歪、円周方向の歪に関する歪補正量である。 Here, (x', y') and (x, y) are the coordinates on each camera image before and after distortion correction (hereinafter sometimes expressed as image coordinates), and k i , P i are distortion correction amounts for radial distortion and circumferential distortion, respectively.

対応付け部30は、3次元座標が既知の較正用座標モデル(本実施形態では、サッカーフィールドモデル)を与えられ、歪補正されたカメラ画像を対象に較正用座標モデルの3次元空間座標 (X, Y, Z) とカメラの画像座標 (x, y)との対応付けを行う。 The association unit 30 is given a calibration coordinate model (in this embodiment, a soccer field model) whose three-dimensional coordinates are known, and calculates the three-dimensional spatial coordinates (X , Y, Z) and the camera's image coordinates (x, y).

本実施形態では、図3に一例を示すようにサッカーコートの規格等から3次元空間座標が既知であるフィールドライン上の少なくとも4つの点に注目し、各注目点の3次元空間座標(Xi, Yi, Zi) とカメラに映ったその対応点の画像座標(xi, yi)との対応付けを行う。 In this embodiment, as an example shown in FIG. 3, attention is paid to at least four points on the field line whose three-dimensional spatial coordinates are known from the standards of soccer courts, etc., and the three-dimensional spatial coordinates (Xi, Yi, Zi) and the image coordinates (xi, yi) of the corresponding point seen by the camera.

このような対応付けは、全16台のカメラから入力された各画像フレームをコンピュータ上に表示させ、当該コンピュータを制御するポインティング装置を用いてフィールドライン上の各注目点と画像上の各対応点とを対応付けることで実施しても良いし、あるいは非特許文献3が開示する従来手法によって自動推定しても良い。 This kind of correspondence is achieved by displaying each image frame input from all 16 cameras on a computer, and using a pointing device that controls the computer to identify each point of interest on the field line and each corresponding point on the image. It may be carried out by associating with the above, or it may be automatically estimated by the conventional method disclosed in Non-Patent Document 3.

さらに、室内競技のように被写体との距離が近い撮影時には、ARマーカ等の既知のパターンを較正用座標モデルに用い、パターンマッチングなどにより自動で対応付けを行っても良い。なお、このような対応付けでは手動および自動のいずれにおいても、ポインティング操作のずれや推定精度の問題により各対応点の画像座標に誤差が含まれることは避けられない。 Furthermore, when shooting at a close distance to the subject, such as in an indoor competition, a known pattern such as an AR marker may be used as a calibration coordinate model, and correspondence may be automatically performed by pattern matching or the like. In addition, in both manual and automatic mapping, errors are inevitably included in the image coordinates of each corresponding point due to deviations in pointing operations and problems with estimation accuracy.

カメラ決定部40は、基準カメラ決定部41および選択カメラ決定部42を含む。基準カメラ決定部41は、各カメラの相対位置計算の基準となるカメラ1台を基準カメラに決定する。選択カメラ決定部42は、後述する画像座標補正部60が各カメラの画像座標を相対的に補正する際に使用する複数台のカメラを選択カメラに決定する。 The camera determining section 40 includes a reference camera determining section 41 and a selected camera determining section 42. The reference camera determination unit 41 determines one camera, which serves as a reference for calculating the relative positions of each camera, as the reference camera. The selected camera determining unit 42 determines, as selected cameras, a plurality of cameras to be used when an image coordinate correcting unit 60 (described later) relatively corrects the image coordinates of each camera.

前記基準カメラ決定部41は、全16台のカメラから任意の1台を基準カメラに決定できる。選択カメラ決定部42は、3次元空間の同一点に対応する各カメラ画像の点を3次元空間座標へ投影し、他のカメラとの収束具合に基づいて複数の選択カメラを決定する。 The reference camera determination unit 41 can determine any one camera from a total of 16 cameras as the reference camera. The selected camera determining unit 42 projects points of each camera image corresponding to the same point in the three-dimensional space onto three-dimensional space coordinates, and determines a plurality of selected cameras based on the degree of convergence with other cameras.

本実施形態では、対応付け部30で対応付けたサッカーコート上の各注目点の3次元空間座標とカメラ画像上の各対応点の画像座標との組み合わせから、非特許文献2が開示する手法などによりホモグラフィ行列の推定を実施し、推定したホモグラフィ行列を用いて各カメラからサッカーコート平面へ点を投影する。 In this embodiment, from the combination of the three-dimensional spatial coordinates of each point of interest on the soccer court, which are matched by the matching unit 30, and the image coordinates of each corresponding point on the camera image, the method disclosed in Non-Patent Document 2 is used. A homography matrix is estimated using the method, and points are projected from each camera onto the soccer court plane using the estimated homography matrix.

ここで、ホモグラフィ行列とは2つの異なる平面上の点の射影変換行列であり、サッカーコート平面上の点(Xi, Yi, 1)をカメラ画像上の点(xi, yi, 1)に射影する行列式は次式(3)で表される。 Here, the homography matrix is a projective transformation matrix of points on two different planes, and it transforms a point (X i , Y i , 1) on the soccer court plane into a point (x i , y i , The determinant projected onto 1) is expressed by the following equation (3).

Figure 0007429667000003
Figure 0007429667000003

本実施形態では、投影した点が他のカメラと大きくずれているカメラを除外して残りのカメラを選択カメラに決定すべく、全カメラから投影した点のマハラノビス距離によって閾値を設け、閾値を超えるカメラを除外するようにしている。 In this embodiment, in order to exclude cameras whose projected points are significantly different from other cameras and determine the remaining cameras as selected cameras, a threshold is set based on the Mahalanobis distance of the projected points from all cameras, and if the projected point exceeds the threshold. I'm trying to exclude cameras.

なお、選択カメラの決定方法は上記の手法に限定されるものではなく、評価するカメラごとに当該カメラを除く残り全てのカメラの画像に基づいて制作した一部カメラ3Dモデルと、全てのカメラの画像に基づいて制作した全カメラ3Dモデルとの品質を比較し、一部カメラ3Dモデルの品質が全カメラ3Dモデルの品質よりも優った時の当該除いたカメラ以外を選択カメラに決定するようにしても良い。 Note that the method for determining the selected camera is not limited to the above method, and for each camera to be evaluated, a partial camera 3D model created based on images of all cameras other than the camera in question, and a 3D model of all cameras. The quality is compared with all camera 3D models created based on the image, and when the quality of some camera 3D models is higher than the quality of all camera 3D models, the camera other than the relevant camera is determined as the selected camera. It's okay.

あるいは上記の選択で残ったカメラのみを対象に同様の選択を繰り返し、所定の条件下で最終的に残ったカメラのみを選択カメラに決定するようにしても良い。3Dモデルの品質は、制作したモデルをカメラ位置に投影したときのシルエットとそのカメラに映る実写の被写体のシルエットとの一致具合により自動で評価できる。 Alternatively, the same selection may be repeated for only the cameras remaining in the above selection, and only the cameras that ultimately remain under predetermined conditions may be determined as the selected cameras. The quality of a 3D model can be automatically evaluated based on how well the silhouette of the created model when projected at the camera position matches the silhouette of the subject as seen by the camera.

なお、基準カメラについても選択カメラと同様に、3次元空間の同一点に対応する各カメラ画像の対応点を3次元空間へ投影し、再投影誤差が最小となる1台を選択すれば、カメラの相対位置のみならず絶対位置についてもより高精度化できるようになる。 As for the reference camera, in the same way as the selected camera, if the corresponding points of each camera image corresponding to the same point in the 3D space are projected into the 3D space and the one with the minimum reprojection error is selected, the camera Not only the relative position but also the absolute position can be made more precise.

相対位置計算部50は、図4に示すように、選択カメラごとに他の各カメラ(他の選択カメラおよび基準カメラを含む)との同一の注目点に対応する対応点の射影関係を計算してホモグラフィ行列を推定する。 As shown in FIG. 4, the relative position calculation unit 50 calculates the projection relationship of corresponding points corresponding to the same point of interest with each other camera (including other selected cameras and a reference camera) for each selected camera. Estimate the homography matrix using

本実施形態では、前記対応付け部30が対応付けに用いた較正用座標モデルの各注目点に対応する各カメラ画像の各対応点に着目し、当該各対応点の画像座標の関係に基づいてホモグラフィ行列が計算される。 In this embodiment, the association unit 30 focuses on each corresponding point of each camera image corresponding to each point of interest of the calibration coordinate model used for association, and based on the relationship between the image coordinates of each corresponding point, A homography matrix is calculated.

画像座標補正部60は、相対位置計算部50が計算した各選択カメラと他の各カメラとの射影関係に基づいて各カメラの各対応点の画像座標を相対的に補正する。本実施形態では、初めに図5に示すように、選択カメラごとに他の各カメラとの相対位置関係を示すホモグラフィ行列を用いて各対応点を他の各カメラに投影する。したがって、選択カメラがM台であれば投影先の各カメラには対応点ごとにM個の点が投影されることになる。 The image coordinate correction unit 60 relatively corrects the image coordinates of each corresponding point of each camera based on the projection relationship between each selected camera and each other camera calculated by the relative position calculation unit 50. In this embodiment, first, as shown in FIG. 5, each corresponding point is projected onto each other camera using a homography matrix indicating the relative positional relationship with each other camera for each selected camera. Therefore, if there are M selected cameras, M points will be projected for each corresponding point to each projection destination camera.

次いで、投影先のカメラごとに、各選択カメラから同一の対応点に関して投影された複数の点の代表値として、図6に示すように各点の画像座標の平均値や中央値を計算し、当該代表値を対応点ごとに補正後のカメラ画像座標として仮決定する。このとき、投影先が他の選択カメラであれば代表値計算に自身の対応点の画像座標を含めるが、投影先が選択カメラ以外であれば投影された点の画像座標のみから代表値の計算を実施する。 Next, for each projection destination camera, the average value and median value of the image coordinates of each point are calculated as the representative values of the multiple points projected from each selected camera regarding the same corresponding point, as shown in FIG. The representative value is provisionally determined as the corrected camera image coordinates for each corresponding point. At this time, if the projection destination is another selected camera, the image coordinates of its own corresponding point are included in the representative value calculation, but if the projection destination is other than the selected camera, the representative value is calculated only from the image coordinates of the projected point. Implement.

カメラパラメータ計算部70は、全てのカメラのカメラパラメータを計算してカメラ位置を決定する。カメラパラメータは3次元空間座標上の点(Xi, Yi, Zi)を画像座標上の点(xi, yi) に変換するものであり、次式(4)で表される。 The camera parameter calculation unit 70 calculates camera parameters of all cameras and determines camera positions. The camera parameters are for converting a point (X i , Y i , Z i ) on three-dimensional space coordinates into a point (x i , y i ) on image coordinates, and are expressed by the following equation (4).

Figure 0007429667000004
Figure 0007429667000004

ここで、(cx, cy)はカメラ画像中の主点であり、通常は画像中心である。fは焦点距離を示し、本実施形態ではズーム値の代わりに算出したい値である。これらは内部パラメータと呼ばれ、焦点距離を固定している限りは一定の値となる。また、r11~r33はカメラの回転量を示す回転行列、t1~t3はカメラの位置を示す並進行列であり、sはスケーリングに用いる係数である。回転行列r11~r33および並進行列t1~t3で構成される行列は外部パラメータと呼ばれる。 Here, (c x , c y ) is the principal point in the camera image, usually at the center of the image. f indicates the focal length, which in this embodiment is a value to be calculated instead of the zoom value. These are called internal parameters and remain constant values as long as the focal length is fixed. Further, r 11 to r 33 are rotation matrices indicating the amount of rotation of the camera, t 1 to t 3 are translation matrices indicating the position of the camera, and s is a coefficient used for scaling. A matrix composed of rotation matrices r 11 to r 33 and translation matrices t 1 to t 3 is called an extrinsic parameter.

本実施形態では、カメラ決定部40が決定した基準カメラについて補正後の各対応点の画像座標とサッカーコートの対応する注目点との関係でホモグラフィ行列を推定し、非特許文献2などによって予め求めた内部パラメータを用いることで基準カメラの外部パラメータを計算する。 In the present embodiment, the homography matrix is estimated based on the relationship between the image coordinates of each corresponding point after correction and the corresponding point of interest on the soccer court for the reference camera determined by the camera determining unit 40, and The extrinsic parameters of the reference camera are calculated using the determined intrinsic parameters.

次いで、基準カメラと他の各カメラとのホモグラフィ行列および事前に用意した各カメラの内部パラメータを用いて、基準カメラからの相対位置を示す外部パラメータを決定する。そして、3次元空間のサッカーコートを基準に計算した基準カメラの外部パラメータと各カメラの相対位置を示す外部パラメータとに基づいて全てのカメラのサッカーコート基準の外部パラメータを計算し、カメラパラメータを出力する。 Next, using homography matrices between the reference camera and each other camera and internal parameters of each camera prepared in advance, external parameters indicating the relative position from the reference camera are determined. Then, the external parameters of all cameras based on the soccer court are calculated based on the external parameters of the reference camera calculated based on the soccer court in 3D space and the external parameters indicating the relative position of each camera, and the camera parameters are output. do.

本発明によれば、被写体を異なる視点で撮影する複数のカメラの位置を他のカメラとの相対的な位置関係に基づいて相互に補正し、当該補正された相対位置に基づいて外部パラメータを計算するので、図7に示すように、各カメラパラメータは実際のカメラパラメータとは多少ずれたパラメータを取り得るが各カメラの相対位置の誤差が減少する。その結果、外部パラメータの相対関係が高精度化されるので、複数のカメラ画像に基づいて制作される3Dモデルの品質を向上させることができる。 According to the present invention, the positions of multiple cameras that photograph a subject from different viewpoints are mutually corrected based on the relative positional relationship with other cameras, and external parameters are calculated based on the corrected relative positions. Therefore, as shown in FIG. 7, although each camera parameter may take a parameter that is slightly different from the actual camera parameter, the error in the relative position of each camera is reduced. As a result, the relative relationships between external parameters become more precise, making it possible to improve the quality of 3D models created based on multiple camera images.

図8は、本発明の第2実施形態に係るカメラキャリブレーション装置1の主要部の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は誤差判定部80を具備し、再投影誤差が収束するまで各カメラの対応点の画像座標補正を繰り返すようにした点に特徴がある。 FIG. 8 is a functional block diagram showing the configuration of the main parts of the camera calibration device 1 according to the second embodiment of the present invention, and the same reference numerals as above represent the same or equivalent parts. is omitted. The present embodiment is characterized in that it includes an error determination section 80 and repeats image coordinate correction of corresponding points of each camera until the reprojection error converges.

誤差判定部80は、誤差計算部81および収束判定部82を含み、前記画像座標補正部60における各カメラの対応点の画像座標の補正により、基準カメラを除くカメラ間の相対位置が高精度化されたか否かを判定する。 The error determination unit 80 includes an error calculation unit 81 and a convergence determination unit 82, and by correcting the image coordinates of the corresponding points of each camera in the image coordinate correction unit 60, the relative positions between the cameras except the reference camera are improved in accuracy. Determine whether or not it has been done.

前記誤差計算部81は、図9に示すように、前記基準カメラ決定部41が決定した基準カメラ(1台)に対して残り全てのカメラ(15台)から、対応点ごとに前記補正前および補正後の各画像座標を前記投影関係に基づいて再投影し、基準カメラが撮影した対応する各注目点の画素位置と各カメラからの再投影位置との距離をそれぞれ再投影誤差として計算する。 As shown in FIG. 9, the error calculation unit 81 calculates the uncorrected and Each corrected image coordinate is reprojected based on the projection relationship, and the distance between the pixel position of each corresponding point of interest photographed by the reference camera and the reprojection position from each camera is calculated as a reprojection error.

収束判定部82は、基準カメラを除く残り全てカメラにおいて、補正後の画素位置の再投影誤差が補正前の画素位置の再投影誤差よりも小さければ、誤差補正が収束したと判断して当該補正後の各画素位置を各対応点の画素位置に決定する。 If the reprojection error of the pixel position after correction is smaller than the reprojection error of the pixel position before correction in all the remaining cameras except the reference camera, the convergence determination unit 82 determines that the error correction has converged and performs the correction. Each subsequent pixel position is determined to be the pixel position of each corresponding point.

これに対して、補正後の画素位置の再投影誤差の方が大きいカメラが存在すれば、当該カメラの各対応点の画像座標を補正前の画像座標に戻す一方、補正後の画像座標の再投影誤差の方が小さかったカメラについては当該補正後の画像座標を維持したまま前記カメラ決定部40へ戻る。 On the other hand, if there is a camera with a larger reprojection error of the pixel position after correction, the image coordinates of each corresponding point of that camera will be returned to the image coordinates before correction, and the image coordinates after correction will be reprojected. For cameras with smaller projection errors, the process returns to the camera determining unit 40 while maintaining the corrected image coordinates.

そして、カメラ決定部40における基準カメラおよび選択カメラの決定、相対位置推定部50における相対位置の決定並びに画像座標補正部60による画像座標補正の各処理を繰り返す。当該繰り返しは、今回の補正後の画像座標の再投影誤差が前回の補正後または補正前の画像座標の再投影誤差よりも大きいカメラ数がゼロまたは所定の閾値を下回るまで繰り返される。あるいは全てのカメラにおいて、今回の補正後の画像座標の再投影誤差と前回の補正後または補正前の画像座標の再投影誤差との差分の絶対値が所定の閾値を下回るまで繰り返されるようにしても良い。 Then, the processes of determining the reference camera and selected camera by the camera determining unit 40, determining the relative position by the relative position estimating unit 50, and correcting the image coordinates by the image coordinate correcting unit 60 are repeated. This repetition is repeated until the number of cameras in which the reprojection error of the image coordinates after the current correction is larger than the reprojection error of the image coordinates after the previous correction or correction becomes zero or less than a predetermined threshold. Alternatively, the process is repeated for all cameras until the absolute value of the difference between the reprojection error of the image coordinates after the current correction and the reprojection error of the image coordinates after or before the previous correction falls below a predetermined threshold. Also good.

本実施形態によれば、外部パラメータの基準となる基準カメラに対する他の各カメラの相対位置が補正されるので、基準カメラの外部パラメータと他の各カメラの外部パラメータとの相対関係を高精度化できるようになり、3Dモデルの品質を更に向上させることができるようになる。 According to this embodiment, the relative position of each other camera with respect to the reference camera that serves as a reference for external parameters is corrected, so the relative relationship between the external parameters of the reference camera and the external parameters of each other camera is improved. This makes it possible to further improve the quality of 3D models.

そして、上記の各実施形態によれば高品質な被写体3Dモデルを通信インフラ経由でもリアルタイムで提供することが可能となるので、地理的あるいは経済的な格差を超えて多くの人々に多様なエンターテインメントを提供できるようになる。その結果、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。 According to each of the above embodiments, it is possible to provide high-quality 3D models of objects in real time even via communication infrastructure, so it is possible to provide a variety of entertainment to many people regardless of geographic or economic disparity. be able to provide it. As a result, Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations: ``Build resilient infrastructure and promote inclusive and sustainable industrialization'' and Goal 11: ``Make cities inclusive, safe and resilient.'' It will be possible to contribute to "making the world more sustainable and more sustainable."

なお、本実施形態では相対位置の誤差を再投影誤差として評価したが、本発明はこれのみに限定されるものではなく、補正前、補正後の各画像座標情報からそれぞれ3Dモデルを生成し、3Dモデルの品質に基づいて評価を行っても良い。 Note that in this embodiment, the relative position error was evaluated as a reprojection error, but the present invention is not limited to this, and a 3D model is generated from each image coordinate information before and after correction, Evaluation may be performed based on the quality of the 3D model.

1…カメラキャリブレーション装置,10…カメラ画像入力部,20…歪補正部,30…対応付け部,40…カメラ決定部,41…基準カメラ決定部,42…選択カメラ決定部,50…相対位置計算部,60…画像座標補正部,70…カメラパラメータ計算部,80…誤差判定部,81…誤差計算部,82…収束判定部 1... Camera calibration device, 10... Camera image input section, 20... Distortion correction section, 30... Corresponding section, 40... Camera determining section, 41... Reference camera determining section, 42... Selected camera determining section, 50... Relative position Calculation section, 60... Image coordinate correction section, 70... Camera parameter calculation section, 80... Error judgment section, 81... Error calculation section, 82... Convergence judgment section

Claims (15)

3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする装置において、
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手段と、
前記複数のカメラの1台を基準カメラに決定する手段と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手段と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影し、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手段と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手段とを具備したことを特徴とするカメラキャリブレーション装置。
In a device that relatively calibrates each camera based on camera images taken by multiple cameras of a calibration coordinate model whose three-dimensional coordinates are known,
means for associating a plurality of points of interest common to all camera images of the calibration coordinate model with corresponding points on the camera images;
means for determining one of the plurality of cameras as a reference camera;
means for estimating the relative position of each camera based on the projection relationship between the cameras of each corresponding point of each camera image;
means for projecting the corresponding point of each camera onto another camera based on the projection relationship, and correcting the image coordinates of the corresponding point of the projection destination camera based on the image coordinate of the projected point;
A camera calibration device comprising means for calculating an extrinsic parameter of each camera based on an extrinsic parameter of a reference camera and corrected corresponding points of each camera.
全カメラから選択した一部の複数を選択カメラに決定する手段を具備し、
前記補正する手段は、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項1に記載のカメラキャリブレーション装置。
comprising means for determining a plurality of selected cameras from all the cameras as selected cameras;
2. The camera calibration apparatus according to claim 1, wherein the correcting means projects each corresponding point of the selected camera onto other cameras including another selected camera based on the projection relationship.
前記選択カメラに決定する手段は、各カメラの対応点を較正用座標モデルの3D空間への前記射影関係に基づき再投影した際の誤差の収束具合に基づいて選択カメラを決定することを特徴とする請求項2に記載のカメラキャリブレーション装置。 The means for determining the selected camera determines the selected camera based on the degree of convergence of errors when the corresponding points of each camera are reprojected onto the 3D space of the calibration coordinate model based on the projection relationship. The camera calibration device according to claim 2. 前記選択カメラに決定する手段は、カメラごとに当該カメラを除く残り全てのカメラの画像に基づいて制作した一部カメラ3Dモデルと全てのカメラの画像に基づいて制作した全カメラ3Dモデルとの品質を比較し、一部カメラ3Dモデルの品質が全カメラ3Dモデルの品質よりも優った時の当該除いたカメラ以外を選択カメラに決定することを特徴とする請求項2に記載のカメラキャリブレーション装置。 The means for determining the selected camera is based on the quality of a partial camera 3D model created based on the images of all the remaining cameras excluding the camera and the quality of all camera 3D models created based on the images of all cameras for each camera. 3. The camera calibration device according to claim 2, wherein when the quality of some camera 3D models is superior to the quality of all camera 3D models, a camera other than the excluded camera is determined as the selected camera. . 前記補正する手段は、投影先が他の選択カメラであれば当該他の選択カメラの各対応点および投影された点に基づいて各対応点の画像座標を補正し、投影先が選択カメラ以外であれば投影された点に基づいて各対応点の画像座標を補正することを特徴とする請求項2ないし4のいずれかに記載のカメラキャリブレーション装置。 The correcting means corrects the image coordinates of each corresponding point based on each corresponding point of the other selected camera and the projected point when the projection destination is another selected camera, and when the projection destination is other than the selected camera. 5. The camera calibration device according to claim 2, wherein the image coordinates of each corresponding point are corrected based on the projected point, if any. 各カメラの前記補正後の各対応点の画像座標の誤差を計算する手段と、
前記誤差が収束したか否かを判定する手段とを具備し、
前記誤差の収束を判定する手段は、前記誤差が収束するまで前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項1ないし5のいずれかに記載のカメラキャリブレーション装置。
means for calculating an error in the image coordinates of each corresponding point after the correction of each camera;
and means for determining whether the error has converged,
6. The means for determining the convergence of the error repeats the selection of the reference camera, the estimation of the relative position, and the correction of the image coordinates of the corresponding points until the error converges. Camera calibration device as described.
前記誤差を計算する手段は、各カメラ画像の前記補正前および補正後の各対応点を基準カメラへ投影して補正前および補正後の各対応点の再投影誤差を計算し、
前記誤差の収束を判定する手段は、補正後の対応点の再投影誤差が補正前の対応点の再投影誤差よりも大きいカメラの各対応点を補正前に戻し、前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項6に記載のカメラキャリブレーション装置。
The means for calculating the error projects each corresponding point before and after correction of each camera image onto a reference camera, and calculates a reprojection error of each corresponding point before and after correction,
The means for determining the convergence of the errors returns each corresponding point of the camera to the state before correction, in which the reprojection error of the corresponding point after correction is larger than the reprojection error of the corresponding point before correction, and selects the reference camera, and 7. The camera calibration device according to claim 6, wherein position estimation and correction of image coordinates of corresponding points are repeated.
前記誤差の収束を判定する手段は、補正後の対応点の再投影誤差が補正前の対応点の再投影誤差よりも大きいカメラ数が所定の閾値以下となるまで、前記基準カメラの選択、相対位置の推定および対応点の画像座標の補正を繰り返すことを特徴とする請求項7に記載のカメラキャリブレーション装置。 The means for determining the convergence of the error includes selecting the reference camera, and controlling the relative 8. The camera calibration device according to claim 7, wherein position estimation and correction of image coordinates of corresponding points are repeated. 前記外部パラメータを計算する手段は、
基準カメラの較正用座標モデルに対する射影関係と内部パラメータとに基づいて第1外部パラメータを計算し、
基準カメラと他のカメラとの射影関係および各カメラの内部パラメータに基づいて基準カメラと他のカメラとの相対位置を示す第2外部パラメータを計算し、
前記第1及び第2外部パラメータに基づいて各カメラの較正用座標モデルに対する外部パラメータを計算することを特徴とする請求項1ないし8のいずれかに記載のカメラキャリブレーション装置。
The means for calculating the external parameters include:
calculating a first extrinsic parameter based on the internal parameter and a projection relationship with respect to the calibration coordinate model of the reference camera;
calculating a second external parameter indicating the relative position of the reference camera and the other cameras based on the projective relationship between the reference camera and the other cameras and the internal parameters of each camera;
9. The camera calibration apparatus according to claim 1, wherein an external parameter for a calibration coordinate model of each camera is calculated based on the first and second external parameters.
各カメラ画像からレンズ歪成分を除去する歪補正部を具備したことを特徴とする請求項1ないし9のいずれかに記載のカメラキャリブレーション装置。 10. The camera calibration device according to claim 1, further comprising a distortion correction section that removes lens distortion components from each camera image. 前記基準カメラに決定する手段は、対応点の前記較正用座標モデルに対する再投影誤差が最小のカメラを基準カメラに決定することを特徴とする請求項1ないし10のいずれかに記載のカメラキャリブレーション装置。 Camera calibration according to any one of claims 1 to 10, characterized in that the means for determining the reference camera determines, as the reference camera, a camera with a minimum reprojection error of corresponding points with respect to the calibration coordinate model. Device. 前記較正用座標モデルがARマーカであることを特徴とする請求項1ないし11のいずれかに記載のカメラキャリブレーション装置。 12. The camera calibration device according to claim 1, wherein the calibration coordinate model is an AR marker. コンピュータが、3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションする方法において、
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付け、
前記複数のカメラの1台を基準カメラに決定し、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定し、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正し、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算することを特徴とするカメラキャリブレーション方法。
A method in which a computer relatively calibrates each camera based on camera images taken by a plurality of cameras of a calibration coordinate model whose three-dimensional coordinates are known,
Associating multiple points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images,
determining one of the plurality of cameras as a reference camera;
Estimate the relative position of each camera based on the projection relationship between the cameras of each corresponding point in each camera image,
After projecting the corresponding points of each camera to another camera based on the projection relationship, correcting the image coordinates of the corresponding points of the projection destination camera based on the image coordinates of the projected point,
A camera calibration method characterized in that an extrinsic parameter of each camera is calculated based on an extrinsic parameter of a reference camera and corresponding points after correction of each camera.
全カメラから選択した一部の複数を選択カメラに決定し、
前記対応点の画像座標を補正する際に、選択カメラの各対応点を前記射影関係に基づいて他の選択カメラを含む他のカメラへ投影することを特徴とする請求項13に記載のカメラキャリブレーション方法。
Decide some of the selected cameras from all the cameras as the selected cameras,
14. The camera calibrator according to claim 13, wherein when correcting the image coordinates of the corresponding points, each corresponding point of the selected camera is projected onto other cameras including another selected camera based on the projection relationship. tion method.
3次元座標が既知の較正用座標モデルを複数のカメラで撮影したカメラ画像に基づいて各カメラを相対的にキャリブレーションするプログラムにおいて、
較正用座標モデルの全てのカメラ画像に共通して映る複数の注目点とそのカメラ画像上の対応点とを対応付ける手順と、
前記複数のカメラの1台を基準カメラに決定する手順と、
各カメラの相対位置を各カメラ画像の各対応点のカメラ間での射影関係に基づいて推定する手順と、
各カメラの対応点を前記射影関係に基づいて他のカメラへ投影したのち、投影先カメラの対応点の画像座標を投影された点の画像座標に基づいて補正する手順と、
基準カメラの外部パラメータと各カメラの補正後の対応点とに基づいて各カメラの外部パラメータを計算する手順と、をコンピュータに実行させるカメラキャリブレーションプログラム。
In a program that relatively calibrates each camera based on camera images taken by multiple cameras of a calibration coordinate model with known 3D coordinates,
a procedure for associating a plurality of points of interest commonly seen in all camera images of the calibration coordinate model with corresponding points on the camera images;
a procedure for determining one of the plurality of cameras as a reference camera;
a step of estimating the relative position of each camera based on the projective relationship between the cameras of each corresponding point of each camera image;
a step of projecting the corresponding point of each camera onto another camera based on the projection relationship, and then correcting the image coordinates of the corresponding point of the projection destination camera based on the image coordinate of the projected point;
A camera calibration program that causes a computer to execute steps for calculating external parameters of each camera based on external parameters of a reference camera and corresponding points after correction of each camera.
JP2021048047A 2021-03-23 2021-03-23 Camera calibration device, method and program Active JP7429667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021048047A JP7429667B2 (en) 2021-03-23 2021-03-23 Camera calibration device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048047A JP7429667B2 (en) 2021-03-23 2021-03-23 Camera calibration device, method and program

Publications (2)

Publication Number Publication Date
JP2022146988A JP2022146988A (en) 2022-10-06
JP7429667B2 true JP7429667B2 (en) 2024-02-08

Family

ID=83462811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048047A Active JP7429667B2 (en) 2021-03-23 2021-03-23 Camera calibration device, method and program

Country Status (1)

Country Link
JP (1) JP7429667B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235934A (en) 2003-01-30 2004-08-19 Sony Corp Calibration processor, calibration processing method, and computer program
JP2007025863A (en) 2005-07-13 2007-02-01 Advanced Telecommunication Research Institute International Photographing system, photographing method, and image processing program
JP2013201677A (en) 2012-03-26 2013-10-03 Mitsubishi Electric Corp Imaging device calibration method and image composition device
WO2017149869A1 (en) 2016-02-29 2017-09-08 ソニー株式会社 Information processing device, method, program, and multi-camera system
JP2018194891A (en) 2017-05-12 2018-12-06 富士通株式会社 Three-dimensional shape estimation method, three-dimensional shape estimation program and three-dimensional shape estimation apparatus
JP6456244B2 (en) 2015-05-25 2019-01-23 Kddi株式会社 Camera calibration method and apparatus
JP2019190974A (en) 2018-04-24 2019-10-31 キヤノン株式会社 Calibration device, calibration method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004235934A (en) 2003-01-30 2004-08-19 Sony Corp Calibration processor, calibration processing method, and computer program
JP2007025863A (en) 2005-07-13 2007-02-01 Advanced Telecommunication Research Institute International Photographing system, photographing method, and image processing program
JP2013201677A (en) 2012-03-26 2013-10-03 Mitsubishi Electric Corp Imaging device calibration method and image composition device
JP6456244B2 (en) 2015-05-25 2019-01-23 Kddi株式会社 Camera calibration method and apparatus
WO2017149869A1 (en) 2016-02-29 2017-09-08 ソニー株式会社 Information processing device, method, program, and multi-camera system
JP2018194891A (en) 2017-05-12 2018-12-06 富士通株式会社 Three-dimensional shape estimation method, three-dimensional shape estimation program and three-dimensional shape estimation apparatus
JP2019190974A (en) 2018-04-24 2019-10-31 キヤノン株式会社 Calibration device, calibration method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鶴崎裕貴 外3名,Line Segment Detectorを用いたカメラキャリブレーションの高精度化に関する検討,情報処理学会 研究報告 オーディオビジュアル複合情報処理(AVM) 2020-AVM-108 [online] ,日本,情報処理学会,2020年02月20日,pp.1~6

Also Published As

Publication number Publication date
JP2022146988A (en) 2022-10-06

Similar Documents

Publication Publication Date Title
CN106875339B (en) Fisheye image splicing method based on strip-shaped calibration plate
JP5285619B2 (en) Camera system calibration
CN107862720B (en) Pose optimization method and pose optimization system based on multi-map fusion
JP6775969B2 (en) Information processing equipment, information processing methods, and programs
US10789765B2 (en) Three-dimensional reconstruction method
US9774837B2 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
US9883163B2 (en) Method and system for determining camera parameters from a long range gradient based on alignment differences in non-point image landmarks
JP4887374B2 (en) A method for obtaining scattered parallax field in stereo vision
CN110728715A (en) Camera angle self-adaptive adjusting method of intelligent inspection robot
CN107843251B (en) Pose estimation method of mobile robot
JP2009017480A (en) Camera calibration device and program thereof
JP5366258B2 (en) Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement
KR100996897B1 (en) correction method of Radial Distortion Based on a Line-Fitting
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
US11284052B2 (en) Method for automatically restoring a calibrated state of a projection system
CN113870358A (en) Method and equipment for joint calibration of multiple 3D cameras
KR20050061115A (en) Apparatus and method for separating object motion from camera motion
WO2021161878A1 (en) Image processing device, image processing method, method of generating learned model, and program
JP7489253B2 (en) Depth map generating device and program thereof, and depth map generating system
CN113763544A (en) Image determination method, image determination device, electronic equipment and computer-readable storage medium
JP7429667B2 (en) Camera calibration device, method and program
Benosman et al. A new catadioptric sensor for the panoramic vision of mobile robots
CN113902846B (en) Indoor three-dimensional modeling method based on monocular depth camera and mileage sensor
CN114820798A (en) Calibrator matching method and device
JP4248212B2 (en) Stereo image processing apparatus and stereo image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R150 Certificate of patent or registration of utility model

Ref document number: 7429667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150