JP4906683B2 - Camera parameter estimation apparatus and camera parameter estimation program - Google Patents

Camera parameter estimation apparatus and camera parameter estimation program Download PDF

Info

Publication number
JP4906683B2
JP4906683B2 JP2007292751A JP2007292751A JP4906683B2 JP 4906683 B2 JP4906683 B2 JP 4906683B2 JP 2007292751 A JP2007292751 A JP 2007292751A JP 2007292751 A JP2007292751 A JP 2007292751A JP 4906683 B2 JP4906683 B2 JP 4906683B2
Authority
JP
Japan
Prior art keywords
image
camera
landmark
coordinates
parameter estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007292751A
Other languages
Japanese (ja)
Other versions
JP2009121824A (en
Inventor
俊彦 三須
真人 藤井
伸行 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2007292751A priority Critical patent/JP4906683B2/en
Publication of JP2009121824A publication Critical patent/JP2009121824A/en
Application granted granted Critical
Publication of JP4906683B2 publication Critical patent/JP4906683B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体をカメラで撮像した際のカメラパラメータを推定するカメラパラメータ推定装置およびカメラパラメータ推定プログラムに関する。   The present invention relates to a camera parameter estimation device and a camera parameter estimation program for estimating camera parameters when a subject is imaged with a camera.

一般に、被写体をカメラで撮像した画像と他の画像とを合成する場合、カメラの撮像時における姿勢、位置、画角等のカメラパラメータを基準にして合成される。この場合、予めカメラ位置等が既知のカメラとして較正されたカメラパラメータを用いたり、カメラ位置等が未知のカメラで撮像した画像から推定したカメラパラメータを用いたりすることが一般的である。   In general, when an image obtained by capturing a subject with a camera and another image are combined, they are combined based on camera parameters such as the posture, position, and angle of view when the camera is picked up. In this case, it is common to use camera parameters calibrated in advance as cameras with known camera positions or the like, or use camera parameters estimated from images captured by cameras with unknown camera positions or the like.

なお、画像からカメラパラメータを推定する手法は種々存在する。例えば、三次元の相対位置関係が時間によって変化しない既知の複数の対象物(ランドマーク群)を用い、画像内の各対象物の座標(画像座標群)を観測することで、当該画像を撮像したカメラのカメラパラメータを推定する手法がある(特許文献1参照)。また、透視4点問題(P4P問題:Perspective Four−Point Problem)を解くことにより、ランドマーク群に対するカメラの相対位置や姿勢を推定する手法がある(非特許文献1参照)。また、例えば、長方形のマーカの時間的な軌跡からカメラの相対位置や姿勢を推定する手法がある(特許文献2参照)。   There are various methods for estimating camera parameters from an image. For example, by using a plurality of known objects (landmark groups) whose three-dimensional relative positional relationship does not change with time, the coordinates (image coordinate groups) of each object in the image are observed to capture the image. There is a method for estimating the camera parameters of the camera (see Patent Document 1). Further, there is a technique for estimating the relative position and orientation of a camera with respect to a landmark group by solving a perspective four-point problem (P4P problem: Perspective Four-Point Problem) (see Non-Patent Document 1). In addition, for example, there is a method for estimating the relative position and orientation of a camera from a temporal trajectory of a rectangular marker (see Patent Document 2).

また、三次元的な相対位置関係が時間によって変化しない、互いの相対位置関係が未知のランドマーク群を用い、当該ランドマーク群に対して相対的に移動するカメラでランドマーク群の画像座標群を複数時点にわたって観測することにより、ランドマーク群に対するカメラの相対位置や姿勢、ランドマーク間の相対位置関係を推定する手法がある(非特許文献2参照)。   Also, the image coordinate group of the landmark group using a landmark group in which the relative positional relation of the three-dimensional relative position relationship does not change with time and the relative positional relationship of each other is unknown, and moves relative to the landmark group. There is a method of estimating the relative position and posture of the camera with respect to the landmark group and the relative positional relationship between the landmarks by observing the image over a plurality of time points (see Non-Patent Document 2).

さらにまた、スポーツ競技場に引かれたライン等、その三次元形状が既知の線状のランドマーク群の画像をハフ変換や一般化ハフ変換により検出し、そのハフパラメータに基づいて、ランドマーク群に対するカメラの相対位置や姿勢を推定する手法がある(特許文献3参照)。
特開2006−33449号公報 特開2003−196663号公報 特開2004−234333号公報 H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana. Virtual Object Manipulation on a Table-Top AR Environment. In Proceedings of ISAR 2000, Oct 5th-6th, 2000. J. Weng, T. S. Huang, N. Ahuja. Motion and Structure from Two Perspective Views: Algorithms, Error Analysis, and Error Estimation, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 11, Issue 5, pp. 451-476, May 1989.
Furthermore, an image of a linear landmark group with a known three-dimensional shape, such as a line drawn on a sports stadium, is detected by Hough transform or generalized Hough transform, and the landmark group is determined based on the Hough parameter. There is a method for estimating the relative position and orientation of the camera with respect to (see Patent Document 3).
JP 2006-33449 A JP 2003-196663 A JP 2004-234333 A H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana. Virtual Object Manipulation on a Table-Top AR Environment.In Proceedings of ISAR 2000, Oct 5th-6th, 2000. J. Weng, TS Huang, N. Ahuja.Motion and Structure from Two Perspective Views: Algorithms, Error Analysis, and Error Estimation, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 11, Issue 5, pp. 451-476, May 1989.

しかし、前記した特許文献1,2や非特許文献1に記載された手法では、ランドマーク群の配置が固定されるため、カメラの撮像範囲が狭い場合には有効であるが、広範囲なカメラの姿勢、位置、画角等に対してカメラパラメータを取得するためには、予め想定される撮影領域に一定個数以上のランドマークが含まれるように、数多くのランドマークを広範囲にわたって密に設置する必要がある。   However, the methods described in Patent Documents 1 and 2 and Non-Patent Document 1 described above are effective when the imaging range of the camera is narrow because the arrangement of landmark groups is fixed. In order to acquire camera parameters for posture, position, angle of view, etc., it is necessary to install a lot of landmarks over a wide area so that a predetermined number of landmarks are included in the presumed shooting area. There is.

また、非特許文献2に記載された手法では、カメラ(具体的には第一光学主点)がランドマーク群に対して移動しない限り、原理的にカメラパラメータを取得することができないという問題がある。また、その移動量が小さい場合、カメラの操作がない場合、カメラの操作がパン、チルトおよびズームまでに限定される場合等、カメラが十分な移動を伴わない場合には本手法を使用することができないという問題がある。   Further, the technique described in Non-Patent Document 2 has a problem that in principle, camera parameters cannot be acquired unless the camera (specifically, the first optical principal point) moves relative to the landmark group. is there. Also, use this method when the camera does not move sufficiently, such as when the amount of movement is small, when there is no camera operation, or when the camera operation is limited to pan, tilt, and zoom. There is a problem that can not be.

さらに、特許文献3に記載された手法では、特許文献1,2や非特許文献1に記載された手法と同様に、予め想定される撮影領域に一定個数以上のランドマークが含まれるようにする必要がある上、ランドマークの形状も既定の直線や曲線に限定されてしまう。   Furthermore, in the method described in Patent Document 3, as in the methods described in Patent Documents 1 and 2 and Non-Patent Document 1, a predetermined number or more of landmarks are included in a presumed shooting area. In addition, the shape of the landmark is limited to a predetermined straight line or curve.

本発明は、以上のような課題を解決するためになされたものであり、ランドマークの位置を固定することなく、任意の固定物体や移動物体をランドマークとしてカメラパラメータを推定することが可能なカメラパラメータ推定装置およびカメラパラメータ推定プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and it is possible to estimate camera parameters using an arbitrary fixed object or moving object as a landmark without fixing the position of the landmark. It is an object to provide a camera parameter estimation device and a camera parameter estimation program.

本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のカメラパラメータ推定装置は、カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するカメラパラメータ推定装置であって、第一ランドマーク抽出手段と、位置推定手段と、第二ランドマーク抽出手段と、ランドマーク対応付け手段と、パラメータ推定手段とを備え、前記ランドマーク対応付け手段が、さらに、投影手段と、照合手段とを備える構成とした。   The present invention was devised to achieve the above-mentioned object. First, the camera parameter estimation device according to claim 1 includes a first image captured by a first camera having a known camera parameter, a camera A camera parameter estimation device that estimates a camera parameter of the second camera based on a second image captured by a second camera whose parameter is unknown, the first landmark extraction means, a position estimation means, A second landmark extracting unit, a landmark associating unit, and a parameter estimating unit are provided, and the landmark associating unit further includes a projecting unit and a collating unit.

かかる構成において、カメラパラメータ推定装置は、第一ランドマーク抽出手段によって、ランドマークの画像特徴により、第一画像からランドマークの当該画像における座標を参照画像座標として抽出する。このランドマークの画像特徴は、輝度、色、パターン等の予め定めた特徴とすることができる。そして、カメラパラメータ推定装置は、位置推定手段によって、第一カメラのカメラパラメータである既知カメラパラメータに基づいて、参照画像座標を予め定めた拘束条件で逆投影変換することで、ランドマークの三次元座標を推定する。例えば、位置推定手段は、ランドマークが地面に存在するという拘束条件を与えることで、二次元の座標から、三次元の座標を推定することができる。   In such a configuration, the camera parameter estimation device extracts the coordinates of the landmark in the image from the first image as the reference image coordinates based on the image characteristics of the landmark by the first landmark extraction unit. The image features of the landmarks can be predetermined features such as brightness, color, pattern, and the like. Then, the camera parameter estimation device uses the position estimation unit to backproject the reference image coordinates under a predetermined constraint based on the known camera parameters that are the camera parameters of the first camera, so that the three-dimensional landmarks are obtained. Estimate the coordinates. For example, the position estimation means can estimate a three-dimensional coordinate from a two-dimensional coordinate by giving a constraint condition that the landmark exists on the ground.

また、カメラパラメータ推定装置は、第二ランドマーク抽出手段によって、ランドマークの画像特徴により、第二画像からランドマークの当該画像における座標を観測画像座標として抽出する。なお、第一ランドマーク抽出手段と第二ランドマーク抽出手段とでは、ランドマークの座標の位置を抽出すればよいため、必ずしも同じ画像特徴を用いる必要はない。   In the camera parameter estimation device, the second landmark extracting unit extracts the coordinates of the landmark in the image from the second image as the observed image coordinates based on the image characteristics of the landmark. Note that the first landmark extracting unit and the second landmark extracting unit need only extract the position of the coordinates of the landmarks, and therefore, it is not always necessary to use the same image feature.

そして、カメラパラメータ推定装置は、ランドマーク対応付け手段によって、位置推定手段で推定された三次元座標を第二画像における二次元座標である予測画像座標に変換し、観測画像座標と照合することで、第一画像と第二画像との間でランドマークの対応付けを行う。   Then, the camera parameter estimation device converts the three-dimensional coordinates estimated by the position estimation means into predicted image coordinates that are two-dimensional coordinates in the second image by the landmark association means, and collates with the observed image coordinates. The landmark is associated between the first image and the second image.

なお、ランドマーク対応付け手段は、投影手段によって、すでに推定されたカメラパラメータにより三次元座標を投影変換することで、予測画像座標を算出する。これによって、第一画像上で抽出されたランドマークが第二画像上に投影されることになる。そして、ランドマーク対応付け手段は、照合手段によって、予測画像座標と観測画像座標との座標間の距離に基づいてランドマークを対応付ける。これによって、ランドマークが複数抽出された場合に、第一画像上のランドマークと第二画像上のランドマークとが1対1に対応付けられることになる。   The landmark associating means calculates the predicted image coordinates by projecting and transforming the three-dimensional coordinates with the camera parameters already estimated by the projecting means. Thereby, the landmark extracted on the first image is projected on the second image. The landmark associating means associates the landmark with the collating means based on the distance between the predicted image coordinates and the observed image coordinates. As a result, when a plurality of landmarks are extracted, the landmark on the first image and the landmark on the second image are associated one-to-one.

そして、カメラパラメータ推定装置は、パラメータ推定手段によって、ランドマーク対応付け手段により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する前記三次元座標と前記観測画像座標とに基づいて、第二カメラのカメラパラメータである推定カメラパラメータを推定する。なお、パラメータ推定手段における推定カメラパラメータの推定は、既知の透視n点問題の解法を適用することができる。   Then, the camera parameter estimation device uses the parameter estimation unit based on the three-dimensional coordinates corresponding to the landmark and the observed image coordinates in the same landmark associated by the landmark association unit. Estimated camera parameters that are camera parameters of the two cameras are estimated. It should be noted that a known solution of the perspective n-point problem can be applied to the estimation of the estimated camera parameter in the parameter estimation means.

また、請求項2に記載のカメラパラメータ推定装置は、請求項1に記載のカメラパラメータ推定装置において、ランドマーク対応付け手段は、予測手段をさらに備える構成とした。   According to a second aspect of the present invention, there is provided the camera parameter estimation device according to the first aspect, wherein the landmark association unit further includes a prediction unit.

かかる構成において、カメラパラメータ推定装置は、予測手段によって、パラメータ推定手段で推定された時系列の推定カメラパラメータに基づいて、現時点におけるカメラパラメータを予測する。これによって、カメラパラメータ推定装置は、投影手段において、予測手段で予測されたカメラパラメータにより三次元座標を投影変換することで、現時点におけるランドマークの位置を予測した予測画像座標を算出することができる。   In this configuration, the camera parameter estimation device predicts the camera parameters at the current time based on the time-series estimated camera parameters estimated by the parameter estimation unit by the prediction unit. Thus, the camera parameter estimation device can calculate the predicted image coordinates in which the current landmark position is predicted by projecting and transforming the three-dimensional coordinates with the camera parameters predicted by the prediction means in the projection means. .

さらに、請求項3に記載のカメラパラメータ推定装置は、請求項1または請求項2に記載のカメラパラメータ推定装置において、ランドマーク対応付け手段が、第一特徴抽出手段と、第二特徴抽出手段と、をさらに備える構成とした。   Furthermore, the camera parameter estimation apparatus according to claim 3 is the camera parameter estimation apparatus according to claim 1 or 2, wherein the landmark association means includes a first feature extraction means, a second feature extraction means, , Further provided.

かかる構成において、カメラパラメータ推定装置は、ランドマーク対応付け手段において、第一特徴抽出手段によって、第一画像から、参照画像座標の近傍領域の画像特徴を第一特徴として抽出する。また、カメラパラメータ推定装置は、第二特徴抽出手段によって、第二画像から、観測画像座標の近傍領域の画像特徴を第二特徴として抽出する。これによって、画像特徴はある程度の誤差を許容した特徴量となる。そして、カメラパラメータ推定装置は、照合手段によって、第一特徴と第二特徴との類似の度合いと、予測画像座標と観測画像座標との距離との重み付け加算に基づいて、ランドマークを対応付ける。   In such a configuration, the camera parameter estimation device extracts, from the first image, the image feature in the vicinity region of the reference image coordinates as the first feature by the first feature extraction unit in the landmark association unit. In addition, the camera parameter estimation device extracts, as the second feature, the image feature in the vicinity region of the observed image coordinates from the second image by the second feature extraction unit. As a result, the image feature becomes a feature amount allowing a certain amount of error. Then, the camera parameter estimation device associates the landmark with the collating unit based on the weighted addition of the degree of similarity between the first feature and the second feature and the distance between the predicted image coordinate and the observed image coordinate.

また、請求項4に記載のカメラパラメータ推定装置は、請求項1から請求項3のいずれか一項に記載のカメラパラメータ推定装置において、パラメータ推定手段が、座標対応付け手段と、パラメータ算出手段と、を備える構成とした。   Further, the camera parameter estimation device according to claim 4 is the camera parameter estimation device according to any one of claims 1 to 3, wherein the parameter estimation means includes a coordinate association means, a parameter calculation means, It was set as the structure provided with.

かかる構成において、カメラパラメータ推定装置は、パラメータ推定手段において、座標対応付け手段によって、位置推定手段で推定された三次元座標とランドマーク対応付け手段での対応結果とに基づいて、観測画像座標に三次元座標を対応付ける。これによって、第二カメラが撮像した第二画像から得られた二次元の観測画像座標が、実空間上の三次元座標に変換されることになる。   In such a configuration, the camera parameter estimation device uses the parameter estimation unit to calculate the observed image coordinates based on the three-dimensional coordinates estimated by the position estimation unit and the correspondence results by the landmark association unit. Map 3D coordinates. As a result, the two-dimensional observation image coordinates obtained from the second image captured by the second camera are converted into three-dimensional coordinates in the real space.

そして、カメラパラメータ推定装置は、パラメータ算出手段によって、複数の観測画像座標の三次元座標から推定カメラパラメータを算出する。このように、パラメータ算出手段は、座標対応付け手段で対応付けられた観測画像座標の三次元座標を逐次入力することで、透視n点問題を解決するための座標が入力された段階で、透視n点問題の解決手法により、推定カメラパラメータを算出する。   And a camera parameter estimation apparatus calculates an estimated camera parameter from the three-dimensional coordinate of several observation image coordinate by a parameter calculation means. In this way, the parameter calculation means sequentially inputs the three-dimensional coordinates of the observed image coordinates associated by the coordinate association means, and at the stage when the coordinates for solving the perspective n-point problem are input, Estimated camera parameters are calculated using a solution for the n-point problem.

さらに、請求項5に記載のカメラパラメータ推定プログラムは、カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するために、コンピュータを、第一ランドマーク抽出手段、位置推定手段、第二ランドマーク抽出手段、ランドマーク対応付け手段、パラメータ推定手段、として機能させる構成とした。   Furthermore, the camera parameter estimation program according to claim 5 is based on a first image captured by a first camera whose camera parameters are known and a second image captured by a second camera whose camera parameters are unknown. A computer functioning as first landmark extracting means, position estimating means, second landmark extracting means, landmark associating means, parameter estimating means for estimating camera parameters of the second camera; did.

かかる構成において、カメラパラメータ推定プログラムは、第一ランドマーク抽出手段によって、ランドマークの画像特徴により、第一画像からランドマークの当該画像における座標を参照画像座標として抽出する。そして、カメラパラメータ推定プログラムは、位置推定手段によって、第一カメラのカメラパラメータである既知カメラパラメータに基づいて、参照画像座標を予め定めた拘束条件で逆投影変換することで、ランドマークの三次元座標を推定する。   In such a configuration, the camera parameter estimation program extracts, from the first image, the coordinates of the landmark in the image as the reference image coordinates by the first landmark extraction means based on the image characteristics of the landmark. Then, the camera parameter estimation program performs backprojection conversion of the reference image coordinates under a predetermined constraint condition based on the known camera parameter that is the camera parameter of the first camera by the position estimation unit, thereby obtaining the three-dimensional landmark. Estimate the coordinates.

また、カメラパラメータ推定プログラムは、第二ランドマーク抽出手段によって、ランドマークの画像特徴により、第二画像からランドマークの当該画像における座標を観測画像座標として抽出する。   Further, the camera parameter estimation program extracts the coordinates of the landmark in the image from the second image as the observed image coordinates by the second landmark extraction unit based on the image characteristics of the landmark.

そして、カメラパラメータ推定プログラムは、ランドマーク対応付け手段によって、位置推定手段で推定された三次元座標を第二画像における二次元座標である予測画像座標に変換し、観測画像座標と照合することで、第一画像と第二画像との間でランドマークの対応付けを行う。   Then, the camera parameter estimation program converts the three-dimensional coordinates estimated by the position estimation means into predicted image coordinates that are two-dimensional coordinates in the second image by the landmark association means, and collates with the observed image coordinates. The landmark is associated between the first image and the second image.

なお、ランドマーク対応付け手段は、パラメータ算出手段で算出された時系列の推定カメラパラメータに基づいて現時点におけるカメラパラメータを予測し、その予測したカメラパラメータによりランドマークの三次元座標を投影変換することで予測画像座標を算出し、さらに、予測画像座標と観測画像座標との各座標間の距離に基づいてランドマークを対応付ける。   The landmark associating means predicts camera parameters at the present time based on the time-series estimated camera parameters calculated by the parameter calculating means, and projects and converts the three-dimensional coordinates of the landmarks using the predicted camera parameters. To calculate predicted image coordinates, and further associate landmarks based on the distance between the predicted image coordinates and the observed image coordinates.

請求項1,4,5に記載の発明によれば、カメラパラメータが既知のカメラで撮像した画像と、カメラパラメータが未知のカメラで撮像した画像とから、同一のランドマークを抽出し対応付けることができるため、ランドマークの位置を固定することなく、任意の固定物体や移動物体をランドマークとして未知のカメラパラメータを推定することができる。これによって、固有のランドマークを設置する必要がないため、撮像現場において、不要なマークを除去することができ、自然な映像を撮像することができる。また、請求項1,4,5に記載の発明によれば、カメラパラメータが既知のカメラと未知のカメラとで、それぞれの撮像画像内に少なくともランドマークを1個以上含んでいれば、逐次撮像される画像から、複数のランドマークの位置を検出することができ、未知のカメラパラメータを推定することができる。これによって、カメラパラメータを推定する際のランドマークの数を減らすことができる。   According to the first, fourth, and fifth aspects of the present invention, it is possible to extract and associate the same landmark from an image captured by a camera with known camera parameters and an image captured by a camera with unknown camera parameters. Therefore, it is possible to estimate an unknown camera parameter using any fixed object or moving object as a landmark without fixing the position of the landmark. Thereby, since it is not necessary to install a unique landmark, unnecessary marks can be removed at the imaging site, and natural images can be captured. According to the first, fourth, and fifth aspects of the present invention, if a camera parameter is known and an unknown camera and each captured image includes at least one landmark, sequential imaging is performed. The positions of a plurality of landmarks can be detected from the captured image, and unknown camera parameters can be estimated. Thus, the number of landmarks when estimating camera parameters can be reduced.

請求項2に記載の発明によれば、すでに推定されたカメラパラメータから、現時点におけるカメラパラメータを推定して、ランドマークを対応付けることができるため、ランドマークの画像上の座標を精度よく求めることができる。これによって、ランドマークを精度よく対応付けることができ、精度よく未知のカメラパラメータを推定することができる。   According to the second aspect of the present invention, since the camera parameters at the present time can be estimated from the already estimated camera parameters and the landmarks can be associated with each other, the coordinates of the landmarks on the image can be obtained with high accuracy. it can. As a result, landmarks can be associated with high accuracy, and unknown camera parameters can be estimated with high accuracy.

請求項3に記載の発明によれば、第一画像における参照画像座標の画像特徴と、第二画像における観測画像座標の画像特徴とを、それぞれ座標位置の近傍領域の画像特徴とするため、誤差を吸収し、第一画像と第二画像とにおいてランドマークを精度よく対応付けることができる。これによって、未知のカメラパラメータの推定精度を高めることができる。   According to the third aspect of the present invention, since the image feature of the reference image coordinates in the first image and the image feature of the observed image coordinates in the second image are respectively image features in the vicinity region of the coordinate position, And the landmarks can be associated with each other with high accuracy in the first image and the second image. Thereby, the estimation accuracy of the unknown camera parameter can be improved.

以下、本発明の実施形態について図面を参照して説明する。
[本発明の概要]
最初に、図1を参照して、本発明の概要について説明する。図1は、本発明の概要を説明するための説明図である。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of the present invention]
First, the outline of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining the outline of the present invention.

カメラパラメータ推定装置1は、カメラパラメータが既知であるカメラ(第一カメラ)C1が撮像した画像(第一画像)と、カメラパラメータが未知であるカメラ(第二カメラ)C2が撮像した画像(第二画像)とに基づいて、カメラC2のカメラパラメータを推定するものである。   The camera parameter estimation device 1 includes an image (first image) captured by a camera (first camera) C1 with known camera parameters and an image (first image) captured by a camera (second camera) C2 with unknown camera parameters. The camera parameters of the camera C2 are estimated based on the two images.

ここでは、カメラパラメータ推定装置1は、カメラC1が撮像した画像と、カメラC1が撮像した画像とから、複数の動物体や静止物体をランドマークM(図1では、選手)として抽出する。なお、ランドマークは、画像上において他の局所領域から区別可能な濃淡または色の変化を有する領域である。   Here, the camera parameter estimation device 1 extracts a plurality of moving objects and stationary objects as landmarks M (players in FIG. 1) from an image captured by the camera C1 and an image captured by the camera C1. The landmark is an area having a shading or color change that can be distinguished from other local areas on the image.

そして、カメラパラメータ推定装置1は、カメラC1で捉えたランドマークMとカメラC1の既知のカメラパラメータとに基づいて、ランドマークMの実空間上における座標(三次元座標)を算出し、カメラC2で捉えたランドマークMの画像座標との対応付けを行うことで、カメラC2のカメラパラメータを推定する。   Then, the camera parameter estimation device 1 calculates coordinates (three-dimensional coordinates) in the real space of the landmark M based on the landmark M captured by the camera C1 and the known camera parameters of the camera C1, and the camera C2 The camera parameters of the camera C2 are estimated by associating with the image coordinates of the landmark M captured in step S2.

なお、図1では、カメラC1,C2をサッカー競技場に設置し、選手をランドマークとした例を示しているが、ランドマークMの一部がカメラC1,C2で同時に観測可能であれば、設置場所に限定されるものではない。   FIG. 1 shows an example in which the cameras C1 and C2 are installed in the soccer field and the player is a landmark. However, if a part of the landmark M can be observed simultaneously by the cameras C1 and C2, It is not limited to the installation location.

[カメラパラメータについて]
次に、本発明の実施形態に係るカメラパラメータ推定装置におけるカメラパラメータについて説明する。
[About camera parameters]
Next, camera parameters in the camera parameter estimation apparatus according to the embodiment of the present invention will be described.

カメラパラメータとは、カメラの設置位置と設置姿勢とで決まる外部パラメータ、並びに、レンズの焦点距離および歪と、撮像素子の形状、画素サイズおよび画素数と、レンズおよび撮像素子の相対位置関係とを含む内部パラメータの両者を包含する指標である。なお、本実施形態においては、カメラパラメータとして、カメラの設置位置および設置姿勢、並びに、レンズの焦点距離を用いることとする。このカメラの設置位置および設置姿勢は、実空間上に固定して定義した任意の座標系(以下、ワールド座標系という)を基準として定義することができる。   The camera parameters are external parameters determined by the installation position and installation posture of the camera, the focal length and distortion of the lens, the shape of the image sensor, the pixel size and the number of pixels, and the relative positional relationship between the lens and the image sensor. It is an index that includes both internal parameters. In the present embodiment, the camera installation position and installation posture, and the lens focal length are used as the camera parameters. The installation position and installation posture of the camera can be defined with reference to an arbitrary coordinate system (hereinafter referred to as a world coordinate system) fixedly defined in the real space.

このワールド座標系は、カメラC1,C2(図1参照)が設置された空間の代表的な任意の点を原点とし、また、代表的かつ独立な3方向を軸方向とする。例えば、カメラC1,C2を図1に示したようなサッカー競技場に設置する場合、サッカーコートのセンターマークの位置をワールド座標系の原点とし、タッチライン方向(x軸)、ハーフウェイライン方向(y軸)および鉛直上方向(z軸)をワールド座標系の3軸とする。また、例えば、カメラC1,C2をスタジオ等の室内に設置する場合には、その室内の床の中心をワールド座標系の原点とし、水平東方向、水平北方向および鉛直上方向をワールド座標系の3軸とする。   In this world coordinate system, a representative arbitrary point in a space where the cameras C1 and C2 (see FIG. 1) are installed is set as an origin, and three representative and independent directions are set as axial directions. For example, when the cameras C1 and C2 are installed in a soccer stadium as shown in FIG. 1, the position of the center mark of the soccer court is the origin of the world coordinate system, the touch line direction (x axis), the half way line direction ( The y-axis) and the vertically upward direction (z-axis) are the three axes of the world coordinate system. For example, when the cameras C1 and C2 are installed in a room such as a studio, the center of the floor in the room is set as the origin of the world coordinate system, and the horizontal east direction, the horizontal north direction, and the vertical upward direction are set in the world coordinate system. Three axes are assumed.

そして、カメラの設置姿勢は、カメラに固定されたカメラ座標系と、前記したワールド座標系との間の姿勢変換により表現することができる。例えば、カメラの設置姿勢は、以下の(1)式に示すように、実空間上のある方向ベクトルをワールド座標系から見たときのベクトルv(w)をカメラ座標系で見たときのベクトルv(c)に変換する3行3列の回転行列Rにより表現することができる。 The camera installation posture can be expressed by posture conversion between a camera coordinate system fixed to the camera and the above-described world coordinate system. For example, as shown in the following equation (1), the installation posture of the camera is a vector when a vector v (w) when a certain direction vector in real space is viewed from the world coordinate system is viewed in the camera coordinate system. v (c) can be expressed by a 3 × 3 rotation matrix R to be converted.

Figure 0004906683
Figure 0004906683

また、カメラの設置位置は、カメラ座標系の原点位置をワールド座標系で見たときの位置ベクトルとして定義することができる。例えば、カメラの設置位置は、前記した回転行列Rと、カメラの設置位置の位置ベクトルtとを用いることで、以下の(2)式に示すように、ワールド座標系における位置ベクトルp(w)をカメラ座標系における位置ベクトルq(c)に変換することができる。なお、位置ベクトルの各成分の単位は任意であるが、例えばメートルを単位とすることができる。 The camera installation position can be defined as a position vector when the origin position of the camera coordinate system is viewed in the world coordinate system. For example, the installation position of the camera uses the rotation matrix R and the position vector t of the installation position of the camera, so that the position vector p (w) in the world coordinate system as shown in the following equation (2 ). Can be converted into a position vector q (c) in the camera coordinate system. In addition, although the unit of each component of a position vector is arbitrary, it can be made into a unit, for example.

Figure 0004906683
Figure 0004906683

前記した(1)式および(2)式で用いたカメラ座標系は、例えば、カメラのレンズの第一光学主点を原点とし、カメラの画像平面上の独立な2方向に2軸をとり、光軸方向に残りの1軸をとることができる。また、カメラの画像平面上の独立な2方向は、例えば、カメラの撮像素子の水平方向と垂直方向とにより定義することができる。
以下、本発明の実施形態に係るカメラパラメータ推定装置の構成および動作について詳細に説明を行う。
The camera coordinate system used in the above-described equations (1) and (2) has, for example, the first optical principal point of the camera lens as the origin and two axes in two independent directions on the camera image plane. The remaining one axis can be taken in the optical axis direction. The two independent directions on the image plane of the camera can be defined by, for example, the horizontal direction and the vertical direction of the camera image sensor.
Hereinafter, the configuration and operation of the camera parameter estimation apparatus according to the embodiment of the present invention will be described in detail.

[第一実施形態:カメラパラメータ推定装置の構成]
まず、図2を参照して、本発明の第一実施形態に係るカメラパラメータ推定装置の構成について説明する。図2は、本発明の第一実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。
[First Embodiment: Configuration of Camera Parameter Estimation Device]
First, the configuration of the camera parameter estimation apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the camera parameter estimation apparatus according to the first embodiment of the present invention.

ここでは、カメラパラメータ推定装置1は、第一ランドマーク抽出手段10と、第二ランドマーク抽出手段11と、ランドマーク対応付け手段12と、位置推定手段13と、パラメータ推定手段14とを備える。そして、カメラパラメータ推定装置1は、カメラC1とカメラC2とを外部に接続している。   Here, the camera parameter estimation device 1 includes a first landmark extraction unit 10, a second landmark extraction unit 11, a landmark association unit 12, a position estimation unit 13, and a parameter estimation unit 14. The camera parameter estimation device 1 connects the camera C1 and the camera C2 to the outside.

カメラC1は、カメラパラメータが既知のカメラである。また、カメラC2は、カメラパラメータが未知のカメラである。カメラC1で撮像された画像(第一画像)と、カメラC2で撮像された画像(第二画像)とが、カメラパラメータ推定装置1に入力される。   The camera C1 is a camera whose camera parameters are known. The camera C2 is a camera whose camera parameters are unknown. An image captured by the camera C1 (first image) and an image captured by the camera C2 (second image) are input to the camera parameter estimation device 1.

ここで、第一画像および第二画像の画像座標系は、画像面上における二次元の座標系を用い、ここでは、カメラ座標系を構成する3軸のうち、画像平面上にとった2軸をもって画像座標系とする。また、以下の説明において、カメラC1で撮像された第一画像をI、第一画像Iの画像座標rにおける画素値をI(r)と表記することとする。また、カメラC2で撮像された第二画像をJ、第二画像Jの画像座標oにおける画素値をJ(o)と表記することとする。   Here, the image coordinate system of the first image and the second image uses a two-dimensional coordinate system on the image plane, and here, two axes taken on the image plane among the three axes constituting the camera coordinate system. Is the image coordinate system. In the following description, the first image captured by the camera C1 is denoted by I, and the pixel value at the image coordinate r of the first image I is denoted by I (r). In addition, the second image captured by the camera C2 is denoted as J, and the pixel value at the image coordinate o of the second image J is denoted as J (o).

なお、カメラC1,C2がモノクロカメラの場合、画素値は、例えば、2値以上(例えば256値)の離散スカラ値で表すことができる。また、カメラC1,C2がカラーカメラや多バンドカメラの場合、画素値は、例えば、二次元以上(例えば赤、緑、青の三次元)、かつ、各次元2値以上(例えば256値)の離散ベクトル値で表すことができる。また、カメラC1,C2がカラーカメラや多バンドカメラの場合、カラーテーブル(色変換テーブル:離散的なインデックス値と画素の色とを関連付ける表)を用いることにより、画素値を2値以上(例えば65536値)の離散スカラ値のカラーインデックスで表しても構わない。   Note that when the cameras C1 and C2 are monochrome cameras, the pixel values can be represented by, for example, discrete scalar values of two or more values (for example, 256 values). When the cameras C1 and C2 are color cameras or multi-band cameras, the pixel values are, for example, two or more dimensions (for example, three dimensions of red, green, and blue) and two or more dimensions (for example, 256 values). It can be represented by a discrete vector value. In addition, when the cameras C1 and C2 are color cameras or multiband cameras, a color table (color conversion table: a table associating discrete index values with pixel colors) is used, so that the pixel values are two or more (for example, 65536 values) may be represented by a color index of discrete scalar values.

また、カメラC1とカメラC2とは、ランドマークを対応付けるため、少なくとも1個以上のランドマークを共通に撮像する必要がある。例えば、図1に示したサッカー競技場で使用する場合、カメラC1がサッカーフィールド全体を撮像し、カメラC2がサッカーフィールド内のランドマークを含んだ一部を撮像することとすることで、少なくとも1個以上のランドマークを共通に撮像することができる。   In addition, since the camera C1 and the camera C2 associate landmarks, it is necessary to capture at least one landmark in common. For example, when used in the soccer stadium shown in FIG. 1, the camera C1 captures the entire soccer field, and the camera C2 captures a part including the landmark in the soccer field. More than one landmark can be imaged in common.

第一ランドマーク抽出手段10は、ランドマークの予め定めた画像特徴に基づいて、カメラパラメータが既知であるカメラC1が撮像した第一画像から、複数のランドマークの当該画像における座標(以下、参照画像座標という)を抽出するものである。第一ランドマーク抽出手段10は、抽出した参照画像座標に識別子(第一識別子)を付して位置推定手段13に出力する。また、第一ランドマーク抽出手段10で抽出されたランドマークの個数をM個とし、そのm番目(m=1,2,…,M)のランドマークの参照画像座標をrとする。また、前記mを第一識別子として使用する。 The first landmark extracting means 10 determines the coordinates of a plurality of landmarks in the image (hereinafter referred to as reference) from the first image captured by the camera C1 whose camera parameters are known based on the predetermined image characteristics of the landmark. (Referred to as image coordinates). The first landmark extracting means 10 attaches an identifier (first identifier) to the extracted reference image coordinates and outputs it to the position estimating means 13. Further, the number of landmarks that have been extracted by the first landmark extracting unit 10 and the M, its m-th (m = 1, 2, ..., M) the reference image coordinates of landmarks and r m. The m is used as a first identifier.

なお、第一ランドマーク抽出手段10は、例えば、画像上の局所領域における方向分散の最小値を画像特徴とし、当該画像特徴が極大になる点を選択するMoravecのインスタントオペレータを用いることでランドマークを抽出することができる。また、特定の色で塗装された物体、同心円パターンを有する円盤等のマーカを被写界に人為的に設置する場合、第一ランドマーク抽出手段10は、特定の色やパターンを検出するオペレータを画像に適用し、検出された点あるいは検出領域の代表点(例えば重心)を、ランドマークとして抽出することとしてもよい。   Note that the first landmark extraction unit 10 uses, for example, a Moravec instant operator that uses a minimum value of directional dispersion in a local region on an image as an image feature and selects a point at which the image feature is maximized. Can be extracted. Further, when a marker such as an object painted in a specific color or a disk having a concentric circular pattern is artificially installed in the object scene, the first landmark extraction means 10 selects an operator for detecting a specific color or pattern. It may be applied to an image and a detected point or a representative point (for example, the center of gravity) of a detection area may be extracted as a landmark.

さらに、第一ランドマーク抽出手段10は、動物、人物(あるいは人物の顔)等の移動物体をランドマークとして抽出することとしてもよい。例えば、人物の顔をランドマークとする場合、第一ランドマーク抽出手段10は、一般的な顔検出器(例えば、P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proc. of IEEE Conference on Computer Vision and Pattern Recognition, Kauai, HI, December 2001.)を用い、検出された顔領域の代表点をランドマークとすることができる。   Further, the first landmark extracting means 10 may extract a moving object such as an animal or a person (or a person's face) as a landmark. For example, when a person's face is used as a landmark, the first landmark extracting means 10 uses a general face detector (for example, P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proc. Of IEEE Conference on Computer Vision and Pattern Recognition, Kauai, HI, December 2001.), representative points of detected face regions can be used as landmarks.

第二ランドマーク抽出手段11は、ランドマークの予め定めた画像特徴に基づいて、カメラパラメータが未知であるカメラC2が撮像した第二画像から、複数のランドマークの当該画像における座標(以下、観測画像座標という)を抽出するものである。第二ランドマーク抽出手段11は、抽出した観測画像座標に識別子(第二識別子)を付してランドマーク対応付け手段12およびパラメータ推定手段14に出力する。また、第二ランドマーク抽出手段11で抽出されたランドマークの個数をN個とし、そのn番目(n=1,2,…,N)のランドマークの観測画像座標をoとする。また、前記nを第二識別子として使用する。 The second landmark extracting means 11 is configured to determine the coordinates (hereinafter referred to as observation) of a plurality of landmarks from the second image captured by the camera C2 whose camera parameters are unknown based on predetermined image characteristics of the landmarks. (Referred to as image coordinates). The second landmark extraction unit 11 attaches an identifier (second identifier) to the extracted observation image coordinates and outputs the identifier to the landmark association unit 12 and the parameter estimation unit 14. Further, the number of landmarks that have been extracted by the second landmark extracting unit 11 and the N to the n-th (n = 1, 2, ..., N) the observed image coordinates of the landmarks in the o n. The n is used as a second identifier.

なお、第二ランドマーク抽出手段11におけるランドマークの抽出処理は、第一ランドマーク抽出手段10と同じ処理であってもよいし、異なる処理であってもよい。例えば、人為的なパターンである赤い円盤をランドマークとして使用した場合、第一ランドマーク抽出手段10では、赤い円盤の形状である円形パターンに着目してランドマークを抽出し、第二ランドマーク抽出手段11では、赤い円盤の色である赤色に着目してランドマークを抽出することとしてもよい。   The landmark extraction process in the second landmark extraction unit 11 may be the same process as the first landmark extraction unit 10 or a different process. For example, when a red disk that is an artificial pattern is used as a landmark, the first landmark extraction unit 10 extracts a landmark by focusing on a circular pattern that is the shape of a red disk, and extracts a second landmark. The means 11 may extract landmarks by paying attention to the red color of the red disk.

ランドマーク対応付け手段12は、後記する位置推定手段13で推定された実座標(三次元座標)を第二画像における二次元座標である予測画像座標に変換し、観測画像座標と照合することで、第一画像と第二画像との間でランドマークの対応付けを行うものである。ここでは、ランドマーク対応付け手段12は、予測手段121と、投影手段122と、照合手段123とを備える。   The landmark association unit 12 converts actual coordinates (three-dimensional coordinates) estimated by the position estimation unit 13 described later into predicted image coordinates that are two-dimensional coordinates in the second image, and collates with observed image coordinates. The landmarks are associated with each other between the first image and the second image. Here, the landmark association unit 12 includes a prediction unit 121, a projection unit 122, and a collation unit 123.

予測手段121は、後記するパラメータ推定手段14で算出(推定)された時系列の推定カメラパラメータに基づいて、現時点におけるカメラパラメータを予測カメラパラメータとして予測するものである。この予測手段121で予測された予測カメラパラメータは、投影手段122に出力される。   The prediction unit 121 predicts the current camera parameter as the predicted camera parameter based on the time-series estimated camera parameter calculated (estimated) by the parameter estimation unit 14 described later. The predicted camera parameter predicted by the prediction unit 121 is output to the projection unit 122.

ここで、パラメータ推定手段14において推定時点前までに推定された推定カメラパラメータを

Figure 0004906683
とし、現時点における予測カメラパラメータを
Figure 0004906683
として、予測手段121が行う予測手法について説明する。また、ここで、Tは、推定開始時点をk=1として、k回目の観測時点における時刻を表すものとする。この時刻の単位には、例えば秒を用いることができる。 Here, the estimated camera parameters estimated by the parameter estimation means 14 before the estimation time are calculated.
Figure 0004906683
And the current predicted camera parameters
Figure 0004906683
A prediction method performed by the prediction unit 121 will be described. Here, T k represents the time at the k-th observation time point where the estimation start time point is k = 1. As the unit of time, for example, seconds can be used.

例えば、予測手段121は、以下の(3)式に示すように、前時点の推定カメラパラメータと前々時点のカメラパラメータとから、線形予測により現時点の予測カメラパラメータを求めることができる。   For example, as shown in the following equation (3), the prediction unit 121 can obtain the current predicted camera parameter by linear prediction from the estimated camera parameter at the previous time point and the camera parameter at the previous time point.

Figure 0004906683
Figure 0004906683

また、例えば、予測手段121は、以下の(4)式に示すように、前時点までの推定カメラパラメータの線形結合や、前時点までの予測カメラパラメータの線形結合から、現時点の予測カメラパラメータを求めることができる。なお、(4)式中、aおよびbは、実数のタップ係数(重み付け係数)を示す。 Further, for example, as shown in the following equation (4), the prediction unit 121 obtains the current predicted camera parameter from the linear combination of the estimated camera parameters up to the previous time point or the linear combination of the predicted camera parameters up to the previous time point. Can be sought. In equation (4), a i and b i indicate real tap coefficients (weighting coefficients).

Figure 0004906683
Figure 0004906683

また、例えば、予測手段121は、前時点の推定カメラパラメータと、その誤差共分散行列とに基づいて、カルマンフィルタや拡張カルマンフィルタを用いて予測カメラパラメータとその誤差共分散行列を求めることとしてもよい。   Further, for example, the prediction unit 121 may obtain the prediction camera parameter and its error covariance matrix using a Kalman filter or an extended Kalman filter based on the estimated camera parameter at the previous time point and its error covariance matrix.

なお、ここでは、ランドマーク対応付け手段12に予測手段121を備えることとしたが、以下の(5)式に示すように、前時点の推定カメラパラメータをそのまま現時点の予測カメラパラメータとして用いることとしてもよい。この場合、ランドマーク対応付け手段12から予測手段121を省き、後記するパラメータ推定手段14で算出(推定)された時系列の推定カメラパラメータをそのまま投影手段122に入力させる。これによって、カメラワークに大きな変化がない場合は、簡易な構成でカメラパラメータ推定装置1を構成することができる。   Here, the landmark associating means 12 is provided with the predicting means 121. However, as shown in the following equation (5), the estimated camera parameter at the previous time point is used as it is as the current predictive camera parameter. Also good. In this case, the prediction unit 121 is omitted from the landmark association unit 12 and the time-series estimated camera parameters calculated (estimated) by the parameter estimation unit 14 described later are input to the projection unit 122 as they are. Thereby, when there is no big change in camera work, the camera parameter estimation apparatus 1 can be configured with a simple configuration.

Figure 0004906683
Figure 0004906683

投影手段122は、予測手段121で予測された予測カメラパラメータにより、後記する位置推定手段13で推定された実座標(三次元座標)を投影変換することで、参照画像座標の現時点の座標を予測画像座標として算出するものである。   The projection unit 122 predicts the current coordinates of the reference image coordinates by projecting and converting actual coordinates (three-dimensional coordinates) estimated by the position estimation unit 13 described later, based on the prediction camera parameters predicted by the prediction unit 121. It is calculated as image coordinates.

例えば、実座標pから画像座標oへのカメラパラメータθにより投影変換(透視投影変換)hを以下の(6)式としたとき、投影手段122は、位置推定手段13から入力される第一識別子mに対応する実座標pを、以下の(7)式により二次元の予測画像座標o′に変換する。 For example, when the projection transformation (perspective projection transformation) h is expressed by the following equation (6) by the camera parameter θ from the real coordinate p to the image coordinate o, the projection unit 122 receives the first identifier input from the position estimation unit 13. the real coordinate p m corresponding to m, is converted to the two-dimensional predicted image coordinates o m 'by the following equation (7).

Figure 0004906683
Figure 0004906683

Figure 0004906683
Figure 0004906683

この投影手段122は、第一識別子mと(7)式で求められた予測画像座標o′との対(m,o′)を、すべてのmについて照合手段123に出力する。なお、投影手段122は、予測カメラパラメータの入力により動作するが、初期状態においては、動作の基準となる予測カメラパラメータが入力されない。 The projection means 122 outputs the predicted image coordinates obtained by the first identifier m (7) formula o m 'and the pair (m, o m') and the matching means 123 for all m. Note that the projection unit 122 operates by inputting the predicted camera parameter, but in the initial state, the predicted camera parameter serving as a reference for the operation is not input.

そこで、投影手段122は、予測カメラパラメータの初期値として、予めカメラC2の初期値のカメラパラメータを入力されるか、図示を省略した記憶手段に予めカメラC2の初期値のカメラパラメータを記憶しておき初期動作時に読み出すことで、動作を行うこととする。初期動作後は、順次、投影手段122には、予測カメラパラメータが入力され、当該予測カメラパラメータにより予測画像座標を算出することができる。   Therefore, the projection unit 122 is input with the camera parameter of the initial value of the camera C2 as the initial value of the predicted camera parameter in advance, or stores the camera parameter of the initial value of the camera C2 in advance in a storage unit that is not illustrated. The operation is performed by reading at the initial operation. After the initial operation, predicted camera parameters are sequentially input to the projection unit 122, and predicted image coordinates can be calculated using the predicted camera parameters.

照合手段123は、投影手段122によって算出された予測画像座標と、第二ランドマーク抽出手段11で抽出された観測画像座標との座標間の距離に基づいて、ランドマークを対応付けるものである。ここでは、照合手段123は、第一識別子と予測画像座標との対(m,o′)の集合と、第二識別子と観測画像座標との対(n,o)の集合とに基づいて、同一のランドマークを予測および観測したとみなされる第一識別子と第二識別子との対を、対応結果としてパラメータ推定手段14に出力する。 The collating unit 123 associates landmarks based on the distance between the predicted image coordinates calculated by the projecting unit 122 and the observed image coordinates extracted by the second landmark extracting unit 11. Here, the matching unit 123 is based on a set of pairs (m, o m ′) of the first identifier and the predicted image coordinates and a set of pairs (n, o n ) of the second identifier and the observed image coordinates. Then, a pair of the first identifier and the second identifier that are considered to have predicted and observed the same landmark is output to the parameter estimation unit 14 as a correspondence result.

例えば、照合手段123は、第一識別子と予測画像座標との対(m,o′)におけるすべてのmに関し、以下の(8)式により、予測画像座標o′に最も近い観測画像座標の第二識別子nを求め、(m,n)の対としてパラメータ推定手段14に出力する。 For example, the matching means 123, a pair of the first identifier and the predicted image coordinates (m, o m ') For all m in, the following equation (8), the predicted image coordinates o m' closest observed image coordinates It obtains a second identifier n m of outputs (m, n m) as pairs of the parameter estimation unit 14.

Figure 0004906683
Figure 0004906683

なお、(8)式中、‖o−o′‖は、oとo′との間の距離を表すノルムであり、例えば、ユークリッドノルムを用いることができる。 Incidentally, in equation (8), ‖o n -o m '‖ is, o n a o m' is a norm which represents the distance between the, for example, it can be used Euclidean norm.

位置推定手段13は、第一ランドマーク抽出手段10で抽出された参照画像座標をカメラC1のカメラパラメータである既知カメラパラメータにより逆投影変換することで、ランドマークの実座標(三次元座標)を推定するものである。また、位置推定手段13は、第一識別子mのランドマークの実座標pを第一識別子の数だけ(m,p)の対のデータとして求め、ランドマーク対応付け手段12およびパラメータ推定手段14に出力する。なお、位置推定手段13は、既知カメラパラメータをカメラC1から逐次入力することとしてもよいし、カメラC1が固定カメラである場合は、予め図示を省略した記憶手段に既知カメラパラメータを記憶しておき、読み出すこととしてもよい。 The position estimation unit 13 performs backprojection conversion on the reference image coordinates extracted by the first landmark extraction unit 10 using known camera parameters that are camera parameters of the camera C1, thereby changing the actual coordinates (three-dimensional coordinates) of the landmarks. To be estimated. The position estimating means 13, the actual coordinates p m Landmarks first identifier m the number of the first identifier (m, p m) determined as the data of the pairs of landmarks correlating means 12 and parameter estimation means 14 for output. The position estimation unit 13 may sequentially input known camera parameters from the camera C1. When the camera C1 is a fixed camera, the position estimation unit 13 stores the known camera parameters in a storage unit (not shown) in advance. It is good also as reading.

なお、参照画像座標rは二次元座標であるのに対し、ランドマークの実座標pは三次元座標である。このため、位置推定手段13が逆投影を行うには、ランドマークが存在する実座標への面的な拘束条件が必要となる。例えば、ランドマークが床、地面等の平面上にあるといった拘束条件を与えることで、位置推定手段13は、参照画像座標を実座標に逆投影することができる。 Note that the reference image coordinate r m whereas the two-dimensional coordinates, the actual coordinate p m landmarks is a three-dimensional coordinates. For this reason, in order for the position estimation means 13 to perform the back projection, a planar constraint condition on the actual coordinates where the landmark exists is necessary. For example, by giving a constraint condition that the landmark is on a plane such as a floor or the ground, the position estimating unit 13 can back-project the reference image coordinates to the real coordinates.

ここで、図3を参照して、位置推定手段13における参照画像座標を実座標に逆投影する手法について詳細に説明する。図3は、位置推定手段における逆投影の手法を説明するための説明図である。図3では、ある曲面KにランドマークMが存在し、カメラC1が撮像した第一画像I上にランドマーク像mが撮像されているものとする。
図3の例において、ランドマークM(実座標p)が存在する曲面Kを、関数fを用いて、以下の(9)式とおく。
Here, with reference to FIG. 3, a method of back projecting the reference image coordinates to the real coordinates in the position estimating means 13 will be described in detail. FIG. 3 is an explanatory diagram for explaining a back projection technique in the position estimating means. In FIG. 3, it is assumed that a landmark M exists on a curved surface K, and a landmark image m is captured on the first image I captured by the camera C1.
In the example of FIG. 3, the curved surface K where the landmark M (real coordinate p) exists is expressed by the following equation (9) using the function f.

Figure 0004906683
Figure 0004906683

例えば、ワールド座標系の3軸をX軸、Y軸およびZ軸としたとき、ランドマークMを平面Z=0に拘束するには、曲面Kを以下の(10)式に示す関数fとすればよい。   For example, when the three axes of the world coordinate system are the X axis, the Y axis, and the Z axis, in order to constrain the landmark M to the plane Z = 0, the curved surface K is expressed as a function f shown in the following equation (10). That's fine.

Figure 0004906683
Figure 0004906683

ここで、カメラC1のカメラ座標系の原点を、第一光学主点Tにとり、ワールド座標系における位置ベクトルをtとする。また、ワールド座標系からカメラ座標系への姿勢変換の回転行列をRとする。また、カメラC1のカメラ座標系のx軸およびy軸は、第一画像Iの画像平面と平行な面内にとり、z軸は、光軸と平行かつ被写界向きにとるものとする。なお、光軸は画像平面に対して垂直であるものとする。   Here, the origin of the camera coordinate system of the camera C1 is taken as the first optical principal point T, and the position vector in the world coordinate system is t. Also, let R be the rotation matrix for posture conversion from the world coordinate system to the camera coordinate system. The x and y axes of the camera coordinate system of the camera C1 are in a plane parallel to the image plane of the first image I, and the z axis is parallel to the optical axis and oriented in the field. It is assumed that the optical axis is perpendicular to the image plane.

また、第一画像Iの画像平面における画像座標系は、カメラ座標系のうちx軸およびy軸の2軸のみにより張られる二次元の座標系とし、その原点は、画像平面と光軸との交点にとる。また、カメラC1のレンズは、ピンホールモデルに従うものとし、その焦点距離をfとする。   Further, the image coordinate system on the image plane of the first image I is a two-dimensional coordinate system stretched by only two axes of the x-axis and the y-axis in the camera coordinate system, and the origin is between the image plane and the optical axis. Take the intersection. The lens of the camera C1 follows the pinhole model, and its focal length is f.

また、位置推定手段13に入力される第一画像Iにおける参照画像座標をrとし、既知カメラパラメータとして入力されるカメラパラメータには、位置ベクトルtと回転行列Rとが含まれているものとする。   Further, it is assumed that the reference image coordinate in the first image I input to the position estimation unit 13 is r, and the camera parameter input as the known camera parameter includes the position vector t and the rotation matrix R. .

図3に示すように、ランドマークMは、第一光学主点Tを始点とし、第一画像Iの画像平面上のランドマーク像mへ至るベクトルのk倍(kは正の実数の係数)の場所にあると考えると、実座標pは、以下の(11)式で表すことができる。   As shown in FIG. 3, the landmark M starts from the first optical principal point T and is k times the vector reaching the landmark image m on the image plane of the first image I (k is a positive real coefficient). The real coordinate p can be expressed by the following equation (11).

Figure 0004906683
Figure 0004906683

ここで、前記(9)式と前記(10)式とを連立させることで、係数k(ただし、k>0)を求めることができる。なお、連立方程式の解が、係数kに関して2個以上存在する場合には、その中の最も小さい値を用いることとする。このように求められた係数kを前記(11)式に代入することで、実座標pが求められる。例えば、ランドマークがZ=0なる平面上にある場合、前記(10)式により、以下の(12)式の関係が成り立つ。また、この(12)式から、以下の(13)式に示すように、係数kが求められる。   Here, the coefficient k (however, k> 0) can be obtained by combining the equation (9) and the equation (10). When there are two or more solutions of the simultaneous equations with respect to the coefficient k, the smallest value among them is used. The actual coordinate p is obtained by substituting the coefficient k thus obtained in the equation (11). For example, when the landmark is on the plane where Z = 0, the relationship of the following equation (12) is established by the equation (10). Further, from the equation (12), the coefficient k is obtained as shown in the following equation (13).

Figure 0004906683
Figure 0004906683

Figure 0004906683
Figure 0004906683

そして、この(13)式で求められた係数kを、前記(11)式に代入することで、以下の(14)式に示すように、実座標pが求められる。   Then, by substituting the coefficient k obtained by the equation (13) into the equation (11), the actual coordinate p is obtained as shown in the following equation (14).

Figure 0004906683
Figure 0004906683

この(14)式は、例えば、平面状の床面にランドマークがある場合等、床面にワールド座標系のX軸およびY軸をとり、それらと直交して、例えば上向きにZ軸をとることで適用することができる。   This equation (14) takes the X axis and Y axis of the world coordinate system on the floor surface, for example, when there is a landmark on the flat floor surface, and takes the Z axis upward, for example, orthogonal to them. It can be applied.

なお、ここでは、平面Z=0の拘束条件を与えて実座標を求める手法について説明したが、XやYについて拘束条件を与えてもよい。これによって、例えば、位置推定手段13は、床面から鉛直方向に存在する壁面上のランドマークの実座標を求めることができる。
図2に戻って、カメラパラメータ推定装置1の構成について説明を続ける。
Here, the method of obtaining the real coordinates by giving the constraint condition of the plane Z = 0 has been described, but the constraint condition may be given for X and Y. Thereby, for example, the position estimating means 13 can obtain the actual coordinates of the landmark on the wall surface existing in the vertical direction from the floor surface.
Returning to FIG. 2, the description of the configuration of the camera parameter estimation apparatus 1 will be continued.

パラメータ推定手段14は、ランドマーク対応付け手段12により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する位置推定手段13で推定された参照画像座標の実座標(三次元座標)と、第二ランドマーク抽出手段11で抽出された観測画像座標とに基づいて、カメラC2のカメラパラメータ(推定カメラパラメータ)を推定するものである。ここでは、パラメータ推定手段14は、座標対応付け手段141と、パラメータ算出手段142とを備える。   The parameter estimation unit 14 includes the actual coordinates (three-dimensional coordinates) of the reference image coordinates estimated by the position estimation unit 13 corresponding to the landmark, in the same landmark associated by the landmark association unit 12. Based on the observed image coordinates extracted by the second landmark extracting means 11, the camera parameters (estimated camera parameters) of the camera C2 are estimated. Here, the parameter estimation unit 14 includes a coordinate association unit 141 and a parameter calculation unit 142.

座標対応付け手段141は、位置推定手段13で推定された実座標(三次元座標)とランドマーク対応付け手段12での対応結果とに基づいて、第二ランドマーク抽出手段11で抽出された観測画像座標に実座標を対応付けるものである。   The coordinate association unit 141 is an observation extracted by the second landmark extraction unit 11 based on the actual coordinates (three-dimensional coordinates) estimated by the position estimation unit 13 and the correspondence result by the landmark association unit 12. The real coordinates are associated with the image coordinates.

ここでは、座標対応付け手段141は、位置推定手段13から出力される第一識別子とランドマークの実座標との対(m,p)の集合、ランドマーク対応付け手段12から出力される第一識別子と第二識別子との対(m,n)の集合、および、第二ランドマーク抽出手段11から出力される第二識別子と観測画像座標との対(n,o)の集合から、同一のランドマークに関する実座標と観測画像座標との対(p,onm)の集合を求める。なお、onmは、第一識別子mと対となる第二識別子nに対応付けられた観測画像座標を示す。そして、座標対応付け手段141は、第一識別子と第二識別子との対(m,n)の数だけ、実座標と観測画像座標との対(p,onm)の集合をパラメータ算出手段142に出力する。 Here, the coordinate association unit 141 is a set of pairs (m, p m ) of the first identifier output from the position estimation unit 13 and the actual coordinates of the landmark, and the first output from the landmark association unit 12. From a set of a pair (m, n m ) of one identifier and a second identifier, and a set of a pair (n, o n ) of a second identifier and observation image coordinates output from the second landmark extraction means 11 Then, a set of pairs (p m , o nm ) of real coordinates and observed image coordinates regarding the same landmark is obtained. Incidentally, o nm shows the observed image coordinates associated with the second identifier n m to be the first identifier m a pair. Then, the coordinate association unit 141 performs parameter calculation on a set of pairs (p m , o nm ) of the actual coordinates and the observed image coordinates as many as the number of pairs (m, n m ) of the first identifier and the second identifier. It outputs to the means 142.

パラメータ算出手段142は、座標対応付け手段141で対応付けられた複数の観測画像座標の実座標(三次元座標)に基づいて、カメラC2のカメラパラメータである推定カメラパラメータを算出するものである。このパラメータ算出手段142で算出されたカメラパラメータは、カメラC2のカメラパラメータとして逐次外部に出力される。   The parameter calculation unit 142 calculates estimated camera parameters, which are camera parameters of the camera C2, based on the actual coordinates (three-dimensional coordinates) of the plurality of observed image coordinates associated with the coordinate association unit 141. The camera parameters calculated by the parameter calculation unit 142 are sequentially output to the outside as the camera parameters of the camera C2.

ここでは、パラメータ算出手段142は、ランドマークの実座標と観測画像座標との対(p,onm)の集合が所定数入力された段階で、カメラC2のカメラパラメータを算出することとする。この算出には、二次元平面(画像平面)におけるn点の三次元座標(実座標)が特定されたとき、カメラパラメータを推定する透視n点問題を解く一般的な手法を用いることができる。例えば、パラメータ算出手段142は、ランドマークが同一平面上に存在する場合、ランドマークの実座標と観測画像座標との対(p,onm)が4対入力された段階で、透視4点問題を解くことでカメラC2のカメラパラメータを算出する。 Here, the parameter calculation unit 142 calculates the camera parameters of the camera C2 when a predetermined number of pairs (p m , o nm ) of landmark real coordinates and observed image coordinates are input. . For this calculation, when a three-dimensional coordinate (real coordinate) of n points on a two-dimensional plane (image plane) is specified, a general method for solving a perspective n-point problem for estimating camera parameters can be used. For example, when the landmarks exist on the same plane, the parameter calculation unit 142 receives four perspective points when four pairs (p m , o nm ) of the actual coordinates of the landmarks and the observed image coordinates are input. The camera parameters of the camera C2 are calculated by solving the problem.

このようにカメラパラメータ推定装置1を構成することで、カメラパラメータ推定装置1は、カメラパラメータが既知のカメラC1で撮像した画像(第一画像)と、カメラパラメータが未知のカメラC2で撮像した画像(第二画像)とから、カメラC2のカメラパラメータを推定することができる。   By configuring the camera parameter estimation device 1 in this way, the camera parameter estimation device 1 is configured so that the image captured by the camera C1 whose camera parameter is known (first image) and the image captured by the camera C2 whose camera parameter is unknown. From the (second image), the camera parameters of the camera C2 can be estimated.

また、カメラパラメータ推定装置1は、ランドマークの位置を固定することなく、カメラC1とカメラC2とで共通に観測可能な任意の物体やパターンをランドマークとして使用して、カメラC2のカメラパラメータを推定することができる。また、カメラパラメータ推定装置1は、被写界に恣意的に設置した物体やパターンに限らず、被写界に投影した静的または動的パターン、被写界にもともと存在する物体やパターン、あるいは被写界を移動する物体、人物等をランドマークとして活用することができる。   Further, the camera parameter estimation device 1 uses any object or pattern that can be commonly observed by the camera C1 and the camera C2 as a landmark without fixing the position of the landmark, and determines the camera parameter of the camera C2. Can be estimated. In addition, the camera parameter estimation device 1 is not limited to an object or pattern arbitrarily set in the scene, but a static or dynamic pattern projected on the scene, an object or pattern that originally exists in the scene, or Objects, people, etc. that move in the field can be used as landmarks.

これによって、カメラパラメータ推定装置1は、例えば、スポーツ中継に用いられるカメラのカメラパラメータを推定するために、中継用カメラをカメラC2とし、カメラパラメータが既知のカメラC1で競技場の広い範囲を撮影し、スポーツ選手、ボール、地面上に引かれたラインや印、場内に置かれた器具等をランドマークとすることで、競技の邪魔をすることなく、カメラC2のカメラパラメータを推定することができる。
なお、カメラパラメータ推定装置1は、一般的なコンピュータを、前記した各手段として機能させるカメラパラメータ推定プログラムによって動作させることができる。
Accordingly, the camera parameter estimation device 1 uses, for example, the camera C2 as a relay camera to estimate the camera parameters of a camera used for sports relay, and shoots a wide range of the stadium with the camera C1 whose camera parameters are known. The camera parameters of the camera C2 can be estimated without disturbing the competition by using the athlete, the ball, the line or mark drawn on the ground, the equipment placed in the field as a landmark. it can.
The camera parameter estimation apparatus 1 can be operated by a camera parameter estimation program that causes a general computer to function as each of the means described above.

[第一実施形態:カメラパラメータ推定装置の動作]
次に、図4を参照(適宜図2参照)して、本発明の第一実施形態に係るカメラパラメータ推定装置の動作について説明する。図4は、本発明の第一実施形態に係るカメラパラメータ推定装置の動作を示すフローチャートである。
[First Embodiment: Operation of Camera Parameter Estimation Device]
Next, the operation of the camera parameter estimation apparatus according to the first embodiment of the present invention will be described with reference to FIG. 4 (refer to FIG. 2 as appropriate). FIG. 4 is a flowchart showing the operation of the camera parameter estimation apparatus according to the first embodiment of the present invention.

まず、カメラパラメータ推定装置1は、第一ランドマーク抽出手段10によって、カメラパラメータが既知のカメラC1が撮像した撮像画像(第一画像)から、ランドマークの座標(参照画像座標)を抽出する(ステップS1)。そして、カメラパラメータ推定装置1は、位置推定手段13によって、ステップS1で抽出した参照画像座標をカメラC1のカメラパラメータである既知カメラパラメータにより逆投影変換することでランドマークの実座標(三次元座標)を算出する(ステップS2)。   First, the camera parameter estimation device 1 uses the first landmark extraction means 10 to extract landmark coordinates (reference image coordinates) from a captured image (first image) captured by the camera C1 whose camera parameters are known (first image). Step S1). Then, the camera parameter estimation device 1 uses the position estimation unit 13 to backproject the reference image coordinates extracted in step S1 with the known camera parameters that are camera parameters of the camera C1, thereby converting the actual coordinates of the landmarks (three-dimensional coordinates). ) Is calculated (step S2).

また、カメラパラメータ推定装置1は、第二ランドマーク抽出手段11によって、カメラパラメータが未知のカメラC2が撮像した撮像画像(第二画像)から、ランドマークの座標(観測画像座標)を抽出する(ステップS3)。   Further, the camera parameter estimation device 1 extracts the coordinates of the landmarks (observed image coordinates) from the captured image (second image) captured by the camera C2 whose camera parameters are unknown by the second landmark extraction unit 11 ( Step S3).

そして、カメラパラメータ推定装置1は、ランドマーク対応付け手段12によって、ステップS2で算出した実座標とステップS3で抽出した観測画像座標とに基づいてランドマークの対応付けを行う。   Then, the camera parameter estimation device 1 uses the landmark association unit 12 to associate landmarks based on the actual coordinates calculated in step S2 and the observed image coordinates extracted in step S3.

すなわち、カメラパラメータ推定装置1は、ランドマーク対応付け手段12の予測手段121によって、後記するステップS8で算出された時系列の推定カメラパラメータに基づいて、現時点におけるカメラパラメータを予測カメラパラメータとして予測する(ステップS4)。なお、このステップS4において、ステップS8で推定カメラパラメータが算出されていない場合は動作を行わず、そのままステップS5に進む。   That is, the camera parameter estimation device 1 predicts the current camera parameter as the predicted camera parameter based on the time-series estimated camera parameter calculated in step S8 described later by the prediction unit 121 of the landmark association unit 12. (Step S4). In step S4, if the estimated camera parameter is not calculated in step S8, the operation is not performed and the process proceeds to step S5 as it is.

そして、カメラパラメータ推定装置1は、ランドマーク対応付け手段12の投影手段122によって、ステップS4で予測された予測カメラパラメータにより、ステップS2で推定された実座標(三次元座標)を投影変換することで、参照画像座標の現時点の座標を予測画像座標として算出する(ステップS5)。なお、このステップS5において、ステップS4で予測カメラパラメータが予測されていない場合、すなわち、初期状態においては、投影手段122予め定められた初期値のカメラパラメータを用いて予測画像座標を算出する。   Then, the camera parameter estimation device 1 projects and converts the actual coordinates (three-dimensional coordinates) estimated in step S2 by the projection unit 122 of the landmark association unit 12 using the predicted camera parameters predicted in step S4. Thus, the current coordinates of the reference image coordinates are calculated as predicted image coordinates (step S5). In step S5, when the predicted camera parameter is not predicted in step S4, that is, in the initial state, the predicted image coordinates are calculated using the camera parameter having a predetermined initial value in the projection unit 122.

そして、カメラパラメータ推定装置1は、ランドマーク対応付け手段12の照合手段123によって、ステップS5で算出された予測画像座標と、ステップS3で抽出した観測画像座標との座標間の距離に基づいて、ランドマークを対応付ける(ステップS6)。   And the camera parameter estimation apparatus 1 is based on the distance between the coordinate of the prediction image coordinate calculated by step S5 by the collation means 123 of the landmark matching means 12, and the observation image coordinate extracted by step S3. A landmark is associated (step S6).

その後、カメラパラメータ推定装置1は、パラメータ推定手段14によって、ステップS2で算出したランドマークの実座標とステップS3で抽出した観測画像座標とに基づいて、カメラC2のカメラパラメータを推定する。   Thereafter, the camera parameter estimation device 1 estimates the camera parameters of the camera C2 by the parameter estimation unit 14 based on the actual coordinates of the landmark calculated in step S2 and the observed image coordinates extracted in step S3.

すなわち、カメラパラメータ推定装置1は、パラメータ推定手段14の座標対応付け手段141によって、ステップS2で算出した実座標(三次元座標)と、ステップS6での対応結果とに基づいて、ステップS3で抽出した観測画像座標に実座標を対応付ける(ステップS7)。   That is, the camera parameter estimation device 1 is extracted in step S3 based on the actual coordinates (three-dimensional coordinates) calculated in step S2 and the correspondence results in step S6 by the coordinate association unit 141 of the parameter estimation unit 14. The actual coordinates are associated with the observed image coordinates (step S7).

そして、カメラパラメータ推定装置1は、パラメータ推定手段14のパラメータ算出手段142によって、ステップS7で対応付けた複数の観測画像座標の実座標から、透視n点問題の解答手法により、カメラC2のカメラパラメータ(推定カメラパラメータ)を算出する(ステップS8)。   Then, the camera parameter estimation apparatus 1 uses the parameter calculation unit 142 of the parameter estimation unit 14 to calculate the camera parameters of the camera C2 from the real coordinates of the plurality of observed image coordinates associated in step S7 by the method of solving the perspective n-point problem. (Estimated camera parameters) are calculated (step S8).

なお、この後、カメラパラメータ推定装置1は、動作中(ステップS9でYes)である場合、ステップS1に戻って動作を継続する。そして、ステップS4において、ステップS8で算出された推定カメラパラメータによって、順次、カメラC2のカメラパラメータが予測されることになる。   Thereafter, when the camera parameter estimation device 1 is operating (Yes in step S9), the camera parameter estimation device 1 returns to step S1 and continues the operation. In step S4, the camera parameters of the camera C2 are sequentially predicted based on the estimated camera parameters calculated in step S8.

以上の動作によって、カメラパラメータ推定装置1は、カメラパラメータが既知のカメラC1で撮像した画像(第一画像)と、カメラパラメータが未知のカメラC2で撮像した画像(第二画像)とから、カメラC2のカメラパラメータを推定することができる。   Through the above operation, the camera parameter estimation device 1 uses the camera (first image) captured by the camera C1 with known camera parameters and the image (second image) captured by the camera C2 with unknown camera parameters. C2 camera parameters can be estimated.

[第二実施形態:カメラパラメータ推定装置の構成]
次に、図5を参照して、本発明の第二実施形態に係るカメラパラメータ推定装置の構成について説明する。図5は、本発明の第二実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。
[Second Embodiment: Configuration of Camera Parameter Estimation Device]
Next, the configuration of the camera parameter estimation device according to the second embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram showing a configuration of a camera parameter estimation apparatus according to the second embodiment of the present invention.

図5に示したカメラパラメータ推定装置1Bは、図2に示したカメラパラメータ推定装置1と同様、カメラパラメータが既知であるカメラ(第一カメラ)C1が撮像した画像(第一画像)と、カメラパラメータが未知であるカメラ(第二カメラ)C2が撮像した画像(第二画像)とに基づいて、カメラC2のカメラパラメータを推定するものである。   The camera parameter estimation device 1B shown in FIG. 5 is similar to the camera parameter estimation device 1 shown in FIG. 2, and includes an image (first image) captured by a camera (first camera) C1 with known camera parameters, The camera parameters of the camera C2 are estimated based on the image (second image) captured by the camera (second camera) C2 whose parameter is unknown.

ここでは、カメラパラメータ推定装置1Bは、第一ランドマーク抽出手段10と、第二ランドマーク抽出手段11と、ランドマーク対応付け手段12Bと、位置推定手段13と、パラメータ推定手段14とを備える。そして、カメラパラメータ推定装置1Bは、カメラC1とカメラC2とを外部に接続している。ランドマーク対応付け手段12B以外の構成については、図2で説明したカメラパラメータ推定装置1と同一の構成であるため、同一の符号を付して説明を省略する。   Here, the camera parameter estimation device 1B includes a first landmark extraction unit 10, a second landmark extraction unit 11, a landmark association unit 12B, a position estimation unit 13, and a parameter estimation unit 14. The camera parameter estimation device 1B connects the camera C1 and the camera C2 to the outside. The configuration other than the landmark associating unit 12B is the same as that of the camera parameter estimation device 1 described in FIG.

ランドマーク対応付け手段12Bは、第一画像と第二画像との間でランドマークの対応付けを行うものである。。なお、ランドマーク対応付け手段12Bは、図2で説明したランドマーク対応付け手段12の座標照合によりランドマークを対応付ける機能に、さらに、画像特徴を照合する機能を付加している。ここでは、ランドマーク対応付け手段12Bは、予測手段121と、投影手段122と、照合手段123Bと、第一特徴抽出手段124と、第二特徴抽出手段125とを備える。予測手段121および投影手段122については、図2で説明したカメラパラメータ推定装置1と同一の構成であるため、同一の符号を付して説明を省略する。   The landmark associating means 12B is for associating landmarks between the first image and the second image. . The landmark associating unit 12B adds a function of collating image features to the function of associating landmarks with the coordinate matching of the landmark associating unit 12 described in FIG. Here, the landmark association unit 12B includes a prediction unit 121, a projection unit 122, a collation unit 123B, a first feature extraction unit 124, and a second feature extraction unit 125. The prediction unit 121 and the projection unit 122 have the same configuration as that of the camera parameter estimation apparatus 1 described in FIG.

第一特徴抽出手段124は、第一画像Iから第一ランドマーク抽出手段10で抽出された参照画像座標群{r}に対応するそれぞれの画像特徴を第一特徴群{F}として抽出するものである。ここで、第一特徴Fは、第一画像Iの第一識別子mに対応する参照画像座標r(または参照画像座標rの近傍領域)における画像特徴である。
この第一特徴Fは、例えば、以下の(15)式に示すように、参照画像座標rにおける画素値I(r)を用いることができる。
The first feature extraction unit 124 extracts each image feature corresponding to the reference image coordinate group {r m } extracted from the first image I by the first landmark extraction unit 10 as a first feature group {F m }. To do. Here, the first feature F m is an image feature in the reference image coordinate r m (or a region near the reference image coordinate r m ) corresponding to the first identifier m of the first image I.
As the first feature F m , for example, a pixel value I (r m ) at the reference image coordinate r m can be used as shown in the following equation (15).

Figure 0004906683
Figure 0004906683

このとき第一特徴Fは、第一画像Iがモノクロ画像のとき、または、カラーインデックスで表されるときはスカラ値となり、第一画像Iがカラー画像等の多バンド画像で、色がベクトル値として表されるときはベクトル値となる。
また、第一特徴Fは、例えば、参照画像座標rの近傍領域の画素値群を用いることとしてもよい。この場合、例えば、以下の(16)式に示すように、参照画像座標rおよびその4近傍の画素の合計5画素をもって第一特徴Fとする。
At this time, the first feature F m is a scalar value when the first image I is a monochrome image or represented by a color index, the first image I is a multiband image such as a color image, and the color is a vector. When expressed as a value, it is a vector value.
The first feature F m, for example, a pixel value group of the neighboring region of the reference image coordinate r m may be used. In this case, for example, as shown in the following equation (16), with a total of five pixels in the reference image coordinate r m and its four neighboring pixels to the first feature F m.

Figure 0004906683
Figure 0004906683

ここで、Δxはある画素の中心からその1画素右隣の画素の中心に至るベクトルであり、Δyはある画素中心からその1画素下隣の画素中心に至るベクトルである。なお、近傍の範囲を拡げて、画素値パターンのテンプレートとして第一特徴Fを構成してもよい。
また、第一特徴Fは、例えば、以下の(17)式に示すように、参照画像座標rの近傍の色ヒストグラムh(c)を用いることとしてもよい。ここで、cは画素値(すなわち色)を表す。このとき、第一特徴Fは、色cに関するテーブルとなる。
Here, Δx is a vector from the center of a certain pixel to the center of the pixel immediately adjacent to that one pixel, and Δy is a vector from the center of a certain pixel to the center of the next pixel below that one pixel. Incidentally, by expanding the range near, it may constitute a first feature F m as a template pixel value pattern.
The first feature F m may be, for example, be used following the as shown in equation (17), the reference image coordinate r color histogram in the vicinity of the m h m (c). Here, c represents a pixel value (that is, color). At this time, the first feature F m is a table relating to the color c.

Figure 0004906683
Figure 0004906683

この場合、第一特徴抽出手段124は、まず、参照画像座標rを中心として既定の半径の円形領域(その他、楕円領域、矩形領域等の既定の形状領域)内に存在する画素位置の集合Dを設定する。続いて、第一特徴抽出手段124は、画像座標r∈Dを満たすすべての画像座標rに関して、画素値I(r)の色ヒストグラムh(c)を求める((18)式参照)。なお、この(18)式において、|X|は、有限集合Xの元の数を表す。 This set of case, the first feature extraction unit 124, first, the reference image coordinate r m default radius of the circular area around the pixel positions that exist (Other, oval area, the default shape regions such as the rectangular region) Set Dm . Subsequently, the first feature extraction unit 124 obtains a color histogram h m (c) of the pixel value I (r) with respect to all the image coordinates r satisfying the image coordinates rεD m (see formula (18)). In the equation (18), | X | represents the original number of the finite set X.

Figure 0004906683
Figure 0004906683

第二特徴抽出手段125は、第二画像Jから第二ランドマーク抽出手段11で抽出された観測画像座標群{o}に対応するそれぞれの画像特徴を第二特徴群{G}として抽出するものである。なお、第二特徴は、第一特徴抽出手段124が第一特徴を抽出した手法と同一の手法により抽出することとする。 The second feature extraction unit 125 extracts each image feature corresponding to the observed image coordinate group {o n } extracted from the second image J by the second landmark extraction unit 11 as a second feature group {G n }. To do. The second feature is extracted by the same method as the method by which the first feature extraction unit 124 extracted the first feature.

例えば、第一特徴抽出手段124が前記(15)式によって第一特徴を抽出する場合、第二特徴抽出手段125は、第二特徴Gとして、以下の(19)式に示すように、観測画像座標oにおける画素値J(o)を用いる。 For example, when the first feature extraction unit 124 extracts the first feature according to the equation (15), the second feature extraction unit 125 uses the observation as the second feature G n as shown in the following equation (19). using the pixel value J (o n) in the image coordinate o n.

Figure 0004906683
Figure 0004906683

また、第一特徴抽出手段124が前記(16)式によって第一特徴を抽出する場合、第二特徴抽出手段125は、以下の(20)式に示すように、観測画像座標oおよびその4近傍の画素の合計5画素をもって第二特徴Gとする。 Also, if the first feature extraction means 124 for extracting the first feature by the formula (16), the second feature extraction unit 125, as shown in the following equation (20), the observed image coordinates o n and 4 A total of five pixels in the vicinity is set as the second feature Gn .

Figure 0004906683
Figure 0004906683

また、第一特徴抽出手段124が前記(17)式によって第一特徴を抽出する場合、第二特徴抽出手段125は、第二特徴Gとして、以下の(21)式に示すように、観測画像座標oの近傍の色ヒストグラムg(c)を用いる。ここで、cは画素値(すなわち色)を表す。このとき、第二特徴Gは、色cに関するテーブルとなる。 Further, when the first feature extraction unit 124 extracts the first feature according to the equation (17), the second feature extraction unit 125 performs the observation as the second feature G n as shown in the following equation (21). using g n (c) a color histogram in the vicinity of the image coordinates o n. Here, c represents a pixel value (that is, color). At this time, the second feature G n is a table relating to the color c.

Figure 0004906683
Figure 0004906683

この場合、第二特徴抽出手段125は、まず、観測画像座標oを中心として既定の半径の円形領域(その他、楕円領域、矩形領域等の既定の形状領域)内に存在する画素位置の集合Eを設定する。続いて、第二特徴抽出手段125は、画像座標o∈Eを満たすすべての画像座標oに関して、画素値J(o)の色ヒストグラムg(c)を求める((22)式参照)。 This set of case, the second feature extraction unit 125, first, the observed image coordinates o n default radius of the circular area around the pixel positions that exist (Other, oval area, the default shape regions such as the rectangular region) setting the E n. Subsequently, the second feature extraction unit 125 obtains a color histogram g n (c) of the pixel value J (o) with respect to all the image coordinates o satisfying the image coordinates oεE n (see formula (22)).

Figure 0004906683
Figure 0004906683

照合手段123Bは、第一特徴抽出手段124で抽出された第一特徴と第二特徴抽出手段125で抽出された第二特徴との類似の度合いと、投影手段122によって算出された予測画像座標と、第二ランドマーク抽出手段11で抽出された観測画像座標との座標間の距離との重み付け加算に基づいて、ランドマークを対応付けるものである。   The collating unit 123B includes a degree of similarity between the first feature extracted by the first feature extracting unit 124 and the second feature extracted by the second feature extracting unit 125, and the predicted image coordinates calculated by the projecting unit 122. The landmarks are associated with each other on the basis of weighted addition with the distance between the coordinates of the observed image coordinates extracted by the second landmark extracting means 11.

例えば、照合手段123Bは、第一特徴抽出手段124で抽出された第一識別子mと第一特徴Fとの対(m,F)の集合と、第二特徴抽出手段125で抽出された第二識別子nと第二特徴Gとの対(n,G)の集合と、投影手段122によって算出された第一識別子mと予測画像座標との対(m,o′)の集合と、第二ランドマーク抽出手段11で抽出された第二識別子nと観測画像座標oとの対(n,o)の集合とに基づいて、以下の(23)式に示す画像特徴と座標間の距離との重み付け加算を行う。これによって、ランドマークの画像特徴が類似し、かつ、距離間隔が短い第一識別子mに対応する第二識別子nを求めることができる。 For example, the matching unit 123B extracts the set of pairs (m, F m ) of the first identifier m and the first feature F m extracted by the first feature extraction unit 124 and the second feature extraction unit 125. A set of pairs (n, G n ) of the second identifier n and the second feature G n and a set of pairs (m, o m ′) of the first identifier m calculated by the projection means 122 and the predicted image coordinates. If the second identifier n and the observed image coordinates o n the pair extracted in the second landmark extracting unit 11 (n, o n) based on a set of the image feature indicated by the following equation (23) Performs weighted addition with the distance between coordinates. Thereby, the image feature landmarks are similar, and the distance interval can be obtained second identifier n m corresponding to the shorter first identifier m.

Figure 0004906683
Figure 0004906683

ここで、αおよびβは正の定数である。また、(23)式中、‖G−FFeatureは、GとFとの特徴量に対するノルムを示す。例えば、第一特徴Fと第二特徴Gとがともにスカラ値の場合、照合手段123Bは、距離の絶対値をノルムとすることができる。また、第一特徴Fと第二特徴Gとがともにベクトル値(例えば、複数画素の画素値、カラー画像の画素値等)の場合、照合手段123Bは、ノルムとして、ユークリッド距離、マンハッタン距離等を用いることができる。また、第一特徴Fと第二特徴Gとがともにヒストグラム(例えば、色ヒストグラム等)の場合、照合手段123Bは、ノルムとして、Bhattacharyya距離を用いることができる。 Here, α and β are positive constants. Further, (23) where, ‖G n -F mFeature shows norm for the feature quantity of the G n and F m. For example, when both the first feature F m and the second feature G n are scalar values, the matching unit 123B can set the absolute value of the distance as a norm. When both the first feature F m and the second feature G n are vector values (for example, a pixel value of a plurality of pixels, a pixel value of a color image, etc.), the matching unit 123B uses the Euclidean distance and the Manhattan distance as norms. Etc. can be used. When both the first feature F m and the second feature G n are histograms (for example, a color histogram), the matching unit 123B can use the Bhattacharyya distance as the norm.

また、(23)式中、‖o−o′‖Positionは、oとo′との位置に対するノルムを示す。この位置に対するノルムにとしては、例えば、ユークリッド距離を用いることができる。
そして、照合手段123Bは、対応する第一識別子mと第二識別子nとの対である(1,n),(2,n),…,(M,n)を対応結果としてパラメータ推定手段14に出力する。
Further, (23) where, ‖o n -o m '‖ Position is, o n a o m' indicating the norm for the position of the. As the norm for this position, for example, the Euclidean distance can be used.
Then, the matching unit 123B uses (1, n 1 ), (2, n 2 ),..., (M, n M ), which is a pair of the corresponding first identifier m and second identifier nm , as a correspondence result. It outputs to the parameter estimation means 14.

このようにカメラパラメータ推定装置1Bを構成することで、カメラパラメータ推定装置1Bは、カメラパラメータが既知のカメラC1で撮像した画像(第一画像)と、カメラパラメータが未知のカメラC2で撮像した画像(第二画像)とから、ランドマークの位置と画像特徴に基づいて精度よくランドマークを対応付けて、カメラC2のカメラパラメータを推定することができる。
なお、カメラパラメータ推定装置1Bは、一般的なコンピュータを、前記した各手段として機能させるカメラパラメータ推定プログラムによって動作させることができる。
By configuring the camera parameter estimation device 1B in this way, the camera parameter estimation device 1B is configured so that the image captured by the camera C1 whose camera parameter is known (first image) and the image captured by the camera C2 whose camera parameter is unknown. From the (second image), it is possible to accurately estimate the camera parameters of the camera C2 by associating the landmarks with accuracy based on the landmark positions and the image characteristics.
The camera parameter estimation device 1B can be operated by a camera parameter estimation program that causes a general computer to function as each of the means described above.

[第二実施形態:カメラパラメータ推定装置の動作]
次に、図6を参照(適宜図5参照)して、本発明の第二実施形態に係るカメラパラメータ推定装置の動作について説明する。図6は、本発明の第二実施形態に係るカメラパラメータ推定装置の動作を示すフローチャートである。
[Second Embodiment: Operation of Camera Parameter Estimation Device]
Next, the operation of the camera parameter estimation apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the camera parameter estimation apparatus according to the second embodiment of the present invention.

図6に示したカメラパラメータ推定装置1Bの動作は、基本的には、図4で示したカメラパラメータ推定装置1の動作と同じであるが、ステップS1BがステップS1の後に付加され、ステップS3BがステップS3の後に付加され、ステップS6に替えてステップS6Bが動作する点が異なっている。他のステップについては、図4で示したカメラパラメータ推定装置1の動作と同じであるため、同一の符号を付し、説明を省略する。   The operation of the camera parameter estimation device 1B shown in FIG. 6 is basically the same as the operation of the camera parameter estimation device 1 shown in FIG. 4, but step S1B is added after step S1, and step S3B is The difference is that it is added after step S3, and step S6B operates instead of step S6. The other steps are the same as the operation of the camera parameter estimation device 1 shown in FIG.

カメラパラメータ推定装置1Bは、ステップS1の後、第一特徴抽出手段124によって、第一画像から、ステップS1で抽出された参照画像座標の特徴(第一特徴)を抽出する(ステップS1B)。また、カメラパラメータ推定装置1Bは、ステップS3の後、第二特徴抽出手段125によって、第二画像から、ステップS3で抽出された観測画像座標の特徴(第二特徴)を抽出する(ステップS3B)。   After step S1, the camera parameter estimation device 1B uses the first feature extraction unit 124 to extract the feature (first feature) of the reference image coordinates extracted in step S1 from the first image (step S1B). In addition, after step S3, the camera parameter estimation device 1B extracts the feature (second feature) of the observed image coordinates extracted in step S3 from the second image by the second feature extraction unit 125 (step S3B). .

そして、カメラパラメータ推定装置1Bは、ステップS5の後、照合手段123Bによって、ステップS1Bで抽出した第一特徴とステップS3Bで抽出した第二特徴との類似の度合いと、ステップS5で算出した予測画像座標と、ステップS3で抽出した観測画像座標との座標間の距離との重み付け加算に基づいて、ランドマークを対応付ける(ステップS6B)。   Then, after step S5, the camera parameter estimation device 1B uses the matching unit 123B to determine the degree of similarity between the first feature extracted in step S1B and the second feature extracted in step S3B, and the predicted image calculated in step S5. Landmarks are associated with each other based on the weighted addition of the coordinates and the distance between the coordinates of the observation image coordinates extracted in step S3 (step S6B).

なお、ステップS1Bの動作は、ステップS1の後、ステップS6Bの前であれば、どのタイミングで動作してもよい。また、ステップS3Bの動作は、ステップS3の後、ステップS6Bの前であれば、どのタイミングで動作してもよい。   The operation in step S1B may be performed at any timing after step S1 and before step S6B. The operation of step S3B may be performed at any timing after step S3 and before step S6B.

以上の動作によって、カメラパラメータ推定装置1Bは、カメラパラメータが既知のカメラC1で撮像した画像(第一画像)と、カメラパラメータが未知のカメラC2で撮像した画像(第二画像)とから、カメラC2のカメラパラメータを推定することができる。   With the above operation, the camera parameter estimation device 1B uses the image (first image) captured by the camera C1 whose camera parameter is known and the image (second image) captured by the camera C2 whose camera parameter is unknown. C2 camera parameters can be estimated.

本発明の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of this invention. 本発明の第一実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera parameter estimation apparatus which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るカメラパラメータ推定装置の位置推定手段における逆投影の手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of the back projection in the position estimation means of the camera parameter estimation apparatus which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るカメラパラメータ推定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera parameter estimation apparatus which concerns on 1st embodiment of this invention. 本発明の第二実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera parameter estimation apparatus which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係るカメラパラメータ推定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera parameter estimation apparatus which concerns on 2nd embodiment of this invention.

符号の説明Explanation of symbols

1、1B カメラパラメータ推定装置
10 第一ランドマーク抽出手段
11 第二ランドマーク抽出手段
12、12B ランドマーク対応付け手段
121 予測手段
122 投影手段
123 照合手段
124 第一特徴抽出手段
125 第二特徴抽出手段
13 位置推定手段
14 パラメータ推定手段
141 座標対応付け手段
142 パラメータ算出手段
C1 カメラ(第一カメラ)
C2 カメラ(第二カメラ)
DESCRIPTION OF SYMBOLS 1, 1B Camera parameter estimation apparatus 10 1st landmark extraction means 11 2nd landmark extraction means 12, 12B Landmark matching means 121 Prediction means 122 Projection means 123 Collation means 124 1st feature extraction means 125 2nd feature extraction means 13 Position estimation means 14 Parameter estimation means 141 Coordinate association means 142 Parameter calculation means C1 Camera (first camera)
C2 camera (second camera)

Claims (5)

カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するカメラパラメータ推定装置であって、
ランドマークの予め定めた画像特徴に基づいて、前記第一画像からランドマークの当該画像における座標を参照画像座標として抽出する第一ランドマーク抽出手段と、
この第一ランドマーク抽出手段で抽出された参照画像座標を前記第一カメラのカメラパラメータである既知カメラパラメータにより逆投影変換することで前記ランドマークの三次元座標を推定する位置推定手段と、
前記ランドマークの画像特徴に基づいて、前記第二画像から前記ランドマークの当該画像における座標を観測画像座標として抽出する第二ランドマーク抽出手段と、
前記位置推定手段で推定された前記三次元座標を前記第二画像における二次元座標である予測画像座標に変換し、前記観測画像座標と照合することで、前記第一画像と前記第二画像との間で前記ランドマークの対応付けを行うランドマーク対応付け手段と、
このランドマーク対応付け手段により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する前記三次元座標と前記観測画像座標とに基づいて、前記第二カメラのカメラパラメータである推定カメラパラメータを推定するパラメータ推定手段とを備え、
前記ランドマーク対応付け手段は、
前記推定カメラパラメータにより前記三次元座標を投影変換することで、前記予測画像座標を算出する投影手段と、
前記予測画像座標と前記観測画像座標との座標間の距離に基づいて前記ランドマークを対応付ける照合手段と、
を備えることを特徴とするカメラパラメータ推定装置。
Camera parameter estimation for estimating camera parameters of the second camera based on a first image captured by a first camera with known camera parameters and a second image captured by a second camera with unknown camera parameters A device,
First landmark extraction means for extracting the coordinates of the landmark in the image from the first image as reference image coordinates based on predetermined image features of the landmark;
Position estimation means for estimating the three-dimensional coordinates of the landmarks by backprojecting the reference image coordinates extracted by the first landmark extraction means with known camera parameters that are camera parameters of the first camera;
Second landmark extraction means for extracting the coordinates of the landmark in the image from the second image as observation image coordinates based on the image characteristics of the landmark;
By converting the three-dimensional coordinates estimated by the position estimating means into predicted image coordinates that are two-dimensional coordinates in the second image, and collating with the observed image coordinates, the first image and the second image Landmark association means for associating the landmarks between,
Based on the three-dimensional coordinates and the observed image coordinates corresponding to the landmark, the estimated camera parameter that is the camera parameter of the second camera is set in the same landmark correlated by the landmark correlation unit. Parameter estimating means for estimating,
The landmark association means includes
Projection means for calculating the predicted image coordinates by projecting the three-dimensional coordinates by the estimated camera parameters;
Matching means for associating the landmarks based on a distance between coordinates between the predicted image coordinates and the observed image coordinates;
A camera parameter estimation device comprising:
前記ランドマーク対応付け手段は、前記パラメータ推定手段で推定された時系列の推定カメラパラメータに基づいて、現時点におけるカメラパラメータを予測カメラパラメータとして予測する予測手段をさらに備え、
前記投影手段は、前記予測手段で予測された予測カメラパラメータにより前記三次元座標を投影変換することで、前記予測画像座標を算出することを特徴とする請求項1に記載のカメラパラメータ推定装置。
The landmark association unit further includes a prediction unit that predicts a camera parameter at the present time as a predicted camera parameter based on the time-series estimated camera parameter estimated by the parameter estimation unit,
2. The camera parameter estimation apparatus according to claim 1, wherein the projection unit calculates the predicted image coordinates by projecting and converting the three-dimensional coordinates using the predicted camera parameters predicted by the prediction unit.
前記ランドマーク対応付け手段は、
前記第一画像から、前記予測画像座標の近傍領域の画像特徴を第一特徴として抽出する第一特徴抽出手段と、
前記第二画像から、前記観測画像座標の近傍領域の画像特徴を第二特徴として抽出する第二特徴抽出手段と、をさらに備え、
前記照合手段は、前記第一特徴と前記第二特徴との類似の度合いと、前記予測画像座標と前記観測画像座標との距離との重み付け加算に基づいて、前記ランドマークを対応付けることを特徴とする請求項1または請求項2に記載のカメラパラメータ推定装置。
The landmark association means includes
A first feature extracting means for extracting, as a first feature, an image feature in the vicinity region of the predicted image coordinates from the first image;
A second feature extraction means for extracting, from the second image, an image feature in the vicinity region of the observation image coordinates as a second feature;
The collating means associates the landmarks based on a weighted addition of a degree of similarity between the first feature and the second feature and a distance between the predicted image coordinate and the observed image coordinate. The camera parameter estimation apparatus according to claim 1 or 2.
前記パラメータ推定手段は、
前記位置推定手段で推定された三次元座標と前記ランドマーク対応付け手段での対応結果とに基づいて、前記観測画像座標に前記三次元座標を対応付ける座標対応付け手段と、
この座標対応付け手段で対応付けられた複数の観測画像座標の三次元座標に基づいて、前記推定カメラパラメータを算出するパラメータ算出手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載のカメラパラメータ推定装置。
The parameter estimation means includes
Based on the three-dimensional coordinates estimated by the position estimating means and the correspondence result by the landmark associating means, coordinate associating means for associating the three-dimensional coordinates with the observed image coordinates;
Parameter calculating means for calculating the estimated camera parameter based on the three-dimensional coordinates of the plurality of observed image coordinates associated by the coordinate associating means;
The camera parameter estimation apparatus according to any one of claims 1 to 3, further comprising:
カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するために、コンピュータを、
ランドマークの予め定めた画像特徴に基づいて、前記第一画像からランドマークの当該画像における座標を参照画像座標として抽出する第一ランドマーク抽出手段、
この第一ランドマーク抽出手段で抽出された参照画像座標を前記第一カメラのカメラパラメータである既知カメラパラメータにより逆投影変換することで前記ランドマークの三次元座標を推定する位置推定手段、
前記ランドマークの画像特徴に基づいて、前記第二画像から前記ランドマークの当該画像における座標を観測画像座標として抽出する第二ランドマーク抽出手段、
前記位置推定手段で推定された前記三次元座標を前記第二画像における二次元座標である予測画像座標に変換し、前記観測画像座標と照合することで、前記第一画像と前記第二画像との間で前記ランドマークの対応付けを行うランドマーク対応付け手段、
このランドマーク対応付け手段により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する前記三次元座標と前記観測画像座標とに基づいて、前記第二カメラのカメラパラメータである推定カメラパラメータを推定するパラメータ推定手段として機能させ、
前記ランドマーク対応付け手段は、
前記パラメータ算出手段で算出された時系列の推定カメラパラメータに基づいて現時点におけるカメラパラメータを予測カメラパラメータとして予測し、この予測カメラパラメータにより前記三次元座標を投影変換することで前記予測画像座標を算出し、さらに、前記予測画像座標と前記観測画像座標との各座標間の距離に基づいて前記ランドマークを対応付けることを特徴とするカメラパラメータ推定プログラム。
In order to estimate the camera parameters of the second camera based on the first image captured by the first camera whose camera parameters are known and the second image captured by the second camera whose camera parameters are unknown, Computer
First landmark extraction means for extracting, from the first image, a coordinate of the landmark in the image as a reference image coordinate based on a predetermined image feature of the landmark;
Position estimating means for estimating the three-dimensional coordinates of the landmarks by backprojecting the reference image coordinates extracted by the first landmark extracting means with known camera parameters that are camera parameters of the first camera;
Second landmark extraction means for extracting, from the second image, the coordinates of the landmark in the image as observation image coordinates based on the image characteristics of the landmark;
By converting the three-dimensional coordinates estimated by the position estimating means into predicted image coordinates that are two-dimensional coordinates in the second image, and collating with the observed image coordinates, the first image and the second image Landmark associating means for associating the landmarks between,
Based on the three-dimensional coordinates and the observed image coordinates corresponding to the landmark, the estimated camera parameter that is the camera parameter of the second camera is set in the same landmark correlated by the landmark correlation unit. Function as a parameter estimation means to estimate,
The landmark association means includes
Based on the time-series estimated camera parameters calculated by the parameter calculation means, the current camera parameters are predicted as predicted camera parameters, and the predicted image coordinates are calculated by projecting the three-dimensional coordinates using the predicted camera parameters. The camera parameter estimation program further associates the landmarks based on a distance between the predicted image coordinates and the observed image coordinates.
JP2007292751A 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program Expired - Fee Related JP4906683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007292751A JP4906683B2 (en) 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007292751A JP4906683B2 (en) 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program

Publications (2)

Publication Number Publication Date
JP2009121824A JP2009121824A (en) 2009-06-04
JP4906683B2 true JP4906683B2 (en) 2012-03-28

Family

ID=40814145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007292751A Expired - Fee Related JP4906683B2 (en) 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program

Country Status (1)

Country Link
JP (1) JP4906683B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227251B2 (en) * 2009-05-01 2013-07-03 日本放送協会 Camera calibration device and camera calibration program
JP6154759B2 (en) * 2014-02-07 2017-06-28 日本電信電話株式会社 Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program
JP6510213B2 (en) * 2014-02-18 2019-05-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Projection system, semiconductor integrated circuit, and image correction method
CN107808398B (en) 2016-09-08 2023-04-07 松下知识产权经营株式会社 Camera parameter calculation device, calculation method, program, and recording medium
CN107809610B (en) 2016-09-08 2021-06-11 松下知识产权经营株式会社 Camera parameter set calculation device, camera parameter set calculation method, and recording medium
JP7038346B2 (en) 2017-05-01 2022-03-18 パナソニックIpマネジメント株式会社 Camera parameter calculation method, camera parameter calculation program, and camera parameter calculation device
CN111380668B (en) * 2018-12-27 2022-10-11 浙江舜宇智能光学技术有限公司 Precision detection system and precision detection method of depth camera
NL2025452B1 (en) * 2020-04-29 2021-11-09 Navinfo Europe B V System and method for 3D positioning a landmark in images from the real world
JPWO2022186141A1 (en) * 2021-03-04 2022-09-09

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3316101B2 (en) * 1995-05-23 2002-08-19 ダイハツ工業株式会社 Travel lane detection device
JP3411889B2 (en) * 2000-06-27 2003-06-03 株式会社国際電気通信基礎技術研究所 Automatic camera calibration method
JP3822515B2 (en) * 2002-03-29 2006-09-20 株式会社東芝 Obstacle detection device and method
JP2006250722A (en) * 2005-03-10 2006-09-21 Toshiba Corp Device, method and program for calibration
JP4886661B2 (en) * 2007-11-12 2012-02-29 日本放送協会 Camera parameter estimation apparatus and camera parameter estimation program

Also Published As

Publication number Publication date
JP2009121824A (en) 2009-06-04

Similar Documents

Publication Publication Date Title
JP4906683B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
CN108717531B (en) Human body posture estimation method based on Faster R-CNN
KR101791590B1 (en) Object pose recognition apparatus and method using the same
EP2375376B1 (en) Method and arrangement for multi-camera calibration
JP5812599B2 (en) Information processing method and apparatus
KR101175097B1 (en) Panorama image generating method
CN105898107B (en) A kind of target object grasp shoot method and system
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
WO2016009811A1 (en) Method for calibrating one or more cameras
US8179448B2 (en) Auto depth field capturing system and method thereof
JP2008506953A5 (en)
CN108628306B (en) Robot walking obstacle detection method and device, computer equipment and storage medium
TWI587241B (en) Method, device and system for generating two - dimensional floor plan
JP7379065B2 (en) Information processing device, information processing method, and program
JP4283816B2 (en) Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method
JP2015171143A (en) Camera calibration method and apparatus using color-coded structure, and computer readable storage medium
KR101715781B1 (en) Object recognition system and method the same
JP6922348B2 (en) Information processing equipment, methods, and programs
JP4886661B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
WO2020015501A1 (en) Map construction method, apparatus, storage medium and electronic device
CN111047513B (en) Robust image alignment method and device for cylindrical panorama stitching
JP2006113832A (en) Stereoscopic image processor and program
Xu Consistent image alignment for video mosaicing
JP6304815B2 (en) Image processing apparatus and image feature detection method, program and apparatus thereof
JP2007109126A (en) Moving body distribution estimation device, moving body distribution estimation method, and moving body distribution estimation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees