JP2009124204A - Apparatus and program for estimating camera parameter - Google Patents

Apparatus and program for estimating camera parameter Download PDF

Info

Publication number
JP2009124204A
JP2009124204A JP2007292750A JP2007292750A JP2009124204A JP 2009124204 A JP2009124204 A JP 2009124204A JP 2007292750 A JP2007292750 A JP 2007292750A JP 2007292750 A JP2007292750 A JP 2007292750A JP 2009124204 A JP2009124204 A JP 2009124204A
Authority
JP
Japan
Prior art keywords
image
camera
landmark
coordinates
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007292750A
Other languages
Japanese (ja)
Other versions
JP4886661B2 (en
Inventor
Toshihiko Misu
俊彦 三須
Masato Fujii
真人 藤井
Nobuyuki Yagi
伸行 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2007292750A priority Critical patent/JP4886661B2/en
Publication of JP2009124204A publication Critical patent/JP2009124204A/en
Application granted granted Critical
Publication of JP4886661B2 publication Critical patent/JP4886661B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for estimating camera parameters capable of estimating the camera parameter while using an arbitrary stationary object or moving object as a landmark. <P>SOLUTION: The apparatus 1 for estimating the camera parameters includes: a first landmark extracting means 10 for extracting the coordinates of a landmark as coordinates of a reference image from a first image; a second landmark extracting means 11 for extracting the coordinates of a landmark as coordinates of an observation image from a second image; a landmark associating means 12 for associating the landmark on the basis of the similarity of image feature; a position estimating means 13 for estimating the three-dimensional coordinates of the landmark on the basis of a known camera parameter as a camera parameter of a first camera; and a parameter estimating means 14 for calculating a camera parameter of a second camera on the basis of the three-dimensional coordinates estimated by the position estimating means 13. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、被写体をカメラで撮像した際のカメラパラメータを推定するカメラパラメータ推定装置およびカメラパラメータ推定プログラムに関する。   The present invention relates to a camera parameter estimation device and a camera parameter estimation program for estimating camera parameters when a subject is imaged with a camera.

一般に、被写体をカメラで撮像した画像と他の画像とを合成する場合、カメラの撮像時における姿勢、位置、画角等のカメラパラメータを基準にして合成される。この場合、予めカメラ位置等が既知のカメラとして較正されたカメラパラメータを用いたり、カメラ位置等が未知のカメラで撮像した画像から推定したカメラパラメータを用いたりすることが一般的である。   In general, when an image obtained by capturing a subject with a camera and another image are combined, they are combined based on camera parameters such as the posture, position, and angle of view when the camera is picked up. In this case, it is common to use camera parameters calibrated in advance as cameras with known camera positions or the like, or use camera parameters estimated from images captured by cameras with unknown camera positions or the like.

なお、画像からカメラパラメータを推定する手法は種々存在する。例えば、三次元の相対位置関係が時間によって変化しない既知の複数の対象物(ランドマーク群)を用い、画像内の各対象物の座標(画像座標群)を観測することで、当該画像を撮像したカメラのカメラパラメータを推定する手法がある(特許文献1参照)。また、透視4点問題(P4P問題:Perspective Four−Point Problem)を解くことにより、ランドマーク群に対するカメラの相対位置や姿勢を推定する手法がある(非特許文献1参照)。また、例えば、長方形のマーカの時間的な軌跡からカメラの相対位置や姿勢を推定する手法がある(特許文献2参照)。   There are various methods for estimating camera parameters from an image. For example, by using a plurality of known objects (landmark groups) whose three-dimensional relative positional relationship does not change with time, the coordinates (image coordinate groups) of each object in the image are observed to capture the image. There is a method for estimating the camera parameters of the camera (see Patent Document 1). Further, there is a technique for estimating the relative position and orientation of a camera with respect to a landmark group by solving a perspective four-point problem (P4P problem: Perspective Four-Point Problem) (see Non-Patent Document 1). In addition, for example, there is a method for estimating the relative position and orientation of a camera from a temporal trajectory of a rectangular marker (see Patent Document 2).

また、三次元的な相対位置関係が時間によって変化しない、互いの相対位置関係が未知のランドマーク群を用い、当該ランドマーク群に対して相対的に移動するカメラでランドマーク群の画像座標群を複数時点にわたって観測することにより、ランドマーク群に対するカメラの相対位置や姿勢、ランドマーク間の相対位置関係を推定する手法がある(非特許文献2参照)。   Also, the image coordinate group of the landmark group using a landmark group in which the relative positional relation of the three-dimensional relative position relationship does not change with time and the relative positional relationship of each other is unknown, and moves relative to the landmark group. There is a method of estimating the relative position and posture of the camera with respect to the landmark group and the relative positional relationship between the landmarks by observing the image over a plurality of time points (see Non-Patent Document 2).

さらにまた、スポーツ競技場に引かれたライン等、その三次元形状が既知の線状のランドマーク群の画像をハフ変換や一般化ハフ変換により検出し、そのハフパラメータに基づいて、ランドマーク群に対するカメラの相対位置や姿勢を推定する手法がある(特許文献3参照)。
特開2006−33449号公報 特開2003−196663号公報 特開2004−234333号公報 H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana. Virtual Object Manipulation on a Table-Top AR Environment. In Proceedings of ISAR 2000, Oct 5th-6th, 2000. J. Weng, T. S. Huang, N. Ahuja. Motion and Structure from Two Perspective Views: Algorithms, Error Analysis, and Error Estimation, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 11, Issue 5, pp. 451-476, May 1989.
Furthermore, an image of a linear landmark group with a known three-dimensional shape, such as a line drawn on a sports stadium, is detected by Hough transform or generalized Hough transform, and the landmark group is determined based on the Hough parameter. There is a method for estimating the relative position and orientation of the camera with respect to (see Patent Document 3).
JP 2006-33449 A JP 2003-196663 A JP 2004-234333 A H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, K. Tachibana. Virtual Object Manipulation on a Table-Top AR Environment.In Proceedings of ISAR 2000, Oct 5th-6th, 2000. J. Weng, TS Huang, N. Ahuja.Motion and Structure from Two Perspective Views: Algorithms, Error Analysis, and Error Estimation, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 11, Issue 5, pp. 451-476, May 1989.

しかし、前記した特許文献1,2や非特許文献1に記載された手法では、ランドマーク群の配置が固定されるため、カメラの撮像範囲が狭い場合には有効であるが、広範囲なカメラの姿勢、位置、画角等に対してカメラパラメータを取得するためには、予め想定される撮影領域に一定個数以上のランドマークが含まれるように、数多くのランドマークを広範囲にわたって密に設置する必要がある。   However, the methods described in Patent Documents 1 and 2 and Non-Patent Document 1 described above are effective when the imaging range of the camera is narrow because the arrangement of landmark groups is fixed. In order to acquire camera parameters for posture, position, angle of view, etc., it is necessary to install a lot of landmarks over a wide area so that a predetermined number of landmarks are included in the presumed shooting area. There is.

また、非特許文献2に記載された手法では、カメラ(具体的には第一光学主点)がランドマーク群に対して移動しない限り、原理的にカメラパラメータを取得することができないという問題がある。また、その移動量が小さい場合、カメラの操作がない場合、カメラの操作がパン、チルトおよびズームまでに限定される場合等、カメラが十分な移動を伴わない場合には本手法を使用することができないという問題がある。   Further, the technique described in Non-Patent Document 2 has a problem that in principle, camera parameters cannot be acquired unless the camera (specifically, the first optical principal point) moves relative to the landmark group. is there. Also, use this method when the camera does not move sufficiently, such as when the amount of movement is small, when there is no camera operation, or when the camera operation is limited to pan, tilt, and zoom. There is a problem that can not be.

さらに、特許文献3に記載された手法では、特許文献1,2や非特許文献1に記載された手法と同様に、予め想定される撮影領域に一定個数以上のランドマークが含まれるようにする必要がある上、ランドマークの形状も既定の直線や曲線に限定されてしまう。   Furthermore, in the method described in Patent Document 3, as in the methods described in Patent Documents 1 and 2 and Non-Patent Document 1, a predetermined number or more of landmarks are included in a presumed shooting area. In addition, the shape of the landmark is limited to a predetermined straight line or curve.

本発明は、以上のような課題を解決するためになされたものであり、ランドマークの位置を固定することなく、任意の固定物体や移動物体をランドマークとしてカメラパラメータを推定することが可能なカメラパラメータ推定装置およびカメラパラメータ推定プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and it is possible to estimate camera parameters using an arbitrary fixed object or moving object as a landmark without fixing the position of the landmark. It is an object to provide a camera parameter estimation device and a camera parameter estimation program.

本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のカメラパラメータ推定装置は、カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するカメラパラメータ推定装置であって、第一ランドマーク抽出手段と、第二ランドマーク抽出手段と、ランドマーク対応付け手段と、位置推定手段と、パラメータ推定手段と、を備える構成とした。   The present invention was devised to achieve the above-mentioned object. First, the camera parameter estimation device according to claim 1 includes a first image captured by a first camera having a known camera parameter, a camera A camera parameter estimation device that estimates camera parameters of the second camera based on a second image captured by a second camera whose parameters are unknown, the first landmark extraction means, and a second landmark extraction Means, landmark association means, position estimation means, and parameter estimation means.

かかる構成において、カメラパラメータ推定装置は、第一ランドマーク抽出手段によって、ランドマークの画像特徴により、第一画像からランドマークの当該画像における座標を参照画像座標として抽出する。また、カメラパラメータ推定装置は、第二ランドマーク抽出手段によって、ランドマークの画像特徴により、第二画像からランドマークの当該画像における座標を観測画像座標として抽出する。このランドマークの画像特徴は、輝度、色、パターン等の予め定めた特徴とすることができる。なお、第一ランドマーク抽出手段と第二ランドマーク抽出手段とでは、ランドマークの座標の位置を抽出すればよいため、必ずしも同じ画像特徴を用いる必要はない。   In such a configuration, the camera parameter estimation device extracts the coordinates of the landmark in the image from the first image as the reference image coordinates based on the image characteristics of the landmark by the first landmark extraction unit. In the camera parameter estimation device, the second landmark extracting unit extracts the coordinates of the landmark in the image from the second image as the observed image coordinates based on the image characteristics of the landmark. The image features of the landmarks can be predetermined features such as brightness, color, pattern, and the like. Note that the first landmark extracting unit and the second landmark extracting unit need only extract the position of the coordinates of the landmarks, and therefore, it is not always necessary to use the same image feature.

そして、カメラパラメータ推定装置は、ランドマーク対応付け手段によって、第一画像上の参照画像座標に対応する画像特徴と、第二画像上の観測画像座標に対応する画像特徴との類似の度合いに基づいて、第一画像と第二画像との間でランドマークの対応付けを行う。これによって、ランドマークが複数抽出された場合に、第一画像上のランドマークと第二画像上のランドマークとが1対1に対応付けられることになる。   Then, the camera parameter estimation device is based on the degree of similarity between the image feature corresponding to the reference image coordinates on the first image and the image feature corresponding to the observed image coordinates on the second image by the landmark association unit. Thus, the landmark is associated between the first image and the second image. As a result, when a plurality of landmarks are extracted, the landmark on the first image and the landmark on the second image are associated one-to-one.

また、カメラパラメータ推定装置は、位置推定手段によって、第一カメラのカメラパラメータである既知カメラパラメータに基づいて、参照画像座標を予め定めた拘束条件で逆投影変換することで、ランドマークの三次元座標を推定する。例えば、位置推定手段は、ランドマークが地面に存在するという拘束条件を与えることで、二次元の座標から、三次元の座標を推定することができる。   Further, the camera parameter estimation device performs backprojection conversion of the reference image coordinates under a predetermined constraint condition based on the known camera parameter that is the camera parameter of the first camera by the position estimation unit, thereby obtaining a three-dimensional landmark. Estimate the coordinates. For example, the position estimation means can estimate a three-dimensional coordinate from a two-dimensional coordinate by giving a constraint condition that the landmark exists on the ground.

そして、カメラパラメータ推定装置は、パラメータ推定手段によって、ランドマーク対応付け手段により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する三次元座標と観測画像座標とに基づいて、第二カメラのカメラパラメータである推定カメラパラメータを推定する。なお、パラメータ推定手段における推定カメラパラメータの推定は、既知の透視n点問題の解法を適用することができる。   Then, the camera parameter estimation device uses the second camera based on the three-dimensional coordinates corresponding to the landmark and the observed image coordinates in the same landmark correlated by the landmark correlation unit by the parameter estimation unit. Estimated camera parameters that are camera parameters are estimated. It should be noted that a known solution of the perspective n-point problem can be applied to the estimation of the estimated camera parameter in the parameter estimation means.

また、請求項2に記載のカメラパラメータ推定装置は、請求項1に記載のカメラパラメータ推定装置において、ランドマーク対応付け手段が、第一特徴抽出手段と、第二特徴抽出手段と、照合手段と、を備える構成とした。   The camera parameter estimation device according to claim 2 is the camera parameter estimation device according to claim 1, wherein the landmark association unit includes a first feature extraction unit, a second feature extraction unit, and a collation unit. It was set as the structure provided with.

かかる構成において、カメラパラメータ推定装置は、ランドマーク対応付け手段において、第一特徴抽出手段によって、第一画像から、参照画像座標の近傍領域の画像特徴を第一特徴として抽出する。また、カメラパラメータ推定装置は、第二特徴抽出手段によって、第二画像から、観測画像座標の近傍領域の画像特徴を第二特徴として抽出する。これによって、画像特徴はある程度の誤差を許容した特徴量となる。そして、カメラパラメータ推定装置は、照合手段によって、第一特徴と第二特徴との類似の度合いに基づいてランドマークを対応付ける。   In such a configuration, the camera parameter estimation device extracts, from the first image, the image feature in the vicinity region of the reference image coordinates as the first feature by the first feature extraction unit in the landmark association unit. In addition, the camera parameter estimation device extracts, as the second feature, the image feature in the vicinity region of the observed image coordinates from the second image by the second feature extraction unit. As a result, the image feature becomes a feature amount allowing a certain amount of error. Then, the camera parameter estimation device associates the landmark with the matching unit based on the degree of similarity between the first feature and the second feature.

さらに、請求項3に記載のカメラパラメータ推定装置は、請求項1または請求項2に記載のカメラパラメータ推定装置において、パラメータ推定手段が、座標対応付け手段と、パラメータ算出手段と、を備える構成とした。   Furthermore, the camera parameter estimation device according to claim 3 is the camera parameter estimation device according to claim 1 or 2, wherein the parameter estimation means includes a coordinate association means and a parameter calculation means. did.

かかる構成において、カメラパラメータ推定装置は、パラメータ推定手段において、座標対応付け手段によって、位置推定手段で推定された三次元座標とランドマーク対応付け手段での対応結果とに基づいて、観測画像座標に三次元座標を対応付ける。これによって、第二カメラが撮像した第二画像から得られた二次元の観測画像座標が、実空間上の三次元座標に変換されることになる。   In such a configuration, the camera parameter estimation device uses the parameter estimation unit to calculate the observed image coordinates based on the three-dimensional coordinates estimated by the position estimation unit and the correspondence results by the landmark association unit. Map 3D coordinates. As a result, the two-dimensional observation image coordinates obtained from the second image captured by the second camera are converted into three-dimensional coordinates in the real space.

そして、カメラパラメータ推定装置は、パラメータ算出手段によって、複数の観測画像座標の三次元座標から推定カメラパラメータを算出する。このように、パラメータ算出手段は、座標対応付け手段で対応付けられた観測画像座標の三次元座標を逐次入力することで、透視n点問題を解決するための座標が入力された段階で、透視n点問題の解決手法により、推定カメラパラメータを算出する。   And a camera parameter estimation apparatus calculates an estimated camera parameter from the three-dimensional coordinate of several observation image coordinate by a parameter calculation means. In this way, the parameter calculation means sequentially inputs the three-dimensional coordinates of the observed image coordinates associated by the coordinate association means, and at the stage when the coordinates for solving the perspective n-point problem are input, Estimated camera parameters are calculated using a solution for the n-point problem.

また、請求項4に記載のカメラパラメータ推定プログラムは、カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するために、コンピュータを、第一ランドマーク抽出手段、第二ランドマーク抽出手段、ランドマーク対応付け手段、位置推定手段、パラメータ推定手段、として機能させる構成とした。   According to a fourth aspect of the present invention, there is provided a camera parameter estimation program based on a first image captured by a first camera whose camera parameters are known and a second image captured by a second camera whose camera parameters are unknown. The computer functions as first landmark extraction means, second landmark extraction means, landmark association means, position estimation means, parameter estimation means in order to estimate camera parameters of the second camera; did.

かかる構成において、カメラパラメータ推定プログラムは、第一ランドマーク抽出手段によって、ランドマークの画像特徴により、第一画像からランドマークの当該画像における座標を参照画像座標として抽出する。また、カメラパラメータ推定プログラムは、第二ランドマーク抽出手段によって、ランドマークの画像特徴により、第二画像からランドマークの当該画像における座標を観測画像座標として抽出する。   In such a configuration, the camera parameter estimation program extracts, from the first image, the coordinates of the landmark in the image as the reference image coordinates by the first landmark extraction means based on the image characteristics of the landmark. Further, the camera parameter estimation program extracts the coordinates of the landmark in the image from the second image as the observed image coordinates by the second landmark extraction unit based on the image characteristics of the landmark.

そして、カメラパラメータ推定プログラムは、ランドマーク対応付け手段によって、第一画像上の参照画像座標に対応する画像特徴と、第二画像上の観測画像座標に対応する画像特徴との類似の度合いに基づいて、第一画像と第二画像との間でランドマークの対応付けを行う。   The camera parameter estimation program is based on the degree of similarity between the image feature corresponding to the reference image coordinates on the first image and the image feature corresponding to the observed image coordinates on the second image by the landmark association unit. Thus, the landmark is associated between the first image and the second image.

また、カメラパラメータ推定プログラムは、位置推定手段によって、第一カメラのカメラパラメータである既知カメラパラメータに基づいて、参照画像座標を予め定めた拘束条件で逆投影変換することで、ランドマークの三次元座標を推定する。   Further, the camera parameter estimation program performs backprojection conversion of the reference image coordinates under a predetermined constraint condition based on the known camera parameter that is the camera parameter of the first camera by the position estimation unit, thereby obtaining a three-dimensional landmark. Estimate the coordinates.

そして、カメラパラメータ推定プログラムは、座標対応付け手段によって、位置推定手段で推定された三次元座標とランドマーク対応付け手段での対応結果とに基づいて、観測画像座標に三次元座標を対応付ける。そして、カメラパラメータ推定プログラムは、パラメータ算出手段によって、複数の観測画像座標の三次元座標から推定カメラパラメータを算出する。   Then, the camera parameter estimation program associates the three-dimensional coordinates with the observed image coordinates based on the three-dimensional coordinates estimated by the position estimation unit and the correspondence results by the landmark association unit by the coordinate association unit. Then, the camera parameter estimation program calculates estimated camera parameters from the three-dimensional coordinates of the plurality of observed image coordinates by the parameter calculation means.

請求項1,3,4に記載の発明によれば、カメラパラメータが既知のカメラで撮像した画像と、カメラパラメータが未知のカメラで撮像した画像とから、同一のランドマークを抽出し対応付けることができるため、ランドマークの位置を固定することなく、任意の固定物体や移動物体をランドマークとして未知のカメラパラメータを推定することができる。これによって、固有のランドマークを設置する必要がないため、撮像現場において、不要なマークを除去することができ、自然な映像を撮像することができる。また、請求項1,3,4に記載の発明によれば、カメラパラメータが既知のカメラと未知のカメラとで、それぞれの撮像画像内に少なくともランドマークを1個以上含んでいれば、逐次撮像される画像から、複数のランドマークの位置を検出することができ、未知のカメラパラメータを推定することができる。これによって、カメラパラメータを推定する際のランドマークの数を減らすことができる。   According to the first, third, and fourth aspects, it is possible to extract and associate the same landmark from an image captured by a camera with a known camera parameter and an image captured by a camera with an unknown camera parameter. Therefore, it is possible to estimate an unknown camera parameter using any fixed object or moving object as a landmark without fixing the position of the landmark. Thereby, since it is not necessary to install a unique landmark, unnecessary marks can be removed at the imaging site, and natural images can be captured. Further, according to the first, third, and fourth aspects of the invention, a camera with known camera parameters and an unknown camera can sequentially capture images if each captured image includes at least one landmark. The positions of a plurality of landmarks can be detected from the captured image, and unknown camera parameters can be estimated. Thus, the number of landmarks when estimating camera parameters can be reduced.

請求項2に記載の発明によれば、第一画像における参照画像座標の画像特徴と、第二画像における観測画像座標の画像特徴とを、それぞれ座標位置の近傍領域の画像特徴とするため、誤差を吸収し、第一画像と第二画像とにおいてランドマークを精度よく対応付けることができる。これによって、未知のカメラパラメータの推定精度を高めることができる。   According to the second aspect of the present invention, since the image feature of the reference image coordinates in the first image and the image feature of the observed image coordinates in the second image are respectively image features in the vicinity region of the coordinate position, And the landmarks can be associated with each other with high accuracy in the first image and the second image. Thereby, the estimation accuracy of the unknown camera parameter can be improved.

以下、本発明の実施形態について図面を参照して説明する。
[本発明の概要]
最初に、図1を参照して、本発明の概要について説明する。図1は、本発明の概要を説明するための説明図である。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of the present invention]
First, the outline of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining the outline of the present invention.

カメラパラメータ推定装置1は、カメラパラメータが既知であるカメラ(第一カメラ)C1が撮像した画像(第一画像)と、カメラパラメータが未知であるカメラ(第二カメラ)C2が撮像した画像(第二画像)とに基づいて、カメラC2のカメラパラメータを推定するものである。   The camera parameter estimation device 1 includes an image (first image) captured by a camera (first camera) C1 with known camera parameters and an image (first image) captured by a camera (second camera) C2 with unknown camera parameters. The camera parameters of the camera C2 are estimated based on the two images.

ここでは、カメラパラメータ推定装置1は、カメラC1が撮像した画像と、カメラC1が撮像した画像とから、複数の動物体や静止物体をランドマークM(図1では、選手)として抽出する。なお、ランドマークは、画像上において他の局所領域から区別可能な濃淡または色の変化を有する領域である。   Here, the camera parameter estimation device 1 extracts a plurality of moving objects and stationary objects as landmarks M (players in FIG. 1) from an image captured by the camera C1 and an image captured by the camera C1. The landmark is an area having a shading or color change that can be distinguished from other local areas on the image.

そして、カメラパラメータ推定装置1は、カメラC1で捉えたランドマークMとカメラC1の既知のカメラパラメータとに基づいて、ランドマークMの実空間上における座標(三次元座標)を算出し、カメラC2で捉えたランドマークMの画像座標との対応付けを行うことで、カメラC2のカメラパラメータを推定する。   Then, the camera parameter estimation device 1 calculates coordinates (three-dimensional coordinates) in the real space of the landmark M based on the landmark M captured by the camera C1 and the known camera parameters of the camera C1, and the camera C2 The camera parameters of the camera C2 are estimated by associating with the image coordinates of the landmark M captured in step S2.

なお、図1では、カメラC1,C2をサッカー競技場に設置し、選手をランドマークとした例を示しているが、ランドマークMの一部がカメラC1,C2で同時に観測可能であれば、設置場所に限定されるものではない。   FIG. 1 shows an example in which the cameras C1 and C2 are installed in the soccer field and the player is a landmark. However, if a part of the landmark M can be observed simultaneously by the cameras C1 and C2, It is not limited to the installation location.

[カメラパラメータについて]
次に、本発明の実施形態に係るカメラパラメータ推定装置におけるカメラパラメータについて説明する。
[About camera parameters]
Next, camera parameters in the camera parameter estimation apparatus according to the embodiment of the present invention will be described.

カメラパラメータとは、カメラの設置位置と設置姿勢とで決まる外部パラメータ、並びに、レンズの焦点距離および歪と、撮像素子の形状、画素サイズおよび画素数と、レンズおよび撮像素子の相対位置関係とを含む内部パラメータの両者を包含する指標である。なお、本実施形態においては、カメラパラメータとして、カメラの設置位置および設置姿勢、並びに、レンズの焦点距離を用いることとする。このカメラの設置位置および設置姿勢は、実空間上に固定して定義した任意の座標系(以下、ワールド座標系という)を基準として定義することができる。   The camera parameters are external parameters determined by the installation position and installation posture of the camera, the focal length and distortion of the lens, the shape of the image sensor, the pixel size and the number of pixels, and the relative positional relationship between the lens and the image sensor. It is an index that includes both internal parameters. In the present embodiment, the camera installation position and installation posture, and the lens focal length are used as the camera parameters. The installation position and installation posture of the camera can be defined with reference to an arbitrary coordinate system (hereinafter referred to as a world coordinate system) fixedly defined in the real space.

このワールド座標系は、カメラC1,C2(図1参照)が設置された空間の代表的な任意の点を原点とし、また、代表的かつ独立な3方向を軸方向とする。例えば、カメラC1,C2を図1に示したようなサッカー競技場に設置する場合、サッカーコートのセンターマークの位置をワールド座標系の原点とし、タッチライン方向(x軸)、ハーフウェイライン方向(y軸)および鉛直上方向(z軸)をワールド座標系の3軸とする。また、例えば、カメラC1,C2をスタジオ等の室内に設置する場合には、その室内の床の中心をワールド座標系の原点とし、水平東方向、水平北方向および鉛直上方向をワールド座標系の3軸とする。   In this world coordinate system, a representative arbitrary point in a space where the cameras C1 and C2 (see FIG. 1) are installed is set as an origin, and three representative and independent directions are set as axial directions. For example, when the cameras C1 and C2 are installed in a soccer stadium as shown in FIG. 1, the position of the center mark of the soccer court is the origin of the world coordinate system, the touch line direction (x axis), the half way line direction ( The y-axis) and the vertically upward direction (z-axis) are the three axes of the world coordinate system. For example, when the cameras C1 and C2 are installed in a room such as a studio, the center of the floor in the room is set as the origin of the world coordinate system, and the horizontal east direction, the horizontal north direction, and the vertical upward direction are set in the world coordinate system. Three axes are assumed.

そして、カメラの設置姿勢は、カメラに固定されたカメラ座標系と、前記したワールド座標系との間の姿勢変換により表現することができる。例えば、カメラの設置姿勢は、以下の(1)式に示すように、実空間上のある方向ベクトルをワールド座標系から見たときのベクトルv(w)をカメラ座標系で見たときのベクトルv(c)に変換する3行3列の回転行列Rにより表現することができる。 The camera installation posture can be expressed by posture conversion between a camera coordinate system fixed to the camera and the above-described world coordinate system. For example, as shown in the following equation (1), the installation posture of the camera is a vector when a vector v (w) when a certain direction vector in real space is viewed from the world coordinate system is viewed in the camera coordinate system. v (c) can be expressed by a 3 × 3 rotation matrix R to be converted.

Figure 2009124204
Figure 2009124204

また、カメラの設置位置は、カメラ座標系の原点位置をワールド座標系で見たときの位置ベクトルとして定義することができる。例えば、カメラの設置位置は、前記した回転行列Rと、カメラの設置位置の位置ベクトルtとを用いることで、以下の(2)式に示すように、ワールド座標系における位置ベクトルp(w)をカメラ座標系における位置ベクトルq(c)に変換することができる。なお、位置ベクトルの各成分の単位は任意であるが、例えばメートルを単位とすることができる。 The camera installation position can be defined as a position vector when the origin position of the camera coordinate system is viewed in the world coordinate system. For example, the installation position of the camera uses the rotation matrix R and the position vector t of the installation position of the camera, so that the position vector p (w) in the world coordinate system as shown in the following equation (2 ). Can be converted into a position vector q (c) in the camera coordinate system. In addition, although the unit of each component of a position vector is arbitrary, it can be made into a unit, for example.

Figure 2009124204
Figure 2009124204

前記した(1)式および(2)式で用いたカメラ座標系は、例えば、カメラのレンズの第一光学主点を原点とし、カメラの画像平面上の独立な2方向に2軸をとり、光軸方向に残りの1軸をとることができる。また、カメラの画像平面上の独立な2方向は、例えば、カメラの撮像素子の水平方向と垂直方向とにより定義することができる。
以下、本発明の実施形態に係るカメラパラメータ推定装置の構成および動作について詳細に説明を行う。
The camera coordinate system used in the above-described equations (1) and (2) has, for example, the first optical principal point of the camera lens as the origin and two axes in two independent directions on the camera image plane. The remaining one axis can be taken in the optical axis direction. The two independent directions on the image plane of the camera can be defined by, for example, the horizontal direction and the vertical direction of the camera image sensor.
Hereinafter, the configuration and operation of the camera parameter estimation apparatus according to the embodiment of the present invention will be described in detail.

[カメラパラメータ推定装置の構成]
まず、図2を参照して、本発明の実施形態に係るカメラパラメータ推定装置の構成について説明する。図2は、本発明の実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。
[Configuration of Camera Parameter Estimation Device]
First, the configuration of the camera parameter estimation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration of the camera parameter estimation apparatus according to the embodiment of the present invention.

ここでは、カメラパラメータ推定装置1は、第一ランドマーク抽出手段10と、第二ランドマーク抽出手段11と、ランドマーク対応付け手段12と、位置推定手段13と、パラメータ推定手段14とを備える。そして、カメラパラメータ推定装置1は、カメラC1とカメラC2とを外部に接続している。   Here, the camera parameter estimation device 1 includes a first landmark extraction unit 10, a second landmark extraction unit 11, a landmark association unit 12, a position estimation unit 13, and a parameter estimation unit 14. The camera parameter estimation device 1 connects the camera C1 and the camera C2 to the outside.

カメラC1は、カメラパラメータが既知のカメラである。また、カメラC2は、カメラパラメータが未知のカメラである。カメラC1で撮像された画像(第一画像)と、カメラC2で撮像された画像(第二画像)とが、カメラパラメータ推定装置1に入力される。   The camera C1 is a camera whose camera parameters are known. The camera C2 is a camera whose camera parameters are unknown. An image captured by the camera C1 (first image) and an image captured by the camera C2 (second image) are input to the camera parameter estimation device 1.

ここで、第一画像および第二画像の画像座標系は、画像面上における二次元の座標系を用い、ここでは、カメラ座標系を構成する3軸のうち、画像平面上にとった2軸をもって画像座標系とする。また、以下の説明において、カメラC1で撮像された第一画像をI、第一画像Iの画像座標rにおける画素値をI(r)と表記することとする。また、カメラC2で撮像された第二画像をJ、第二画像Jの画像座標oにおける画素値をJ(o)と表記することとする。   Here, the image coordinate system of the first image and the second image uses a two-dimensional coordinate system on the image plane, and here, two axes taken on the image plane among the three axes constituting the camera coordinate system. Is the image coordinate system. In the following description, the first image captured by the camera C1 is denoted by I, and the pixel value at the image coordinate r of the first image I is denoted by I (r). In addition, the second image captured by the camera C2 is denoted as J, and the pixel value at the image coordinate o of the second image J is denoted as J (o).

なお、カメラC1,C2がモノクロカメラの場合、画素値は、例えば、2値以上(例えば256値)の離散スカラ値で表すことができる。また、カメラC1,C2がカラーカメラや多バンドカメラの場合、画素値は、例えば、二次元以上(例えば赤、緑、青の三次元)、かつ、各次元2値以上(例えば256値)の離散ベクトル値で表すことができる。また、カメラC1,C2がカラーカメラや多バンドカメラの場合、カラーテーブル(色変換テーブル:離散的なインデックス値と画素の色とを関連付ける表)を用いることにより、画素値を2値以上(例えば65536値)の離散スカラ値のカラーインデックスで表しても構わない。   Note that when the cameras C1 and C2 are monochrome cameras, the pixel values can be represented by, for example, discrete scalar values of two or more values (for example, 256 values). When the cameras C1 and C2 are color cameras or multi-band cameras, the pixel values are, for example, two or more dimensions (for example, three dimensions of red, green, and blue) and two or more dimensions (for example, 256 values). It can be represented by a discrete vector value. In addition, when the cameras C1 and C2 are color cameras or multiband cameras, a color table (color conversion table: a table associating discrete index values with pixel colors) is used, so that the pixel values are two or more (for example, 65536 values) may be represented by a color index of discrete scalar values.

また、カメラC1とカメラC2とは、ランドマークを対応付けるため、少なくとも1個以上のランドマークを共通に撮像する必要がある。例えば、図1に示したサッカー競技場で使用する場合、カメラC1がサッカーフィールド全体を撮像し、カメラC2がサッカーフィールド内のランドマークを含んだ一部を撮像することとすることで、少なくとも1個以上のランドマークを共通に撮像することができる。   In addition, since the camera C1 and the camera C2 associate landmarks, it is necessary to capture at least one landmark in common. For example, when used in the soccer stadium shown in FIG. 1, the camera C1 captures the entire soccer field, and the camera C2 captures a part including the landmark in the soccer field. More than one landmark can be imaged in common.

第一ランドマーク抽出手段10は、ランドマークの予め定めた画像特徴に基づいて、カメラパラメータが既知であるカメラC1が撮像した第一画像から、複数のランドマークの当該画像における座標(以下、参照画像座標という)を抽出するものである。第一ランドマーク抽出手段10は、抽出した参照画像座標に識別子(第一識別子)を付してランドマーク対応付け手段12および位置推定手段13に出力する。また、第一ランドマーク抽出手段10で抽出されたランドマークの個数をM個とし、そのm番目(m=1,2,…,M)のランドマークの参照画像座標をrとする。また、前記mを第一識別子として使用する。 The first landmark extracting means 10 determines the coordinates of a plurality of landmarks in the image (hereinafter referred to as reference) from the first image captured by the camera C1 whose camera parameters are known based on the predetermined image characteristics of the landmark. (Referred to as image coordinates). The first landmark extraction means 10 attaches an identifier (first identifier) to the extracted reference image coordinates and outputs the identifier to the landmark association means 12 and the position estimation means 13. Further, the number of landmarks that have been extracted by the first landmark extracting unit 10 and the M, its m-th (m = 1, 2, ..., M) the reference image coordinates of landmarks and r m. The m is used as a first identifier.

なお、第一ランドマーク抽出手段10は、例えば、画像上の局所領域における方向分散の最小値を画像特徴とし、当該画像特徴が極大になる点を選択するMoravecのインスタントオペレータを用いることでランドマークを抽出することができる。また、特定の色で塗装された物体、同心円パターンを有する円盤等のマーカを被写界に人為的に設置する場合、第一ランドマーク抽出手段10は、特定の色やパターンを検出するオペレータを画像に適用し、検出された点あるいは検出領域の代表点(例えば重心)を、ランドマークとして抽出することとしてもよい。   Note that the first landmark extraction unit 10 uses, for example, a Moravec instant operator that uses a minimum value of directional dispersion in a local region on an image as an image feature and selects a point at which the image feature is maximized. Can be extracted. Further, when a marker such as an object painted in a specific color or a disk having a concentric circular pattern is artificially installed in the object scene, the first landmark extraction means 10 selects an operator for detecting a specific color or pattern. It may be applied to an image and a detected point or a representative point (for example, the center of gravity) of a detection area may be extracted as a landmark.

さらに、第一ランドマーク抽出手段10は、動物、人物(あるいは人物の顔)等の移動物体をランドマークとして抽出することとしてもよい。例えば、人物の顔をランドマークとする場合、第一ランドマーク抽出手段10は、一般的な顔検出器(例えば、P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proc. of IEEE Conference on Computer Vision and Pattern Recognition, Kauai, HI, December 2001.)を用い、検出された顔領域の代表点をランドマークとすることができる。   Further, the first landmark extracting means 10 may extract a moving object such as an animal or a person (or a person's face) as a landmark. For example, when a person's face is used as a landmark, the first landmark extracting means 10 uses a general face detector (for example, P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proc. Of IEEE Conference on Computer Vision and Pattern Recognition, Kauai, HI, December 2001.), representative points of detected face regions can be used as landmarks.

第二ランドマーク抽出手段11は、ランドマークの予め定めた画像特徴に基づいて、カメラパラメータが未知であるカメラC2が撮像した第二画像から、複数のランドマークの当該画像における座標(以下、観測画像座標という)を抽出するものである。第二ランドマーク抽出手段11は、抽出した観測画像座標に識別子(第二識別子)を付してランドマーク対応付け手段12およびパラメータ推定手段14に出力する。また、第二ランドマーク抽出手段11で抽出されたランドマークの個数をN個とし、そのn番目(n=1,2,…,N)のランドマークの観測画像座標をoとする。また、前記nを第二識別子として使用する。 The second landmark extracting means 11 is configured to determine the coordinates (hereinafter referred to as observation) of a plurality of landmarks from the second image captured by the camera C2 whose camera parameters are unknown based on predetermined image characteristics of the landmarks. (Referred to as image coordinates). The second landmark extraction unit 11 attaches an identifier (second identifier) to the extracted observation image coordinates and outputs the identifier to the landmark association unit 12 and the parameter estimation unit 14. Further, the number of landmarks that have been extracted by the second landmark extracting unit 11 and the N to the n-th (n = 1, 2, ..., N) the observed image coordinates of the landmarks in the o n. The n is used as a second identifier.

なお、第二ランドマーク抽出手段11におけるランドマークの抽出処理は、第一ランドマーク抽出手段10と同じ処理であってもよいし、異なる処理であってもよい。例えば、人為的なパターンである赤い円盤をランドマークとして使用した場合、第一ランドマーク抽出手段10では、赤い円盤の形状である円形パターンに着目してランドマークを抽出し、第二ランドマーク抽出手段11では、赤い円盤の色である赤色に着目してランドマークを抽出することとしてもよい。   The landmark extraction process in the second landmark extraction unit 11 may be the same process as the first landmark extraction unit 10 or a different process. For example, when a red disk that is an artificial pattern is used as a landmark, the first landmark extraction unit 10 extracts a landmark by focusing on a circular pattern that is the shape of a red disk, and extracts a second landmark. The means 11 may extract landmarks by paying attention to the red color of the red disk.

ランドマーク対応付け手段12は、参照画像座標に対応する第一画像の画像特徴と、観測画像座標に対応する第二画像の画像特徴との類似の度合いに基づいて、第一画像と第二画像との間でランドマークの対応付けを行うものである。このランドマーク対応付け手段12は、実空間上の同一の点(場所)に対応する、あるいは、一定の誤差を許して対応する参照画像座標rと観測画像座標oとの組をすべて求め、第一識別子mと第二識別子nとの組をすべて出力することで、ランドマークの対応付けを行うこととする。ここでは、ランドマーク対応付け手段12は、第一特徴抽出手段121と、第二特徴抽出手段122と、照合手段123とを備える。 The landmark associating unit 12 determines whether the first image and the second image are based on the degree of similarity between the image feature of the first image corresponding to the reference image coordinates and the image feature of the second image corresponding to the observation image coordinates. Are associated with landmarks. The landmark correlation means 12 corresponds to the same point on the real space (location), or obtains all the set of the reference image coordinates r m corresponding allowing certain errors the observed image coordinates o n The landmarks are associated by outputting all pairs of the first identifier m and the second identifier n. Here, the landmark association unit 12 includes a first feature extraction unit 121, a second feature extraction unit 122, and a collation unit 123.

第一特徴抽出手段121は、第一画像Iから第一ランドマーク抽出手段10で抽出された参照画像座標群{r}に対応するそれぞれの画像特徴を第一特徴群{F}として抽出するものである。ここで、第一特徴Fは、第一画像Iの第一識別子mに対応する参照画像座標r(または参照画像座標rの近傍領域)における画像特徴である。
この第一特徴Fは、例えば、以下の(3)式に示すように、参照画像座標rにおける画素値I(r)を用いることができる。
The first feature extraction unit 121 extracts each image feature corresponding to the reference image coordinate group {r m } extracted from the first image I by the first landmark extraction unit 10 as a first feature group {F m }. To do. Here, the first feature F m is an image feature in the reference image coordinate r m (or a region near the reference image coordinate r m ) corresponding to the first identifier m of the first image I.
As the first feature F m , for example, a pixel value I (r m ) at the reference image coordinate r m can be used as shown in the following equation (3).

Figure 2009124204
Figure 2009124204

このとき第一特徴Fは、第一画像Iがモノクロ画像のとき、または、カラーインデックスで表されるときはスカラ値となり、第一画像Iがカラー画像等の多バンド画像で、色がベクトル値として表されるときはベクトル値となる。
また、第一特徴Fは、例えば、参照画像座標rの近傍領域の画素値群を用いることとしてもよい。この場合、例えば、以下の(4)式に示すように、参照画像座標rおよびその4近傍の画素の合計5画素をもって第一特徴Fとする。
At this time, the first feature F m is a scalar value when the first image I is a monochrome image or represented by a color index, the first image I is a multiband image such as a color image, and the color is a vector. When expressed as a value, it is a vector value.
The first feature F m, for example, a pixel value group of the neighboring region of the reference image coordinate r m may be used. In this case, for example, as shown in the following equation (4), with the reference image coordinate r m and a total of five pixels in the four neighboring pixels to the first feature F m.

Figure 2009124204
Figure 2009124204

ここで、Δxはある画素の中心からその1画素右隣の画素の中心に至るベクトルであり、Δyはある画素中心からその1画素下隣の画素中心に至るベクトルである。なお、近傍の範囲を拡げて、画素値パターンのテンプレートとして第一特徴Fを構成してもよい。
また、第一特徴Fは、例えば、以下の(5)式に示すように、参照画像座標rの近傍の色ヒストグラムh(c)を用いることとしてもよい。ここで、cは画素値(すなわち色)を表す。このとき、第一特徴Fは、色cに関するテーブルとなる。
Here, Δx is a vector from the center of a certain pixel to the center of the pixel immediately adjacent to that one pixel, and Δy is a vector from the center of a certain pixel to the center of the next pixel below that one pixel. Incidentally, by expanding the range near, it may constitute a first feature F m as a template pixel value pattern.
The first feature F m may be, for example, it is used the following (5) As shown in equation, the reference image coordinate r color histogram in the vicinity of the m h m (c). Here, c represents a pixel value (that is, color). At this time, the first feature F m is a table relating to the color c.

Figure 2009124204
Figure 2009124204

この場合、第一特徴抽出手段121は、まず、参照画像座標rを中心として既定の半径の円形領域(その他、楕円領域、矩形領域等の既定の形状領域)内に存在する画素位置の集合Dを設定する。続いて、第一特徴抽出手段121は、画像座標r∈Dを満たすすべての画像座標rに関して、画素値I(r)の色ヒストグラムh(c)を求める((6)式参照)。なお、この(6)式において、|X|は、有限集合Xの元の数を表す。 This set of case, the first feature extraction means 121, first, the reference image coordinate r m default radius of the circular area around the pixel positions that exist (Other, oval area, the default shape regions such as the rectangular region) Set Dm . Subsequently, the first feature extraction unit 121 obtains a color histogram h m (c) of the pixel value I (r) with respect to all the image coordinates r satisfying the image coordinates rεD m (see the equation (6)). In this equation (6), | X | represents the original number of the finite set X.

Figure 2009124204
Figure 2009124204

第二特徴抽出手段122は、第二画像Jから第二ランドマーク抽出手段11で抽出された観測画像座標群{o}に対応するそれぞれの画像特徴を第二特徴群{G}として抽出するものである。なお、第二特徴は、第一特徴抽出手段121が第一特徴を抽出した手法と同一の手法により抽出することとする。 Second feature extraction means 122, extracts the respective image feature from the second image J corresponding to the second landmark extracting unit 11 extracts the observed image coordinate group {o n} as the second feature groups {G n} To do. The second feature is extracted by the same method as the method by which the first feature extraction unit 121 extracts the first feature.

例えば、第一特徴抽出手段121が前記(3)式によって第一特徴を抽出する場合、第二特徴抽出手段122は、第二特徴Gとして、以下の(7)式に示すように、観測画像座標oにおける画素値J(o)を用いる。 For example, when the first feature extraction unit 121 extracts the first feature according to the equation (3), the second feature extraction unit 122 observes the second feature G n as shown in the following equation (7). using the pixel value J (o n) in the image coordinate o n.

Figure 2009124204
Figure 2009124204

また、第一特徴抽出手段121が前記(4)式によって第一特徴を抽出する場合、第二特徴抽出手段122は、以下の(8)式に示すように、観測画像座標oおよびその4近傍の画素の合計5画素をもって第二特徴Gとする。 Also, if the first feature extraction means 121 for extracting the first feature by the equation (4), the second feature extraction means 122, as shown in the following equation (8), the observed image coordinates o n and 4 A total of five pixels in the vicinity is set as the second feature Gn .

Figure 2009124204
Figure 2009124204

また、第一特徴抽出手段121が前記(5)式によって第一特徴を抽出する場合、第二特徴抽出手段122は、第二特徴Gとして、以下の(9)式に示すように、観測画像座標oの近傍の色ヒストグラムg(c)を用いる。ここで、cは画素値(すなわち色)を表す。このとき、第二特徴Gは、色cに関するテーブルとなる。 Further, when the first feature extraction unit 121 extracts the first feature according to the equation (5), the second feature extraction unit 122 uses the observation as the second feature G n as shown in the following equation (9). using g n (c) a color histogram in the vicinity of the image coordinates o n. Here, c represents a pixel value (that is, color). At this time, the second feature G n is a table relating to the color c.

Figure 2009124204
Figure 2009124204

この場合、第二特徴抽出手段122は、まず、観測画像座標oを中心として既定の半径の円形領域(その他、楕円領域、矩形領域等の既定の形状領域)内に存在する画素位置の集合Eを設定する。続いて、第二特徴抽出手段122は、画像座標o∈Eを満たすすべての画像座標oに関して、画素値J(o)の色ヒストグラムg(c)を求める((10)式参照)。 This set of case, the second feature extraction unit 122 first observed image coordinates o n default radius of the circular area around the pixel positions that exist (Other, oval area, the default shape regions such as the rectangular region) setting the E n. Subsequently, the second feature extraction unit 122 obtains a color histogram g n (c) of the pixel value J (o) with respect to all the image coordinates o satisfying the image coordinates oεE n (see formula (10)).

Figure 2009124204
Figure 2009124204

照合手段123は、第一特徴抽出手段121で抽出された第一特徴と、第二特徴抽出手段122で抽出された第二特徴との類似の度合いに基づいてランドマークを対応付けるものである。ここでは、照合手段123は、画像特徴の距離(非類似性)に基づいて、第一特徴に最も近接(類似)する第二特徴を探索し、対応する第一識別子と第二識別子との対を対応結果としてパラメータ推定手段14に出力する。   The matching unit 123 associates landmarks based on the degree of similarity between the first feature extracted by the first feature extraction unit 121 and the second feature extracted by the second feature extraction unit 122. Here, the matching unit 123 searches for the second feature that is closest (similar) to the first feature based on the distance (dissimilarity) of the image feature, and sets the pair of the corresponding first identifier and second identifier. Is output to the parameter estimation means 14 as a correspondence result.

すなわち、照合手段123は、第一識別子mの第一特徴Fと第二識別子nの第二特徴Gとの特徴間の距離d(m,n)を求め((11)式参照)、各第一識別子mの第一特徴Fに最も近接している第二特徴Gを探索し、第二特徴Gに対応する第二識別子nを、第一識別子mに対応する第二識別子nとして求める((12)式参照)。 That is, the matching means 123 calculates the distance d between the features of the second feature G n of the first feature F m and the second identifier n of the first identifier m (m, n) (( 11) see formula), searching a second characteristic G n that is closest to the first feature F m of the first identifier m, the second identifier n corresponding to the second feature G n, a second identifier corresponding to the first identifier m n m (see equation (12)).

Figure 2009124204
Figure 2009124204

Figure 2009124204
Figure 2009124204

そして、照合手段123は、対応する第一識別子mと第二識別子nとの対である(1,n),(2,n),…,(M,n)を対応結果としてパラメータ推定手段14に出力する。ただし、第一識別子mと第二識別子nとの特徴間の距離d(m,n)がある閾値以上のとき(あるいはある閾値を超えたとき)には、対応する第一識別子mと第二識別子nとの対である(m,n)を出力しないこととしてもよい。これによって、ランドマークの対応付けの精度を高めることができる。
なお、前記(11)式で示した‖G−F‖は、第一特徴Fと第二特徴Gとの距離を表す。例えば、第一特徴Fと第二特徴Gとがともにスカラ値の場合、照合手段123は、距離の絶対値演算で距離dを求めることができる。
Then, the matching unit 123 uses (1, n 1 ), (2, n 2 ),..., (M, n M ), which is a pair of the corresponding first identifier m and second identifier nm , as the correspondence result. It outputs to the parameter estimation means 14. However, the distance d (m, n m) between the features of the first identifier m and the second identifier n m when not less than the threshold value in the (or when exceeding a certain threshold), a first identifier m the corresponding a pair of the second identifier n m (m, n m) may be not output. As a result, the accuracy of landmark association can be increased.
Note that ‖G n −F mで shown in the equation (11) represents the distance between the first feature F m and the second feature G n . For example, when both the first feature F m and the second feature G n are scalar values, the matching unit 123 can obtain the distance d by calculating the absolute value of the distance.

また、第一特徴Fと第二特徴Gとがともにベクトル値(例えば、複数画素の画素値、カラー画像の画素値等)の場合、照合手段123は、距離dとして、ユークリッド距離、マンハッタン距離等を用いることができる。また、第一特徴Fと第二特徴Gとがともにヒストグラム(例えば、色ヒストグラム等)の場合、照合手段123は、距離dとして、Bhattacharyya距離を用いることができる。 When both the first feature F m and the second feature G n are vector values (for example, pixel values of a plurality of pixels, pixel values of a color image, etc.), the matching unit 123 uses the Euclidean distance, Manhattan as the distance d. Distance or the like can be used. When both the first feature F m and the second feature G n are histograms (for example, a color histogram), the matching unit 123 can use the Bhattacharyya distance as the distance d.

位置推定手段13は、第一ランドマーク抽出手段10で抽出された参照画像座標をカメラC1のカメラパラメータである既知カメラパラメータにより逆投影変換することで、ランドマークの実座標(三次元座標)を推定するものである。また、位置推定手段13は、第一識別子mのランドマークの実座標pを第一識別子の数だけ(m,p)の対のデータとして求め、パラメータ推定手段14に出力する。なお、位置推定手段13は、既知カメラパラメータをカメラC1から逐次入力することとしてもよいし、カメラC1が固定カメラである場合は、予め図示を省略した記憶手段に既知カメラパラメータを記憶しておき、読み出すこととしてもよい。 The position estimation unit 13 performs backprojection conversion on the reference image coordinates extracted by the first landmark extraction unit 10 using known camera parameters that are camera parameters of the camera C1, thereby changing the actual coordinates (three-dimensional coordinates) of the landmarks. To be estimated. The position estimating means 13, the actual coordinates p m Landmarks first identifier m the number of the first identifier (m, p m) determined as the data pairs, and outputs to the parameter estimation unit 14. The position estimation unit 13 may sequentially input known camera parameters from the camera C1. When the camera C1 is a fixed camera, the position estimation unit 13 stores the known camera parameters in a storage unit (not shown) in advance. It is good also as reading.

なお、参照画像座標rは二次元座標であるのに対し、ランドマークの実座標pは三次元座標である。このため、位置推定手段13が逆投影を行うには、ランドマークが存在する実座標への面的な拘束条件が必要となる。例えば、ランドマークが床、地面等の平面上にあるといった拘束条件を与えることで、位置推定手段13は、参照画像座標を実座標に逆投影することができる。 Note that the reference image coordinate r m whereas the two-dimensional coordinates, the actual coordinate p m landmarks is a three-dimensional coordinates. For this reason, in order for the position estimation means 13 to perform the back projection, a planar constraint condition on the actual coordinates where the landmark exists is necessary. For example, by giving a constraint condition that the landmark is on a plane such as a floor or the ground, the position estimating unit 13 can back-project the reference image coordinates to the real coordinates.

ここで、図3を参照して、位置推定手段13における参照画像座標を実座標に逆投影する手法について詳細に説明する。図3は、位置推定手段における逆投影の手法を説明するための説明図である。図3では、ある曲面KにランドマークMが存在し、カメラC1が撮像した第一画像I上にランドマーク像mが撮像されているものとする。
図3の例において、ランドマークM(実座標p)が存在する曲面Kを、関数fを用いて、以下の(13)式とおく。
Here, with reference to FIG. 3, a method of back projecting the reference image coordinates to the real coordinates in the position estimating means 13 will be described in detail. FIG. 3 is an explanatory diagram for explaining a back projection technique in the position estimating means. In FIG. 3, it is assumed that a landmark M exists on a curved surface K, and a landmark image m is captured on the first image I captured by the camera C1.
In the example of FIG. 3, the curved surface K where the landmark M (real coordinate p) exists is expressed by the following equation (13) using the function f.

Figure 2009124204
Figure 2009124204

例えば、ワールド座標系の3軸をX軸、Y軸およびZ軸としたとき、ランドマークMを平面Z=0に拘束するには、曲面Kを以下の(14)式に示す関数fとすればよい。   For example, when the three axes of the world coordinate system are the X-axis, the Y-axis, and the Z-axis, in order to constrain the landmark M to the plane Z = 0, the curved surface K is changed to a function f shown in the following equation (14). That's fine.

Figure 2009124204
Figure 2009124204

ここで、カメラC1のカメラ座標系の原点を、第一光学主点Tにとり、ワールド座標系における位置ベクトルをtとする。また、ワールド座標系からカメラ座標系への姿勢変換の回転行列をRとする。また、カメラC1のカメラ座標系のx軸およびy軸は、第一画像Iの画像平面と平行な面内にとり、z軸は、光軸と平行かつ被写界向きにとるものとする。なお、光軸は画像平面に対して垂直であるものとする。   Here, the origin of the camera coordinate system of the camera C1 is taken as the first optical principal point T, and the position vector in the world coordinate system is t. Also, let R be the rotation matrix for posture conversion from the world coordinate system to the camera coordinate system. The x and y axes of the camera coordinate system of the camera C1 are in a plane parallel to the image plane of the first image I, and the z axis is parallel to the optical axis and oriented in the field. It is assumed that the optical axis is perpendicular to the image plane.

また、第一画像Iの画像平面における画像座標系は、カメラ座標系のうちx軸およびy軸の2軸のみにより張られる二次元の座標系とし、その原点は、画像平面と光軸との交点にとる。また、カメラC1のレンズは、ピンホールモデルに従うものとし、その焦点距離をfとする。   Further, the image coordinate system on the image plane of the first image I is a two-dimensional coordinate system stretched by only two axes of the x-axis and the y-axis in the camera coordinate system, and the origin is between the image plane and the optical axis. Take the intersection. The lens of the camera C1 follows the pinhole model, and its focal length is f.

また、位置推定手段13に入力される第一画像Iにおける参照画像座標をrとし、既知カメラパラメータとして入力されるカメラパラメータには、位置ベクトルtと回転行列Rとが含まれているものとする。   Further, it is assumed that the reference image coordinate in the first image I input to the position estimation unit 13 is r, and the camera parameter input as the known camera parameter includes the position vector t and the rotation matrix R. .

図3に示すように、ランドマークMは、第一光学主点Tを始点とし、第一画像Iの画像平面上のランドマーク像mへ至るベクトルのk倍(kは正の実数の係数)の場所にあると考えると、実座標pは、以下の(15)式で表すことができる。   As shown in FIG. 3, the landmark M starts from the first optical principal point T and is k times the vector reaching the landmark image m on the image plane of the first image I (k is a positive real coefficient). The real coordinate p can be expressed by the following equation (15).

Figure 2009124204
Figure 2009124204

ここで、前記(13)式と前記(14)式とを連立させることで、係数k(ただし、k>0)を求めることができる。なお、連立方程式の解が、係数kに関して2個以上存在する場合には、その中の最も小さい値を用いることとする。このように求められた係数kを前記(15)式に代入することで、実座標pが求められる。例えば、ランドマークがZ=0なる平面上にある場合、前記(14)式により、以下の(16)式の関係が成り立つ。また、この(16)式から、以下の(17)式に示すように、係数kが求められる。   Here, the coefficient k (where k> 0) can be obtained by simultaneously combining the equation (13) and the equation (14). When there are two or more solutions of the simultaneous equations with respect to the coefficient k, the smallest value among them is used. The actual coordinate p is obtained by substituting the coefficient k thus obtained in the equation (15). For example, when the landmark is on a plane where Z = 0, the relationship of the following equation (16) is established by the equation (14). Further, from the equation (16), the coefficient k is obtained as shown in the following equation (17).

Figure 2009124204
Figure 2009124204

Figure 2009124204
Figure 2009124204

そして、この(17)式で求められた係数kを、前記(15)式に代入することで、以下の(18)式に示すように、実座標pが求められる。   Then, by substituting the coefficient k obtained in the equation (17) into the equation (15), the real coordinate p is obtained as shown in the following equation (18).

Figure 2009124204
Figure 2009124204

この(18)式は、例えば、平面状の床面にランドマークがある場合等、床面にワールド座標系のX軸およびY軸をとり、それらと直交して、例えば上向きにZ軸をとることで適用することができる。   This equation (18) takes the X-axis and Y-axis of the world coordinate system on the floor surface, for example, when there is a landmark on the flat floor surface, and takes the Z-axis upward, for example, perpendicular to them. It can be applied.

なお、ここでは、平面Z=0の拘束条件を与えて実座標を求める手法について説明したが、XやYについて拘束条件を与えてもよい。これによって、例えば、位置推定手段13は、床面から鉛直方向に存在する壁面上のランドマークの実座標を求めることができる。
図2に戻って、カメラパラメータ推定装置1の構成について説明を続ける。
Here, the method of obtaining the real coordinates by giving the constraint condition of the plane Z = 0 has been described, but the constraint condition may be given for X and Y. Thereby, for example, the position estimating means 13 can obtain the actual coordinates of the landmark on the wall surface existing in the vertical direction from the floor surface.
Returning to FIG. 2, the description of the configuration of the camera parameter estimation apparatus 1 will be continued.

パラメータ推定手段14は、ランドマーク対応付け手段12により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する位置推定手段13で推定された参照画像座標の実座標(三次元座標)と、第二ランドマーク抽出手段11で抽出された観測画像座標とに基づいて、カメラC2のカメラパラメータ(推定カメラパラメータ)を推定するものである。ここでは、パラメータ推定手段14は、座標対応付け手段141と、パラメータ算出手段142とを備える。   The parameter estimation unit 14 includes the actual coordinates (three-dimensional coordinates) of the reference image coordinates estimated by the position estimation unit 13 corresponding to the landmark, in the same landmark associated by the landmark association unit 12. Based on the observed image coordinates extracted by the second landmark extracting means 11, the camera parameters (estimated camera parameters) of the camera C2 are estimated. Here, the parameter estimation unit 14 includes a coordinate association unit 141 and a parameter calculation unit 142.

座標対応付け手段141は、位置推定手段13で推定された実座標(三次元座標)とランドマーク対応付け手段12での対応結果とに基づいて、第二ランドマーク抽出手段11で抽出された観測画像座標に実座標を対応付けるものである。   The coordinate association unit 141 is an observation extracted by the second landmark extraction unit 11 based on the actual coordinates (three-dimensional coordinates) estimated by the position estimation unit 13 and the correspondence result by the landmark association unit 12. The real coordinates are associated with the image coordinates.

ここでは、座標対応付け手段141は、位置推定手段13から出力される第一識別子とランドマークの実座標との対(m,p)の集合、ランドマーク対応付け手段12から出力される第一識別子と第二識別子との対(m,n)の集合、および、第二ランドマーク抽出手段11から出力される第二識別子と観測画像座標との対(n,o)の集合から、同一のランドマークに関する実座標と観測画像座標との対(p,onm)の集合を求める。なお、onmは、第一識別子mと対となる第二識別子nに対応付けられた観測画像座標を示す。そして、座標対応付け手段141は、第一識別子と第二識別子との対(m,n)の数だけ、実座標と観測画像座標との対(p,onm)の集合をパラメータ算出手段142に出力する。 Here, the coordinate association unit 141 is a set of pairs (m, p m ) of the first identifier output from the position estimation unit 13 and the actual coordinates of the landmark, and the first output from the landmark association unit 12. From a set of a pair (m, n m ) of one identifier and a second identifier, and a set of a pair (n, o n ) of a second identifier and observation image coordinates output from the second landmark extraction means 11 Then, a set of pairs (p m , o nm ) of real coordinates and observed image coordinates regarding the same landmark is obtained. Incidentally, o nm shows the observed image coordinates associated with the second identifier n m comprising the first identifier m a pair. Then, the coordinate association unit 141 performs parameter calculation on a set of pairs (p m , o nm ) of the actual coordinates and the observed image coordinates as many as the number of pairs (m, n m ) of the first identifier and the second identifier. It outputs to the means 142.

パラメータ算出手段142は、座標対応付け手段141で対応付けられた複数の観測画像座標の実座標(三次元座標)に基づいて、カメラC2のカメラパラメータである推定カメラパラメータを算出するものである。このパラメータ算出手段142で算出されたカメラパラメータは、カメラC2のカメラパラメータとして逐次外部に出力される。   The parameter calculation unit 142 calculates estimated camera parameters, which are camera parameters of the camera C2, based on the actual coordinates (three-dimensional coordinates) of the plurality of observed image coordinates associated with the coordinate association unit 141. The camera parameters calculated by the parameter calculation unit 142 are sequentially output to the outside as the camera parameters of the camera C2.

ここでは、パラメータ算出手段142は、ランドマークの実座標と観測画像座標との対(p,onm)の集合が所定数入力された段階で、カメラC2のカメラパラメータを算出することとする。この算出には、二次元平面(画像平面)におけるn点の三次元座標(実座標)が特定されたとき、カメラパラメータを推定する透視n点問題を解く一般的な手法を用いることができる。例えば、パラメータ算出手段142は、ランドマークが同一平面上に存在する場合、ランドマークの実座標と観測画像座標との対(p,onm)が4対入力された段階で、透視4点問題を解くことでカメラC2のカメラパラメータを算出する。 Here, the parameter calculation unit 142 calculates the camera parameters of the camera C2 when a predetermined number of pairs (p m , o nm ) of landmark real coordinates and observed image coordinates are input. . For this calculation, when a three-dimensional coordinate (real coordinate) of n points on a two-dimensional plane (image plane) is specified, a general method for solving a perspective n-point problem for estimating camera parameters can be used. For example, when the landmarks exist on the same plane, the parameter calculation unit 142 receives four perspective points when four pairs (p m , o nm ) of the actual coordinates of the landmarks and the observed image coordinates are input. The camera parameters of the camera C2 are calculated by solving the problem.

このようにカメラパラメータ推定装置1を構成することで、カメラパラメータ推定装置1は、カメラパラメータが既知のカメラC1で撮像した画像(第一画像)と、カメラパラメータが未知のカメラC2で撮像した画像(第二画像)とから、カメラC2のカメラパラメータを推定することができる。   By configuring the camera parameter estimation device 1 in this way, the camera parameter estimation device 1 is configured so that the image captured by the camera C1 whose camera parameter is known (first image) and the image captured by the camera C2 whose camera parameter is unknown. From the (second image), the camera parameters of the camera C2 can be estimated.

また、カメラパラメータ推定装置1は、ランドマークの位置を固定することなく、カメラC1とカメラC2とで共通に観測可能な任意の物体やパターンをランドマークとして使用して、カメラC2のカメラパラメータを推定することができる。また、カメラパラメータ推定装置1は、被写界に恣意的に設置した物体やパターンに限らず、被写界に投影した静的または動的パターン、被写界にもともと存在する物体やパターン、あるいは被写界を移動する物体、人物等をランドマークとして活用することができる。   Further, the camera parameter estimation device 1 uses any object or pattern that can be commonly observed by the camera C1 and the camera C2 as a landmark without fixing the position of the landmark, and determines the camera parameter of the camera C2. Can be estimated. In addition, the camera parameter estimation device 1 is not limited to an object or pattern arbitrarily set in the scene, but a static or dynamic pattern projected on the scene, an object or pattern that originally exists in the scene, or Objects, people, etc. that move in the field can be used as landmarks.

これによって、カメラパラメータ推定装置1は、例えば、スポーツ中継に用いられるカメラのカメラパラメータを推定するために、中継用カメラをカメラC2とし、カメラパラメータが既知のカメラC1で競技場の広い範囲を撮影し、スポーツ選手、ボール、地面上に引かれたラインや印、場内に置かれた器具等をランドマークとすることで、競技の邪魔をすることなく、カメラC2のカメラパラメータを推定することができる。
なお、カメラパラメータ推定装置1は、一般的なコンピュータを、前記した各手段として機能させるカメラパラメータ推定プログラムによって動作させることができる。
Accordingly, the camera parameter estimation device 1 uses, for example, the camera C2 as a relay camera to estimate the camera parameters of a camera used for sports relay, and shoots a wide range of the stadium with the camera C1 whose camera parameters are known. The camera parameters of the camera C2 can be estimated without disturbing the competition by using the athlete, the ball, the line or mark drawn on the ground, the equipment placed in the field as a landmark. it can.
The camera parameter estimation apparatus 1 can be operated by a camera parameter estimation program that causes a general computer to function as each of the means described above.

[カメラパラメータ推定装置の動作]
次に、図4を参照(適宜図2参照)して、本発明の実施形態に係るカメラパラメータ推定装置の動作について説明する。図4は、本発明の実施形態に係るカメラパラメータ推定装置の動作を示すフローチャートである。
[Operation of camera parameter estimation device]
Next, the operation of the camera parameter estimation apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the camera parameter estimation apparatus according to the embodiment of the present invention.

まず、カメラパラメータ推定装置1は、第一ランドマーク抽出手段10によって、カメラパラメータが既知のカメラC1が撮像した撮像画像(第一画像)から、ランドマークの座標(参照画像座標)を抽出する(ステップS1)。また、カメラパラメータ推定装置1は、第二ランドマーク抽出手段11によって、カメラパラメータが未知のカメラC2が撮像した撮像画像(第二画像)から、ランドマークの座標(観測画像座標)を抽出する(ステップS2)。   First, the camera parameter estimation device 1 uses the first landmark extraction means 10 to extract landmark coordinates (reference image coordinates) from a captured image (first image) captured by the camera C1 whose camera parameters are known (first image). Step S1). Further, the camera parameter estimation device 1 extracts the coordinates of the landmarks (observed image coordinates) from the captured image (second image) captured by the camera C2 whose camera parameters are unknown by the second landmark extraction unit 11 ( Step S2).

そして、カメラパラメータ推定装置1は、ランドマーク対応付け手段12によって、ステップS1で抽出した参照画像座標とステップS2で抽出した観測画像座標とに基づいてランドマークの対応付けを行う。   Then, the camera parameter estimation device 1 uses the landmark association unit 12 to associate landmarks based on the reference image coordinates extracted in step S1 and the observed image coordinates extracted in step S2.

すなわち、カメラパラメータ推定装置1は、ランドマーク対応付け手段12の第一特徴抽出手段121によって、参照画像座標(参照画像座標群)に対応する第一画像における画像特徴を第一特徴(第一特徴群)として抽出する(ステップS3)。また、カメラパラメータ推定装置1は、ランドマーク対応付け手段12の第二特徴抽出手段122によって、観測画像座標(観測画像座標群)に対応する第二画像における画像特徴を第二特徴(第二特徴群)として抽出する(ステップS4)。   That is, the camera parameter estimation device 1 uses the first feature extraction unit 121 of the landmark association unit 12 to convert the image feature in the first image corresponding to the reference image coordinates (reference image coordinate group) to the first feature (first feature). Group) (step S3). Also, the camera parameter estimation device 1 uses the second feature extraction unit 122 of the landmark association unit 12 to convert the image feature in the second image corresponding to the observed image coordinates (observed image coordinate group) to the second feature (second feature). Group) (step S4).

そして、カメラパラメータ推定装置1は、ランドマーク対応付け手段12の照合手段123によって、ステップS3で抽出した第一特徴群と、ステップS4で抽出した第二特徴群とで画像特徴が最も類似するように、ランドマークを対応付ける(ステップS5)。   Then, the camera parameter estimation apparatus 1 causes the image feature to be most similar between the first feature group extracted in step S3 and the second feature group extracted in step S4 by the matching unit 123 of the landmark association unit 12. Is associated with the landmark (step S5).

さらに、カメラパラメータ推定装置1は、位置推定手段13によって、ステップS1で抽出した参照画像座標をカメラC1のカメラパラメータである既知カメラパラメータにより逆投影変換することでランドマークの実座標(三次元座標)を算出する(ステップS6)。   Further, the camera parameter estimation device 1 uses the position estimation unit 13 to backproject the reference image coordinates extracted in step S1 with known camera parameters that are camera parameters of the camera C1, thereby to convert the actual coordinates of the landmarks (three-dimensional coordinates). ) Is calculated (step S6).

そして、カメラパラメータ推定装置1は、パラメータ推定手段14によって、ステップS2で抽出した観測画像座標と、ステップS5で対応付けされたランドマークの対応結果と、ステップS6で算出したランドマーク(参照画像座標)の実座標とに基づいて、カメラC2のカメラパラメータを推定する。   Then, the camera parameter estimation device 1 uses the parameter estimation unit 14 to observe the observation image coordinates extracted in step S2, the corresponding result of the landmarks associated in step S5, and the landmarks (reference image coordinates calculated in step S6). ) To estimate camera parameters of the camera C2.

すなわち、カメラパラメータ推定装置1は、パラメータ推定手段14の座標対応付け手段141によって、ステップS6で算出した実座標(三次元座標)と、ステップS5での対応結果とに基づいて、ステップS2で抽出した観測画像座標に実座標を対応付ける(ステップS7)。
そして、カメラパラメータ推定装置1は、パラメータ推定手段14のパラメータ算出手段142によって、ステップS7で対応付けた複数の観測画像座標の実座標から、透視n点問題の解答手法により、カメラC2のカメラパラメータ(推定カメラパラメータ)を算出する(ステップS8)。
That is, the camera parameter estimation device 1 is extracted in step S2 based on the actual coordinates (three-dimensional coordinates) calculated in step S6 and the correspondence result in step S5 by the coordinate association unit 141 of the parameter estimation unit 14. The actual coordinates are associated with the observed image coordinates (step S7).
Then, the camera parameter estimation apparatus 1 uses the parameter calculation unit 142 of the parameter estimation unit 14 to calculate the camera parameters of the camera C2 from the real coordinates of the plurality of observed image coordinates associated in step S7 by the method of solving the perspective n-point problem. (Estimated camera parameters) are calculated (step S8).

以上の動作によって、カメラパラメータ推定装置1は、カメラパラメータが既知のカメラC1で撮像した画像(第一画像)と、カメラパラメータが未知のカメラC2で撮像した画像(第二画像)とから、カメラC2のカメラパラメータを推定することができる。   Through the above operation, the camera parameter estimation device 1 uses the camera (first image) captured by the camera C1 with known camera parameters and the image (second image) captured by the camera C2 with unknown camera parameters. C2 camera parameters can be estimated.

本発明の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of this invention. 本発明の実施形態に係るカメラパラメータ推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera parameter estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るカメラパラメータ推定装置の位置推定手段における逆投影の手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of the back projection in the position estimation means of the camera parameter estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るカメラパラメータ推定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera parameter estimation apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 カメラパラメータ推定装置
10 第一ランドマーク抽出手段
11 第二ランドマーク抽出手段
12 ランドマーク対応付け手段
121 第一特徴抽出手段
122 第二特徴抽出手段
123 照合手段
13 位置推定手段
14 パラメータ推定手段
141 座標対応付け手段
142 パラメータ算出手段
C1 カメラ(第一カメラ)
C2 カメラ(第二カメラ)
DESCRIPTION OF SYMBOLS 1 Camera parameter estimation apparatus 10 1st landmark extraction means 11 2nd landmark extraction means 12 Landmark matching means 121 1st feature extraction means 122 2nd feature extraction means 123 Verification means 13 Position estimation means 14 Parameter estimation means 141 Coordinates Corresponding means 142 Parameter calculating means C1 Camera (first camera)
C2 camera (second camera)

Claims (4)

カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するカメラパラメータ推定装置であって、
ランドマークの予め定めた画像特徴に基づいて、前記第一画像からランドマークの当該画像における座標を参照画像座標として抽出する第一ランドマーク抽出手段と、
前記ランドマークの画像特徴に基づいて、前記第二画像からランドマークの当該画像における座標を観測画像座標として抽出する第二ランドマーク抽出手段と、
前記第一画像上の前記参照画像座標に対応する画像特徴と、前記第二画像上の前記観測画像座標に対応する画像特徴との類似の度合いに基づいて、前記第一画像と前記第二画像との間で前記ランドマークの対応付けを行うランドマーク対応付け手段と、
前記第一カメラのカメラパラメータである既知カメラパラメータに基づいて、前記参照画像座標を予め定めた拘束条件で逆投影変換することで、前記ランドマークの三次元座標を推定する位置推定手段と、
前記ランドマーク対応付け手段により対応付けられた同一のランドマークにおいて、当該ランドマークに対応する前記三次元座標と前記観測画像座標とに基づいて、前記第二カメラのカメラパラメータである推定カメラパラメータを推定するパラメータ推定手段と、
を備えることを特徴とするカメラパラメータ推定装置。
Camera parameter estimation for estimating camera parameters of the second camera based on a first image captured by a first camera with known camera parameters and a second image captured by a second camera with unknown camera parameters A device,
First landmark extraction means for extracting the coordinates of the landmark in the image from the first image as reference image coordinates based on predetermined image features of the landmark;
Second landmark extraction means for extracting the coordinates of the landmark in the image from the second image as observation image coordinates based on the image characteristics of the landmark;
Based on the degree of similarity between the image feature corresponding to the reference image coordinates on the first image and the image feature corresponding to the observed image coordinates on the second image, the first image and the second image Landmark association means for associating the landmarks with each other,
Based on a known camera parameter that is a camera parameter of the first camera, a position estimation unit that estimates the three-dimensional coordinates of the landmark by backprojecting the reference image coordinates under a predetermined constraint condition;
Based on the three-dimensional coordinates corresponding to the landmarks and the observed image coordinates in the same landmarks correlated by the landmark correlation unit, estimated camera parameters that are camera parameters of the second camera are Parameter estimating means for estimating;
A camera parameter estimation device comprising:
前記ランドマーク対応付け手段は、
前記第一画像から、前記参照画像座標の近傍領域の画像特徴を第一特徴として抽出する第一特徴抽出手段と、
前記第二画像から、前記観測画像座標の近傍領域の画像特徴を第二特徴として抽出する第二特徴抽出手段と、
前記第一特徴と前記第二特徴との類似の度合いに基づいて前記ランドマークを対応付ける照合手段と、
を備えることを特徴とする請求項1に記載のカメラパラメータ推定装置。
The landmark association means includes
A first feature extracting means for extracting, from the first image, an image feature in the vicinity region of the reference image coordinates as a first feature;
Second feature extraction means for extracting, from the second image, an image feature in the vicinity region of the observed image coordinates as a second feature;
Matching means for associating the landmarks based on the degree of similarity between the first feature and the second feature;
The camera parameter estimation apparatus according to claim 1, further comprising:
前記パラメータ推定手段は、
前記位置推定手段で推定された三次元座標と前記ランドマーク対応付け手段での対応結果とに基づいて、前記観測画像座標に前記三次元座標を対応付ける座標対応付け手段と、
この座標対応付け手段で対応付けられた複数の観測画像座標の三次元座標に基づいて、前記推定カメラパラメータを算出するパラメータ算出手段と、
を備えることを特徴とする請求項1または請求項2に記載のカメラパラメータ推定装置。
The parameter estimation means includes
Based on the three-dimensional coordinates estimated by the position estimating means and the correspondence result by the landmark associating means, coordinate associating means for associating the three-dimensional coordinates with the observed image coordinates;
Parameter calculating means for calculating the estimated camera parameter based on the three-dimensional coordinates of the plurality of observed image coordinates associated by the coordinate associating means;
The camera parameter estimation apparatus according to claim 1, further comprising:
カメラパラメータが既知である第一カメラが撮像した第一画像と、カメラパラメータが未知である第二カメラが撮像した第二画像とに基づいて、前記第二カメラのカメラパラメータを推定するために、コンピュータを、
ランドマークの予め定めた画像特徴に基づいて、前記第一画像からランドマークの当該画像における座標を参照画像座標として抽出する第一ランドマーク抽出手段、
前記ランドマークの画像特徴に基づいて、前記第二画像からランドマークの当該画像における座標を観測画像座標として抽出する第二ランドマーク抽出手段、
前記第一画像上の前記参照画像座標に対応する画像特徴と、前記第二画像上の前記観測画像座標に対応する画像特徴との類似の度合いに基づいて、前記第一画像と前記第二画像との間で前記ランドマークの対応付けを行うランドマーク対応付け手段、
前記第一カメラのカメラパラメータである既知カメラパラメータに基づいて、前記参照画像座標を予め定めた拘束条件で逆投影変換することで、前記ランドマークの三次元座標を推定する位置推定手段、
前記位置推定手段で推定された三次元座標と前記ランドマーク対応付け手段での対応結果とに基づいて、前記観測画像座標に前記三次元座標を対応付ける座標対応付け手段、
この座標対応付け手段で対応付けられた複数の観測画像座標の三次元座標に基づいて、前記第二カメラのカメラパラメータである推定カメラパラメータを算出するパラメータ算出手段、
として機能させることを特徴とするカメラパラメータ推定プログラム。
In order to estimate the camera parameters of the second camera based on the first image captured by the first camera whose camera parameters are known and the second image captured by the second camera whose camera parameters are unknown, Computer
First landmark extraction means for extracting, from the first image, a coordinate of the landmark in the image as a reference image coordinate based on a predetermined image feature of the landmark;
Second landmark extraction means for extracting the coordinates of the landmark in the image from the second image as observation image coordinates based on the image characteristics of the landmark;
Based on the degree of similarity between the image feature corresponding to the reference image coordinates on the first image and the image feature corresponding to the observed image coordinates on the second image, the first image and the second image Landmark association means for associating the landmarks with each other,
Based on a known camera parameter that is a camera parameter of the first camera, a position estimation unit that estimates the three-dimensional coordinates of the landmark by backprojecting the reference image coordinates under a predetermined constraint condition;
Coordinate associating means for associating the three-dimensional coordinates with the observed image coordinates based on the three-dimensional coordinates estimated by the position estimating means and the correspondence result in the landmark associating means,
Parameter calculating means for calculating an estimated camera parameter that is a camera parameter of the second camera based on the three-dimensional coordinates of the plurality of observed image coordinates associated by the coordinate associating means;
A camera parameter estimation program that functions as a computer program.
JP2007292750A 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program Expired - Fee Related JP4886661B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007292750A JP4886661B2 (en) 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007292750A JP4886661B2 (en) 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program

Publications (2)

Publication Number Publication Date
JP2009124204A true JP2009124204A (en) 2009-06-04
JP4886661B2 JP4886661B2 (en) 2012-02-29

Family

ID=40815939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007292750A Expired - Fee Related JP4886661B2 (en) 2007-11-12 2007-11-12 Camera parameter estimation apparatus and camera parameter estimation program

Country Status (1)

Country Link
JP (1) JP4886661B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009121824A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Equipment and program for estimating camera parameter
JP2010261785A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Camera calibrating device and camera calibration program
WO2011132552A1 (en) * 2010-04-22 2011-10-27 コニカミノルタホールディングス株式会社 Information processing device, program, information processing method, and information processing system
KR101578030B1 (en) 2012-12-05 2015-12-18 한화테크윈 주식회사 Apparatus and method for generating event

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000041173A (en) * 1998-07-23 2000-02-08 Mr System Kenkyusho:Kk Deciding method for visual point position attitude, camera device and visual point position sensor
JP2004030445A (en) * 2002-06-27 2004-01-29 National Institute Of Advanced Industrial & Technology Method, system, and program for estimating self-position of moving robot
JP2005057592A (en) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd Monitor system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000041173A (en) * 1998-07-23 2000-02-08 Mr System Kenkyusho:Kk Deciding method for visual point position attitude, camera device and visual point position sensor
JP2004030445A (en) * 2002-06-27 2004-01-29 National Institute Of Advanced Industrial & Technology Method, system, and program for estimating self-position of moving robot
JP2005057592A (en) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd Monitor system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009121824A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Equipment and program for estimating camera parameter
JP2010261785A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Camera calibrating device and camera calibration program
WO2011132552A1 (en) * 2010-04-22 2011-10-27 コニカミノルタホールディングス株式会社 Information processing device, program, information processing method, and information processing system
JP5327381B2 (en) * 2010-04-22 2013-10-30 コニカミノルタ株式会社 Information processing apparatus, program, and information processing system
US9335622B2 (en) 2010-04-22 2016-05-10 Konica Minolta Holdings, Inc. Information processing device and information processing system
KR101578030B1 (en) 2012-12-05 2015-12-18 한화테크윈 주식회사 Apparatus and method for generating event

Also Published As

Publication number Publication date
JP4886661B2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
JP4906683B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
CN108717531B (en) Human body posture estimation method based on Faster R-CNN
JP6587421B2 (en) Information processing apparatus, information processing method, and program
KR101175097B1 (en) Panorama image generating method
CN105898107B (en) A kind of target object grasp shoot method and system
WO2016009811A1 (en) Method for calibrating one or more cameras
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
TWI587241B (en) Method, device and system for generating two - dimensional floor plan
JP2008506953A5 (en)
JP2010287174A (en) Furniture simulation method, device, program, recording medium
JP6894707B2 (en) Information processing device and its control method, program
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
CN109785373B (en) Speckle-based six-degree-of-freedom pose estimation system and method
Aly et al. Street view goes indoors: Automatic pose estimation from uncalibrated unordered spherical panoramas
CN110869978A (en) Information processing apparatus, information processing method, and computer program
JP4283816B2 (en) Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method
JP4886661B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
JP2015171143A (en) Camera calibration method and apparatus using color-coded structure, and computer readable storage medium
JP2018010599A (en) Information processor, panoramic image display method, panoramic image display program
CN117196955A (en) Panoramic image stitching method and terminal
JP2009145061A (en) Position measuring equipment
JP4670010B2 (en) Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
JP2006113832A (en) Stereoscopic image processor and program
JP6304815B2 (en) Image processing apparatus and image feature detection method, program and apparatus thereof
JP2003078811A (en) Method for associating marker coordinate, method and system for acquiring camera parameter and calibration pattern

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees