JP2010261785A - Camera calibrating device and camera calibration program - Google Patents
Camera calibrating device and camera calibration program Download PDFInfo
- Publication number
- JP2010261785A JP2010261785A JP2009112172A JP2009112172A JP2010261785A JP 2010261785 A JP2010261785 A JP 2010261785A JP 2009112172 A JP2009112172 A JP 2009112172A JP 2009112172 A JP2009112172 A JP 2009112172A JP 2010261785 A JP2010261785 A JP 2010261785A
- Authority
- JP
- Japan
- Prior art keywords
- image
- control point
- feature
- landmark
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、校正対象のカメラにより撮影された画像に基づいて、カメラの位置、姿勢、または焦点距離の1以上からなるカメラパラメータを推定するカメラ校正装置およびカメラ校正プログラムに関する。 The present invention relates to a camera calibration apparatus and a camera calibration program for estimating a camera parameter including one or more of the position, posture, or focal length of a camera based on an image photographed by a camera to be calibrated.
従来、カメラ校正は、既定の、または測定済みのパターンを、校正対象のカメラで撮影して、パターンの像の形状から、解析的に、または繰り返し収束演算により、カメラパラメータを求めることが行われている。 Conventionally, in camera calibration, a predetermined or measured pattern is photographed by a camera to be calibrated, and camera parameters are obtained from the shape of the pattern image analytically or by repeated convergence calculation. ing.
繰り返し収束演算によるものの代表的な手法として、実際に観測されたパターンの像と、カメラパラメータ及びパターンのモデルから推測した観測されるべきパターンの像との一致の度合を評価しつつ、その一致の度合が最大となるように、カメラパラメータを逐次修正する手法がある。 As a typical method of recursive convergence calculation, while evaluating the degree of coincidence between the actually observed pattern image and the observed pattern image estimated from the camera parameters and pattern model, There is a method of sequentially correcting camera parameters so that the degree is maximized.
パターンとして、複数の観測点と、モデル上の点との対応関係を用いる手法(非特許文献1参照)や、観測された複数の線(直線、線分、または曲線など)と、モデル上の線との対応関係を用いる手法がある。 As a pattern, a method using correspondence between a plurality of observation points and points on the model (see Non-Patent Document 1), a plurality of observed lines (straight lines, line segments, curves, etc.), and a model There is a method using a correspondence relationship with a line.
点の対応関係を用いる手法においては、線同士の交差した点、折れ線の頂点、または円や矩形等の特定のパターンの代表点(重心など)を特徴点として抽出し、モデルとの対応関係を求める手法が主流である。 In the method using point correspondence, points that intersect each other, vertices of broken lines, or representative points (such as the center of gravity) of a specific pattern such as a circle or rectangle are extracted as feature points, and the correspondence with the model is determined. The method we seek is the mainstream.
一方、線の対応関係を用いる手法においては、例えば、ハフ変換や一般化ハフ変換によって、直線や曲線のパラメータを算出し、当該パラメータとモデルとの対応をとることが行われている(特許文献1参照)。 On the other hand, in the method using the correspondence between lines, for example, parameters of straight lines and curves are calculated by Hough transform or generalized Hough transform, and correspondence between the parameters and the model is performed (Patent Literature). 1).
また、画像対において、それぞれ視覚的に特徴的な点を複数抽出して、特徴点間の対応付けを行うことによって、画像対間におけるカメラの相対位置、相対姿勢、および焦点距離情報を得る手法がある(非特許文献2参照)。 Also, a method of obtaining the relative position, relative orientation, and focal length information of the camera between the image pairs by extracting a plurality of visually characteristic points in the image pairs and associating the feature points with each other. (See Non-Patent Document 2).
従来のカメラ校正手法では、画像内の特徴点や直線、曲線を抽出し、その座標やパラメータを得ることが最初の段階として行われ、続いて、モデルを投影変換した点や線の座標やパラメータと、観測画像から得た座標やパラメータとの距離の比較を行って、カメラパラメータを推定する。 In the conventional camera calibration method, feature points, straight lines, and curves in an image are extracted and their coordinates and parameters are obtained as the first step, and then the coordinates and parameters of points and lines obtained by projecting the model are converted. The camera parameters are estimated by comparing the distances with the coordinates and parameters obtained from the observed image.
しかし、これらの手法では、特徴点や直線、曲線などの視覚的なパターンが、世界座標を有する実空間においてどこにあるのかを予めモデル化しておく必要がある。このため、世界座標の既知な点が視覚的に特徴的でない場合や、視覚的に特徴的な点の世界座標が既知でない場合には、カメラ校正を行うことができないという問題がある。 However, in these methods, it is necessary to model in advance where a visual pattern such as a feature point, a straight line, or a curve is present in a real space having world coordinates. For this reason, there is a problem that the camera calibration cannot be performed when a known point of the world coordinates is not visually characteristic or when the world coordinates of the visually characteristic point is not known.
本発明は、かかる問題を解決するためになされたものであり、視覚的に特徴的な点と、世界座標の既知な点とが、それぞれ別々に与えられる場合にも、カメラパラメータの推定を可能とするカメラ校正装置およびカメラ校正プログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and it is possible to estimate camera parameters even when visually distinctive points and known points of world coordinates are given separately. An object of the present invention is to provide a camera calibration apparatus and a camera calibration program.
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のカメラ校正装置は、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から前記制御点の画像座標を推定して、カメラパラメータを算出するカメラ校正装置であって、ランドマーク指定手段と、第1の特徴抽出手段と、世界座標入力手段と、ランドマーク記憶手段と、第2の特徴抽出手段と、照合手段と、制御点推定手段と、カメラパラメータ推定手段と、を備える構成とした。
The present invention was devised to achieve the above object, and first, the camera calibration device according to
かかる構成において、カメラ校正装置は、ランドマーク指定手段によって、入力画像において、世界座標が既知な点である制御点の画像座標と、当該制御点と関連付けるべき画像領域とを指定する。ここで、世界座標とは、実空間内における位置を表すための座標であり、画像座標とは、入力画像内の位置を表すための座標である。 In such a configuration, the camera calibration apparatus designates the image coordinates of the control point, which is a point whose world coordinates are known, and the image area to be associated with the control point in the input image by the landmark designation unit. Here, world coordinates are coordinates for representing a position in real space, and image coordinates are coordinates for representing a position in an input image.
そして、カメラ校正装置は、第1の特徴抽出手段によって、ランドマーク指定手段により指定された画像領域から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第1の配置情報と当該特徴点の視覚的な特徴を定量化した第1の画像特徴とを抽出する。すなわち、1つの画像領域から抽出される特徴点は、複数あってもよい。なお、配置情報および画像特徴は、一般に、ベクトル量である。また、カメラ校正装置は、世界座標入力手段によって、ランドマーク指定手段により指定した制御点の世界座標を入力する。 Then, the camera calibration device extracts one or more feature points that are visually characteristic points from the image region designated by the landmark designation unit by the first feature extraction unit, and arranges the feature points First arrangement information on the image and a first image feature obtained by quantifying the visual feature of the feature point are extracted. That is, there may be a plurality of feature points extracted from one image region. The arrangement information and the image feature are generally vector quantities. Also, the camera calibration device inputs the world coordinates of the control point designated by the landmark designation means by the world coordinate input means.
そして、カメラ校正装置は、ランドマーク記憶手段によって、制御点に関連づけられた画像領域から特徴抽出手段が抽出した第1の配置情報および第1の画像特徴と、世界座標入力手段から入力された制御点の世界座標との組を、1つのランドマークとして、このランドマークを複数記憶する。これによって、複数の第1の配置情報および第1の画像情報と、制御点の世界座標とが対応付けられた組となって記憶される。 Then, the camera calibration apparatus uses the landmark storage unit to control the first arrangement information and the first image feature extracted by the feature extraction unit from the image area associated with the control point, and the control input from the world coordinate input unit. A plurality of landmarks are stored with a set of points and the world coordinates as one landmark. As a result, a plurality of pieces of first arrangement information and first image information and the world coordinates of the control points are stored in association with each other.
さらに、カメラ校正装置は、第2の特徴抽出手段によって、新たな入力画像から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第2の配置情報と当該特徴点の視覚的な特徴を定量化した第2の画像特徴とを抽出する。 Furthermore, the camera calibration device extracts one or more feature points which are visually characteristic points from the new input image by the second feature extraction unit, and second arrangement information regarding the arrangement of the feature points. And a second image feature obtained by quantifying the visual feature of the feature point.
そして、カメラ校正装置は、照合手段によって、ランドマーク記憶手段から読み出したランドマークの各第1の画像特徴に対して、第2の特徴抽出手段が抽出した第2の画像特徴の中から、最も類似度の高い第2の画像特徴を探索し、その照合結果をランドマークごとに照合結果情報として出力する。ここで、類似度として、例えば、コサイン類似度を用いることができる。 Then, the camera calibration device selects the first image feature of the landmark read from the landmark storage unit by the collating unit from among the second image features extracted by the second feature extracting unit. A second image feature having a high degree of similarity is searched, and the matching result is output as matching result information for each landmark. Here, as the similarity, for example, cosine similarity can be used.
その後、カメラ校正装置は、制御点推定手段によって、ランドマーク記憶手段から読み出したランドマークの各第1の配置情報と、第2の特徴抽出手段から入力した第2の配置情報と、前記照合手段から入力した照合結果情報とに基づき、新たな入力画像内におけるランドマークに対応する制御点の画像座標を推定し、制御点推定画像座標として出力する。 Thereafter, the camera calibration device uses the control point estimating means to read the first arrangement information of the landmarks read from the landmark storage means, the second arrangement information inputted from the second feature extraction means, and the collating means. The image coordinates of the control points corresponding to the landmarks in the new input image are estimated on the basis of the collation result information input from, and output as control point estimated image coordinates.
そして、カメラ校正装置は、カメラパラメータ推定手段によって、ランドマーク記憶手段から読み出した制御点の世界座標と、制御点推定手段から入力した制御点推定画像座標とに基づき、カメラパラメータを推定する。なお、このカメラパラメータの推定には、既知の透視N点問題の解法や、非線形最小自乗法を用いることができる。 Then, the camera calibration apparatus estimates the camera parameters by the camera parameter estimation means based on the world coordinates of the control points read from the landmark storage means and the control point estimation image coordinates input from the control point estimation means. For estimating the camera parameters, a known perspective N-point problem solution method or a non-linear least square method can be used.
また、請求項2に記載のカメラ校正装置は、請求項1に記載のカメラ校正装置において、第1の配置情報が、入力画像における制御点から特徴点への位置ベクトルと、特徴点近傍における回転情報およびスケール情報とを含み、第2の配置情報は、新たな入力画像における特徴点の画像座標と、特徴点近傍における回転情報およびスケール情報とを含み、制御点推定手段が、これらの情報を用いて、制御点推定画像座標を推定する構成とした。
The camera calibration device according to
かかる構成において、カメラ校正装置は、制御点推定手段によって、ランドマークの各第1の配置情報に含まれる前記位置ベクトルに対して、当該第1の配置情報に含まれる回転情報およびスケール情報と、当該第1の配置情報とともに抽出された第1の画像特徴と照合結果を介して対応する第2の画像特徴とともに抽出された第2の配置情報に含まれる回転情報およびスケール情報とを用いて、新たな入力画像における位置ベクトルに変換し、当該第2の配置情報に含まれる特徴点の画像座標から当該変換した位置ベクトルを減算することによって、仮の制御点画像座標推定値を求め、ランドマークの各第1の配置情報から求めた仮の制御点画像座標推定値を、所定の方法により平均することによって、新たな入力画像における当該ランドマークに対応する制御点の制御点推定画像座標とする。 In such a configuration, the camera calibration device uses the control point estimation unit to rotate information and scale information included in the first arrangement information with respect to the position vector included in each first arrangement information of the landmark, Using the rotation information and scale information included in the second arrangement information extracted together with the first image feature extracted together with the first arrangement information and the corresponding second image feature via the matching result, By converting the position vector in the new input image and subtracting the converted position vector from the image coordinates of the feature points included in the second arrangement information, a temporary control point image coordinate estimated value is obtained, and the landmark The temporary control point image coordinate estimated value obtained from each of the first arrangement information is averaged by a predetermined method to obtain the land in the new input image. And the control point estimation image coordinates of the control points corresponding to the over-click.
また、請求項3に記載のカメラ校正装置は、請求項2に記載のカメラ校正装置において、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該部分領域に係る値を1ずつ累積し、その合計値が最も大きい部分領域に係る仮の制御点画像座標推定値のみに関して平均を求めることを特徴とする。
かかる構成により、カメラ校正装置は、制御点推定手段によって、合計値が最も大きい部分領域に係る仮の制御点画像座標推定値から、ランドマークに対応する制御点の画像座標を推定することができる。
The camera calibration device according to
With this configuration, the camera calibration apparatus can estimate the image coordinates of the control point corresponding to the landmark from the temporary control point image coordinate estimated value related to the partial region having the largest total value by the control point estimating unit. .
また、請求項4に記載のカメラ校正装置は、請求項2に記載のカメラ校正装置において、照合手段が、照合結果とともにその類似度を、ランドマークごとに照合結果情報として出力し、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該仮の制御点画像座標推定値の算出に係る照合結果に対応する類似度に応じた値を、当該部分領域に係る値に累積し、その合計値が最も大きい部分領域に係る仮の制御点画像座標推定値のみに関して平均を求めることを特徴とする。
かかる構成により、カメラ校正装置は、制御点推定手段によって、類似度を考慮して平均を算出する部分領域を決定しているので、類似度を考慮した制御点の画像座標を推定することができる。
The camera calibration apparatus according to
With this configuration, the camera calibration apparatus determines the partial area for which the average is calculated in consideration of the similarity by the control point estimation means, so that the image coordinates of the control point in consideration of the similarity can be estimated. .
また、請求項5に記載のカメラ校正プログラムは、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から前記制御点の画像座標を推定して、カメラパラメータを算出するために、コンピュータを、ランドマーク指定手段、第1の特徴抽出手段、世界座標入力手段、第2の特徴抽出手段、照合手段、制御点推定手段、カメラパラメータ推定手段、として機能させる構成とした。 Further, the camera calibration program according to claim 5 uses the image coordinates of the known control points of the world coordinates specified in the input image and the extracted feature points to perform the control from the feature points extracted in the new input image. In order to estimate the image coordinates of the points and calculate the camera parameters, the computer is used for landmark designation means, first feature extraction means, world coordinate input means, second feature extraction means, collation means, control point estimation. And function as camera parameter estimation means.
かかる構成において、カメラ校正プログラムは、ランドマーク指定手段によって、入力画像において、制御点の画像座標と画像領域とを指定する。また、カメラ校正プログラムは、第1の特徴抽出手段によって、画像領域から、特徴点を抽出して、第1の配置情報と第1の画像特徴とを抽出し、当該画像領域に係る制御点で関連付けられたランドマークの構成要素としてランドマーク記憶手段に記憶する。そして、カメラ校正プログラムは、世界座標入力手段によって、制御点の世界座標を入力し、当該制御点で関連付けられたランドマークの構成要素として前記ランドマーク記憶手段に記憶する。 In this configuration, the camera calibration program designates the image coordinates and image area of the control point in the input image by the landmark designation means. Further, the camera calibration program extracts feature points from the image area by the first feature extraction means, extracts first arrangement information and first image features, and uses the control points related to the image area. It is stored in the landmark storage means as a constituent element of the associated landmark. Then, the camera calibration program inputs the world coordinates of the control point by the world coordinate input means, and stores it in the landmark storage means as a constituent element of the landmark associated with the control point.
さらに、カメラ校正プログラムは、第2の特徴抽出手段によって、新たな入力画像から、特徴点を抽出して、第2の配置情報と第2の画像特徴とを抽出する。そして、カメラ校正プログラムは、照合手段によって、ランドマークの各第1の画像特徴に対して、第2の画像特徴の中から、最も類似度の高いものを探索し、その照合結果をランドマークごとに照合結果情報として出力する。また、カメラ校正プログラムは、制御点推定手段によって、ランドマークの各第1の配置情報と、第2の配置情報と、照合結果情報とに基づき、新たな入力画像内における制御点の画像座標を推定し、制御点推定画像座標として出力する。そして、カメラ校正プログラムは、カメラパラメータ推定手段によって、制御点の世界座標と、制御点推定画像座標とに基づき、カメラパラメータを推定する。 Further, the camera calibration program extracts feature points from the new input image by the second feature extraction unit, and extracts second arrangement information and second image features. Then, the camera calibration program searches the first image feature of the landmark for the first image feature of the landmark with the second image feature having the highest similarity and uses the matching result for each landmark. Is output as verification result information. Further, the camera calibration program calculates the image coordinates of the control point in the new input image based on the first arrangement information of the landmark, the second arrangement information, and the matching result information by the control point estimation means. Estimate and output as control point estimation image coordinates. Then, the camera calibration program estimates the camera parameters based on the world coordinates of the control points and the control point estimated image coordinates by the camera parameter estimation means.
請求項1および請求項5に記載の発明によれば、視覚的に特徴的な点と、世界座標の既知な点とが、それぞれ別々に与えられてもカメラの校正が可能となる。すなわち、校正に用いるランドマークにおいて、視覚的に特徴的な点と、世界座標の既知な制御点とを、必ずしも一致させる必要がなくなる。このため、世界座標が既知かつ視覚的に特徴的なランドマークを用いる必要があった従来の方法に比べ、より一般的なシーンにおいてカメラパラメータの推定およびカメラ校正が可能となる。 According to the first and fifth aspects of the invention, the camera can be calibrated even when visually distinctive points and world coordinate known points are given separately. That is, in the landmark used for calibration, it is not always necessary to match a visually characteristic point with a known control point of world coordinates. This makes it possible to estimate camera parameters and calibrate the camera in a more general scene as compared to the conventional method that requires the use of landmarks with known world coordinates and visually characteristic features.
請求項2に記載の発明によれば、制御点推定手段が、制御点の画像座標を推定する場合に、入力画像および新たな入力画像の回転情報およびスケール情報を用いて、入力画像の位置ベクトルを新たな入力画像の位置ベクトルに変換し、これを用いて、仮の制御点画像座標推定値をもとめ、各ランドマークにわたって、仮の制御点画像座標推定値を平均することによって、制御点推定画像座標を求めているため、新たな入力画像において、より正確に制御点を推定でき、したがって、より正確にカメラパラメータの推定およびカメラ校正が可能となる。 According to the second aspect of the present invention, when the control point estimation means estimates the image coordinates of the control point, the position vector of the input image is obtained using the rotation information and scale information of the input image and the new input image. Is converted into a new input image position vector, which is used to determine a provisional control point image coordinate estimate and average the provisional control point image coordinate estimate over each landmark. Since the image coordinates are obtained, the control points can be estimated more accurately in the new input image, and therefore the camera parameters can be estimated and the camera calibration can be performed more accurately.
請求項3に記載の発明によれば、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、もっとも属する仮の制御点画像座標推定値が多い部分領域に関してのみ、仮の制御点画像座標推定値の平均値を求めているため、より正確に制御点を推定でき、したがって、より正確にカメラパラメータの推定およびカメラ校正が可能となる。 According to the third aspect of the present invention, the control point estimating means divides the entire new input image into a plurality of partial areas, and only the partial area having the largest temporary control point image coordinate estimation value to which it belongs most. Since the average value of the estimated control point image coordinates is obtained, the control point can be estimated more accurately. Therefore, the camera parameter can be estimated and the camera calibration can be performed more accurately.
請求項4に記載の発明によれば、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、もっとも属する仮の制御点画像座標推定値が多い部分領域を、類似度を考慮して決定し、当該部分領域に関してのみ、制御点画像座標推定値の平均値を求めているため、画像特徴の類似度に応じた正確な制御点を推定でき、したがって、より正確にカメラパラメータの推定およびカメラ校正が可能となる。 According to the fourth aspect of the present invention, the control point estimation means divides the entire new input image into a plurality of partial areas, and determines the partial area having the largest estimated temporary control point image coordinate value belonging to Since the average value of the control point image coordinate estimated value is obtained only for the partial area, it is possible to estimate the accurate control point according to the similarity of the image features, and thus more accurately the camera. Parameter estimation and camera calibration are possible.
以下、本発明の実施形態について図面を参照して説明する。
本実施形態では、実空間内における位置を表すための座標系を世界座標系と称し、世界座標系内の座標を世界座標と称する。ここでは、世界座標系をデカルト座標系で表し、その各軸をX軸、Y軸およびZ軸とおくこととする。
また、入力画像内の位置を表すための座標系を画像座標系と称し、画像座標系内の座標を画像座標と称する。ここでは、画素並びの水平方向右向きにx軸を、また画素並びの垂直方向下向きにy軸をとることとする。
Embodiments of the present invention will be described below with reference to the drawings.
In the present embodiment, a coordinate system for representing a position in real space is referred to as a world coordinate system, and coordinates in the world coordinate system are referred to as world coordinates. Here, the world coordinate system is represented by a Cartesian coordinate system, and the respective axes are the X axis, the Y axis, and the Z axis.
In addition, a coordinate system for representing a position in the input image is referred to as an image coordinate system, and coordinates in the image coordinate system are referred to as image coordinates. Here, it is assumed that the x-axis is taken rightward in the horizontal direction of the pixel arrangement and the y-axis is taken downward in the vertical direction of the pixel arrangement.
カメラ校正に用いる入力画像に関する計測用の基準をランドマークと称する。ランドマークは、1つであっても良いし、複数存在してもよい。本発明においては、1つのランドマークには、世界座標の既知な点である制御点と、視覚的に特徴的な点である特徴点とが含まれ、特徴点は1つ以上存在するものとする。 A reference for measurement related to an input image used for camera calibration is referred to as a landmark. There may be one landmark or a plurality of landmarks. In the present invention, one landmark includes a control point that is a known point in the world coordinates and a feature point that is a visually characteristic point, and there are one or more feature points. To do.
[カメラ校正装置の構成]
以下では、図1を参照して、本発明の実施形態に係るカメラ校正装置1の構成について説明する。
[Configuration of camera calibration device]
Below, with reference to FIG. 1, the structure of the
本実施形態のカメラ校正装置1は、入力画像のランドマークから、新たな入力画像のランドマークの制御点を推定することによって、カメラパラメータを推定するものである。
具体的には、カメラ校正装置1は、入力された入力画像において指定された画像領域から、特徴点に関する特徴点配置情報および画像特徴を抽出し、画像領域と関連付けられた制御点の世界座標とともにランドマークとして記憶しておき、新たに入力された入力画像において、抽出した特徴点に関する配置情報および画像特徴と、読み出したランドマークに関する情報とから、制御点の画像座標を推定し、当該制御点の画像座標と制御点の世界座標とからカメラパラメータを推定し出力するものである。
The
Specifically, the
カメラ校正装置1は、その機能により、ランドマーク指定機能部10と、カメラパラメータ推定機能部20とを備えている。ランドマーク指定機能部10は、ランドマーク指定手段12と、特徴抽出手段14と、世界座標入力手段16と、ランドマーク記憶手段18とを備えている。また、カメラパラメータ推定機能部20は、特徴抽出手段22と、照合手段24と、制御点推定手段26と、カメラパラメータ推定手段28とを備えている。
The
はじめに、カメラ校正装置1のランドマーク指定機能部10の構成について説明する。
[[ランドマーク指定機能部の構成]]
ランドマーク指定手段12は、ランドマークに対応する画像領域等を指定するものである。
具体的には、ランドマーク指定手段12は、入力された入力画像I(x,y)において、特徴点を抽出するための画像領域(以下、パターン画像領域という。)と、世界座標の既知な点である制御点の画像座標(以下、制御点画像座標という。)とを指定し、指定された結果を特徴抽出手段14へ出力するものである。
First, the configuration of the landmark designation function unit 10 of the
[[Configuration of Landmark Specification Function]]
The landmark designation means 12 designates an image area or the like corresponding to the landmark.
Specifically, the landmark designation means 12 has an image area for extracting feature points (hereinafter referred to as a pattern image area) and a known world coordinate in the input image I (x, y) inputted. An image coordinate of a control point that is a point (hereinafter referred to as a control point image coordinate) is designated, and the designated result is output to the feature extraction means 14.
ランドマーク指定手段12において、パターン画像領域および制御点画像座標は、複数指定でき、1つの指定が1つのランドマークに対応する。ランドマーク指定手段12において、これらをN個(Nは自然数)指定した場合に、n番目(1≦n≦N)のランドマークL(n)に対応するパターン画像領域をD(n)、制御点をC(n)、制御点C(n)の画像座標をc(n)=[cx (n),cy (n)]Tと記す。ここで、上付きのTは転置行列(Transposed matrix)を表す。なお、I(x,y)とは、画像座標の各点(x,y)において、値(輝度値等)I(x,y)が定義されていることを意味する。 In the landmark designation means 12, a plurality of pattern image areas and control point image coordinates can be designated, and one designation corresponds to one landmark. When the landmark designation means 12 designates N (N is a natural number), the pattern image area corresponding to the nth (1 ≦ n ≦ N) landmark L (n) is controlled by D (n) . The point is denoted by C (n) and the image coordinate of the control point C (n) is denoted as c (n) = [c x (n) , cy (n) ] T. Here, the superscript T represents a transposed matrix. Note that I (x, y) means that a value (luminance value, etc.) I (x, y) is defined at each point (x, y) of the image coordinates.
例えば、液晶ディスプレイやCRTなどの表示装置に入力画像I(x,y)を提示し、その上にカーソルを重畳表示しておき、マウスのドラッグ操作等により、矩形領域をパターン画像領域として指定する。また、マウスボタンのクリック操作により、制御点画像座標を指定する。 For example, an input image I (x, y) is presented on a display device such as a liquid crystal display or a CRT, a cursor is superimposed on the input image I, and a rectangular region is designated as a pattern image region by a mouse drag operation or the like. . In addition, the control point image coordinates are designated by clicking the mouse button.
図2は、ランドマーク指定手段12によって、入力画像において、パターン画像領域と制御点画像座標とを指定した一例を示す図である。図2中の破線で示した矩形領域が指定したパターン画像領域D(n)を示し、×印で示した位置が指定した制御点C(n)の画像座標c(n)=[cx (n),cy (n)]Tを示す。 FIG. 2 is a diagram showing an example in which a pattern image region and control point image coordinates are designated in the input image by the landmark designation means 12. Shows a pattern image region D (n) rectangular region is specified as shown by a broken line in FIG. 2, the image coordinates c of the control point position indicated by × marks specified C (n) (n) = [c x ( n) , cy (n) ] T.
特徴抽出手段(第1の特徴抽出手段)14は、入力画像からランドマークを構成する特徴点の情報を抽出するものである。
具体的には、特徴抽出手段14は、ランドマーク指定手段12で指定された入力画像I(x,y)のパターン画像領域内から、視覚的に特徴的な点である特徴点を抽出し、その特徴点の配置に関する特徴点配置情報と、その特徴点の視覚的な特徴を定量化した画像特徴とを抽出して、ランドマーク記憶手段18へ出力するものである。
特徴抽出手段14が、n番目のランドマークL(n)に対応するパターン画像領域D(n)内から抽出した特徴点の数をM(n)個(M(n)は自然数)とし、抽出したm番目(1≦m≦M(n))の特徴点をEm (n)とする。
The feature extraction means (first feature extraction means) 14 extracts information on feature points constituting the landmark from the input image.
Specifically, the
The
特徴抽出手段14は、特徴点Em (n)の特徴点配置情報gm (n)として、少なくとも、入力画像における位置情報、すなわち、画像座標系において、制御点C(n)から特徴点Em (n)に至るベクトル[pm (n),qm (n)]Tを含む情報を抽出する。このベクトルの算出には、ランドマーク指定手段12において指定された制御点画像座標c(n)が用いられる。
The
本実施形態においては、特徴点配置情報は、gm (n)=[pm (n),qm (n),rm (n),sm (n)]Tとする。ここで、rm (n)は、回転情報を表し、入力画像I(x,y)が特徴点Em (n)近傍において有する視覚的に特徴的な方位である。例えば、rm (n)として、特徴点Em (n)近傍の部分画像に含まれる代表的な(例えば、コントラストの高い)エッジの方位を用いることができる。また、sm (n)は、スケール情報を表し、入力画像I(x,y)が特徴点Em (n)近傍において有する視覚的に特徴的な大きさ情報である。例えば、sm (n)として、特徴点Em (n)近傍の部分画像に含まれる代表的なテクスチャの大きさ(すなわち、テクスチャの代表的な空間周波数成分)を用いることができる。 In the present embodiment, the feature point arrangement information, g m (n) = a [p m (n), q m (n), r m (n), s m (n)] T. Here, r m (n) denotes the rotation information, the input image I (x, y) is visually distinctive orientation with the E m (n) near the feature point. For example, as r m (n) , a representative edge orientation (for example, high contrast) included in a partial image near the feature point E m (n) can be used. Further, s m (n) represents scale information, and is visually characteristic size information that the input image I (x, y) has in the vicinity of the feature point E m (n) . For example, as s m (n) , a representative texture size (that is, a representative spatial frequency component of the texture ) included in the partial image in the vicinity of the feature point E m (n) can be used.
特徴抽出手段14は、これらの特徴点配置情報gm (n)=[pm (n),qm (n),rm (n),sm (n)]Tを、例えば、SIFT(Scale Invariant Feature Transform)(D. G. Lowe, “Object recognition from local scale-invariant features” Proc. of IEEE International Conference on Computer Vision(ICCV), pp. 1150-1157, 1999)におけるキーポイントの位置、オリエンテーションおよびスケールとして得ることができる。キーポイント、オリエンテーション、およびスケールが、それぞれ本実施形態の特徴点、回転情報、およびスケール情報に対応する。 Feature extracting means 14, these feature point arrangement information g m (n) = a [p m (n), q m (n), r m (n), s m (n)] T, for example, SIFT ( Scale Invariant Feature Transform (DG Lowe, “Object recognition from local scale-invariant features” Proc. Of IEEE International Conference on Computer Vision (ICCV), pp. 1150-1157, 1999) Obtainable. The key point, orientation, and scale correspond to the feature point, rotation information, and scale information of this embodiment, respectively.
なお、具体的に、SIFTの処理は次のようなものである。すなわち、Difference-of-Gaussian(DoG)画像から、極値を検出することで、特徴点(キーポイント)とそのスケール情報を決定する。また、特徴点の周辺領域から、勾配方向のヒストグラムを求め、ピークをオリエンテーションとして割り当てる。そして、特徴点のスケールによって定まる周辺領域を、オリエンテーションに従い回転させ、当該周辺領域を特徴点からの距離によるガウス窓で重み付けした後、4x4の16の小領域に分割し、各小領域で8方向の勾配方向ヒストグラムを求めることで、回転およびスケールに不変な128次元のSIFT特徴量記述を得る。 Specifically, SIFT processing is as follows. In other words, feature points (key points) and scale information thereof are determined by detecting extreme values from a Difference-of-Gaussian (DoG) image. Further, a histogram in the gradient direction is obtained from the peripheral area of the feature point, and a peak is assigned as the orientation. Then, the surrounding area determined by the scale of the feature points is rotated according to the orientation, and the surrounding area is weighted by a Gaussian window according to the distance from the feature points, and then divided into 16 4 × 4 small areas, and each of the small areas has 8 directions. By obtaining the gradient direction histogram, a 128-dimensional SIFT feature description that is invariant to rotation and scale is obtained.
なお、特徴抽出手段14は、パターン画像領域D(n)内から抽出したM(n)個の特徴点すべての特徴点配置情報gm (n)をまとめて行列G(n)とし、G(n)を出力してもよい((1)式参照)。
Note that the
さらに、特徴抽出手段14は、特徴点Em (n)の画像特徴fm (n)として、入力画像I(x,y)内のEm (n)近傍の濃淡や色などの空間的分布のパターンを特徴づける情報(数量やベクトル量)を抽出する。この画像特徴fm (n)は、回転および拡大・縮小に対して、その値が変化しにくいものであることが好ましい。また、この画像特徴fm (n)は、画像の全体的な(特徴点Em (n)近傍領域のサイズ以上の領域における)輝度値の一様な変化に対しても変化しにくいものであることが好ましい。
Furthermore, the
特徴抽出手段14は、例えば、画像特徴fm (n)として、前記SIFTにおけるSIFT記述(SIFT descriptor)を用いることができる。
The
なお、特徴抽出手段14は、パターン画像領域D(n)内から抽出したM(n)個の特徴点すべての画像特徴fm (n)をまとめて行列F(n)とし、F(n)を出力してもよい((2)式参照)。
Note that the
図3は、第nのランドマークL(n)に関するパターン画像領域D(n)、特徴点Em (n)、画像特徴fm (n)、特徴点配置情報gm (n)、制御点C(n)、および制御点画像座標[cx (n),cy (n)]Tの関係の一例を示す図である。図3では、特徴点を3つ示した。なお、図3の例では、制御点C(n)がパターン画像領域D(n)の外側に存在するが、制御点C(n)はパターン画像領域D(n)の内側や境界上に存在してもよい。 FIG. 3 shows a pattern image region D (n) , a feature point E m (n) , an image feature f m (n) , feature point arrangement information g m (n) , control points regarding the nth landmark L (n). C (n), and the control point image coordinates is a diagram showing an example of the relationship between [c x (n), c y (n)] T. In FIG. 3, three feature points are shown. In the example of FIG. 3, the control point C (n) exists outside the pattern image area D (n) , but the control point C (n) exists inside or on the boundary of the pattern image area D (n). May be.
世界座標入力手段16は、制御点の世界座標を入力するものである。
具体的には、世界座標入力手段16は、ランドマーク指定手段12において画像座標を指定した各制御点について、世界座標を入力し、ランドマーク記憶手段18へ出力するインタフェースである。
世界座標入力手段16で入力された、第nのランドマークL(n)に対応する制御点C(n)の世界座標をw(n)=[wx (n),wy (n),wz (n)]Tと記す。
The world coordinate input means 16 inputs the world coordinates of the control point.
Specifically, the world coordinate input means 16 is an interface that inputs world coordinates for each control point for which image coordinates are designated by the landmark designation means 12 and outputs the world coordinates to the landmark storage means 18.
Entered the world coordinate
世界座標入力手段16は、例えば、キーボードやつまみ、マウスなどのマンマシンインタフェースの操作により、制御点世界座標w(n)を数値入力する方式とすることができる。また、例えば、本装置の外部に接続する他の測量装置で測量された制御点の世界座標w(n)を受信するインタフェースであってもよい。 The world coordinate input means 16 may be a method of inputting the control point world coordinates w (n) numerically by operating a man-machine interface such as a keyboard, knob, or mouse. Further, for example, it may be an interface that receives the world coordinates w (n) of the control point measured by another surveying device connected to the outside of the present device.
ランドマーク記憶手段18は、ランドマークに関する情報を記憶するものである。
具体的には、ランドマーク記憶手段18は、特徴抽出手段14から入力した特徴点配置情報および画像特徴と、世界座標入力手段16から入力した制御点世界座標との組を、ランドマークごとに(制御点ごとに)複数組記憶する記憶手段である。また、ランドマーク記憶手段18は、後述するカメラパラメータ推定機能部20の照合手段24、制御点推定手段26、およびカメラパラメータ推定手段28から読み出し要求があった場合に、記憶しているデータを出力するものである。ランドマーク記憶手段18は、半導体メモリ、ハードディスク等の一般的な記憶媒体であればよく、その種類は問わない。
The landmark storage means 18 stores information relating to landmarks.
Specifically, the
例えば、ランドマーク記憶手段18は、図4に示すように、ランドマーク番号ごとに表形式により、特徴点配置情報、画像特徴、および制御点世界座標の組を記憶する方式とすることができる。
For example, as shown in FIG. 4, the
次に、カメラ校正装置1のカメラパラメータ推定機能部20の構成について説明する。
[[カメラパラメータ推定機能部の構成]]
特徴抽出手段(第2の特徴抽出手段)22は、新たな入力画像から特徴点の情報を抽出するものである。
具体的には、特徴抽出手段22は、新たに入力された入力画像(以下、新たな入力画像という。)I(x,y)内から、視覚的に特徴的な点である特徴点を抽出し、その特徴点の配置に関する配置情報と、その特徴点の視覚的な特徴を定量化した画像特徴とを抽出して、画像特徴を照合手段24へ、配置情報を制御点推定手段26へ、それぞれ出力するものである。
この特徴抽出手段22は、ランドマーク指定機能部10の特徴抽出手段14と、特徴点等を抽出する領域が異なるのみで、ほぼ同様の処理を行うものである。
Next, the configuration of the camera parameter estimation function unit 20 of the
[[Configuration of camera parameter estimation function]]
The feature extraction means (second feature extraction means) 22 extracts feature point information from a new input image.
Specifically, the
The
特徴抽出手段22が、新たな入力画像I(x,y)内から抽出した特徴点の数をK個(Kは自然数)とし、抽出したk番目(1≦k≦K)番目の特徴点をBkとする。特徴抽出手段22は、特徴点Bkの配置情報γkとして、当該特徴点の位置情報である画像座標[xk,yk]T、回転情報ψkおよびスケール情報σkを抽出する((3)式参照)。ここで、回転情報ψkおよびスケール情報σkは、ランドマーク指定機能部10の特徴抽出手段14が抽出する回転情報rm (n)およびスケール情報sm (n)と同様のものである。
The
なお、特徴抽出手段22は、新たな入力画像I(x,y)内から抽出したK個の特徴点すべての配置情報γkをまとめて行列Γとし、Γを出力してもよい((4)式参照)。 Note that the feature extraction means 22 may collect the arrangement information γ k of all K feature points extracted from the new input image I (x, y) into a matrix Γ and output Γ ((4 ) See formula).
また、特徴抽出手段22は、特徴点Bkの画像特徴φkとして、新たな入力画像I(x,y)内のBk近傍の濃淡や色などの空間的分布のパターンを特徴づける情報(数量やベクトル量)を抽出する。この画像特徴φkは、ランドマーク指定機能部10の特徴抽出手段14が抽出する画像特徴fm (n)と同様のものである。
Further, the feature extraction means 22 characterizes the spatial distribution pattern such as the density and color in the vicinity of B k in the new input image I (x, y) as the image feature φ k of the feature point B k ( (Quantity and vector quantity). This image feature φ k is the same as the image feature f m (n) extracted by the
なお、特徴抽出手段22は、新たな入力画像I(x,y)内から抽出したK個の特徴点すべての画像特徴φkをまとめて行列Φとし、Φを出力してもよい((5)式参照)。
Note that the
照合手段24は、入力画像の特徴点と、新たな入力画像の特徴点との対応づけをするものである。
具体的には、照合手段24は、ランドマーク記憶手段18から読み出した各ランドマークL(n)の画像特徴F(n)を構成する各画像特徴fm (n)に対して、特徴抽出手段22から入力した画像特徴Φを構成する画像特徴φkの中から、最も類似度の高い画像特徴φkを探索し、その番号kを照合結果hm (n)として、制御点推定手段26へ出力するものである(1≦n≦N、1≦m≦M(n)、1≦k≦K)。
The matching
Specifically, the
照合手段24は、画像特徴F(n)を構成する画像特徴fm (n)と、画像特徴Φを構成する画像特徴φkとの間の類似度を、λ(fm (n),φk)で評価し、類似度の高いもの同士を対応づける。例えば、類似度λ(f,φ)として、コサイン類似度を用いることができる((6)式参照)。 Collation means 24, an image feature f m (n) constituting an image feature F (n), the similarity between the image feature phi k constituting the image feature Φ, λ (f m (n ), φ k ), and those having high similarity are associated with each other. For example, the cosine similarity can be used as the similarity λ (f, φ) (see equation (6)).
そして、照合手段24は、各画像特徴fm (n)に対し、類似度λ(fm (n),φk)を最大化する画像特徴φkを探索し、その番号kを照合結果hm (n)として出力する((7)式参照)。
Then, the matching
なお、照合手段24は、ランドマークL(n)のM(n)個すべての画像特徴に関する照合結果hm (n)をまとめて照合結果情報H(n)とし、行列H(n)を出力してもよい((8)式参照)。
Note that the collating
また、照合手段24は、各照合結果hm (n)に加えて、各類似度λm (n)も出力してもよい((9)式参照)。行列として出力する場合には、(8)式に示す行列H(n)に代えて、類似度λm (n)を付加した(10)式に示す行列H(n)を出力する。
Further, the matching
制御点推定手段26は、新たな入力画像において制御点の座標を推定するものである。
具体的には、制御点推定手段26は、ランドマーク記憶手段18から読み出した各ランドマークの特徴点配置情報(G(1),…,G(N))と、特徴抽出手段22から入力された特徴点の配置情報Γと、照合手段24から入力された照合結果情報(H(1),…,H(N))とに基づき、新たな入力画像I(x,y)内のどこに各ランドマーク(L(1),…,L(N))の制御点(C(1),…,C(N))があるかを推定し、推定した制御点推定画像座標(κ(1),…,κ(N))を、カメラパラメータ推定手段28へ出力する。
The control point estimation means 26 estimates the coordinates of the control point in the new input image.
Specifically, the control
制御点推定手段26は、第nのランドマークL(n)の制御点推定画像座標κ(n)を以下の推定手順で推定する(1≦n≦N)。なお、この制御点推定画像座標κ(n)の推定は、投票処理(高木雅成、藤吉弘亘、“SIFT特徴量を用いた交通道路標識認識”、第13回画像センシングシンポジウムSSII07、LD2-06、2007)に類似するものである。 The control point estimation means 26 estimates the control point estimated image coordinates κ (n) of the nth landmark L (n) by the following estimation procedure (1 ≦ n ≦ N). This control point estimation image coordinate κ (n) is estimated by voting (Masari Takagi, Hironobu Fujiyoshi, “Traffic road sign recognition using SIFT features”, 13th Image Sensing Symposium SSII07, LD2- 06, 2007).
まず、制御点推定手段26は、第nのランドマークL(n)に含まれる第mの特徴点Em (n)に対して、仮の制御点画像座標推定値τm (n)を求める。すなわち、制御点推定手段26は、ランドマーク記憶手段18から読み出した特徴点配置情報G(n)より、特徴点Em (n)に関する特徴点配置情報gm (n)=[pm (n),qm (n),rm (n),sm (n)]Tを取り出す。また、照合手段24から入力された照合結果情報H(n)より、特徴点Em (n)に関する照合結果hm (n)を取り出す。さらに、特徴抽出手段22から入力された特徴点の配置情報Γより、番号がhm (n)である特徴点の配置情報を取り出す((11)式参照)。
First, the control point estimating means 26, the feature point of the m included in the landmark of the n L (n) E m (n), determined the control point image coordinate estimated values of the provisional tau m to (n) . That is, the control
ここで、制御点推定手段26は、gm (n)=[pm (n),qm (n),rm (n),sm (n)]Tおよび(11)式から、制御点Cm (n)の画像座標を推定し、仮の制御点画像座標推定値τm (n)((12)式参照)を、(13)式により求める。 Here, the control point estimating means 26, g m (n) = a [p m (n), q m (n), r m (n), s m (n)] T and (11), the control estimating the image coordinates of the point C m (n), the control point image coordinate estimated values of the provisional tau m (n) to ((12) see formula) is obtained by (13).
図5は、(13)式の意味を説明する図である。図5において、説明の便宜上、添え字は省略した。図5の左図は、入力画像の一部を表し、図5の右図は、新たな入力画像の一部を表し、左図と右図とは同画素数とする。左図において、特徴点が回転情報rおよびスケール情報sを有し、右図において、対応する類似度が最大の特徴点が回転情報ψおよびスケール情報σを有するものとする。(13)式は、これらの情報を用いて、左図の特徴点に係る位置ベクトル[p,q]Tを回転・拡大(縮小)した右図の位置ベクトルに、仮の制御点画像座標推定値を加えたものが、類似度が最大の特徴点の画像座標[x,y]Tとなることを意味するものである。 FIG. 5 is a diagram for explaining the meaning of the equation (13). In FIG. 5, subscripts are omitted for convenience of explanation. The left diagram in FIG. 5 represents a part of an input image, the right diagram in FIG. 5 represents a part of a new input image, and the left diagram and the right diagram have the same number of pixels. In the left figure, it is assumed that the feature point has rotation information r and scale information s, and in the right figure, the corresponding feature point having the maximum similarity has rotation information ψ and scale information σ. The expression (13) uses these pieces of information to estimate a temporary control point image coordinate to the position vector of the right figure obtained by rotating and enlarging (reducing) the position vector [p, q] T related to the feature point of the left figure. plus the value is intended to mean that the degree of similarity is the image coordinates [x, y] T of the maximum feature points.
このようにして、制御点推定手段26は、ランドマークL(n)に含まれるすべての特徴点Em (n)(1≦m≦M(n))に対して、仮の制御点画像座標推定値τm (n)を求める。そして、画像座標内で、τm (n)が空間的に密集した箇所を探し出し、当該密集した画像座標近傍の仮の制御点画像座標推定値τm (n)の平均値を求め、当該平均値を、制御点推定画像座標κ(n)として出力する。 In this way, the control point estimation means 26 uses the temporary control point image coordinates for all the feature points E m (n) (1 ≦ m ≦ M (n) ) included in the landmark L (n). estimate tau m (n) of determined. Then, in the image coordinates, a place where τ m (n) is spatially dense is searched for, an average value of the temporary control point image coordinate estimated values τ m (n) in the vicinity of the dense image coordinates is obtained, and the average The value is output as the control point estimated image coordinate κ (n) .
この平均値の算出方法として、例えば、制御点推定手段26は、新たな入力画像I(x,y)の全体を複数の部分領域に分割し(例えば、格子状に分割してもよいし、隣接する部分領域同士が重なり合うように分割してもよい)、仮の制御点画像座標推定値τm (n)(1≦m≦M(n))がどの部分領域に属するかに応じて1票ずつ投票を行い、最も投票数の多かった部分領域R(n)を求める。続いて、制御点推定手段26は、当該最も投票数の多かった部分領域R(n)に票を投じた仮の制御点画像座標推定値τm (n)のみに関して、それらの平均値を求め、当該平均値を制御点推定画像座標κ(n)として出力してもよい。
As a method for calculating the average value, for example, the control
なお、(8)式に代えて、(10)式に示した照合結果情報H(n)を用いる場合には、制御点推定手段26は、前記平均値の算出方法における投票に際して、1票ではなく、類似度λm (n)に応じた可変の票数を投ずるようにしてもよい。例えば、投ずる票数am (n)を、広義の増加関数αを用いて、(14)式のように設定することができる。ここで、広義の増加関数αとして、折線関数を用いることができる((15)式参照)。
When the matching result information H (n) shown in the equation (10) is used instead of the equation (8), the control
また、制御点推定手段26は、制御点推定画像座標κ(n)に加えて、制御点推定信頼度v(n)(1≦n≦N)を出力してもよい。例えば、制御点推定信頼度v(n)として、前記最も得票数の多かった部分領域R(n)の得票数を用いることができる。あるいは、制御点推定信頼度v(n)として、前記最も得票数の多かった部分領域R(n)の得票数を、総投票数で除したものを用いてもよい。 The control point estimating means 26, in addition to the control point estimation image coordinates kappa (n), the control point estimation reliability v a (n) (1 ≦ n ≦ N) may be output. For example, as the control point estimation reliability v (n) , the number of votes of the partial region R (n) having the largest number of votes can be used. Alternatively, the control point estimation reliability v (n) may be obtained by dividing the number of votes of the partial region R (n) having the largest number of votes by the total number of votes.
このようにして、制御点推定手段26は、第nのランドマークL(n)の制御点推定画像座標κ(n)(また、必要に応じて、制御点推定信頼度v(n))を得る。この推定手順を、全てのランドマーク(L(1),…,L(N))について実行し、制御点推定画像座標(κ(1),…,κ(N))(また、必要に応じて、制御点推定信頼度(v(1),…,v(N)))を得る。 In this way, the control point estimation means 26 determines the control point estimation image coordinates κ (n) (and the control point estimation reliability v (n) ) of the nth landmark L (n) as necessary. obtain. The estimation procedure, all landmark (L (1), ..., L (N)) was performed for the control point estimation image coordinates (κ (1), ..., κ (N)) ( also, if necessary Then, the control point estimation reliability (v (1) ,..., V (N) )) is obtained.
カメラパラメータ推定手段28は、カメラパラメータを推定するものである。
具体的には、カメラパラメータ推定手段28は、ランドマーク記憶手段18から読み出したN個の制御点世界座標(w(1),…,w(N))と、制御点推定手段26から入力されたN個の制御点推定画像座標(κ(1),…,κ(N))とに基づき、カメラパラメータθを算出し、カメラパラメータ推定機能部20の結果として出力するものである。
The camera parameter estimation means 28 estimates camera parameters.
Specifically, the camera
例えば、カメラパラメータ推定手段28は、N個の制御点世界座標(w(1),…,w(N))をカメラパラメータθ’により画像座標へ投影し、その結果と制御点推定画像座標(κ(1),…,κ(N))との誤差を最小化するθ’を非線形最小自乗法により求め、その結果をカメラパラメータθとすることができる((16)式参照)。ここで、関数β(w;θ)は、カメラパラメータθによる世界座標wから画像座標への投影を表す。 For example, the camera parameter estimation means 28 projects the N control point world coordinates (w (1) ,..., W (N) ) onto the image coordinates by the camera parameter θ ′, and the result and the control point estimated image coordinates ( θ ′ that minimizes an error from κ (1) ,..., κ (N) ) can be obtained by the nonlinear least square method, and the result can be used as the camera parameter θ (see equation (16)). Here, the function β (w; θ) represents the projection from the world coordinate w to the image coordinate by the camera parameter θ.
また、カメラパラメータ推定手段28は、カメラパラメータθの推定にあたって、制御点推定手段26から入力される制御点推定信頼度(v(1),…,v(N))を考慮してもよい。例えば、(16)式の代わりに、(17)式を用いることができる。 Further, the camera parameter estimation means 28 may consider the control point estimation reliability (v (1) ,..., V (N) ) input from the control point estimation means 26 when estimating the camera parameter θ. For example, equation (17) can be used instead of equation (16).
さらに、例えば、RANSACによる透視N点問題の解法(M. A. Fischler, R. C. Bolles, “Random sample consensus, a paradigm for model fitting with applications to image analysis and automated cartography”, Comm. of the ACM, Vol. 24, pp. 381-395, 1981.)を用いることができる。 Furthermore, for example, the solution of the perspective N-point problem by RANSAC (MA Fischler, RC Bolles, “Random sample consensus, a paradigm for model fitting with applications to image analysis and automated cartography”, Comm. Of the ACM, Vol. 24, pp 381-395, 1981.) can be used.
このように、カメラ校正装置1を構成することで、視覚的に特徴的な点と、世界座標の既知な点とがそれぞれ別々に与えられる場合であっても、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から制御点の画像座標を推定して、カメラパラメータを算出することができる。
In this way, by configuring the
なお、世界座標系の原点の位置や、各軸のとり方は任意である。本実施形態では、世界座標系をデカルト座標系で表し、その各軸をX軸、Y軸およびZ軸としたが、この場合、例えば、三角点などの測量用の基準に原点を置き、XおよびYの2軸を水平面内にとり、X軸を北向き、Y軸を東向きとし、Z軸を鉛直上向きにとることができる。あるいは、スポーツ競技場などの施設や競技フィールドに合わせて各軸をとってもよい。例えば、サッカー場のセンターマーク中央を原点とし、X軸をタッチラインと平行かつコーチエリア側から見て右向きにとり、Y軸をハーフウェイライン方向かつコーチエリアから遠ざかる方向にとり、また、Z軸をサッカー場の地面に対して垂直かつ上向きにとることができる。 In addition, the position of the origin of the world coordinate system and how to take each axis are arbitrary. In the present embodiment, the world coordinate system is represented by a Cartesian coordinate system, and the axes thereof are the X axis, the Y axis, and the Z axis. In this case, for example, the origin is placed on a survey reference such as a triangular point, The two axes Y and Y can be in the horizontal plane, the X axis can be north, the Y axis can be east, and the Z axis can be vertically upward. Alternatively, each axis may be taken in accordance with a facility such as a sports stadium or a competition field. For example, with the center mark center of the soccer field as the origin, the X-axis is parallel to the touch line and the right side when viewed from the coach area side, the Y-axis is the half-way line direction and away from the coach area, and the Z-axis is It can be taken vertically and upward with respect to the ground of the field.
なお、カメラパラメータ推定機能部20の特徴抽出手段22は、新たな入力画像I(x,y)全体からではなく入力画像内に定められる固定領域内から、特徴点等を抽出してもよい。
Note that the
また、カメラ校正装置1は、一般的なカメラ(デジタルカメラ)の他、放送用ビデオカメラ、民生用ビデオカメラ等のビデオカメラに適用可能である。また、カメラ校正装置1は、コンピュータにおいて各手段を機能プログラムとして実現させることも可能であり、各機能プログラムを結合して、カメラ校正プログラムとして動作させることも可能である。
The
[カメラ校正装置の動作]
次に、本発明の実施形態におけるカメラ校正装置1の動作について説明する。前述したように、カメラ校正装置1は、その機能により、ランドマーク指定機能部10と、カメラパラメータ推定機能部20とに大別される。以下では、それぞれについて、動作を説明する。
[Operation of camera calibration device]
Next, the operation of the
[[ランドマーク指定機能部の動作]]
まず、図6を参照して(構成については、適宜図1を参照)、本発明の実施形態に係るカメラ校正装置1のランドマーク指定機能部10の動作について説明する。
[[Operation of Landmark Specification Function]]
First, the operation of the landmark designation function unit 10 of the
まず、カメラ校正装置1は、ランドマーク指定手段12によって、入力画像において、1つのランドマークLに対応するパターン画像領域Dと、制御点Cの画像座標cとを指定する(S11)。
First, the
そして、カメラ校正装置1は、特徴抽出手段14によって、指定されたパターン画像領域D内から、特徴点をいくつか抽出する(S12)。その後、カメラ校正装置1は、特徴抽出手段14によって、1つの特徴点Eの特徴点配置情報gを抽出し(S13)、さらに当該特徴点Eの画像特徴fを抽出する(S14)。その後、カメラ校正装置1は、特徴抽出手段14によって、まだ、特徴点配置情報および画像特徴を抽出していない特徴点があるか否かを判定し(S15)、ある場合(S15でYes)にはS13へ戻り、ない場合(S15でNo)にはS16へ進む。
Then, the
そして、カメラ校正装置1は、世界座標入力手段16によって、ランドマークLの制御点Cの世界座標wを入力する(S16)。これは、ランドマーク指定手段12によって、画像座標cが入力された制御点Cに対応するものである。
And the
そして、カメラ校正装置1は、ランドマーク記憶手段18によって、ランドマークLの、すべての特徴点に対する特徴点配置情報Gおよび画像特徴Fと、制御点Cの世界座標wとの組を記憶する(S17)。
Then, the
そして、カメラ校正装置1は、ランドマーク指定手段12によって、さらに別のランドマークに対する処理を行うか否かを判定し(S18)、行う場合(S18でYes)にはS11へ戻り、行わない場合(S18でNo)には、カメラ校正装置1のランドマーク指定機能部10の動作を終了する。
Then, the
なお、カメラ校正装置1のランドマーク指定機能部の動作は、これに限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で変更可能である。例えば、S11−S15より先に、S16をおこなってもよい。また、例えば、S11により、最初に処理を行いたいすべてのランドマークLに対応するパターン画像領域Dと、制御点Cの画像座標cとを指定しておいてもよい。
The operation of the landmark designation function unit of the
[[カメラパラメータ推定機能部の動作]]
次に、図7を参照して(構成については、適宜図1を参照)、本発明の実施形態に係るカメラ校正装置1のカメラパラメータ推定機能部20の動作について説明する。
[[Operation of camera parameter estimation function]]
Next, the operation of the camera parameter estimation function unit 20 of the
まず、カメラ校正装置1は、特徴抽出手段22によって、新たに入力された入力画像(又はその固定領域)から、いくつかの特徴点Bkと、当該特徴点の配置情報γkおよび画像特徴φkとを抽出する(S21)。これは、入力画像全体から抽出するか、または、指定されたパターン画像領域から抽出するか、という違いを除いて、ランドマーク指定機能部10の特徴抽出手段14の動作のS12、S13、S14、およびS15とほぼ同様の動作である(図6参照)。
First, the
そして、カメラ校正装置1は、照合手段24によって、ランドマーク記憶手段18から、1つのランドマークLの画像特徴Fを読み出す(S22)。その後、カメラ校正装置1は、照合手段24によって、画像特徴Fに含まれる画像特徴fに対して、類似度が最大となる画像特徴φkの番号を照合結果hとする(S23)。その後、カメラ校正装置1は、照合手段24によって、照合結果を求めていない画像特徴があるか否かを判定し(S24)、ある場合(S24でYes)にはS23に戻り、ない場合(S24でNo)にはS25へ進む。
Then, the
その後、カメラ校正装置1は、照合手段24によって、照合結果hをまとめて、ランドマークLの照合結果情報Hとする(S25)。その後、カメラ校正装置1は、照合手段24によって、照合結果情報を求めていないランドマークがあるか否かを判定し(S26)、ある場合(S26でYes)にはS22に戻り、ない場合(S26でNo)にはS27へ進む。
Thereafter, the
そして、カメラ校正装置1は、制御点推定手段26によって、ランドマーク記憶手段18から、1つのランドマークLの特徴点配置情報Gを読み出す(S27)。その後、カメラ校正装置1は、制御点推定手段26によって、ランドマークLの特徴点Eに対して、Eに対応するGの特徴点配置情報gと、照合結果情報Hから求めたLおよびEに対応する照合結果hを番号とする特徴点の配置情報γhとから、(13)式により、仮の制御点画像座標推定値τを算出する(S28)。その後、カメラ校正装置1は、制御点推定手段26によって、仮の制御点画像座標推定値を求めていない特徴点があるか否か判定し(S29)、ある場合(S29でYes)にはS28に戻り、ない場合(S29でNo)にはS30へ進む。
Then, the
その後、カメラ校正装置1は、制御点推定手段26によって、仮の制御点画像座標推定値τの平均値を求め、ランドマークLの制御点推定画像座標κとする(S30)。その後、カメラ校正装置1は、制御点推定手段26によって、制御点推定画像座標を求めていないランドマークがあるか否かを判定し(S31)、ある場合(S31でYes)にはS27へ戻り、ない場合(S31でNo)にはS32へ進む。
Thereafter, the
そして、カメラ校正装置1は、カメラパラメータ推定手段28によって、全てのランドマークにわたる、制御点推定画像座標κと、ランドマーク記憶手段から読み出した制御点世界座標wとに基づき、透視N点問題の解法または所定の非線形最小自乗法などを用いて、カメラパラメータθを算出する(S32)。その後、カメラ校正装置1のカメラパラメータ推定機能部20の動作を終了する。
Then, the
なお、カメラ校正装置1のカメラパラメータ推定機能部20の動作は、これに限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で変更可能である。
The operation of the camera parameter estimation function unit 20 of the
以上の動作によって、視覚的に特徴的な点と、世界座標の既知な点とがそれぞれ別々に与えられる場合であっても、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から制御点の画像座標を推定して、カメラパラメータを算出することができる。 With the above operation, even if a visually characteristic point and a known point in the world coordinates are given separately, the image coordinates and extraction of the known control point in the world coordinates specified in the input image are extracted. Using the feature points, the camera parameters can be calculated by estimating the image coordinates of the control points from the feature points extracted in the new input image.
1 カメラ校正装置
10 ランドマーク指定機能部
12 ランドマーク指定手段
14 特徴抽出手段(第1の特徴抽出手段)
16 世界座標入力手段
18 ランドマーク記憶手段
20 カメラパラメータ推定機能部
22 特徴抽出手段(第2の特徴抽出手段)
24 照合手段
26 制御点推定手段
28 カメラパラメータ推定手段
DESCRIPTION OF
16 World Coordinate
24 collating means 26 control point estimating means 28 camera parameter estimating means
Claims (5)
前記入力画像において、世界座標が既知な点である前記制御点の画像座標と、当該制御点と関連付けるべき画像領域とを指定するランドマーク指定手段と、
前記ランドマーク指定手段により指定された画像領域から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第1の配置情報と当該特徴点の視覚的な特徴を定量化した第1の画像特徴とを抽出する第1の特徴抽出手段と、
前記ランドマーク指定手段により指定した前記制御点の世界座標を入力する世界座標入力手段と、
前記制御点に関連づけられた前記画像領域から前記特徴抽出手段が抽出した第1の配置情報および第1の画像特徴と、前記世界座標入力手段から入力された当該制御点の世界座標との組を、1つのランドマークとして、このランドマークを複数記憶するランドマーク記憶手段と、
前記新たな入力画像から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第2の配置情報と当該特徴点の視覚的な特徴を定量化した第2の画像特徴とを抽出する第2の特徴抽出手段と、
前記ランドマーク記憶手段から読み出したランドマークの各第1の画像特徴に対して、前記第2の特徴抽出手段が抽出した第2の画像特徴の中から、最も類似度の高い前記第2の画像特徴を探索し、その照合結果をランドマークごとに照合結果情報として出力する照合手段と、
前記ランドマーク記憶手段から読み出したランドマークの各第1の配置情報と、前記第2の特徴抽出手段から入力した第2の配置情報と、前記照合手段から入力した照合結果情報とに基づき、前記新たな入力画像における当該ランドマークに対応する前記制御点の画像座標を推定し、制御点推定画像座標として出力する制御点推定手段と、
前記ランドマーク記憶手段から読み出した制御点の世界座標と、前記制御点推定手段から入力した制御点推定画像座標とに基づき、カメラパラメータを推定するカメラパラメータ推定手段と、
を備えることを特徴とするカメラ校正装置。 Using the image coordinates of the known control points of the world coordinates specified in the input image and the extracted feature points, the image coordinates of the control points are estimated from the feature points extracted in the new input image, and camera parameters are calculated. A camera calibration device that
In the input image, landmark designation means for designating the image coordinates of the control point, which is a point whose world coordinates are known, and an image region to be associated with the control point;
One or more feature points that are visually characteristic points are extracted from the image area designated by the landmark designation means, and first arrangement information relating to the arrangement of the feature points and the visual representation of the feature points are extracted. First feature extraction means for extracting a first image feature obtained by quantifying the feature;
World coordinate input means for inputting world coordinates of the control point designated by the landmark designation means;
A set of the first arrangement information and the first image feature extracted by the feature extraction unit from the image region associated with the control point, and the world coordinates of the control point input from the world coordinate input unit. Landmark storage means for storing a plurality of landmarks as one landmark;
One or more feature points that are visually characteristic points are extracted from the new input image, and second arrangement information related to the arrangement of the feature points and the visual features of the feature points are quantified. Second feature extraction means for extracting two image features;
The second image having the highest degree of similarity among the second image features extracted by the second feature extraction unit for each first image feature of the landmark read from the landmark storage unit. A matching means for searching for a feature and outputting the matching result as matching result information for each landmark;
Based on each first arrangement information of landmarks read from the landmark storage means, second arrangement information inputted from the second feature extraction means, and matching result information inputted from the matching means, Control point estimation means for estimating an image coordinate of the control point corresponding to the landmark in a new input image, and outputting it as a control point estimation image coordinate;
Camera parameter estimation means for estimating camera parameters based on the world coordinates of the control points read from the landmark storage means and the control point estimation image coordinates input from the control point estimation means;
A camera calibration device comprising:
前記第2の配置情報は、前記新たな入力画像における前記特徴点の画像座標と、当該特徴点近傍における回転情報およびスケール情報とを含み、
前記制御点推定手段は、
前記ランドマークの各第1の配置情報に含まれる前記位置ベクトルに対して、当該第1の配置情報に含まれる前記回転情報およびスケール情報と、当該第1の配置情報とともに抽出された前記第1の画像特徴と前記照合結果を介して対応する前記第2の画像特徴とともに抽出された前記第2の配置情報に含まれる前記回転情報およびスケール情報とを用いて、新たな入力画像における位置ベクトルに変換し、当該第2の配置情報に含まれる前記特徴点の画像座標から当該変換した位置ベクトルを減算することによって、仮の制御点画像座標推定値を求め、
前記ランドマークの各第1の配置情報から求めた前記仮の制御点画像座標推定値を、所定の方法により平均することによって、前記新たな入力画像における当該ランドマークに対応する前記制御点の制御点推定画像座標とする
ことを特徴とする請求項1に記載のカメラ校正装置。 The first arrangement information includes a position vector from the control point to the feature point in the input image, rotation information and scale information in the vicinity of the feature point,
The second arrangement information includes image coordinates of the feature points in the new input image, rotation information and scale information in the vicinity of the feature points,
The control point estimation means includes
The first information extracted together with the rotation information and scale information included in the first arrangement information, and the first arrangement information, with respect to the position vector included in the first arrangement information of the landmark. A position vector in a new input image using the rotation information and scale information included in the second arrangement information extracted together with the second image feature corresponding to the image feature and the corresponding matching result. Converting, and subtracting the converted position vector from the image coordinates of the feature points included in the second arrangement information to obtain a temporary control point image coordinate estimated value;
Control of the control points corresponding to the landmarks in the new input image by averaging the temporary control point image coordinate estimated values obtained from the first arrangement information of the landmarks by a predetermined method The camera calibration apparatus according to claim 1, wherein the coordinates are point estimated image coordinates.
前記新たな入力画像の全体を複数の部分領域に分割し、前記仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該部分領域に係る値を1ずつ累積し、その合計値が最も大きい前記部分領域に係る仮の制御点画像座標推定値のみに関して平均を求める
ことを特徴とする請求項2に記載のカメラ校正装置。 The control point estimation means includes
The whole of the new input image is divided into a plurality of partial areas, and according to which partial area the temporary control point image coordinate estimated value belongs to, the values relating to the partial area are accumulated one by one, and the total The camera calibration apparatus according to claim 2, wherein an average is obtained only for a temporary control point image coordinate estimated value relating to the partial region having the largest value.
前記照合結果とともにその類似度を、ランドマークごとに照合結果情報として出力し、
前記制御点推定手段は、
前記新たな入力画像の全体を複数の部分領域に分割し、前記仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該仮の制御点画像座標推定値の算出に係る前記照合結果に対応する前記類似度に応じた値を、当該部分領域に係る値に累積し、その合計値が最も大きい前記部分領域に係る仮の制御点画像座標推定値のみに関して平均を求める
ことを特徴とする請求項2に記載のカメラ校正装置。 The verification means includes
Output the similarity with the matching result as matching result information for each landmark,
The control point estimation means includes
The entire new input image is divided into a plurality of partial areas, and the temporary control point image coordinate estimated value is calculated according to which partial area the temporary control point image coordinate estimated value belongs to. The value corresponding to the similarity corresponding to the collation result is accumulated in the value related to the partial area, and an average is obtained only for the temporary control point image coordinate estimated value related to the partial area having the largest total value. The camera calibration device according to claim 2, characterized in that:
前記入力画像において、世界座標が既知な点である前記制御点の画像座標と、当該制御点と関連付けるべき画像領域とを指定するランドマーク指定手段、
前記ランドマーク指定手段により指定された画像領域から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第1の配置情報と当該特徴点の視覚的な特徴を定量化した第1の画像特徴とを抽出し、当該画像領域に係る前記制御点で関連付けられたランドマークの構成要素としてランドマーク記憶手段に記憶する第1の特徴抽出手段、
前記ランドマーク指定手段により指定した前記制御点の世界座標を入力し、当該制御点で関連付けられた前記ランドマークの構成要素として前記ランドマーク記憶手段に記憶する世界座標入力手段、
前記新たな入力画像から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第2の配置情報と当該特徴点の視覚的な特徴を定量化した第2の画像特徴とを抽出する第2の特徴抽出手段、
前記ランドマーク記憶手段から読み出したランドマークの各第1の画像特徴に対して、前記第2の特徴抽出手段が抽出した第2の画像特徴の中から、最も類似度の高い前記第2の画像特徴を探索し、その照合結果をランドマークごとに照合結果情報として出力する照合手段、
前記ランドマーク記憶手段から読み出したランドマークの各第1の配置情報と、前記第2の特徴抽出手段から入力した第2の配置情報と、前記照合手段から入力した照合結果情報とに基づき、前記新たな入力画像における当該ランドマークに対応する前記制御点の画像座標を推定し、制御点推定画像座標として出力する制御点推定手段、
前記ランドマーク記憶手段から読み出した制御点の世界座標と、前記制御点推定手段から入力した制御点推定画像座標とに基づき、カメラパラメータを推定するカメラパラメータ推定手段、
として機能させることを特徴とするカメラ校正プログラム。
Using the image coordinates of the known control points of the world coordinates specified in the input image and the extracted feature points, the image coordinates of the control points are estimated from the feature points extracted in the new input image, and camera parameters are calculated. Computer to
Landmark designation means for designating image coordinates of the control point, which is a point whose world coordinates are known, and an image area to be associated with the control point in the input image;
One or more feature points that are visually characteristic points are extracted from the image area designated by the landmark designation means, and first arrangement information relating to the arrangement of the feature points and the visual representation of the feature points are extracted. A first feature extraction unit that extracts a first image feature obtained by quantifying the feature, and stores the first image feature in a landmark storage unit as a constituent element of the landmark associated with the control point related to the image region;
World coordinate input means for inputting the world coordinates of the control point designated by the landmark designation means, and storing it in the landmark storage means as a component of the landmark associated with the control point;
One or more feature points that are visually characteristic points are extracted from the new input image, and second arrangement information related to the arrangement of the feature points and the visual features of the feature points are quantified. Second feature extraction means for extracting two image features;
The second image having the highest degree of similarity among the second image features extracted by the second feature extraction unit for each first image feature of the landmark read from the landmark storage unit. A matching means for searching for features and outputting the matching result as matching result information for each landmark,
Based on each first arrangement information of landmarks read from the landmark storage means, second arrangement information inputted from the second feature extraction means, and matching result information inputted from the matching means, Control point estimation means for estimating an image coordinate of the control point corresponding to the landmark in a new input image, and outputting it as a control point estimated image coordinate;
Camera parameter estimation means for estimating camera parameters based on the world coordinates of the control points read from the landmark storage means and the control point estimation image coordinates input from the control point estimation means;
A camera calibration program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009112172A JP5227251B2 (en) | 2009-05-01 | 2009-05-01 | Camera calibration device and camera calibration program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009112172A JP5227251B2 (en) | 2009-05-01 | 2009-05-01 | Camera calibration device and camera calibration program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010261785A true JP2010261785A (en) | 2010-11-18 |
JP5227251B2 JP5227251B2 (en) | 2013-07-03 |
Family
ID=43359985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009112172A Expired - Fee Related JP5227251B2 (en) | 2009-05-01 | 2009-05-01 | Camera calibration device and camera calibration program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5227251B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10116359A (en) * | 1996-10-09 | 1998-05-06 | Sony Corp | Camera parameter arithmetic unit and image composing device |
JP2000275013A (en) * | 1999-03-24 | 2000-10-06 | Mr System Kenkyusho:Kk | Method for deciding view point position attitude, computer and storage medium |
JP2006209770A (en) * | 2005-01-25 | 2006-08-10 | Samsung Electronics Co Ltd | Device and method for estimation of position of moving body and generation of map, and computer-readable recording medium storing computer program controlling the device |
JP2008107087A (en) * | 2006-10-23 | 2008-05-08 | Nippon Hoso Kyokai <Nhk> | Apparatus for estimating light source location |
JP2009121824A (en) * | 2007-11-12 | 2009-06-04 | Nippon Hoso Kyokai <Nhk> | Equipment and program for estimating camera parameter |
JP2009124204A (en) * | 2007-11-12 | 2009-06-04 | Nippon Hoso Kyokai <Nhk> | Apparatus and program for estimating camera parameter |
-
2009
- 2009-05-01 JP JP2009112172A patent/JP5227251B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10116359A (en) * | 1996-10-09 | 1998-05-06 | Sony Corp | Camera parameter arithmetic unit and image composing device |
JP2000275013A (en) * | 1999-03-24 | 2000-10-06 | Mr System Kenkyusho:Kk | Method for deciding view point position attitude, computer and storage medium |
JP2006209770A (en) * | 2005-01-25 | 2006-08-10 | Samsung Electronics Co Ltd | Device and method for estimation of position of moving body and generation of map, and computer-readable recording medium storing computer program controlling the device |
JP2008107087A (en) * | 2006-10-23 | 2008-05-08 | Nippon Hoso Kyokai <Nhk> | Apparatus for estimating light source location |
JP2009121824A (en) * | 2007-11-12 | 2009-06-04 | Nippon Hoso Kyokai <Nhk> | Equipment and program for estimating camera parameter |
JP2009124204A (en) * | 2007-11-12 | 2009-06-04 | Nippon Hoso Kyokai <Nhk> | Apparatus and program for estimating camera parameter |
Also Published As
Publication number | Publication date |
---|---|
JP5227251B2 (en) | 2013-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6587601B1 (en) | Method and apparatus for performing geo-spatial registration using a Euclidean representation | |
US6597818B2 (en) | Method and apparatus for performing geo-spatial registration of imagery | |
US8660383B1 (en) | System and method of aligning images | |
US7616807B2 (en) | System and method for using texture landmarks for improved markerless tracking in augmented reality applications | |
Mellado et al. | Relative scale estimation and 3D registration of multi-modal geometry using Growing Least Squares | |
JP5261501B2 (en) | Permanent visual scene and object recognition | |
Läbe et al. | Automatic relative orientation of images | |
US20130191082A1 (en) | Method of Modelling Buildings on the Basis of a Georeferenced Image | |
US20150310617A1 (en) | Display control device and display control method | |
Taketomi et al. | Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality | |
JP2022542204A (en) | Image coordinate system transformation method and its device, equipment and computer program | |
CN107194959A (en) | The method and apparatus that image registration is carried out based on section | |
CN107170001A (en) | Method and apparatus for carrying out registration to image | |
JP4906683B2 (en) | Camera parameter estimation apparatus and camera parameter estimation program | |
KR20100008886A (en) | The method of automatic geometric correction for multi-resolution satellite images using scale invariant feature transform | |
JP5210241B2 (en) | Image search apparatus, control method therefor, and program | |
Ghannam et al. | Cross correlation versus mutual information for image mosaicing | |
CN108960267A (en) | System and method for model adjustment | |
JP4694624B2 (en) | Image correction apparatus and method, and computer program | |
WO2012133371A1 (en) | Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program | |
TWI468849B (en) | Building texture extracting apparatus and method thereof | |
CN116645499A (en) | Determination method, determination device, determination apparatus, determination device, determination program storage medium, and determination program product | |
JP5227251B2 (en) | Camera calibration device and camera calibration program | |
KR101373397B1 (en) | Sampling method for random sample consensus based on constraint satisfaction problem in augmented reality | |
Gonzalez et al. | A C-embedded algorithm for real-time monocular SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130315 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |