JP2010261785A - Camera calibrating device and camera calibration program - Google Patents

Camera calibrating device and camera calibration program Download PDF

Info

Publication number
JP2010261785A
JP2010261785A JP2009112172A JP2009112172A JP2010261785A JP 2010261785 A JP2010261785 A JP 2010261785A JP 2009112172 A JP2009112172 A JP 2009112172A JP 2009112172 A JP2009112172 A JP 2009112172A JP 2010261785 A JP2010261785 A JP 2010261785A
Authority
JP
Japan
Prior art keywords
image
control point
feature
landmark
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009112172A
Other languages
Japanese (ja)
Other versions
JP5227251B2 (en
Inventor
Toshie Misu
俊枝 三須
Masato Fujii
真人 藤井
Masahiro Shibata
正啓 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2009112172A priority Critical patent/JP5227251B2/en
Publication of JP2010261785A publication Critical patent/JP2010261785A/en
Application granted granted Critical
Publication of JP5227251B2 publication Critical patent/JP5227251B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera calibration device for estimating a camera parameter, even when a visually characteristic point and a known control point in a world coordinate are given separately. <P>SOLUTION: This camera calibration device 1 includes: a landmark designation means 12 for designating an image coordinate of a control point and an image domain from an input image; a characteristic extraction means 14 for extracting characteristic point arrangement information and an image characteristic from the image domain; a world coordinate input means 16 for inputting a control point world coordinate; a landmark storage means 18 for storing the characteristic point arrangement information, the image characteristic and the control point world coordinate; a characteristic extraction means 22 for extracting a characteristic point arrangement information and an image characteristic from a new input image; a collation means 24 for correlating each image characteristic having high similarity; a control point estimation means 26 for estimating a control point image coordinate of the new input image from the characteristic point arrangement information, the arrangement information and a collation result; and a camera parameter estimation means 28 for estimating the camera parameter from the control point world coordinate and the estimated control point image coordinate. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、校正対象のカメラにより撮影された画像に基づいて、カメラの位置、姿勢、または焦点距離の1以上からなるカメラパラメータを推定するカメラ校正装置およびカメラ校正プログラムに関する。   The present invention relates to a camera calibration apparatus and a camera calibration program for estimating a camera parameter including one or more of the position, posture, or focal length of a camera based on an image photographed by a camera to be calibrated.

従来、カメラ校正は、既定の、または測定済みのパターンを、校正対象のカメラで撮影して、パターンの像の形状から、解析的に、または繰り返し収束演算により、カメラパラメータを求めることが行われている。   Conventionally, in camera calibration, a predetermined or measured pattern is photographed by a camera to be calibrated, and camera parameters are obtained from the shape of the pattern image analytically or by repeated convergence calculation. ing.

繰り返し収束演算によるものの代表的な手法として、実際に観測されたパターンの像と、カメラパラメータ及びパターンのモデルから推測した観測されるべきパターンの像との一致の度合を評価しつつ、その一致の度合が最大となるように、カメラパラメータを逐次修正する手法がある。   As a typical method of recursive convergence calculation, while evaluating the degree of coincidence between the actually observed pattern image and the observed pattern image estimated from the camera parameters and pattern model, There is a method of sequentially correcting camera parameters so that the degree is maximized.

パターンとして、複数の観測点と、モデル上の点との対応関係を用いる手法(非特許文献1参照)や、観測された複数の線(直線、線分、または曲線など)と、モデル上の線との対応関係を用いる手法がある。   As a pattern, a method using correspondence between a plurality of observation points and points on the model (see Non-Patent Document 1), a plurality of observed lines (straight lines, line segments, curves, etc.), and a model There is a method using a correspondence relationship with a line.

点の対応関係を用いる手法においては、線同士の交差した点、折れ線の頂点、または円や矩形等の特定のパターンの代表点(重心など)を特徴点として抽出し、モデルとの対応関係を求める手法が主流である。   In the method using point correspondence, points that intersect each other, vertices of broken lines, or representative points (such as the center of gravity) of a specific pattern such as a circle or rectangle are extracted as feature points, and the correspondence with the model is determined. The method we seek is the mainstream.

一方、線の対応関係を用いる手法においては、例えば、ハフ変換や一般化ハフ変換によって、直線や曲線のパラメータを算出し、当該パラメータとモデルとの対応をとることが行われている(特許文献1参照)。   On the other hand, in the method using the correspondence between lines, for example, parameters of straight lines and curves are calculated by Hough transform or generalized Hough transform, and correspondence between the parameters and the model is performed (Patent Literature). 1).

また、画像対において、それぞれ視覚的に特徴的な点を複数抽出して、特徴点間の対応付けを行うことによって、画像対間におけるカメラの相対位置、相対姿勢、および焦点距離情報を得る手法がある(非特許文献2参照)。   Also, a method of obtaining the relative position, relative orientation, and focal length information of the camera between the image pairs by extracting a plurality of visually characteristic points in the image pairs and associating the feature points with each other. (See Non-Patent Document 2).

特開2004−234333号公報JP 2004-234333 A

R. Y. Tsai, An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, pp. 364-374, 1986.R. Y. Tsai, An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision.Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, pp. 364-374, 1986. C. Poelman and T. Kanade, A paraperspective factorization method for shape and motion recovery. IEEE Trans. on Pattern Analysis and Machine Intelligence, 19(3):206-218, March 1997.C. Poelman and T. Kanade, A paraperspective factorization method for shape and motion recovery.IEEE Trans. On Pattern Analysis and Machine Intelligence, 19 (3): 206-218, March 1997.

従来のカメラ校正手法では、画像内の特徴点や直線、曲線を抽出し、その座標やパラメータを得ることが最初の段階として行われ、続いて、モデルを投影変換した点や線の座標やパラメータと、観測画像から得た座標やパラメータとの距離の比較を行って、カメラパラメータを推定する。   In the conventional camera calibration method, feature points, straight lines, and curves in an image are extracted and their coordinates and parameters are obtained as the first step, and then the coordinates and parameters of points and lines obtained by projecting the model are converted. The camera parameters are estimated by comparing the distances with the coordinates and parameters obtained from the observed image.

しかし、これらの手法では、特徴点や直線、曲線などの視覚的なパターンが、世界座標を有する実空間においてどこにあるのかを予めモデル化しておく必要がある。このため、世界座標の既知な点が視覚的に特徴的でない場合や、視覚的に特徴的な点の世界座標が既知でない場合には、カメラ校正を行うことができないという問題がある。   However, in these methods, it is necessary to model in advance where a visual pattern such as a feature point, a straight line, or a curve is present in a real space having world coordinates. For this reason, there is a problem that the camera calibration cannot be performed when a known point of the world coordinates is not visually characteristic or when the world coordinates of the visually characteristic point is not known.

本発明は、かかる問題を解決するためになされたものであり、視覚的に特徴的な点と、世界座標の既知な点とが、それぞれ別々に与えられる場合にも、カメラパラメータの推定を可能とするカメラ校正装置およびカメラ校正プログラムを提供することを目的とする。   The present invention has been made to solve such a problem, and it is possible to estimate camera parameters even when visually distinctive points and known points of world coordinates are given separately. An object of the present invention is to provide a camera calibration apparatus and a camera calibration program.

本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のカメラ校正装置は、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から前記制御点の画像座標を推定して、カメラパラメータを算出するカメラ校正装置であって、ランドマーク指定手段と、第1の特徴抽出手段と、世界座標入力手段と、ランドマーク記憶手段と、第2の特徴抽出手段と、照合手段と、制御点推定手段と、カメラパラメータ推定手段と、を備える構成とした。   The present invention was devised to achieve the above object, and first, the camera calibration device according to claim 1 is characterized by extracting the image coordinates of the known control points of the world coordinates designated in the input image. A camera calibration device that calculates image parameters of a control point by estimating image coordinates of the control point from a feature point extracted from a new input image using a point, the landmark designating means, and a first feature extraction Means, world coordinate input means, landmark storage means, second feature extraction means, collation means, control point estimation means, and camera parameter estimation means.

かかる構成において、カメラ校正装置は、ランドマーク指定手段によって、入力画像において、世界座標が既知な点である制御点の画像座標と、当該制御点と関連付けるべき画像領域とを指定する。ここで、世界座標とは、実空間内における位置を表すための座標であり、画像座標とは、入力画像内の位置を表すための座標である。   In such a configuration, the camera calibration apparatus designates the image coordinates of the control point, which is a point whose world coordinates are known, and the image area to be associated with the control point in the input image by the landmark designation unit. Here, world coordinates are coordinates for representing a position in real space, and image coordinates are coordinates for representing a position in an input image.

そして、カメラ校正装置は、第1の特徴抽出手段によって、ランドマーク指定手段により指定された画像領域から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第1の配置情報と当該特徴点の視覚的な特徴を定量化した第1の画像特徴とを抽出する。すなわち、1つの画像領域から抽出される特徴点は、複数あってもよい。なお、配置情報および画像特徴は、一般に、ベクトル量である。また、カメラ校正装置は、世界座標入力手段によって、ランドマーク指定手段により指定した制御点の世界座標を入力する。   Then, the camera calibration device extracts one or more feature points that are visually characteristic points from the image region designated by the landmark designation unit by the first feature extraction unit, and arranges the feature points First arrangement information on the image and a first image feature obtained by quantifying the visual feature of the feature point are extracted. That is, there may be a plurality of feature points extracted from one image region. The arrangement information and the image feature are generally vector quantities. Also, the camera calibration device inputs the world coordinates of the control point designated by the landmark designation means by the world coordinate input means.

そして、カメラ校正装置は、ランドマーク記憶手段によって、制御点に関連づけられた画像領域から特徴抽出手段が抽出した第1の配置情報および第1の画像特徴と、世界座標入力手段から入力された制御点の世界座標との組を、1つのランドマークとして、このランドマークを複数記憶する。これによって、複数の第1の配置情報および第1の画像情報と、制御点の世界座標とが対応付けられた組となって記憶される。   Then, the camera calibration apparatus uses the landmark storage unit to control the first arrangement information and the first image feature extracted by the feature extraction unit from the image area associated with the control point, and the control input from the world coordinate input unit. A plurality of landmarks are stored with a set of points and the world coordinates as one landmark. As a result, a plurality of pieces of first arrangement information and first image information and the world coordinates of the control points are stored in association with each other.

さらに、カメラ校正装置は、第2の特徴抽出手段によって、新たな入力画像から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第2の配置情報と当該特徴点の視覚的な特徴を定量化した第2の画像特徴とを抽出する。   Furthermore, the camera calibration device extracts one or more feature points which are visually characteristic points from the new input image by the second feature extraction unit, and second arrangement information regarding the arrangement of the feature points. And a second image feature obtained by quantifying the visual feature of the feature point.

そして、カメラ校正装置は、照合手段によって、ランドマーク記憶手段から読み出したランドマークの各第1の画像特徴に対して、第2の特徴抽出手段が抽出した第2の画像特徴の中から、最も類似度の高い第2の画像特徴を探索し、その照合結果をランドマークごとに照合結果情報として出力する。ここで、類似度として、例えば、コサイン類似度を用いることができる。   Then, the camera calibration device selects the first image feature of the landmark read from the landmark storage unit by the collating unit from among the second image features extracted by the second feature extracting unit. A second image feature having a high degree of similarity is searched, and the matching result is output as matching result information for each landmark. Here, as the similarity, for example, cosine similarity can be used.

その後、カメラ校正装置は、制御点推定手段によって、ランドマーク記憶手段から読み出したランドマークの各第1の配置情報と、第2の特徴抽出手段から入力した第2の配置情報と、前記照合手段から入力した照合結果情報とに基づき、新たな入力画像内におけるランドマークに対応する制御点の画像座標を推定し、制御点推定画像座標として出力する。   Thereafter, the camera calibration device uses the control point estimating means to read the first arrangement information of the landmarks read from the landmark storage means, the second arrangement information inputted from the second feature extraction means, and the collating means. The image coordinates of the control points corresponding to the landmarks in the new input image are estimated on the basis of the collation result information input from, and output as control point estimated image coordinates.

そして、カメラ校正装置は、カメラパラメータ推定手段によって、ランドマーク記憶手段から読み出した制御点の世界座標と、制御点推定手段から入力した制御点推定画像座標とに基づき、カメラパラメータを推定する。なお、このカメラパラメータの推定には、既知の透視N点問題の解法や、非線形最小自乗法を用いることができる。   Then, the camera calibration apparatus estimates the camera parameters by the camera parameter estimation means based on the world coordinates of the control points read from the landmark storage means and the control point estimation image coordinates input from the control point estimation means. For estimating the camera parameters, a known perspective N-point problem solution method or a non-linear least square method can be used.

また、請求項2に記載のカメラ校正装置は、請求項1に記載のカメラ校正装置において、第1の配置情報が、入力画像における制御点から特徴点への位置ベクトルと、特徴点近傍における回転情報およびスケール情報とを含み、第2の配置情報は、新たな入力画像における特徴点の画像座標と、特徴点近傍における回転情報およびスケール情報とを含み、制御点推定手段が、これらの情報を用いて、制御点推定画像座標を推定する構成とした。   The camera calibration device according to claim 2 is the camera calibration device according to claim 1, wherein the first arrangement information includes a position vector from the control point to the feature point in the input image and a rotation in the vicinity of the feature point. Information and scale information, and the second arrangement information includes image coordinates of feature points in the new input image, rotation information and scale information in the vicinity of the feature points, and the control point estimation means stores these information. It was set as the structure which estimates the control point estimation image coordinate.

かかる構成において、カメラ校正装置は、制御点推定手段によって、ランドマークの各第1の配置情報に含まれる前記位置ベクトルに対して、当該第1の配置情報に含まれる回転情報およびスケール情報と、当該第1の配置情報とともに抽出された第1の画像特徴と照合結果を介して対応する第2の画像特徴とともに抽出された第2の配置情報に含まれる回転情報およびスケール情報とを用いて、新たな入力画像における位置ベクトルに変換し、当該第2の配置情報に含まれる特徴点の画像座標から当該変換した位置ベクトルを減算することによって、仮の制御点画像座標推定値を求め、ランドマークの各第1の配置情報から求めた仮の制御点画像座標推定値を、所定の方法により平均することによって、新たな入力画像における当該ランドマークに対応する制御点の制御点推定画像座標とする。   In such a configuration, the camera calibration device uses the control point estimation unit to rotate information and scale information included in the first arrangement information with respect to the position vector included in each first arrangement information of the landmark, Using the rotation information and scale information included in the second arrangement information extracted together with the first image feature extracted together with the first arrangement information and the corresponding second image feature via the matching result, By converting the position vector in the new input image and subtracting the converted position vector from the image coordinates of the feature points included in the second arrangement information, a temporary control point image coordinate estimated value is obtained, and the landmark The temporary control point image coordinate estimated value obtained from each of the first arrangement information is averaged by a predetermined method to obtain the land in the new input image. And the control point estimation image coordinates of the control points corresponding to the over-click.

また、請求項3に記載のカメラ校正装置は、請求項2に記載のカメラ校正装置において、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該部分領域に係る値を1ずつ累積し、その合計値が最も大きい部分領域に係る仮の制御点画像座標推定値のみに関して平均を求めることを特徴とする。
かかる構成により、カメラ校正装置は、制御点推定手段によって、合計値が最も大きい部分領域に係る仮の制御点画像座標推定値から、ランドマークに対応する制御点の画像座標を推定することができる。
The camera calibration device according to claim 3 is the camera calibration device according to claim 2, wherein the control point estimation means divides the whole of the new input image into a plurality of partial areas, and the provisional control point image is obtained. Depending on which partial region the coordinate estimation value belongs to, the values related to the partial region are accumulated one by one, and an average is obtained only for the temporary control point image coordinate estimation value related to the partial region having the largest total value. It is characterized by.
With this configuration, the camera calibration apparatus can estimate the image coordinates of the control point corresponding to the landmark from the temporary control point image coordinate estimated value related to the partial region having the largest total value by the control point estimating unit. .

また、請求項4に記載のカメラ校正装置は、請求項2に記載のカメラ校正装置において、照合手段が、照合結果とともにその類似度を、ランドマークごとに照合結果情報として出力し、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該仮の制御点画像座標推定値の算出に係る照合結果に対応する類似度に応じた値を、当該部分領域に係る値に累積し、その合計値が最も大きい部分領域に係る仮の制御点画像座標推定値のみに関して平均を求めることを特徴とする。
かかる構成により、カメラ校正装置は、制御点推定手段によって、類似度を考慮して平均を算出する部分領域を決定しているので、類似度を考慮した制御点の画像座標を推定することができる。
The camera calibration apparatus according to claim 4 is the camera calibration apparatus according to claim 2, wherein the collating means outputs the similarity together with the collation result as collation result information for each landmark, and estimates the control point. The means divides the entire new input image into a plurality of partial areas, and relates to the calculation of the temporary control point image coordinate estimated value according to which partial area the temporary control point image coordinate estimated value belongs to A value corresponding to the degree of similarity corresponding to the matching result is accumulated in a value related to the partial area, and an average is obtained only for the temporary control point image coordinate estimated value related to the partial area having the largest total value. To do.
With this configuration, the camera calibration apparatus determines the partial area for which the average is calculated in consideration of the similarity by the control point estimation means, so that the image coordinates of the control point in consideration of the similarity can be estimated. .

また、請求項5に記載のカメラ校正プログラムは、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から前記制御点の画像座標を推定して、カメラパラメータを算出するために、コンピュータを、ランドマーク指定手段、第1の特徴抽出手段、世界座標入力手段、第2の特徴抽出手段、照合手段、制御点推定手段、カメラパラメータ推定手段、として機能させる構成とした。   Further, the camera calibration program according to claim 5 uses the image coordinates of the known control points of the world coordinates specified in the input image and the extracted feature points to perform the control from the feature points extracted in the new input image. In order to estimate the image coordinates of the points and calculate the camera parameters, the computer is used for landmark designation means, first feature extraction means, world coordinate input means, second feature extraction means, collation means, control point estimation. And function as camera parameter estimation means.

かかる構成において、カメラ校正プログラムは、ランドマーク指定手段によって、入力画像において、制御点の画像座標と画像領域とを指定する。また、カメラ校正プログラムは、第1の特徴抽出手段によって、画像領域から、特徴点を抽出して、第1の配置情報と第1の画像特徴とを抽出し、当該画像領域に係る制御点で関連付けられたランドマークの構成要素としてランドマーク記憶手段に記憶する。そして、カメラ校正プログラムは、世界座標入力手段によって、制御点の世界座標を入力し、当該制御点で関連付けられたランドマークの構成要素として前記ランドマーク記憶手段に記憶する。   In this configuration, the camera calibration program designates the image coordinates and image area of the control point in the input image by the landmark designation means. Further, the camera calibration program extracts feature points from the image area by the first feature extraction means, extracts first arrangement information and first image features, and uses the control points related to the image area. It is stored in the landmark storage means as a constituent element of the associated landmark. Then, the camera calibration program inputs the world coordinates of the control point by the world coordinate input means, and stores it in the landmark storage means as a constituent element of the landmark associated with the control point.

さらに、カメラ校正プログラムは、第2の特徴抽出手段によって、新たな入力画像から、特徴点を抽出して、第2の配置情報と第2の画像特徴とを抽出する。そして、カメラ校正プログラムは、照合手段によって、ランドマークの各第1の画像特徴に対して、第2の画像特徴の中から、最も類似度の高いものを探索し、その照合結果をランドマークごとに照合結果情報として出力する。また、カメラ校正プログラムは、制御点推定手段によって、ランドマークの各第1の配置情報と、第2の配置情報と、照合結果情報とに基づき、新たな入力画像内における制御点の画像座標を推定し、制御点推定画像座標として出力する。そして、カメラ校正プログラムは、カメラパラメータ推定手段によって、制御点の世界座標と、制御点推定画像座標とに基づき、カメラパラメータを推定する。   Further, the camera calibration program extracts feature points from the new input image by the second feature extraction unit, and extracts second arrangement information and second image features. Then, the camera calibration program searches the first image feature of the landmark for the first image feature of the landmark with the second image feature having the highest similarity and uses the matching result for each landmark. Is output as verification result information. Further, the camera calibration program calculates the image coordinates of the control point in the new input image based on the first arrangement information of the landmark, the second arrangement information, and the matching result information by the control point estimation means. Estimate and output as control point estimation image coordinates. Then, the camera calibration program estimates the camera parameters based on the world coordinates of the control points and the control point estimated image coordinates by the camera parameter estimation means.

請求項1および請求項5に記載の発明によれば、視覚的に特徴的な点と、世界座標の既知な点とが、それぞれ別々に与えられてもカメラの校正が可能となる。すなわち、校正に用いるランドマークにおいて、視覚的に特徴的な点と、世界座標の既知な制御点とを、必ずしも一致させる必要がなくなる。このため、世界座標が既知かつ視覚的に特徴的なランドマークを用いる必要があった従来の方法に比べ、より一般的なシーンにおいてカメラパラメータの推定およびカメラ校正が可能となる。   According to the first and fifth aspects of the invention, the camera can be calibrated even when visually distinctive points and world coordinate known points are given separately. That is, in the landmark used for calibration, it is not always necessary to match a visually characteristic point with a known control point of world coordinates. This makes it possible to estimate camera parameters and calibrate the camera in a more general scene as compared to the conventional method that requires the use of landmarks with known world coordinates and visually characteristic features.

請求項2に記載の発明によれば、制御点推定手段が、制御点の画像座標を推定する場合に、入力画像および新たな入力画像の回転情報およびスケール情報を用いて、入力画像の位置ベクトルを新たな入力画像の位置ベクトルに変換し、これを用いて、仮の制御点画像座標推定値をもとめ、各ランドマークにわたって、仮の制御点画像座標推定値を平均することによって、制御点推定画像座標を求めているため、新たな入力画像において、より正確に制御点を推定でき、したがって、より正確にカメラパラメータの推定およびカメラ校正が可能となる。   According to the second aspect of the present invention, when the control point estimation means estimates the image coordinates of the control point, the position vector of the input image is obtained using the rotation information and scale information of the input image and the new input image. Is converted into a new input image position vector, which is used to determine a provisional control point image coordinate estimate and average the provisional control point image coordinate estimate over each landmark. Since the image coordinates are obtained, the control points can be estimated more accurately in the new input image, and therefore the camera parameters can be estimated and the camera calibration can be performed more accurately.

請求項3に記載の発明によれば、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、もっとも属する仮の制御点画像座標推定値が多い部分領域に関してのみ、仮の制御点画像座標推定値の平均値を求めているため、より正確に制御点を推定でき、したがって、より正確にカメラパラメータの推定およびカメラ校正が可能となる。   According to the third aspect of the present invention, the control point estimating means divides the entire new input image into a plurality of partial areas, and only the partial area having the largest temporary control point image coordinate estimation value to which it belongs most. Since the average value of the estimated control point image coordinates is obtained, the control point can be estimated more accurately. Therefore, the camera parameter can be estimated and the camera calibration can be performed more accurately.

請求項4に記載の発明によれば、制御点推定手段が、新たな入力画像の全体を複数の部分領域に分割し、もっとも属する仮の制御点画像座標推定値が多い部分領域を、類似度を考慮して決定し、当該部分領域に関してのみ、制御点画像座標推定値の平均値を求めているため、画像特徴の類似度に応じた正確な制御点を推定でき、したがって、より正確にカメラパラメータの推定およびカメラ校正が可能となる。   According to the fourth aspect of the present invention, the control point estimation means divides the entire new input image into a plurality of partial areas, and determines the partial area having the largest estimated temporary control point image coordinate value belonging to Since the average value of the control point image coordinate estimated value is obtained only for the partial area, it is possible to estimate the accurate control point according to the similarity of the image features, and thus more accurately the camera. Parameter estimation and camera calibration are possible.

本発明の実施形態に係るカメラ校正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera calibration apparatus which concerns on embodiment of this invention. ランドマーク指定手段によって、入力画像において、パターン画像領域と制御点画像座標とを指定した一例を示す図である。It is a figure which shows an example which designated the pattern image area | region and the control point image coordinate in the input image by the landmark designation | designated means. 第nのランドマークに関するパターン画像領域、特徴点、画像特徴、特徴点配置情報、制御点、および制御点画像座標の関係の一例を示す図である。It is a figure which shows an example of the relationship of the pattern image area | region regarding a nth landmark, a feature point, an image feature, feature point arrangement | positioning information, a control point, and a control point image coordinate. ランドマーク記憶手段による、特徴点配置情報、画像特徴、および制御点世界座標の記憶方式の一例を示す図である。It is a figure which shows an example of the memory | storage system of the feature point arrangement | positioning information by the landmark memory | storage means, an image feature, and a control point world coordinate. 制御点推定手段における仮の制御点画像座標推定値の算出方法を示す図である。It is a figure which shows the calculation method of the temporary control point image coordinate estimated value in a control point estimation means. 本発明の実施形態に係るカメラ校正装置のランドマーク指定機能部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the landmark designation | designated function part of the camera calibration apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るカメラ校正装置のカメラパラメータ推定機能部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera parameter estimation function part of the camera calibration apparatus which concerns on embodiment of this invention.

以下、本発明の実施形態について図面を参照して説明する。
本実施形態では、実空間内における位置を表すための座標系を世界座標系と称し、世界座標系内の座標を世界座標と称する。ここでは、世界座標系をデカルト座標系で表し、その各軸をX軸、Y軸およびZ軸とおくこととする。
また、入力画像内の位置を表すための座標系を画像座標系と称し、画像座標系内の座標を画像座標と称する。ここでは、画素並びの水平方向右向きにx軸を、また画素並びの垂直方向下向きにy軸をとることとする。
Embodiments of the present invention will be described below with reference to the drawings.
In the present embodiment, a coordinate system for representing a position in real space is referred to as a world coordinate system, and coordinates in the world coordinate system are referred to as world coordinates. Here, the world coordinate system is represented by a Cartesian coordinate system, and the respective axes are the X axis, the Y axis, and the Z axis.
In addition, a coordinate system for representing a position in the input image is referred to as an image coordinate system, and coordinates in the image coordinate system are referred to as image coordinates. Here, it is assumed that the x-axis is taken rightward in the horizontal direction of the pixel arrangement and the y-axis is taken downward in the vertical direction of the pixel arrangement.

カメラ校正に用いる入力画像に関する計測用の基準をランドマークと称する。ランドマークは、1つであっても良いし、複数存在してもよい。本発明においては、1つのランドマークには、世界座標の既知な点である制御点と、視覚的に特徴的な点である特徴点とが含まれ、特徴点は1つ以上存在するものとする。   A reference for measurement related to an input image used for camera calibration is referred to as a landmark. There may be one landmark or a plurality of landmarks. In the present invention, one landmark includes a control point that is a known point in the world coordinates and a feature point that is a visually characteristic point, and there are one or more feature points. To do.

[カメラ校正装置の構成]
以下では、図1を参照して、本発明の実施形態に係るカメラ校正装置1の構成について説明する。
[Configuration of camera calibration device]
Below, with reference to FIG. 1, the structure of the camera calibration apparatus 1 which concerns on embodiment of this invention is demonstrated.

本実施形態のカメラ校正装置1は、入力画像のランドマークから、新たな入力画像のランドマークの制御点を推定することによって、カメラパラメータを推定するものである。
具体的には、カメラ校正装置1は、入力された入力画像において指定された画像領域から、特徴点に関する特徴点配置情報および画像特徴を抽出し、画像領域と関連付けられた制御点の世界座標とともにランドマークとして記憶しておき、新たに入力された入力画像において、抽出した特徴点に関する配置情報および画像特徴と、読み出したランドマークに関する情報とから、制御点の画像座標を推定し、当該制御点の画像座標と制御点の世界座標とからカメラパラメータを推定し出力するものである。
The camera calibration apparatus 1 according to the present embodiment estimates camera parameters by estimating a control point of a new input image landmark from a landmark of the input image.
Specifically, the camera calibration device 1 extracts feature point arrangement information and image features relating to feature points from an image region specified in the input image that has been input, together with the world coordinates of control points associated with the image region. Stored as a landmark, in the newly input image, the image coordinates of the control point are estimated from the arrangement information and image feature regarding the extracted feature point and the information regarding the read landmark, and the control point The camera parameters are estimated and output from the image coordinates and the world coordinates of the control points.

カメラ校正装置1は、その機能により、ランドマーク指定機能部10と、カメラパラメータ推定機能部20とを備えている。ランドマーク指定機能部10は、ランドマーク指定手段12と、特徴抽出手段14と、世界座標入力手段16と、ランドマーク記憶手段18とを備えている。また、カメラパラメータ推定機能部20は、特徴抽出手段22と、照合手段24と、制御点推定手段26と、カメラパラメータ推定手段28とを備えている。   The camera calibration apparatus 1 includes a landmark designation function unit 10 and a camera parameter estimation function unit 20 depending on the function. The landmark designation function unit 10 includes landmark designation means 12, feature extraction means 14, world coordinate input means 16, and landmark storage means 18. The camera parameter estimation function unit 20 includes a feature extraction unit 22, a collation unit 24, a control point estimation unit 26, and a camera parameter estimation unit 28.

はじめに、カメラ校正装置1のランドマーク指定機能部10の構成について説明する。
[[ランドマーク指定機能部の構成]]
ランドマーク指定手段12は、ランドマークに対応する画像領域等を指定するものである。
具体的には、ランドマーク指定手段12は、入力された入力画像I(x,y)において、特徴点を抽出するための画像領域(以下、パターン画像領域という。)と、世界座標の既知な点である制御点の画像座標(以下、制御点画像座標という。)とを指定し、指定された結果を特徴抽出手段14へ出力するものである。
First, the configuration of the landmark designation function unit 10 of the camera calibration apparatus 1 will be described.
[[Configuration of Landmark Specification Function]]
The landmark designation means 12 designates an image area or the like corresponding to the landmark.
Specifically, the landmark designation means 12 has an image area for extracting feature points (hereinafter referred to as a pattern image area) and a known world coordinate in the input image I (x, y) inputted. An image coordinate of a control point that is a point (hereinafter referred to as a control point image coordinate) is designated, and the designated result is output to the feature extraction means 14.

ランドマーク指定手段12において、パターン画像領域および制御点画像座標は、複数指定でき、1つの指定が1つのランドマークに対応する。ランドマーク指定手段12において、これらをN個(Nは自然数)指定した場合に、n番目(1≦n≦N)のランドマークL(n)に対応するパターン画像領域をD(n)、制御点をC(n)、制御点C(n)の画像座標をc(n)=[c (n),c (n)と記す。ここで、上付きのTは転置行列(Transposed matrix)を表す。なお、I(x,y)とは、画像座標の各点(x,y)において、値(輝度値等)I(x,y)が定義されていることを意味する。 In the landmark designation means 12, a plurality of pattern image areas and control point image coordinates can be designated, and one designation corresponds to one landmark. When the landmark designation means 12 designates N (N is a natural number), the pattern image area corresponding to the nth (1 ≦ n ≦ N) landmark L (n) is controlled by D (n) . The point is denoted by C (n) and the image coordinate of the control point C (n) is denoted as c (n) = [c x (n) , cy (n) ] T. Here, the superscript T represents a transposed matrix. Note that I (x, y) means that a value (luminance value, etc.) I (x, y) is defined at each point (x, y) of the image coordinates.

例えば、液晶ディスプレイやCRTなどの表示装置に入力画像I(x,y)を提示し、その上にカーソルを重畳表示しておき、マウスのドラッグ操作等により、矩形領域をパターン画像領域として指定する。また、マウスボタンのクリック操作により、制御点画像座標を指定する。   For example, an input image I (x, y) is presented on a display device such as a liquid crystal display or a CRT, a cursor is superimposed on the input image I, and a rectangular region is designated as a pattern image region by a mouse drag operation or the like. . In addition, the control point image coordinates are designated by clicking the mouse button.

図2は、ランドマーク指定手段12によって、入力画像において、パターン画像領域と制御点画像座標とを指定した一例を示す図である。図2中の破線で示した矩形領域が指定したパターン画像領域D(n)を示し、×印で示した位置が指定した制御点C(n)の画像座標c(n)=[c (n),c (n)を示す。 FIG. 2 is a diagram showing an example in which a pattern image region and control point image coordinates are designated in the input image by the landmark designation means 12. Shows a pattern image region D (n) rectangular region is specified as shown by a broken line in FIG. 2, the image coordinates c of the control point position indicated by × marks specified C (n) (n) = [c x ( n) , cy (n) ] T.

特徴抽出手段(第1の特徴抽出手段)14は、入力画像からランドマークを構成する特徴点の情報を抽出するものである。
具体的には、特徴抽出手段14は、ランドマーク指定手段12で指定された入力画像I(x,y)のパターン画像領域内から、視覚的に特徴的な点である特徴点を抽出し、その特徴点の配置に関する特徴点配置情報と、その特徴点の視覚的な特徴を定量化した画像特徴とを抽出して、ランドマーク記憶手段18へ出力するものである。
特徴抽出手段14が、n番目のランドマークL(n)に対応するパターン画像領域D(n)内から抽出した特徴点の数をM(n)個(M(n)は自然数)とし、抽出したm番目(1≦m≦M(n))の特徴点をE (n)とする。
The feature extraction means (first feature extraction means) 14 extracts information on feature points constituting the landmark from the input image.
Specifically, the feature extraction unit 14 extracts a feature point that is a visually characteristic point from the pattern image area of the input image I (x, y) designated by the landmark designation unit 12, The feature point arrangement information regarding the arrangement of the feature points and the image features obtained by quantifying the visual features of the feature points are extracted and output to the landmark storage unit 18.
The feature extraction unit 14 extracts M (n) feature points (M (n) is a natural number), which is extracted from the pattern image region D (n) corresponding to the nth landmark L (n). The m th (1 ≦ m ≦ M (n) ) feature point is defined as E m (n) .

特徴抽出手段14は、特徴点E (n)の特徴点配置情報g (n)として、少なくとも、入力画像における位置情報、すなわち、画像座標系において、制御点C(n)から特徴点E (n)に至るベクトル[p (n),q (n)を含む情報を抽出する。このベクトルの算出には、ランドマーク指定手段12において指定された制御点画像座標c(n)が用いられる。 The feature extraction unit 14 uses at least position information in the input image as the feature point arrangement information g m (n) of the feature point E m (n) , that is, the feature point E from the control point C (n) in the image coordinate system. m reaches the (n) vector to extract information including a [p m (n), q m (n)] T. For the calculation of this vector, the control point image coordinates c (n) designated by the landmark designation means 12 are used.

本実施形態においては、特徴点配置情報は、g (n)=[p (n),q (n),r (n),s (n)とする。ここで、r (n)は、回転情報を表し、入力画像I(x,y)が特徴点E (n)近傍において有する視覚的に特徴的な方位である。例えば、r (n)として、特徴点E (n)近傍の部分画像に含まれる代表的な(例えば、コントラストの高い)エッジの方位を用いることができる。また、s (n)は、スケール情報を表し、入力画像I(x,y)が特徴点E (n)近傍において有する視覚的に特徴的な大きさ情報である。例えば、s (n)として、特徴点E (n)近傍の部分画像に含まれる代表的なテクスチャの大きさ(すなわち、テクスチャの代表的な空間周波数成分)を用いることができる。 In the present embodiment, the feature point arrangement information, g m (n) = a [p m (n), q m (n), r m (n), s m (n)] T. Here, r m (n) denotes the rotation information, the input image I (x, y) is visually distinctive orientation with the E m (n) near the feature point. For example, as r m (n) , a representative edge orientation (for example, high contrast) included in a partial image near the feature point E m (n) can be used. Further, s m (n) represents scale information, and is visually characteristic size information that the input image I (x, y) has in the vicinity of the feature point E m (n) . For example, as s m (n) , a representative texture size (that is, a representative spatial frequency component of the texture ) included in the partial image in the vicinity of the feature point E m (n) can be used.

特徴抽出手段14は、これらの特徴点配置情報g (n)=[p (n),q (n),r (n),s (n)を、例えば、SIFT(Scale Invariant Feature Transform)(D. G. Lowe, “Object recognition from local scale-invariant features” Proc. of IEEE International Conference on Computer Vision(ICCV), pp. 1150-1157, 1999)におけるキーポイントの位置、オリエンテーションおよびスケールとして得ることができる。キーポイント、オリエンテーション、およびスケールが、それぞれ本実施形態の特徴点、回転情報、およびスケール情報に対応する。 Feature extracting means 14, these feature point arrangement information g m (n) = a [p m (n), q m (n), r m (n), s m (n)] T, for example, SIFT ( Scale Invariant Feature Transform (DG Lowe, “Object recognition from local scale-invariant features” Proc. Of IEEE International Conference on Computer Vision (ICCV), pp. 1150-1157, 1999) Obtainable. The key point, orientation, and scale correspond to the feature point, rotation information, and scale information of this embodiment, respectively.

なお、具体的に、SIFTの処理は次のようなものである。すなわち、Difference-of-Gaussian(DoG)画像から、極値を検出することで、特徴点(キーポイント)とそのスケール情報を決定する。また、特徴点の周辺領域から、勾配方向のヒストグラムを求め、ピークをオリエンテーションとして割り当てる。そして、特徴点のスケールによって定まる周辺領域を、オリエンテーションに従い回転させ、当該周辺領域を特徴点からの距離によるガウス窓で重み付けした後、4x4の16の小領域に分割し、各小領域で8方向の勾配方向ヒストグラムを求めることで、回転およびスケールに不変な128次元のSIFT特徴量記述を得る。   Specifically, SIFT processing is as follows. In other words, feature points (key points) and scale information thereof are determined by detecting extreme values from a Difference-of-Gaussian (DoG) image. Further, a histogram in the gradient direction is obtained from the peripheral area of the feature point, and a peak is assigned as the orientation. Then, the surrounding area determined by the scale of the feature points is rotated according to the orientation, and the surrounding area is weighted by a Gaussian window according to the distance from the feature points, and then divided into 16 4 × 4 small areas, and each of the small areas has 8 directions. By obtaining the gradient direction histogram, a 128-dimensional SIFT feature description that is invariant to rotation and scale is obtained.

なお、特徴抽出手段14は、パターン画像領域D(n)内から抽出したM(n)個の特徴点すべての特徴点配置情報g (n)をまとめて行列G(n)とし、G(n)を出力してもよい((1)式参照)。 Note that the feature extraction unit 14 collects the feature point arrangement information g m (n) of all M (n) feature points extracted from the pattern image region D (n) into a matrix G (n), and G ( n) may be output (see equation (1)).

Figure 2010261785
Figure 2010261785

さらに、特徴抽出手段14は、特徴点E (n)の画像特徴f (n)として、入力画像I(x,y)内のE (n)近傍の濃淡や色などの空間的分布のパターンを特徴づける情報(数量やベクトル量)を抽出する。この画像特徴f (n)は、回転および拡大・縮小に対して、その値が変化しにくいものであることが好ましい。また、この画像特徴f (n)は、画像の全体的な(特徴点E (n)近傍領域のサイズ以上の領域における)輝度値の一様な変化に対しても変化しにくいものであることが好ましい。 Furthermore, the feature extraction unit 14 uses the spatial distribution of the lightness and color near E m (n) in the input image I (x, y) as the image feature f m (n) of the feature point E m (n). Information (quantity and vector quantity) characterizing the pattern is extracted. It is preferable that the image feature f m (n) has a value that hardly changes with rotation and enlargement / reduction. Further, the image feature f m (n) is less likely to change even with a uniform change in luminance value (in a region larger than the size of the region near the feature point E m (n) ) of the image. Preferably there is.

特徴抽出手段14は、例えば、画像特徴f (n)として、前記SIFTにおけるSIFT記述(SIFT descriptor)を用いることができる。 The feature extraction unit 14 can use, for example, the SIFT description (SIFT descriptor) in the SIFT as the image feature f m (n) .

なお、特徴抽出手段14は、パターン画像領域D(n)内から抽出したM(n)個の特徴点すべての画像特徴f (n)をまとめて行列F(n)とし、F(n)を出力してもよい((2)式参照)。 Note that the feature extraction unit 14 collects the image features f m (n) of all M (n) feature points extracted from the pattern image region D (n) into a matrix F (n), and F (n) May be output (see equation (2)).

Figure 2010261785
Figure 2010261785

図3は、第nのランドマークL(n)に関するパターン画像領域D(n)、特徴点E (n)、画像特徴f (n)、特徴点配置情報g (n)、制御点C(n)、および制御点画像座標[c (n),c (n)の関係の一例を示す図である。図3では、特徴点を3つ示した。なお、図3の例では、制御点C(n)がパターン画像領域D(n)の外側に存在するが、制御点C(n)はパターン画像領域D(n)の内側や境界上に存在してもよい。 FIG. 3 shows a pattern image region D (n) , a feature point E m (n) , an image feature f m (n) , feature point arrangement information g m (n) , control points regarding the nth landmark L (n). C (n), and the control point image coordinates is a diagram showing an example of the relationship between [c x (n), c y (n)] T. In FIG. 3, three feature points are shown. In the example of FIG. 3, the control point C (n) exists outside the pattern image area D (n) , but the control point C (n) exists inside or on the boundary of the pattern image area D (n). May be.

世界座標入力手段16は、制御点の世界座標を入力するものである。
具体的には、世界座標入力手段16は、ランドマーク指定手段12において画像座標を指定した各制御点について、世界座標を入力し、ランドマーク記憶手段18へ出力するインタフェースである。
世界座標入力手段16で入力された、第nのランドマークL(n)に対応する制御点C(n)の世界座標をw(n)=[w (n),w (n),w (n)と記す。
The world coordinate input means 16 inputs the world coordinates of the control point.
Specifically, the world coordinate input means 16 is an interface that inputs world coordinates for each control point for which image coordinates are designated by the landmark designation means 12 and outputs the world coordinates to the landmark storage means 18.
Entered the world coordinate input unit 16, the world coordinates of the control points C (n) corresponding to the landmark L of the n (n) w (n) = [w x (n), w y (n), w z (n) ] T.

世界座標入力手段16は、例えば、キーボードやつまみ、マウスなどのマンマシンインタフェースの操作により、制御点世界座標w(n)を数値入力する方式とすることができる。また、例えば、本装置の外部に接続する他の測量装置で測量された制御点の世界座標w(n)を受信するインタフェースであってもよい。 The world coordinate input means 16 may be a method of inputting the control point world coordinates w (n) numerically by operating a man-machine interface such as a keyboard, knob, or mouse. Further, for example, it may be an interface that receives the world coordinates w (n) of the control point measured by another surveying device connected to the outside of the present device.

ランドマーク記憶手段18は、ランドマークに関する情報を記憶するものである。
具体的には、ランドマーク記憶手段18は、特徴抽出手段14から入力した特徴点配置情報および画像特徴と、世界座標入力手段16から入力した制御点世界座標との組を、ランドマークごとに(制御点ごとに)複数組記憶する記憶手段である。また、ランドマーク記憶手段18は、後述するカメラパラメータ推定機能部20の照合手段24、制御点推定手段26、およびカメラパラメータ推定手段28から読み出し要求があった場合に、記憶しているデータを出力するものである。ランドマーク記憶手段18は、半導体メモリ、ハードディスク等の一般的な記憶媒体であればよく、その種類は問わない。
The landmark storage means 18 stores information relating to landmarks.
Specifically, the landmark storage unit 18 sets a set of feature point arrangement information and image features input from the feature extraction unit 14 and control point world coordinates input from the world coordinate input unit 16 for each landmark ( Storage means for storing a plurality of sets (for each control point). The landmark storage means 18 outputs the stored data when there is a read request from the collation means 24, the control point estimation means 26, and the camera parameter estimation means 28 of the camera parameter estimation function unit 20 described later. To do. The landmark storage means 18 may be a general storage medium such as a semiconductor memory or a hard disk, and the type thereof is not limited.

例えば、ランドマーク記憶手段18は、図4に示すように、ランドマーク番号ごとに表形式により、特徴点配置情報、画像特徴、および制御点世界座標の組を記憶する方式とすることができる。   For example, as shown in FIG. 4, the landmark storage unit 18 can store a set of feature point arrangement information, image features, and control point world coordinates in a tabular format for each landmark number.

次に、カメラ校正装置1のカメラパラメータ推定機能部20の構成について説明する。
[[カメラパラメータ推定機能部の構成]]
特徴抽出手段(第2の特徴抽出手段)22は、新たな入力画像から特徴点の情報を抽出するものである。
具体的には、特徴抽出手段22は、新たに入力された入力画像(以下、新たな入力画像という。)I(x,y)内から、視覚的に特徴的な点である特徴点を抽出し、その特徴点の配置に関する配置情報と、その特徴点の視覚的な特徴を定量化した画像特徴とを抽出して、画像特徴を照合手段24へ、配置情報を制御点推定手段26へ、それぞれ出力するものである。
この特徴抽出手段22は、ランドマーク指定機能部10の特徴抽出手段14と、特徴点等を抽出する領域が異なるのみで、ほぼ同様の処理を行うものである。
Next, the configuration of the camera parameter estimation function unit 20 of the camera calibration apparatus 1 will be described.
[[Configuration of camera parameter estimation function]]
The feature extraction means (second feature extraction means) 22 extracts feature point information from a new input image.
Specifically, the feature extraction unit 22 extracts feature points that are visually characteristic points from a newly input image (hereinafter referred to as a new input image) I (x, y). Then, the arrangement information relating to the arrangement of the feature points and the image features obtained by quantifying the visual features of the feature points are extracted, the image features are sent to the matching means 24, and the placement information is sent to the control point estimation means 26. Each is output.
The feature extraction unit 22 performs substantially the same processing as the feature extraction unit 14 of the landmark designation function unit 10 except for the area for extracting feature points and the like.

特徴抽出手段22が、新たな入力画像I(x,y)内から抽出した特徴点の数をK個(Kは自然数)とし、抽出したk番目(1≦k≦K)番目の特徴点をBとする。特徴抽出手段22は、特徴点Bの配置情報γとして、当該特徴点の位置情報である画像座標[x,y、回転情報ψおよびスケール情報σを抽出する((3)式参照)。ここで、回転情報ψおよびスケール情報σは、ランドマーク指定機能部10の特徴抽出手段14が抽出する回転情報r (n)およびスケール情報s (n)と同様のものである。 The feature extraction unit 22 sets the number of feature points extracted from the new input image I (x, y) to K (K is a natural number), and the extracted k-th (1 ≦ k ≦ K) -th feature point. Let Bk . The feature extraction means 22 extracts the image coordinate [x k , y k ] T , the rotation information ψ k and the scale information σ k which are the position information of the feature point as the arrangement information γ k of the feature point B k (( 3) Refer to equation). The rotation information [psi k and scale information sigma k is the same as the rotation information feature extraction means 14 Landmarks designation unit 10 extracts r m (n) and scale information s m (n).

Figure 2010261785
Figure 2010261785

なお、特徴抽出手段22は、新たな入力画像I(x,y)内から抽出したK個の特徴点すべての配置情報γをまとめて行列Γとし、Γを出力してもよい((4)式参照)。 Note that the feature extraction means 22 may collect the arrangement information γ k of all K feature points extracted from the new input image I (x, y) into a matrix Γ and output Γ ((4 ) See formula).

Figure 2010261785
Figure 2010261785

また、特徴抽出手段22は、特徴点Bの画像特徴φとして、新たな入力画像I(x,y)内のB近傍の濃淡や色などの空間的分布のパターンを特徴づける情報(数量やベクトル量)を抽出する。この画像特徴φは、ランドマーク指定機能部10の特徴抽出手段14が抽出する画像特徴f (n)と同様のものである。 Further, the feature extraction means 22 characterizes the spatial distribution pattern such as the density and color in the vicinity of B k in the new input image I (x, y) as the image feature φ k of the feature point B k ( (Quantity and vector quantity). This image feature φ k is the same as the image feature f m (n) extracted by the feature extraction unit 14 of the landmark designation function unit 10.

なお、特徴抽出手段22は、新たな入力画像I(x,y)内から抽出したK個の特徴点すべての画像特徴φをまとめて行列Φとし、Φを出力してもよい((5)式参照)。 Note that the feature extraction unit 22 may collect the image features φ k of all K feature points extracted from the new input image I (x, y) into a matrix Φ and output Φ ((5 ) See formula).

Figure 2010261785
Figure 2010261785

照合手段24は、入力画像の特徴点と、新たな入力画像の特徴点との対応づけをするものである。
具体的には、照合手段24は、ランドマーク記憶手段18から読み出した各ランドマークL(n)の画像特徴F(n)を構成する各画像特徴f (n)に対して、特徴抽出手段22から入力した画像特徴Φを構成する画像特徴φの中から、最も類似度の高い画像特徴φを探索し、その番号kを照合結果h (n)として、制御点推定手段26へ出力するものである(1≦n≦N、1≦m≦M(n)、1≦k≦K)。
The matching unit 24 associates the feature points of the input image with the feature points of the new input image.
Specifically, the collation unit 24 performs feature extraction unit for each image feature f m (n) constituting the image feature F (n) of each landmark L (n) read from the landmark storage unit 18. from the image feature phi k constituting the image feature Φ input from 22, and searches the most similar image features phi k, the number k as the collation result h m (n), to the control point estimating means 26 (1 ≦ n ≦ N, 1 ≦ m ≦ M (n) , 1 ≦ k ≦ K).

照合手段24は、画像特徴F(n)を構成する画像特徴f (n)と、画像特徴Φを構成する画像特徴φとの間の類似度を、λ(f (n),φ)で評価し、類似度の高いもの同士を対応づける。例えば、類似度λ(f,φ)として、コサイン類似度を用いることができる((6)式参照)。 Collation means 24, an image feature f m (n) constituting an image feature F (n), the similarity between the image feature phi k constituting the image feature Φ, λ (f m (n ), φ k ), and those having high similarity are associated with each other. For example, the cosine similarity can be used as the similarity λ (f, φ) (see equation (6)).

Figure 2010261785
Figure 2010261785

そして、照合手段24は、各画像特徴f (n)に対し、類似度λ(f (n),φ)を最大化する画像特徴φを探索し、その番号kを照合結果h (n)として出力する((7)式参照)。 Then, the matching unit 24 searches the image feature φ k that maximizes the similarity λ (f m (n) , φ k ) for each image feature f m (n) , and uses the number k as a matching result h. m (n) is output (see equation (7)).

Figure 2010261785
Figure 2010261785

なお、照合手段24は、ランドマークL(n)のM(n)個すべての画像特徴に関する照合結果h (n)をまとめて照合結果情報H(n)とし、行列H(n)を出力してもよい((8)式参照)。 Note that the collating unit 24 collects collation results h m (n) for all M (n) image features of the landmark L (n) as collation result information H (n), and outputs a matrix H (n) . (Refer to equation (8)).

Figure 2010261785
Figure 2010261785

また、照合手段24は、各照合結果h (n)に加えて、各類似度λ (n)も出力してもよい((9)式参照)。行列として出力する場合には、(8)式に示す行列H(n)に代えて、類似度λ (n)を付加した(10)式に示す行列H(n)を出力する。 Further, the matching unit 24 may output each similarity λ m (n) in addition to each matching result h m (n) ( see equation (9)). When outputting a matrix (8) in place of the matrix H (n) shown in the expression, and outputs a similarity lambda m (n) obtained by adding (10) shown in the expression matrix H (n).

Figure 2010261785
Figure 2010261785

Figure 2010261785
Figure 2010261785

制御点推定手段26は、新たな入力画像において制御点の座標を推定するものである。
具体的には、制御点推定手段26は、ランドマーク記憶手段18から読み出した各ランドマークの特徴点配置情報(G(1),…,G(N))と、特徴抽出手段22から入力された特徴点の配置情報Γと、照合手段24から入力された照合結果情報(H(1),…,H(N))とに基づき、新たな入力画像I(x,y)内のどこに各ランドマーク(L(1),…,L(N))の制御点(C(1),…,C(N))があるかを推定し、推定した制御点推定画像座標(κ(1),…,κ(N))を、カメラパラメータ推定手段28へ出力する。
The control point estimation means 26 estimates the coordinates of the control point in the new input image.
Specifically, the control point estimation unit 26 is input from the feature point arrangement information (G (1) ,..., G (N) ) of each landmark read from the landmark storage unit 18 and the feature extraction unit 22. Each of the positions in the new input image I (x, y) based on the arrangement information Γ of the feature points and the matching result information (H (1) ,..., H (N) ) input from the matching means 24. It is estimated whether there is a control point (C (1) ,..., C (N) ) of the landmark (L (1) ,..., L (N) ), and the estimated control point estimated image coordinates (κ (1) ,..., Κ (N) ) are output to the camera parameter estimating means 28.

制御点推定手段26は、第nのランドマークL(n)の制御点推定画像座標κ(n)を以下の推定手順で推定する(1≦n≦N)。なお、この制御点推定画像座標κ(n)の推定は、投票処理(高木雅成、藤吉弘亘、“SIFT特徴量を用いた交通道路標識認識”、第13回画像センシングシンポジウムSSII07、LD2-06、2007)に類似するものである。 The control point estimation means 26 estimates the control point estimated image coordinates κ (n) of the nth landmark L (n) by the following estimation procedure (1 ≦ n ≦ N). This control point estimation image coordinate κ (n) is estimated by voting (Masari Takagi, Hironobu Fujiyoshi, “Traffic road sign recognition using SIFT features”, 13th Image Sensing Symposium SSII07, LD2- 06, 2007).

まず、制御点推定手段26は、第nのランドマークL(n)に含まれる第mの特徴点E (n)に対して、仮の制御点画像座標推定値τ (n)を求める。すなわち、制御点推定手段26は、ランドマーク記憶手段18から読み出した特徴点配置情報G(n)より、特徴点E (n)に関する特徴点配置情報g (n)=[p (n),q (n),r (n),s (n)を取り出す。また、照合手段24から入力された照合結果情報H(n)より、特徴点E (n)に関する照合結果h (n)を取り出す。さらに、特徴抽出手段22から入力された特徴点の配置情報Γより、番号がh (n)である特徴点の配置情報を取り出す((11)式参照)。 First, the control point estimating means 26, the feature point of the m included in the landmark of the n L (n) E m (n), determined the control point image coordinate estimated values of the provisional tau m to (n) . That is, the control point estimation unit 26 uses the feature point arrangement information G m (n) = [p m (n ) regarding the feature point E m (n) based on the feature point arrangement information G (n) read from the landmark storage unit 18. ), q m (n), r m (n), taken out s m (n)] T. Further, from the verification result information H received from the collating unit 24 (n), the verification result taken out h m (n) relating to the feature point E m (n). Further, the feature point arrangement information with the number h m (n) is extracted from the feature point arrangement information Γ input from the feature extraction means 22 (see equation (11)).

Figure 2010261785
Figure 2010261785

ここで、制御点推定手段26は、g (n)=[p (n),q (n),r (n),s (n)および(11)式から、制御点C (n)の画像座標を推定し、仮の制御点画像座標推定値τ (n)((12)式参照)を、(13)式により求める。 Here, the control point estimating means 26, g m (n) = a [p m (n), q m (n), r m (n), s m (n)] T and (11), the control estimating the image coordinates of the point C m (n), the control point image coordinate estimated values of the provisional tau m (n) to ((12) see formula) is obtained by (13).

Figure 2010261785
Figure 2010261785

Figure 2010261785
Figure 2010261785

図5は、(13)式の意味を説明する図である。図5において、説明の便宜上、添え字は省略した。図5の左図は、入力画像の一部を表し、図5の右図は、新たな入力画像の一部を表し、左図と右図とは同画素数とする。左図において、特徴点が回転情報rおよびスケール情報sを有し、右図において、対応する類似度が最大の特徴点が回転情報ψおよびスケール情報σを有するものとする。(13)式は、これらの情報を用いて、左図の特徴点に係る位置ベクトル[p,q]を回転・拡大(縮小)した右図の位置ベクトルに、仮の制御点画像座標推定値を加えたものが、類似度が最大の特徴点の画像座標[x,y]となることを意味するものである。 FIG. 5 is a diagram for explaining the meaning of the equation (13). In FIG. 5, subscripts are omitted for convenience of explanation. The left diagram in FIG. 5 represents a part of an input image, the right diagram in FIG. 5 represents a part of a new input image, and the left diagram and the right diagram have the same number of pixels. In the left figure, it is assumed that the feature point has rotation information r and scale information s, and in the right figure, the corresponding feature point having the maximum similarity has rotation information ψ and scale information σ. The expression (13) uses these pieces of information to estimate a temporary control point image coordinate to the position vector of the right figure obtained by rotating and enlarging (reducing) the position vector [p, q] T related to the feature point of the left figure. plus the value is intended to mean that the degree of similarity is the image coordinates [x, y] T of the maximum feature points.

このようにして、制御点推定手段26は、ランドマークL(n)に含まれるすべての特徴点E (n)(1≦m≦M(n))に対して、仮の制御点画像座標推定値τ (n)を求める。そして、画像座標内で、τ (n)が空間的に密集した箇所を探し出し、当該密集した画像座標近傍の仮の制御点画像座標推定値τ (n)の平均値を求め、当該平均値を、制御点推定画像座標κ(n)として出力する。 In this way, the control point estimation means 26 uses the temporary control point image coordinates for all the feature points E m (n) (1 ≦ m ≦ M (n) ) included in the landmark L (n). estimate tau m (n) of determined. Then, in the image coordinates, a place where τ m (n) is spatially dense is searched for, an average value of the temporary control point image coordinate estimated values τ m (n) in the vicinity of the dense image coordinates is obtained, and the average The value is output as the control point estimated image coordinate κ (n) .

この平均値の算出方法として、例えば、制御点推定手段26は、新たな入力画像I(x,y)の全体を複数の部分領域に分割し(例えば、格子状に分割してもよいし、隣接する部分領域同士が重なり合うように分割してもよい)、仮の制御点画像座標推定値τ (n)(1≦m≦M(n))がどの部分領域に属するかに応じて1票ずつ投票を行い、最も投票数の多かった部分領域R(n)を求める。続いて、制御点推定手段26は、当該最も投票数の多かった部分領域R(n)に票を投じた仮の制御点画像座標推定値τ (n)のみに関して、それらの平均値を求め、当該平均値を制御点推定画像座標κ(n)として出力してもよい。 As a method for calculating the average value, for example, the control point estimation unit 26 divides the entire new input image I (x, y) into a plurality of partial regions (for example, may be divided into a grid pattern, Adjacent partial areas may be divided so as to overlap each other), and 1 depending on which partial area the temporary control point image coordinate estimated value τ m (n) (1 ≦ m ≦ M (n) ) belongs to Voting is performed for each vote, and the partial region R (n) with the largest number of votes is obtained. Subsequently, the control point estimating means 26 obtains an average value of only the temporary control point image coordinate estimated value τ m (n) cast in the partial area R (n) having the largest number of votes. The average value may be output as the control point estimated image coordinates κ (n) .

なお、(8)式に代えて、(10)式に示した照合結果情報H(n)を用いる場合には、制御点推定手段26は、前記平均値の算出方法における投票に際して、1票ではなく、類似度λ (n)に応じた可変の票数を投ずるようにしてもよい。例えば、投ずる票数a (n)を、広義の増加関数αを用いて、(14)式のように設定することができる。ここで、広義の増加関数αとして、折線関数を用いることができる((15)式参照)。 When the matching result information H (n) shown in the equation (10) is used instead of the equation (8), the control point estimation unit 26 does not use one vote for voting in the average value calculation method. Alternatively, a variable number of votes corresponding to the similarity λ m (n) may be cast. For example, the number of votes a m (n) to be cast can be set as shown in the equation (14) using an increase function α in a broad sense. Here, a polygonal line function can be used as the increase function α in a broad sense (see equation (15)).

Figure 2010261785
Figure 2010261785

Figure 2010261785
Figure 2010261785

また、制御点推定手段26は、制御点推定画像座標κ(n)に加えて、制御点推定信頼度v(n)(1≦n≦N)を出力してもよい。例えば、制御点推定信頼度v(n)として、前記最も得票数の多かった部分領域R(n)の得票数を用いることができる。あるいは、制御点推定信頼度v(n)として、前記最も得票数の多かった部分領域R(n)の得票数を、総投票数で除したものを用いてもよい。 The control point estimating means 26, in addition to the control point estimation image coordinates kappa (n), the control point estimation reliability v a (n) (1 ≦ n ≦ N) may be output. For example, as the control point estimation reliability v (n) , the number of votes of the partial region R (n) having the largest number of votes can be used. Alternatively, the control point estimation reliability v (n) may be obtained by dividing the number of votes of the partial region R (n) having the largest number of votes by the total number of votes.

このようにして、制御点推定手段26は、第nのランドマークL(n)の制御点推定画像座標κ(n)(また、必要に応じて、制御点推定信頼度v(n))を得る。この推定手順を、全てのランドマーク(L(1),…,L(N))について実行し、制御点推定画像座標(κ(1),…,κ(N))(また、必要に応じて、制御点推定信頼度(v(1),…,v(N)))を得る。 In this way, the control point estimation means 26 determines the control point estimation image coordinates κ (n) (and the control point estimation reliability v (n) ) of the nth landmark L (n) as necessary. obtain. The estimation procedure, all landmark (L (1), ..., L (N)) was performed for the control point estimation image coordinates (κ (1), ..., κ (N)) ( also, if necessary Then, the control point estimation reliability (v (1) ,..., V (N) )) is obtained.

カメラパラメータ推定手段28は、カメラパラメータを推定するものである。
具体的には、カメラパラメータ推定手段28は、ランドマーク記憶手段18から読み出したN個の制御点世界座標(w(1),…,w(N))と、制御点推定手段26から入力されたN個の制御点推定画像座標(κ(1),…,κ(N))とに基づき、カメラパラメータθを算出し、カメラパラメータ推定機能部20の結果として出力するものである。
The camera parameter estimation means 28 estimates camera parameters.
Specifically, the camera parameter estimation unit 28, N pieces of control point world coordinates read from the landmark storage unit 18 (w (1), ... , w (N)) and are input from the control point estimating means 26 The camera parameter θ is calculated based on the N control point estimation image coordinates (κ (1) ,..., Κ (N) ), and is output as a result of the camera parameter estimation function unit 20.

例えば、カメラパラメータ推定手段28は、N個の制御点世界座標(w(1),…,w(N))をカメラパラメータθ’により画像座標へ投影し、その結果と制御点推定画像座標(κ(1),…,κ(N))との誤差を最小化するθ’を非線形最小自乗法により求め、その結果をカメラパラメータθとすることができる((16)式参照)。ここで、関数β(w;θ)は、カメラパラメータθによる世界座標wから画像座標への投影を表す。 For example, the camera parameter estimation means 28 projects the N control point world coordinates (w (1) ,..., W (N) ) onto the image coordinates by the camera parameter θ ′, and the result and the control point estimated image coordinates ( θ ′ that minimizes an error from κ (1) ,..., κ (N) ) can be obtained by the nonlinear least square method, and the result can be used as the camera parameter θ (see equation (16)). Here, the function β (w; θ) represents the projection from the world coordinate w to the image coordinate by the camera parameter θ.

Figure 2010261785
Figure 2010261785

また、カメラパラメータ推定手段28は、カメラパラメータθの推定にあたって、制御点推定手段26から入力される制御点推定信頼度(v(1),…,v(N))を考慮してもよい。例えば、(16)式の代わりに、(17)式を用いることができる。 Further, the camera parameter estimation means 28 may consider the control point estimation reliability (v (1) ,..., V (N) ) input from the control point estimation means 26 when estimating the camera parameter θ. For example, equation (17) can be used instead of equation (16).

Figure 2010261785
Figure 2010261785

さらに、例えば、RANSACによる透視N点問題の解法(M. A. Fischler, R. C. Bolles, “Random sample consensus, a paradigm for model fitting with applications to image analysis and automated cartography”, Comm. of the ACM, Vol. 24, pp. 381-395, 1981.)を用いることができる。   Furthermore, for example, the solution of the perspective N-point problem by RANSAC (MA Fischler, RC Bolles, “Random sample consensus, a paradigm for model fitting with applications to image analysis and automated cartography”, Comm. Of the ACM, Vol. 24, pp 381-395, 1981.) can be used.

このように、カメラ校正装置1を構成することで、視覚的に特徴的な点と、世界座標の既知な点とがそれぞれ別々に与えられる場合であっても、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から制御点の画像座標を推定して、カメラパラメータを算出することができる。   In this way, by configuring the camera calibration device 1, even if a visually characteristic point and a known point in the world coordinates are given separately, the world coordinates specified in the input image can be obtained. Using the image coordinates of the known control points and the extracted feature points, the camera parameters can be calculated by estimating the image coordinates of the control points from the feature points extracted in the new input image.

なお、世界座標系の原点の位置や、各軸のとり方は任意である。本実施形態では、世界座標系をデカルト座標系で表し、その各軸をX軸、Y軸およびZ軸としたが、この場合、例えば、三角点などの測量用の基準に原点を置き、XおよびYの2軸を水平面内にとり、X軸を北向き、Y軸を東向きとし、Z軸を鉛直上向きにとることができる。あるいは、スポーツ競技場などの施設や競技フィールドに合わせて各軸をとってもよい。例えば、サッカー場のセンターマーク中央を原点とし、X軸をタッチラインと平行かつコーチエリア側から見て右向きにとり、Y軸をハーフウェイライン方向かつコーチエリアから遠ざかる方向にとり、また、Z軸をサッカー場の地面に対して垂直かつ上向きにとることができる。   In addition, the position of the origin of the world coordinate system and how to take each axis are arbitrary. In the present embodiment, the world coordinate system is represented by a Cartesian coordinate system, and the axes thereof are the X axis, the Y axis, and the Z axis. In this case, for example, the origin is placed on a survey reference such as a triangular point, The two axes Y and Y can be in the horizontal plane, the X axis can be north, the Y axis can be east, and the Z axis can be vertically upward. Alternatively, each axis may be taken in accordance with a facility such as a sports stadium or a competition field. For example, with the center mark center of the soccer field as the origin, the X-axis is parallel to the touch line and the right side when viewed from the coach area side, the Y-axis is the half-way line direction and away from the coach area, and the Z-axis is It can be taken vertically and upward with respect to the ground of the field.

なお、カメラパラメータ推定機能部20の特徴抽出手段22は、新たな入力画像I(x,y)全体からではなく入力画像内に定められる固定領域内から、特徴点等を抽出してもよい。   Note that the feature extraction unit 22 of the camera parameter estimation function unit 20 may extract feature points or the like not from the entire new input image I (x, y) but from a fixed region defined in the input image.

また、カメラ校正装置1は、一般的なカメラ(デジタルカメラ)の他、放送用ビデオカメラ、民生用ビデオカメラ等のビデオカメラに適用可能である。また、カメラ校正装置1は、コンピュータにおいて各手段を機能プログラムとして実現させることも可能であり、各機能プログラムを結合して、カメラ校正プログラムとして動作させることも可能である。   The camera calibration apparatus 1 can be applied to a video camera such as a broadcast video camera and a consumer video camera in addition to a general camera (digital camera). The camera calibration apparatus 1 can also realize each unit as a function program in a computer, and can also operate the camera calibration program by combining the function programs.

[カメラ校正装置の動作]
次に、本発明の実施形態におけるカメラ校正装置1の動作について説明する。前述したように、カメラ校正装置1は、その機能により、ランドマーク指定機能部10と、カメラパラメータ推定機能部20とに大別される。以下では、それぞれについて、動作を説明する。
[Operation of camera calibration device]
Next, the operation of the camera calibration apparatus 1 in the embodiment of the present invention will be described. As described above, the camera calibration apparatus 1 is roughly classified into the landmark designation function unit 10 and the camera parameter estimation function unit 20 according to the function. Below, operation | movement is demonstrated about each.

[[ランドマーク指定機能部の動作]]
まず、図6を参照して(構成については、適宜図1を参照)、本発明の実施形態に係るカメラ校正装置1のランドマーク指定機能部10の動作について説明する。
[[Operation of Landmark Specification Function]]
First, the operation of the landmark designation function unit 10 of the camera calibration apparatus 1 according to the embodiment of the present invention will be described with reference to FIG.

まず、カメラ校正装置1は、ランドマーク指定手段12によって、入力画像において、1つのランドマークLに対応するパターン画像領域Dと、制御点Cの画像座標cとを指定する(S11)。   First, the camera calibration apparatus 1 designates the pattern image area D corresponding to one landmark L and the image coordinates c of the control point C in the input image by the landmark designation means 12 (S11).

そして、カメラ校正装置1は、特徴抽出手段14によって、指定されたパターン画像領域D内から、特徴点をいくつか抽出する(S12)。その後、カメラ校正装置1は、特徴抽出手段14によって、1つの特徴点Eの特徴点配置情報gを抽出し(S13)、さらに当該特徴点Eの画像特徴fを抽出する(S14)。その後、カメラ校正装置1は、特徴抽出手段14によって、まだ、特徴点配置情報および画像特徴を抽出していない特徴点があるか否かを判定し(S15)、ある場合(S15でYes)にはS13へ戻り、ない場合(S15でNo)にはS16へ進む。   Then, the camera calibration device 1 extracts some feature points from the designated pattern image region D by the feature extraction unit 14 (S12). Thereafter, the camera calibration apparatus 1 extracts the feature point arrangement information g of one feature point E by the feature extraction unit 14 (S13), and further extracts the image feature f of the feature point E (S14). Thereafter, the camera calibration apparatus 1 determines whether or not there is a feature point from which the feature point arrangement information and the image feature have not yet been extracted by the feature extraction unit 14 (S15), and if there is (Yes in S15). Returns to S13, and if not (No in S15), proceeds to S16.

そして、カメラ校正装置1は、世界座標入力手段16によって、ランドマークLの制御点Cの世界座標wを入力する(S16)。これは、ランドマーク指定手段12によって、画像座標cが入力された制御点Cに対応するものである。   And the camera calibration apparatus 1 inputs the world coordinate w of the control point C of the landmark L by the world coordinate input means 16 (S16). This corresponds to the control point C to which the image coordinate c is input by the landmark specifying means 12.

そして、カメラ校正装置1は、ランドマーク記憶手段18によって、ランドマークLの、すべての特徴点に対する特徴点配置情報Gおよび画像特徴Fと、制御点Cの世界座標wとの組を記憶する(S17)。   Then, the camera calibration apparatus 1 stores the set of the feature point arrangement information G and the image feature F for all the feature points of the landmark L and the world coordinates w of the control point C by the landmark storage unit 18 ( S17).

そして、カメラ校正装置1は、ランドマーク指定手段12によって、さらに別のランドマークに対する処理を行うか否かを判定し(S18)、行う場合(S18でYes)にはS11へ戻り、行わない場合(S18でNo)には、カメラ校正装置1のランドマーク指定機能部10の動作を終了する。   Then, the camera calibration device 1 determines whether or not to process another landmark by the landmark designating unit 12 (S18). If yes (Yes in S18), the process returns to S11. In (No in S18), the operation of the landmark designation function unit 10 of the camera calibration device 1 is terminated.

なお、カメラ校正装置1のランドマーク指定機能部の動作は、これに限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で変更可能である。例えば、S11−S15より先に、S16をおこなってもよい。また、例えば、S11により、最初に処理を行いたいすべてのランドマークLに対応するパターン画像領域Dと、制御点Cの画像座標cとを指定しておいてもよい。   The operation of the landmark designation function unit of the camera calibration device 1 is not limited to this, and can be changed without departing from the spirit of the present embodiment. For example, S16 may be performed prior to S11-S15. Further, for example, the pattern image area D corresponding to all landmarks L to be processed first and the image coordinates c of the control point C may be designated by S11.

[[カメラパラメータ推定機能部の動作]]
次に、図7を参照して(構成については、適宜図1を参照)、本発明の実施形態に係るカメラ校正装置1のカメラパラメータ推定機能部20の動作について説明する。
[[Operation of camera parameter estimation function]]
Next, the operation of the camera parameter estimation function unit 20 of the camera calibration apparatus 1 according to the embodiment of the present invention will be described with reference to FIG.

まず、カメラ校正装置1は、特徴抽出手段22によって、新たに入力された入力画像(又はその固定領域)から、いくつかの特徴点Bと、当該特徴点の配置情報γおよび画像特徴φとを抽出する(S21)。これは、入力画像全体から抽出するか、または、指定されたパターン画像領域から抽出するか、という違いを除いて、ランドマーク指定機能部10の特徴抽出手段14の動作のS12、S13、S14、およびS15とほぼ同様の動作である(図6参照)。 First, the camera calibration device 1 includes several feature points B k , arrangement information γ k of the feature points, and image features φ from an input image (or a fixed region thereof) newly input by the feature extraction unit 22. k is extracted (S21). This is the same as the operation of the feature extraction unit 14 of the landmark designation function unit 10 except for the difference between extraction from the entire input image or extraction from the designated pattern image region, S12, S13, S14, The operation is almost the same as S15 (see FIG. 6).

そして、カメラ校正装置1は、照合手段24によって、ランドマーク記憶手段18から、1つのランドマークLの画像特徴Fを読み出す(S22)。その後、カメラ校正装置1は、照合手段24によって、画像特徴Fに含まれる画像特徴fに対して、類似度が最大となる画像特徴φの番号を照合結果hとする(S23)。その後、カメラ校正装置1は、照合手段24によって、照合結果を求めていない画像特徴があるか否かを判定し(S24)、ある場合(S24でYes)にはS23に戻り、ない場合(S24でNo)にはS25へ進む。 Then, the camera calibration apparatus 1 reads the image feature F of one landmark L from the landmark storage unit 18 by the collating unit 24 (S22). Then, the camera calibration device 1, the collation means 24, the image feature f included in the image feature F, the similarity is the collation result h the number of the image feature phi k that maximizes (S23). Thereafter, the camera calibration apparatus 1 determines whether or not there is an image feature for which the collation result has not been obtained by the collation unit 24 (S24), and if there is (Yes in S24), returns to S23, and if not (S24) No), the process proceeds to S25.

その後、カメラ校正装置1は、照合手段24によって、照合結果hをまとめて、ランドマークLの照合結果情報Hとする(S25)。その後、カメラ校正装置1は、照合手段24によって、照合結果情報を求めていないランドマークがあるか否かを判定し(S26)、ある場合(S26でYes)にはS22に戻り、ない場合(S26でNo)にはS27へ進む。   Thereafter, the camera calibration device 1 collects the collation results h by the collating unit 24 and sets the collation result information H of the landmark L (S25). Thereafter, the camera calibration device 1 determines whether or not there is a landmark for which collation result information is not obtained by the collating unit 24 (S26). If there is a landmark (Yes in S26), the process returns to S22. If NO in S26, the process proceeds to S27.

そして、カメラ校正装置1は、制御点推定手段26によって、ランドマーク記憶手段18から、1つのランドマークLの特徴点配置情報Gを読み出す(S27)。その後、カメラ校正装置1は、制御点推定手段26によって、ランドマークLの特徴点Eに対して、Eに対応するGの特徴点配置情報gと、照合結果情報Hから求めたLおよびEに対応する照合結果hを番号とする特徴点の配置情報γとから、(13)式により、仮の制御点画像座標推定値τを算出する(S28)。その後、カメラ校正装置1は、制御点推定手段26によって、仮の制御点画像座標推定値を求めていない特徴点があるか否か判定し(S29)、ある場合(S29でYes)にはS28に戻り、ない場合(S29でNo)にはS30へ進む。 Then, the camera calibration apparatus 1 reads the feature point arrangement information G of one landmark L from the landmark storage unit 18 by the control point estimation unit 26 (S27). Thereafter, the camera calibration device 1 uses the control point estimation unit 26 to set the feature point E of the landmark L to L and E obtained from the feature point arrangement information g of G corresponding to E and the matching result information H. A temporary control point image coordinate estimated value τ is calculated from the feature point arrangement information γ h with the corresponding matching result h as a number, using equation (13) (S28). Thereafter, the camera calibration apparatus 1 determines whether or not there is a feature point for which a temporary control point image coordinate estimated value has not been obtained by the control point estimating means 26 (S29). If not (No in S29), the process proceeds to S30.

その後、カメラ校正装置1は、制御点推定手段26によって、仮の制御点画像座標推定値τの平均値を求め、ランドマークLの制御点推定画像座標κとする(S30)。その後、カメラ校正装置1は、制御点推定手段26によって、制御点推定画像座標を求めていないランドマークがあるか否かを判定し(S31)、ある場合(S31でYes)にはS27へ戻り、ない場合(S31でNo)にはS32へ進む。   Thereafter, the camera calibration device 1 obtains the average value of the temporary control point image coordinate estimated value τ by the control point estimating means 26 and sets it as the control point estimated image coordinate κ of the landmark L (S30). Thereafter, the camera calibration device 1 determines whether or not there is a landmark for which the control point estimation image coordinates are not obtained by the control point estimation means 26 (S31), and if there is (Yes in S31), returns to S27. If not (No in S31), the process proceeds to S32.

そして、カメラ校正装置1は、カメラパラメータ推定手段28によって、全てのランドマークにわたる、制御点推定画像座標κと、ランドマーク記憶手段から読み出した制御点世界座標wとに基づき、透視N点問題の解法または所定の非線形最小自乗法などを用いて、カメラパラメータθを算出する(S32)。その後、カメラ校正装置1のカメラパラメータ推定機能部20の動作を終了する。   Then, the camera calibration apparatus 1 uses the camera parameter estimation means 28 to determine the perspective N-point problem based on the control point estimated image coordinates κ over all landmarks and the control point world coordinates w read from the landmark storage means. The camera parameter θ is calculated using a solution or a predetermined nonlinear least square method (S32). Thereafter, the operation of the camera parameter estimation function unit 20 of the camera calibration apparatus 1 is terminated.

なお、カメラ校正装置1のカメラパラメータ推定機能部20の動作は、これに限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で変更可能である。   The operation of the camera parameter estimation function unit 20 of the camera calibration device 1 is not limited to this, and can be changed without departing from the spirit of the present embodiment.

以上の動作によって、視覚的に特徴的な点と、世界座標の既知な点とがそれぞれ別々に与えられる場合であっても、入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から制御点の画像座標を推定して、カメラパラメータを算出することができる。   With the above operation, even if a visually characteristic point and a known point in the world coordinates are given separately, the image coordinates and extraction of the known control point in the world coordinates specified in the input image are extracted. Using the feature points, the camera parameters can be calculated by estimating the image coordinates of the control points from the feature points extracted in the new input image.

1 カメラ校正装置
10 ランドマーク指定機能部
12 ランドマーク指定手段
14 特徴抽出手段(第1の特徴抽出手段)
16 世界座標入力手段
18 ランドマーク記憶手段
20 カメラパラメータ推定機能部
22 特徴抽出手段(第2の特徴抽出手段)
24 照合手段
26 制御点推定手段
28 カメラパラメータ推定手段
DESCRIPTION OF SYMBOLS 1 Camera calibration apparatus 10 Landmark designation | designated function part 12 Landmark designation | designated means 14 Feature extraction means (1st feature extraction means)
16 World Coordinate Input Unit 18 Landmark Storage Unit 20 Camera Parameter Estimation Function Unit 22 Feature Extraction Unit (Second Feature Extraction Unit)
24 collating means 26 control point estimating means 28 camera parameter estimating means

Claims (5)

入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から前記制御点の画像座標を推定して、カメラパラメータを算出するカメラ校正装置であって、
前記入力画像において、世界座標が既知な点である前記制御点の画像座標と、当該制御点と関連付けるべき画像領域とを指定するランドマーク指定手段と、
前記ランドマーク指定手段により指定された画像領域から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第1の配置情報と当該特徴点の視覚的な特徴を定量化した第1の画像特徴とを抽出する第1の特徴抽出手段と、
前記ランドマーク指定手段により指定した前記制御点の世界座標を入力する世界座標入力手段と、
前記制御点に関連づけられた前記画像領域から前記特徴抽出手段が抽出した第1の配置情報および第1の画像特徴と、前記世界座標入力手段から入力された当該制御点の世界座標との組を、1つのランドマークとして、このランドマークを複数記憶するランドマーク記憶手段と、
前記新たな入力画像から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第2の配置情報と当該特徴点の視覚的な特徴を定量化した第2の画像特徴とを抽出する第2の特徴抽出手段と、
前記ランドマーク記憶手段から読み出したランドマークの各第1の画像特徴に対して、前記第2の特徴抽出手段が抽出した第2の画像特徴の中から、最も類似度の高い前記第2の画像特徴を探索し、その照合結果をランドマークごとに照合結果情報として出力する照合手段と、
前記ランドマーク記憶手段から読み出したランドマークの各第1の配置情報と、前記第2の特徴抽出手段から入力した第2の配置情報と、前記照合手段から入力した照合結果情報とに基づき、前記新たな入力画像における当該ランドマークに対応する前記制御点の画像座標を推定し、制御点推定画像座標として出力する制御点推定手段と、
前記ランドマーク記憶手段から読み出した制御点の世界座標と、前記制御点推定手段から入力した制御点推定画像座標とに基づき、カメラパラメータを推定するカメラパラメータ推定手段と、
を備えることを特徴とするカメラ校正装置。
Using the image coordinates of the known control points of the world coordinates specified in the input image and the extracted feature points, the image coordinates of the control points are estimated from the feature points extracted in the new input image, and camera parameters are calculated. A camera calibration device that
In the input image, landmark designation means for designating the image coordinates of the control point, which is a point whose world coordinates are known, and an image region to be associated with the control point;
One or more feature points that are visually characteristic points are extracted from the image area designated by the landmark designation means, and first arrangement information relating to the arrangement of the feature points and the visual representation of the feature points are extracted. First feature extraction means for extracting a first image feature obtained by quantifying the feature;
World coordinate input means for inputting world coordinates of the control point designated by the landmark designation means;
A set of the first arrangement information and the first image feature extracted by the feature extraction unit from the image region associated with the control point, and the world coordinates of the control point input from the world coordinate input unit. Landmark storage means for storing a plurality of landmarks as one landmark;
One or more feature points that are visually characteristic points are extracted from the new input image, and second arrangement information related to the arrangement of the feature points and the visual features of the feature points are quantified. Second feature extraction means for extracting two image features;
The second image having the highest degree of similarity among the second image features extracted by the second feature extraction unit for each first image feature of the landmark read from the landmark storage unit. A matching means for searching for a feature and outputting the matching result as matching result information for each landmark;
Based on each first arrangement information of landmarks read from the landmark storage means, second arrangement information inputted from the second feature extraction means, and matching result information inputted from the matching means, Control point estimation means for estimating an image coordinate of the control point corresponding to the landmark in a new input image, and outputting it as a control point estimation image coordinate;
Camera parameter estimation means for estimating camera parameters based on the world coordinates of the control points read from the landmark storage means and the control point estimation image coordinates input from the control point estimation means;
A camera calibration device comprising:
前記第1の配置情報は、前記入力画像における前記制御点から前記特徴点への位置ベクトルと、当該特徴点近傍における回転情報およびスケール情報とを含み、
前記第2の配置情報は、前記新たな入力画像における前記特徴点の画像座標と、当該特徴点近傍における回転情報およびスケール情報とを含み、
前記制御点推定手段は、
前記ランドマークの各第1の配置情報に含まれる前記位置ベクトルに対して、当該第1の配置情報に含まれる前記回転情報およびスケール情報と、当該第1の配置情報とともに抽出された前記第1の画像特徴と前記照合結果を介して対応する前記第2の画像特徴とともに抽出された前記第2の配置情報に含まれる前記回転情報およびスケール情報とを用いて、新たな入力画像における位置ベクトルに変換し、当該第2の配置情報に含まれる前記特徴点の画像座標から当該変換した位置ベクトルを減算することによって、仮の制御点画像座標推定値を求め、
前記ランドマークの各第1の配置情報から求めた前記仮の制御点画像座標推定値を、所定の方法により平均することによって、前記新たな入力画像における当該ランドマークに対応する前記制御点の制御点推定画像座標とする
ことを特徴とする請求項1に記載のカメラ校正装置。
The first arrangement information includes a position vector from the control point to the feature point in the input image, rotation information and scale information in the vicinity of the feature point,
The second arrangement information includes image coordinates of the feature points in the new input image, rotation information and scale information in the vicinity of the feature points,
The control point estimation means includes
The first information extracted together with the rotation information and scale information included in the first arrangement information, and the first arrangement information, with respect to the position vector included in the first arrangement information of the landmark. A position vector in a new input image using the rotation information and scale information included in the second arrangement information extracted together with the second image feature corresponding to the image feature and the corresponding matching result. Converting, and subtracting the converted position vector from the image coordinates of the feature points included in the second arrangement information to obtain a temporary control point image coordinate estimated value;
Control of the control points corresponding to the landmarks in the new input image by averaging the temporary control point image coordinate estimated values obtained from the first arrangement information of the landmarks by a predetermined method The camera calibration apparatus according to claim 1, wherein the coordinates are point estimated image coordinates.
前記制御点推定手段は、
前記新たな入力画像の全体を複数の部分領域に分割し、前記仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該部分領域に係る値を1ずつ累積し、その合計値が最も大きい前記部分領域に係る仮の制御点画像座標推定値のみに関して平均を求める
ことを特徴とする請求項2に記載のカメラ校正装置。
The control point estimation means includes
The whole of the new input image is divided into a plurality of partial areas, and according to which partial area the temporary control point image coordinate estimated value belongs to, the values relating to the partial area are accumulated one by one, and the total The camera calibration apparatus according to claim 2, wherein an average is obtained only for a temporary control point image coordinate estimated value relating to the partial region having the largest value.
前記照合手段は、
前記照合結果とともにその類似度を、ランドマークごとに照合結果情報として出力し、
前記制御点推定手段は、
前記新たな入力画像の全体を複数の部分領域に分割し、前記仮の制御点画像座標推定値がどの部分領域に属するかに応じて、当該仮の制御点画像座標推定値の算出に係る前記照合結果に対応する前記類似度に応じた値を、当該部分領域に係る値に累積し、その合計値が最も大きい前記部分領域に係る仮の制御点画像座標推定値のみに関して平均を求める
ことを特徴とする請求項2に記載のカメラ校正装置。
The verification means includes
Output the similarity with the matching result as matching result information for each landmark,
The control point estimation means includes
The entire new input image is divided into a plurality of partial areas, and the temporary control point image coordinate estimated value is calculated according to which partial area the temporary control point image coordinate estimated value belongs to. The value corresponding to the similarity corresponding to the collation result is accumulated in the value related to the partial area, and an average is obtained only for the temporary control point image coordinate estimated value related to the partial area having the largest total value. The camera calibration device according to claim 2, characterized in that:
入力画像において指定した世界座標の既知な制御点の画像座標と抽出した特徴点とを用いて、新たな入力画像において抽出した特徴点から前記制御点の画像座標を推定して、カメラパラメータを算出するために、コンピュータを、
前記入力画像において、世界座標が既知な点である前記制御点の画像座標と、当該制御点と関連付けるべき画像領域とを指定するランドマーク指定手段、
前記ランドマーク指定手段により指定された画像領域から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第1の配置情報と当該特徴点の視覚的な特徴を定量化した第1の画像特徴とを抽出し、当該画像領域に係る前記制御点で関連付けられたランドマークの構成要素としてランドマーク記憶手段に記憶する第1の特徴抽出手段、
前記ランドマーク指定手段により指定した前記制御点の世界座標を入力し、当該制御点で関連付けられた前記ランドマークの構成要素として前記ランドマーク記憶手段に記憶する世界座標入力手段、
前記新たな入力画像から、視覚的に特徴的な点である特徴点を1つ以上抽出し、当該特徴点の配置に関する第2の配置情報と当該特徴点の視覚的な特徴を定量化した第2の画像特徴とを抽出する第2の特徴抽出手段、
前記ランドマーク記憶手段から読み出したランドマークの各第1の画像特徴に対して、前記第2の特徴抽出手段が抽出した第2の画像特徴の中から、最も類似度の高い前記第2の画像特徴を探索し、その照合結果をランドマークごとに照合結果情報として出力する照合手段、
前記ランドマーク記憶手段から読み出したランドマークの各第1の配置情報と、前記第2の特徴抽出手段から入力した第2の配置情報と、前記照合手段から入力した照合結果情報とに基づき、前記新たな入力画像における当該ランドマークに対応する前記制御点の画像座標を推定し、制御点推定画像座標として出力する制御点推定手段、
前記ランドマーク記憶手段から読み出した制御点の世界座標と、前記制御点推定手段から入力した制御点推定画像座標とに基づき、カメラパラメータを推定するカメラパラメータ推定手段、
として機能させることを特徴とするカメラ校正プログラム。
Using the image coordinates of the known control points of the world coordinates specified in the input image and the extracted feature points, the image coordinates of the control points are estimated from the feature points extracted in the new input image, and camera parameters are calculated. Computer to
Landmark designation means for designating image coordinates of the control point, which is a point whose world coordinates are known, and an image area to be associated with the control point in the input image;
One or more feature points that are visually characteristic points are extracted from the image area designated by the landmark designation means, and first arrangement information relating to the arrangement of the feature points and the visual representation of the feature points are extracted. A first feature extraction unit that extracts a first image feature obtained by quantifying the feature, and stores the first image feature in a landmark storage unit as a constituent element of the landmark associated with the control point related to the image region;
World coordinate input means for inputting the world coordinates of the control point designated by the landmark designation means, and storing it in the landmark storage means as a component of the landmark associated with the control point;
One or more feature points that are visually characteristic points are extracted from the new input image, and second arrangement information related to the arrangement of the feature points and the visual features of the feature points are quantified. Second feature extraction means for extracting two image features;
The second image having the highest degree of similarity among the second image features extracted by the second feature extraction unit for each first image feature of the landmark read from the landmark storage unit. A matching means for searching for features and outputting the matching result as matching result information for each landmark,
Based on each first arrangement information of landmarks read from the landmark storage means, second arrangement information inputted from the second feature extraction means, and matching result information inputted from the matching means, Control point estimation means for estimating an image coordinate of the control point corresponding to the landmark in a new input image, and outputting it as a control point estimated image coordinate;
Camera parameter estimation means for estimating camera parameters based on the world coordinates of the control points read from the landmark storage means and the control point estimation image coordinates input from the control point estimation means;
A camera calibration program characterized by functioning as
JP2009112172A 2009-05-01 2009-05-01 Camera calibration device and camera calibration program Expired - Fee Related JP5227251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009112172A JP5227251B2 (en) 2009-05-01 2009-05-01 Camera calibration device and camera calibration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009112172A JP5227251B2 (en) 2009-05-01 2009-05-01 Camera calibration device and camera calibration program

Publications (2)

Publication Number Publication Date
JP2010261785A true JP2010261785A (en) 2010-11-18
JP5227251B2 JP5227251B2 (en) 2013-07-03

Family

ID=43359985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009112172A Expired - Fee Related JP5227251B2 (en) 2009-05-01 2009-05-01 Camera calibration device and camera calibration program

Country Status (1)

Country Link
JP (1) JP5227251B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116359A (en) * 1996-10-09 1998-05-06 Sony Corp Camera parameter arithmetic unit and image composing device
JP2000275013A (en) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
JP2006209770A (en) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd Device and method for estimation of position of moving body and generation of map, and computer-readable recording medium storing computer program controlling the device
JP2008107087A (en) * 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Apparatus for estimating light source location
JP2009121824A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Equipment and program for estimating camera parameter
JP2009124204A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating camera parameter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116359A (en) * 1996-10-09 1998-05-06 Sony Corp Camera parameter arithmetic unit and image composing device
JP2000275013A (en) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
JP2006209770A (en) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd Device and method for estimation of position of moving body and generation of map, and computer-readable recording medium storing computer program controlling the device
JP2008107087A (en) * 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Apparatus for estimating light source location
JP2009121824A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Equipment and program for estimating camera parameter
JP2009124204A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating camera parameter

Also Published As

Publication number Publication date
JP5227251B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
US6587601B1 (en) Method and apparatus for performing geo-spatial registration using a Euclidean representation
US6597818B2 (en) Method and apparatus for performing geo-spatial registration of imagery
US8660383B1 (en) System and method of aligning images
US7616807B2 (en) System and method for using texture landmarks for improved markerless tracking in augmented reality applications
Mellado et al. Relative scale estimation and 3D registration of multi-modal geometry using Growing Least Squares
JP5261501B2 (en) Permanent visual scene and object recognition
Läbe et al. Automatic relative orientation of images
US20130191082A1 (en) Method of Modelling Buildings on the Basis of a Georeferenced Image
US20150310617A1 (en) Display control device and display control method
Taketomi et al. Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality
JP2022542204A (en) Image coordinate system transformation method and its device, equipment and computer program
CN107194959A (en) The method and apparatus that image registration is carried out based on section
CN107170001A (en) Method and apparatus for carrying out registration to image
JP4906683B2 (en) Camera parameter estimation apparatus and camera parameter estimation program
KR20100008886A (en) The method of automatic geometric correction for multi-resolution satellite images using scale invariant feature transform
JP5210241B2 (en) Image search apparatus, control method therefor, and program
Ghannam et al. Cross correlation versus mutual information for image mosaicing
CN108960267A (en) System and method for model adjustment
JP4694624B2 (en) Image correction apparatus and method, and computer program
WO2012133371A1 (en) Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program
TWI468849B (en) Building texture extracting apparatus and method thereof
CN116645499A (en) Determination method, determination device, determination apparatus, determination device, determination program storage medium, and determination program product
JP5227251B2 (en) Camera calibration device and camera calibration program
KR101373397B1 (en) Sampling method for random sample consensus based on constraint satisfaction problem in augmented reality
Gonzalez et al. A C-embedded algorithm for real-time monocular SLAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees