JP2017116280A - Camera calibration system, camera calibration program, and camera calibration method - Google Patents
Camera calibration system, camera calibration program, and camera calibration method Download PDFInfo
- Publication number
- JP2017116280A JP2017116280A JP2015248610A JP2015248610A JP2017116280A JP 2017116280 A JP2017116280 A JP 2017116280A JP 2015248610 A JP2015248610 A JP 2015248610A JP 2015248610 A JP2015248610 A JP 2015248610A JP 2017116280 A JP2017116280 A JP 2017116280A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- calibration
- point
- coordinate value
- digitized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 46
- 238000005259 measurement Methods 0.000 claims abstract description 109
- 230000014509 gene expression Effects 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000002986 genetic algorithm method Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 238000005457 optimization Methods 0.000 description 24
- 230000000052 comparative effect Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラ較正システム、カメラ較正プログラム、及びカメラ較正方法に関する。 The present invention relates to a camera calibration system, a camera calibration program, and a camera calibration method.
3次元動作分析法として、DLT法(Direct−Liner−Transformation法)が知られている(非特許文献1)。DLT法は、試合や競技会での選手の3次元動作の分析に一般的に用いられている。 As a three-dimensional motion analysis method, a DLT method (Direct-Liner-Transformation method) is known (Non-Patent Document 1). The DLT method is generally used for analyzing the three-dimensional motion of a player in a game or competition.
DLT法を用いる場合、一般的に、複数台のカメラにより、3次元座標値が既知である較正点を撮像して、カメラの較正を行う。具体的には、較正点の3次元座標値とデジタイズ座標値(画像上での座標値)との幾何学的な関係から、1台のカメラに対して11個の較正係数(以下、DLTパラメーターと記載する)を算出する。そして、11個のDLTパラメーターを用いてカメラの較正を行う。また、DLT法を用いる場合、一般的に、同一平面に含まれない較正点を6個以上用いる。したがって、試合や競技の開始前に、試合会場等の実測空間に、同一平面に含まれない較正点を6個以上設置する必要がある。 When the DLT method is used, generally, a calibration point having a known three-dimensional coordinate value is captured by a plurality of cameras, and the camera is calibrated. Specifically, from the geometric relationship between the three-dimensional coordinate values of the calibration points and the digitized coordinate values (coordinate values on the image), 11 calibration coefficients (hereinafter referred to as DLT parameters) for one camera. Is calculated). Then, the camera is calibrated using 11 DLT parameters. When the DLT method is used, generally six or more calibration points that are not included in the same plane are used. Therefore, before the start of a game or competition, it is necessary to install six or more calibration points that are not included in the same plane in an actual measurement space such as a game venue.
しかしながら、実際の試合会場等では、同一平面に含まれない較正点を6個以上設置することが困難な場合がある。 However, in an actual game venue or the like, it may be difficult to install six or more calibration points that are not included in the same plane.
本発明は上記課題に鑑みてなされたものであり、その目的は、カメラの較正に用いる較正点の数を減らすことができるカメラ較正システム、カメラ較正プログラム、及びカメラ較正方法を提供することにある。 The present invention has been made in view of the above problems, and an object thereof is to provide a camera calibration system, a camera calibration program, and a camera calibration method capable of reducing the number of calibration points used for camera calibration. .
本発明に係るカメラ較正システムは、定点カメラと、演算装置とを備える。前記定点カメラは、実測空間を撮像した画像を取得する。前記実測空間は、少なくとも3個の較正点を含む。前記演算装置は、前記較正点の前記画像上でのデジタイズ座標値を測定する。また、前記演算装置は、実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記定点カメラのパラメーターの最適解を取得する。前記演算式は、前記パラメーターを含む。 The camera calibration system according to the present invention includes a fixed point camera and a calculation device. The fixed point camera acquires an image obtained by imaging the actual measurement space. The actual measurement space includes at least three calibration points. The arithmetic unit measures a digitized coordinate value on the image of the calibration point. Further, the calculation device includes a calculation formula for calculating a three-dimensional coordinate value of the calibration point in a real space coordinate system, and a projection coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto a digitized coordinate system, Based on the digitized coordinate value of the calibration point, an optimal solution of the fixed point camera parameter is obtained. The arithmetic expression includes the parameters.
ある実施形態では、前記演算装置は、前記較正点のデジタイズ座標値と前記較正点の投影座標値との差が最小となるような前記最適解を取得する。 In one embodiment, the arithmetic unit obtains the optimum solution that minimizes a difference between the digitized coordinate value of the calibration point and the projected coordinate value of the calibration point.
ある実施形態では、前記定点カメラの光軸と前記画像との交点のデジタイズ座標値を(Uo,Vo)とし、前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、前記レンズの焦点距離をFとし、前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、前記定点カメラのアスペクト比をaとし、前記定点カメラのカメラ歪みをsとし、前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、前記演算式は、以下の式(1)、式(2)及び式(3)を含む。
ある実施形態において、前記演算装置は、前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定して前記最適解を取得した後、前記交点(Uo,Vo)を変数に加えて前記最適解を取得する。 In one embodiment, the arithmetic unit sets the intersection (Uo, Vo) between the optical axis of the fixed point camera and the image at the center of the image and obtains the optimal solution, and then the intersection (Uo, Vo) is added to the variable to obtain the optimal solution.
ある実施形態では、全ての前記較正点が、前記実測空間内の同一平面に含まれる。 In an embodiment, all the calibration points are included in the same plane in the actual measurement space.
ある実施形態では、前記演算装置は、遺伝的アルゴリズム法に基づいて前記最適解を取得する。 In one embodiment, the arithmetic unit obtains the optimal solution based on a genetic algorithm method.
本発明に係るカメラ較正プログラムは、コンピューターに、実測空間を撮像した定点カメラのパラメーターの最適解を求めさせる。前記実測空間は、少なくとも3個の較正点を含む。前記カメラ較正プログラムは、前記コンピューターに、前記実測空間を撮像した画像上での前記較正点のデジタイズ座標値を測定させる手順と、実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記最適解を求めさせる手順とを実行させる。前記演算式は、前記パラメーターを含む。 The camera calibration program according to the present invention causes a computer to obtain an optimal solution of a parameter of a fixed point camera that images a measured space. The actual measurement space includes at least three calibration points. The camera calibration program causes the computer to measure a digitized coordinate value of the calibration point on an image obtained by imaging the actual measurement space, a three-dimensional coordinate value of the calibration point in a real space coordinate system, and the calibration A calculation formula for calculating a projected coordinate value obtained by projecting a three-dimensional coordinate value of a point onto a digitized coordinate system and a procedure for obtaining the optimum solution based on the digitized coordinate value of the calibration point are executed. The arithmetic expression includes the parameters.
ある実施形態では、前記コンピューターに、前記較正点のデジタイズ座標値と前記較正点の投影座標値との差が最小となるような前記最適解を求めさせる。 In one embodiment, the computer is caused to determine the optimal solution that minimizes the difference between the digitized coordinate value of the calibration point and the projected coordinate value of the calibration point.
ある実施形態では、前記定点カメラの光軸と前記画像との交点のデジタイズ座標値を(Uo,Vo)とし、前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、前記レンズの焦点距離をFとし、前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、前記定点カメラのアスペクト比をaとし、前記定点カメラのカメラ歪みをsとし、前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、前記演算式は、以下の式(1)、式(2)及び式(3)を含む。
ある実施形態では、前記コンピューターに、前記最適解を求めさせる際に、前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定させて前記最適解を求めさせる手順と、前記交点(Uo,Vo)を変数に加えて前記最適解を求めさせる手順とを実行させる。 In one embodiment, when the computer determines the optimum solution, the intersection point (Uo, Vo) between the optical axis of the fixed point camera and the image is set at the center of the image to obtain the optimum solution. And a procedure for adding the intersection (Uo, Vo) to a variable to obtain the optimum solution.
ある実施形態では、全ての前記較正点が、前記実測空間内の同一平面に含まれる。 In an embodiment, all the calibration points are included in the same plane in the actual measurement space.
ある実施形態では、前記コンピューターに、遺伝的アルゴリズム法に基づいて前記最適解を求めさせる。 In one embodiment, the computer is caused to determine the optimal solution based on a genetic algorithm method.
本発明に係るカメラ較正方法は、定点カメラを用いて、実測空間を撮像した画像を取得するステップと、前記実測空間に含まれる少なくとも3個の較正点の前記画像上でのデジタイズ座標値を測定するステップと、実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記定点カメラのパラメーターの最適解を取得するステップとを包含する。前記演算式は、前記パラメーターを含む。 In the camera calibration method according to the present invention, a fixed point camera is used to acquire an image obtained by imaging an actual measurement space, and digitized coordinate values on the image of at least three calibration points included in the actual measurement space are measured. A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, Obtaining an optimal solution of the parameters of the fixed-point camera based on the digitized coordinate value. The arithmetic expression includes the parameters.
本発明によれば、カメラの較正に用いる較正点の数を減らすことができる。 According to the present invention, the number of calibration points used for camera calibration can be reduced.
以下、図面を参照して本発明の実施形態を説明する。ただし、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。なお、本発明は、以下の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, in the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. In addition, this invention is not restricted to the following embodiment, It is possible to implement in a various aspect in the range which does not deviate from the summary.
図1は、本実施形態に係るカメラ較正システムの構成を示す図である。図1に示すように、カメラ較正システム1は、少なくとも1台の定点カメラ2と、演算装置3とを備える。カメラ較正システム1は、所定の演算式に含まれる定点カメラ2のパラメーター(以下、カメラパラメーターと記載する場合がある)の最適解を取得することにより、定点カメラ2を較正する。以下、所定の演算式を、カメラパラメーターを含む演算式と記載する。カメラパラメーターを含む演算式は、実空間座標系における測定点の3次元座標値をデジタイズ座標系に投影した投影座標値を算出するための式である。換言すると、カメラパラメーターを含む演算式に基づいて、測定点の画像上でのデジタイズ座標値(測定点のデジタイズ座標系における座標値)から、測定点の実空間座標系における3次元座標値を求めることができる。
FIG. 1 is a diagram illustrating a configuration of a camera calibration system according to the present embodiment. As shown in FIG. 1, the
なお、デジタイズ座標値から実空間座標系における3次元座標値を求めるには、複数の画像を必要とする。複数の画像には、1台の定点カメラ2を移動させて、複数の異なる位置から撮像した画像を使用し得る。あるいは、複数台の定点カメラ2を複数の異なる位置に配置して撮像した画像を使用し得る。
Note that a plurality of images are required to obtain the three-dimensional coordinate value in the real space coordinate system from the digitized coordinate value. For a plurality of images, images taken from a plurality of different positions by moving one
定点カメラ2は、3次元動作の分析対象に応じて設定される実測空間を撮像範囲に含ませることが可能な位置に配置される。換言すると、定点カメラ2は、3次元動作の分析対象を撮像できる位置に配置される。定点カメラ2の種類は特に限定されないが、典型的にはデジタルビデオカメラが使用される。
The fixed
定点カメラ2は、定点カメラ2の較正時(カメラパラメーターの最適解の取得時)に、実測空間を撮像する。実測空間は、実空間座標系における3次元座標値が既知である少なくとも3個の較正点を含む。例えば、3個の較正点は、測定空間内のいずれかの水平面(同一平面の一例)に含まれる。なお、4個以上の較正点を用いる場合、較正点として、同一平面に含まれる点のみを用いてもよいし、較正点のうちの少なくとも1つに、同一平面に含まれない点を用いてもよい。
The fixed-
演算装置3は、定点カメラ2により撮像された画像(較正点を含む画像)から、カメラパラメーターの最適解を取得する。具体的には、演算装置3は、定点カメラ2の内部パラメーター及び外部パラメーターの最適解を算出する。演算装置3は、表示部31、入力部32、記憶部33、及び制御部34を備える。演算装置3を構成する機器は特に限定されないが、例えばパーソナルコンピューターを使用し得る。
The arithmetic device 3 acquires an optimal solution of camera parameters from an image (an image including a calibration point) captured by the fixed
表示部31は、制御部34によって処理された情報を画像として表示する。表示部31の種類は特に限定されないが、例えば液晶ディスプレイを使用し得る。カメラパラメーターの最適解の算出時に、表示部31は、定点カメラ2により撮像された画像(較正点を含む画像)を表示する。なお、画像データは、例えば、USBケーブルのようなケーブル、又はSDメモリーカードのような記憶装置を媒体として、定点カメラ2から演算装置3に取り込まれ得る。
The
入力部32は、ユーザーによって操作されて、制御部34に対して各種の処理コマンドや様々な情報を入力する。入力部32は、典型的には、マウスのようなポインティングデバイスや、キーボードを含む。あるいは、入力部32は、タッチパネルを含み得る。本実施形態において、ユーザーは、入力部32を操作することにより、表示部31に表示されている画像に含まれるいずれかのポイントを指定して、その指定したポイントを制御部34に認識させることができる。具体的には、カメラパラメーターの最適解の算出時に、ユーザーは、定点カメラ2により撮像された画像に含まれる較正点を指定することができる。
The
記憶部33は、OS(Operating System)プログラム、入力部32によって入力された情報、及び、制御部34によって処理された情報などを記憶する。記憶部33を構成する装置は特に限定されないが、典型的には不揮発性の記憶装置が使用される。具体的には、不揮発性の記憶装置として、HDD(Hard Disk Drive)、又はフラッシュメモリを使用し得る。
The
制御部34は、演算装置3の動作を統括的に制御する。制御部34は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)によって構成される。詳しくは、制御部34は、カメラ較正プログラムを含む各種の制御プログラムをCPUに実行させることにより、数値計算や情報処理、機器制御のような様々な処理を行う。
The
カメラ較正プログラムは、制御部34に、定点カメラ2によって撮像された画像(較正点を含む画像)から、カメラパラメーターの最適解を取得させる。カメラ較正プログラムは、例えば、記憶部33に予め記憶される。あるいは、カメラ較正プログラムは、ROMに予め記憶される。
The camera calibration program causes the
詳しくは、制御部34は、較正点の画像上でのデジタイズ座標値(較正点のデジタイズ座標系における座標値)を測定する。また、制御部34は、実測空間に含まれる較正点の3次元座標値と、カメラパラメーター(定点カメラ2の内部パラメーター及び外部パラメーター)を含む演算式と、較正点のデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。カメラパラメーターを含む演算式は、カメラ較正プログラムに紐づけられて記憶される。
Specifically, the
本実施形態では、カメラパラメーターの最適解の算出時に、表示部31が、定点カメラ2によって撮像された画像(較正点を含む画像)を表示する。ユーザーが、入力部32を操作して、表示部31に表示された画像に含まれる較正点を指定すると、制御部34は、較正点の画像上でのデジタイズ座標値を測定する。即ち、制御部34は、較正点をデジタイズする。次いで、制御部34は、実測空間に含まれる較正点の3次元座標値と、カメラパラメーターを含む演算式と、較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。
In the present embodiment, the
例えば、制御部34は、まず、カメラパラメーターを含む演算式に基づいて較正点の投影座標値を算出する。その後、制御部34は、最適解として、較正点の画像上でのデジタイズ座標値と較正点の投影座標値との差(以下、再投影誤差と記載する場合がある)が最小となるようなカメラパラメーターを算出する。デジタイズ誤差が無いと仮定すると、カメラパラメーターを含む演算式に基づいて算出される較正点の投影座標値は、カメラパラメーターが正しい値である場合、較正点の画像上でのデジタイズ座標値と一致する。したがって、最適解として、再投影誤差が最小となるようなカメラパラメーターを求めることにより、定点カメラ2の較正を行い得る。なお、カメラパラメーターの最適解を取得するための最適化処理の手法は特に限定されない。例えば、制御部34は、遺伝的アルゴリズム法に基づいて最適解を取得し得る。
For example, the
続いて、カメラパラメーターを含む演算式、即ち、実空間座標系における測定点の3次元座標値をデジタイズ座標系に投影した投影座標値を算出するための式の具体例を説明する。本実施形態において、カメラパラメーターを含む演算式は、以下の式(1)、式(2)、及び式(3)を含む。
式(1)において、右辺第1項が定点カメラ2の内部パラメーターを示す。換言すると、以下の行列(4)に含まれる変数が、定点カメラ2の内部パラメーターである。
また、式(1)において、右辺第2項及び第3項が定点カメラ2の外部パラメーターを示す。換言すると、以下の行列(5)に含まれる変数が、定点カメラ2の外部パラメーターである。
制御部34は、定点カメラ2の較正時に、行列(4)及び行列(5)に含まれる変数の最適解を取得する。更に制御部34は、式(1)に含まれるカメラパラメーターを最適解に置換する。実際の3次元動作の分析時には、最適解に置換された後の式(1)に基づいて、測定点の実空間座標系における3次元座標値を算出する。
The
ここで、図2を参照して、式(1)及び式(2)に含まれる各変数を説明する。図2は、実空間座標系における測定点MXの3次元座標値と、デジタイズ座標系における測定点のデジタイズ座標値(測定点の画像上での座標値)との関係を模式的に示す図である。 Here, with reference to FIG. 2, each variable contained in Formula (1) and Formula (2) is demonstrated. FIG. 2 is a diagram schematically showing the relationship between the three-dimensional coordinate value of the measurement point MX in the real space coordinate system and the digitized coordinate value (coordinate value on the image of the measurement point) of the measurement point in the digitizing coordinate system. is there.
式(1)及び式(2)は、図2に示す測定点MXと投影点mxとの3次元幾何学的な関係を同次座標系でまとめることによって得られる。詳しくは、式(1)及び式(2)に含まれる変数(Uo,Vo)は、定点カメラ2の光軸Lとデジタイズ平面21(画像)との交点のデジタイズ座標値を示す。また、変数(Xo,Yo,Zo)は、定点カメラ2が備えるレンズ22の中心Oの実空間座標系における3次元座標値を示す。また、変数(X,Y,Z)は、実空間座標系における測定点MXの3次元座標値を示す。また、変数(U,V)は、測定点MXをデジタイズ座標系へ投影した投影点mxの投影座標値を示す。また、変数Fは、レンズの焦点距離を示す。なお、本実施形態では、デジタイズ平面21の中心をデジタイズ座標系の原点とする。
Expressions (1) and (2) are obtained by combining the three-dimensional geometric relationship between the measurement point MX and the projection point mx shown in FIG. 2 in a homogeneous coordinate system. Specifically, the variables (Uo, Vo) included in the equations (1) and (2) indicate the digitized coordinate values of the intersections between the optical axis L of the fixed
式(1)において、Rは、実空間座標系からデジタイズ座標系への座標変換行列を示し、aは、定点カメラ2のアスペクト比を示し、sは、定点カメラ2のカメラ歪み(スキュー)を示し、hは、投影点mxを示す行列式(式(2)を参照)に含まれる第3行第1列の値を1にするためのスケール因子を示す。
In Equation (1), R represents a coordinate transformation matrix from the real space coordinate system to the digitized coordinate system, a represents the aspect ratio of the fixed
また、式(1)の第3行より、スケール因子hについて以下の式(6)の関係が成立する。
更に、式(1)の第1行及び第2行を焦点距離Fによってまとめると、以下の式(7)が成立する。
したがって、式(7)より、焦点距離Fについて以下の式(8)、式(9)、及び(10)の関係が成立する。なお、式(8)及び式(9)において、A+は、Aの擬似逆行列である。
座標変換行列Rは、オイラー角(θ,ψ,φ)で表し得る。座標変換行列Rをオイラー角(θ,ψ,φ)で表すことにより、最適解の算出対象のカメラパラメーターの数を減らすことができる。 The coordinate transformation matrix R can be represented by Euler angles (θ, ψ, φ). By representing the coordinate transformation matrix R with Euler angles (θ, ψ, φ), the number of camera parameters for which an optimal solution is to be calculated can be reduced.
カメラパラメーターの最適化処理を行う場合、図1を参照して説明した演算装置3(制御部34)は、最適化処理を2段階に分けて行い得る。具体的には、第1段階において、制御部34は、定点カメラ2の光軸Lとデジタイズ平面21(画像)との交点(Uo,Vo)をデジタイズ平面21の中心に設定して最適化処理を実行する。より詳しくは、制御部34は、交点(Uo,Vo)をデジタイズ平面21の中心に設定する。更に、式(8)、式(9)及び式(10)から焦点距離Fを算出する。そして、3つのカメラパラメーター(Uo,Vo,F)を除いたカメラパラメーター(変数)の最適解を取得(算出)する。次いで、第2段階において、制御部34は、交点(Uo,Vo)及び焦点距離(F)を変数に加えて最適化処理を実行する。カメラパラメーターの最適化処理を2段階に分けて行うことにより、最適化処理の高速化を図ることができるとともに、最適化処理の結果が局所解に陥る可能性を抑制することができる。
When the camera parameter optimization process is performed, the arithmetic device 3 (control unit 34) described with reference to FIG. 1 can perform the optimization process in two stages. Specifically, in the first stage, the
また、アスペクト比aが1であり、スキューsが0である場合、式(1)は以下の式(11)に変換し得る。よって、図1を参照して説明した演算装置3(制御部34)は、以下の式(11)に基づいてカメラパラメーターの最適解を取得し得る。
なお、式(11)において、座標変換行列Rをオイラー角(θ,ψ,φ)で表すことで、最適解の算出対象のカメラパラメーター(変数)を(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の9個にすることができる。 In Equation (11), the coordinate transformation matrix R is represented by Euler angles (θ, ψ, φ), so that camera parameters (variables) for calculation of the optimal solution are (Uo, Vo, F, Xo, Yo, (Zo, θ, ψ, φ).
続いて、図1を参照して説明したカメラ較正システム1を用いるカメラ較正方法について説明する。図3は、本実施形態に係るカメラ較正方法のフローを示す図である。
Subsequently, a camera calibration method using the
図3に示すように、定点カメラ2の較正を行う際には、まず、定点カメラ2を用いて実測空間を撮像する(ステップS31)。実測空間は、実空間座標系における3次元座標値が既知である少なくとも3個の較正点を含む。例えば、3個の較正点は、測定空間内のいずれかの水平面(同一平面)に含まれる。
As shown in FIG. 3, when calibrating the fixed
次に、演算装置3(制御部34)を用いて、各較正点の画像上でのデジタイズ座標値を測定する(ステップS32)。次に、演算装置3(制御部34)を用いて、カメラパラメーターの最適化処理を行う(ステップS33)。具体的には、実測空間に含まれる各較正点の3次元座標値と、カメラパラメーターを含む演算式と、各較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。 Next, the digitizing coordinate value on the image of each calibration point is measured using the arithmetic device 3 (control unit 34) (step S32). Next, camera parameter optimization processing is performed using the arithmetic device 3 (control unit 34) (step S33). Specifically, the optimal solution of the camera parameter is obtained based on the three-dimensional coordinate value of each calibration point included in the actual measurement space, the arithmetic expression including the camera parameter, and the digitized coordinate value on the image of each calibration point. To do.
続いて、図1を参照して説明したカメラ較正システム1を用いる他のカメラ較正方法について説明する。図4は、本実施形態に係るカメラ較正方法の他のフローを示す図である。
Next, another camera calibration method using the
図4に示すカメラ較正方法は、カメラパラメーターの最適化処理が2段階に分かれて行われる点で、図3に示すカメラ較正方法と異なる。即ち、図4に示すカメラ較正方法では、演算装置3(制御部34)に、第1最適化処理(ステップS41)と第2最適化処理(ステップS42)とを実行させる。 The camera calibration method shown in FIG. 4 differs from the camera calibration method shown in FIG. 3 in that the camera parameter optimization process is performed in two stages. That is, in the camera calibration method shown in FIG. 4, the arithmetic device 3 (control unit 34) causes the first optimization process (step S41) and the second optimization process (step S42) to be executed.
第1最適化処理(ステップS41)では、3つのカメラパラメーター(Uo,Vo,F)を除いたカメラパラメーターの最適解を算出する。具体的には、定点カメラ2の光軸Lと画像(デジタイズ平面21)との交点(Uo,Vo)を画像の中心に設定する。更に、式(8)、式(9)及び式(10)から焦点距離Fを算出する。そして、実測空間に含まれる各較正点の3次元座標値と、カメラパラメーターを含む演算式と、各較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。第2最適化処理(ステップS42)では、3つのカメラパラメーター(Uo,Vo,F)を変数に加えて、実測空間に含まれる各較正点の3次元座標値と、カメラパラメーターを含む演算式と、各較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。
In the first optimization process (step S41), an optimal solution of camera parameters excluding the three camera parameters (Uo, Vo, F) is calculated. Specifically, the intersection (Uo, Vo) between the optical axis L of the fixed
以上、本発明の実施形態について図面を参照しながら説明した。本発明の実施形態によれば、カメラの較正に用いる較正点の数を3個にまで減らすことができる。したがって、実際の試合会場等において較正点を設置する作業が容易となる。 The embodiments of the present invention have been described above with reference to the drawings. According to the embodiment of the present invention, the number of calibration points used for camera calibration can be reduced to three. Therefore, it is easy to set a calibration point in an actual game hall or the like.
また、スポーツの試合会場等では、ルールによって長さ等が規定されたライン(例えば、野球のバッターボックスを示すライン)が引かれていることが多い。そのようなライン(以下、規定ラインと記載する場合がある)は、通常、水平面上に引かれる。換言すると、同一平面上に引かれる。一方、3次元動作分析に一般的に用いられるDLT法では、同一平面に含まれない較正点を6個以上必要とするため、規定ラインに含まれる特徴点(例えば、野球のバッターボックスの各頂点)のみを用いてカメラの較正を行うことができない。これに対し、本発明の実施形態によれば、同一平面に含まれる較正点のみを用いてカメラの較正を行うことができる。したがって、規定ラインに含まれる特徴点のみを用いて、カメラの較正を行うことができる。更に、規定ラインに含まれる特徴点を較正点として用いることができるため、試合会場等に立ち入って較正点を設置することなく、カメラの較正を行うことができる。 Also, in sports game halls and the like, a line whose length is specified by a rule (for example, a line indicating a baseball batter box) is often drawn. Such a line (hereinafter sometimes referred to as a prescribed line) is usually drawn on a horizontal plane. In other words, they are drawn on the same plane. On the other hand, since the DLT method generally used for three-dimensional motion analysis requires six or more calibration points that are not included in the same plane, feature points included in the specified line (for example, each vertex of a baseball batter box) ) Cannot be used to calibrate the camera. On the other hand, according to the embodiment of the present invention, the camera can be calibrated using only calibration points included in the same plane. Therefore, the camera can be calibrated using only the feature points included in the defined line. Furthermore, since the feature points included in the defined line can be used as calibration points, the camera can be calibrated without entering the game hall or the like and installing calibration points.
また、本発明の実施形態によれば、静止している較正点を用いてカメラの較正を行うことができる。よって、複数台のカメラを用いて、それぞれ異なる角度から実測空間(較正点)を撮像する際に、複数台のカメラを同期させる必要はない。更に、各カメラの較正に、それぞれ異なる較正点を用いることができる。また、一台のカメラを用いて、異なる角度から実測空間(較正点)を撮像することにより、カメラの較正を行うことができる。 Further, according to the embodiment of the present invention, the calibration of the camera can be performed using the calibration point that is stationary. Therefore, when imaging a measurement space (calibration point) from different angles using a plurality of cameras, it is not necessary to synchronize the plurality of cameras. Furthermore, different calibration points can be used to calibrate each camera. Further, the camera can be calibrated by imaging the actual measurement space (calibration point) from different angles using one camera.
以下、実施例を用いて本発明を更に具体的に説明する。なお、本発明は実施例の範囲に何ら限定されない。本実施例では、やり投げ助走路に含まれる特徴点を利用してカメラの較正を行った。 Hereinafter, the present invention will be described more specifically with reference to examples. The present invention is not limited to the scope of the examples. In this example, the camera was calibrated using the feature points included in the throwing runway.
[実施例1及び比較例1]
[カメラパラメーター]
実施例1では、定点カメラとして、2台のデジタルビデオカメラDV1、DV2(パナソニック社製のHC−V750M,解像度:1920ピクセル×1080ピクセル)を用いた。デジタルビデオカメラDV1、DV2の撮像素子は正方ピクセルと考えられ、デジタイズ平面21の縦横比は1であったことから、アスペクト比aを1とし、スキューsを0とした。即ち、実空間座標系における測定点の3次元座標値をデジタイズ座標系に投影した投影座標値を算出するための式(カメラパラメーターを含む演算式)として、式(11)、式(2)及び式(3)を用いた。更に、座標変換行列Rをオイラー角(θ,ψ,φ)で表して、(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の9個の値(変数)をカメラパラメーターとした。なお、デジタルビデオカメラDV1、DV2の撮影スピードは毎秒60コマ(プログレッシブ)、シャッタースピードは1/500秒であった。
[Example 1 and Comparative Example 1]
[Camera parameters]
In Example 1, two digital video cameras DV1 and DV2 (HC-V750M manufactured by Panasonic Corporation, resolution: 1920 pixels × 1080 pixels) were used as fixed point cameras. The image sensors of the digital video cameras DV1 and DV2 are considered to be square pixels, and the aspect ratio of the digitizing
[較正点]
図5(a)は、やり投げ助走路51の特徴点を示す図である。図5(a)において、矢印Yで示す方向が投てき方向である。やり投げ助走路51は、投てき方向に沿って引かれた2本のライン52、53によって規定される。2本のライン52、53は、投てき方向に直交する方向(矢印Xで示す方向)に4mの間隔を空けて平行に引かれる。
[Calibration point]
FIG. 5A is a diagram showing the characteristic points of the throwing
踏み切り線54(スターティングライン)は、円弧状に引かれる。具体的には、踏み切り線54は、2本のライン52、53のそれぞれの前端を両端とする半径8mの円弧状のラインである。詳しくは、踏み切り線54の内側の円弧が、半径8mの円弧である。踏み切り線54(半径8mの円弧)の中心は、2本のライン52、53の中間上に位置する。
The crossing line 54 (starting line) is drawn in an arc shape. Specifically, the crossing
実施例1では、ライン52と踏み切り線54との交点をCP1とし、ライン53と踏み切り線54との交点をCP2とし、踏み切り線54の中心をCP3とした。詳しくは、2本のライン52、53のそれぞれの内側の辺と踏み切り線54の内側の円弧との2つの交点をCP1、CP2とした。また、CP1を原点(0,0,0)とし、CP1からCP2へ向かう方向を+X方向とし、投てき方向を+Y方向とし、鉛直上向き方向を+Z方向とした。したがって、CP2の座標値は(4,0,0)となり、CP3の座標値は、(2,−(60)1/2,0)となる。また、CP1とCP2とに交わる軸がX軸となり、ライン52に沿った軸がY軸となる。実施例1では、CP1、CP2、及びCP3を較正点として用いて、カメラの較正を行った。
In Example 1, the intersection of the
[最適化手法]
実施例1では、遺伝的アルゴリズム法に基づいて、再投影誤差が最小となるようなカメラパラメーターの最適解を求めた。この際、カメラパラメーターの最適化処理を2段階に分けて行った。具体的には、第1段階では、定点カメラ(デジタルビデオカメラDV1、DV2)の光軸とデジタイズ平面(画像)との交点(Uo,Vo)をデジタイズ平面の中心に設定した。また、式(8)、式(9)及び式(10)から焦点距離Fを算出した。そして、遺伝的アルゴリズム法に基づき、3つのカメラパラメーター(Uo,Vo,F)を除いた6つのカメラパラメーター(Xo,Yo,Zo,θ,ψ,φ)の最適解を求めた。第2段階では、3つのカメラパラメーター(Uo,Vo,F)を変数に加えて、遺伝的アルゴリズム法に基づき、9のカメラパラメーター(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の最適解を求めた。遺伝的アルゴリズム法に用いる変数のうち、個体数は1000個に設定し、交叉率は70%に設定し、突然変異率は5%に設定した。終了条件は設けずに、各段階で100世代の最適化処理を行った。即ち、計200世代の最適化処理を行った。
[Optimization method]
In Example 1, based on the genetic algorithm method, an optimal camera parameter solution that minimizes reprojection error was obtained. At this time, camera parameter optimization processing was performed in two stages. Specifically, in the first stage, the intersection (Uo, Vo) between the optical axis of the fixed point camera (digital video camera DV1, DV2) and the digitizing plane (image) is set at the center of the digitizing plane. Further, the focal length F was calculated from the equations (8), (9), and (10). Then, based on the genetic algorithm method, an optimal solution of six camera parameters (Xo, Yo, Zo, θ, ψ, φ) excluding the three camera parameters (Uo, Vo, F) was obtained. In the second stage, nine camera parameters (Uo, Vo, F, Xo, Yo, Zo, θ, ψ, The optimal solution of φ) was obtained. Among the variables used in the genetic algorithm method, the number of individuals was set to 1000, the crossover rate was set to 70%, and the mutation rate was set to 5%. With no termination condition, 100 generations of optimization processing were performed at each stage. That is, 200 generations of optimization processing were performed.
[実験方法]
図5(b)は、実施例1に係る実測空間55を示す図である。実施例1において、実測空間55は、図5(a)を参照して説明したやり投げ助走路51を下面とする直方体状とした。具体的には、CP1及びCP2が実測空間55の頂点の一部となり、CP3が実測空間55の下面に含まれるように実測空間55を設定した。また、実測空間55のY軸方向の長さを8.0mに設定し、実測空間55のZ軸方向の高さを2.5mに設定した。
[experimental method]
FIG. 5B is a diagram illustrating the
実施例1では、2台のデジタルビデオカメラDV1、DV2によりそれぞれ実測空間55を撮像して得た画像を基に、デジタルビデオカメラDV1、DV2を較正した。即ち、2台のデジタルビデオカメラDV1、DV2(以下、第1デジタルビデオカメラDV1、第2デジタルビデオカメラDV2と記載する場合がある)のカメラパラメーターの最適解を求めた。第1デジタルビデオカメラDV1は、実測空間55の中心からX軸方向に約−50m離れた地点において、なるべく高い位置に設置した。具体的には、地上から約9m離れた位置に設置した。一方、第2デジタルビデオカメラDV2は、実測空間55の中心からY軸方向に約−50m離れた地点において、なるべく高い位置に設置した。具体的には、地上から約4m離れた位置に設置した。デジタルビデオカメラDV1、DV2をなるべく高い位置に設置したのは、やり投げ助走路51の特徴点(較正点CP1、CP2、CP3)を識別しやすくするためである。
In Example 1, the digital video cameras DV1 and DV2 were calibrated based on images obtained by imaging the
実施例1では、較正後のデジタルビデオカメラDV1、DV2の測定精度を検証した。詳しくは、実測空間55の頂点8ヶ所にマーカーを設置し、較正後のデジタルビデオカメラDV1、DV2により実測空間55を撮像して得た画像から、8つのマーカーの3次元座標値を測定(算出)し、実測空間55の再構築を行った。
In Example 1, the measurement accuracy of the digital video cameras DV1 and DV2 after calibration was verified. More specifically, markers are set at eight vertices of the
比較例1では、DLT法を用いてデジタルビデオカメラDV1、DV2を較正した。即ち、2台のデジタルビデオカメラDV1、DV2のDLTパラメーターを求めた。具体的には、実測空間55の9箇所に、較正点が0.5m間隔で取り付けられた長さ2.5mのキャリブレーションポールを垂直に立てることにより、計54個の較正点を設置した。図6は、実測空間55に設置した54個の較正点を示す図である。図6に示すように設置した54個の較正点を用いてDLTパラメーターを算出した。また、実施例1と同様に、較正後のデジタルビデオカメラDV1、DV2により実測空間55を撮像して得た画像を基に、実測空間55の頂点8ヶ所の3次元座標値を測定(算出)し、実測空間55の再構築を行った。
In Comparative Example 1, the digital video cameras DV1 and DV2 were calibrated using the DLT method. That is, the DLT parameters of the two digital video cameras DV1 and DV2 were obtained. Specifically, a total of 54 calibration points were installed by vertically setting up calibration poles having a length of 2.5 m with calibration points attached at intervals of 0.5 m at nine locations in the
なお、図6において、較正点1は較正点CP1であり、較正点13は較正点CP2であり、較正点43は較正点CP3である。また、較正点7の座標は(2,0,0)であり、較正点19の座標は(0,−4,0)であり、較正点25の座標は(2,−4,0)であり、較正点31の座標は(4,−4,0)である。
In FIG. 6,
DLTパラメーターは、式(1)の右辺のカメラパラメーターに関する行列(第1項から第3項)をPとすると、以下の式(12)によって纏めることができる。
一般的には、式(12)の第3行第4列の変数(P’12)を1とし、以下の式(13)に示す11個のDLTパラメーター(P1〜P11)を算出して、カメラの較正を行う。
比較例1では、式(13)に基づいてDLTパラメーターを算出した。なお、式(13)において、kは、式(12)の右辺における第3行第4列の変数(P’12)を1とするためのスケール因子である。 In Comparative Example 1, the DLT parameter was calculated based on the formula (13). In Expression (13), k is a scale factor for setting the variable (P′12) in the third row and the fourth column on the right side of Expression (12) to 1.
[データ処理]
動作解析ソフト(DKH社製、Frame−DIAS IV)を用いて、デジタルビデオカメラDV1、DV2で撮影した画像から較正点のデジタイズ座標値(デジタイズ座標系における2次元座標値)を得た。実施例1及び比較例1では、デジタイズ誤差をできる限り小さくするために、4名が別々にデジタイズしたデータの平均値を用いた。なお、4名のデジタイズデータの差の最大値は、横方向において2ピクセル(分解能に対して約0.1%)であった。また、縦方向において、3.5ピクセル(分解能に対して約0.3%)であった。
[Data processing]
Using motion analysis software (manufactured by DKH, Frame-DIAS IV), digitized coordinate values (two-dimensional coordinate values in the digitized coordinate system) of calibration points were obtained from images taken by the digital video cameras DV1 and DV2. In Example 1 and Comparative Example 1, in order to reduce the digitization error as much as possible, an average value of data digitized separately by four persons was used. The maximum difference between the digitized data of the four persons was 2 pixels in the horizontal direction (about 0.1% with respect to the resolution). In the vertical direction, it was 3.5 pixels (about 0.3% with respect to the resolution).
[結果]
図7は、実施例1に係る遺伝的アルゴリズム法を用いた最適化処理における再投影誤差の変化を示す図である。図7において、縦軸は再投影誤差(Reprojective Error)を示し、横軸は世代(Generation)を示す。図7に示すように、再投影誤差は、最適化処理の開始後に急激に減少した。その後、緩やかに減少して、最適化処理の終了時点では、ほぼ0ピクセルとなった。なお、実施例1に係る最適化処理を複数回実施した結果、その全てにおいて、ほぼ同一の解に収束した。換言すると、実施例1に係る最適化処理によって得られる解は、局所解に陥ることがないことが確認された。
[result]
FIG. 7 is a diagram illustrating a change in the reprojection error in the optimization process using the genetic algorithm method according to the first embodiment. In FIG. 7, the vertical axis represents reprojection error, and the horizontal axis represents generation. As shown in FIG. 7, the reprojection error decreased rapidly after the optimization process was started. Thereafter, it gradually decreased and reached almost 0 pixels at the end of the optimization process. Note that, as a result of performing the optimization processing according to Example 1 a plurality of times, all converged to almost the same solution. In other words, it was confirmed that the solution obtained by the optimization process according to the first embodiment does not fall into a local solution.
以下の表1は、較正点CP1、CP2、CP3を用いて算出されたカメラパラメーター(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の最適解を示す。
表1に示すように、第1デジタルビデオカメラDV1のレンズの中心位置(Xo,Yo,Zo)は、(−49.76m,−4.03m,8.92m)と算出された。第2デジタルビデオカメラDV2のレンズの中心位置(Xo,Yo,Zo)は、(1.23m,−52.75m,3.64m)と算出された。 As shown in Table 1, the center position (Xo, Yo, Zo) of the lens of the first digital video camera DV1 was calculated as (−49.76 m, −4.03 m, 8.92 m). The center position (Xo, Yo, Zo) of the lens of the second digital video camera DV2 was calculated as (1.23 m, −52.75 m, 3.64 m).
以下の表2は、実施例1及び比較例1に係る測定結果を示す。詳しくは、再構築した実測空間55と実際の実測空間55(4.0m×8.0m×2.5m)との差(誤差)を示す。より具体的には、X軸方向(X axis)、Y軸方向(Y axis)、及びZ軸方向(Z axis)のそれぞれの標準誤差(SE)と最大誤差(Max)とを示している。また、表2において、絶対値(Absolute)の標準誤差は、X軸方向、Y軸方向、及びZ軸方向のそれぞれの標準誤差の2乗を加算した値の平方根の絶対値であり、絶対値の最大値は、X軸方向、Y軸方向、及びZ軸方向のそれぞれの最大誤差の2乗を加算した値の平方根の絶対値である。
表2に示すように、X軸方向の標準誤差は、実施例1では0.002m(実測範囲に対して0.05%)となり、比較例1では0.003m(実測範囲に対して0.07%)となった。Y軸方向の標準誤差は、実施例1及び比較例1のいずれも0.003m(実測範囲に対して0.04%)となった。Z軸方向の標準誤差は、実施例1では0.002m(実測範囲に対して0.08%)となり、比較例1では0.003m(実測範囲に対して0.11%)となった。よって、実施例1と比較例1との間に顕著な差はみられなかった。 As shown in Table 2, the standard error in the X-axis direction is 0.002 m (0.05% with respect to the actual measurement range) in Example 1, and 0.003 m (0.003 m with respect to the actual measurement range) in Comparative Example 1. 07%). The standard error in the Y-axis direction was 0.003 m (0.04% with respect to the actual measurement range) in both Example 1 and Comparative Example 1. The standard error in the Z-axis direction was 0.002 m (0.08% with respect to the actual measurement range) in Example 1, and 0.003 m (0.11% with respect to the actual measurement range) in Comparative Example 1. Therefore, there was no significant difference between Example 1 and Comparative Example 1.
また、X軸方向の最大誤差は、実施例1では0.012m(実測範囲に対して0.30%)となり、比較例1では0.013m(実測範囲に対して0.33%)となった。Y軸方向の最大誤差は、実施例1では0.016m(実測範囲に対して0.20%)となり、比較例1では0.013m(実測範囲に対して0.16%)となった。Z軸方向の最大誤差は、実施例1では0.008m(実測範囲に対して0.32%)となり、比較例1では0.012m(実測範囲に対して0.48%)となった。よって、実施例1と比較例1との間に顕著な差はみられなかった。 The maximum error in the X-axis direction is 0.012 m (0.30% with respect to the actual measurement range) in Example 1, and 0.013 m (0.33% with respect to the actual measurement range) in Comparative Example 1. It was. The maximum error in the Y-axis direction was 0.016 m (0.20% with respect to the actual measurement range) in Example 1, and 0.013 m (0.16% with respect to the actual measurement range) in Comparative Example 1. The maximum error in the Z-axis direction was 0.008 m (0.32% with respect to the actual measurement range) in Example 1, and 0.012 m (0.48% with respect to the actual measurement range) in Comparative Example 1. Therefore, there was no significant difference between Example 1 and Comparative Example 1.
[実施例2及び比較例2]
実施例2では、両端にマーカーが貼付された長さ1mのポールを実測空間55内の40か所に無作為に静止させた状態で、実施例1と同様に、較正後のデジタルビデオカメラDV1、DV2により実測空間55を撮像した。また、実施例2では、実測空間55を撮像した画像を基に、ポールの両端に貼付された2つのマーカーの3次元座標値を算出した。そして、算出した2つのマーカーの3次元座標値から、2つのマーカー間の距離を測定した。以下、算出した2つのマーカーの3次元座標値から測定した2つのマーカー間の距離を、測定したマーカー間の距離と記載する。比較例2では、比較例1と同様に、DLT法を用いてデジタルビデオカメラDV1、DV2を較正した。また、実施例2と同様に、較正後のデジタルビデオカメラDV1、DV2を用いて、ポールの両端に貼付された2つのマーカー間の距離を測定した。
[Example 2 and Comparative Example 2]
In the second embodiment, a calibrated digital video camera DV1 is provided in the same manner as in the first embodiment, with a 1 m long pole with markers attached to both ends being randomly stopped at 40 locations in the
以下の表3は、実施例2及び比較例2に係る測定結果を示す。詳しくは、測定したマーカー間の距離の平均値(Mean±SD)、最小値(Min)、及び最大値(Max)を示す。
表3に示すように、測定したマーカー間の距離の最小値は、実施例2では0.994mとなり、比較例2では0.993mとなった。測定したマーカー間の距離の最大値は、実施例2では1.008mとなり、比較例2では1.007mとなった。よって、実施例2と比較例2との間に顕著な差はみられなかった。 As shown in Table 3, the minimum value of the measured distance between the markers was 0.994 m in Example 2, and 0.993 m in Comparative Example 2. The maximum distance between the measured markers was 1.008 m in Example 2 and 1.007 m in Comparative Example 2. Therefore, there was no significant difference between Example 2 and Comparative Example 2.
[実施例3]
実施例3では、カメラパラメーターの最適解を取得する際に用いる較正点の数の影響を検証した。具体的には、較正点の数を変更してデジタルビデオカメラDV1、DV2の較正を行い、実施例1と同様に、再構築した実測空間55と実際の実測空間55との差(誤差)を検証した。詳しくは、図6を参照して説明した54個の較正点のうちから、3点、6点、12点、18点、24点、36点、45点、54点を選んで、カメラパラメーターの最適解を取得した。較正点の数と、使用した較正点との関係を以下の表4に示す。
In Example 3, the influence of the number of calibration points used when obtaining the optimal solution of the camera parameter was verified. Specifically, the digital video cameras DV1 and DV2 are calibrated by changing the number of calibration points, and the difference (error) between the reconstructed
なお、3個の較正点を用いてカメラパラメーターの最適解を取得する際には、図6に示す較正点1、13、43を使用した。即ち、図5を参照して説明した3個の較正点CP1、CP2、CPを使用した。また、54個の較正点を用いてカメラパラメーターの最適解を取得する際には、図6に示す全ての較正点1〜較正点54を使用した。 In addition, when acquiring the optimal solution of a camera parameter using three calibration points, the calibration points 1, 13, and 43 shown in FIG. 6 were used. That is, the three calibration points CP1, CP2, and CP described with reference to FIG. 5 were used. Moreover, when acquiring the optimal solution of a camera parameter using 54 calibration points, all the calibration points 1-54 shown in FIG. 6 were used.
図8〜図11は、実施例3に係る測定結果を示す図である。詳しくは、図8は、再構築した実測空間55と実際の実測空間55とのX軸方向の標準誤差(Standard error)と、較正点の数との関係を示す。図9は、再構築した実測空間55と実際の実測空間55とのY軸方向の標準誤差と、較正点の数との関係を示す。図10は、再構築した実測空間55と実際の実測空間55とのZ軸方向の標準誤差と、較正点の数との関係を示す。図11は、絶対値の標準誤差と較正点の数との関係を示している。絶対値の標準誤差は、X軸方向、Y軸方向、及びZ軸方向のそれぞれの標準誤差の2乗を加算した値の平方根の絶対値である。図8〜図11において、縦軸は標準誤差を示し、横軸は較正点の数を示す。図8〜図11に示すように、再構築した実測空間55に、較正点の数による影響はみられなかった。
8 to 11 are diagrams showing measurement results according to Example 3. FIG. Specifically, FIG. 8 shows the relationship between the standard error (Standard error) in the X-axis direction between the reconstructed
[実施例4]
実施例4では、実施例3と同様に、カメラパラメーターの最適解を取得する際に用いる較正点の数の影響を検証した。具体的には、実施例3と同様に較正点の数を変更してデジタルビデオカメラDV1、DV2の較正を行った。また、実施例2と同様に、ポールの両端に貼付した2つのマーカー間の距離を測定した。
[Example 4]
In the fourth embodiment, as in the third embodiment, the influence of the number of calibration points used when obtaining the optimal solution of the camera parameters was verified. Specifically, the digital video cameras DV1 and DV2 were calibrated by changing the number of calibration points in the same manner as in Example 3. Further, as in Example 2, the distance between two markers attached to both ends of the pole was measured.
図12は、実施例4に係る測定結果を示す図である。詳しくは、図12は、測定したマーカー間の距離と、較正点の数との関係を示す。図12において、縦軸は測定したマーカー間の距離を示し、横軸は較正点の数を示す。図12に示すように、測定したマーカー間の距離に、較正点の数による影響はみられなかった。 FIG. 12 is a diagram illustrating measurement results according to Example 4. Specifically, FIG. 12 shows the relationship between the measured distance between markers and the number of calibration points. In FIG. 12, the vertical axis indicates the distance between the measured markers, and the horizontal axis indicates the number of calibration points. As shown in FIG. 12, the distance between the measured markers was not affected by the number of calibration points.
以上、本発明の実施例について説明した。実施例1、2、及び比較例1、2の結果(表2、表3)によれば、再投影誤差が最小となるようなカメラパラメーターの最適解を求めてカメラの較正を行うことにより、一般的なDLT法を用いてカメラを較正した場合と同程度の測定精度を達成できた。換言すると、3次元動作の分析に十分な測定精度を達成できた。 The embodiment of the present invention has been described above. According to the results of Examples 1 and 2 and Comparative Examples 1 and 2 (Tables 2 and 3), the camera is calibrated by obtaining an optimal solution of the camera parameters that minimizes the reprojection error. Measurement accuracy comparable to that obtained when the camera was calibrated using a general DLT method was achieved. In other words, it was possible to achieve a measurement accuracy sufficient for analyzing the three-dimensional motion.
また、実施例3、4の結果(図8〜図12)によれば、測定精度に較正点の数による影響はほとんどみられなかった。また、本発明の実施例では、デジタイズ誤差をなるべく小さくするために、4名がデジタイズしたデータの平均値を用いてカメラパラメーターを算出し、4名のデジタイズデータの差は最大でも横方向で2ピクセル、縦方向で3.5ピクセルであった。これらのことから、デジタイズ誤差が小さい場合は、較正点の数が測定精度に及ぼす影響は小さく、較正点の数が3個であっても十分な精度でカメラを較正できることを確認できた。したがって、再投影誤差が最小となるようなカメラパラメーターの最適解を求めてカメラの較正を行うことは、多数の較正点の座標値を正確に測定することが困難な場合や、多数の較正点の座標値を測定するのに十分な時間が無い場合などに有効である。 Further, according to the results of Examples 3 and 4 (FIGS. 8 to 12), the measurement accuracy was hardly affected by the number of calibration points. In the embodiment of the present invention, in order to reduce the digitizing error as much as possible, the camera parameter is calculated using the average value of the data digitized by the four persons, and the difference between the digitized data of the four persons is 2 in the horizontal direction at the maximum. Pixel, 3.5 pixels in the vertical direction. From these facts, it was confirmed that when the digitizing error is small, the influence of the number of calibration points on the measurement accuracy is small, and the camera can be calibrated with sufficient accuracy even if the number of calibration points is three. Therefore, calibrating the camera to find the optimal camera parameter solution that minimizes the reprojection error is difficult to accurately measure the coordinate values of a large number of calibration points. This is effective when there is not enough time to measure the coordinate value.
本発明は、実際に試合や競技を行っている選手の動作の分析に有用である。 The present invention is useful for analyzing movements of players who are actually playing games or competitions.
1 カメラ較正システム
2 定点カメラ
3 演算装置
21 デジタイズ平面
22 レンズ
51 やり投げ助走路
54 踏み切り線
55 実測空間
CP1〜CP3 較正点
L 光軸
MX 測定点
mx 投影点
DESCRIPTION OF
Claims (13)
前記画像に基づいて、前記定点カメラのカメラパラメーターの最適解を取得する演算装置と
を備え、
前記実測空間は、少なくとも3個の較正点を含み、
前記演算装置は、
前記較正点の前記画像上でのデジタイズ座標値を測定し、
実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記最適解を取得し、
前記演算式は、前記カメラパラメーターを含む、カメラ較正システム。 A fixed-point camera that acquires an image of the actual measurement space;
An arithmetic unit that obtains an optimal solution of the camera parameters of the fixed-point camera based on the image, and
The measured space includes at least three calibration points;
The arithmetic unit is:
Measuring the digitized coordinate value of the calibration point on the image;
A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, a digitized coordinate value of the calibration point, and To obtain the optimal solution based on
The camera calibration system, wherein the calculation formula includes the camera parameter.
前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、
前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、
前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、
前記レンズの焦点距離をFとし、
前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、
前記定点カメラのアスペクト比をaとし、
前記定点カメラのカメラ歪みをsとし、
前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、
前記演算式は、以下の式(1)、式(2)及び式(3)を含む、請求項1又は請求項2に記載のカメラ較正システム。
The three-dimensional coordinate value in the real space coordinate system at the center of the lens provided in the fixed point camera is (Xo, Yo, Zo),
The three-dimensional coordinate value of the measurement point in the real space coordinate system is (X, Y, Z),
Projection coordinate values of projection points obtained by projecting the measurement points onto the digitized coordinate system are (U, V),
The focal length of the lens is F,
R is a coordinate transformation matrix from the real space coordinate system to the digitized coordinate system,
The aspect ratio of the fixed point camera is a,
The camera distortion of the fixed point camera is s,
When the scale factor for setting the value of the third row and the first column included in the determinant indicating the projection point to 1 is h,
The camera calibration system according to claim 1 or 2, wherein the calculation formula includes the following formula (1), formula (2), and formula (3).
前記実測空間は、少なくとも3個の較正点を含み、
前記カメラ較正プログラムは、
前記コンピューターに、
前記実測空間を撮像した画像上での前記較正点のデジタイズ座標値を測定させる手順と、
実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記最適解を求めさせる手順と
を実行させ、
前記演算式は、前記カメラパラメーターを含む、カメラ較正プログラム。 A camera calibration program that causes a computer to find the optimal solution of the camera parameters of a fixed-point camera that captured the actual measurement space,
The measured space includes at least three calibration points;
The camera calibration program is
On the computer,
A procedure for measuring a digitized coordinate value of the calibration point on an image obtained by imaging the actual measurement space;
A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, a digitized coordinate value of the calibration point, and And a step for obtaining the optimum solution based on
The arithmetic expression includes a camera calibration program including the camera parameters.
前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、
前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、
前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、
前記レンズの焦点距離をFとし、
前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、
前記定点カメラのアスペクト比をaとし、
前記定点カメラのカメラ歪みをsとし、
前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、
前記演算式は、以下の式(1)、式(2)及び式(3)を含む、請求項7又は請求項8に記載のカメラ較正プログラム。
The three-dimensional coordinate value in the real space coordinate system at the center of the lens provided in the fixed point camera is (Xo, Yo, Zo),
The three-dimensional coordinate value of the measurement point in the real space coordinate system is (X, Y, Z),
Projection coordinate values of projection points obtained by projecting the measurement points onto the digitized coordinate system are (U, V),
The focal length of the lens is F,
R is a coordinate transformation matrix from the real space coordinate system to the digitized coordinate system,
The aspect ratio of the fixed point camera is a,
The camera distortion of the fixed point camera is s,
When the scale factor for setting the value of the third row and the first column included in the determinant indicating the projection point to 1 is h,
The camera calibration program according to claim 7 or 8, wherein the arithmetic expression includes the following expressions (1), (2), and (3).
前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定させて前記最適解を求めさせる手順と、
前記交点(Uo,Vo)を変数に加えて前記最適解を求めさせる手順と
を実行させる、請求項9に記載のカメラ較正プログラム。 When letting the computer find the optimal solution,
A procedure for obtaining the optimal solution by setting the intersection (Uo, Vo) of the optical axis of the fixed point camera and the image at the center of the image;
The camera calibration program according to claim 9, further comprising: a step of adding the intersection (Uo, Vo) to a variable to obtain the optimal solution.
前記実測空間に含まれる少なくとも3個の較正点の前記画像上でのデジタイズ座標値を測定するステップと、
実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記定点カメラのカメラパラメーターの最適解を取得するステップと
を包含し、
前記演算式は、前記カメラパラメーターを含む、カメラ較正方法。 Using a fixed point camera to obtain an image of the measured space;
Measuring digitized coordinate values on the image of at least three calibration points contained in the measured space;
A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, a digitized coordinate value of the calibration point, and Obtaining an optimal solution of the camera parameters of the fixed-point camera based on
The camera calibration method, wherein the calculation formula includes the camera parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015248610A JP6636314B2 (en) | 2015-12-21 | 2015-12-21 | Camera calibration system, camera calibration program, and camera calibration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015248610A JP6636314B2 (en) | 2015-12-21 | 2015-12-21 | Camera calibration system, camera calibration program, and camera calibration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017116280A true JP2017116280A (en) | 2017-06-29 |
JP6636314B2 JP6636314B2 (en) | 2020-01-29 |
Family
ID=59234001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015248610A Active JP6636314B2 (en) | 2015-12-21 | 2015-12-21 | Camera calibration system, camera calibration program, and camera calibration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6636314B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109908497A (en) * | 2019-04-01 | 2019-06-21 | 上海联影医疗科技有限公司 | Calibrating coordinates device, system, method and medium |
CN112053405A (en) * | 2020-08-21 | 2020-12-08 | 合肥工业大学 | Deviation calibration and external reference correction method for optical axis and rotating shaft of follow-up vision system |
US11311747B2 (en) | 2020-07-16 | 2022-04-26 | Uih America, Inc. | Systems and methods for isocenter calibration |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000275013A (en) * | 1999-03-24 | 2000-10-06 | Mr System Kenkyusho:Kk | Method for deciding view point position attitude, computer and storage medium |
US20070196016A1 (en) * | 2006-02-21 | 2007-08-23 | I-Hsien Chen | Calibration system for image capture apparatus and method thereof |
JP2009186288A (en) * | 2008-02-05 | 2009-08-20 | Canon Inc | Image processing device and image processing method |
JP2015053011A (en) * | 2013-09-09 | 2015-03-19 | 日本電信電話株式会社 | Head count measurement method, head count measurement device, and head count measurement program |
JP2015106168A (en) * | 2013-11-28 | 2015-06-08 | コニカミノルタ株式会社 | Parallax measurement instrument and parallax measurement method |
-
2015
- 2015-12-21 JP JP2015248610A patent/JP6636314B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000275013A (en) * | 1999-03-24 | 2000-10-06 | Mr System Kenkyusho:Kk | Method for deciding view point position attitude, computer and storage medium |
US20070196016A1 (en) * | 2006-02-21 | 2007-08-23 | I-Hsien Chen | Calibration system for image capture apparatus and method thereof |
JP2009186288A (en) * | 2008-02-05 | 2009-08-20 | Canon Inc | Image processing device and image processing method |
JP2015053011A (en) * | 2013-09-09 | 2015-03-19 | 日本電信電話株式会社 | Head count measurement method, head count measurement device, and head count measurement program |
JP2015106168A (en) * | 2013-11-28 | 2015-06-08 | コニカミノルタ株式会社 | Parallax measurement instrument and parallax measurement method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109908497A (en) * | 2019-04-01 | 2019-06-21 | 上海联影医疗科技有限公司 | Calibrating coordinates device, system, method and medium |
CN109908497B (en) * | 2019-04-01 | 2021-11-30 | 上海联影医疗科技股份有限公司 | Coordinate calibration device, system, method and medium |
US11311747B2 (en) | 2020-07-16 | 2022-04-26 | Uih America, Inc. | Systems and methods for isocenter calibration |
US11786759B2 (en) | 2020-07-16 | 2023-10-17 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for isocenter calibration |
CN112053405A (en) * | 2020-08-21 | 2020-12-08 | 合肥工业大学 | Deviation calibration and external reference correction method for optical axis and rotating shaft of follow-up vision system |
CN112053405B (en) * | 2020-08-21 | 2022-09-13 | 合肥工业大学 | Deviation calibration and external parameter correction method for optical axis and rotating shaft of follow-up vision system |
Also Published As
Publication number | Publication date |
---|---|
JP6636314B2 (en) | 2020-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6011548B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
JP7294396B2 (en) | Image processing device, image processing method, and program | |
US10175765B2 (en) | Information processing device, information processing method, and computer program | |
JP2019509569A (en) | Perspective correction for curved display screens | |
CN110312111B (en) | Apparatus, system, and method for automatic calibration of image devices | |
JP2016103230A (en) | Image processor, image processing method and program | |
JP2011179908A (en) | Three-dimensional measurement apparatus, method for processing the same, and program | |
JP6174968B2 (en) | Imaging simulation device | |
Pagliari et al. | Kinect fusion improvement using depth camera calibration | |
US11170246B2 (en) | Recognition processing device, recognition processing method, and program | |
BR102019007720A2 (en) | image processing apparatus and control method image processing apparatus | |
JP6636314B2 (en) | Camera calibration system, camera calibration program, and camera calibration method | |
Wilm et al. | Accurate and simple calibration of DLP projector systems | |
JP6615486B2 (en) | Camera calibration apparatus, method and program | |
JP7327494B2 (en) | Correction method, correction program and information processing system | |
JP2005270484A (en) | Calibration method | |
CN112669392A (en) | Map positioning method and system applied to indoor video monitoring system | |
JP5728399B2 (en) | Measuring device, method and program | |
JP2013092888A (en) | Data processor | |
JP7188798B2 (en) | Coordinate calculation device, coordinate calculation method, and program | |
JP2022128087A (en) | Measurement system and measurement program | |
JP2020187626A (en) | Image processing device, image processing method, and program | |
JP2005140623A (en) | Image measuring method and instrument, program, and recording medium | |
JP2006300656A (en) | Image measuring technique, device, program, and recording medium | |
Rafighi et al. | Automatic and adaptable registration of live RGBD video streams |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20190724 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6636314 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |