JP2017116280A - Camera calibration system, camera calibration program, and camera calibration method - Google Patents

Camera calibration system, camera calibration program, and camera calibration method Download PDF

Info

Publication number
JP2017116280A
JP2017116280A JP2015248610A JP2015248610A JP2017116280A JP 2017116280 A JP2017116280 A JP 2017116280A JP 2015248610 A JP2015248610 A JP 2015248610A JP 2015248610 A JP2015248610 A JP 2015248610A JP 2017116280 A JP2017116280 A JP 2017116280A
Authority
JP
Japan
Prior art keywords
camera
calibration
point
coordinate value
digitized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015248610A
Other languages
Japanese (ja)
Other versions
JP6636314B2 (en
Inventor
鈴木 雄太
Yuta Suzuki
雄太 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Osaka City University PUC
Original Assignee
Osaka University NUC
Osaka City University PUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Osaka City University PUC filed Critical Osaka University NUC
Priority to JP2015248610A priority Critical patent/JP6636314B2/en
Publication of JP2017116280A publication Critical patent/JP2017116280A/en
Application granted granted Critical
Publication of JP6636314B2 publication Critical patent/JP6636314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera calibration system that can reduce the number of calibration points to be used in calibration of cameras.SOLUTION: A camera calibration system 1 comprises a stationary camera 2 and a computation device 3. The stationary camera 2 is configured to acquire an image having an actual measurement space photographed. The actual measurement space includes at least three calibration points. The computation device 3 is configured to measure a digitized coordinate value on the image of the calibration point, and further the computation device 3 is configured to acquire an optimal solution of a camera parameter of the stationary camera 2 on the basis of a three-dimensional coordinate value of the calibration point in an actual spatial coordinate system, a computation expression for calculating a projection coordinate value having the three-dimensional coordinate value of the calibration point projected onto the digitized coordinate system, a digitized coordinate of the calibration point, in which the computation expression includes the camera parameter of the stationary camera 2.SELECTED DRAWING: Figure 1

Description

本発明は、カメラ較正システム、カメラ較正プログラム、及びカメラ較正方法に関する。   The present invention relates to a camera calibration system, a camera calibration program, and a camera calibration method.

3次元動作分析法として、DLT法(Direct−Liner−Transformation法)が知られている(非特許文献1)。DLT法は、試合や競技会での選手の3次元動作の分析に一般的に用いられている。   As a three-dimensional motion analysis method, a DLT method (Direct-Liner-Transformation method) is known (Non-Patent Document 1). The DLT method is generally used for analyzing the three-dimensional motion of a player in a game or competition.

DLT法を用いる場合、一般的に、複数台のカメラにより、3次元座標値が既知である較正点を撮像して、カメラの較正を行う。具体的には、較正点の3次元座標値とデジタイズ座標値(画像上での座標値)との幾何学的な関係から、1台のカメラに対して11個の較正係数(以下、DLTパラメーターと記載する)を算出する。そして、11個のDLTパラメーターを用いてカメラの較正を行う。また、DLT法を用いる場合、一般的に、同一平面に含まれない較正点を6個以上用いる。したがって、試合や競技の開始前に、試合会場等の実測空間に、同一平面に含まれない較正点を6個以上設置する必要がある。   When the DLT method is used, generally, a calibration point having a known three-dimensional coordinate value is captured by a plurality of cameras, and the camera is calibrated. Specifically, from the geometric relationship between the three-dimensional coordinate values of the calibration points and the digitized coordinate values (coordinate values on the image), 11 calibration coefficients (hereinafter referred to as DLT parameters) for one camera. Is calculated). Then, the camera is calibrated using 11 DLT parameters. When the DLT method is used, generally six or more calibration points that are not included in the same plane are used. Therefore, before the start of a game or competition, it is necessary to install six or more calibration points that are not included in the same plane in an actual measurement space such as a game venue.

Abdel-Aziz, Y.I. and Karara, H.M. (1971): Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry. ASP symposium on close-range photogrammetry, American society of photogrammetry, Falls Church, VA: 1-18Abdel-Aziz, Y.I. and Karara, H.M. (1971): Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry. ASP symposium on close-range photogrammetry, American society of photogrammetry, Falls Church, VA: 1-18

しかしながら、実際の試合会場等では、同一平面に含まれない較正点を6個以上設置することが困難な場合がある。   However, in an actual game venue or the like, it may be difficult to install six or more calibration points that are not included in the same plane.

本発明は上記課題に鑑みてなされたものであり、その目的は、カメラの較正に用いる較正点の数を減らすことができるカメラ較正システム、カメラ較正プログラム、及びカメラ較正方法を提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide a camera calibration system, a camera calibration program, and a camera calibration method capable of reducing the number of calibration points used for camera calibration. .

本発明に係るカメラ較正システムは、定点カメラと、演算装置とを備える。前記定点カメラは、実測空間を撮像した画像を取得する。前記実測空間は、少なくとも3個の較正点を含む。前記演算装置は、前記較正点の前記画像上でのデジタイズ座標値を測定する。また、前記演算装置は、実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記定点カメラのパラメーターの最適解を取得する。前記演算式は、前記パラメーターを含む。   The camera calibration system according to the present invention includes a fixed point camera and a calculation device. The fixed point camera acquires an image obtained by imaging the actual measurement space. The actual measurement space includes at least three calibration points. The arithmetic unit measures a digitized coordinate value on the image of the calibration point. Further, the calculation device includes a calculation formula for calculating a three-dimensional coordinate value of the calibration point in a real space coordinate system, and a projection coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto a digitized coordinate system, Based on the digitized coordinate value of the calibration point, an optimal solution of the fixed point camera parameter is obtained. The arithmetic expression includes the parameters.

ある実施形態では、前記演算装置は、前記較正点のデジタイズ座標値と前記較正点の投影座標値との差が最小となるような前記最適解を取得する。   In one embodiment, the arithmetic unit obtains the optimum solution that minimizes a difference between the digitized coordinate value of the calibration point and the projected coordinate value of the calibration point.

ある実施形態では、前記定点カメラの光軸と前記画像との交点のデジタイズ座標値を(Uo,Vo)とし、前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、前記レンズの焦点距離をFとし、前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、前記定点カメラのアスペクト比をaとし、前記定点カメラのカメラ歪みをsとし、前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、前記演算式は、以下の式(1)、式(2)及び式(3)を含む。

Figure 2017116280
Figure 2017116280
Figure 2017116280
In one embodiment, the digitized coordinate value of the intersection of the optical axis of the fixed point camera and the image is (Uo, Vo), and the three-dimensional coordinate value in the real space coordinate system of the center of the lens included in the fixed point camera is ( Xo, Yo, Zo), the three-dimensional coordinate value of the measurement point in the real space coordinate system is (X, Y, Z), and the projected coordinate value of the projection point obtained by projecting the measurement point onto the digitized coordinate system is ( U, V), F as the focal length of the lens, R as the coordinate transformation matrix from the real space coordinate system to the digitized coordinate system, a as the aspect ratio of the fixed point camera, and camera distortion of the fixed point camera. And s, and the scale factor for setting the value of the third row and the first column included in the determinant indicating the projection point to 1 is h, the arithmetic expressions are the following expressions (1) and ( 2) and formula (3).
Figure 2017116280
Figure 2017116280
Figure 2017116280

ある実施形態において、前記演算装置は、前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定して前記最適解を取得した後、前記交点(Uo,Vo)を変数に加えて前記最適解を取得する。   In one embodiment, the arithmetic unit sets the intersection (Uo, Vo) between the optical axis of the fixed point camera and the image at the center of the image and obtains the optimal solution, and then the intersection (Uo, Vo) is added to the variable to obtain the optimal solution.

ある実施形態では、全ての前記較正点が、前記実測空間内の同一平面に含まれる。   In an embodiment, all the calibration points are included in the same plane in the actual measurement space.

ある実施形態では、前記演算装置は、遺伝的アルゴリズム法に基づいて前記最適解を取得する。   In one embodiment, the arithmetic unit obtains the optimal solution based on a genetic algorithm method.

本発明に係るカメラ較正プログラムは、コンピューターに、実測空間を撮像した定点カメラのパラメーターの最適解を求めさせる。前記実測空間は、少なくとも3個の較正点を含む。前記カメラ較正プログラムは、前記コンピューターに、前記実測空間を撮像した画像上での前記較正点のデジタイズ座標値を測定させる手順と、実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記最適解を求めさせる手順とを実行させる。前記演算式は、前記パラメーターを含む。   The camera calibration program according to the present invention causes a computer to obtain an optimal solution of a parameter of a fixed point camera that images a measured space. The actual measurement space includes at least three calibration points. The camera calibration program causes the computer to measure a digitized coordinate value of the calibration point on an image obtained by imaging the actual measurement space, a three-dimensional coordinate value of the calibration point in a real space coordinate system, and the calibration A calculation formula for calculating a projected coordinate value obtained by projecting a three-dimensional coordinate value of a point onto a digitized coordinate system and a procedure for obtaining the optimum solution based on the digitized coordinate value of the calibration point are executed. The arithmetic expression includes the parameters.

ある実施形態では、前記コンピューターに、前記較正点のデジタイズ座標値と前記較正点の投影座標値との差が最小となるような前記最適解を求めさせる。   In one embodiment, the computer is caused to determine the optimal solution that minimizes the difference between the digitized coordinate value of the calibration point and the projected coordinate value of the calibration point.

ある実施形態では、前記定点カメラの光軸と前記画像との交点のデジタイズ座標値を(Uo,Vo)とし、前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、前記レンズの焦点距離をFとし、前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、前記定点カメラのアスペクト比をaとし、前記定点カメラのカメラ歪みをsとし、前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、前記演算式は、以下の式(1)、式(2)及び式(3)を含む。

Figure 2017116280
Figure 2017116280
Figure 2017116280
In one embodiment, the digitized coordinate value of the intersection of the optical axis of the fixed point camera and the image is (Uo, Vo), and the three-dimensional coordinate value in the real space coordinate system of the center of the lens included in the fixed point camera is ( Xo, Yo, Zo), the three-dimensional coordinate value of the measurement point in the real space coordinate system is (X, Y, Z), and the projected coordinate value of the projection point obtained by projecting the measurement point onto the digitized coordinate system is ( U, V), F as the focal length of the lens, R as the coordinate transformation matrix from the real space coordinate system to the digitized coordinate system, a as the aspect ratio of the fixed point camera, and camera distortion of the fixed point camera. And s, and the scale factor for setting the value of the third row and the first column included in the determinant indicating the projection point to 1 is h, the arithmetic expressions are the following expressions (1) and ( 2) and formula (3).
Figure 2017116280
Figure 2017116280
Figure 2017116280

ある実施形態では、前記コンピューターに、前記最適解を求めさせる際に、前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定させて前記最適解を求めさせる手順と、前記交点(Uo,Vo)を変数に加えて前記最適解を求めさせる手順とを実行させる。   In one embodiment, when the computer determines the optimum solution, the intersection point (Uo, Vo) between the optical axis of the fixed point camera and the image is set at the center of the image to obtain the optimum solution. And a procedure for adding the intersection (Uo, Vo) to a variable to obtain the optimum solution.

ある実施形態では、全ての前記較正点が、前記実測空間内の同一平面に含まれる。   In an embodiment, all the calibration points are included in the same plane in the actual measurement space.

ある実施形態では、前記コンピューターに、遺伝的アルゴリズム法に基づいて前記最適解を求めさせる。   In one embodiment, the computer is caused to determine the optimal solution based on a genetic algorithm method.

本発明に係るカメラ較正方法は、定点カメラを用いて、実測空間を撮像した画像を取得するステップと、前記実測空間に含まれる少なくとも3個の較正点の前記画像上でのデジタイズ座標値を測定するステップと、実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記定点カメラのパラメーターの最適解を取得するステップとを包含する。前記演算式は、前記パラメーターを含む。   In the camera calibration method according to the present invention, a fixed point camera is used to acquire an image obtained by imaging an actual measurement space, and digitized coordinate values on the image of at least three calibration points included in the actual measurement space are measured. A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, Obtaining an optimal solution of the parameters of the fixed-point camera based on the digitized coordinate value. The arithmetic expression includes the parameters.

本発明によれば、カメラの較正に用いる較正点の数を減らすことができる。   According to the present invention, the number of calibration points used for camera calibration can be reduced.

本発明の実施形態に係るカメラ較正システムの構成を示す図である。It is a figure which shows the structure of the camera calibration system which concerns on embodiment of this invention. 実空間座標系における測定点の3次元座標値とデジタイズ座標系における測定点のデジタイズ座標値との関係を模式的に示す図である。It is a figure which shows typically the relationship between the three-dimensional coordinate value of the measuring point in a real space coordinate system, and the digitized coordinate value of the measuring point in a digitizing coordinate system. 本発明の実施形態に係るカメラ較正方法のフローを示す図である。It is a figure which shows the flow of the camera calibration method which concerns on embodiment of this invention. 本発明の実施形態に係るカメラ較正方法の他のフローを示す図である。It is a figure which shows the other flow of the camera calibration method which concerns on embodiment of this invention. (a)はやり投げ助走路の特徴点を示す図である。(b)は本発明の実施例に係る実測空間を示す図である。(A) is a figure which shows the feature point of a throwing runway. (B) is a figure which shows the measurement space which concerns on the Example of this invention. 実測空間に設置した54個の較正点を示す図である。It is a figure which shows 54 calibration points installed in measurement space. 本発明の実施例1に係る遺伝的アルゴリズム法を用いた最適化処理における再投影誤差の変化を示す図である。It is a figure which shows the change of the reprojection error in the optimization process using the genetic algorithm method which concerns on Example 1 of this invention. 本発明の実施例3に係る測定結果を示す図である。It is a figure which shows the measurement result which concerns on Example 3 of this invention. 本発明の実施例3に係る測定結果を示す図である。It is a figure which shows the measurement result which concerns on Example 3 of this invention. 本発明の実施例3に係る測定結果を示す図である。It is a figure which shows the measurement result which concerns on Example 3 of this invention. 本発明の実施例3に係る測定結果を示す図である。It is a figure which shows the measurement result which concerns on Example 3 of this invention. 本発明の実施例4に係る測定結果を示す図である。It is a figure which shows the measurement result which concerns on Example 4 of this invention.

以下、図面を参照して本発明の実施形態を説明する。ただし、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。なお、本発明は、以下の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, in the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. In addition, this invention is not restricted to the following embodiment, It is possible to implement in a various aspect in the range which does not deviate from the summary.

図1は、本実施形態に係るカメラ較正システムの構成を示す図である。図1に示すように、カメラ較正システム1は、少なくとも1台の定点カメラ2と、演算装置3とを備える。カメラ較正システム1は、所定の演算式に含まれる定点カメラ2のパラメーター(以下、カメラパラメーターと記載する場合がある)の最適解を取得することにより、定点カメラ2を較正する。以下、所定の演算式を、カメラパラメーターを含む演算式と記載する。カメラパラメーターを含む演算式は、実空間座標系における測定点の3次元座標値をデジタイズ座標系に投影した投影座標値を算出するための式である。換言すると、カメラパラメーターを含む演算式に基づいて、測定点の画像上でのデジタイズ座標値(測定点のデジタイズ座標系における座標値)から、測定点の実空間座標系における3次元座標値を求めることができる。   FIG. 1 is a diagram illustrating a configuration of a camera calibration system according to the present embodiment. As shown in FIG. 1, the camera calibration system 1 includes at least one fixed point camera 2 and an arithmetic device 3. The camera calibration system 1 calibrates the fixed point camera 2 by obtaining an optimal solution of the parameters of the fixed point camera 2 (hereinafter sometimes referred to as camera parameters) included in the predetermined arithmetic expression. Hereinafter, the predetermined arithmetic expression is referred to as an arithmetic expression including a camera parameter. The arithmetic expression including the camera parameter is an expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the measurement point in the real space coordinate system onto the digitized coordinate system. In other words, the three-dimensional coordinate value of the measurement point in the real space coordinate system is obtained from the digitized coordinate value on the image of the measurement point (the coordinate value in the digitized coordinate system of the measurement point) based on the arithmetic expression including the camera parameters. be able to.

なお、デジタイズ座標値から実空間座標系における3次元座標値を求めるには、複数の画像を必要とする。複数の画像には、1台の定点カメラ2を移動させて、複数の異なる位置から撮像した画像を使用し得る。あるいは、複数台の定点カメラ2を複数の異なる位置に配置して撮像した画像を使用し得る。   Note that a plurality of images are required to obtain the three-dimensional coordinate value in the real space coordinate system from the digitized coordinate value. For a plurality of images, images taken from a plurality of different positions by moving one fixed point camera 2 can be used. Alternatively, images obtained by arranging a plurality of fixed point cameras 2 at a plurality of different positions can be used.

定点カメラ2は、3次元動作の分析対象に応じて設定される実測空間を撮像範囲に含ませることが可能な位置に配置される。換言すると、定点カメラ2は、3次元動作の分析対象を撮像できる位置に配置される。定点カメラ2の種類は特に限定されないが、典型的にはデジタルビデオカメラが使用される。   The fixed point camera 2 is arranged at a position where an actual measurement space set according to the analysis target of the three-dimensional motion can be included in the imaging range. In other words, the fixed point camera 2 is arranged at a position where the analysis target of the three-dimensional motion can be imaged. The type of the fixed point camera 2 is not particularly limited, but a digital video camera is typically used.

定点カメラ2は、定点カメラ2の較正時(カメラパラメーターの最適解の取得時)に、実測空間を撮像する。実測空間は、実空間座標系における3次元座標値が既知である少なくとも3個の較正点を含む。例えば、3個の較正点は、測定空間内のいずれかの水平面(同一平面の一例)に含まれる。なお、4個以上の較正点を用いる場合、較正点として、同一平面に含まれる点のみを用いてもよいし、較正点のうちの少なくとも1つに、同一平面に含まれない点を用いてもよい。   The fixed-point camera 2 images the actual measurement space when the fixed-point camera 2 is calibrated (when an optimal solution for camera parameters is acquired). The actual measurement space includes at least three calibration points whose three-dimensional coordinate values in the real space coordinate system are known. For example, three calibration points are included in any horizontal plane (an example of the same plane) in the measurement space. When using four or more calibration points, only the points included in the same plane may be used as the calibration points, or at least one of the calibration points may be a point not included in the same plane. Also good.

演算装置3は、定点カメラ2により撮像された画像(較正点を含む画像)から、カメラパラメーターの最適解を取得する。具体的には、演算装置3は、定点カメラ2の内部パラメーター及び外部パラメーターの最適解を算出する。演算装置3は、表示部31、入力部32、記憶部33、及び制御部34を備える。演算装置3を構成する機器は特に限定されないが、例えばパーソナルコンピューターを使用し得る。   The arithmetic device 3 acquires an optimal solution of camera parameters from an image (an image including a calibration point) captured by the fixed point camera 2. Specifically, the arithmetic device 3 calculates optimal solutions for internal parameters and external parameters of the fixed point camera 2. The arithmetic device 3 includes a display unit 31, an input unit 32, a storage unit 33, and a control unit 34. Although the apparatus which comprises the arithmetic unit 3 is not specifically limited, For example, a personal computer can be used.

表示部31は、制御部34によって処理された情報を画像として表示する。表示部31の種類は特に限定されないが、例えば液晶ディスプレイを使用し得る。カメラパラメーターの最適解の算出時に、表示部31は、定点カメラ2により撮像された画像(較正点を含む画像)を表示する。なお、画像データは、例えば、USBケーブルのようなケーブル、又はSDメモリーカードのような記憶装置を媒体として、定点カメラ2から演算装置3に取り込まれ得る。   The display unit 31 displays information processed by the control unit 34 as an image. Although the kind of display part 31 is not specifically limited, For example, a liquid crystal display can be used. When calculating the optimal solution for the camera parameter, the display unit 31 displays an image captured by the fixed point camera 2 (an image including a calibration point). Note that the image data can be taken into the arithmetic device 3 from the fixed point camera 2 using, for example, a cable such as a USB cable or a storage device such as an SD memory card as a medium.

入力部32は、ユーザーによって操作されて、制御部34に対して各種の処理コマンドや様々な情報を入力する。入力部32は、典型的には、マウスのようなポインティングデバイスや、キーボードを含む。あるいは、入力部32は、タッチパネルを含み得る。本実施形態において、ユーザーは、入力部32を操作することにより、表示部31に表示されている画像に含まれるいずれかのポイントを指定して、その指定したポイントを制御部34に認識させることができる。具体的には、カメラパラメーターの最適解の算出時に、ユーザーは、定点カメラ2により撮像された画像に含まれる較正点を指定することができる。   The input unit 32 is operated by the user and inputs various processing commands and various information to the control unit 34. The input unit 32 typically includes a pointing device such as a mouse and a keyboard. Alternatively, the input unit 32 may include a touch panel. In the present embodiment, the user operates the input unit 32 to specify any point included in the image displayed on the display unit 31 and cause the control unit 34 to recognize the specified point. Can do. Specifically, the user can designate a calibration point included in an image captured by the fixed point camera 2 when calculating the optimal solution of the camera parameter.

記憶部33は、OS(Operating System)プログラム、入力部32によって入力された情報、及び、制御部34によって処理された情報などを記憶する。記憶部33を構成する装置は特に限定されないが、典型的には不揮発性の記憶装置が使用される。具体的には、不揮発性の記憶装置として、HDD(Hard Disk Drive)、又はフラッシュメモリを使用し得る。   The storage unit 33 stores an OS (Operating System) program, information input by the input unit 32, information processed by the control unit 34, and the like. Although the apparatus which comprises the memory | storage part 33 is not specifically limited, Typically, a non-volatile memory | storage device is used. Specifically, an HDD (Hard Disk Drive) or a flash memory can be used as the nonvolatile storage device.

制御部34は、演算装置3の動作を統括的に制御する。制御部34は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)によって構成される。詳しくは、制御部34は、カメラ較正プログラムを含む各種の制御プログラムをCPUに実行させることにより、数値計算や情報処理、機器制御のような様々な処理を行う。   The control unit 34 comprehensively controls the operation of the arithmetic device 3. The control unit 34 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory). Specifically, the control unit 34 performs various processes such as numerical calculation, information processing, and device control by causing the CPU to execute various control programs including a camera calibration program.

カメラ較正プログラムは、制御部34に、定点カメラ2によって撮像された画像(較正点を含む画像)から、カメラパラメーターの最適解を取得させる。カメラ較正プログラムは、例えば、記憶部33に予め記憶される。あるいは、カメラ較正プログラムは、ROMに予め記憶される。   The camera calibration program causes the control unit 34 to acquire an optimal solution of camera parameters from an image (an image including a calibration point) captured by the fixed point camera 2. The camera calibration program is stored in advance in the storage unit 33, for example. Alternatively, the camera calibration program is stored in advance in the ROM.

詳しくは、制御部34は、較正点の画像上でのデジタイズ座標値(較正点のデジタイズ座標系における座標値)を測定する。また、制御部34は、実測空間に含まれる較正点の3次元座標値と、カメラパラメーター(定点カメラ2の内部パラメーター及び外部パラメーター)を含む演算式と、較正点のデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。カメラパラメーターを含む演算式は、カメラ較正プログラムに紐づけられて記憶される。   Specifically, the control unit 34 measures the digitized coordinate value (the coordinate value of the calibration point in the digitized coordinate system) on the calibration point image. Further, the control unit 34, based on the three-dimensional coordinate value of the calibration point included in the actual measurement space, the arithmetic expression including the camera parameters (internal parameters and external parameters of the fixed point camera 2), and the digitized coordinate value of the calibration point, Get the optimal solution for camera parameters. The arithmetic expression including the camera parameters is stored in association with the camera calibration program.

本実施形態では、カメラパラメーターの最適解の算出時に、表示部31が、定点カメラ2によって撮像された画像(較正点を含む画像)を表示する。ユーザーが、入力部32を操作して、表示部31に表示された画像に含まれる較正点を指定すると、制御部34は、較正点の画像上でのデジタイズ座標値を測定する。即ち、制御部34は、較正点をデジタイズする。次いで、制御部34は、実測空間に含まれる較正点の3次元座標値と、カメラパラメーターを含む演算式と、較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。   In the present embodiment, the display unit 31 displays an image (an image including a calibration point) captured by the fixed point camera 2 when calculating the optimal solution for the camera parameter. When the user operates the input unit 32 to specify a calibration point included in the image displayed on the display unit 31, the control unit 34 measures the digitized coordinate value on the calibration point image. That is, the control unit 34 digitizes the calibration point. Next, the control unit 34 obtains an optimal solution of the camera parameter based on the three-dimensional coordinate value of the calibration point included in the actual measurement space, the arithmetic expression including the camera parameter, and the digitized coordinate value on the calibration point image. To do.

例えば、制御部34は、まず、カメラパラメーターを含む演算式に基づいて較正点の投影座標値を算出する。その後、制御部34は、最適解として、較正点の画像上でのデジタイズ座標値と較正点の投影座標値との差(以下、再投影誤差と記載する場合がある)が最小となるようなカメラパラメーターを算出する。デジタイズ誤差が無いと仮定すると、カメラパラメーターを含む演算式に基づいて算出される較正点の投影座標値は、カメラパラメーターが正しい値である場合、較正点の画像上でのデジタイズ座標値と一致する。したがって、最適解として、再投影誤差が最小となるようなカメラパラメーターを求めることにより、定点カメラ2の較正を行い得る。なお、カメラパラメーターの最適解を取得するための最適化処理の手法は特に限定されない。例えば、制御部34は、遺伝的アルゴリズム法に基づいて最適解を取得し得る。   For example, the control unit 34 first calculates a projection coordinate value of the calibration point based on an arithmetic expression including a camera parameter. Thereafter, the control unit 34 minimizes the difference between the digitized coordinate value on the image of the calibration point and the projection coordinate value of the calibration point (hereinafter, may be referred to as a reprojection error) as an optimal solution. Calculate camera parameters. Assuming that there is no digitization error, the projected coordinate value of the calibration point calculated based on the calculation formula including the camera parameter matches the digitized coordinate value on the calibration point image when the camera parameter is correct. . Therefore, the fixed point camera 2 can be calibrated by obtaining a camera parameter that minimizes the reprojection error as an optimal solution. Note that the optimization processing technique for obtaining the optimal solution of the camera parameter is not particularly limited. For example, the control unit 34 can obtain an optimal solution based on a genetic algorithm method.

続いて、カメラパラメーターを含む演算式、即ち、実空間座標系における測定点の3次元座標値をデジタイズ座標系に投影した投影座標値を算出するための式の具体例を説明する。本実施形態において、カメラパラメーターを含む演算式は、以下の式(1)、式(2)、及び式(3)を含む。

Figure 2017116280
Figure 2017116280
Figure 2017116280
Next, a specific example of an arithmetic expression including camera parameters, that is, an expression for calculating a projected coordinate value obtained by projecting a three-dimensional coordinate value of a measurement point in a real space coordinate system onto a digitized coordinate system will be described. In the present embodiment, the arithmetic expression including the camera parameter includes the following expressions (1), (2), and (3).
Figure 2017116280
Figure 2017116280
Figure 2017116280

式(1)において、右辺第1項が定点カメラ2の内部パラメーターを示す。換言すると、以下の行列(4)に含まれる変数が、定点カメラ2の内部パラメーターである。

Figure 2017116280
In Expression (1), the first term on the right side indicates an internal parameter of the fixed point camera 2. In other words, the variables included in the following matrix (4) are internal parameters of the fixed point camera 2.
Figure 2017116280

また、式(1)において、右辺第2項及び第3項が定点カメラ2の外部パラメーターを示す。換言すると、以下の行列(5)に含まれる変数が、定点カメラ2の外部パラメーターである。

Figure 2017116280
In Expression (1), the second term and the third term on the right side indicate external parameters of the fixed point camera 2. In other words, the variables included in the following matrix (5) are external parameters of the fixed point camera 2.
Figure 2017116280

制御部34は、定点カメラ2の較正時に、行列(4)及び行列(5)に含まれる変数の最適解を取得する。更に制御部34は、式(1)に含まれるカメラパラメーターを最適解に置換する。実際の3次元動作の分析時には、最適解に置換された後の式(1)に基づいて、測定点の実空間座標系における3次元座標値を算出する。   The control unit 34 acquires optimal solutions for variables included in the matrix (4) and the matrix (5) when the fixed point camera 2 is calibrated. Furthermore, the control unit 34 replaces the camera parameter included in the equation (1) with the optimal solution. When analyzing the actual three-dimensional motion, the three-dimensional coordinate value in the real space coordinate system of the measurement point is calculated based on the equation (1) after being replaced with the optimal solution.

ここで、図2を参照して、式(1)及び式(2)に含まれる各変数を説明する。図2は、実空間座標系における測定点MXの3次元座標値と、デジタイズ座標系における測定点のデジタイズ座標値(測定点の画像上での座標値)との関係を模式的に示す図である。   Here, with reference to FIG. 2, each variable contained in Formula (1) and Formula (2) is demonstrated. FIG. 2 is a diagram schematically showing the relationship between the three-dimensional coordinate value of the measurement point MX in the real space coordinate system and the digitized coordinate value (coordinate value on the image of the measurement point) of the measurement point in the digitizing coordinate system. is there.

式(1)及び式(2)は、図2に示す測定点MXと投影点mxとの3次元幾何学的な関係を同次座標系でまとめることによって得られる。詳しくは、式(1)及び式(2)に含まれる変数(Uo,Vo)は、定点カメラ2の光軸Lとデジタイズ平面21(画像)との交点のデジタイズ座標値を示す。また、変数(Xo,Yo,Zo)は、定点カメラ2が備えるレンズ22の中心Oの実空間座標系における3次元座標値を示す。また、変数(X,Y,Z)は、実空間座標系における測定点MXの3次元座標値を示す。また、変数(U,V)は、測定点MXをデジタイズ座標系へ投影した投影点mxの投影座標値を示す。また、変数Fは、レンズの焦点距離を示す。なお、本実施形態では、デジタイズ平面21の中心をデジタイズ座標系の原点とする。   Expressions (1) and (2) are obtained by combining the three-dimensional geometric relationship between the measurement point MX and the projection point mx shown in FIG. 2 in a homogeneous coordinate system. Specifically, the variables (Uo, Vo) included in the equations (1) and (2) indicate the digitized coordinate values of the intersections between the optical axis L of the fixed point camera 2 and the digitizing plane 21 (image). Variables (Xo, Yo, Zo) indicate three-dimensional coordinate values in the real space coordinate system of the center O of the lens 22 included in the fixed point camera 2. Variables (X, Y, Z) indicate three-dimensional coordinate values of the measurement point MX in the real space coordinate system. Variables (U, V) indicate the projection coordinate value of the projection point mx obtained by projecting the measurement point MX onto the digitized coordinate system. A variable F indicates the focal length of the lens. In the present embodiment, the center of the digitizing plane 21 is the origin of the digitizing coordinate system.

式(1)において、Rは、実空間座標系からデジタイズ座標系への座標変換行列を示し、aは、定点カメラ2のアスペクト比を示し、sは、定点カメラ2のカメラ歪み(スキュー)を示し、hは、投影点mxを示す行列式(式(2)を参照)に含まれる第3行第1列の値を1にするためのスケール因子を示す。   In Equation (1), R represents a coordinate transformation matrix from the real space coordinate system to the digitized coordinate system, a represents the aspect ratio of the fixed point camera 2, and s represents the camera distortion (skew) of the fixed point camera 2. H represents a scale factor for setting the value of the third row and the first column included in the determinant (see Expression (2)) indicating the projection point mx to 1.

また、式(1)の第3行より、スケール因子hについて以下の式(6)の関係が成立する。

Figure 2017116280
Further, from the third row of the equation (1), the relationship of the following equation (6) is established for the scale factor h.
Figure 2017116280

更に、式(1)の第1行及び第2行を焦点距離Fによってまとめると、以下の式(7)が成立する。

Figure 2017116280
Further, when the first row and the second row of the formula (1) are combined by the focal length F, the following formula (7) is established.
Figure 2017116280

したがって、式(7)より、焦点距離Fについて以下の式(8)、式(9)、及び(10)の関係が成立する。なお、式(8)及び式(9)において、A+は、Aの擬似逆行列である。

Figure 2017116280
Figure 2017116280
Figure 2017116280
Therefore, from the expression (7), the following expressions (8), (9), and (10) are established for the focal length F. In Expressions (8) and (9), A + is a pseudo inverse matrix of A.
Figure 2017116280
Figure 2017116280
Figure 2017116280

座標変換行列Rは、オイラー角(θ,ψ,φ)で表し得る。座標変換行列Rをオイラー角(θ,ψ,φ)で表すことにより、最適解の算出対象のカメラパラメーターの数を減らすことができる。   The coordinate transformation matrix R can be represented by Euler angles (θ, ψ, φ). By representing the coordinate transformation matrix R with Euler angles (θ, ψ, φ), the number of camera parameters for which an optimal solution is to be calculated can be reduced.

カメラパラメーターの最適化処理を行う場合、図1を参照して説明した演算装置3(制御部34)は、最適化処理を2段階に分けて行い得る。具体的には、第1段階において、制御部34は、定点カメラ2の光軸Lとデジタイズ平面21(画像)との交点(Uo,Vo)をデジタイズ平面21の中心に設定して最適化処理を実行する。より詳しくは、制御部34は、交点(Uo,Vo)をデジタイズ平面21の中心に設定する。更に、式(8)、式(9)及び式(10)から焦点距離Fを算出する。そして、3つのカメラパラメーター(Uo,Vo,F)を除いたカメラパラメーター(変数)の最適解を取得(算出)する。次いで、第2段階において、制御部34は、交点(Uo,Vo)及び焦点距離(F)を変数に加えて最適化処理を実行する。カメラパラメーターの最適化処理を2段階に分けて行うことにより、最適化処理の高速化を図ることができるとともに、最適化処理の結果が局所解に陥る可能性を抑制することができる。   When the camera parameter optimization process is performed, the arithmetic device 3 (control unit 34) described with reference to FIG. 1 can perform the optimization process in two stages. Specifically, in the first stage, the control unit 34 sets an intersection (Uo, Vo) between the optical axis L of the fixed point camera 2 and the digitizing plane 21 (image) as the center of the digitizing plane 21 and performs an optimization process. Execute. More specifically, the control unit 34 sets the intersection (Uo, Vo) at the center of the digitizing plane 21. Further, the focal length F is calculated from the equations (8), (9), and (10). Then, an optimal solution of camera parameters (variables) excluding the three camera parameters (Uo, Vo, F) is obtained (calculated). Next, in the second stage, the control unit 34 adds the intersection (Uo, Vo) and the focal length (F) to the variables and executes the optimization process. By performing the camera parameter optimization process in two stages, it is possible to increase the speed of the optimization process and to suppress the possibility that the result of the optimization process falls into a local solution.

また、アスペクト比aが1であり、スキューsが0である場合、式(1)は以下の式(11)に変換し得る。よって、図1を参照して説明した演算装置3(制御部34)は、以下の式(11)に基づいてカメラパラメーターの最適解を取得し得る。

Figure 2017116280
When the aspect ratio a is 1 and the skew s is 0, the equation (1) can be converted into the following equation (11). Therefore, the arithmetic device 3 (control unit 34) described with reference to FIG. 1 can obtain an optimal solution of camera parameters based on the following equation (11).
Figure 2017116280

なお、式(11)において、座標変換行列Rをオイラー角(θ,ψ,φ)で表すことで、最適解の算出対象のカメラパラメーター(変数)を(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の9個にすることができる。   In Equation (11), the coordinate transformation matrix R is represented by Euler angles (θ, ψ, φ), so that camera parameters (variables) for calculation of the optimal solution are (Uo, Vo, F, Xo, Yo, (Zo, θ, ψ, φ).

続いて、図1を参照して説明したカメラ較正システム1を用いるカメラ較正方法について説明する。図3は、本実施形態に係るカメラ較正方法のフローを示す図である。   Subsequently, a camera calibration method using the camera calibration system 1 described with reference to FIG. 1 will be described. FIG. 3 is a diagram illustrating a flow of the camera calibration method according to the present embodiment.

図3に示すように、定点カメラ2の較正を行う際には、まず、定点カメラ2を用いて実測空間を撮像する(ステップS31)。実測空間は、実空間座標系における3次元座標値が既知である少なくとも3個の較正点を含む。例えば、3個の較正点は、測定空間内のいずれかの水平面(同一平面)に含まれる。   As shown in FIG. 3, when calibrating the fixed point camera 2, first, the measured space is imaged using the fixed point camera 2 (step S31). The actual measurement space includes at least three calibration points whose three-dimensional coordinate values in the real space coordinate system are known. For example, three calibration points are included in any horizontal plane (same plane) in the measurement space.

次に、演算装置3(制御部34)を用いて、各較正点の画像上でのデジタイズ座標値を測定する(ステップS32)。次に、演算装置3(制御部34)を用いて、カメラパラメーターの最適化処理を行う(ステップS33)。具体的には、実測空間に含まれる各較正点の3次元座標値と、カメラパラメーターを含む演算式と、各較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。   Next, the digitizing coordinate value on the image of each calibration point is measured using the arithmetic device 3 (control unit 34) (step S32). Next, camera parameter optimization processing is performed using the arithmetic device 3 (control unit 34) (step S33). Specifically, the optimal solution of the camera parameter is obtained based on the three-dimensional coordinate value of each calibration point included in the actual measurement space, the arithmetic expression including the camera parameter, and the digitized coordinate value on the image of each calibration point. To do.

続いて、図1を参照して説明したカメラ較正システム1を用いる他のカメラ較正方法について説明する。図4は、本実施形態に係るカメラ較正方法の他のフローを示す図である。   Next, another camera calibration method using the camera calibration system 1 described with reference to FIG. 1 will be described. FIG. 4 is a diagram illustrating another flow of the camera calibration method according to the present embodiment.

図4に示すカメラ較正方法は、カメラパラメーターの最適化処理が2段階に分かれて行われる点で、図3に示すカメラ較正方法と異なる。即ち、図4に示すカメラ較正方法では、演算装置3(制御部34)に、第1最適化処理(ステップS41)と第2最適化処理(ステップS42)とを実行させる。   The camera calibration method shown in FIG. 4 differs from the camera calibration method shown in FIG. 3 in that the camera parameter optimization process is performed in two stages. That is, in the camera calibration method shown in FIG. 4, the arithmetic device 3 (control unit 34) causes the first optimization process (step S41) and the second optimization process (step S42) to be executed.

第1最適化処理(ステップS41)では、3つのカメラパラメーター(Uo,Vo,F)を除いたカメラパラメーターの最適解を算出する。具体的には、定点カメラ2の光軸Lと画像(デジタイズ平面21)との交点(Uo,Vo)を画像の中心に設定する。更に、式(8)、式(9)及び式(10)から焦点距離Fを算出する。そして、実測空間に含まれる各較正点の3次元座標値と、カメラパラメーターを含む演算式と、各較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。第2最適化処理(ステップS42)では、3つのカメラパラメーター(Uo,Vo,F)を変数に加えて、実測空間に含まれる各較正点の3次元座標値と、カメラパラメーターを含む演算式と、各較正点の画像上でのデジタイズ座標値とに基づき、カメラパラメーターの最適解を取得する。   In the first optimization process (step S41), an optimal solution of camera parameters excluding the three camera parameters (Uo, Vo, F) is calculated. Specifically, the intersection (Uo, Vo) between the optical axis L of the fixed point camera 2 and the image (digitized plane 21) is set at the center of the image. Further, the focal length F is calculated from the equations (8), (9), and (10). Then, an optimal solution of the camera parameter is acquired based on the three-dimensional coordinate value of each calibration point included in the actual measurement space, the arithmetic expression including the camera parameter, and the digitized coordinate value on the image of each calibration point. In the second optimization process (step S42), three camera parameters (Uo, Vo, F) are added to the variables, the three-dimensional coordinate values of the respective calibration points included in the actual measurement space, and an arithmetic expression including the camera parameters, Based on the digitized coordinate values on the image of each calibration point, an optimal solution of the camera parameter is obtained.

以上、本発明の実施形態について図面を参照しながら説明した。本発明の実施形態によれば、カメラの較正に用いる較正点の数を3個にまで減らすことができる。したがって、実際の試合会場等において較正点を設置する作業が容易となる。   The embodiments of the present invention have been described above with reference to the drawings. According to the embodiment of the present invention, the number of calibration points used for camera calibration can be reduced to three. Therefore, it is easy to set a calibration point in an actual game hall or the like.

また、スポーツの試合会場等では、ルールによって長さ等が規定されたライン(例えば、野球のバッターボックスを示すライン)が引かれていることが多い。そのようなライン(以下、規定ラインと記載する場合がある)は、通常、水平面上に引かれる。換言すると、同一平面上に引かれる。一方、3次元動作分析に一般的に用いられるDLT法では、同一平面に含まれない較正点を6個以上必要とするため、規定ラインに含まれる特徴点(例えば、野球のバッターボックスの各頂点)のみを用いてカメラの較正を行うことができない。これに対し、本発明の実施形態によれば、同一平面に含まれる較正点のみを用いてカメラの較正を行うことができる。したがって、規定ラインに含まれる特徴点のみを用いて、カメラの較正を行うことができる。更に、規定ラインに含まれる特徴点を較正点として用いることができるため、試合会場等に立ち入って較正点を設置することなく、カメラの較正を行うことができる。   Also, in sports game halls and the like, a line whose length is specified by a rule (for example, a line indicating a baseball batter box) is often drawn. Such a line (hereinafter sometimes referred to as a prescribed line) is usually drawn on a horizontal plane. In other words, they are drawn on the same plane. On the other hand, since the DLT method generally used for three-dimensional motion analysis requires six or more calibration points that are not included in the same plane, feature points included in the specified line (for example, each vertex of a baseball batter box) ) Cannot be used to calibrate the camera. On the other hand, according to the embodiment of the present invention, the camera can be calibrated using only calibration points included in the same plane. Therefore, the camera can be calibrated using only the feature points included in the defined line. Furthermore, since the feature points included in the defined line can be used as calibration points, the camera can be calibrated without entering the game hall or the like and installing calibration points.

また、本発明の実施形態によれば、静止している較正点を用いてカメラの較正を行うことができる。よって、複数台のカメラを用いて、それぞれ異なる角度から実測空間(較正点)を撮像する際に、複数台のカメラを同期させる必要はない。更に、各カメラの較正に、それぞれ異なる較正点を用いることができる。また、一台のカメラを用いて、異なる角度から実測空間(較正点)を撮像することにより、カメラの較正を行うことができる。   Further, according to the embodiment of the present invention, the calibration of the camera can be performed using the calibration point that is stationary. Therefore, when imaging a measurement space (calibration point) from different angles using a plurality of cameras, it is not necessary to synchronize the plurality of cameras. Furthermore, different calibration points can be used to calibrate each camera. Further, the camera can be calibrated by imaging the actual measurement space (calibration point) from different angles using one camera.

以下、実施例を用いて本発明を更に具体的に説明する。なお、本発明は実施例の範囲に何ら限定されない。本実施例では、やり投げ助走路に含まれる特徴点を利用してカメラの較正を行った。   Hereinafter, the present invention will be described more specifically with reference to examples. The present invention is not limited to the scope of the examples. In this example, the camera was calibrated using the feature points included in the throwing runway.

[実施例1及び比較例1]
[カメラパラメーター]
実施例1では、定点カメラとして、2台のデジタルビデオカメラDV1、DV2(パナソニック社製のHC−V750M,解像度:1920ピクセル×1080ピクセル)を用いた。デジタルビデオカメラDV1、DV2の撮像素子は正方ピクセルと考えられ、デジタイズ平面21の縦横比は1であったことから、アスペクト比aを1とし、スキューsを0とした。即ち、実空間座標系における測定点の3次元座標値をデジタイズ座標系に投影した投影座標値を算出するための式(カメラパラメーターを含む演算式)として、式(11)、式(2)及び式(3)を用いた。更に、座標変換行列Rをオイラー角(θ,ψ,φ)で表して、(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の9個の値(変数)をカメラパラメーターとした。なお、デジタルビデオカメラDV1、DV2の撮影スピードは毎秒60コマ(プログレッシブ)、シャッタースピードは1/500秒であった。
[Example 1 and Comparative Example 1]
[Camera parameters]
In Example 1, two digital video cameras DV1 and DV2 (HC-V750M manufactured by Panasonic Corporation, resolution: 1920 pixels × 1080 pixels) were used as fixed point cameras. The image sensors of the digital video cameras DV1 and DV2 are considered to be square pixels, and the aspect ratio of the digitizing plane 21 is 1. Therefore, the aspect ratio a is 1 and the skew s is 0. That is, as the formula (calculation formula including camera parameters) for calculating the projected coordinate value obtained by projecting the three-dimensional coordinate value of the measurement point in the real space coordinate system onto the digitized coordinate system, the formula (11), formula (2), and Formula (3) was used. Further, the coordinate transformation matrix R is expressed by Euler angles (θ, ψ, φ), and nine values (variables) of (Uo, Vo, F, Xo, Yo, Zo, θ, ψ, φ) are camera parameters. It was. The shooting speed of the digital video cameras DV1 and DV2 was 60 frames per second (progressive), and the shutter speed was 1/500 seconds.

[較正点]
図5(a)は、やり投げ助走路51の特徴点を示す図である。図5(a)において、矢印Yで示す方向が投てき方向である。やり投げ助走路51は、投てき方向に沿って引かれた2本のライン52、53によって規定される。2本のライン52、53は、投てき方向に直交する方向(矢印Xで示す方向)に4mの間隔を空けて平行に引かれる。
[Calibration point]
FIG. 5A is a diagram showing the characteristic points of the throwing runway 51. In FIG. 5A, the direction indicated by the arrow Y is the throwing direction. The throwing runway 51 is defined by two lines 52 and 53 drawn along the throwing direction. The two lines 52 and 53 are drawn in parallel in the direction orthogonal to the throwing direction (direction indicated by the arrow X) with an interval of 4 m.

踏み切り線54(スターティングライン)は、円弧状に引かれる。具体的には、踏み切り線54は、2本のライン52、53のそれぞれの前端を両端とする半径8mの円弧状のラインである。詳しくは、踏み切り線54の内側の円弧が、半径8mの円弧である。踏み切り線54(半径8mの円弧)の中心は、2本のライン52、53の中間上に位置する。   The crossing line 54 (starting line) is drawn in an arc shape. Specifically, the crossing line 54 is an arc-shaped line having a radius of 8 m with both front ends of the two lines 52 and 53 as both ends. Specifically, the arc inside the crossing line 54 is an arc having a radius of 8 m. The center of the crossing line 54 (arc having a radius of 8 m) is located on the middle of the two lines 52 and 53.

実施例1では、ライン52と踏み切り線54との交点をCP1とし、ライン53と踏み切り線54との交点をCP2とし、踏み切り線54の中心をCP3とした。詳しくは、2本のライン52、53のそれぞれの内側の辺と踏み切り線54の内側の円弧との2つの交点をCP1、CP2とした。また、CP1を原点(0,0,0)とし、CP1からCP2へ向かう方向を+X方向とし、投てき方向を+Y方向とし、鉛直上向き方向を+Z方向とした。したがって、CP2の座標値は(4,0,0)となり、CP3の座標値は、(2,−(60)1/2,0)となる。また、CP1とCP2とに交わる軸がX軸となり、ライン52に沿った軸がY軸となる。実施例1では、CP1、CP2、及びCP3を較正点として用いて、カメラの較正を行った。 In Example 1, the intersection of the line 52 and the crossing line 54 is CP1, the intersection of the line 53 and the crossing line 54 is CP2, and the center of the crossing line 54 is CP3. Specifically, the two intersections between the inner side of each of the two lines 52 and 53 and the inner arc of the crossing line 54 are CP1 and CP2. In addition, CP1 is the origin (0, 0, 0), the direction from CP1 to CP2 is the + X direction, the throwing direction is the + Y direction, and the vertically upward direction is the + Z direction. Therefore, the coordinate value of CP2 is (4, 0, 0), and the coordinate value of CP3 is (2,-(60) 1/2 , 0). Further, the axis intersecting CP1 and CP2 is the X axis, and the axis along the line 52 is the Y axis. In Example 1, the camera was calibrated using CP1, CP2, and CP3 as calibration points.

[最適化手法]
実施例1では、遺伝的アルゴリズム法に基づいて、再投影誤差が最小となるようなカメラパラメーターの最適解を求めた。この際、カメラパラメーターの最適化処理を2段階に分けて行った。具体的には、第1段階では、定点カメラ(デジタルビデオカメラDV1、DV2)の光軸とデジタイズ平面(画像)との交点(Uo,Vo)をデジタイズ平面の中心に設定した。また、式(8)、式(9)及び式(10)から焦点距離Fを算出した。そして、遺伝的アルゴリズム法に基づき、3つのカメラパラメーター(Uo,Vo,F)を除いた6つのカメラパラメーター(Xo,Yo,Zo,θ,ψ,φ)の最適解を求めた。第2段階では、3つのカメラパラメーター(Uo,Vo,F)を変数に加えて、遺伝的アルゴリズム法に基づき、9のカメラパラメーター(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の最適解を求めた。遺伝的アルゴリズム法に用いる変数のうち、個体数は1000個に設定し、交叉率は70%に設定し、突然変異率は5%に設定した。終了条件は設けずに、各段階で100世代の最適化処理を行った。即ち、計200世代の最適化処理を行った。
[Optimization method]
In Example 1, based on the genetic algorithm method, an optimal camera parameter solution that minimizes reprojection error was obtained. At this time, camera parameter optimization processing was performed in two stages. Specifically, in the first stage, the intersection (Uo, Vo) between the optical axis of the fixed point camera (digital video camera DV1, DV2) and the digitizing plane (image) is set at the center of the digitizing plane. Further, the focal length F was calculated from the equations (8), (9), and (10). Then, based on the genetic algorithm method, an optimal solution of six camera parameters (Xo, Yo, Zo, θ, ψ, φ) excluding the three camera parameters (Uo, Vo, F) was obtained. In the second stage, nine camera parameters (Uo, Vo, F, Xo, Yo, Zo, θ, ψ, The optimal solution of φ) was obtained. Among the variables used in the genetic algorithm method, the number of individuals was set to 1000, the crossover rate was set to 70%, and the mutation rate was set to 5%. With no termination condition, 100 generations of optimization processing were performed at each stage. That is, 200 generations of optimization processing were performed.

[実験方法]
図5(b)は、実施例1に係る実測空間55を示す図である。実施例1において、実測空間55は、図5(a)を参照して説明したやり投げ助走路51を下面とする直方体状とした。具体的には、CP1及びCP2が実測空間55の頂点の一部となり、CP3が実測空間55の下面に含まれるように実測空間55を設定した。また、実測空間55のY軸方向の長さを8.0mに設定し、実測空間55のZ軸方向の高さを2.5mに設定した。
[experimental method]
FIG. 5B is a diagram illustrating the actual measurement space 55 according to the first embodiment. In the first embodiment, the actual measurement space 55 has a rectangular parallelepiped shape having the bottom surface of the throwing aid runway 51 described with reference to FIG. Specifically, the actual measurement space 55 is set such that CP1 and CP2 are part of the apex of the actual measurement space 55, and CP3 is included in the lower surface of the actual measurement space 55. Further, the length of the actual measurement space 55 in the Y-axis direction was set to 8.0 m, and the height of the actual measurement space 55 in the Z-axis direction was set to 2.5 m.

実施例1では、2台のデジタルビデオカメラDV1、DV2によりそれぞれ実測空間55を撮像して得た画像を基に、デジタルビデオカメラDV1、DV2を較正した。即ち、2台のデジタルビデオカメラDV1、DV2(以下、第1デジタルビデオカメラDV1、第2デジタルビデオカメラDV2と記載する場合がある)のカメラパラメーターの最適解を求めた。第1デジタルビデオカメラDV1は、実測空間55の中心からX軸方向に約−50m離れた地点において、なるべく高い位置に設置した。具体的には、地上から約9m離れた位置に設置した。一方、第2デジタルビデオカメラDV2は、実測空間55の中心からY軸方向に約−50m離れた地点において、なるべく高い位置に設置した。具体的には、地上から約4m離れた位置に設置した。デジタルビデオカメラDV1、DV2をなるべく高い位置に設置したのは、やり投げ助走路51の特徴点(較正点CP1、CP2、CP3)を識別しやすくするためである。   In Example 1, the digital video cameras DV1 and DV2 were calibrated based on images obtained by imaging the actual measurement space 55 with the two digital video cameras DV1 and DV2. That is, the optimal solution of the camera parameters of the two digital video cameras DV1 and DV2 (hereinafter sometimes referred to as the first digital video camera DV1 and the second digital video camera DV2) was obtained. The first digital video camera DV1 was installed as high as possible at a point about −50 m away from the center of the actual measurement space 55 in the X-axis direction. Specifically, it was installed at a position about 9m away from the ground. On the other hand, the second digital video camera DV2 was installed as high as possible at a point about −50 m away from the center of the actual measurement space 55 in the Y-axis direction. Specifically, it was installed at a position about 4 m away from the ground. The reason why the digital video cameras DV1 and DV2 are set as high as possible is to make it easy to identify the characteristic points (calibration points CP1, CP2, and CP3) of the throwing runway 51.

実施例1では、較正後のデジタルビデオカメラDV1、DV2の測定精度を検証した。詳しくは、実測空間55の頂点8ヶ所にマーカーを設置し、較正後のデジタルビデオカメラDV1、DV2により実測空間55を撮像して得た画像から、8つのマーカーの3次元座標値を測定(算出)し、実測空間55の再構築を行った。   In Example 1, the measurement accuracy of the digital video cameras DV1 and DV2 after calibration was verified. More specifically, markers are set at eight vertices of the actual measurement space 55, and three-dimensional coordinate values of the eight markers are measured (calculated) from images obtained by imaging the actual measurement space 55 with the calibrated digital video cameras DV1 and DV2. The actual measurement space 55 was reconstructed.

比較例1では、DLT法を用いてデジタルビデオカメラDV1、DV2を較正した。即ち、2台のデジタルビデオカメラDV1、DV2のDLTパラメーターを求めた。具体的には、実測空間55の9箇所に、較正点が0.5m間隔で取り付けられた長さ2.5mのキャリブレーションポールを垂直に立てることにより、計54個の較正点を設置した。図6は、実測空間55に設置した54個の較正点を示す図である。図6に示すように設置した54個の較正点を用いてDLTパラメーターを算出した。また、実施例1と同様に、較正後のデジタルビデオカメラDV1、DV2により実測空間55を撮像して得た画像を基に、実測空間55の頂点8ヶ所の3次元座標値を測定(算出)し、実測空間55の再構築を行った。   In Comparative Example 1, the digital video cameras DV1 and DV2 were calibrated using the DLT method. That is, the DLT parameters of the two digital video cameras DV1 and DV2 were obtained. Specifically, a total of 54 calibration points were installed by vertically setting up calibration poles having a length of 2.5 m with calibration points attached at intervals of 0.5 m at nine locations in the actual measurement space 55. FIG. 6 is a diagram showing 54 calibration points installed in the actual measurement space 55. The DLT parameters were calculated using 54 calibration points installed as shown in FIG. Further, similarly to the first embodiment, based on the image obtained by imaging the actual measurement space 55 with the calibrated digital video cameras DV1 and DV2, the three-dimensional coordinate values at the eight vertices of the actual measurement space 55 are measured (calculated). Then, the actual measurement space 55 was reconstructed.

なお、図6において、較正点1は較正点CP1であり、較正点13は較正点CP2であり、較正点43は較正点CP3である。また、較正点7の座標は(2,0,0)であり、較正点19の座標は(0,−4,0)であり、較正点25の座標は(2,−4,0)であり、較正点31の座標は(4,−4,0)である。   In FIG. 6, calibration point 1 is calibration point CP1, calibration point 13 is calibration point CP2, and calibration point 43 is calibration point CP3. The coordinates of the calibration point 7 are (2, 0, 0), the coordinates of the calibration point 19 are (0, -4, 0), and the coordinates of the calibration point 25 are (2, -4, 0). Yes, the coordinates of the calibration point 31 are (4, -4, 0).

DLTパラメーターは、式(1)の右辺のカメラパラメーターに関する行列(第1項から第3項)をPとすると、以下の式(12)によって纏めることができる。

Figure 2017116280
The DLT parameters can be summarized by the following equation (12), where P is a matrix (first to third terms) relating to the camera parameters on the right side of equation (1).
Figure 2017116280

一般的には、式(12)の第3行第4列の変数(P’12)を1とし、以下の式(13)に示す11個のDLTパラメーター(P1〜P11)を算出して、カメラの較正を行う。

Figure 2017116280
In general, the variable (P′12) in the third row and the fourth column of Equation (12) is set to 1, and 11 DLT parameters (P1 to P11) shown in Equation (13) below are calculated. Calibrate the camera.
Figure 2017116280

比較例1では、式(13)に基づいてDLTパラメーターを算出した。なお、式(13)において、kは、式(12)の右辺における第3行第4列の変数(P’12)を1とするためのスケール因子である。   In Comparative Example 1, the DLT parameter was calculated based on the formula (13). In Expression (13), k is a scale factor for setting the variable (P′12) in the third row and the fourth column on the right side of Expression (12) to 1.

[データ処理]
動作解析ソフト(DKH社製、Frame−DIAS IV)を用いて、デジタルビデオカメラDV1、DV2で撮影した画像から較正点のデジタイズ座標値(デジタイズ座標系における2次元座標値)を得た。実施例1及び比較例1では、デジタイズ誤差をできる限り小さくするために、4名が別々にデジタイズしたデータの平均値を用いた。なお、4名のデジタイズデータの差の最大値は、横方向において2ピクセル(分解能に対して約0.1%)であった。また、縦方向において、3.5ピクセル(分解能に対して約0.3%)であった。
[Data processing]
Using motion analysis software (manufactured by DKH, Frame-DIAS IV), digitized coordinate values (two-dimensional coordinate values in the digitized coordinate system) of calibration points were obtained from images taken by the digital video cameras DV1 and DV2. In Example 1 and Comparative Example 1, in order to reduce the digitization error as much as possible, an average value of data digitized separately by four persons was used. The maximum difference between the digitized data of the four persons was 2 pixels in the horizontal direction (about 0.1% with respect to the resolution). In the vertical direction, it was 3.5 pixels (about 0.3% with respect to the resolution).

[結果]
図7は、実施例1に係る遺伝的アルゴリズム法を用いた最適化処理における再投影誤差の変化を示す図である。図7において、縦軸は再投影誤差(Reprojective Error)を示し、横軸は世代(Generation)を示す。図7に示すように、再投影誤差は、最適化処理の開始後に急激に減少した。その後、緩やかに減少して、最適化処理の終了時点では、ほぼ0ピクセルとなった。なお、実施例1に係る最適化処理を複数回実施した結果、その全てにおいて、ほぼ同一の解に収束した。換言すると、実施例1に係る最適化処理によって得られる解は、局所解に陥ることがないことが確認された。
[result]
FIG. 7 is a diagram illustrating a change in the reprojection error in the optimization process using the genetic algorithm method according to the first embodiment. In FIG. 7, the vertical axis represents reprojection error, and the horizontal axis represents generation. As shown in FIG. 7, the reprojection error decreased rapidly after the optimization process was started. Thereafter, it gradually decreased and reached almost 0 pixels at the end of the optimization process. Note that, as a result of performing the optimization processing according to Example 1 a plurality of times, all converged to almost the same solution. In other words, it was confirmed that the solution obtained by the optimization process according to the first embodiment does not fall into a local solution.

以下の表1は、較正点CP1、CP2、CP3を用いて算出されたカメラパラメーター(Uo,Vo,F,Xo,Yo,Zo,θ,ψ,φ)の最適解を示す。

Figure 2017116280
Table 1 below shows the optimal solution of the camera parameters (Uo, Vo, F, Xo, Yo, Zo, θ, ψ, φ) calculated using the calibration points CP1, CP2, and CP3.
Figure 2017116280

表1に示すように、第1デジタルビデオカメラDV1のレンズの中心位置(Xo,Yo,Zo)は、(−49.76m,−4.03m,8.92m)と算出された。第2デジタルビデオカメラDV2のレンズの中心位置(Xo,Yo,Zo)は、(1.23m,−52.75m,3.64m)と算出された。   As shown in Table 1, the center position (Xo, Yo, Zo) of the lens of the first digital video camera DV1 was calculated as (−49.76 m, −4.03 m, 8.92 m). The center position (Xo, Yo, Zo) of the lens of the second digital video camera DV2 was calculated as (1.23 m, −52.75 m, 3.64 m).

以下の表2は、実施例1及び比較例1に係る測定結果を示す。詳しくは、再構築した実測空間55と実際の実測空間55(4.0m×8.0m×2.5m)との差(誤差)を示す。より具体的には、X軸方向(X axis)、Y軸方向(Y axis)、及びZ軸方向(Z axis)のそれぞれの標準誤差(SE)と最大誤差(Max)とを示している。また、表2において、絶対値(Absolute)の標準誤差は、X軸方向、Y軸方向、及びZ軸方向のそれぞれの標準誤差の2乗を加算した値の平方根の絶対値であり、絶対値の最大値は、X軸方向、Y軸方向、及びZ軸方向のそれぞれの最大誤差の2乗を加算した値の平方根の絶対値である。

Figure 2017116280
Table 2 below shows the measurement results according to Example 1 and Comparative Example 1. Specifically, the difference (error) between the reconstructed actual measurement space 55 and the actual actual measurement space 55 (4.0 m × 8.0 m × 2.5 m) is shown. More specifically, standard errors (SE) and maximum errors (Max) in the X-axis direction (X axis), the Y-axis direction (Y axis), and the Z-axis direction (Z axis) are shown. In Table 2, the standard error of the absolute value (Absolute) is the absolute value of the square root of the value obtained by adding the squares of the standard errors in the X-axis direction, the Y-axis direction, and the Z-axis direction. Is the absolute value of the square root of the value obtained by adding the squares of the maximum errors in the X-axis direction, the Y-axis direction, and the Z-axis direction.
Figure 2017116280

表2に示すように、X軸方向の標準誤差は、実施例1では0.002m(実測範囲に対して0.05%)となり、比較例1では0.003m(実測範囲に対して0.07%)となった。Y軸方向の標準誤差は、実施例1及び比較例1のいずれも0.003m(実測範囲に対して0.04%)となった。Z軸方向の標準誤差は、実施例1では0.002m(実測範囲に対して0.08%)となり、比較例1では0.003m(実測範囲に対して0.11%)となった。よって、実施例1と比較例1との間に顕著な差はみられなかった。   As shown in Table 2, the standard error in the X-axis direction is 0.002 m (0.05% with respect to the actual measurement range) in Example 1, and 0.003 m (0.003 m with respect to the actual measurement range) in Comparative Example 1. 07%). The standard error in the Y-axis direction was 0.003 m (0.04% with respect to the actual measurement range) in both Example 1 and Comparative Example 1. The standard error in the Z-axis direction was 0.002 m (0.08% with respect to the actual measurement range) in Example 1, and 0.003 m (0.11% with respect to the actual measurement range) in Comparative Example 1. Therefore, there was no significant difference between Example 1 and Comparative Example 1.

また、X軸方向の最大誤差は、実施例1では0.012m(実測範囲に対して0.30%)となり、比較例1では0.013m(実測範囲に対して0.33%)となった。Y軸方向の最大誤差は、実施例1では0.016m(実測範囲に対して0.20%)となり、比較例1では0.013m(実測範囲に対して0.16%)となった。Z軸方向の最大誤差は、実施例1では0.008m(実測範囲に対して0.32%)となり、比較例1では0.012m(実測範囲に対して0.48%)となった。よって、実施例1と比較例1との間に顕著な差はみられなかった。   The maximum error in the X-axis direction is 0.012 m (0.30% with respect to the actual measurement range) in Example 1, and 0.013 m (0.33% with respect to the actual measurement range) in Comparative Example 1. It was. The maximum error in the Y-axis direction was 0.016 m (0.20% with respect to the actual measurement range) in Example 1, and 0.013 m (0.16% with respect to the actual measurement range) in Comparative Example 1. The maximum error in the Z-axis direction was 0.008 m (0.32% with respect to the actual measurement range) in Example 1, and 0.012 m (0.48% with respect to the actual measurement range) in Comparative Example 1. Therefore, there was no significant difference between Example 1 and Comparative Example 1.

[実施例2及び比較例2]
実施例2では、両端にマーカーが貼付された長さ1mのポールを実測空間55内の40か所に無作為に静止させた状態で、実施例1と同様に、較正後のデジタルビデオカメラDV1、DV2により実測空間55を撮像した。また、実施例2では、実測空間55を撮像した画像を基に、ポールの両端に貼付された2つのマーカーの3次元座標値を算出した。そして、算出した2つのマーカーの3次元座標値から、2つのマーカー間の距離を測定した。以下、算出した2つのマーカーの3次元座標値から測定した2つのマーカー間の距離を、測定したマーカー間の距離と記載する。比較例2では、比較例1と同様に、DLT法を用いてデジタルビデオカメラDV1、DV2を較正した。また、実施例2と同様に、較正後のデジタルビデオカメラDV1、DV2を用いて、ポールの両端に貼付された2つのマーカー間の距離を測定した。
[Example 2 and Comparative Example 2]
In the second embodiment, a calibrated digital video camera DV1 is provided in the same manner as in the first embodiment, with a 1 m long pole with markers attached to both ends being randomly stopped at 40 locations in the actual measurement space 55. The measured space 55 was imaged by DV2. In Example 2, the three-dimensional coordinate values of the two markers attached to both ends of the pole were calculated based on the image obtained by imaging the actual measurement space 55. Then, the distance between the two markers was measured from the calculated three-dimensional coordinate values of the two markers. Hereinafter, the distance between the two markers measured from the calculated three-dimensional coordinate values of the two markers is referred to as the measured distance between the markers. In Comparative Example 2, as in Comparative Example 1, the digital video cameras DV1 and DV2 were calibrated using the DLT method. Similarly to Example 2, the distance between two markers attached to both ends of the pole was measured using the calibrated digital video cameras DV1 and DV2.

以下の表3は、実施例2及び比較例2に係る測定結果を示す。詳しくは、測定したマーカー間の距離の平均値(Mean±SD)、最小値(Min)、及び最大値(Max)を示す。

Figure 2017116280
Table 3 below shows the measurement results according to Example 2 and Comparative Example 2. Specifically, an average value (Mean ± SD), a minimum value (Min), and a maximum value (Max) of the distances between the measured markers are shown.
Figure 2017116280

表3に示すように、測定したマーカー間の距離の最小値は、実施例2では0.994mとなり、比較例2では0.993mとなった。測定したマーカー間の距離の最大値は、実施例2では1.008mとなり、比較例2では1.007mとなった。よって、実施例2と比較例2との間に顕著な差はみられなかった。   As shown in Table 3, the minimum value of the measured distance between the markers was 0.994 m in Example 2, and 0.993 m in Comparative Example 2. The maximum distance between the measured markers was 1.008 m in Example 2 and 1.007 m in Comparative Example 2. Therefore, there was no significant difference between Example 2 and Comparative Example 2.

[実施例3]
実施例3では、カメラパラメーターの最適解を取得する際に用いる較正点の数の影響を検証した。具体的には、較正点の数を変更してデジタルビデオカメラDV1、DV2の較正を行い、実施例1と同様に、再構築した実測空間55と実際の実測空間55との差(誤差)を検証した。詳しくは、図6を参照して説明した54個の較正点のうちから、3点、6点、12点、18点、24点、36点、45点、54点を選んで、カメラパラメーターの最適解を取得した。較正点の数と、使用した較正点との関係を以下の表4に示す。

Figure 2017116280
[Example 3]
In Example 3, the influence of the number of calibration points used when obtaining the optimal solution of the camera parameter was verified. Specifically, the digital video cameras DV1 and DV2 are calibrated by changing the number of calibration points, and the difference (error) between the reconstructed actual measurement space 55 and the actual actual measurement space 55 is obtained as in the first embodiment. Verified. Specifically, from the 54 calibration points described with reference to FIG. 6, 3 points, 6 points, 12 points, 18 points, 24 points, 36 points, 45 points, and 54 points are selected. The optimal solution was obtained. The relationship between the number of calibration points and the calibration points used is shown in Table 4 below.
Figure 2017116280

なお、3個の較正点を用いてカメラパラメーターの最適解を取得する際には、図6に示す較正点1、13、43を使用した。即ち、図5を参照して説明した3個の較正点CP1、CP2、CPを使用した。また、54個の較正点を用いてカメラパラメーターの最適解を取得する際には、図6に示す全ての較正点1〜較正点54を使用した。   In addition, when acquiring the optimal solution of a camera parameter using three calibration points, the calibration points 1, 13, and 43 shown in FIG. 6 were used. That is, the three calibration points CP1, CP2, and CP described with reference to FIG. 5 were used. Moreover, when acquiring the optimal solution of a camera parameter using 54 calibration points, all the calibration points 1-54 shown in FIG. 6 were used.

図8〜図11は、実施例3に係る測定結果を示す図である。詳しくは、図8は、再構築した実測空間55と実際の実測空間55とのX軸方向の標準誤差(Standard error)と、較正点の数との関係を示す。図9は、再構築した実測空間55と実際の実測空間55とのY軸方向の標準誤差と、較正点の数との関係を示す。図10は、再構築した実測空間55と実際の実測空間55とのZ軸方向の標準誤差と、較正点の数との関係を示す。図11は、絶対値の標準誤差と較正点の数との関係を示している。絶対値の標準誤差は、X軸方向、Y軸方向、及びZ軸方向のそれぞれの標準誤差の2乗を加算した値の平方根の絶対値である。図8〜図11において、縦軸は標準誤差を示し、横軸は較正点の数を示す。図8〜図11に示すように、再構築した実測空間55に、較正点の数による影響はみられなかった。   8 to 11 are diagrams showing measurement results according to Example 3. FIG. Specifically, FIG. 8 shows the relationship between the standard error (Standard error) in the X-axis direction between the reconstructed actual measurement space 55 and the actual actual measurement space 55, and the number of calibration points. FIG. 9 shows the relationship between the standard error in the Y-axis direction between the reconstructed actual measurement space 55 and the actual actual measurement space 55, and the number of calibration points. FIG. 10 shows the relationship between the standard error in the Z-axis direction between the reconstructed actual measurement space 55 and the actual actual measurement space 55, and the number of calibration points. FIG. 11 shows the relationship between the standard error of the absolute value and the number of calibration points. The standard error of the absolute value is the absolute value of the square root of the value obtained by adding the squares of the standard errors in the X axis direction, the Y axis direction, and the Z axis direction. 8 to 11, the vertical axis represents standard error, and the horizontal axis represents the number of calibration points. As shown in FIGS. 8 to 11, the reconstructed measurement space 55 was not affected by the number of calibration points.

[実施例4]
実施例4では、実施例3と同様に、カメラパラメーターの最適解を取得する際に用いる較正点の数の影響を検証した。具体的には、実施例3と同様に較正点の数を変更してデジタルビデオカメラDV1、DV2の較正を行った。また、実施例2と同様に、ポールの両端に貼付した2つのマーカー間の距離を測定した。
[Example 4]
In the fourth embodiment, as in the third embodiment, the influence of the number of calibration points used when obtaining the optimal solution of the camera parameters was verified. Specifically, the digital video cameras DV1 and DV2 were calibrated by changing the number of calibration points in the same manner as in Example 3. Further, as in Example 2, the distance between two markers attached to both ends of the pole was measured.

図12は、実施例4に係る測定結果を示す図である。詳しくは、図12は、測定したマーカー間の距離と、較正点の数との関係を示す。図12において、縦軸は測定したマーカー間の距離を示し、横軸は較正点の数を示す。図12に示すように、測定したマーカー間の距離に、較正点の数による影響はみられなかった。   FIG. 12 is a diagram illustrating measurement results according to Example 4. Specifically, FIG. 12 shows the relationship between the measured distance between markers and the number of calibration points. In FIG. 12, the vertical axis indicates the distance between the measured markers, and the horizontal axis indicates the number of calibration points. As shown in FIG. 12, the distance between the measured markers was not affected by the number of calibration points.

以上、本発明の実施例について説明した。実施例1、2、及び比較例1、2の結果(表2、表3)によれば、再投影誤差が最小となるようなカメラパラメーターの最適解を求めてカメラの較正を行うことにより、一般的なDLT法を用いてカメラを較正した場合と同程度の測定精度を達成できた。換言すると、3次元動作の分析に十分な測定精度を達成できた。   The embodiment of the present invention has been described above. According to the results of Examples 1 and 2 and Comparative Examples 1 and 2 (Tables 2 and 3), the camera is calibrated by obtaining an optimal solution of the camera parameters that minimizes the reprojection error. Measurement accuracy comparable to that obtained when the camera was calibrated using a general DLT method was achieved. In other words, it was possible to achieve a measurement accuracy sufficient for analyzing the three-dimensional motion.

また、実施例3、4の結果(図8〜図12)によれば、測定精度に較正点の数による影響はほとんどみられなかった。また、本発明の実施例では、デジタイズ誤差をなるべく小さくするために、4名がデジタイズしたデータの平均値を用いてカメラパラメーターを算出し、4名のデジタイズデータの差は最大でも横方向で2ピクセル、縦方向で3.5ピクセルであった。これらのことから、デジタイズ誤差が小さい場合は、較正点の数が測定精度に及ぼす影響は小さく、較正点の数が3個であっても十分な精度でカメラを較正できることを確認できた。したがって、再投影誤差が最小となるようなカメラパラメーターの最適解を求めてカメラの較正を行うことは、多数の較正点の座標値を正確に測定することが困難な場合や、多数の較正点の座標値を測定するのに十分な時間が無い場合などに有効である。   Further, according to the results of Examples 3 and 4 (FIGS. 8 to 12), the measurement accuracy was hardly affected by the number of calibration points. In the embodiment of the present invention, in order to reduce the digitizing error as much as possible, the camera parameter is calculated using the average value of the data digitized by the four persons, and the difference between the digitized data of the four persons is 2 in the horizontal direction at the maximum. Pixel, 3.5 pixels in the vertical direction. From these facts, it was confirmed that when the digitizing error is small, the influence of the number of calibration points on the measurement accuracy is small, and the camera can be calibrated with sufficient accuracy even if the number of calibration points is three. Therefore, calibrating the camera to find the optimal camera parameter solution that minimizes the reprojection error is difficult to accurately measure the coordinate values of a large number of calibration points. This is effective when there is not enough time to measure the coordinate value.

本発明は、実際に試合や競技を行っている選手の動作の分析に有用である。   The present invention is useful for analyzing movements of players who are actually playing games or competitions.

1 カメラ較正システム
2 定点カメラ
3 演算装置
21 デジタイズ平面
22 レンズ
51 やり投げ助走路
54 踏み切り線
55 実測空間
CP1〜CP3 較正点
L 光軸
MX 測定点
mx 投影点
DESCRIPTION OF SYMBOLS 1 Camera calibration system 2 Fixed point camera 3 Arithmetic device 21 Digitize plane 22 Lens 51 Throw runway 54 Crossing line 55 Actual space CP1-CP3 Calibration point L Optical axis MX Measurement point mx Projection point

Claims (13)

実測空間を撮像した画像を取得する定点カメラと、
前記画像に基づいて、前記定点カメラのカメラパラメーターの最適解を取得する演算装置と
を備え、
前記実測空間は、少なくとも3個の較正点を含み、
前記演算装置は、
前記較正点の前記画像上でのデジタイズ座標値を測定し、
実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記最適解を取得し、
前記演算式は、前記カメラパラメーターを含む、カメラ較正システム。
A fixed-point camera that acquires an image of the actual measurement space;
An arithmetic unit that obtains an optimal solution of the camera parameters of the fixed-point camera based on the image, and
The measured space includes at least three calibration points;
The arithmetic unit is:
Measuring the digitized coordinate value of the calibration point on the image;
A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, a digitized coordinate value of the calibration point, and To obtain the optimal solution based on
The camera calibration system, wherein the calculation formula includes the camera parameter.
前記演算装置は、前記較正点のデジタイズ座標値と前記較正点の投影座標値との差が最小となるような前記最適解を取得する、請求項1に記載のカメラ較正システム。   The camera calibration system according to claim 1, wherein the arithmetic device acquires the optimal solution such that a difference between a digitized coordinate value of the calibration point and a projected coordinate value of the calibration point is minimized. 前記定点カメラの光軸と前記画像との交点のデジタイズ座標値を(Uo,Vo)とし、
前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、
前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、
前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、
前記レンズの焦点距離をFとし、
前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、
前記定点カメラのアスペクト比をaとし、
前記定点カメラのカメラ歪みをsとし、
前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、
前記演算式は、以下の式(1)、式(2)及び式(3)を含む、請求項1又は請求項2に記載のカメラ較正システム。
Figure 2017116280
Figure 2017116280
Figure 2017116280
The digitized coordinate value of the intersection of the optical axis of the fixed point camera and the image is (Uo, Vo),
The three-dimensional coordinate value in the real space coordinate system at the center of the lens provided in the fixed point camera is (Xo, Yo, Zo),
The three-dimensional coordinate value of the measurement point in the real space coordinate system is (X, Y, Z),
Projection coordinate values of projection points obtained by projecting the measurement points onto the digitized coordinate system are (U, V),
The focal length of the lens is F,
R is a coordinate transformation matrix from the real space coordinate system to the digitized coordinate system,
The aspect ratio of the fixed point camera is a,
The camera distortion of the fixed point camera is s,
When the scale factor for setting the value of the third row and the first column included in the determinant indicating the projection point to 1 is h,
The camera calibration system according to claim 1 or 2, wherein the calculation formula includes the following formula (1), formula (2), and formula (3).
Figure 2017116280
Figure 2017116280
Figure 2017116280
前記演算装置は、前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定して前記最適解を取得した後、前記交点(Uo,Vo)を変数に加えて前記最適解を取得する、請求項3に記載のカメラ較正システム。   The arithmetic unit sets the intersection (Uo, Vo) between the optical axis of the fixed point camera and the image at the center of the image and obtains the optimal solution, and then uses the intersection (Uo, Vo) as a variable. The camera calibration system according to claim 3, which additionally obtains the optimal solution. 全ての前記較正点が、前記実測空間内の同一平面に含まれる、請求項1から請求項4のいずれか1項に記載のカメラ較正システム。   The camera calibration system according to claim 1, wherein all the calibration points are included in the same plane in the actual measurement space. 前記演算装置は、遺伝的アルゴリズム法に基づいて前記最適解を取得する、請求項1から請求項5のいずれか1項に記載のカメラ較正システム。   The camera calibration system according to claim 1, wherein the arithmetic device acquires the optimal solution based on a genetic algorithm method. コンピューターに、実測空間を撮像した定点カメラのカメラパラメーターの最適解を求めさせるカメラ較正プログラムであって、
前記実測空間は、少なくとも3個の較正点を含み、
前記カメラ較正プログラムは、
前記コンピューターに、
前記実測空間を撮像した画像上での前記較正点のデジタイズ座標値を測定させる手順と、
実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記最適解を求めさせる手順と
を実行させ、
前記演算式は、前記カメラパラメーターを含む、カメラ較正プログラム。
A camera calibration program that causes a computer to find the optimal solution of the camera parameters of a fixed-point camera that captured the actual measurement space,
The measured space includes at least three calibration points;
The camera calibration program is
On the computer,
A procedure for measuring a digitized coordinate value of the calibration point on an image obtained by imaging the actual measurement space;
A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, a digitized coordinate value of the calibration point, and And a step for obtaining the optimum solution based on
The arithmetic expression includes a camera calibration program including the camera parameters.
前記コンピューターに、前記較正点のデジタイズ座標値と前記較正点の投影座標値との差が最小となるような前記最適解を求めさせる、請求項7に記載のカメラ較正プログラム。   The camera calibration program according to claim 7, wherein the computer calculates the optimal solution that minimizes a difference between the digitized coordinate value of the calibration point and the projected coordinate value of the calibration point. 前記定点カメラの光軸と前記画像との交点のデジタイズ座標値を(Uo,Vo)とし、
前記定点カメラが備えるレンズの中心の前記実空間座標系における3次元座標値を(Xo,Yo,Zo)とし、
前記実空間座標系における測定点の3次元座標値を(X,Y,Z)とし、
前記測定点を前記デジタイズ座標系へ投影した投影点の投影座標値を(U,V)とし、
前記レンズの焦点距離をFとし、
前記実空間座標系から前記デジタイズ座標系への座標変換行列をRとし、
前記定点カメラのアスペクト比をaとし、
前記定点カメラのカメラ歪みをsとし、
前記投影点を示す行列式に含まれる第3行第1列の値を1にするためのスケール因子をhとした場合、
前記演算式は、以下の式(1)、式(2)及び式(3)を含む、請求項7又は請求項8に記載のカメラ較正プログラム。
Figure 2017116280
Figure 2017116280
Figure 2017116280
The digitized coordinate value of the intersection of the optical axis of the fixed point camera and the image is (Uo, Vo),
The three-dimensional coordinate value in the real space coordinate system at the center of the lens provided in the fixed point camera is (Xo, Yo, Zo),
The three-dimensional coordinate value of the measurement point in the real space coordinate system is (X, Y, Z),
Projection coordinate values of projection points obtained by projecting the measurement points onto the digitized coordinate system are (U, V),
The focal length of the lens is F,
R is a coordinate transformation matrix from the real space coordinate system to the digitized coordinate system,
The aspect ratio of the fixed point camera is a,
The camera distortion of the fixed point camera is s,
When the scale factor for setting the value of the third row and the first column included in the determinant indicating the projection point to 1 is h,
The camera calibration program according to claim 7 or 8, wherein the arithmetic expression includes the following expressions (1), (2), and (3).
Figure 2017116280
Figure 2017116280
Figure 2017116280
前記コンピューターに、前記最適解を求めさせる際に、
前記定点カメラの光軸と前記画像との前記交点(Uo,Vo)を前記画像の中心に設定させて前記最適解を求めさせる手順と、
前記交点(Uo,Vo)を変数に加えて前記最適解を求めさせる手順と
を実行させる、請求項9に記載のカメラ較正プログラム。
When letting the computer find the optimal solution,
A procedure for obtaining the optimal solution by setting the intersection (Uo, Vo) of the optical axis of the fixed point camera and the image at the center of the image;
The camera calibration program according to claim 9, further comprising: a step of adding the intersection (Uo, Vo) to a variable to obtain the optimal solution.
全ての前記較正点が、前記実測空間内の同一平面に含まれる、請求項7から請求項10のいずれか1項に記載のカメラ較正プログラム。   The camera calibration program according to claim 7, wherein all the calibration points are included in the same plane in the actual measurement space. 前記コンピューターに、遺伝的アルゴリズム法に基づいて前記最適解を求めさせる、請求項7から請求項11のいずれか1項に記載のカメラ較正プログラム。   The camera calibration program according to any one of claims 7 to 11, which causes the computer to obtain the optimal solution based on a genetic algorithm method. 定点カメラを用いて、実測空間を撮像した画像を取得するステップと、
前記実測空間に含まれる少なくとも3個の較正点の前記画像上でのデジタイズ座標値を測定するステップと、
実空間座標系における前記較正点の3次元座標値と、前記較正点の3次元座標値をデジタイズ座標系へ投影した投影座標値を算出するための演算式と、前記較正点のデジタイズ座標値とに基づき、前記定点カメラのカメラパラメーターの最適解を取得するステップと
を包含し、
前記演算式は、前記カメラパラメーターを含む、カメラ較正方法。
Using a fixed point camera to obtain an image of the measured space;
Measuring digitized coordinate values on the image of at least three calibration points contained in the measured space;
A three-dimensional coordinate value of the calibration point in the real space coordinate system, an arithmetic expression for calculating a projected coordinate value obtained by projecting the three-dimensional coordinate value of the calibration point onto the digitized coordinate system, a digitized coordinate value of the calibration point, and Obtaining an optimal solution of the camera parameters of the fixed-point camera based on
The camera calibration method, wherein the calculation formula includes the camera parameter.
JP2015248610A 2015-12-21 2015-12-21 Camera calibration system, camera calibration program, and camera calibration method Active JP6636314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015248610A JP6636314B2 (en) 2015-12-21 2015-12-21 Camera calibration system, camera calibration program, and camera calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015248610A JP6636314B2 (en) 2015-12-21 2015-12-21 Camera calibration system, camera calibration program, and camera calibration method

Publications (2)

Publication Number Publication Date
JP2017116280A true JP2017116280A (en) 2017-06-29
JP6636314B2 JP6636314B2 (en) 2020-01-29

Family

ID=59234001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015248610A Active JP6636314B2 (en) 2015-12-21 2015-12-21 Camera calibration system, camera calibration program, and camera calibration method

Country Status (1)

Country Link
JP (1) JP6636314B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109908497A (en) * 2019-04-01 2019-06-21 上海联影医疗科技有限公司 Calibrating coordinates device, system, method and medium
CN112053405A (en) * 2020-08-21 2020-12-08 合肥工业大学 Deviation calibration and external reference correction method for optical axis and rotating shaft of follow-up vision system
US11311747B2 (en) 2020-07-16 2022-04-26 Uih America, Inc. Systems and methods for isocenter calibration

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275013A (en) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
US20070196016A1 (en) * 2006-02-21 2007-08-23 I-Hsien Chen Calibration system for image capture apparatus and method thereof
JP2009186288A (en) * 2008-02-05 2009-08-20 Canon Inc Image processing device and image processing method
JP2015053011A (en) * 2013-09-09 2015-03-19 日本電信電話株式会社 Head count measurement method, head count measurement device, and head count measurement program
JP2015106168A (en) * 2013-11-28 2015-06-08 コニカミノルタ株式会社 Parallax measurement instrument and parallax measurement method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275013A (en) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
US20070196016A1 (en) * 2006-02-21 2007-08-23 I-Hsien Chen Calibration system for image capture apparatus and method thereof
JP2009186288A (en) * 2008-02-05 2009-08-20 Canon Inc Image processing device and image processing method
JP2015053011A (en) * 2013-09-09 2015-03-19 日本電信電話株式会社 Head count measurement method, head count measurement device, and head count measurement program
JP2015106168A (en) * 2013-11-28 2015-06-08 コニカミノルタ株式会社 Parallax measurement instrument and parallax measurement method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109908497A (en) * 2019-04-01 2019-06-21 上海联影医疗科技有限公司 Calibrating coordinates device, system, method and medium
CN109908497B (en) * 2019-04-01 2021-11-30 上海联影医疗科技股份有限公司 Coordinate calibration device, system, method and medium
US11311747B2 (en) 2020-07-16 2022-04-26 Uih America, Inc. Systems and methods for isocenter calibration
US11786759B2 (en) 2020-07-16 2023-10-17 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for isocenter calibration
CN112053405A (en) * 2020-08-21 2020-12-08 合肥工业大学 Deviation calibration and external reference correction method for optical axis and rotating shaft of follow-up vision system
CN112053405B (en) * 2020-08-21 2022-09-13 合肥工业大学 Deviation calibration and external parameter correction method for optical axis and rotating shaft of follow-up vision system

Also Published As

Publication number Publication date
JP6636314B2 (en) 2020-01-29

Similar Documents

Publication Publication Date Title
JP6011548B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
JP7294396B2 (en) Image processing device, image processing method, and program
US10175765B2 (en) Information processing device, information processing method, and computer program
JP2019509569A (en) Perspective correction for curved display screens
CN110312111B (en) Apparatus, system, and method for automatic calibration of image devices
JP2016103230A (en) Image processor, image processing method and program
JP2011179908A (en) Three-dimensional measurement apparatus, method for processing the same, and program
JP6174968B2 (en) Imaging simulation device
Pagliari et al. Kinect fusion improvement using depth camera calibration
US11170246B2 (en) Recognition processing device, recognition processing method, and program
BR102019007720A2 (en) image processing apparatus and control method image processing apparatus
JP6636314B2 (en) Camera calibration system, camera calibration program, and camera calibration method
Wilm et al. Accurate and simple calibration of DLP projector systems
JP6615486B2 (en) Camera calibration apparatus, method and program
JP7327494B2 (en) Correction method, correction program and information processing system
JP2005270484A (en) Calibration method
CN112669392A (en) Map positioning method and system applied to indoor video monitoring system
JP5728399B2 (en) Measuring device, method and program
JP2013092888A (en) Data processor
JP7188798B2 (en) Coordinate calculation device, coordinate calculation method, and program
JP2022128087A (en) Measurement system and measurement program
JP2020187626A (en) Image processing device, image processing method, and program
JP2005140623A (en) Image measuring method and instrument, program, and recording medium
JP2006300656A (en) Image measuring technique, device, program, and recording medium
Rafighi et al. Automatic and adaptable registration of live RGBD video streams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190724

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191218

R150 Certificate of patent or registration of utility model

Ref document number: 6636314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250