JP2005270484A - Calibration method - Google Patents

Calibration method Download PDF

Info

Publication number
JP2005270484A
JP2005270484A JP2004090814A JP2004090814A JP2005270484A JP 2005270484 A JP2005270484 A JP 2005270484A JP 2004090814 A JP2004090814 A JP 2004090814A JP 2004090814 A JP2004090814 A JP 2004090814A JP 2005270484 A JP2005270484 A JP 2005270484A
Authority
JP
Japan
Prior art keywords
image
frame
point
distance
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004090814A
Other languages
Japanese (ja)
Other versions
JP4205004B2 (en
Inventor
Katsuhiko Ueda
勝彦 植田
Masahide Onuki
正秀 大貫
Yoshiaki Shirai
良明 白井
Nobutaka Shimada
伸敬 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd filed Critical Sumitomo Rubber Industries Ltd
Priority to JP2004090814A priority Critical patent/JP4205004B2/en
Publication of JP2005270484A publication Critical patent/JP2005270484A/en
Application granted granted Critical
Publication of JP4205004B2 publication Critical patent/JP4205004B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily acquire a three-dimensional distance from an image taken by a camera. <P>SOLUTION: This calibration method includes to take a image of a golfer 11 holding a golf club 13 and swinging it, import it in a computer 16, and calibrate position information of highlights P and Q projected on the taken image by the computer 16 to provide actual position information. A frame 20 surrounding the golfer 11 is provided on a ground constituting a swing actual space, at least two straight lines AD and BC constituting the frame 20 are recognized on the image, a conversion rate sf<SB>ave</SB>converting pixel position information in the frame 20 into the actual position information is calculated using the length W2 in the swing actual space of the two straight lines AF and BC and the pixel lengths M1 and M2 on the image and and actual distance L is calculated by multiplying the conversion rate sf<SB>ave</SB>by the pixel distance (a) on the image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、キャリブレーション方法に関し、詳しくは、ゴルフスウィング中の画像上における注目点の位置座標を適切に校正して認識する方法に関する。   The present invention relates to a calibration method, and more particularly, to a method for properly calibrating and recognizing the position coordinates of a point of interest on an image during golf swing.

従来、ゴルファーの打撃時のスウィングを撮影し、打球の飛距離や軌道等の各種情報をコンピュータで自動的に算出してゴルファーに表示可能とする装置が各種提供されている。
例えば、特許第2794018号で開示された動作診断装置では、ゴルフクラブヘッドおよび被診断者の体に複数の動作ポイントを設け、スウィング動画像中の動作ポイントの座標を取得してスウィング診断を行っている。
2. Description of the Related Art Conventionally, various devices have been provided that can capture a swing when a golfer is hit, and automatically calculate various information such as a flying distance and a trajectory of the hit ball and display it on a golfer.
For example, in the motion diagnostic device disclosed in Japanese Patent No. 2779418, a plurality of motion points are provided on the body of the golf club head and the person to be diagnosed, and the coordinates of the motion points in the swing moving image are acquired to perform the swing diagnosis. Yes.

しかしながら、上記公報では動作ポイントの位置座標を画像上から取得する際には、画像が平面情報であるために平面座標しか取得できない。従って、動作ポイントの画像上の奥行き方向の位置座標や距離を得ることができないので、三次元的な位置座標を用いた診断項目を設けることができず、あるいは、平面座標から無理に三次元的処理を行おうとすれば診断の誤差が大きくなる問題がある。   However, in the above publication, when the position coordinates of the operation point are acquired from the image, only the plane coordinates can be acquired because the image is plane information. Therefore, since the position coordinates and distances in the depth direction on the image of the operation point cannot be obtained, it is not possible to provide diagnostic items using three-dimensional position coordinates, or forcibly three-dimensionally from the plane coordinates. If processing is to be performed, there is a problem that the error in diagnosis increases.

一般に、二次元画像から三次元位置座標を算出する手法として、三次元CG等で使用されているDLT法(Direct Linear Transformation)が知られている。DLT法とは、複数台のカメラを利用して、実空間内に設置された複数のコントロールポイントを予め撮影し、複数台のカメラで撮影したコントロールポイントの位置座標から11連立方程式を解くことにより、二次元座標と三次元座標の関係を取得することで、別途、複数のカメラで撮影した同一点の複数の二次元座標を利用して三次元座標を取得する方法である。   In general, a DLT method (Direct Linear Transformation) used in 3D CG or the like is known as a method for calculating 3D position coordinates from a 2D image. The DLT method uses a plurality of cameras to photograph a plurality of control points installed in real space in advance, and solves 11 simultaneous equations from the position coordinates of the control points photographed by the plurality of cameras. In this method, the relationship between the two-dimensional coordinates and the three-dimensional coordinates is acquired, and the three-dimensional coordinates are separately acquired using a plurality of two-dimensional coordinates of the same point photographed by a plurality of cameras.

しかしながら、DLT法では三次元空間上に6点以上のコントロールポイントが必要となり、計測準備が非常に手間になったり、キャリブレーション用の治具が大きくなってしまうので、コントロールポイントを増加させずに平面画像から三次元位置座標を簡便に取得できる方法の提供が求められる。
特許第2794018号
However, the DLT method requires 6 or more control points in a three-dimensional space, which makes measurement preparation very laborious and requires a large calibration jig. There is a need to provide a method for easily obtaining three-dimensional position coordinates from a planar image.
Japanese Patent No. 2794018

本発明は、前記問題に鑑みてなされたもので、カメラで撮影された画像から三次元的な距離や角度を簡便に取得する方法を提供することを課題としている。   The present invention has been made in view of the above problems, and an object thereof is to provide a method for easily obtaining a three-dimensional distance and angle from an image photographed by a camera.

前記課題を解決するため、本発明は、ゴルフクラブを把持してスウィングするゴルファーを撮影してコンピュータに取り込み、撮影された画像上に映された注目点の位置情報を前記コンピュータで校正して実際の位置情報を取得する方法であって、
スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、前記変換率を画像上のピクセル距離に乗じることで実際の距離を算出することを特徴とするキャリブレーション方法を提供している。
In order to solve the above-mentioned problems, the present invention captures a golfer who holds a golf club and swings it, captures it into a computer, and calibrates position information of a point of interest displayed on the captured image with the computer. A method for acquiring location information of
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. There is provided a calibration method characterized in that a conversion rate to be converted into position information is calculated, and an actual distance is calculated by multiplying the conversion rate by a pixel distance on an image.

画像上では立体の実空間が平面化されて映し出されるため、画像上のピクセル位置情報は必ずしも実際の正しい位置情報と一致しないが、前記構成とすると、スウィング空間に設けられたフレームの奥行き方向の縮尺度合いを用いて画像上のピクセル位置情報を実際の位置情報に換算する変換率を簡易に求めることができる。したがって、画像での位置情報を簡単にキャリブレーションして実際の距離を算出することができる。
なお、ゴルファーがスウィングする前の段階で前記フレームを撮影して予め前記変換率を求めておき、ゴルファーが実際にスウィングする際には前記フレームを地面から撤去しておいてもよい。
Since the three-dimensional real space is projected and projected on the image, the pixel position information on the image does not necessarily match the actual correct position information. However, with the above configuration, the depth direction of the frame provided in the swing space is not the same. The conversion rate for converting the pixel position information on the image into the actual position information using the reduced scale can be easily obtained. Therefore, the actual distance can be calculated by simply calibrating the position information in the image.
Note that the conversion rate may be obtained in advance by photographing the frame before the golfer swings, and the frame may be removed from the ground when the golfer actually swings.

前記フレームは仮想フレームとし、該仮想フレームの形の頂点となる位置の地面にマークを設置している。   The frame is a virtual frame, and a mark is placed on the ground at a position that is a vertex of the shape of the virtual frame.

前記構成とすると、ゴルファーがスウィング動作する地面に枠状のフレームを設けなくても、頂点となる位置にそれぞれマークを設けるだけで、頂点を結んだ仮想フレームを想定することができる。   With the above-described configuration, even if a frame-like frame is not provided on the ground on which the golfer performs a swing operation, a virtual frame connecting the vertices can be assumed by only providing marks at positions that become the vertices.

前記フレームを構成する直線のうち、画像奥行きに対向配置された2つの直線上の前記変換率を平均することで、前記フレーム内の変換率を求めている。   The conversion rate in the frame is obtained by averaging the conversion rates on two straight lines arranged opposite to the image depth among the straight lines constituting the frame.

前記構成とすると、フレームを構成する2つの直線の変換率を求めてそれらの平均をとるだけで、非常に簡易にフレーム内の平均の変換率を求めることができる。   With the above configuration, the average conversion rate in the frame can be obtained very simply by simply obtaining the conversion rates of the two straight lines constituting the frame and averaging them.

また、2つの前記注目点の間の実際の距離は、前記画像上での2つの注目点の間のピクセル距離に前記変換率を乗じて求めているとよい。   The actual distance between the two points of interest may be obtained by multiplying the pixel distance between the two points of interest on the image by the conversion rate.

あるいは、前記フレーム内の領域を複数のブロックに分割し、
前記ブロックを構成する直線のうち、画像奥行きに対向配置された2つの直線上の変換率を平均することで、前記ブロック内の変換率を求めても好適である。
Alternatively, the area in the frame is divided into a plurality of blocks,
It is also preferable to obtain the conversion rate in the block by averaging the conversion rates on the two straight lines arranged opposite to the image depth among the straight lines constituting the block.

即ち、フレーム内の変換率を1つで済ますのではなく、フレームを複数分割したブロックを設けて各ブロックに対応する複数の変換率を求めておくことで、注目点の存在する位置に対応して最適な変換率を選択して適応することができ、簡便で且つ精度向上を図ることができる。
なお、前記ブロックは、前記ゴルファーの足シルエットを基準として前記フレーム内の領域をブロック分割して形成されていると好適である。
さらに、2つの前記注目点の間の実際の距離は、各注目点が属する前記ブロック毎の変換率を平均して前記画像上での各注目点間のピクセル距離に乗じて求めているとよい。
In other words, instead of using only one conversion rate within a frame, it is possible to provide a plurality of conversion rates corresponding to each block by providing a block obtained by dividing a frame into a plurality of blocks, so that it corresponds to the position where the point of interest exists. Therefore, the optimum conversion rate can be selected and applied, and the accuracy can be improved easily.
It is preferable that the block is formed by dividing an area in the frame into blocks based on the golfer's foot silhouette.
Furthermore, the actual distance between the two points of interest may be obtained by averaging the conversion rates of the blocks to which the points of interest belong and multiplying the pixel distance between the points of interest on the image. .

また、前記フレームを構成する少なくとも2本の直線を利用して、線形補間によりフレーム内の変換率を求めても好適である。
このように、フレームを構成する直線の変換率を利用しながらフレーム内の各位置での変換率を線形的に補間しながら求めることで、画像奥行き方向に線形的に変化する変換率が取得でき、ピクセル距離から実際の距離への換算の精度を向上させることができる。
It is also preferable to obtain the conversion rate in the frame by linear interpolation using at least two straight lines constituting the frame.
In this way, the conversion rate that varies linearly in the image depth direction can be obtained by calculating the conversion rate at each position in the frame while linearly interpolating the conversion rate of the straight lines that make up the frame. The accuracy of conversion from the pixel distance to the actual distance can be improved.

2つの前記注目点の間の実際の距離は、画像上で一方の注目点を他方の注目点を構成する面に投影し、該投影点と他方の注目点との距離に、他方の注目点の前記変換率を乗じて求めることとすれば、画像奥行き方向に位置の異なる2点間の距離を算出することができる。   The actual distance between the two points of interest is calculated by projecting one point of interest on the surface of the other point of interest on the image, and the distance between the projected point and the other point of interest. If the above conversion rate is multiplied, the distance between two points having different positions in the image depth direction can be calculated.

また、画像上に存在する面あるいは線と前記注目点との間の実際の距離は、
前記注目点を前記面あるいは線を構成する面に投影し、該投影点と前記面あるいは線との距離に前記面上の変換率を乗じて求めることとすれば、画像奥行き方向に位置の異なる点と面(線)との距離を算出することができる。
The actual distance between the surface or line existing on the image and the point of interest is
If the point of interest is projected onto the surface constituting the surface or line, and the distance between the projected point and the surface or line is obtained by multiplying the conversion rate on the surface, the position differs in the image depth direction. The distance between a point and a surface (line) can be calculated.

前記画像上で、前記フレームの奥行き方向の辺である直線をそれぞれ奥行き方向に延長して交差する点を消失点とし、該消失点から鉛直方向に垂直線を下ろし、前記注目点と該垂直線との間の距離により各注目点間の距離を換算している。   On the image, the points that intersect the straight lines that are the sides in the depth direction of the frame in the depth direction are defined as vanishing points, a vertical line is dropped from the vanishing point in the vertical direction, and the attention point and the vertical lines The distance between each point of interest is converted according to the distance between them.

前記構成とすると、画像上で消失点からの垂直線を基準とすることで、各注目点の間の距離を間接的に求めることができる。   With the above configuration, the distance between the points of interest can be obtained indirectly by using the vertical line from the vanishing point on the image as a reference.

前記フレームは、前記ゴルフクラブの一部の軌跡が含まれる範囲に設定されている。
特に、前記ゴルフクラブのヘッド部の軌跡が含まれる範囲に前記フレームを設定すると好ましい。
即ち、ゴルフクラブのヘッド部が一番大回りをして動作するため、そのヘッド部の軌跡が含まれるようにフレームの大きさを設定しておけば、フレーム内の変換率を用いてスウィング動作中の注目点の位置をほぼカバーすることができる。
The frame is set in a range including a part of the golf club.
In particular, it is preferable to set the frame within a range that includes the locus of the head portion of the golf club.
In other words, since the head part of the golf club operates with the maximum rotation, if the frame size is set so that the locus of the head part is included, the swing operation is performed using the conversion rate in the frame. The position of the point of interest can be almost covered.

前記フレームの飛球線方向に直交する方向の辺の長さをW1、飛球線方向の辺の長さをW2とすると、W1/W2=1〜10としていると好ましい。
即ち、スウィング軌道は飛球線方向に大きくなる傾向にあるので、前記比率とすることで効率的にフレームの大きさを決定することができる。
If the length of the side in the direction orthogonal to the flying line direction of the frame is W1, and the length of the side in the flying line direction is W2, it is preferable that W1 / W2 = 1 to 10.
That is, since the swing trajectory tends to increase in the flying ball direction, the frame size can be determined efficiently by using the ratio.

前記フレームの大きさは、前記フレームの辺をゴルファーの両足の中心の中点を基点として飛球線方向にh:iで分けたとき、h/i=1〜3としている。
即ち、前記比率とすることで、ゴルファーの立ち位置を基準にしてスウィング軌道がフレーム内に含まれるよう効率的にフレームの大きさを決定することができる。
The size of the frame is h / i = 1 to 3 when the sides of the frame are divided by h: i in the flying ball direction from the midpoint of the center of the golfer's feet.
That is, by setting the ratio, the frame size can be determined efficiently so that the swing track is included in the frame with reference to the standing position of the golfer.

前記フレームの大きさは、前記フレームの辺をゴルファーの足を基点として飛球線方向に直交する方向にj:kで分けたとき、j/k=1〜10としている。
即ち、前記比率とすることで、ゴルファーの立ち位置を基準にしてスウィング軌道がフレーム内に含まれるよう効率的にフレームの大きさを決定することができる。
The size of the frame is j / k = 1 to 10 when the sides of the frame are divided by j: k in a direction perpendicular to the flying ball direction with the golfer's foot as a base point.
That is, by setting the ratio, the frame size can be determined efficiently so that the swing track is included in the frame with reference to the standing position of the golfer.

また本発明は、ゴルフクラブを把持してスウィングするゴルファーを撮影してコンピュータに取り込み、撮影された画像上に映された注目点の位置情報を前記コンピュータで校正して実際の位置情報を取得する方法であって、
2方向から撮影した画像上の同一平面に存在する少なくとも4点について、該2方向の夫々の画像間における位置座標の対応関係を表す射影変換行列を予め求めておき、
一方向側の画像上において前記注目点を通り奥行き方向を表す垂直ラインを前記射影変換行列により他方向側の画像上において水平なラインに変換し、他方向側の画像上で前記注目点を通る垂直ラインと前記水平なラインとの交点を求めて画像上の前記平面での位置座標を取得し、
この位置座標を、画像と実空間との間における位置座標の対応関係を表わす別の射影変換行列を用いて実空間上の位置座標に変換して、前記注目点の実空間座標を求めていることを特徴とするキャリブレーション方法を提供している。
According to the present invention, a golfer who holds and swings a golf club is photographed and loaded into a computer, and the position information of a point of interest displayed on the photographed image is calibrated by the computer to obtain actual position information. A method,
For at least four points existing in the same plane on the image taken from two directions, a projection transformation matrix representing the correspondence relationship of the position coordinates between the images in the two directions is obtained in advance.
A vertical line representing the depth direction passing through the attention point on the image on one direction side is converted into a horizontal line on the image on the other direction side by the projective transformation matrix, and passes through the attention point on the image on the other direction side. Obtain the position coordinates on the plane on the image by finding the intersection of the vertical line and the horizontal line,
The position coordinates are converted into the position coordinates on the real space using another projective transformation matrix representing the correspondence relationship between the position coordinates between the image and the real space, and the real space coordinates of the attention point are obtained. A calibration method characterized by the above is provided.

前記構成とすると、2方向の画像を用いるだけで、画像上に映された計測対象の注目点の位置座標をキャリブレーションして実空間における位置座標を取得することができる。   With this configuration, the position coordinates in the real space can be acquired by calibrating the position coordinates of the target point of the measurement target displayed on the image, using only images in two directions.

前記注目点は2点とし、該2点間の距離あるいは/および角度を求めていると好ましい。
即ち、2点間の距離や角度を実空間座標で求めることで、インパクト前後のスウィング軌道等の診断に役立てることができる。
It is preferable that the attention point is two points, and the distance or / and angle between the two points is obtained.
That is, by obtaining the distance and angle between two points using real space coordinates, it can be used for diagnosis of a swing trajectory before and after impact.

スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、
前記一方向側の画像上において前記注目点の特定の座標軸方向へのピクセル距離を求め、該ピクセル距離に前記変換率を乗じることで、前記注目点の実空間での三次元位置座標を取得している。
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. Calculate the conversion rate to convert to location information,
A three-dimensional position coordinate in the real space of the target point is obtained by obtaining a pixel distance in the direction of a specific coordinate axis of the target point on the one-direction image and multiplying the pixel distance by the conversion rate. ing.

前記構成とすると、例えば、地面をZ方向(鉛直方向)の原点として、原点から注目点へのZ軸方向のピクセル距離を画像上で求めれば、注目点の存在する位置の変換率を当該ピクセル距離に乗じるだけで実空間でのZ位置座標を取得することができ、三次元位置座標を算出することができる。なお、前記変換率としては、上述した線形補間により求められたものを用いると好適である。   With the above configuration, for example, if the pixel distance in the Z-axis direction from the origin to the point of interest is obtained on the image with the ground as the origin in the Z direction (vertical direction), the conversion rate of the position where the point of interest exists is calculated. By simply multiplying the distance, the Z position coordinates in the real space can be acquired, and the three-dimensional position coordinates can be calculated. In addition, it is suitable to use what was calculated | required by the linear interpolation mentioned above as the said conversion rate.

また本発明は、上記キャリブレーション方法を用い、
前記注目点は前記ゴルファーの関節とし、一の関節と他の関節またはゴルフクラブシャフトとの距離、あるいは、一の関節と別の時刻の関節またはゴルフクラブシャフトとの距離を求めていることを特徴とするゴルフスウィング計測システムを提供している。
Further, the present invention uses the above calibration method,
The point of interest is the golfer's joint, and the distance between one joint and another joint or golf club shaft, or the distance between one joint and a joint or golf club shaft at another time is obtained. Provides a golf swing measurement system.

以上の説明より明らかなように、本発明によれば、スウィング空間に設けられたフレームの奥行き方向の縮尺度合いを用いて画像上のピクセル位置情報を実際の位置情報に換算する変換率を簡易に求めることができ、画像での位置情報を簡単にキャリブレーションして実際の距離を算出することができる。   As is clear from the above description, according to the present invention, the conversion rate for converting the pixel position information on the image into the actual position information can be simplified by using the reduced scale in the depth direction of the frame provided in the swing space. The actual distance can be calculated by easily calibrating the position information in the image.

本発明の第1実施形態を図面を参照して説明する。
図1はゴルフスウィング計測システムの概略図を示し、コンピュータ16と、該コンピュータ16に接続された表示手段であるモニター17と、コンピュータ16に接続された入力手段であるキーボード18およびマウス19と、コンピュータ16に接続されゴルファー11の正面位置および飛球線後方(側面)位置に設置されたカラーCCDカメラ14、15とを備えている。
A first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram of a golf swing measurement system. A computer 16, a monitor 17 as display means connected to the computer 16, a keyboard 18 and a mouse 19 as input means connected to the computer 16, and a computer 16, color CCD cameras 14 and 15 installed at the front position of the golfer 11 and at the rear (side) position of the flying ball line.

地面にはゴルファー11が立つスウィング位置の周囲に枠状のフレーム20が設置されている。フレーム20は地面と異なる色であると共に、点A〜Dの四点を頂点とする四角形状であり、図2に示すように、直線ABおよび線CDの長さはW1、直線BCおよび直線ADの長さはW2とし、W1/W2=1〜10の範囲としている。また、フレーム20内でのゴルファー11の立ち位置は、図3(A)(B)に示すように、直線CDおよび直線ADがゴルファー11の両足22の中点で分けられる比h/iが1〜3となるように設定していると共に、直線ABおよび直線CDがゴルファー11の両足22の中心で分けられる比k/jが1〜10となるように設定している。   A frame-shaped frame 20 is installed around the swing position where the golfer 11 stands on the ground. The frame 20 has a color different from that of the ground and has a quadrangular shape with four points A to D as vertices. As shown in FIG. 2, the lengths of the straight line AB and the line CD are W1, the straight line BC, and the straight line AD. Is W2, and W1 / W2 = 1-10. Further, as shown in FIGS. 3A and 3B, the standing position of the golfer 11 in the frame 20 is such that the ratio h / i at which the straight line CD and the straight line AD are divided at the midpoint between both feet 22 of the golfer 11 is 1. And the ratio k / j at which the straight line AB and the straight line CD are divided at the centers of both feet 22 of the golfer 11 are set to 1 to 10.

被診断者となるゴルファー11は、関節位置に色付マーク(注目点)P、Qが付された上着である計測用服12を私服の上から着用している。ゴルファー11の把持するゴルフクラブ13のシャフト13aには間隔をあけて3つのクラブ用色付マークCM1、CM2、CM3が取り付けられている。クラブ用色付マークCM1〜CM3は、グリップ側からヘッド13b側にかけて等間隔に取り付けている。   A golfer 11 who is a person to be diagnosed wears a measurement clothes 12 which is an outerwear with colored marks (attention points) P and Q attached to joint positions from above his / her clothes. Three colored club marks CM1, CM2, and CM3 are attached to the shaft 13a of the golf club 13 held by the golfer 11 at intervals. The club colored marks CM1 to CM3 are attached at equal intervals from the grip side to the head 13b side.

コンピュータ16は、カラーCCDカメラ14、15とLANケーブルやIEEE1394やCameraLink規格等を用いてオンライン接続されており、カラーCCDカメラ14、15で撮影されたスウィング動画像(複数の静止画像)および背景画像をコンピュータ16のハードディスクやコンピュータ16上のメモリやボード上のメモリに保存している。また、コンピュータ16には、静止画像の各ピクセルについて色情報に関する特定の閾値で二値化処理を行って閾値を満たすピクセルをクラブ用色付マークCM1〜CM3の位置として座標データを取得する手段と、クラブ用色付マークCM1〜CM3の座標データを基にしてシャフト13aの動きを認識する手段と、ゴルファー11の色付マークP、Qを認識する手段とを備えたプログラムを内蔵している。   The computer 16 is connected to the color CCD cameras 14 and 15 online using a LAN cable, IEEE1394, CameraLink standard, etc., and a swing moving image (a plurality of still images) and a background image photographed by the color CCD cameras 14 and 15 are used. Are stored in the hard disk of the computer 16, the memory on the computer 16, or the memory on the board. The computer 16 also has means for binarizing each pixel of the still image with a specific threshold relating to color information, and obtaining coordinate data with the pixels satisfying the threshold as the positions of the club colored marks CM1 to CM3. A program including a means for recognizing the movement of the shaft 13a based on the coordinate data of the club colored marks CM1 to CM3 and a means for recognizing the colored marks P and Q of the golfer 11 is incorporated.

ゴルファー11が試打を行い、カラーCCDカメラ14、15からスウィング動画像の各コマ毎の静止画像をコンピュータ16に取り込んでハードディスクあるいはコンピュータ16内のメモリあるいはボード上のメモリに保存し、カラーCCDカメラ14で撮影された正面画像およびカラーCCDカメラ15で撮影された側面画像において、クラブ用色付マークCM1〜CM3やゴルファー11の色付マークP、Qを認識し、後述するキャリブレーション処理により各マークの三次元位置座標を認識する。   The golfer 11 makes a test shot, takes still images of each frame of the swing moving image from the color CCD cameras 14 and 15 into the computer 16 and stores them in the hard disk, the memory in the computer 16 or the memory on the board, and the color CCD camera 14 In the front image photographed in step S4 and the side image photographed by the color CCD camera 15, the colored marks CM1 to CM3 for clubs and the colored marks P and Q of the golfer 11 are recognized, and each mark is subjected to calibration processing described later. Recognize 3D position coordinates.

次に、静止画像上で認識されたマークP、Qの間のピクセル距離aを正しい距離Lにキャリブレーション(校正)する方法について説明する。
図4は正面画像を示しているが、直線ADと直線BCは実際の長さW2は等しいにも関わらず、画像上では奥行き側の直線BCの方が短く映されることなるので、画像上の距離を実際の距離に換算する変換率を求めることとする。
本実施形態では、前記変換率としてフレーム20内の領域の平均変換率を求めて各マークの距離換算に適用することとしている。つまり、本手法はゴルファー11がフレーム20領域のほぼ中心でスウィング動作を行っていることを利用した簡易キャリブレーション方法ということができる。
Next, a method for calibrating the pixel distance a between the marks P and Q recognized on the still image to the correct distance L will be described.
Although FIG. 4 shows a front image, although the straight line AD and the straight line BC have the same actual length W2, the straight line BC on the depth side appears shorter on the image. The conversion rate for converting the distance to the actual distance is obtained.
In the present embodiment, the average conversion rate of the region in the frame 20 is obtained as the conversion rate and applied to the distance conversion of each mark. That is, this method can be said to be a simple calibration method that utilizes the fact that the golfer 11 performs a swing motion at approximately the center of the frame 20 region.

フレーム20内の平均変換率sfave[cm/ピクセル]は、直線BCおよび直線ADの実測長さをW2[cm]、直線BCの画像上の長さをM1[ピクセル]、直線ADの画像上の長さをM2[ピクセル]とすると、以下の数式1で求められる。

Figure 2005270484
The average conversion rate sf ave [cm / pixel] in the frame 20 is such that the measured length of the straight line BC and the straight line AD is W2 [cm], the length of the straight line BC on the image is M1 [pixel], and on the straight line AD image Is M2 [pixel], the following equation 1 is obtained.
Figure 2005270484

したがって、マークPとマークQとの間のキャリブレーション後の距離L[cm]は、画像上のPQ間距離をa[ピクセル]とすると以下の数式2で簡単に求めることができる。

Figure 2005270484
Therefore, the distance L [cm] after the calibration between the mark P and the mark Q can be easily obtained by the following formula 2 when the distance between PQs on the image is a [pixel].
Figure 2005270484

また、図5に示すように、直線ABの延長線と直線CDの延長線との交点を消失点Sとして取得し、その消失点Sからボール22まで引いた直線21を用いることで、ボール22の位置が適切かどうかを判断することができる。具体的には、ゴルファー11のシルエットの踵と直線21との距離を求めることで、ゴルファー11の足に対するボール22の設置位置を把握することができる。   Further, as shown in FIG. 5, the intersection point between the extension line of the straight line AB and the extension line of the straight line CD is acquired as the vanishing point S, and the ball 22 is obtained by using the straight line 21 drawn from the vanishing point S to the ball 22. It is possible to determine whether the position of is appropriate. More specifically, by determining the distance between the heel of the silhouette of the golfer 11 and the straight line 21, it is possible to grasp the installation position of the ball 22 with respect to the foot of the golfer 11.

なお、画像上におけるフレーム20の認識方法は、オペレータがマウス等を用いて手動で認識させてもよいが、画像処理により自動で認識すると好適である。以下、後者のフレーム自動認識方法について説明する。
フレーム20の色を地面や近傍の色と相違させておき、画像上の各ピクセルについて色情報に関する特定の閾値で二値化処理を行い、閾値を満たすピクセルをフレーム20であると認識してフレーム20位置情報を取得する。二値化処理の方法としては、色情報としてRGB値やYIQ値や色相・彩度・明度等を用い、フレーム20の同一の色であるとみなすことのできる閾値を設定するとよい。また、ハフ変換を用いてフレーム20を構成する直線を抽出してもよい。
Note that the method of recognizing the frame 20 on the image may be manually recognized by the operator using a mouse or the like, but it is preferable that the frame 20 is automatically recognized by image processing. Hereinafter, the latter automatic frame recognition method will be described.
The color of the frame 20 is made different from the color of the ground or the vicinity, and binarization processing is performed on each pixel on the image with a specific threshold regarding color information, and the pixel satisfying the threshold is recognized as the frame 20 and the frame is recognized. 20 position information is acquired. As a binarization processing method, RGB values, YIQ values, hue / saturation / lightness, etc. may be used as color information, and a threshold value that can be regarded as the same color of the frame 20 may be set. Further, a straight line constituting the frame 20 may be extracted using Hough transform.

あるいは、図6に示すように、仮想フレーム20’を構成する4つの頂点A〜Dに色マークを設置すると共に、色マークA〜Dを周辺色と異なる配色とし、画像上の各ピクセルについて色情報に関する特定の閾値で二値化処理を行い、閾値を満たすピクセルを色マークA〜Dであると認識してフレーム頂点の位置座標を取得し、各色マークを結ぶことで仮想フレーム20’の位置情報を取得するようにしてもよい。なお、フレーム頂点に設置する色マークは直径3cm程の球状体あるいは一辺3cm程の立方体など、色抽出しやすい形であれば何でも良い。   Alternatively, as shown in FIG. 6, color marks are installed at the four vertices A to D constituting the virtual frame 20 ′, the color marks A to D are different from the surrounding colors, and the color of each pixel on the image is set. Binarization processing is performed with a specific threshold value related to information, pixels satisfying the threshold value are recognized as color marks A to D, the position coordinates of frame vertices are acquired, and the position of the virtual frame 20 ′ is obtained by connecting each color mark Information may be acquired. The color mark placed at the apex of the frame may be anything as long as it is easy to extract colors, such as a spherical body with a diameter of about 3 cm or a cube with a side of about 3 cm.

図7および図8は第2実施形態を示す。
第1実施形態との相違点は、変換率としてフレーム20内の平均変換率を用いずに、フレーム20を複数のブロックに分割して、各ブロック毎に変換率を求めている点である。
7 and 8 show a second embodiment.
The difference from the first embodiment is that the conversion rate is calculated for each block by dividing the frame 20 into a plurality of blocks without using the average conversion rate in the frame 20 as the conversion rate.

図7(A)は正面画像、図7(B)は側面画像を示し、画像に映されたフレーム20を消失点Sを通過する2本の線で直線BCおよび直線ADを等分割すると共に、水平方向の2本の線で直線ABおよび直線CDを等分割し、フレーム20をブロック1〜ブロック9に9分割する。
まず、正面画像上で認識されたマークPを通過する垂直線23を引き、この垂直線23が通過するブロック2、5、8を記憶する。次いで、側面画像上で認識されたマークPを通過する垂直線24を引き、この垂直線24が通過するブロック1、2、3、4を記憶する。
FIG. 7A shows a front image, FIG. 7B shows a side image, and the straight line BC and the straight line AD are equally divided by two lines passing through the vanishing point S in the frame 20 shown in the image, The straight line AB and the straight line CD are equally divided by two horizontal lines, and the frame 20 is divided into nine blocks into a block 1 to a block 9.
First, the vertical line 23 passing through the mark P recognized on the front image is drawn, and the blocks 2, 5, and 8 through which the vertical line 23 passes are stored. Next, a vertical line 24 passing through the mark P recognized on the side image is drawn, and the blocks 1, 2, 3, and 4 through which the vertical line 24 passes are stored.

上記正面画像と側面画像とで共通して記憶されたブロック2をマークPが存在するブロックであると決定し、マークPに関してはブロック2に関する変換率sfB2[cm/ピクセル]を用いることとする。なお、ブロック毎の変換率の算出方法は、第1実施形態のフレーム20内の平均変換率の算出方法を用い、フレームをブロックに置き換えて適用することで容易に算出される。 The block 2 stored in common between the front image and the side image is determined to be a block where the mark P exists, and the conversion rate sf B2 [cm / pixel] related to the block 2 is used for the mark P. . Note that the conversion rate calculation method for each block is easily calculated by using the average conversion rate calculation method in the frame 20 of the first embodiment and replacing the frame with the block.

次に、マークPとマークQとの間のキャリブレーション後の距離L[cm]を求める。
(1)マークPとマークQとが同一ブロック内に存在する場合は、当該ブロックの変換率をsfB[cm/ピクセル]、画像上のP、Q間距離をa[ピクセル]とすると、以下の数式3でキャリブレーション後の距離L[cm]を算出することができる。

Figure 2005270484
Next, a post-calibration distance L [cm] between the mark P and the mark Q is obtained.
(1) When the mark P and the mark Q exist in the same block, assuming that the conversion rate of the block is sf B [cm / pixel] and the distance between P and Q on the image is a [pixel], The distance L [cm] after the calibration can be calculated by using Equation 3.
Figure 2005270484

(2)マークPとマークQが隣合うブロックにそれぞれ存在する場合、例えば、マークPはブロック2に存在する一方、マークQはブロック1に存在する場合は、ブロック2の変換率をsfB2[cm/ピクセル]、ブロック1の変換率をsfB1[cm/ピクセル]とすると、以下の数式4でキャリブレーション後の距離L[cm]を算出することができる。

Figure 2005270484
(2) When the mark P and the mark Q exist in adjacent blocks, for example, when the mark P exists in the block 2 and the mark Q exists in the block 1, the conversion rate of the block 2 is set to sf B2 [ When the conversion rate of the block 1 is sf B1 [cm / pixel], the distance L [cm] after calibration can be calculated by the following equation 4.
Figure 2005270484

(3)マークPとマークQが隣合わないブロックにそれぞれ存在する場合、例えば、マークPはブロック2に存在する一方、マークQはブロック7に存在する場合は、図8に示すように、マークQが存在するブロック7とそれに横並びするブロック8、9を通る垂直面にマークPを投影した点P’を用い、P’Q間距離をa’[ピクセル]、ブロック7、8、9の変換率をsfQ[cm/ピクセル]として、以下の数式5でキャリブレーション後の距離L[cm]を求めることができる。

Figure 2005270484
(3) When the mark P and the mark Q are present in non-adjacent blocks, for example, when the mark P is present in the block 2 and the mark Q is present in the block 7, as shown in FIG. Using the point P ′ obtained by projecting the mark P on the vertical plane passing through the block 7 in which Q is present and the blocks 8 and 9 side by side, the distance between P′Q is a ′ [pixel], and the conversion of the blocks 7, 8 and 9 The distance L [cm] after calibration can be obtained by the following formula 5 where the rate is sf Q [cm / pixel].
Figure 2005270484

ここで、点P’の決定方法について説明すると、まず、マークPから鉛直方向の垂直線を下して点P1を求める。但し、マークPの地面上のラインはブロック2の中心から水平に横断するラインとする。次いで、消失点Sと点P1とを結ぶ線SP1の延長線と、ブロック7、8、9の中心を水平に横断するラインと交わる点を点P2とする。そして、消失点SとマークPとを結ぶ線SPの延長線と、点P2を通る垂直線とが交わる点を点P’として決定する。なお、他の構成は第1実施形態と同様であるため説明を省略する。 Here, the determination method of the point P ′ will be described. First, the point P 1 is obtained by dropping a vertical line from the mark P in the vertical direction. However, the line on the ground of the mark P is a line horizontally traversing from the center of the block 2. Next, a point that intersects with an extension line of the line SP 1 connecting the vanishing point S and the point P 1 and a line that horizontally traverses the centers of the blocks 7, 8, and 9 is defined as a point P 2 . Then, a point where an extension line of the line SP connecting the vanishing point S and the mark P intersects with a vertical line passing through the point P 2 is determined as a point P ′. Since other configurations are the same as those of the first embodiment, description thereof is omitted.

また、フレーム20内のブロック分割の変形例を図9(A)(B)に示す。本変形例ではフレーム20内を12個のブロック1〜12に分割している。
図9(A)の正面画像では、ゴルファー11の足シルエットの両側端の点25、26をそれぞれ消失点(図示せず)と結んだ線27、28と、足シルエットの両踵間の中点を消失点と結んだ線30と、踵29、30を通過して直線ADと平行な線34と、足シルエットの下端32を通過して直線ADと平行な線33とを用いてブロック分割している。
図9(B)の側面画像では、ゴルファー11の足シルエットの踵35を消失点(図示せず)と結んだ線38と、足シルエットの足先36と消失点と結んだ線39と、足先36、37を通過して直線ABと平行な線40、41と、両足先36、37間の中点を通過して直線ABと平行な線41とを用いてブロック分割している。
9A and 9B show a modification example of block division in the frame 20. In this modification, the inside of the frame 20 is divided into 12 blocks 1 to 12.
In the front image of FIG. 9A, the lines 27 and 28 connecting the points 25 and 26 on both sides of the foot silhouette of the golfer 11 with vanishing points (not shown), respectively, and the midpoint between the both feet of the foot silhouette Is divided into blocks using the line 30 connecting the vanishing point, the line 34 passing through the heels 29 and 30 and parallel to the straight line AD, and the line 33 passing through the lower end 32 of the foot silhouette and parallel to the straight line AD. ing.
In the side image of FIG. 9B, a line 38 connecting the heel 35 of the foot silhouette of the golfer 11 to the vanishing point (not shown), a line 39 connecting the foot tip 36 of the foot silhouette to the vanishing point, Block division is performed using lines 40 and 41 that pass through the tips 36 and 37 and parallel to the straight line AB, and lines 41 that pass through the midpoint between the two toes 36 and 37 and are parallel to the straight line AB.

図10乃至図13は第3実施形態を示す。
第1・第2実施形態との相違点は、フレーム20内やブロック内の平均的な変換率を用いずに、線形補間により正確に変換率を算出している点である。
10 to 13 show a third embodiment.
The difference from the first and second embodiments is that the conversion rate is accurately calculated by linear interpolation without using the average conversion rate in the frame 20 or in the block.

図10(B)に示すように、側面画像から見てマークPを通る垂直線がフレーム20を構成している直線CDをα:βで分ける場合、図10(A)に示すように、正面画像から見てマークPから垂線を下して地面と交点を通る直線BCと平行な線をEFとすると、正面画像の奥行き方向の長さは徐々に短くなるのでBE:AE=α:βにならず、BE:AE=α’:β’となる。ここで、直線BCの画像上の長さをM1[ピクセル]、直線ADの画像上の長さをM2[ピクセル]、線EFの画像上の長さをM3[ピクセル]とし、直線BCでの変換率をsfM1[cm/ピクセル]、直線ADでの変換率をsfM2[cm/ピクセル]とする。すると、線EFでの変換率をsfM3[cm/ピクセル]は以下の数式6で算出される。

Figure 2005270484
As shown in FIG. 10B, when the vertical line passing through the mark P as seen from the side image divides the straight line CD constituting the frame 20 by α: β, as shown in FIG. Assuming that EF is a line parallel to the straight line BC passing through the intersection with the ground from the mark P as seen from the image, the length in the depth direction of the front image gradually decreases, so that BE: AE = α: β In other words, BE: AE = α ′: β ′. Here, the length of the straight line BC on the image is M1 [pixel], the length of the straight line AD on the image is M2 [pixel], and the length of the line EF on the image is M3 [pixel]. The conversion rate is sf M1 [cm / pixel], and the conversion rate on the straight line AD is sf M2 [cm / pixel]. Then, sf M3 [cm / pixel] of the conversion rate at the line EF is calculated by the following Expression 6.
Figure 2005270484

ここで、数式6の右辺のうち未知の値はM3[ピクセル]である。このM3は以下の数式7で求めることができる。

Figure 2005270484
Here, the unknown value in the right side of Equation 6 is M3 [pixel]. This M3 can be obtained by the following Expression 7.
Figure 2005270484

次に、この数式7の右辺のα’、β’に関する算出手順について詳説する。
図11は天井側から見下ろした図を示し、カラーCCDカメラ14から見た奥行き方向をZ方向とし、飛球線方向をY方向とする。
点A、E、Bを通過する線をbY+cZ+d=0とすると(b、c、dは定数)、点AのY座標であるY0は数式8で求められる。

Figure 2005270484
Next, the calculation procedure regarding α ′ and β ′ on the right side of Equation 7 will be described in detail.
FIG. 11 shows a view looking down from the ceiling side, where the depth direction viewed from the color CCD camera 14 is the Z direction, and the flying ball direction is the Y direction.
If a line passing through the points A, E, and B is bY + cZ + d = 0 (b, c, and d are constants), Y 0 that is the Y coordinate of the point A is obtained by Equation 8.
Figure 2005270484

同様に、点EのY座標であるY1は数式9で求められる。

Figure 2005270484
Similarly, Y 1, which is the Y coordinate of the point E, is obtained by Equation 9.
Figure 2005270484

ここで、Y0、y0、f、Z0の関係は図12から分かるように数式10の関係式が成り立つ。なお、y0は点Aとカメラ14とを結ぶ線とY軸との交点のY座標、fはカメラ14とY軸との距離、Z0は点AのZ座標である。

Figure 2005270484
Here, the relationship of Y 0 , y 0 , f, and Z 0 is as shown in FIG. Y 0 is the Y coordinate of the intersection of the line connecting the point A and the camera 14 and the Y axis, f is the distance between the camera 14 and the Y axis, and Z 0 is the Z coordinate of the point A.
Figure 2005270484

よって、数式8と数式10とから数式11が導き出されると共に、数式9と数式10とから数式12が導き出される。なお、y1は点Eとカメラ14とを結ぶ線とY軸との交点のY座標、Z1は点EのZ座標である。

Figure 2005270484
Figure 2005270484
Therefore, Equation 11 is derived from Equation 8 and Equation 10, and Equation 12 is derived from Equation 9 and Equation 10. Y 1 is the Y coordinate of the intersection of the line connecting the point E and the camera 14 and the Y axis, and Z 1 is the Z coordinate of the point E.
Figure 2005270484
Figure 2005270484

次いで、数式11と数式12とから以下の数式13が導き出される。

Figure 2005270484
Next, the following Expression 13 is derived from Expression 11 and Expression 12.
Figure 2005270484

また、数式13と同様にして、数式14も導き出される。なお、y2は点Bとカメラ14とを結ぶ線とY軸との交点のY座標、Z2は点BのZ座標である。

Figure 2005270484
Similarly to Equation 13, Equation 14 is also derived. Y 2 is the Y coordinate of the intersection of the line connecting the point B and the camera 14 and the Y axis, and Z 2 is the Z coordinate of the point B.
Figure 2005270484

Y軸上のy0、y1、y2はカメラ14に映った正面画像における点A、E、Bと考えることができるので、正面画像におけるα’、β’は以下の数式15で求めることができる。

Figure 2005270484
Since y 0 , y 1 , and y 2 on the Y axis can be considered as points A, E, and B in the front image reflected on the camera 14, α ′ and β ′ in the front image are obtained by the following Expression 15. Can do.
Figure 2005270484

ここで、数式15の右辺のうちZ0は実空間において実測して求めておき、また、Z1、Z2は以下の数式16、数式17で求めて代入することとする。

Figure 2005270484
Figure 2005270484
つまり、以上のようにして得られたα’/β’を数式7に代入して算出されるM3を更に数式6に代入することで、正面画像からみたマークPでの変換率sfM3を求めることができる。 Here, of the right side of Equation 15, Z 0 is obtained by actual measurement in the real space, and Z 1 and Z 2 are obtained by Equation 16 and Equation 17 below and substituted.
Figure 2005270484
Figure 2005270484
That is, the conversion rate sf M3 at the mark P as viewed from the front image is obtained by substituting M3 calculated by substituting α ′ / β ′ obtained as described above into Equation 7, further into Equation 6. be able to.

次に、図13(A)(B)に示すように、点と線(面)との距離の算出方法について説明する。
図13(A)に示すように、アドレス時の正面画像で認識されたクラブ用色付マークCM1〜CM3の位置からゴルフクラブ13のオリジナルシャフトラインSLを求める。また、クラブ用色付マークCM1〜CM3の位置と、クラブ用色付マークCM3とヘッド部13bとの距離とから、ゴルフクラブ13のヘッド部13bの位置を予測する。このヘッド部13bはアドレス状態では地面に位置すると考えることができるので、ヘッド部13bから下した垂線が直線ADを分ける比a:bを求める。また、マークPから下した垂線が直線ADを分ける比α:βを求める。そして、これら比a:bおよび比α:βより、上述した数式15と同様の原理でa’:b’およびα’:β’を求める。
Next, as shown in FIGS. 13A and 13B, a method for calculating the distance between a point and a line (surface) will be described.
As shown in FIG. 13A, the original shaft line SL of the golf club 13 is obtained from the positions of the club colored marks CM1 to CM3 recognized in the front image at the time of addressing. Further, the position of the head portion 13b of the golf club 13 is predicted from the position of the club colored marks CM1 to CM3 and the distance between the club colored mark CM3 and the head portion 13b. Since the head portion 13b can be considered to be located on the ground in the address state, the ratio a: b is determined by which the perpendicular drawn from the head portion 13b divides the straight line AD. In addition, a ratio α: β that a perpendicular drawn from the mark P separates the straight line AD is obtained. Then, from these ratios a: b and α: β, a ′: b ′ and α ′: β ′ are obtained based on the same principle as that of the above-described Expression 15.

次いで、図13(B)に示す側面画像において、マークPから下した垂線とフレーム20をα’:β’に分ける線51との交点54を求め、該交点54と消失点Sとを結ぶ線52がフレーム20をa’:b’に分ける線53と交わる点55を求める。そして、点55を通る垂線と線50との交点を点P’とする。
よって、側面画像上でのオリジナルシャフトラインSLとマークP’との最短のピクセル距離を求め、該ピクセル距離に線53上での変換率を乗じることで、オリジナルシャフトラインSLとマークPとの実際の距離を求めることができる。
なお、本実施形態では点(マークP)と線(オリジナルシャフトラインSL)との距離を求めているが、点と面との距離も同様の手順で求めることができる。
Next, in the side image shown in FIG. 13B, an intersection 54 between the perpendicular drawn from the mark P and a line 51 dividing the frame 20 into α ′: β ′ is obtained, and a line connecting the intersection 54 and the vanishing point S. Find the point 55 where 52 intersects the line 53 that divides the frame 20 into a ′: b ′. The intersection of the perpendicular line passing through the point 55 and the line 50 is defined as a point P ′.
Accordingly, the shortest pixel distance between the original shaft line SL and the mark P ′ on the side image is obtained, and the actual distance between the original shaft line SL and the mark P is obtained by multiplying the pixel distance by the conversion rate on the line 53. Can be obtained.
In the present embodiment, the distance between the point (mark P) and the line (original shaft line SL) is obtained, but the distance between the point and the surface can be obtained in the same procedure.

図14は第4実施形態を示す。
本実施形態は、正面画像および側面画像を利用してゴルフクラブ13のヘッド部13bの実空間での位置座標を把握することによりインパクト前後のスウィング軌道を調べている。
FIG. 14 shows a fourth embodiment.
In the present embodiment, the swing trajectory before and after the impact is examined by grasping the position coordinates in the real space of the head portion 13b of the golf club 13 using the front image and the side image.

(1)正面画像および側面画像上のヘッド位置の推定
まず、正面・側面画像についてクラブ用色付マークCM1〜CM3からヘッド部13bの位置座標を推定する。(なお、以降は、実空間での三次元座標を大文字X、Y、Zで表す一方、画像上での平面的な位置座標を小文字x、yで表すこととする。また、Xは飛球線方向、Yはゴルファーから見た前後方向、Zは鉛直方向、xは画像上の水平方向、yは画像上の垂直方向とする。)即ち、
(ヘッド部13bのx座標)
=(マークCM2のx)+n・{(マークCM3のx)−(マークCM2のx)}
=(1−n)・(マークCM2のx)+n ・(マークCM3のx)
と、
(ヘッド部13bのy座標)
=(マークCM2のy)+ n・{(マークCM3のy)−(マークCM3のy)}
=(1−n)・(マークCM2のy)+n・(マークCM3のy)
とにより、正面画像および側面画像のそれぞれについてヘッド部13bのx−y座標を算出する。但し、nは定数で正面画像の場合に2.1、側面画像の場合に1.8を用いている。
(1) Estimation of Head Position on Front and Side Images First, the position coordinates of the head portion 13b are estimated from the club colored marks CM1 to CM3 for the front and side images. (Hereinafter, three-dimensional coordinates in real space are represented by capital letters X, Y, and Z, while planar position coordinates on the image are represented by small letters x and y. X is a flying ball. (Line direction, Y is the front-rear direction viewed from the golfer, Z is the vertical direction, x is the horizontal direction on the image, and y is the vertical direction on the image.)
(X coordinate of head portion 13b)
= (X of mark CM2) + n · {(x of mark CM3) − (x of mark CM2)}
= (1-n) · (x of mark CM2) + n · (x of mark CM3)
When,
(Y coordinate of the head portion 13b)
= (Y of mark CM2) + n · {(y of mark CM3) − (y of mark CM3)}
= (1-n) · (y of mark CM2) + n · (y of mark CM3)
The xy coordinates of the head unit 13b are calculated for each of the front image and the side image. However, n is a constant and is 2.1 for the front image and 1.8 for the side image.

上記算出されたヘッド部13の正面画像での位置座標を用いて、図14に示す正面画像において、インパクト前のヘッド部13bの位置60と、インパクト時のヘッド部13bの位置61と、インパクト後のヘッド部13bの位置62とを特定することができる。
これらヘッド位置60〜62を通過する垂直のライン63〜65を正面画像上に表示することで、インパクト前・インパクト・インパクト後の夫々におけるヘッド部13bの地面への投影点が存在する地面上のライン63〜65を認識することができたことになる。
Using the calculated position coordinates of the head unit 13 in the front image, in the front image shown in FIG. 14, the position 60 of the head unit 13b before impact, the position 61 of the head unit 13b during impact, and the post-impact The position 62 of the head portion 13b can be specified.
By displaying the vertical lines 63 to 65 passing through the head positions 60 to 62 on the front image, the projection point on the ground of the head portion 13b before the impact, after the impact, and after the impact exists on the ground. This means that the lines 63 to 65 can be recognized.

(2)仮定
ヘッド部13bの三次元座標を推定するにあたり、以下の項目を仮定している。
仮定1:カメラは撮影した画像の座標系のx軸(横軸)が地面に対してほぼ平行であること。
仮定2:カメラの光軸は地面に対してほぼ平行であること
仮定3:2つのカメラは光軸方向をなす角度が45°以上好ましくはほぼ90°であること。
仮定4:三次元空間上のヘッド部13bを地面に投影した位置は、2次元画像のヘッド部13b位置を含む垂直なライン上に必ず存在すること。
仮定5:上記ラインは三次元空間におけるy軸方向とz軸方向のラインが重なっている。
仮定6:奥行き方向に対して垂直な平面上の変換率は同一である。
(2) Assumptions The following items are assumed when estimating the three-dimensional coordinates of the head portion 13b.
Assumption 1: The camera has the x-axis (horizontal axis) of the coordinate system of the captured image substantially parallel to the ground.
Assumption 2: The optical axis of the camera is almost parallel to the ground. Assumption 3: The angle between the two cameras in the direction of the optical axis is 45 ° or more, preferably about 90 °.
Assumption 4: The position where the head portion 13b in the three-dimensional space is projected on the ground always exists on a vertical line including the position of the head portion 13b in the two-dimensional image.
Assumption 5: In the above-mentioned line, lines in the y-axis direction and the z-axis direction in the three-dimensional space overlap.
Assumption 6: The conversion rate on the plane perpendicular to the depth direction is the same.

(3)射影変換行列の同定
3.1 コントロールポイントの取得
フレーム20の頂点A〜Dの4箇所をコントロールポイントA〜Dとして正面・側面画像で対応するようにxy座標データを取得する。尚、この画像を取得するのは背景画像(人が入っていない画像)であることが好ましいが、スウィング中の画像から4点A〜Dを取得しても構わない。
(3) Identification of Projection Transformation Matrix 3.1 Acquisition of Control Point The xy coordinate data is acquired so that the four points of the vertices A to D of the frame 20 correspond to the front and side images as the control points A to D. In addition, although it is preferable that this image is acquired from a background image (an image in which no person is present), four points A to D may be acquired from the image being swung.

3.2 射影変換行列の算出
コントロールポイントA〜Dを利用して、正面画像の地面上に存在する直線を側面画像へ変換する行列(射影変換行列)を算出する。この際、コントロールポイント4点が同一の平面上に存在するので、仮定1〜3に示すようにカメラ設定を行うことによって連立方程式のパラメータ数は通常の11個から8個となり、対応点x、yが4組以上あれば射影変換行列を導出することができるが、本実施形態ではA〜Dの各点について正面と側面の4組存在するので行列を導出できる。詳しくは、射影変換行列をPとし、側面画像での対応点座標をx(x1,x2)、正面画像での対応点座標をy(y1,y2)、スケールファクタをsとすると数式18の行列式の関係が成り立つ。

Figure 2005270484
3.2 Calculation of Projection Conversion Matrix Using control points A to D, a matrix (projection conversion matrix) for converting a straight line existing on the ground surface of the front image into a side image is calculated. At this time, since four control points exist on the same plane, the number of parameters of the simultaneous equations is reduced from 11 to 8 by performing camera setting as shown in assumptions 1 to 3, and the corresponding points x, If y is four or more sets, the projective transformation matrix can be derived. However, in this embodiment, there are four sets of front and side surfaces for each of points A to D, so that the matrix can be derived. Specifically, if the projective transformation matrix is P, the corresponding point coordinates in the side image are x (x 1 , x 2 ), the corresponding point coordinates in the front image are y (y 1 , y 2 ), and the scale factor is s. The relationship of the determinant of Expression 18 is established.
Figure 2005270484

ここで、対応点x、yについてコントロールポイントA〜Dの4組が与えられているので、前記数式18は、以下の数式19と表すことができる。

Figure 2005270484
なお、xij、yijについては、xは側面画像、yは正面画像を意味し、i=1〜4は4つのコントロールポイントA〜Dに対応し、j=1は画像上のx座標、J=2は画像上のy座標を意味する。即ち、たとえばx11であれば、側面画像上でのコントロールポイントAのx座標を示すことになる。 Here, since four sets of control points A to D are given for the corresponding points x and y, the equation 18 can be expressed as the following equation 19.
Figure 2005270484
For x ij and y ij , x means a side image, y means a front image, i = 1 to 4 correspond to four control points A to D, j = 1 is an x coordinate on the image, J = 2 means the y coordinate on the image. That is, for example, if x 11, will indicate the x coordinate of the control point A on the side image.

よって、4組の対応点の場合、前記数式19より以下の数式20のように、射影変換行列Pの線形式に直すことができる。

Figure 2005270484
Therefore, in the case of four sets of corresponding points, the linear form of the projective transformation matrix P can be rewritten as the following Expression 20 from the Expression 19.
Figure 2005270484

この関係式について、最小二乗法を利用し射影変換行列Pを算出する。
次いで、図14で求め仮定5からなる正面画像のライン63〜65上の全ての点を射影変換行列Pを用いて数式21により変換することで、図15に示す側面画像上においてライン63’〜65’とライン63”〜65”に分けることができる。

Figure 2005270484
For this relational expression, a projective transformation matrix P is calculated using the least square method.
Next, all the points on the lines 63 to 65 of the front image consisting of the assumption 5 obtained in FIG. 14 are transformed by the expression 21 using the projective transformation matrix P, so that the lines 63 ′ to 63 on the side image shown in FIG. 65 ′ and lines 63 ″ to 65 ″.
Figure 2005270484

(4)側面画像におけるヘッド部13bの地面位置(スウィング軌道)の推定
仮定4より、側面画像上おけるインパクト前・インパクト・インパクト後での夫々のヘッド位置66〜68を通る垂線63”〜65”と、正面画像から変換したライン63’〜65’との交点70〜72が、側面画像においてヘッド部13bを地面に投影したヘッド地面位置70〜72になる。
次に、側面画像において、画面上のフレーム20の4点A〜Dの位置座標と実空間での4点A〜Dの位置座標とを利用して上記(3)と同様の原理で射影変換行列を求める。この行列を利用して、先に取得した画面上のヘッド地面位置70〜72を実空間のヘッド地面位置に変換する。
(4) Estimation of the ground position (swing trajectory) of the head portion 13b in the side image Based on Assumption 4, the perpendiculars 63 "to 65" passing through the head positions 66 to 68 before and after the impact on the side image. Then, the intersections 70 to 72 with the lines 63 ′ to 65 ′ converted from the front image become head ground positions 70 to 72 where the head portion 13 b is projected on the ground in the side image.
Next, in the side image, projective transformation is performed on the same principle as in (3) above using the position coordinates of the four points A to D of the frame 20 on the screen and the position coordinates of the four points A to D in the real space. Find the matrix. Using this matrix, the head ground positions 70 to 72 on the screen acquired previously are converted into head ground positions in real space.

この変換後のヘッド地面位置を利用して、スウィング(ヘッド)の軌道を求めることができる。例えば、図16に示すように、変換後のインパクト前のヘッド地面位置70と、インパクト時のヘッド地面位置71とを結ぶ第1軌道線KL1の飛球線HLに対する角度θ1、および、インパクト後のヘッド地面位置72と、インパクト時のヘッド地面位置71とを結ぶ第2軌道線KL2の飛球線HLに対する角度θ2、を調べることで、スウィング軌道がアウトサイドイン、ストレート、インサイドアウトのいずれになっているかを診断することができる。
具体的には、θ1−θ2の値が、−5deg以下ならアウトサイドイン、−5deg〜10degならストレート、10deg以上ならインサイドアウトであると診断する。
The swing trajectory of the swing (head) can be obtained by using the converted head ground position. For example, as shown in FIG. 16, the angle θ1 of the first trajectory line KL1 connecting the head ground position 70 before impact after conversion and the head ground position 71 at impact with respect to the flying ball line HL, and after impact By examining the angle θ2 of the second trajectory line KL2 connecting the head ground position 72 and the head ground position 71 at the time of impact with the flying ball line HL, the swing trajectory is either outside-in, straight, or inside-out. Can be diagnosed.
Specifically, if the value of θ1-θ2 is −5 deg or less, it is diagnosed as outside-in, if it is −5 deg to 10 deg, it is straight, and if it is more than 10 deg, it is diagnosed as inside-out.

(5)ヘッド部13bの3次元位置座標の推定
上記(4)までは地面上、即ち、地面に垂直なZ座標成分を0として扱ってきているが、ヘッド部13bのZ座標についても以下のようにして求めることができる。
三次元空間を、飛球線方向をX成分、ゴルファー11から見て奥行き方向をY成分、地面から垂直方向をZ成分とし、フレーム20の頂点を原点とした場合、X、Y成分は上記(4)の地面について側面画像から実空間へ変換した射影変換行列を利用する。
(5) Estimation of the three-dimensional position coordinate of the head portion 13b Up to (4) above, the Z coordinate component on the ground, that is, the Z coordinate component perpendicular to the ground has been treated as 0. Can be obtained in this way.
In the three-dimensional space, when the flying ball direction is the X component, the depth direction viewed from the golfer 11 is the Y component, the vertical direction from the ground is the Z component, and the vertex of the frame 20 is the origin, the X and Y components are A projective transformation matrix obtained by converting the side image into the real space for the ground in 4) is used.

例えば、インパクト前のヘッド位置66のZ座標は、仮定6に基づき、そのヘッド地面位置70を通る水平線がフレーム20に交わる点73と、ヘッド地面位置70とを含む垂直平面の変換率sfを第3実施形態の線形補間により求め、側面画面上で推定されたヘッド位置66とヘッド地面位置70との間のピクセル距離に前記変換率sfを掛ければヘッド位置66のZ座標位置も取得できる。   For example, the Z coordinate of the head position 66 before impact is based on the assumption 6, and the conversion rate sf of the vertical plane including the point 73 where the horizontal line passing through the head ground position 70 intersects the frame 20 and the head ground position 70 is the first. The Z coordinate position of the head position 66 can also be obtained by multiplying the pixel distance between the head position 66 and the head ground position 70 obtained by the linear interpolation of the third embodiment and estimated on the side screen by the conversion rate sf.

本発明の第1実施形態のゴルフスウィング診断システムの構成図である。It is a lineblock diagram of the golf swing diagnostic system of a 1st embodiment of the present invention. フレームの上面図である。It is a top view of a frame. (A)(B)はフレームとゴルファーとの位置関係を示す図面である。(A) (B) is drawing which shows the positional relationship of a flame | frame and a golfer. 正面画像を示す図面である。It is drawing which shows a front image. 消失点の利用を説明する図面である。It is drawing explaining utilization of a vanishing point. 変形例を示す図面である。It is drawing which shows a modification. (A)は第2実施形態の正面画像、(B)は側面画像を示す図面である。(A) is a front image of 2nd Embodiment, (B) is drawing which shows a side image. 正面画像を示す図面である。It is drawing which shows a front image. (A)はブロック分割の変形例を示す正面画像、(B)は側面画像を示す図面である。(A) is a front image showing a modified example of block division, and (B) is a drawing showing a side image. (A)は第3実施形態の正面画像、(B)は側面画像を示す図面である。(A) is a front image of 3rd Embodiment, (B) is drawing which shows a side image. 各点の位置関係を説明する概念図である。It is a conceptual diagram explaining the positional relationship of each point. 比率を示す図面である。It is drawing which shows a ratio. (A)は正面画像、(B)は側面画像を示す図面である。(A) is a front image, and (B) is a drawing showing a side image. 第4実施形態の正面画像を示す図面である。It is drawing which shows the front image of 4th Embodiment. 側面画像を示す図面である。It is drawing which shows a side image. スウィング軌道の診断に関する説明図である。It is explanatory drawing regarding the diagnosis of a swing track | orbit.

符号の説明Explanation of symbols

11 ゴルファー
12 計測用服
13 ゴルフクラブ
13a シャフト
13b ヘッド部
14、15 カラーCCDカメラ
16 コンピュータ
20 フレーム
CM1〜CM3 クラブ用色付マーク
P、Q 色付マーク
DESCRIPTION OF SYMBOLS 11 Golfer 12 Measurement clothes 13 Golf club 13a Shaft 13b Head part 14, 15 Color CCD camera 16 Computer 20 Frame CM1-CM3 Colored mark P, Q Colored mark for clubs

Claims (19)

ゴルフクラブを把持してスウィングするゴルファーを撮影してコンピュータに取り込み、撮影された画像上に映された注目点の位置情報を前記コンピュータで校正して実際の位置情報を取得する方法であって、
スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、前記変換率を画像上のピクセル距離に乗じることで実際の距離を算出することを特徴とするキャリブレーション方法。
A method of capturing a golfer who grips and swings a golf club, capturing it in a computer, calibrating the position information of a point of interest displayed on the captured image with the computer, and obtaining actual position information,
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. A calibration method characterized by calculating a conversion rate to be converted into position information and calculating an actual distance by multiplying the conversion rate by a pixel distance on the image.
前記フレームは仮想フレームとし、該仮想フレームの形の頂点となる位置の地面にマークを設置している請求項1に記載のキャリブレーション方法。   The calibration method according to claim 1, wherein the frame is a virtual frame, and a mark is placed on the ground at a position that is a vertex of the shape of the virtual frame. 前記フレームを構成する直線のうち、画像奥行きに対向配置された2つの直線上の前記変換率を平均することで、前記フレーム内の変換率を求めている請求項1または請求項2に記載のキャリブレーション方法。   The conversion rate in the said frame is calculated | required by averaging the said conversion rate on two straight lines opposingly arranged by the image depth among the straight lines which comprise the said frame. Calibration method. 2つの前記注目点の間の実際の距離は、前記画像上での2つの注目点の間のピクセル距離に前記変換率を乗じて求めている請求項3に記載のキャリブレーション方法。   The calibration method according to claim 3, wherein an actual distance between the two points of interest is obtained by multiplying a pixel distance between the two points of interest on the image by the conversion rate. 前記フレーム内の領域を複数のブロックに分割し、
前記ブロックを構成する直線のうち、画像奥行きに対向配置された2つの直線上の変換率を平均することで、前記ブロック内の変換率を求めている請求項1または請求項2に記載のキャリブレーション方法。
Dividing the region in the frame into a plurality of blocks;
The calibration according to claim 1 or 2, wherein a conversion rate in the block is obtained by averaging conversion rates on two straight lines arranged opposite to the image depth among straight lines constituting the block. Method.
前記ブロックは、前記ゴルファーの足シルエットを基準として前記フレーム内の領域をブロック分割して形成されている請求項5に記載のキャリブレーション方法。   The calibration method according to claim 5, wherein the block is formed by dividing an area in the frame into blocks based on a foot silhouette of the golfer. 2つの前記注目点の間の実際の距離は、各注目点が属する前記ブロック毎の変換率を平均して前記画像上での各注目点間のピクセル距離に乗じて求めている請求項5または請求項6に記載のキャリブレーション方法。   The actual distance between the two points of interest is obtained by averaging the conversion rates of the blocks to which the points of interest belong and multiplying the pixel distances between the points of interest on the image. The calibration method according to claim 6. 前記フレームを構成する少なくとも2本の直線を利用して、線形補間によりフレーム内の変換率を求めている請求項1または請求項2に記載のキャリブレーション方法。   The calibration method according to claim 1 or 2, wherein a conversion rate in the frame is obtained by linear interpolation using at least two straight lines constituting the frame. 2つの前記注目点の間の実際の距離は、画像上で一方の注目点を他方の注目点を構成する面に投影し、該投影点と他方の注目点との距離に、他方の注目点の前記変換率を乗じて求めている請求項8に記載のキャリブレーション方法。   The actual distance between the two points of interest is calculated by projecting one point of interest on the surface of the other point of interest on the image, and the distance between the projected point and the other point of interest. The calibration method according to claim 8, which is obtained by multiplying the conversion rate. 画像上に存在する面あるいは線と前記注目点との間の実際の距離は、
前記注目点を前記面あるいは線を構成する面に投影し、該投影点と前記面あるいは線との距離に前記面上の変換率を乗じて求めている請求項8または請求項9に記載のキャリブレーション方法。
The actual distance between the surface or line present on the image and the point of interest is
The said attention point is projected on the surface which comprises the said surface or a line, The distance of this projection point and the said surface or a line is calculated | required by multiplying by the conversion rate on the said surface. Calibration method.
前記画像上で、前記フレームの奥行き方向の辺である直線をそれぞれ奥行き方向に延長して交差する点を消失点とし、該消失点から鉛直方向に垂直線を下ろし、前記注目点と該垂直線との間の距離により各注目点間の距離を換算している請求項1乃至請求項10のいずれか1項に記載のキャリブレーション方法。   On the image, the points that intersect the straight lines that are the sides in the depth direction of the frame in the depth direction are defined as vanishing points. The calibration method according to claim 1, wherein a distance between each point of interest is converted based on a distance between the two points. 前記フレームは、前記ゴルフクラブの一部の軌跡が含まれる範囲に設定されている請求項1乃至請求項11のいずれか1項に記載のキャリブレーション方法。   The calibration method according to any one of claims 1 to 11, wherein the frame is set in a range including a part of a locus of the golf club. 前記フレームの一辺の長さをW1、直交する他辺の長さをW2とすると、W1/W2=
1〜10としている請求項1乃至請求項11のいずれか1項に記載のキャリブレーション方法。
If the length of one side of the frame is W1 and the length of the other side perpendicular to the frame is W2, W1 / W2 =
The calibration method according to claim 1, wherein the calibration method is 1 to 10.
前記フレームの大きさは、前記フレームの辺をゴルファーの両足の中心の中点を基点として飛球線方向にh:iで分けたとき、h/i=1〜3としている請求項1乃至請求項13のいずれか1項に記載のキャリブレーション方法。   The size of the frame is set to h / i = 1 to 3 when the sides of the frame are divided by h: i in the flying ball direction from the midpoint of the center of the golfer's feet as a base point. 14. The calibration method according to any one of items 13. 前記フレームの大きさは、前記フレームの辺をゴルファーの足を基点として飛球線方向に直交する方向にj:kで分けたとき、j/k=1〜10としている請求項1乃至請求項13のいずれか1項に記載のキャリブレーション方法。   The size of the frame is set to j / k = 1 to 10 when the sides of the frame are divided by j: k in a direction orthogonal to the flying ball direction with a golfer's foot as a base point. 14. The calibration method according to any one of items 13. ゴルフクラブを把持してスウィングするゴルファーを撮影してコンピュータに取り込み、撮影された画像上に映された注目点の位置情報を前記コンピュータで校正して実際の位置情報を取得する方法であって、
2方向から撮影した画像上の同一平面に存在する少なくとも4点について、該2方向の夫々の画像間における位置座標の対応関係を表す射影変換行列を予め求めておき、
一方向側の画像上において前記注目点を通り奥行き方向を表す垂直ラインを前記射影変換行列により他方向側の画像上において水平なラインに変換し、他方向側の画像上で前記注目点を通る垂直ラインと前記水平なラインとの交点を求めて画像上の前記平面での位置座標を取得し、
この位置座標を、画像と実空間との間における位置座標の対応関係を表わす別の射影変換行列を用いて実空間上の位置座標に変換して、前記注目点の実空間座標を求めていることを特徴とするキャリブレーション方法。
A method of capturing a golfer who grips and swings a golf club, capturing it in a computer, calibrating the position information of a point of interest displayed on the captured image with the computer, and obtaining actual position information,
For at least four points existing in the same plane on the image taken from two directions, a projection transformation matrix representing the correspondence relationship of the position coordinates between the images in the two directions is obtained in advance.
A vertical line that passes through the point of interest on the image in one direction and represents the depth direction is converted into a horizontal line on the image in the other direction by the projection transformation matrix, and passes through the point of interest on the image in the other direction. Obtain the position coordinates on the plane on the image by finding the intersection of the vertical line and the horizontal line,
The position coordinates are converted into the position coordinates on the real space using another projective transformation matrix representing the correspondence relationship between the position coordinates between the image and the real space, and the real space coordinates of the attention point are obtained. A calibration method characterized by that.
前記注目点は2点とし、該2点間の距離あるいは/および角度を求めている請求項16に記載のキャリブレーション方法。   The calibration method according to claim 16, wherein the attention point is two points, and a distance or / and an angle between the two points is obtained. スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、
前記一方向側の画像上において前記注目点の特定の座標軸方向へのピクセル距離を求め、該ピクセル距離に前記変換率を乗じることで、前記注目点の実空間での三次元位置座標を取得している請求項16または請求項17に記載のキャリブレーション方法。
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. Calculate the conversion rate to convert to location information,
A three-dimensional position coordinate in the real space of the target point is obtained by obtaining a pixel distance in the direction of a specific coordinate axis of the target point on the one-direction image and multiplying the pixel distance by the conversion rate. The calibration method according to claim 16 or claim 17.
請求項1乃至請求項18のいずれか1項に記載のキャリブレーション方法を用い、
前記注目点は前記ゴルファーの関節とし、一の関節と他の関節またはゴルフクラブシャフトとの距離、あるいは、一の関節と別の時刻の関節またはゴルフクラブシャフトとの距離を求めていることを特徴とするゴルフスウィング計測システム。
Using the calibration method according to any one of claims 1 to 18,
The point of interest is the golfer's joint, and the distance between one joint and another joint or golf club shaft, or the distance between one joint and a joint or golf club shaft at another time is obtained. A golf swing measurement system.
JP2004090814A 2004-03-26 2004-03-26 Calibration method Expired - Fee Related JP4205004B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004090814A JP4205004B2 (en) 2004-03-26 2004-03-26 Calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004090814A JP4205004B2 (en) 2004-03-26 2004-03-26 Calibration method

Publications (2)

Publication Number Publication Date
JP2005270484A true JP2005270484A (en) 2005-10-06
JP4205004B2 JP4205004B2 (en) 2009-01-07

Family

ID=35170751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004090814A Expired - Fee Related JP4205004B2 (en) 2004-03-26 2004-03-26 Calibration method

Country Status (1)

Country Link
JP (1) JP4205004B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010082430A (en) * 2008-09-02 2010-04-15 Yokohama Rubber Co Ltd:The Method of selecting golf club and system for selecting golf club
JP2010521331A (en) * 2007-03-02 2010-06-24 マーベル ワールド トレード リミテッド Dynamic dithering of images
JP2010155074A (en) * 2008-12-04 2010-07-15 Yokohama Rubber Co Ltd:The Method of selecting golf club
JP2010535118A (en) * 2007-08-07 2010-11-18 マーベル ワールド トレード リミテッド Error correction of position data
JP2012058136A (en) * 2010-09-10 2012-03-22 Tamaya Keisoku Syst Kk Displacement measuring device and displacement measuring method for dam body
JP2012110594A (en) * 2010-11-26 2012-06-14 Bridgestone Corp Classification method, classification system, analysis device and program for golf swing
US8297858B1 (en) 2007-03-02 2012-10-30 Marvell International Ltd. Managing project information with a hand-propelled device
CN103327232A (en) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 Image processing apparatus and image processing method
WO2015093827A1 (en) * 2013-12-16 2015-06-25 (주)골프존 User movement recognition method using depth image analysis, user movement analysis apparatus using same and computer readable recording medium recording same
JP2015201193A (en) * 2014-04-09 2015-11-12 英懋達光電股▲ふん▼有限公司Inventec Energy Corporation Image recognition device and image recognition method
CN103327232B (en) * 2012-03-21 2016-11-30 卡西欧计算机株式会社 Image processing apparatus and image processing method
CN110148454A (en) * 2019-05-21 2019-08-20 上海联影医疗科技有限公司 A kind of pendulum position method, apparatus, server and storage medium
KR20220067741A (en) * 2020-11-18 2022-05-25 정의정 Pipeline for video based golf posture analysis and posture correction technique using thereof

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010521331A (en) * 2007-03-02 2010-06-24 マーベル ワールド トレード リミテッド Dynamic dithering of images
US8297858B1 (en) 2007-03-02 2012-10-30 Marvell International Ltd. Managing project information with a hand-propelled device
US8485743B1 (en) 2007-03-02 2013-07-16 Marvell International Ltd. Managing project information with a hand-propelled device
US8614826B2 (en) 2007-08-07 2013-12-24 Marvell World Trade Ltd. Positional data error correction
JP2010535118A (en) * 2007-08-07 2010-11-18 マーベル ワールド トレード リミテッド Error correction of position data
US8325379B2 (en) 2007-08-07 2012-12-04 Marvell World Trade Ltd. Positional data error correction
JP2010082430A (en) * 2008-09-02 2010-04-15 Yokohama Rubber Co Ltd:The Method of selecting golf club and system for selecting golf club
JP2010155074A (en) * 2008-12-04 2010-07-15 Yokohama Rubber Co Ltd:The Method of selecting golf club
JP2012058136A (en) * 2010-09-10 2012-03-22 Tamaya Keisoku Syst Kk Displacement measuring device and displacement measuring method for dam body
JP2012110594A (en) * 2010-11-26 2012-06-14 Bridgestone Corp Classification method, classification system, analysis device and program for golf swing
CN102527017A (en) * 2010-11-26 2012-07-04 株式会社普利司通 Golf swing classification method, system, device, and program
CN103327232A (en) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 Image processing apparatus and image processing method
JP2013192804A (en) * 2012-03-21 2013-09-30 Casio Computer Co Ltd Image processing apparatus, image processing method and program
US20130250118A1 (en) * 2012-03-21 2013-09-26 Casio Computer Co., Ltd. Image processing apparatus for correcting trajectory of moving object in image
CN103327232B (en) * 2012-03-21 2016-11-30 卡西欧计算机株式会社 Image processing apparatus and image processing method
WO2015093827A1 (en) * 2013-12-16 2015-06-25 (주)골프존 User movement recognition method using depth image analysis, user movement analysis apparatus using same and computer readable recording medium recording same
JP2015201193A (en) * 2014-04-09 2015-11-12 英懋達光電股▲ふん▼有限公司Inventec Energy Corporation Image recognition device and image recognition method
CN110148454A (en) * 2019-05-21 2019-08-20 上海联影医疗科技有限公司 A kind of pendulum position method, apparatus, server and storage medium
KR20220067741A (en) * 2020-11-18 2022-05-25 정의정 Pipeline for video based golf posture analysis and posture correction technique using thereof
KR102554552B1 (en) 2020-11-18 2023-07-11 정의정 Pipeline for video based golf posture analysis and posture correction technique using thereof

Also Published As

Publication number Publication date
JP4205004B2 (en) 2009-01-07

Similar Documents

Publication Publication Date Title
JP4708752B2 (en) Information processing method and apparatus
JP4757142B2 (en) Imaging environment calibration method and information processing apparatus
US7671875B2 (en) Information processing method and apparatus
JP4532982B2 (en) Arrangement information estimation method and information processing apparatus
US8081815B2 (en) Marker arrangement information measuring apparatus and method
JP4785416B2 (en) Position and orientation measurement method and apparatus
JP7238060B2 (en) Information processing device, its control method, and program
JP2017129567A (en) Information processing apparatus, information processing method, and program
JP2011238222A5 (en)
JP4205004B2 (en) Calibration method
JP2009017480A (en) Camera calibration device and program thereof
JP4109075B2 (en) Method for measuring the rotation characteristics and flight characteristics of a sphere, and a device for measuring the rotation characteristics and flight characteristics of a sphere
JP4095320B2 (en) Sensor calibration device, sensor calibration method, program, storage medium
CN110648362A (en) Binocular stereo vision badminton positioning identification and posture calculation method
JP2017122690A (en) Method for correcting coordinates of human being measuring system
JP2005351886A (en) Position attitude measuring method and information processing device
CN109813283A (en) Three-dimensional camera and stereophotogrammetric survey method
JP2003308514A (en) Information processing method and information processing device
JP4667900B2 (en) 3D analysis method from 2D image and system to execute it
JP2021009557A (en) Information processing device, information processing method, and program
CN116474332A (en) System and method for measuring 3D attributes using computer vision
CN111860275B (en) Gesture recognition data acquisition system and method
JP6710961B2 (en) Golf swing analysis method
TWI799184B (en) Device and method for calculating spin of golf ball moved by hitting
KR101767954B1 (en) Method of detecting recording location for golf swing, method of displaying golf swing, golf swing analysis system performing the same and mobile system performing the same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050817

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4205004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees