JP2005270484A - Calibration method - Google Patents
Calibration method Download PDFInfo
- Publication number
- JP2005270484A JP2005270484A JP2004090814A JP2004090814A JP2005270484A JP 2005270484 A JP2005270484 A JP 2005270484A JP 2004090814 A JP2004090814 A JP 2004090814A JP 2004090814 A JP2004090814 A JP 2004090814A JP 2005270484 A JP2005270484 A JP 2005270484A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- point
- distance
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、キャリブレーション方法に関し、詳しくは、ゴルフスウィング中の画像上における注目点の位置座標を適切に校正して認識する方法に関する。 The present invention relates to a calibration method, and more particularly, to a method for properly calibrating and recognizing the position coordinates of a point of interest on an image during golf swing.
従来、ゴルファーの打撃時のスウィングを撮影し、打球の飛距離や軌道等の各種情報をコンピュータで自動的に算出してゴルファーに表示可能とする装置が各種提供されている。
例えば、特許第2794018号で開示された動作診断装置では、ゴルフクラブヘッドおよび被診断者の体に複数の動作ポイントを設け、スウィング動画像中の動作ポイントの座標を取得してスウィング診断を行っている。
2. Description of the Related Art Conventionally, various devices have been provided that can capture a swing when a golfer is hit, and automatically calculate various information such as a flying distance and a trajectory of the hit ball and display it on a golfer.
For example, in the motion diagnostic device disclosed in Japanese Patent No. 2779418, a plurality of motion points are provided on the body of the golf club head and the person to be diagnosed, and the coordinates of the motion points in the swing moving image are acquired to perform the swing diagnosis. Yes.
しかしながら、上記公報では動作ポイントの位置座標を画像上から取得する際には、画像が平面情報であるために平面座標しか取得できない。従って、動作ポイントの画像上の奥行き方向の位置座標や距離を得ることができないので、三次元的な位置座標を用いた診断項目を設けることができず、あるいは、平面座標から無理に三次元的処理を行おうとすれば診断の誤差が大きくなる問題がある。 However, in the above publication, when the position coordinates of the operation point are acquired from the image, only the plane coordinates can be acquired because the image is plane information. Therefore, since the position coordinates and distances in the depth direction on the image of the operation point cannot be obtained, it is not possible to provide diagnostic items using three-dimensional position coordinates, or forcibly three-dimensionally from the plane coordinates. If processing is to be performed, there is a problem that the error in diagnosis increases.
一般に、二次元画像から三次元位置座標を算出する手法として、三次元CG等で使用されているDLT法(Direct Linear Transformation)が知られている。DLT法とは、複数台のカメラを利用して、実空間内に設置された複数のコントロールポイントを予め撮影し、複数台のカメラで撮影したコントロールポイントの位置座標から11連立方程式を解くことにより、二次元座標と三次元座標の関係を取得することで、別途、複数のカメラで撮影した同一点の複数の二次元座標を利用して三次元座標を取得する方法である。 In general, a DLT method (Direct Linear Transformation) used in 3D CG or the like is known as a method for calculating 3D position coordinates from a 2D image. The DLT method uses a plurality of cameras to photograph a plurality of control points installed in real space in advance, and solves 11 simultaneous equations from the position coordinates of the control points photographed by the plurality of cameras. In this method, the relationship between the two-dimensional coordinates and the three-dimensional coordinates is acquired, and the three-dimensional coordinates are separately acquired using a plurality of two-dimensional coordinates of the same point photographed by a plurality of cameras.
しかしながら、DLT法では三次元空間上に6点以上のコントロールポイントが必要となり、計測準備が非常に手間になったり、キャリブレーション用の治具が大きくなってしまうので、コントロールポイントを増加させずに平面画像から三次元位置座標を簡便に取得できる方法の提供が求められる。
本発明は、前記問題に鑑みてなされたもので、カメラで撮影された画像から三次元的な距離や角度を簡便に取得する方法を提供することを課題としている。 The present invention has been made in view of the above problems, and an object thereof is to provide a method for easily obtaining a three-dimensional distance and angle from an image photographed by a camera.
前記課題を解決するため、本発明は、ゴルフクラブを把持してスウィングするゴルファーを撮影してコンピュータに取り込み、撮影された画像上に映された注目点の位置情報を前記コンピュータで校正して実際の位置情報を取得する方法であって、
スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、前記変換率を画像上のピクセル距離に乗じることで実際の距離を算出することを特徴とするキャリブレーション方法を提供している。
In order to solve the above-mentioned problems, the present invention captures a golfer who holds a golf club and swings it, captures it into a computer, and calibrates position information of a point of interest displayed on the captured image with the computer. A method for acquiring location information of
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. There is provided a calibration method characterized in that a conversion rate to be converted into position information is calculated, and an actual distance is calculated by multiplying the conversion rate by a pixel distance on an image.
画像上では立体の実空間が平面化されて映し出されるため、画像上のピクセル位置情報は必ずしも実際の正しい位置情報と一致しないが、前記構成とすると、スウィング空間に設けられたフレームの奥行き方向の縮尺度合いを用いて画像上のピクセル位置情報を実際の位置情報に換算する変換率を簡易に求めることができる。したがって、画像での位置情報を簡単にキャリブレーションして実際の距離を算出することができる。
なお、ゴルファーがスウィングする前の段階で前記フレームを撮影して予め前記変換率を求めておき、ゴルファーが実際にスウィングする際には前記フレームを地面から撤去しておいてもよい。
Since the three-dimensional real space is projected and projected on the image, the pixel position information on the image does not necessarily match the actual correct position information. However, with the above configuration, the depth direction of the frame provided in the swing space is not the same. The conversion rate for converting the pixel position information on the image into the actual position information using the reduced scale can be easily obtained. Therefore, the actual distance can be calculated by simply calibrating the position information in the image.
Note that the conversion rate may be obtained in advance by photographing the frame before the golfer swings, and the frame may be removed from the ground when the golfer actually swings.
前記フレームは仮想フレームとし、該仮想フレームの形の頂点となる位置の地面にマークを設置している。 The frame is a virtual frame, and a mark is placed on the ground at a position that is a vertex of the shape of the virtual frame.
前記構成とすると、ゴルファーがスウィング動作する地面に枠状のフレームを設けなくても、頂点となる位置にそれぞれマークを設けるだけで、頂点を結んだ仮想フレームを想定することができる。 With the above-described configuration, even if a frame-like frame is not provided on the ground on which the golfer performs a swing operation, a virtual frame connecting the vertices can be assumed by only providing marks at positions that become the vertices.
前記フレームを構成する直線のうち、画像奥行きに対向配置された2つの直線上の前記変換率を平均することで、前記フレーム内の変換率を求めている。 The conversion rate in the frame is obtained by averaging the conversion rates on two straight lines arranged opposite to the image depth among the straight lines constituting the frame.
前記構成とすると、フレームを構成する2つの直線の変換率を求めてそれらの平均をとるだけで、非常に簡易にフレーム内の平均の変換率を求めることができる。 With the above configuration, the average conversion rate in the frame can be obtained very simply by simply obtaining the conversion rates of the two straight lines constituting the frame and averaging them.
また、2つの前記注目点の間の実際の距離は、前記画像上での2つの注目点の間のピクセル距離に前記変換率を乗じて求めているとよい。 The actual distance between the two points of interest may be obtained by multiplying the pixel distance between the two points of interest on the image by the conversion rate.
あるいは、前記フレーム内の領域を複数のブロックに分割し、
前記ブロックを構成する直線のうち、画像奥行きに対向配置された2つの直線上の変換率を平均することで、前記ブロック内の変換率を求めても好適である。
Alternatively, the area in the frame is divided into a plurality of blocks,
It is also preferable to obtain the conversion rate in the block by averaging the conversion rates on the two straight lines arranged opposite to the image depth among the straight lines constituting the block.
即ち、フレーム内の変換率を1つで済ますのではなく、フレームを複数分割したブロックを設けて各ブロックに対応する複数の変換率を求めておくことで、注目点の存在する位置に対応して最適な変換率を選択して適応することができ、簡便で且つ精度向上を図ることができる。
なお、前記ブロックは、前記ゴルファーの足シルエットを基準として前記フレーム内の領域をブロック分割して形成されていると好適である。
さらに、2つの前記注目点の間の実際の距離は、各注目点が属する前記ブロック毎の変換率を平均して前記画像上での各注目点間のピクセル距離に乗じて求めているとよい。
In other words, instead of using only one conversion rate within a frame, it is possible to provide a plurality of conversion rates corresponding to each block by providing a block obtained by dividing a frame into a plurality of blocks, so that it corresponds to the position where the point of interest exists. Therefore, the optimum conversion rate can be selected and applied, and the accuracy can be improved easily.
It is preferable that the block is formed by dividing an area in the frame into blocks based on the golfer's foot silhouette.
Furthermore, the actual distance between the two points of interest may be obtained by averaging the conversion rates of the blocks to which the points of interest belong and multiplying the pixel distance between the points of interest on the image. .
また、前記フレームを構成する少なくとも2本の直線を利用して、線形補間によりフレーム内の変換率を求めても好適である。
このように、フレームを構成する直線の変換率を利用しながらフレーム内の各位置での変換率を線形的に補間しながら求めることで、画像奥行き方向に線形的に変化する変換率が取得でき、ピクセル距離から実際の距離への換算の精度を向上させることができる。
It is also preferable to obtain the conversion rate in the frame by linear interpolation using at least two straight lines constituting the frame.
In this way, the conversion rate that varies linearly in the image depth direction can be obtained by calculating the conversion rate at each position in the frame while linearly interpolating the conversion rate of the straight lines that make up the frame. The accuracy of conversion from the pixel distance to the actual distance can be improved.
2つの前記注目点の間の実際の距離は、画像上で一方の注目点を他方の注目点を構成する面に投影し、該投影点と他方の注目点との距離に、他方の注目点の前記変換率を乗じて求めることとすれば、画像奥行き方向に位置の異なる2点間の距離を算出することができる。 The actual distance between the two points of interest is calculated by projecting one point of interest on the surface of the other point of interest on the image, and the distance between the projected point and the other point of interest. If the above conversion rate is multiplied, the distance between two points having different positions in the image depth direction can be calculated.
また、画像上に存在する面あるいは線と前記注目点との間の実際の距離は、
前記注目点を前記面あるいは線を構成する面に投影し、該投影点と前記面あるいは線との距離に前記面上の変換率を乗じて求めることとすれば、画像奥行き方向に位置の異なる点と面(線)との距離を算出することができる。
The actual distance between the surface or line existing on the image and the point of interest is
If the point of interest is projected onto the surface constituting the surface or line, and the distance between the projected point and the surface or line is obtained by multiplying the conversion rate on the surface, the position differs in the image depth direction. The distance between a point and a surface (line) can be calculated.
前記画像上で、前記フレームの奥行き方向の辺である直線をそれぞれ奥行き方向に延長して交差する点を消失点とし、該消失点から鉛直方向に垂直線を下ろし、前記注目点と該垂直線との間の距離により各注目点間の距離を換算している。 On the image, the points that intersect the straight lines that are the sides in the depth direction of the frame in the depth direction are defined as vanishing points, a vertical line is dropped from the vanishing point in the vertical direction, and the attention point and the vertical lines The distance between each point of interest is converted according to the distance between them.
前記構成とすると、画像上で消失点からの垂直線を基準とすることで、各注目点の間の距離を間接的に求めることができる。 With the above configuration, the distance between the points of interest can be obtained indirectly by using the vertical line from the vanishing point on the image as a reference.
前記フレームは、前記ゴルフクラブの一部の軌跡が含まれる範囲に設定されている。
特に、前記ゴルフクラブのヘッド部の軌跡が含まれる範囲に前記フレームを設定すると好ましい。
即ち、ゴルフクラブのヘッド部が一番大回りをして動作するため、そのヘッド部の軌跡が含まれるようにフレームの大きさを設定しておけば、フレーム内の変換率を用いてスウィング動作中の注目点の位置をほぼカバーすることができる。
The frame is set in a range including a part of the golf club.
In particular, it is preferable to set the frame within a range that includes the locus of the head portion of the golf club.
In other words, since the head part of the golf club operates with the maximum rotation, if the frame size is set so that the locus of the head part is included, the swing operation is performed using the conversion rate in the frame. The position of the point of interest can be almost covered.
前記フレームの飛球線方向に直交する方向の辺の長さをW1、飛球線方向の辺の長さをW2とすると、W1/W2=1〜10としていると好ましい。
即ち、スウィング軌道は飛球線方向に大きくなる傾向にあるので、前記比率とすることで効率的にフレームの大きさを決定することができる。
If the length of the side in the direction orthogonal to the flying line direction of the frame is W1, and the length of the side in the flying line direction is W2, it is preferable that W1 / W2 = 1 to 10.
That is, since the swing trajectory tends to increase in the flying ball direction, the frame size can be determined efficiently by using the ratio.
前記フレームの大きさは、前記フレームの辺をゴルファーの両足の中心の中点を基点として飛球線方向にh:iで分けたとき、h/i=1〜3としている。
即ち、前記比率とすることで、ゴルファーの立ち位置を基準にしてスウィング軌道がフレーム内に含まれるよう効率的にフレームの大きさを決定することができる。
The size of the frame is h / i = 1 to 3 when the sides of the frame are divided by h: i in the flying ball direction from the midpoint of the center of the golfer's feet.
That is, by setting the ratio, the frame size can be determined efficiently so that the swing track is included in the frame with reference to the standing position of the golfer.
前記フレームの大きさは、前記フレームの辺をゴルファーの足を基点として飛球線方向に直交する方向にj:kで分けたとき、j/k=1〜10としている。
即ち、前記比率とすることで、ゴルファーの立ち位置を基準にしてスウィング軌道がフレーム内に含まれるよう効率的にフレームの大きさを決定することができる。
The size of the frame is j / k = 1 to 10 when the sides of the frame are divided by j: k in a direction perpendicular to the flying ball direction with the golfer's foot as a base point.
That is, by setting the ratio, the frame size can be determined efficiently so that the swing track is included in the frame with reference to the standing position of the golfer.
また本発明は、ゴルフクラブを把持してスウィングするゴルファーを撮影してコンピュータに取り込み、撮影された画像上に映された注目点の位置情報を前記コンピュータで校正して実際の位置情報を取得する方法であって、
2方向から撮影した画像上の同一平面に存在する少なくとも4点について、該2方向の夫々の画像間における位置座標の対応関係を表す射影変換行列を予め求めておき、
一方向側の画像上において前記注目点を通り奥行き方向を表す垂直ラインを前記射影変換行列により他方向側の画像上において水平なラインに変換し、他方向側の画像上で前記注目点を通る垂直ラインと前記水平なラインとの交点を求めて画像上の前記平面での位置座標を取得し、
この位置座標を、画像と実空間との間における位置座標の対応関係を表わす別の射影変換行列を用いて実空間上の位置座標に変換して、前記注目点の実空間座標を求めていることを特徴とするキャリブレーション方法を提供している。
According to the present invention, a golfer who holds and swings a golf club is photographed and loaded into a computer, and the position information of a point of interest displayed on the photographed image is calibrated by the computer to obtain actual position information. A method,
For at least four points existing in the same plane on the image taken from two directions, a projection transformation matrix representing the correspondence relationship of the position coordinates between the images in the two directions is obtained in advance.
A vertical line representing the depth direction passing through the attention point on the image on one direction side is converted into a horizontal line on the image on the other direction side by the projective transformation matrix, and passes through the attention point on the image on the other direction side. Obtain the position coordinates on the plane on the image by finding the intersection of the vertical line and the horizontal line,
The position coordinates are converted into the position coordinates on the real space using another projective transformation matrix representing the correspondence relationship between the position coordinates between the image and the real space, and the real space coordinates of the attention point are obtained. A calibration method characterized by the above is provided.
前記構成とすると、2方向の画像を用いるだけで、画像上に映された計測対象の注目点の位置座標をキャリブレーションして実空間における位置座標を取得することができる。 With this configuration, the position coordinates in the real space can be acquired by calibrating the position coordinates of the target point of the measurement target displayed on the image, using only images in two directions.
前記注目点は2点とし、該2点間の距離あるいは/および角度を求めていると好ましい。
即ち、2点間の距離や角度を実空間座標で求めることで、インパクト前後のスウィング軌道等の診断に役立てることができる。
It is preferable that the attention point is two points, and the distance or / and angle between the two points is obtained.
That is, by obtaining the distance and angle between two points using real space coordinates, it can be used for diagnosis of a swing trajectory before and after impact.
スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、
前記一方向側の画像上において前記注目点の特定の座標軸方向へのピクセル距離を求め、該ピクセル距離に前記変換率を乗じることで、前記注目点の実空間での三次元位置座標を取得している。
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. Calculate the conversion rate to convert to location information,
A three-dimensional position coordinate in the real space of the target point is obtained by obtaining a pixel distance in the direction of a specific coordinate axis of the target point on the one-direction image and multiplying the pixel distance by the conversion rate. ing.
前記構成とすると、例えば、地面をZ方向(鉛直方向)の原点として、原点から注目点へのZ軸方向のピクセル距離を画像上で求めれば、注目点の存在する位置の変換率を当該ピクセル距離に乗じるだけで実空間でのZ位置座標を取得することができ、三次元位置座標を算出することができる。なお、前記変換率としては、上述した線形補間により求められたものを用いると好適である。 With the above configuration, for example, if the pixel distance in the Z-axis direction from the origin to the point of interest is obtained on the image with the ground as the origin in the Z direction (vertical direction), the conversion rate of the position where the point of interest exists is calculated. By simply multiplying the distance, the Z position coordinates in the real space can be acquired, and the three-dimensional position coordinates can be calculated. In addition, it is suitable to use what was calculated | required by the linear interpolation mentioned above as the said conversion rate.
また本発明は、上記キャリブレーション方法を用い、
前記注目点は前記ゴルファーの関節とし、一の関節と他の関節またはゴルフクラブシャフトとの距離、あるいは、一の関節と別の時刻の関節またはゴルフクラブシャフトとの距離を求めていることを特徴とするゴルフスウィング計測システムを提供している。
Further, the present invention uses the above calibration method,
The point of interest is the golfer's joint, and the distance between one joint and another joint or golf club shaft, or the distance between one joint and a joint or golf club shaft at another time is obtained. Provides a golf swing measurement system.
以上の説明より明らかなように、本発明によれば、スウィング空間に設けられたフレームの奥行き方向の縮尺度合いを用いて画像上のピクセル位置情報を実際の位置情報に換算する変換率を簡易に求めることができ、画像での位置情報を簡単にキャリブレーションして実際の距離を算出することができる。 As is clear from the above description, according to the present invention, the conversion rate for converting the pixel position information on the image into the actual position information can be simplified by using the reduced scale in the depth direction of the frame provided in the swing space. The actual distance can be calculated by easily calibrating the position information in the image.
本発明の第1実施形態を図面を参照して説明する。
図1はゴルフスウィング計測システムの概略図を示し、コンピュータ16と、該コンピュータ16に接続された表示手段であるモニター17と、コンピュータ16に接続された入力手段であるキーボード18およびマウス19と、コンピュータ16に接続されゴルファー11の正面位置および飛球線後方(側面)位置に設置されたカラーCCDカメラ14、15とを備えている。
A first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram of a golf swing measurement system. A
地面にはゴルファー11が立つスウィング位置の周囲に枠状のフレーム20が設置されている。フレーム20は地面と異なる色であると共に、点A〜Dの四点を頂点とする四角形状であり、図2に示すように、直線ABおよび線CDの長さはW1、直線BCおよび直線ADの長さはW2とし、W1/W2=1〜10の範囲としている。また、フレーム20内でのゴルファー11の立ち位置は、図3(A)(B)に示すように、直線CDおよび直線ADがゴルファー11の両足22の中点で分けられる比h/iが1〜3となるように設定していると共に、直線ABおよび直線CDがゴルファー11の両足22の中心で分けられる比k/jが1〜10となるように設定している。
A frame-shaped
被診断者となるゴルファー11は、関節位置に色付マーク(注目点)P、Qが付された上着である計測用服12を私服の上から着用している。ゴルファー11の把持するゴルフクラブ13のシャフト13aには間隔をあけて3つのクラブ用色付マークCM1、CM2、CM3が取り付けられている。クラブ用色付マークCM1〜CM3は、グリップ側からヘッド13b側にかけて等間隔に取り付けている。
A
コンピュータ16は、カラーCCDカメラ14、15とLANケーブルやIEEE1394やCameraLink規格等を用いてオンライン接続されており、カラーCCDカメラ14、15で撮影されたスウィング動画像(複数の静止画像)および背景画像をコンピュータ16のハードディスクやコンピュータ16上のメモリやボード上のメモリに保存している。また、コンピュータ16には、静止画像の各ピクセルについて色情報に関する特定の閾値で二値化処理を行って閾値を満たすピクセルをクラブ用色付マークCM1〜CM3の位置として座標データを取得する手段と、クラブ用色付マークCM1〜CM3の座標データを基にしてシャフト13aの動きを認識する手段と、ゴルファー11の色付マークP、Qを認識する手段とを備えたプログラムを内蔵している。
The
ゴルファー11が試打を行い、カラーCCDカメラ14、15からスウィング動画像の各コマ毎の静止画像をコンピュータ16に取り込んでハードディスクあるいはコンピュータ16内のメモリあるいはボード上のメモリに保存し、カラーCCDカメラ14で撮影された正面画像およびカラーCCDカメラ15で撮影された側面画像において、クラブ用色付マークCM1〜CM3やゴルファー11の色付マークP、Qを認識し、後述するキャリブレーション処理により各マークの三次元位置座標を認識する。
The
次に、静止画像上で認識されたマークP、Qの間のピクセル距離aを正しい距離Lにキャリブレーション(校正)する方法について説明する。
図4は正面画像を示しているが、直線ADと直線BCは実際の長さW2は等しいにも関わらず、画像上では奥行き側の直線BCの方が短く映されることなるので、画像上の距離を実際の距離に換算する変換率を求めることとする。
本実施形態では、前記変換率としてフレーム20内の領域の平均変換率を求めて各マークの距離換算に適用することとしている。つまり、本手法はゴルファー11がフレーム20領域のほぼ中心でスウィング動作を行っていることを利用した簡易キャリブレーション方法ということができる。
Next, a method for calibrating the pixel distance a between the marks P and Q recognized on the still image to the correct distance L will be described.
Although FIG. 4 shows a front image, although the straight line AD and the straight line BC have the same actual length W2, the straight line BC on the depth side appears shorter on the image. The conversion rate for converting the distance to the actual distance is obtained.
In the present embodiment, the average conversion rate of the region in the
フレーム20内の平均変換率sfave[cm/ピクセル]は、直線BCおよび直線ADの実測長さをW2[cm]、直線BCの画像上の長さをM1[ピクセル]、直線ADの画像上の長さをM2[ピクセル]とすると、以下の数式1で求められる。
したがって、マークPとマークQとの間のキャリブレーション後の距離L[cm]は、画像上のPQ間距離をa[ピクセル]とすると以下の数式2で簡単に求めることができる。
また、図5に示すように、直線ABの延長線と直線CDの延長線との交点を消失点Sとして取得し、その消失点Sからボール22まで引いた直線21を用いることで、ボール22の位置が適切かどうかを判断することができる。具体的には、ゴルファー11のシルエットの踵と直線21との距離を求めることで、ゴルファー11の足に対するボール22の設置位置を把握することができる。
Further, as shown in FIG. 5, the intersection point between the extension line of the straight line AB and the extension line of the straight line CD is acquired as the vanishing point S, and the
なお、画像上におけるフレーム20の認識方法は、オペレータがマウス等を用いて手動で認識させてもよいが、画像処理により自動で認識すると好適である。以下、後者のフレーム自動認識方法について説明する。
フレーム20の色を地面や近傍の色と相違させておき、画像上の各ピクセルについて色情報に関する特定の閾値で二値化処理を行い、閾値を満たすピクセルをフレーム20であると認識してフレーム20位置情報を取得する。二値化処理の方法としては、色情報としてRGB値やYIQ値や色相・彩度・明度等を用い、フレーム20の同一の色であるとみなすことのできる閾値を設定するとよい。また、ハフ変換を用いてフレーム20を構成する直線を抽出してもよい。
Note that the method of recognizing the
The color of the
あるいは、図6に示すように、仮想フレーム20’を構成する4つの頂点A〜Dに色マークを設置すると共に、色マークA〜Dを周辺色と異なる配色とし、画像上の各ピクセルについて色情報に関する特定の閾値で二値化処理を行い、閾値を満たすピクセルを色マークA〜Dであると認識してフレーム頂点の位置座標を取得し、各色マークを結ぶことで仮想フレーム20’の位置情報を取得するようにしてもよい。なお、フレーム頂点に設置する色マークは直径3cm程の球状体あるいは一辺3cm程の立方体など、色抽出しやすい形であれば何でも良い。
Alternatively, as shown in FIG. 6, color marks are installed at the four vertices A to D constituting the
図7および図8は第2実施形態を示す。
第1実施形態との相違点は、変換率としてフレーム20内の平均変換率を用いずに、フレーム20を複数のブロックに分割して、各ブロック毎に変換率を求めている点である。
7 and 8 show a second embodiment.
The difference from the first embodiment is that the conversion rate is calculated for each block by dividing the
図7(A)は正面画像、図7(B)は側面画像を示し、画像に映されたフレーム20を消失点Sを通過する2本の線で直線BCおよび直線ADを等分割すると共に、水平方向の2本の線で直線ABおよび直線CDを等分割し、フレーム20をブロック1〜ブロック9に9分割する。
まず、正面画像上で認識されたマークPを通過する垂直線23を引き、この垂直線23が通過するブロック2、5、8を記憶する。次いで、側面画像上で認識されたマークPを通過する垂直線24を引き、この垂直線24が通過するブロック1、2、3、4を記憶する。
FIG. 7A shows a front image, FIG. 7B shows a side image, and the straight line BC and the straight line AD are equally divided by two lines passing through the vanishing point S in the
First, the
上記正面画像と側面画像とで共通して記憶されたブロック2をマークPが存在するブロックであると決定し、マークPに関してはブロック2に関する変換率sfB2[cm/ピクセル]を用いることとする。なお、ブロック毎の変換率の算出方法は、第1実施形態のフレーム20内の平均変換率の算出方法を用い、フレームをブロックに置き換えて適用することで容易に算出される。
The
次に、マークPとマークQとの間のキャリブレーション後の距離L[cm]を求める。
(1)マークPとマークQとが同一ブロック内に存在する場合は、当該ブロックの変換率をsfB[cm/ピクセル]、画像上のP、Q間距離をa[ピクセル]とすると、以下の数式3でキャリブレーション後の距離L[cm]を算出することができる。
(1) When the mark P and the mark Q exist in the same block, assuming that the conversion rate of the block is sf B [cm / pixel] and the distance between P and Q on the image is a [pixel], The distance L [cm] after the calibration can be calculated by using
(2)マークPとマークQが隣合うブロックにそれぞれ存在する場合、例えば、マークPはブロック2に存在する一方、マークQはブロック1に存在する場合は、ブロック2の変換率をsfB2[cm/ピクセル]、ブロック1の変換率をsfB1[cm/ピクセル]とすると、以下の数式4でキャリブレーション後の距離L[cm]を算出することができる。
(3)マークPとマークQが隣合わないブロックにそれぞれ存在する場合、例えば、マークPはブロック2に存在する一方、マークQはブロック7に存在する場合は、図8に示すように、マークQが存在するブロック7とそれに横並びするブロック8、9を通る垂直面にマークPを投影した点P’を用い、P’Q間距離をa’[ピクセル]、ブロック7、8、9の変換率をsfQ[cm/ピクセル]として、以下の数式5でキャリブレーション後の距離L[cm]を求めることができる。
ここで、点P’の決定方法について説明すると、まず、マークPから鉛直方向の垂直線を下して点P1を求める。但し、マークPの地面上のラインはブロック2の中心から水平に横断するラインとする。次いで、消失点Sと点P1とを結ぶ線SP1の延長線と、ブロック7、8、9の中心を水平に横断するラインと交わる点を点P2とする。そして、消失点SとマークPとを結ぶ線SPの延長線と、点P2を通る垂直線とが交わる点を点P’として決定する。なお、他の構成は第1実施形態と同様であるため説明を省略する。
Here, the determination method of the point P ′ will be described. First, the point P 1 is obtained by dropping a vertical line from the mark P in the vertical direction. However, the line on the ground of the mark P is a line horizontally traversing from the center of the
また、フレーム20内のブロック分割の変形例を図9(A)(B)に示す。本変形例ではフレーム20内を12個のブロック1〜12に分割している。
図9(A)の正面画像では、ゴルファー11の足シルエットの両側端の点25、26をそれぞれ消失点(図示せず)と結んだ線27、28と、足シルエットの両踵間の中点を消失点と結んだ線30と、踵29、30を通過して直線ADと平行な線34と、足シルエットの下端32を通過して直線ADと平行な線33とを用いてブロック分割している。
図9(B)の側面画像では、ゴルファー11の足シルエットの踵35を消失点(図示せず)と結んだ線38と、足シルエットの足先36と消失点と結んだ線39と、足先36、37を通過して直線ABと平行な線40、41と、両足先36、37間の中点を通過して直線ABと平行な線41とを用いてブロック分割している。
9A and 9B show a modification example of block division in the
In the front image of FIG. 9A, the
In the side image of FIG. 9B, a
図10乃至図13は第3実施形態を示す。
第1・第2実施形態との相違点は、フレーム20内やブロック内の平均的な変換率を用いずに、線形補間により正確に変換率を算出している点である。
10 to 13 show a third embodiment.
The difference from the first and second embodiments is that the conversion rate is accurately calculated by linear interpolation without using the average conversion rate in the
図10(B)に示すように、側面画像から見てマークPを通る垂直線がフレーム20を構成している直線CDをα:βで分ける場合、図10(A)に示すように、正面画像から見てマークPから垂線を下して地面と交点を通る直線BCと平行な線をEFとすると、正面画像の奥行き方向の長さは徐々に短くなるのでBE:AE=α:βにならず、BE:AE=α’:β’となる。ここで、直線BCの画像上の長さをM1[ピクセル]、直線ADの画像上の長さをM2[ピクセル]、線EFの画像上の長さをM3[ピクセル]とし、直線BCでの変換率をsfM1[cm/ピクセル]、直線ADでの変換率をsfM2[cm/ピクセル]とする。すると、線EFでの変換率をsfM3[cm/ピクセル]は以下の数式6で算出される。
ここで、数式6の右辺のうち未知の値はM3[ピクセル]である。このM3は以下の数式7で求めることができる。
次に、この数式7の右辺のα’、β’に関する算出手順について詳説する。
図11は天井側から見下ろした図を示し、カラーCCDカメラ14から見た奥行き方向をZ方向とし、飛球線方向をY方向とする。
点A、E、Bを通過する線をbY+cZ+d=0とすると(b、c、dは定数)、点AのY座標であるY0は数式8で求められる。
FIG. 11 shows a view looking down from the ceiling side, where the depth direction viewed from the
If a line passing through the points A, E, and B is bY + cZ + d = 0 (b, c, and d are constants), Y 0 that is the Y coordinate of the point A is obtained by
同様に、点EのY座標であるY1は数式9で求められる。
ここで、Y0、y0、f、Z0の関係は図12から分かるように数式10の関係式が成り立つ。なお、y0は点Aとカメラ14とを結ぶ線とY軸との交点のY座標、fはカメラ14とY軸との距離、Z0は点AのZ座標である。
よって、数式8と数式10とから数式11が導き出されると共に、数式9と数式10とから数式12が導き出される。なお、y1は点Eとカメラ14とを結ぶ線とY軸との交点のY座標、Z1は点EのZ座標である。
次いで、数式11と数式12とから以下の数式13が導き出される。
また、数式13と同様にして、数式14も導き出される。なお、y2は点Bとカメラ14とを結ぶ線とY軸との交点のY座標、Z2は点BのZ座標である。
Y軸上のy0、y1、y2はカメラ14に映った正面画像における点A、E、Bと考えることができるので、正面画像におけるα’、β’は以下の数式15で求めることができる。
ここで、数式15の右辺のうちZ0は実空間において実測して求めておき、また、Z1、Z2は以下の数式16、数式17で求めて代入することとする。
次に、図13(A)(B)に示すように、点と線(面)との距離の算出方法について説明する。
図13(A)に示すように、アドレス時の正面画像で認識されたクラブ用色付マークCM1〜CM3の位置からゴルフクラブ13のオリジナルシャフトラインSLを求める。また、クラブ用色付マークCM1〜CM3の位置と、クラブ用色付マークCM3とヘッド部13bとの距離とから、ゴルフクラブ13のヘッド部13bの位置を予測する。このヘッド部13bはアドレス状態では地面に位置すると考えることができるので、ヘッド部13bから下した垂線が直線ADを分ける比a:bを求める。また、マークPから下した垂線が直線ADを分ける比α:βを求める。そして、これら比a:bおよび比α:βより、上述した数式15と同様の原理でa’:b’およびα’:β’を求める。
Next, as shown in FIGS. 13A and 13B, a method for calculating the distance between a point and a line (surface) will be described.
As shown in FIG. 13A, the original shaft line SL of the
次いで、図13(B)に示す側面画像において、マークPから下した垂線とフレーム20をα’:β’に分ける線51との交点54を求め、該交点54と消失点Sとを結ぶ線52がフレーム20をa’:b’に分ける線53と交わる点55を求める。そして、点55を通る垂線と線50との交点を点P’とする。
よって、側面画像上でのオリジナルシャフトラインSLとマークP’との最短のピクセル距離を求め、該ピクセル距離に線53上での変換率を乗じることで、オリジナルシャフトラインSLとマークPとの実際の距離を求めることができる。
なお、本実施形態では点(マークP)と線(オリジナルシャフトラインSL)との距離を求めているが、点と面との距離も同様の手順で求めることができる。
Next, in the side image shown in FIG. 13B, an
Accordingly, the shortest pixel distance between the original shaft line SL and the mark P ′ on the side image is obtained, and the actual distance between the original shaft line SL and the mark P is obtained by multiplying the pixel distance by the conversion rate on the
In the present embodiment, the distance between the point (mark P) and the line (original shaft line SL) is obtained, but the distance between the point and the surface can be obtained in the same procedure.
図14は第4実施形態を示す。
本実施形態は、正面画像および側面画像を利用してゴルフクラブ13のヘッド部13bの実空間での位置座標を把握することによりインパクト前後のスウィング軌道を調べている。
FIG. 14 shows a fourth embodiment.
In the present embodiment, the swing trajectory before and after the impact is examined by grasping the position coordinates in the real space of the
(1)正面画像および側面画像上のヘッド位置の推定
まず、正面・側面画像についてクラブ用色付マークCM1〜CM3からヘッド部13bの位置座標を推定する。(なお、以降は、実空間での三次元座標を大文字X、Y、Zで表す一方、画像上での平面的な位置座標を小文字x、yで表すこととする。また、Xは飛球線方向、Yはゴルファーから見た前後方向、Zは鉛直方向、xは画像上の水平方向、yは画像上の垂直方向とする。)即ち、
(ヘッド部13bのx座標)
=(マークCM2のx)+n・{(マークCM3のx)−(マークCM2のx)}
=(1−n)・(マークCM2のx)+n ・(マークCM3のx)
と、
(ヘッド部13bのy座標)
=(マークCM2のy)+ n・{(マークCM3のy)−(マークCM3のy)}
=(1−n)・(マークCM2のy)+n・(マークCM3のy)
とにより、正面画像および側面画像のそれぞれについてヘッド部13bのx−y座標を算出する。但し、nは定数で正面画像の場合に2.1、側面画像の場合に1.8を用いている。
(1) Estimation of Head Position on Front and Side Images First, the position coordinates of the
(X coordinate of
= (X of mark CM2) + n · {(x of mark CM3) − (x of mark CM2)}
= (1-n) · (x of mark CM2) + n · (x of mark CM3)
When,
(Y coordinate of the
= (Y of mark CM2) + n · {(y of mark CM3) − (y of mark CM3)}
= (1-n) · (y of mark CM2) + n · (y of mark CM3)
The xy coordinates of the
上記算出されたヘッド部13の正面画像での位置座標を用いて、図14に示す正面画像において、インパクト前のヘッド部13bの位置60と、インパクト時のヘッド部13bの位置61と、インパクト後のヘッド部13bの位置62とを特定することができる。
これらヘッド位置60〜62を通過する垂直のライン63〜65を正面画像上に表示することで、インパクト前・インパクト・インパクト後の夫々におけるヘッド部13bの地面への投影点が存在する地面上のライン63〜65を認識することができたことになる。
Using the calculated position coordinates of the
By displaying the
(2)仮定
ヘッド部13bの三次元座標を推定するにあたり、以下の項目を仮定している。
仮定1:カメラは撮影した画像の座標系のx軸(横軸)が地面に対してほぼ平行であること。
仮定2:カメラの光軸は地面に対してほぼ平行であること
仮定3:2つのカメラは光軸方向をなす角度が45°以上好ましくはほぼ90°であること。
仮定4:三次元空間上のヘッド部13bを地面に投影した位置は、2次元画像のヘッド部13b位置を含む垂直なライン上に必ず存在すること。
仮定5:上記ラインは三次元空間におけるy軸方向とz軸方向のラインが重なっている。
仮定6:奥行き方向に対して垂直な平面上の変換率は同一である。
(2) Assumptions The following items are assumed when estimating the three-dimensional coordinates of the
Assumption 1: The camera has the x-axis (horizontal axis) of the coordinate system of the captured image substantially parallel to the ground.
Assumption 2: The optical axis of the camera is almost parallel to the ground. Assumption 3: The angle between the two cameras in the direction of the optical axis is 45 ° or more, preferably about 90 °.
Assumption 4: The position where the
Assumption 5: In the above-mentioned line, lines in the y-axis direction and the z-axis direction in the three-dimensional space overlap.
Assumption 6: The conversion rate on the plane perpendicular to the depth direction is the same.
(3)射影変換行列の同定
3.1 コントロールポイントの取得
フレーム20の頂点A〜Dの4箇所をコントロールポイントA〜Dとして正面・側面画像で対応するようにxy座標データを取得する。尚、この画像を取得するのは背景画像(人が入っていない画像)であることが好ましいが、スウィング中の画像から4点A〜Dを取得しても構わない。
(3) Identification of Projection Transformation Matrix 3.1 Acquisition of Control Point The xy coordinate data is acquired so that the four points of the vertices A to D of the
3.2 射影変換行列の算出
コントロールポイントA〜Dを利用して、正面画像の地面上に存在する直線を側面画像へ変換する行列(射影変換行列)を算出する。この際、コントロールポイント4点が同一の平面上に存在するので、仮定1〜3に示すようにカメラ設定を行うことによって連立方程式のパラメータ数は通常の11個から8個となり、対応点x、yが4組以上あれば射影変換行列を導出することができるが、本実施形態ではA〜Dの各点について正面と側面の4組存在するので行列を導出できる。詳しくは、射影変換行列をPとし、側面画像での対応点座標をx(x1,x2)、正面画像での対応点座標をy(y1,y2)、スケールファクタをsとすると数式18の行列式の関係が成り立つ。
ここで、対応点x、yについてコントロールポイントA〜Dの4組が与えられているので、前記数式18は、以下の数式19と表すことができる。
よって、4組の対応点の場合、前記数式19より以下の数式20のように、射影変換行列Pの線形式に直すことができる。
この関係式について、最小二乗法を利用し射影変換行列Pを算出する。
次いで、図14で求め仮定5からなる正面画像のライン63〜65上の全ての点を射影変換行列Pを用いて数式21により変換することで、図15に示す側面画像上においてライン63’〜65’とライン63”〜65”に分けることができる。
Next, all the points on the
(4)側面画像におけるヘッド部13bの地面位置(スウィング軌道)の推定
仮定4より、側面画像上おけるインパクト前・インパクト・インパクト後での夫々のヘッド位置66〜68を通る垂線63”〜65”と、正面画像から変換したライン63’〜65’との交点70〜72が、側面画像においてヘッド部13bを地面に投影したヘッド地面位置70〜72になる。
次に、側面画像において、画面上のフレーム20の4点A〜Dの位置座標と実空間での4点A〜Dの位置座標とを利用して上記(3)と同様の原理で射影変換行列を求める。この行列を利用して、先に取得した画面上のヘッド地面位置70〜72を実空間のヘッド地面位置に変換する。
(4) Estimation of the ground position (swing trajectory) of the
Next, in the side image, projective transformation is performed on the same principle as in (3) above using the position coordinates of the four points A to D of the
この変換後のヘッド地面位置を利用して、スウィング(ヘッド)の軌道を求めることができる。例えば、図16に示すように、変換後のインパクト前のヘッド地面位置70と、インパクト時のヘッド地面位置71とを結ぶ第1軌道線KL1の飛球線HLに対する角度θ1、および、インパクト後のヘッド地面位置72と、インパクト時のヘッド地面位置71とを結ぶ第2軌道線KL2の飛球線HLに対する角度θ2、を調べることで、スウィング軌道がアウトサイドイン、ストレート、インサイドアウトのいずれになっているかを診断することができる。
具体的には、θ1−θ2の値が、−5deg以下ならアウトサイドイン、−5deg〜10degならストレート、10deg以上ならインサイドアウトであると診断する。
The swing trajectory of the swing (head) can be obtained by using the converted head ground position. For example, as shown in FIG. 16, the angle θ1 of the first trajectory line KL1 connecting the
Specifically, if the value of θ1-θ2 is −5 deg or less, it is diagnosed as outside-in, if it is −5 deg to 10 deg, it is straight, and if it is more than 10 deg, it is diagnosed as inside-out.
(5)ヘッド部13bの3次元位置座標の推定
上記(4)までは地面上、即ち、地面に垂直なZ座標成分を0として扱ってきているが、ヘッド部13bのZ座標についても以下のようにして求めることができる。
三次元空間を、飛球線方向をX成分、ゴルファー11から見て奥行き方向をY成分、地面から垂直方向をZ成分とし、フレーム20の頂点を原点とした場合、X、Y成分は上記(4)の地面について側面画像から実空間へ変換した射影変換行列を利用する。
(5) Estimation of the three-dimensional position coordinate of the
In the three-dimensional space, when the flying ball direction is the X component, the depth direction viewed from the
例えば、インパクト前のヘッド位置66のZ座標は、仮定6に基づき、そのヘッド地面位置70を通る水平線がフレーム20に交わる点73と、ヘッド地面位置70とを含む垂直平面の変換率sfを第3実施形態の線形補間により求め、側面画面上で推定されたヘッド位置66とヘッド地面位置70との間のピクセル距離に前記変換率sfを掛ければヘッド位置66のZ座標位置も取得できる。
For example, the Z coordinate of the
11 ゴルファー
12 計測用服
13 ゴルフクラブ
13a シャフト
13b ヘッド部
14、15 カラーCCDカメラ
16 コンピュータ
20 フレーム
CM1〜CM3 クラブ用色付マーク
P、Q 色付マーク
DESCRIPTION OF
Claims (19)
スウィング実空間を構成する地面のゴルファーを包囲する位置にフレームを設け、
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、前記変換率を画像上のピクセル距離に乗じることで実際の距離を算出することを特徴とするキャリブレーション方法。 A method of capturing a golfer who grips and swings a golf club, capturing it in a computer, calibrating the position information of a point of interest displayed on the captured image with the computer, and obtaining actual position information,
A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. A calibration method characterized by calculating a conversion rate to be converted into position information and calculating an actual distance by multiplying the conversion rate by a pixel distance on the image.
前記ブロックを構成する直線のうち、画像奥行きに対向配置された2つの直線上の変換率を平均することで、前記ブロック内の変換率を求めている請求項1または請求項2に記載のキャリブレーション方法。 Dividing the region in the frame into a plurality of blocks;
The calibration according to claim 1 or 2, wherein a conversion rate in the block is obtained by averaging conversion rates on two straight lines arranged opposite to the image depth among straight lines constituting the block. Method.
前記注目点を前記面あるいは線を構成する面に投影し、該投影点と前記面あるいは線との距離に前記面上の変換率を乗じて求めている請求項8または請求項9に記載のキャリブレーション方法。 The actual distance between the surface or line present on the image and the point of interest is
The said attention point is projected on the surface which comprises the said surface or a line, The distance of this projection point and the said surface or a line is calculated | required by multiplying by the conversion rate on the said surface. Calibration method.
1〜10としている請求項1乃至請求項11のいずれか1項に記載のキャリブレーション方法。 If the length of one side of the frame is W1 and the length of the other side perpendicular to the frame is W2, W1 / W2 =
The calibration method according to claim 1, wherein the calibration method is 1 to 10.
2方向から撮影した画像上の同一平面に存在する少なくとも4点について、該2方向の夫々の画像間における位置座標の対応関係を表す射影変換行列を予め求めておき、
一方向側の画像上において前記注目点を通り奥行き方向を表す垂直ラインを前記射影変換行列により他方向側の画像上において水平なラインに変換し、他方向側の画像上で前記注目点を通る垂直ラインと前記水平なラインとの交点を求めて画像上の前記平面での位置座標を取得し、
この位置座標を、画像と実空間との間における位置座標の対応関係を表わす別の射影変換行列を用いて実空間上の位置座標に変換して、前記注目点の実空間座標を求めていることを特徴とするキャリブレーション方法。 A method of capturing a golfer who grips and swings a golf club, capturing it in a computer, calibrating the position information of a point of interest displayed on the captured image with the computer, and obtaining actual position information,
For at least four points existing in the same plane on the image taken from two directions, a projection transformation matrix representing the correspondence relationship of the position coordinates between the images in the two directions is obtained in advance.
A vertical line that passes through the point of interest on the image in one direction and represents the depth direction is converted into a horizontal line on the image in the other direction by the projection transformation matrix, and passes through the point of interest on the image in the other direction. Obtain the position coordinates on the plane on the image by finding the intersection of the vertical line and the horizontal line,
The position coordinates are converted into the position coordinates on the real space using another projective transformation matrix representing the correspondence relationship between the position coordinates between the image and the real space, and the real space coordinates of the attention point are obtained. A calibration method characterized by that.
前記フレームを構成する少なくとも2つの直線を画像上で認識し、該2つの直線のスウィング実空間内での長さと画像上でのピクセル長さとを用いて、前記フレーム内におけるピクセル位置情報から実際の位置情報に換算する変換率を計算し、
前記一方向側の画像上において前記注目点の特定の座標軸方向へのピクセル距離を求め、該ピクセル距離に前記変換率を乗じることで、前記注目点の実空間での三次元位置座標を取得している請求項16または請求項17に記載のキャリブレーション方法。 A frame is provided at a position surrounding the golfer on the ground that constitutes the swing real space,
At least two straight lines constituting the frame are recognized on the image, and the actual length of the two straight lines in the swing real space and the pixel length on the image are used to calculate the actual position from the pixel position information in the frame. Calculate the conversion rate to convert to location information,
A three-dimensional position coordinate in the real space of the target point is obtained by obtaining a pixel distance in the direction of a specific coordinate axis of the target point on the one-direction image and multiplying the pixel distance by the conversion rate. The calibration method according to claim 16 or claim 17.
前記注目点は前記ゴルファーの関節とし、一の関節と他の関節またはゴルフクラブシャフトとの距離、あるいは、一の関節と別の時刻の関節またはゴルフクラブシャフトとの距離を求めていることを特徴とするゴルフスウィング計測システム。 Using the calibration method according to any one of claims 1 to 18,
The point of interest is the golfer's joint, and the distance between one joint and another joint or golf club shaft, or the distance between one joint and a joint or golf club shaft at another time is obtained. A golf swing measurement system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004090814A JP4205004B2 (en) | 2004-03-26 | 2004-03-26 | Calibration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004090814A JP4205004B2 (en) | 2004-03-26 | 2004-03-26 | Calibration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005270484A true JP2005270484A (en) | 2005-10-06 |
JP4205004B2 JP4205004B2 (en) | 2009-01-07 |
Family
ID=35170751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004090814A Expired - Fee Related JP4205004B2 (en) | 2004-03-26 | 2004-03-26 | Calibration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4205004B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010082430A (en) * | 2008-09-02 | 2010-04-15 | Yokohama Rubber Co Ltd:The | Method of selecting golf club and system for selecting golf club |
JP2010521331A (en) * | 2007-03-02 | 2010-06-24 | マーベル ワールド トレード リミテッド | Dynamic dithering of images |
JP2010155074A (en) * | 2008-12-04 | 2010-07-15 | Yokohama Rubber Co Ltd:The | Method of selecting golf club |
JP2010535118A (en) * | 2007-08-07 | 2010-11-18 | マーベル ワールド トレード リミテッド | Error correction of position data |
JP2012058136A (en) * | 2010-09-10 | 2012-03-22 | Tamaya Keisoku Syst Kk | Displacement measuring device and displacement measuring method for dam body |
JP2012110594A (en) * | 2010-11-26 | 2012-06-14 | Bridgestone Corp | Classification method, classification system, analysis device and program for golf swing |
US8297858B1 (en) | 2007-03-02 | 2012-10-30 | Marvell International Ltd. | Managing project information with a hand-propelled device |
CN103327232A (en) * | 2012-03-21 | 2013-09-25 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
WO2015093827A1 (en) * | 2013-12-16 | 2015-06-25 | (주)골프존 | User movement recognition method using depth image analysis, user movement analysis apparatus using same and computer readable recording medium recording same |
JP2015201193A (en) * | 2014-04-09 | 2015-11-12 | 英懋達光電股▲ふん▼有限公司Inventec Energy Corporation | Image recognition device and image recognition method |
CN103327232B (en) * | 2012-03-21 | 2016-11-30 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
CN110148454A (en) * | 2019-05-21 | 2019-08-20 | 上海联影医疗科技有限公司 | A kind of pendulum position method, apparatus, server and storage medium |
KR20220067741A (en) * | 2020-11-18 | 2022-05-25 | 정의정 | Pipeline for video based golf posture analysis and posture correction technique using thereof |
-
2004
- 2004-03-26 JP JP2004090814A patent/JP4205004B2/en not_active Expired - Fee Related
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521331A (en) * | 2007-03-02 | 2010-06-24 | マーベル ワールド トレード リミテッド | Dynamic dithering of images |
US8297858B1 (en) | 2007-03-02 | 2012-10-30 | Marvell International Ltd. | Managing project information with a hand-propelled device |
US8485743B1 (en) | 2007-03-02 | 2013-07-16 | Marvell International Ltd. | Managing project information with a hand-propelled device |
US8614826B2 (en) | 2007-08-07 | 2013-12-24 | Marvell World Trade Ltd. | Positional data error correction |
JP2010535118A (en) * | 2007-08-07 | 2010-11-18 | マーベル ワールド トレード リミテッド | Error correction of position data |
US8325379B2 (en) | 2007-08-07 | 2012-12-04 | Marvell World Trade Ltd. | Positional data error correction |
JP2010082430A (en) * | 2008-09-02 | 2010-04-15 | Yokohama Rubber Co Ltd:The | Method of selecting golf club and system for selecting golf club |
JP2010155074A (en) * | 2008-12-04 | 2010-07-15 | Yokohama Rubber Co Ltd:The | Method of selecting golf club |
JP2012058136A (en) * | 2010-09-10 | 2012-03-22 | Tamaya Keisoku Syst Kk | Displacement measuring device and displacement measuring method for dam body |
JP2012110594A (en) * | 2010-11-26 | 2012-06-14 | Bridgestone Corp | Classification method, classification system, analysis device and program for golf swing |
CN102527017A (en) * | 2010-11-26 | 2012-07-04 | 株式会社普利司通 | Golf swing classification method, system, device, and program |
CN103327232A (en) * | 2012-03-21 | 2013-09-25 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
JP2013192804A (en) * | 2012-03-21 | 2013-09-30 | Casio Computer Co Ltd | Image processing apparatus, image processing method and program |
US20130250118A1 (en) * | 2012-03-21 | 2013-09-26 | Casio Computer Co., Ltd. | Image processing apparatus for correcting trajectory of moving object in image |
CN103327232B (en) * | 2012-03-21 | 2016-11-30 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
WO2015093827A1 (en) * | 2013-12-16 | 2015-06-25 | (주)골프존 | User movement recognition method using depth image analysis, user movement analysis apparatus using same and computer readable recording medium recording same |
JP2015201193A (en) * | 2014-04-09 | 2015-11-12 | 英懋達光電股▲ふん▼有限公司Inventec Energy Corporation | Image recognition device and image recognition method |
CN110148454A (en) * | 2019-05-21 | 2019-08-20 | 上海联影医疗科技有限公司 | A kind of pendulum position method, apparatus, server and storage medium |
KR20220067741A (en) * | 2020-11-18 | 2022-05-25 | 정의정 | Pipeline for video based golf posture analysis and posture correction technique using thereof |
KR102554552B1 (en) | 2020-11-18 | 2023-07-11 | 정의정 | Pipeline for video based golf posture analysis and posture correction technique using thereof |
Also Published As
Publication number | Publication date |
---|---|
JP4205004B2 (en) | 2009-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4708752B2 (en) | Information processing method and apparatus | |
JP4757142B2 (en) | Imaging environment calibration method and information processing apparatus | |
US7671875B2 (en) | Information processing method and apparatus | |
JP4532982B2 (en) | Arrangement information estimation method and information processing apparatus | |
US8081815B2 (en) | Marker arrangement information measuring apparatus and method | |
JP4785416B2 (en) | Position and orientation measurement method and apparatus | |
JP7238060B2 (en) | Information processing device, its control method, and program | |
JP2017129567A (en) | Information processing apparatus, information processing method, and program | |
JP2011238222A5 (en) | ||
JP4205004B2 (en) | Calibration method | |
JP2009017480A (en) | Camera calibration device and program thereof | |
JP4109075B2 (en) | Method for measuring the rotation characteristics and flight characteristics of a sphere, and a device for measuring the rotation characteristics and flight characteristics of a sphere | |
JP4095320B2 (en) | Sensor calibration device, sensor calibration method, program, storage medium | |
CN110648362A (en) | Binocular stereo vision badminton positioning identification and posture calculation method | |
JP2017122690A (en) | Method for correcting coordinates of human being measuring system | |
JP2005351886A (en) | Position attitude measuring method and information processing device | |
CN109813283A (en) | Three-dimensional camera and stereophotogrammetric survey method | |
JP2003308514A (en) | Information processing method and information processing device | |
JP4667900B2 (en) | 3D analysis method from 2D image and system to execute it | |
JP2021009557A (en) | Information processing device, information processing method, and program | |
CN116474332A (en) | System and method for measuring 3D attributes using computer vision | |
CN111860275B (en) | Gesture recognition data acquisition system and method | |
JP6710961B2 (en) | Golf swing analysis method | |
TWI799184B (en) | Device and method for calculating spin of golf ball moved by hitting | |
KR101767954B1 (en) | Method of detecting recording location for golf swing, method of displaying golf swing, golf swing analysis system performing the same and mobile system performing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050817 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050817 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050817 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051028 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20051031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081007 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081015 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111024 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4205004 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121024 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131024 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |