JP2009095631A - Golf swing measuring system - Google Patents

Golf swing measuring system Download PDF

Info

Publication number
JP2009095631A
JP2009095631A JP2007297255A JP2007297255A JP2009095631A JP 2009095631 A JP2009095631 A JP 2009095631A JP 2007297255 A JP2007297255 A JP 2007297255A JP 2007297255 A JP2007297255 A JP 2007297255A JP 2009095631 A JP2009095631 A JP 2009095631A
Authority
JP
Japan
Prior art keywords
image
swing
golfer
point
measurement system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007297255A
Other languages
Japanese (ja)
Inventor
Katsuhiko Ueda
勝彦 植田
Yoshiaki Shirai
良明 白井
Nobutaka Shimada
伸敬 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd filed Critical Sumitomo Rubber Industries Ltd
Priority to JP2007297255A priority Critical patent/JP2009095631A/en
Publication of JP2009095631A publication Critical patent/JP2009095631A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable golf swing measurement by using a swing image photographed outdoors without being affected by background changes. <P>SOLUTION: This golf swing measuring system includes a computing means which captures at least one color image of a golfer who is swinging with a golf club in his/her hands. The computing means is characterized by having image processing functions such as extracting a plurality of marker points which help specify the swing position of the golfer from the swing image, acquiring their positional coordinates, drawing an initial outline in accordance with each body regional shape after tracing the positional coordinates of the plurality of the extracted marker points, processing the initial outline to optimize it, and extracting silhouettes regarding key regions on the golfer's swing position. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ゴルフスウィング計測システムに関し、特に、ゴルフスウィング計測装置が設置されていない屋外等において撮影されたゴルファーのスウィング時のカラー画像から、スウィング時の一連の動作の中から、アドレス位置、インパクト位置、フィニッシュ位置等の任意の位置におけるゴルファーのシルエットを効率良く演算制御手段で抽出できるようにするものである。  The present invention relates to a golf swing measurement system, and in particular, from a color image of a golfer during a swing photographed outdoors such as where a golf swing measurement device is not installed, from a series of operations during swing, an address position, an impact A silhouette of a golfer at an arbitrary position such as a position or a finish position can be efficiently extracted by the calculation control means.

従来、ゴルファーの打撃時のスウィングを撮影し、打球の飛距離や軌道等の各種情報をコンピュータで自動的に算出してゴルファーに表示可能とする装置が各種提供されている。これら装置によりゴルファーは自己の飛球の良し悪しを検討することが可能となるが、肝心のフォームを改善するための有用な情報を提供することはあまりできていない。よって、ゴルファーのフォーム、即ち、スウィング姿勢を正確に計測し、これに基づいてフォームを改善できるようにすることが求められている。  2. Description of the Related Art Conventionally, various devices have been provided that can capture a swing when a golfer is hit, and automatically calculate various information such as a flying distance and a trajectory of the hit ball and display it on a golfer. Although these devices allow golfers to examine the quality of their own flying balls, they have not been able to provide useful information to improve the essential form. Therefore, it is required to accurately measure a golfer's form, that is, a swinging posture, and to improve the form based on this.

前記ゴルファーのスウィング姿勢を計測してスウィング診断を行えるものとして、特許第2794018号公報(特許文献1)で動作診断装置が提供されており、ゴルフクラブヘッドおよび被診断者の体に複数の動作ポイントを設け、スウィング動画像中の動作ポイントの座標を取得してスウィング診断を行っている。
しかしながら、前記装置では被診断者の体にマーク等の動作ポイントを取り付けなければ画像上での体の動きを把握することができず、被診断者であるユーザには診断を受ける準備作業に煩わしさを与えてしまう欠点がある。また、スウィング動画像の全コマについて多数の動作ポイントの座標を抽出する計算を行わねばならず、計算量が膨大になると共に動作ポイントの位置座標の誤認率も増大する問題がある。
Japanese Patent No. 2794018 (Patent Document 1) provides an operation diagnosis device as a device capable of performing swing diagnosis by measuring the swing posture of the golfer, and includes a plurality of operation points on the golf club head and the body of the diagnosis subject. Is provided to acquire the coordinates of the operating point in the swing moving image and perform swing diagnosis.
However, the device cannot grasp the body movement on the image unless an operating point such as a mark is attached to the body of the person to be diagnosed, and the user who is the person to be diagnosed is troubled with preparation work for receiving a diagnosis. There is a disadvantage that gives it. In addition, it is necessary to perform a calculation for extracting the coordinates of a large number of operation points for all the frames of the swing moving image, which causes a problem that the calculation amount is enormous and the misidentification rate of the position coordinates of the operation points is increased.

前記問題に対して、本出願人は、特開2005−270480号公報(特許文献2)において、ゴルファーの打撃時のスウィングを撮影し、取得したカラー画像よりゴルファーの肌色領域を背景画像と差分してゴルファーのシルエットを抽出し、抽出されたシルエットを肌色領域よりゴルファーの体の注目点、即ち、スウィング診断に必要な関節部位を抽出して、その位置座標を取得し、取得した位置座標よりアドレス時、インパクト時、フィニッシュ時の関節位置を分析して、スウィング診断をしている。  In order to solve the above problem, the present applicant, in Japanese Patent Application Laid-Open No. 2005-270480 (Patent Document 2), takes a picture of a swing at the time of hitting a golfer, and subtracts the skin color area of the golfer from a background image from the acquired color image. Extract the silhouette of the golfer, extract the attention point of the golfer's body from the skin color area, that is, extract the joint part necessary for swing diagnosis, acquire the position coordinates, and address from the acquired position coordinates Swing diagnosis is performed by analyzing the joint position at the time of impact, impact and finish.

前記特許文献2のスウィング計測システムを用いると、特許文献1で必要とされたマークをゴルファーに予め取り付けておく必要がない利点を有する。
また、特許文献2の背景画像よりスウィング画像を差分してゴルファーのシルエットを抽出する方法は、ゴルファーが撮影されている背景は変化しないことが前提となっているが、屋内等のスウィング診断装置に付設したカメラの前でスウィングしてカラー画像を取得する場合は、背景が殆ど変化しないため、特許文献2のシステムでスウィング計測を正確に行うことができる。
The use of the swing measurement system disclosed in Patent Document 2 has an advantage that the mark required in Patent Document 1 does not need to be attached to the golfer in advance.
The method of extracting a golfer's silhouette by subtracting a swing image from a background image in Patent Document 2 is based on the premise that the background on which the golfer is photographed does not change. When a color image is obtained by swinging in front of the attached camera, the background hardly changes, and therefore, the swing measurement can be accurately performed with the system of Patent Document 2.

しかしながら、ゴルフ練習場等の屋外で撮影されたカラー画像の場合、天候変化により背景が変化すると、ゴルファーのシルエットが正確に抽出できない問題がある。
また、スウィング診断装置の設置場所を移動した場合には、背景が相違するため、背景からシルエットを抽出するための閾値を専用のオペレータが変化させる必要があり、運用上で非常に手間がかかる問題がある。
However, in the case of a color image taken outdoors such as a driving range, there is a problem that the silhouette of the golfer cannot be accurately extracted if the background changes due to weather changes.
In addition, when the installation location of the swing diagnostic device is moved, the background is different, so it is necessary for the dedicated operator to change the threshold for extracting silhouettes from the background, which is very troublesome in operation. There is.

前記した問題より、スウィング診断は、スウィング診断装置が設置された屋内の特定場所で行う必要があり、ゴルフ練習場等の屋外でのスウィング画像をゴルファーが所持するカメラで撮影して、該スウィング画像を特許文献2の計測システムのコンピュータに取り込んでも、計測精度が悪くなる問題がある。  Because of the above-described problems, the swing diagnosis needs to be performed at a specific indoor location where the swing diagnosis apparatus is installed, and a swing image taken outdoors by a golfer, such as a golf driving range, is taken, and the swing image is captured. Even if it is taken into the computer of the measurement system of Patent Document 2, there is a problem that the measurement accuracy is deteriorated.

特許第2794018号公報Japanese Patent No. 2794018 特開2005−270480号公報JP 2005-270480 A

本発明は、前記特許文献2の背景画像に影響を受けるゴルフスウィング計測システムを改良し、背景が変化する屋外で撮影されたカラー画像を用いても、画像上における注目すべき特徴点の抽出を行え、該特徴点からスウィング時の任意の位置のゴルファーのシルエットを精度よく抽出できるゴルフスウィング計測システムを提供することを課題としている。  The present invention improves the golf swing measurement system affected by the background image of Patent Document 2 and extracts feature points to be noted on the image even when using a color image taken outdoors where the background changes. It is an object of the present invention to provide a golf swing measurement system that can perform and accurately extract a golfer's silhouette at an arbitrary position during swing from the feature point.

前記課題を解決するため、本発明は、ゴルフクラブを把持してスウィングするゴルファーを撮影した少なくとも1枚のカラー画像を取り込む演算処理手段を備え、
前記演算処理手段は、
前記ゴルファーのスウィング画像からゴルファーのスウィング時の姿勢を特定できる複数の特徴点を抽出し、該特徴点の位置座標を取得し、該抽出した複数の特徴点の位置座標間を結んで各身体部位の形状に応じた初期輪郭線を形成し、該初期輪郭線を最適化処理して最適形状に収束して、ゴルファーのスウィング姿勢の所要部位のシルエットを抽出する画像処理機能を備えていることを特徴とするゴルフスウィング計測システムを提供している。
In order to solve the above-mentioned problems, the present invention comprises an arithmetic processing means for capturing at least one color image obtained by photographing a golfer who holds a golf club and swings.
The arithmetic processing means includes:
Extracting a plurality of feature points that can identify a golfer's swinging posture from the golfer's swing image, obtaining position coordinates of the feature points, and connecting the extracted position coordinates of the plurality of feature points to each body part The image processing function is provided to extract the silhouette of the required part of the golfer's swing posture by forming an initial contour line corresponding to the shape of the golf ball, optimizing the initial contour line and converging to the optimal shape. A golf swing measurement system is provided.

詳しくは、前記演算処理手段に取り込んだカラー画像からスウィング画像と背景画像を取得し、前記スウィング画像と背景画像を差分した差分値と、スウィング画像から濃淡画像を取得し、該濃淡画像を基にソーベル法によりエッジ画像を取得し、前記差分画像とエッジ画像を用いて評価値を作成し、該評価値が最小となるように前記特徴点間を結ぶ線をベジェ曲線からなる近似曲線を変化させている。  Specifically, a swing image and a background image are acquired from the color image captured by the arithmetic processing unit, a difference value obtained by subtracting the swing image and the background image, a gray image from the swing image, and a gray image based on the gray image. An edge image is acquired by the Sobel method, an evaluation value is created using the difference image and the edge image, and a line connecting the feature points is changed to a Bezier curve so that the evaluation value is minimized. ing.

前記のように、スウィング画像と背景画像とを差分した差分画像のみを用いてシルエット(即ち、スウィング時のゴルファーの姿勢の輪郭線)の抽出を行うと、背景が変化するとシルエットの抽出の精度が悪くなるが、本発明では前記差分画像とエッジ画像とを併用し、この2つの画像に基づいて評価式を構築し、この評価式が最小となるように近似曲線を最適化アルゴリズムにより変化させることで、ゴルファーのシルエットにフィットするシルエット抽出を行うことができる。その結果、撮影環境が変化して、背景が変化しても精度のよいシルエットの抽出でき、撮影環境の変化に強いゴルフスウィング計測システムとすることができる。よって、スウィング診断装置をゴルフ練習場等の屋外に設置できると共に、屋内で設置位置を移動させることもでき、かつ、シルエット抽出のための閾値を変化させる必要もないため、専用のオペレータを不要とできる。  As described above, when the silhouette (ie, the contour line of the golfer's posture during swing) is extracted using only the difference image obtained by subtracting the swing image and the background image, the accuracy of the silhouette extraction is improved when the background changes. Although it becomes worse, in the present invention, the difference image and the edge image are used together, an evaluation formula is constructed based on these two images, and the approximation curve is changed by an optimization algorithm so that the evaluation formula is minimized. Thus, silhouette extraction that fits the golfer's silhouette can be performed. As a result, even if the shooting environment changes and the background changes, it is possible to extract a silhouette with high accuracy, and a golf swing measurement system that is resistant to changes in the shooting environment can be obtained. Therefore, the swing diagnostic device can be installed outdoors such as a driving range, the installation position can be moved indoors, and there is no need to change the threshold for silhouette extraction, so a dedicated operator is unnecessary. it can.

前記スウィング時のゴルファーのカラー画像は、アナログ式またはデジタル式の専用カメラ、または携帯電話機を含む電子機器に付設されたカメラにより撮影されいずれでもよい。
即ち、演算処理手段に取り込むことができるカラー画像であればよく、例えば、携帯電話機のカメラで撮影されたスウィング画像が転送されてきたものでもよい。さらには、携帯電話機に演算処理手段のソフトを格納しておくと、撮影された画像を演算処理して携帯電話で画面で前記シルエット画像を表示することも可能である。
このように、背景の変化に強いゴルフスウィング計測システムとすることで、非常に使い勝手の良いものとすることができる。
The golfer's color image during the swing may be taken by an analog or digital dedicated camera or a camera attached to an electronic device including a mobile phone.
That is, any color image can be used as long as it can be captured by the arithmetic processing means. For example, a swing image captured by a camera of a mobile phone may be transferred. Furthermore, if the software of the arithmetic processing means is stored in the mobile phone, the captured image can be processed and the silhouette image can be displayed on the screen by the mobile phone.
In this way, by using a golf swing measurement system that is resistant to changes in the background, it can be made very convenient.

また、演算処理手段に取り込むカラー画像は、屋内または屋外におけるスウィング時のアドレスからフィニシュまで連続した動画像から取得した少なくとも1枚の静止画像、またはアドレスからフィニシュまでの間の少なくとも1枚の静止画像からなる。
例えば、スウィング時おけるインパクト位置でのフォームのみを知りたい場合には、インパクト位置の1枚のカラー画像のみを取り込んで、インパクト時のシルエットを抽出を行うことができる。
スウィング時の一連の動作を撮影した動画像を取り込んだ場合には、所要位置の複数の静止画像として、各静止画像を基にシルエットの抽出を行うことで、例えば、アドレス、テイクバックシャフト8時、テイクバックシャフト9時、テイクバック非利き腕水平、トップ、ダウンスウィング非利き腕水平、ダウンスウィングシャフト9時、インパクト、フォローシャフト3時、フィニッシュの各位置におけるシルエットを抽出することができ、スウィング時の各位置でのフォームのチェックを行うことができる。
Further, the color image captured by the arithmetic processing means is at least one still image acquired from a moving image continuous from an address during swinging indoors or outdoors to the finish, or at least one still image between the address and the finish. Consists of.
For example, when it is desired to know only the form at the impact position at the time of swing, it is possible to extract only the color image at the impact position and extract the silhouette at the time of impact.
When a moving image obtained by capturing a series of motions during swing is captured, silhouettes are extracted based on each still image as a plurality of still images at a required position, for example, address, takeback shaft 8 o'clock , Take back shaft 9 o'clock, take back non-dominant arm level, top, down swing non-dominant arm level, down swing shaft 9 o'clock, impact, follow shaft 3 o'clock, the silhouette at each position of the finish can be extracted, You can check the form at each position.

前記エッジ画像は、前記スウィング画像を取得し、取得した情報から濃淡画像を取得し、該濃淡画像を基にソーベル法によりエッジ画像を取得している。
前記エッジ強度は、エッジ画像上の各ピクセルの濃淡度からなり、前記した評価値は、前記差分値とエッジ強度とを用いて設定している 該エッジ強度を前記特徴点の抽出、前記初期輪郭線の形成及び前記最適化処理に用いている。
The edge image is obtained by acquiring the swing image, acquiring a grayscale image from the acquired information, and acquiring an edge image by a Sobel method based on the grayscale image.
The edge strength is composed of the intensity of each pixel on the edge image, and the evaluation value is set using the difference value and the edge strength. The edge strength is extracted from the feature point, the initial contour. It is used for line formation and the optimization process.

前記カラー画像から抽出する特徴点の位置は、後首、ウエスト位置の背面側と前面側の両端位置、靴のつま先位置と踵位置、および膝下位置とすることが好ましい。
前記した6箇所の位置を特徴点と定めることにより、前記した初期輪郭線を作成し、該初期輪郭線を更に最適化処理することで、精度のよいシルエット抽出を行うことができる。 なお、特徴点を前記以外の位置にも設定してもよいが、特徴点を増加すると演算処理時間がかかるため、前記6箇所の位置を特定することで、シルエット抽出を行えるようにしている。
The positions of the feature points extracted from the color image are preferably the rear neck, the back and front end positions of the waist position, the toe position of the shoe, the heel position, and the knee position.
By defining the above-described six positions as feature points, the above-described initial contour line is created, and the initial contour line is further optimized to perform accurate silhouette extraction. Note that feature points may be set at positions other than those described above. However, if the number of feature points is increased, calculation processing time is required. Therefore, silhouette extraction can be performed by specifying the positions of the six locations.

前記各特徴点を備える身体部周辺のスウィング画像と背景画像を差分した差分値およびゴルファーの服色領域から取得した色情報とスウィング画像を差分した差分値を取得し、取得した2つの差分値の情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記特徴点を特定して抽出している。  The difference value obtained by subtracting the swing image and the background image around the body part including each feature point and the color information obtained from the golfer's clothing color area and the difference value obtained by subtracting the swing image are obtained, and the two obtained difference values A grayscale image is acquired from the information, and the feature points are specified and extracted from a binarized image obtained by binarizing the grayscale image.

前記後首の特徴点を抽出する場合、該後首点が存在すると予測される前記身体部周辺の探索範囲、具体的には頭部と首部分を探索範囲として設定し、この探索範囲内で服色抽出を行っている。
前記特許文献2では、ゴルファーの顔や首の抽出は肌色抽出を利用しているが、肌色抽出では髪型の影響に顔領域が極端に小さくなるため、本発明では服色領域を抽出することで、頭部領域を抽出している。
また、本発明では探索範囲を設定しているため、ゴルファーの服色と近似した色が静止画像中に含まれていても、これを排除して誤認識を防止することができると共に計算時間も短縮化することができる。
前記服色領域の抽出で取得したゴルファー頭部の濃淡画像を形成し、該濃淡画像を二値化処理し、この二値化画像を必要に応じて収縮処理し、その後、膨張処理して、前記頭部の最下端点を求めて後首の特徴点を抽出し、該最下端位置の画像のピクセルを後首の特徴点の位置座標として特定している。
When extracting the feature point of the back neck, a search range around the body part where the back neck point is predicted to exist, specifically, the head and neck portions are set as the search range, and within the search range Clothing color extraction is performed.
In Patent Document 2, skin color extraction is used to extract a golfer's face and neck. However, in skin color extraction, the face area becomes extremely small due to the influence of the hairstyle. The head region is extracted.
In addition, since the search range is set in the present invention, even if a color approximate to the golfer's clothes color is included in the still image, this can be eliminated to prevent misrecognition, and the calculation time can also be reduced. It can be shortened.
Forming a gray image of the golfer's head acquired by extraction of the clothing color region, binarizing the gray image, subjecting the binary image to a shrinking process as necessary, and then expanding it, The lowermost point of the head is obtained to extract the feature point of the rear neck, and the pixel of the image at the lowermost position is specified as the position coordinate of the feature point of the rear neck.

前記ウエスト位置の背面側と前面該の両端位置の特徴点の抽出は、前記後首の特徴点の抽出と同様な手法により行っており、ウエスト位置の周辺を探索範囲として設定している。 ゴルファーは、通常、ウエスト位置にはベルトを付けているため、ベルトの色領域から取得した色情報とスウィング画像を差分した差分値を取得し、取得した2つの差分値の情報から濃淡画像を取得し、該濃淡画像を二値化処理して二値化処理画像を取得し、該二値化画像を収縮処理し、その後、膨張処理して最右点、最左点を求め、ベルト部分の前後両端点を抽出し、該前後両端点のピクセルを前記特徴点の位置座標として特定している。
なお、照明条件や、腕の位置によってベルトの両端位置、特に、腹側の前端位置が抽出できない場合には、ベルト端点抽出フィルタ処理を行っている。
Extraction of the feature points of the back side of the waist position and both end positions of the front surface is performed by the same method as the extraction of the feature point of the back neck, and the periphery of the waist position is set as a search range. Since the golfer usually attaches a belt to the waist position, the golfer acquires a difference value obtained by subtracting the color information acquired from the color area of the belt and the swing image, and acquires a grayscale image from the acquired information of the two difference values. The binarized image is binarized to obtain a binarized image, the binarized image is contracted, and then expanded to obtain the rightmost point and the leftmost point. The front and rear end points are extracted, and the pixels at the front and rear end points are specified as the position coordinates of the feature points.
Note that belt end point extraction filter processing is performed when the both end positions of the belt, in particular, the front end position on the abdomen side cannot be extracted depending on the illumination conditions and the arm position.

前記靴のつま先位置と踵位置の特徴点の抽出は、特徴点を備える靴周辺のスウィング画像と背景画像とを差分した差分値を取得し、取得した情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記特徴点を特定して抽出している。  The feature points of the toe position and the heel position of the shoe are extracted by obtaining a difference value obtained by subtracting a swing image around the shoe including the feature point and a background image, obtaining a grayscale image from the obtained information, and obtaining the grayscale image. The feature points are identified and extracted from the binarized image obtained by binarizing the image.

靴の形状はスウィング画像と背景画像とを差分した差分画像から取得できるため、ゴルファーの服色領域を取得する必要はなく、前記靴の形状とした部分を囲む探索領域を設定し、該探索領域の前記差分画像より濃淡画像を取得し、該濃淡画像を二値化処理した二値化画像を取得し、該二値化画像を収縮処理し、その後、膨張処理して、その最右下点を靴のつま先位置、最左下点を踵位置として特徴点を抽出し、該特徴点の位置座標を特定している。  Since the shape of the shoe can be acquired from a difference image obtained by subtracting the swing image and the background image, it is not necessary to acquire a golfer's clothing color area, and a search area surrounding the shoe shape portion is set, and the search area Obtaining a grayscale image from the difference image, obtaining a binarized image obtained by binarizing the grayscale image, shrinking the binarized image, and then expanding the binarized image, the lowermost right point Are extracted with the toe position of the shoe and the lower leftmost point as the heel position, and the position coordinates of the feature point are specified.

前記膝下位置の特徴点の抽出は、特徴点を備える身体部位周辺のスウィング画像と背景画像との差分値と、前記エッジ強度とからなる評価値を求め、該評価値が最大となる箇所を特定して抽出している。  Extraction of the feature point at the position below the knee is performed by obtaining an evaluation value composed of a difference value between a swing image around the body part having the feature point and a background image and the edge strength, and specifying a portion where the evaluation value is maximized And extracted.

前記膝下位置の特徴点は、前記つま先と踵の特徴点と組み合わせることで下肢のシルエットの抽出に用いている。
まず、膝下点周縁の探索領域を設定し、該探索領域のスウィング画像と背景画像との差分値と、エッジ強度とからなる評価値を求め、該評価値が最大となる評価式より求めて特定し、この特定した位置を膝下の特徴点として抽出し、該特徴点の位置座標を特定している。
The feature point at the lower knee position is used for extracting the silhouette of the lower limb by combining with the feature point of the toe and the heel.
First, a search area around the knee point periphery is set, an evaluation value consisting of the difference value between the swing image and the background image of the search area and the edge strength is obtained, and the evaluation value that maximizes the evaluation value is determined and specified. Then, the specified position is extracted as a feature point below the knee, and the position coordinates of the feature point are specified.

前記初期輪郭線の形成は、前記特徴点間を結ぶ線の周辺について、スウィング画像と背景画像とを差分して差分値と前記エッジ強度とからなる評価値を求め、
前記特徴点間に存在する複数点を制御点とし、
前記評価値が最小となるように前記制御点を動かすことによって生成された近似曲線で形成している。
For the formation of the initial contour line, around the line connecting the feature points, a swing image and a background image are subtracted to obtain an evaluation value consisting of the difference value and the edge strength,
A plurality of points existing between the feature points as control points,
An approximate curve generated by moving the control point so that the evaluation value is minimized is formed.

前記特徴点間を結ぶ背中の初期輪郭線は、まず、後首の特徴点とウエストの背面側特徴点とを直線で結び、該直線間に例えば2つの制御点を設け、該制御点の座標位置のピクセルを前記評価値が最小となるように移動させ、後首の特徴点、前記制御点と、ウエストの背面側特徴点からベジェ曲線で形成して前記近似曲線を形成している。
なお、前記ベジェ曲線は、後首点とウエスト背面側特徴点の間のシルエット形状が複雑である場合、高次のベジェ曲線を用いて形成した近似曲線を初期輪郭線とすることが好ましい。
The initial contour line of the back connecting the feature points first connects the feature point of the back neck and the feature point on the back side of the waist with a straight line, and provides, for example, two control points between the straight lines. The pixel at the position is moved so that the evaluation value is minimized, and the approximate curve is formed by forming a Bezier curve from the feature point of the rear neck, the control point, and the feature point on the back side of the waist.
In the case of the Bezier curve having a complicated silhouette shape between the rear neck point and the waist rear side feature point, an approximate curve formed using a higher-order Bezier curve is preferably used as the initial contour line.

評価値とは、前記のように、差分画像とエッジ画像を用いて最適なシルエットを示す値である。詳しくは、評価値の特徴量を、前記エッジ画像から取得する輪郭線上のエッジ強度の平均値と、前記差分画像から取得する輪郭線内側の領域における背景差分値平均値および輪郭線外側の輪郭における背景差分平均値とし、これらの特徴量にそれぞれ重み係数を付して合計し、該合計値に−10000で掛けた式を評価式とし、該評価式より取得した値を評価値としている。該評価値が最小となる前記制御点の位置座標を移動させ、該制御点と前記特徴点から前記ベジェ曲線を形成して、初期輪郭線として決定している。  As described above, the evaluation value is a value indicating an optimum silhouette using the difference image and the edge image. Specifically, the feature value of the evaluation value is obtained by calculating the average value of edge strength on the contour line acquired from the edge image, the background difference value average value in the region inside the contour line acquired from the difference image, and the contour outside the contour line. A background difference average value is used, and a weighting coefficient is added to each of these feature amounts, and an equation obtained by multiplying the total value by −10000 is used as an evaluation equation, and a value acquired from the evaluation equation is used as an evaluation value. The position coordinate of the control point that minimizes the evaluation value is moved, the Bezier curve is formed from the control point and the feature point, and the initial contour line is determined.

前記初期輪郭線の最適化処理は、前記初期輪郭線の前記スウィング画像と背景画像との差分値と前記エッジ強度から構成される評価値を求め、該評価値が最小となる曲線を準ニュートン法を用いて最適形状に収束している。
即ち、前記のように形成した初期輪郭線をゴルファーのシルエットにより近似させてフィットするように、準ニュートン法を用いて最適化処理を行っている。
The optimization process of the initial contour line obtains an evaluation value composed of a difference value between the swing image and the background image of the initial contour line and the edge intensity, and a curve having the minimum evaluation value is obtained by a quasi-Newton method Is used to converge to the optimal shape.
That is, the optimization process is performed using the quasi-Newton method so that the initial contour line formed as described above is approximated by a golfer's silhouette.

前記最適化処理して取得したシルエット画像は、演算処理手段がコンピュータであれば、該コンピュータに付設のディスプレイで画像表示したり、プリンタで印刷表示して、ゴルファーに提供している。さらに、携帯電話機器の画面で表示することも可能である。  If the arithmetic processing means is a computer, the silhouette image obtained by the optimization process is displayed on the display attached to the computer or printed on a printer and provided to the golfer. Further, it can be displayed on the screen of the mobile phone device.

前記したように、本発明のゴルフスウィング計測システムでは、背景が変化しても、その影響を除去してゴルファーの特徴点を抽出し、この特徴点からゴルファーの輪郭線を求め、該輪郭線を最適形状に収束しているため、ゴルファーのスウィング時のシルエットを精度良く抽出することができる。
また、スウィング画像と背景画像とを差分した差分画像と、前記したエッジ画像とを併用しシルエットの抽出を行うと、背景の変化を除去してゴルファーのシルエット画像を抽出することができる。よって、日照等の環境条件が変化するゴルフコース等の屋外でスウィングを撮影したカラーを用いた時や、ゴルフスウィング計測装置の設置位置を移動させた時等の背景が変化する場合であっても、背景の変化に影響を受けずにスウィング時のシルエットを精度良く抽出することができる。
As described above, in the golf swing measurement system of the present invention, even if the background changes, the influence point is removed to extract the feature point of the golfer, the contour line of the golfer is obtained from the feature point, and the contour line is obtained. Since it converges to the optimal shape, it is possible to accurately extract the silhouette of the golfer when swinging.
In addition, when a silhouette image is extracted by using a difference image obtained by subtracting a swing image and a background image and the above-described edge image, a background change can be removed and a golfer silhouette image can be extracted. Therefore, even when the background changes, such as when using a color obtained by shooting a swing outdoors such as a golf course where environmental conditions such as sunshine change, or when the installation position of the golf swing measuring device is moved. The silhouette at the time of swing can be extracted accurately without being affected by the change of the background.

また、本発明のゴルフスウィング計測システムでは、ゴルファーの特徴点を認識するためのマーク等が複数付されてなくても、画像上におけるゴルファーの特徴点の位置座標を導き出すことができる。したがって、スウィング計測を行うゴルファーは計測用器具等の装着を簡易にすることができ、さらに、前記のように、撮影箇所は屋外、屋内を問わず任意の位置で撮影できるため、利便性が向上する。  Further, in the golf swing measurement system of the present invention, the position coordinates of the golfer's feature point on the image can be derived without a plurality of marks or the like for recognizing the golfer's feature point. Therefore, the golfer who performs the swing measurement can easily install the measuring instrument and the like, and as described above, the shooting location can be taken at any position regardless of whether it is outdoors or indoors, so the convenience is improved. To do.

さらに、前記カラー動画像を構成する複数の静止画像から、アドレス、テイクバックシャフト8時、テイクバックシャフト9時、テイクバック非利き腕水平、トップ、ダウンスウィング非利き腕水平、ダウンスウィングシャフト9時、インパクト、フォローシャフト3時、フィニッシュから選択される少なくとも1つ以上のスウィング姿勢のシルエット画像を取得することができる。  Further, from a plurality of still images constituting the color moving image, the address, takeback shaft 8 o'clock, takeback shaft 9 o'clock, takeback non-dominant arm horizontal, top, down swing non-dominant arm horizontal, down swing shaft 9 o'clock, impact At the time of the follow shaft 3, at least one or more swing posture silhouette images selected from the finish can be acquired.

さらにまた、ゴルフスウィング診断に有用な静止画像、例えば、アドレス、インパクト、フィニッシュを選択的に抽出した上で、ゴルファーの特徴点の位置座標を取得する手順とすれば、撮影されたスウィング動画像の全コマ(静止画像)についてゴルファーの特徴点の位置座標を取得する必要が無くなり計算コストを低減できる。また、計算対象とする静止画像を必要な画像だけに絞ることで、特徴点の誤認率を低減することができる。  Furthermore, if a procedure for obtaining the position coordinates of the feature point of the golfer after selectively extracting still images useful for golf swing diagnosis, for example, address, impact, and finish, It is not necessary to acquire the position coordinates of the golfer's feature points for all frames (still images), and the calculation cost can be reduced. In addition, by limiting the still images to be calculated to only the necessary images, the misidentification rate of feature points can be reduced.

本発明の実施形態を図面を参照して説明する。
図1はゴルフスウィング計測システムの概略図を示し、演算処理手段となるコンピュータ16と、該コンピュータ16に接続された表示手段であるモニター17と、コンピュータ16に接続された入力手段であるキーボード18およびマウス19と、コンピュータ16に接続されゴルファー11の正面位置に設置されたカラーCCDカメラ14(以下、カメラ14と称す)を備えている。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram of a golf swing measurement system, and includes a computer 16 serving as arithmetic processing means, a monitor 17 serving as display means connected to the computer 16, a keyboard 18 serving as input means connected to the computer 16, and A mouse 19 and a color CCD camera 14 (hereinafter referred to as the camera 14) connected to the computer 16 and installed at the front position of the golfer 11 are provided.

本実施形態ではゴルファー11のスウィングをゴルフコースやゴルフ練習場所等の屋外でカメラ14で撮影するものとし、該カメラ14で撮影されたカラー画像をハードディスクのメモリに格納し、離れた屋内に設置したコンピュータ16にメモリを取り込むものとしている。あるいは、ゴルファーが所持するコンピュータから前記コンピュータ16に電子送信してもよい。
なお、カメラ14はゴルファーが所持するカメラでもよく、さらには、携帯電話のカメラでもよい。かつ、ゴルファーの側面側にカメラ15を配置し、さらには、背面側にも配置し、スウィング時に同時にまたは異なるスウィング時に撮影してもよい。
また、屋内の所定のゴルフスウィング計測場所で計測する場合には、カメラ14とカメラ15とをコンピュータ16とオンライン接続している。
In this embodiment, the swing of the golfer 11 is taken with a camera 14 outdoors such as a golf course or a golf practice place, and a color image taken with the camera 14 is stored in a memory of a hard disk and installed indoors at a distance. The memory is taken into the computer 16. Or you may electronically transmit to the said computer 16 from the computer which a golfer possesses.
The camera 14 may be a camera owned by a golfer, or may be a mobile phone camera. In addition, the camera 15 may be disposed on the side surface of the golfer, and further, may be disposed on the back side, and may be photographed at the same time or during different swings.
Further, when the measurement is performed at a predetermined indoor golf swing measurement place, the camera 14 and the camera 15 are connected online to the computer 16.

スウィングを計測されるゴルファー11(右利きとする)は上着U、ズボンD、靴S、ベルトBを締め、ゴルフクラブ13を把持している。
ゴルファー11は計測用の必ずしも専用服を着用する必要はないが、専用服を着用して撮影するとコンピュータでの計算量を低減できる、かつ、服や皮膚にマーク等も付す必要はないが、特徴点の抽出時間の短縮化から箇所にマークを付しても良い。また、ゴルファーが服と同色のベルトを締めている場合には、異色の計測用のベルトを着用することが好ましい。
スウィング時には、計測の観点からマット12の上でスウィングすることが好ましい。
ゴルファー11が撮影される背面20は屋外であるため日照条件によって変化する場合もある。
A golfer 11 (to be right-handed) whose swing is measured holds the golf club 13 with the outer garment U, the trousers D, the shoes S, and the belt B fastened.
The golfer 11 does not necessarily need to wear dedicated clothes for measurement, but if the photographer wears the dedicated clothes and shoots, the amount of calculation with a computer can be reduced, and it is not necessary to add marks or the like to the clothes or skin. A mark may be attached to a location in order to shorten the point extraction time. In addition, when the golfer is tightening a belt of the same color as the clothes, it is preferable to wear a belt for measuring different colors.
When swinging, it is preferable to swing on the mat 12 from the viewpoint of measurement.
Since the back surface 20 on which the golfer 11 is photographed is outdoors, it may change depending on the sunshine conditions.

コンピュータ16は、取り込んだスウィング時のカラー画像からゴルファーのシルエットを抽出するプログラムを内蔵し、プログラムの工程に従って画像処理を行い、抽出したシルエットを必要に応じて付設のモニター17での画像表示やプリンタで印刷表示を行っている。また、取得したシルエットをゴルファーのコンピュータに電信送信してもよい。  The computer 16 has a built-in program for extracting a golfer's silhouette from the captured color image during swing, performs image processing in accordance with the program process, and displays the extracted silhouette on an attached monitor 17 as necessary. Is printed. Further, the acquired silhouette may be transmitted by telegraph to the golfer's computer.

コンピュータ16に内蔵したプログラムは、ゴルファー11のスウィング画像からゴルファーのスウィング時の姿勢を特定できる後述する特徴点M1〜M6を抽出し、これら特徴点M1〜M6の位置座標を取得し、該抽出した複数の特徴点の位置座標間を結んで各身体部位の形状に応じた初期輪郭線を形成し、該初期輪郭線を最適化処理して最適形状に収束して、ゴルファーのスウィング姿勢の所要部位のシルエットを抽出する画像処理機能を備えている。  A program built in the computer 16 extracts feature points M1 to M6, which will be described later, from the swing image of the golfer 11, and can extract the position coordinates of these feature points M1 to M6. An initial contour line corresponding to the shape of each body part is formed by connecting the position coordinates of a plurality of feature points, the initial contour line is optimized and converged to the optimal shape, and the required part of the golfer's swing posture It has an image processing function to extract silhouettes.

具体的には、コンピュータ16に内蔵したプログラムは、
コンピュータ16に取り込んだカラー画像からスウィング計測に必要な静止画像を選択的に抽出する処理部、
選択したカラー画像からスウィング画像と背景画像とを差分した差分画像を取得する処理部と、
前記スウィング画像と背景画像との差分値情報と、ゴルファーの服色情報とスウィング画像との差分値情報から濃淡画像を取得する処理部と、
前記濃淡画像を二値化処理する処理部と、
前記特徴点を抽出する処理部と、
前記差分画像とスウィング画像を基にソーベル法によりエッジ画像を取得する処理部と、 前記差分画像と前記エッジ画像を用いて評価値を作成し、該評価値が最小となるように前記特徴点間を結ぶ線をベジェ曲線からなる近似曲線を変化させる輪郭線形成用の処理部と、
取得したシルエットを出力する処理部等を備えている。
前記評価値は、エッジ画像上の各ピクセルの濃淡度をエッジ強度とし、前記差分値とエッジ強度とを用いて設定している。
Specifically, the program built in the computer 16 is
A processing unit that selectively extracts a still image necessary for swing measurement from a color image captured by the computer 16;
A processing unit for obtaining a difference image obtained by subtracting the swing image and the background image from the selected color image;
A difference value information between the swing image and the background image, and a processing unit for acquiring a grayscale image from difference value information between the clothing color information of the golfer and the swing image;
A processing unit for binarizing the grayscale image;
A processing unit for extracting the feature points;
A processing unit that acquires an edge image by a Sobel method based on the difference image and the swing image; and an evaluation value is created using the difference image and the edge image, and the feature points are set such that the evaluation value is minimized. A processing unit for forming a contour line that changes an approximate curve made of a Bezier curve with a line connecting
It has a processing unit that outputs the acquired silhouette.
The evaluation value is set using the difference value and the edge strength, with the intensity of each pixel on the edge image as the edge strength.

前記処理部54で抽出する特徴点は、図2に示すように、人体の輪郭線上で抽出しやすい点として、首点M1、ウエスト位置の背面側と前面側の両端点(ゴルファーの前面から撮影した画像ではベルトの最左端点M2、最右端点M3)、靴の踵点M4とつま先点M5、および膝下点M6の6カ所としている。  As shown in FIG. 2, the feature points extracted by the processing unit 54 are points that can be easily extracted on the outline of the human body, such as the neck M1, the back side of the waist position, and both end points of the front side (taken from the front of the golfer). In the image, the leftmost end point M2 of the belt, the rightmost end point M3), the heel point M4 and the toe point M5 of the shoe, and the lower knee point M6 are six locations.

前記後首点M1、ベルトの最左端点M2、最右端点M3の抽出は、首下部分から頭部を探索領域として設定し、該探索領域のスウィング画像と背景画像を差分した差分値およびゴルファーの服色領域から取得した色情報とスイング画像を差分した差分値を取得し、取得した2つの差分値の情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記各特徴点のM1、M2、M3を特定して抽出し、画像上で位置座標を設定している。  The rear neck point M1, the leftmost end point M2 of the belt, and the rightmost end point M3 are extracted by setting a head as a search area from the lower neck part, a difference value obtained by subtracting a swing image from the search area and a background image, and a golfer. A binarized image obtained by obtaining a difference value obtained by subtracting the color information obtained from the clothing color area and the swing image, obtaining a grayscale image from the obtained information of the two difference values, and binarizing the grayscale image M1, M2, and M3 of each feature point are identified and extracted, and position coordinates are set on the image.

前記靴のつま先点M5と踵点M4の抽出は、靴周辺を探索範囲として設定し、該探索範囲のスウィング画像と背景画像とを差分した差分値を取得し、取得した情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記特徴点のM4、M5を特定して抽出し、画像上で位置座標を設定している。  The shoe toe point M5 and the heel point M4 are extracted by setting the shoe periphery as a search range, obtaining a difference value between the swing image of the search range and the background image, and obtaining a grayscale image from the obtained information. Then, the feature points M4 and M5 are specified and extracted from the binarized image obtained by binarizing the grayscale image, and the position coordinates are set on the image.

前記膝下点M6の抽出は、下肢部を探索領域として設定し、該探索領域のスウィング画像と背景画像との差分値と、前記エッジ強度とからなる評価値を求め、該評価値が最大となる箇所を特定してM6の位置を抽出し、画像上で位置座標を設定している。  For the extraction of the lower knee point M6, the lower limbs are set as a search area, an evaluation value consisting of the difference value between the swing image and the background image of the search area and the edge strength is obtained, and the evaluation value is maximized. The position is identified and the position of M6 is extracted, and the position coordinates are set on the image.

前記特徴点となるM1〜M6を抽出して位置座標を特定した後に初期輪郭線を形成している。該初期輪郭線の形成は、M1〜M6を結ぶ線の周辺について、スウィング画像と背景画像とを差分して差分値と前記エッジ強度とからなる評価値を求め、
前記特徴点間に存在する複数点を制御点を定め、
前記評価値が最小となるように前記制御点のピクセルを動かすことによって生成された近似曲線で形成している。
The initial contour line is formed after extracting the feature points M1 to M6 and specifying the position coordinates. For the formation of the initial contour line, the evaluation value composed of the difference value and the edge strength is obtained by subtracting the swing image and the background image around the line connecting M1 to M6,
A plurality of points existing between the feature points are defined as control points,
An approximate curve generated by moving the pixel of the control point so that the evaluation value is minimized is formed.

前記初期輪郭線を形成した後に、輪郭線の精度を高めるために最適化処理を行っており前記初期輪郭線のスウィング画像と背景画像との差分値と前記エッジ強度から構成される評価値を求め、該評価値が最小となる曲線を準ニュートン法を用いて最適形状に収束している。  After forming the initial contour line, optimization processing is performed in order to increase the accuracy of the contour line, and an evaluation value composed of a difference value between the swing image and the background image of the initial contour line and the edge strength is obtained. The curve having the smallest evaluation value is converged to the optimum shape using the quasi-Newton method.

以下に、特徴点のM1〜M6の抽出、初期輪郭線の形成、最適化処理の方法について説明する。該説明では、カラー画像から取り込んで選択した静止画像はゴルフスウィングのアドレス時の画像としている。  Hereinafter, a method of extracting feature points M1 to M6, forming an initial contour line, and optimization processing will be described. In this description, the still image selected from the color image is an image at the time of golf swing address.

まず、輪郭線を形成する節点(端点)となる前記特徴点のM1〜M6の抽出について説明する。  First, extraction of the feature points M1 to M6 that are nodes (end points) forming the outline will be described.

後首M1の特徴点の抽出について、以下に詳述する。
後首M1は、前記したように、首下部分から頭部を探索領域として設定し、該探索領域のスウィング画像と背景画像を差分した差分値およびゴルファーの服色領域から取得した色情報とスイング画像を差分した差分値を取得し、取得した2つの差分値の情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から特徴点M1を抽出し、画像上で位置座標を設定している。
The extraction of the feature point of the back neck M1 will be described in detail below.
As described above, the back neck M1 sets the head from the lower neck portion as a search area, the difference value obtained by subtracting the swing image and the background image of the search area, and the color information acquired from the golfer's clothing color area and the swing A difference value obtained by subtracting the images is acquired, a grayscale image is acquired from information of the acquired two difference values, and a feature point M1 is extracted from the binarized image obtained by binarizing the grayscale image. The position coordinates are set.

初めに、図3に示すように、右肩点A1を抽出し、探索範囲を決定する。該探索範囲は背景色領域H1および服色領域H2とからなる。
なお、右肩点を明確にするために、右肩にマークを付してもよい。この場合は、抽出した右肩マークの座標位置を中心として所要範囲をピクセルを探索範囲としている。
該背景色領域H1は、画像の横方向をx、縦方向をyとして、抽出した右肩点の座標を(x、y)とすると、(x−10、y+10)、(x−10、y−70)、(x+70、y−70)(x+70、y+10)の80ピクセル×80ピクセルの範囲としている。また、服色領域H2を、(x−10、y+10)(x−10、y+30)(x−30、y+30)(x−30、y+10)の20ピクセル×20ピクセルの範囲としている。
First, as shown in FIG. 3, the right shoulder point A1 is extracted and the search range is determined. The search range includes a background color area H1 and a clothing color area H2.
In order to clarify the right shoulder point, a mark may be attached to the right shoulder. In this case, a pixel is a search range with a required range centered on the coordinate position of the extracted right shoulder mark.
The background color region H1 is (x-10, y + 10), (x-10, y) where x is the horizontal direction of the image, y is the vertical direction, and the coordinates of the extracted right shoulder point are (x, y). −70), (x + 70, y−70) (x + 70, y + 10), which is in the range of 80 pixels × 80 pixels. The clothing color region H2 is a range of 20 × 20 pixels of (x−10, y + 10) (x−10, y + 30) (x−30, y + 30) (x−30, y + 10).

服色画像とスウィング画像とのノルムを計算する。
前記服色領域H2の各ピクセルの色相(H)、彩度(S)、明度(V)を円柱モデルを用いて数式1〜3より計算する。

Figure 2009095631
Figure 2009095631
Figure 2009095631
ここで、0≦R、G、B≦255、S、Vともに値の範囲0〜1になる。The norm between the clothes color image and the swing image is calculated.
The hue (H), saturation (S), and brightness (V) of each pixel in the clothing color region H2 are calculated from Formulas 1 to 3 using a cylindrical model.
Figure 2009095631
Figure 2009095631
Figure 2009095631
Here, 0 ≦ R, G, B ≦ 255, S, and V all fall within the range of values 0 to 1.

さらに、SとVをLogで変換すると数式4となる。

Figure 2009095631
このように、SおよびVをLog化することによりS、Vが小さいときに値の変化が大きくなるようになる。なお、S、Vともに値の範囲は0〜log10101となる。Further, when S and V are converted by Log, Expression 4 is obtained.
Figure 2009095631
Thus, by making S and V log, the change in value becomes large when S and V are small. Note that the range of values for both S and V is 0 to log 10 101.

次に、HSVを3次元空間座標に変換する。ここで、ベクトルの長さをS、X軸となす角度をHとする。

Figure 2009095631
Next, the HSV is converted into three-dimensional space coordinates. Here, the length of the vector is S, and the angle between the X axis and the vector is H.
Figure 2009095631

前記服色領域H2の20ピクセル×20ピクセル範囲のX、Y、Zを計算して平均値Xave、Yave、Zaveを求める。服色の平均値を用いて、H1領域中のスイング画像を用いて各ピクセルx、y、zを計算しノルムを計算する。ただし、XYZ空間の最大長さで正規化している。従って、ノルムの範囲は0〜1となる。

Figure 2009095631
Average values X ave , Y ave , and Z ave are calculated by calculating X, Y, and Z in the range of 20 pixels × 20 pixels in the clothing color region H2. Using the average value of the clothing color, each pixel x, y, z is calculated using the swing image in the H1 region, and the norm is calculated. However, normalization is performed with the maximum length of the XYZ space. Therefore, the norm range is 0-1.
Figure 2009095631

次に、背景色画像とスウィング画像とのノルムを計算する。
まず、背景画像について背景色領域H1の80ピクセル×80ピクセルの範囲について、数式1〜5からピクセル毎に、Xhaikei、Yhaikei、Zhaikeiとする。スイング画像についてピクセル毎にx、y、zを求め、背景色ノルムを求める。

Figure 2009095631
Next, the norm between the background color image and the swing image is calculated.
First, with respect to the background image, the range of 80 pixels × 80 pixels in the background color region H1 is set to X heikei , Y heikei , and Z heikei for each pixel from Equations 1-5. For the swing image, x, y, and z are obtained for each pixel, and the background color norm is obtained.
Figure 2009095631

次に、数式6および数式7において、各ピクセルに服色ノルムおよび背景色ノルムどちらかの最小値を選択する。この選択した値が濃淡画像の値となり、図4に示す濃淡画像が得られる。ただし、顎下のマーク領域(30<H<80、S>=0.15、V>=100)と探索範囲決定時に抽出した赤色マークの「右肩」を除いて、濃淡画像を取得している。
濃淡画像を取得後、図5(A)に示すように、頭部21を抽出して二値化処理する。なお、二値化処理で用いる閾値は、Pタイル法により、頭部21がH1に対して30%になるように決定する。さらに、図5(B)に示すように、二値化した1の領域を頭部21の収縮、膨張の順に2回ずつ繰り返す。その後、図5(C)に示すように、頭部21の重心から頭部21の最下点に引いた直線d1と直角をなす直交線d2を引く。そして、該直交線d2と後頭部の1の領域の端部との交点M1を後首の特徴点M1とする。
Next, in Equations 6 and 7, the minimum value of either the clothing norm or background color norm is selected for each pixel. This selected value becomes the value of the grayscale image, and the grayscale image shown in FIG. 4 is obtained. However, a grayscale image is acquired except for the mark area under the jaw (30 <H <80, S> = 0.15, V> = 100) and the “right shoulder” of the red mark extracted when the search range is determined. Yes.
After obtaining the grayscale image, the head 21 is extracted and binarized as shown in FIG. The threshold used in the binarization process is determined by the P tile method so that the head 21 is 30% of H1. Further, as shown in FIG. 5B, the binarized one region is repeated twice in the order of contraction and expansion of the head 21. After that, as shown in FIG. 5C, an orthogonal line d2 that is perpendicular to the straight line d1 drawn from the center of gravity of the head 21 to the lowest point of the head 21 is drawn. Then, an intersection M1 between the orthogonal line d2 and the end of one region of the back of the head is defined as a feature point M1 of the back neck.

次に、ベルトの最左端点M2と最右端点M3の抽出について詳述する。
ベルト色領域の探索範囲はほぼ画像全体から探索している。このときゴルファーは画像のほぼ中心に撮影されている。ベルト色領域H3は、図6に示すように、赤色の帯となっている。ベルト色領域H3において、図7に示すように、最左端点M2および最右端点M3を抽出している。
Next, extraction of the leftmost end point M2 and the rightmost end point M3 of the belt will be described in detail.
The search range of the belt color region is searched from almost the entire image. At this time, the golfer is photographed almost at the center of the image. The belt color region H3 is a red band as shown in FIG. In the belt color region H3, as shown in FIG. 7, the leftmost end point M2 and the rightmost end point M3 are extracted.

前記M2、M3の抽出は、x=150〜490、y=160〜320を探索範囲(映像の大きさはxを640、yを480)とする。また、ベルト領域H3の赤色情報は、H=330〜360、0〜30、S=0.2以上、V=15〜150とする。
ベルト領域H3も、後首と同様に、背景色画像および服色画像から濃淡画像を取得し、該濃淡画像を二値化し、ベルト領域H3の最左端点M2および最右端点M3を取得する。
In the extraction of M2 and M3, x = 150 to 490 and y = 160 to 320 are set as the search range (the size of the video is x for 640 and y for 480). The red information of the belt region H3 is H = 330 to 360, 0 to 30, S = 0.2 or more, and V = 15 to 150.
Similarly to the rear neck, the belt region H3 acquires a grayscale image from the background color image and the clothing color image, binarizes the grayscale image, and acquires the leftmost end point M2 and the rightmost end point M3 of the belt region H3.

しかし、照明条件によってはベルト領域H3の端部を抽出できない場合がある。この場合は以下の方法でベルト領域H3の最左端点M2および最右端点M3を抽出する。
図8(B)に示すように、ベルト領域H3端部をプラスの重みを与える領域C1とする一方、プラス領域C1を囲むように円領域Cをマイナスの重みを与える領域C2とし、プラス領域C1とマイナス領域C2から円領域Cを形成している。
プラスの重みを与える領域C1のベルト領域H3の幅は縦方向に5ピクセルとすると共に、プラス領域の横方向の最大は6ピクセルとする。一方、マイナスの重みを与える領域C2の円の大きさは直径11ピクセルとし、プラスの重みは1.0とし、マイナスの重みは−1.0としている。
However, depending on the illumination conditions, the end of the belt region H3 may not be extracted. In this case, the leftmost end point M2 and the rightmost end point M3 of the belt region H3 are extracted by the following method.
As shown in FIG. 8B, the end of the belt region H3 is set as a region C1 giving a positive weight, while the circular region C is set as a region C2 giving a negative weight so as to surround the positive region C1, and the positive region C1 A circular area C is formed from the minus area C2.
The width of the belt region H3 of the region C1 to which the positive weight is given is 5 pixels in the vertical direction, and the maximum in the horizontal direction of the positive region is 6 pixels. On the other hand, the size of the circle in the region C2 giving a negative weight is 11 pixels in diameter, the positive weight is 1.0, and the negative weight is -1.0.

次に、ベルト色類似度の計算を行う。
ベルト領域H3の赤色を(H、S、V)=(0.0、0.6、0.33)と仮定し、XYZ空間に変換する。各ピクセルの色情報(XYZ変換後)と、ベルト領域H3の赤色との差分をとる。

Figure 2009095631
なお、各ピクセルの色情報Hij、Sij、Vij(logへの変換)は数式1〜4と同様に求める。ただし、Sijは2つの色情報の差を大きくするために、1.0に固定してもよい。
色類似度を求める範囲は、後首領域と同様、x=150〜490、y=160〜320とする。Next, the belt color similarity is calculated.
The red color of the belt region H3 is assumed to be (H, S, V) = (0.0, 0.6, 0.33), and converted to the XYZ space. The difference between the color information of each pixel (after XYZ conversion) and the red color of the belt region H3 is taken.
Figure 2009095631
Note that the color information H ij , S ij , and V ij (conversion to log) of each pixel are obtained in the same manner as Equations 1 to 4. However, S ij may be fixed to 1.0 in order to increase the difference between the two color information.
The range for obtaining the color similarity is x = 150 to 490 and y = 160 to 320 as in the rear neck region.

背景領域は、色類似度が0になるように背景差分値を考慮し、赤に近いほうの値が大きくなるようにするために、ノルムを1から引く。
従って、ベルト色類似度は次式となる。

Figure 2009095631
ijは数式7の背景色ノルムと同じとする。In the background area, the background difference value is considered so that the color similarity is 0, and the norm is subtracted from 1 in order to increase the value closer to red.
Accordingly, the belt color similarity is given by the following equation.
Figure 2009095631
Let d ij be the same as the background color norm of Equation 7.

ベルト領域端部の探索領域H4、H5は、ベルトBの最左端点M2および最右端点M3から25ピクセル四方の領域とする。
次式に示すように、色抽出した領域から主軸L1の傾き角度θを求める。

Figure 2009095631
ここで、(xg、yg)は領域重心、Sは領域面積とし、m20は重心を原点にした場合のY軸についての二次モーメント、m02は重心を原点にした場合のX軸についての二次モーメンある。The search areas H4 and H5 at the end of the belt area are areas of 25 pixels square from the leftmost end point M2 and the rightmost end point M3 of the belt B.
As shown in the following equation, the inclination angle θ of the main axis L1 is obtained from the color extracted region.
Figure 2009095631
Here, (xg, yg) is the region centroid, S is the region area, m20 is the second moment about the Y axis when the center of gravity is the origin, and m02 is the secondary moment about the X axis when the center of gravity is the origin. There is momentum.

ついで、プラス領域C1およびマイナス領域C2を形成する円領域Cを数式10で求めた主軸方向L1の角度θに合うように回転させる。回転させた後に、探索領域H4、H5を左上から右下へ畳み込んでいく。探索領域H4、H5内の特定のピクセルにおける評価値結果は、次式のようになる。

Figure 2009095631
ここで、Fijは円領域Cの重み、Rはベルト色類似度とする。
数式11で求めた評価値が最大となるところを特徴点とする。Next, the circular region C that forms the plus region C1 and the minus region C2 is rotated so as to match the angle θ in the principal axis direction L1 obtained by Expression 10. After the rotation, the search areas H4 and H5 are folded from the upper left to the lower right. An evaluation value result at a specific pixel in the search areas H4 and H5 is expressed by the following equation.
Figure 2009095631
Here, F ij is the weight of the circular area C, and R is the belt color similarity.
A point where the evaluation value obtained by Expression 11 is maximized is defined as a feature point.

次に、踵点M4およびつま先点M5の特徴点の抽出について説明する。
前記したように、踵点M4およびつま先点M5の抽出は、靴周辺を探索範囲として設定し、該探索範囲のスウィング画像と背景画像とを差分した差分値を取得し、取得した情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記特徴点のM4、M5を特定して抽出している。
Next, extraction of feature points of the saddle point M4 and the toe point M5 will be described.
As described above, the heel point M4 and the toe point M5 are extracted by setting the shoe periphery as a search range, obtaining a difference value obtained by subtracting the swing image of the search range and the background image, and obtaining a grayscale image from the obtained information. And the feature points M4 and M5 are identified and extracted from the binarized image obtained by binarizing the grayscale image.

以下に詳述すると、踵点M4およびつま先点M5は、背景画像からのみ濃淡画像を求めている。
まず、図9に示すように、正面右足先座標から射影変換した靴23上の点Pを抽出し、該点Pを基準(x、y)にして点Pを基準に足全体を囲むように探索範囲を設定する。該探索範囲は、(x+40、y−25)、(x+40、y+25)(x−80、y+25)(X−80、y−25)とする。
ついで、後首領域と同様に、図10(A)〜(C)に示すように、差分処理をして濃淡画像を取得し、二値化したあと、収縮、その後膨張を行い、靴の最左下点を踵点M4、最右下点をつま先点M5として取得する。
なお、二値化については、領域面積に対して足面積が一定の割合であると仮定している。具体的には、Pタイル法から領域面積120×50に対して足が20%の1200となる閾値を決定することで二値化を行っている。
More specifically, the saddle point M4 and the toe point M5 require a gray image only from the background image.
First, as shown in FIG. 9, a point P on the shoe 23 obtained by projective transformation from the front right foot tip coordinates is extracted, and the entire foot is surrounded with the point P as a reference (x, y). Set the search range. The search range is (x + 40, y-25), (x + 40, y + 25) (x-80, y + 25) (X-80, y-25).
Next, as in the rear neck region, as shown in FIGS. 10A to 10C, a difference image is obtained to obtain a grayscale image, binarized, contracted and then expanded, The lower left point is acquired as the saddle point M4, and the lower rightmost point is acquired as the toe point M5.
For binarization, it is assumed that the foot area is a fixed ratio with respect to the area of the region. Specifically, binarization is performed by determining a threshold value of 1200 with a foot of 20% for a region area 120 × 50 from the P tile method.

次に、足・マットの交差点となる膝下点M6の抽出について詳述する。
図11に示すように、探索範囲H6は、マット端のラインL2を基準として、10ピクセル×40ピクセル四方としている。
(1)エッジ強度、(2)内側背景差分値(赤領域)、(3)外側背景差分値(青領域)とし、(1)×1.0+(2)×1.0+(3)×(−1)を踵とつま先の中心線L3からつま先に向けて1ピクセルずつ計算していき、図33の表に示すように、最大値となった点を足・マットの交差点M6としている(図12参照)。
なお、エッジ強度Dは次式で表される。

Figure 2009095631
なお、Dはカラー画像もしくは濃淡画像におけるX方向のソーベル強度であり、Dはカラー画像もしくは濃淡画像におけるY方向のソーベル強度である。Next, extraction of the lower knee point M6 that is the intersection of the foot and the mat will be described in detail.
As shown in FIG. 11, the search range H6 is 10 pixels × 40 pixels square with reference to the line L2 at the mat end.
(1) edge strength, (2) inner background difference value (red region), (3) outer background difference value (blue region), (1) × 1.0 + (2) × 1.0 + (3) × ( -1) is calculated pixel by pixel from the heel and toe center line L3 toward the toes, and the point having the maximum value is set as the foot / mat intersection M6 as shown in the table of FIG. 12).
The edge strength D is expressed by the following equation.
Figure 2009095631
Incidentally, D x is the Sobel intensity of X-direction in a color image or grayscale image, D y is the Sobel intensity in the Y direction in a color image or grayscale image.

前記のように特徴となるM1〜M6を抽出した後に、これらの特徴点M1〜M6を節点とする初期輪郭線を形成する。
以下に、初期輪郭線の形成方法について詳述する。
背中輪郭の線については、まず、図13に示すように、後首点M1とベルト最左端点M2との間の等分割した点を、背中輪郭の制御点Q1、Q2とする。
アドレス画像の場合、図13(A)に示すように、後首点M1とベルト最左端点M2を結んだ直線Aを三等分した各点を制御点Q1、Q2とする。
なお、インパクト画像の場合は、図13(B)に示すように、M1とM2を結んだ直線Aを四等分した各点を制御点Q1、Q2、Q3とする。
なお、後首点M1と後ベルト点となるM2を低次のベジェ曲線で結び、制御点を定めてもよい。
After extracting the features M1 to M6 as described above, initial contour lines having the feature points M1 to M6 as nodes are formed.
Below, the formation method of an initial stage outline is explained in full detail.
As for the back contour line, first, as shown in FIG. 13, points equally divided between the back neck point M1 and the belt leftmost point M2 are set as control points Q1 and Q2 of the back contour.
In the case of an address image, as shown in FIG. 13A, the points obtained by dividing the straight line A connecting the back neck point M1 and the belt leftmost point M2 into three equal parts are set as control points Q1 and Q2.
In the case of an impact image, as shown in FIG. 13B, the points obtained by dividing the straight line A connecting M1 and M2 into four equal parts are defined as control points Q1, Q2, and Q3.
The control point may be determined by connecting the rear neck point M1 and the rear belt point M2 with a low-order Bezier curve.

後脚輪郭の線の形成では、まず、図14に示すように、後脚輪郭の制御点P1、P2、P3を求める。これら制御点P1〜P3の求め方は、踵点M4とベルトの最左端点M2を結んだ直線Bの長さをL1とし、M2の背中輪郭から得る接線C上であって、M2から足方向にL1/3の距離延長した点を制御点P1とする。また、踵点M4と前記M2を結んだ直線Bの中点Paを求め、接線Cと平行であり該中点Paを通る直線を直線Dとする。中点Paから直線D上に上方向にL1/5の距離延長した点を制御点P2とし、制御点P2と踵点M4との中点を制御点P3とする。  In forming the rear leg contour line, first, as shown in FIG. 14, control points P1, P2, and P3 of the rear leg contour are obtained. The control points P1 to P3 are obtained by setting the length of the straight line B connecting the saddle point M4 and the leftmost end point M2 of the belt to L1, and on the tangent line C obtained from the back contour of M2, from M2 to the foot direction. A point extended by a distance of L1 / 3 is defined as a control point P1. Further, a midpoint Pa of a straight line B connecting the saddle point M4 and the M2 is obtained, and a straight line parallel to the tangent line C and passing through the midpoint Pa is defined as a straight line D. A point extended from the middle point Pa by a distance of L1 / 5 upward on the straight line D is defined as a control point P2, and a midpoint between the control point P2 and the saddle point M4 is defined as a control point P3.

前記背中初期輪郭線は特徴点のM1、制御点P1、P2、特徴点M2から形成しており、以下、アドレス時を例にして詳述する。
図15に示すように、後首点M1とベルト背面側の最左端点M2を結んだ直線Aの長さをL2とすると、後首点M1とベルトの最左端点Mを結んだ直線Aに垂直方向であって、背中輪郭側に、各制御点Q1、Q2を1ピクセルずつ(L2)/3の距離まで動かし、評価値が最小となる輪郭形状を求めている。
制御点は最小L2/3ピクセル移動させているので、評価値はL2/3通り存在する。該L2/3通りの評価値から、評価値が最小となる曲線を初期輪郭線として決定する。
The initial contour of the back is formed from feature points M1, control points P1, P2, and feature points M2, and will be described in detail below with reference to an address.
As shown in FIG. 15, when the length of the straight line A connecting the back neck point M1 and the leftmost end point M2 on the belt rear side is L2, the straight line A connecting the back neck point M1 and the leftmost end point M of the belt In the vertical direction, the control points Q1 and Q2 are moved pixel by pixel to a distance of (L2) / 3 on the back contour side to obtain a contour shape that minimizes the evaluation value.
Since the control point is moved by a minimum of L2 / 3 pixels, there are L2 / 3 evaluation values. From the L2 / 3 evaluation values, the curve having the minimum evaluation value is determined as the initial contour line.

評価値は、スイング画像と背景画像との差分値(輪郭線の外側と内側)と、輪郭線上のエッジ強度から求められ、数式13で表される。

Figure 2009095631
The evaluation value is obtained from the difference value between the swing image and the background image (outside and inside of the contour line) and the edge strength on the contour line, and is expressed by Equation 13.
Figure 2009095631

数式13において、Vedgeは、図16(A)に示すモデル曲線上のエッジ強度平均であり、Vedge=(輪郭モデル画素におけるエッジ強度の合計)/(輪郭モデル画素数)で求められる。
Vinは、図16(B)に示す輪郭モデル内側の領域における背景差分値平均であり、Vin=(輪郭モデル内側領域における背景差分値の合計)/(内側評価領域面積)で求められる。
Voutは、図16(B)に示す輪郭モデル外側の領域における背景差分値平均であり、Vin=(輪郭モデル外側領域における背景差分値の合計)/(外側評価領域面積)で求められる。
本実施形態では、図16(B)に示すように、Vin及びVoutにおいて領域面積を求める場合の幅を20ピクセルと想定している。
In Equation 13, Vedge is the average edge strength on the model curve shown in FIG. 16A, and is obtained by Vedge = (total edge strength in contour model pixels) / (number of contour model pixels).
Vin is an average of background difference values in the region inside the contour model shown in FIG. 16B, and is obtained by Vin = (total of background difference values in the contour model inner region) / (inner evaluation region area).
Vout is an average of background difference values in the region outside the contour model shown in FIG. 16B, and is obtained by Vin = (total of background difference values in the contour model outer region) / (outer evaluation region area).
In the present embodiment, as shown in FIG. 16B, it is assumed that the width in the case where the area of the region is obtained for Vin and Vout is 20 pixels.

ここで、Win,Wout、Wedgeは重み係数である。
アドレス時の背中輪郭抽出では、Win=1,Wout=−1、Wedge=1としている。
アドレス時、トップ時の後脚輪郭抽出、前脚輪郭抽出では、Win=1,Wout=−1、Wedge=0.25としており、インパクト時の背中輪郭抽出では、Win=1,Wout=−1、Wedge=0.2としている。インパクト時の前脚輪郭抽出では、Win=1,Wout=−1、Wedge=1としている。なお、Win,Wout、Wedgeの値は必ずしも前記値ではなく、ズボンの色等により調整している。
Here, Win, Wout, and Wedge are weighting factors.
In back contour extraction at the time of addressing, Win = 1, Wout = −1, and Wedge = 1.
Win = 1, Wout = −1 and Wedge = 0.25 in the rear leg contour extraction and front leg contour extraction at the time of address, and Win = 1, Wout = −1 in the back contour extraction at the time of impact. Wedge = 0.2. In the front leg contour extraction at the time of impact, Win = 1, Wout = −1, and Wedge = 1. Note that the values of Win, Wout, and Wedge are not necessarily the above values, but are adjusted according to the color of the pants.

曲線が正しくゴルファーのシルエットを抽出している場合は、Vinは背景とスイングを差分すると差分画像は存在するので大きくなる。Voutは背景とスイングを差分すると差分画像は存在しないので「0」になる。この部分の重み係数Woutをマイナスにするのは、曲線がシルエット上に正しく抽出していない時(人側に存在するとき)に、評価値を大きくするためである。また、曲線が正しくゴルファーのシルエットを抽出している場合、Vedgeは最も値が大きくなる。  When the curve correctly extracts the silhouette of the golfer, Vin becomes larger because the difference image exists when the background and the swing are differentiated. Vout becomes “0” when there is a difference between the background and the swing because there is no difference image. The reason why the weighting factor Wout of this part is negative is to increase the evaluation value when the curve is not correctly extracted on the silhouette (when it exists on the human side). In addition, when the curve correctly extracts a golfer's silhouette, Vedge has the largest value.

Vedgeを求める際に使用するエッジ強度について以下に説明する。
スウィング画像から、濃淡画像を求め、ソーベル法によりエッジ画像を取得している。エッジ画像はRGB画像ではなく、濃淡画像から取得しているので、図17に基づき、数式14で求められる。
なお、スイング画像から濃淡画像への変換は、濃淡画像=0.3×R+0.59×B+0.11×Bで求めている。

Figure 2009095631
The edge strength used when obtaining Vedge will be described below.
A grayscale image is obtained from the swing image, and an edge image is obtained by the Sobel method. Since the edge image is acquired not from the RGB image but from the grayscale image, the edge image is obtained by Expression 14 based on FIG.
Note that the conversion from a swing image to a grayscale image is obtained by grayscale image = 0.3 × R + 0.59 × B + 0.11 × B.
Figure 2009095631

次に、後脚初期輪郭線の形成について説明する。
まず、前記のように設定した制御点P1,P2,P3を夫々移動させて評価値を求め、評価値が最小となる曲線を評価値として決定する。
例えば、図18に示すように、制御点P1を前後左右斜め方向に所定ピクセルずつ(上下左右に10ピクセルずつ)離れた位置に移動させ、各位置での評価値を計9通り求める。同様に、制御点P2、P3も後左右斜め方向に移動させて各位置での評価値を求める。合計で9×9×9通りの評価値を得て評価値が最小となる制御点P1,P2、P3の組み合わせを得、曲線を初期輪郭線として決定する。
Next, formation of the rear leg initial contour line will be described.
First, the control points P1, P2, and P3 set as described above are moved to obtain an evaluation value, and a curve having the smallest evaluation value is determined as the evaluation value.
For example, as shown in FIG. 18, the control point P1 is moved to a position separated by a predetermined pixel (10 pixels vertically and horizontally) in the front-back, left-right, and diagonal directions, and a total of nine evaluation values are obtained at each position. Similarly, the control points P2 and P3 are also moved rearward and diagonally to obtain evaluation values at the respective positions. A total of 9 × 9 × 9 evaluation values are obtained to obtain a combination of control points P1, P2, and P3 that minimize the evaluation value, and a curve is determined as an initial contour line.

次に、前脚初期輪郭線の形成について説明する。
前脚初期輪郭線は後脚輪郭の収束結果、即ち後脚輪郭の最適形状とした制御点座標と端点を用い、図19に示すように、後脚輪郭の端点と制御点座標を回転移動、スケール変換することにより求める。端点とは、後脚ではベルト後端の最左端点M2と踵点M4であり、前脚はベルト前端の最右端点M3と膝下点M6である。
図20に示すように、スケール変換の倍率は、ベルト後端のM2と踵点M4をつないだ直線Eの長さとベルト前端のM4と膝下点M6とを繋いだ直線Fの長さとの比とし、後脚曲線を直線Eの向きの方向に圧縮する。また、回転移動は、2本直線E,Fの傾きの差を求め、直線Fの傾きに合うように、後脚曲線を回転させている。
Next, formation of the front leg initial contour line will be described.
As the initial contour of the front leg, the convergence result of the rear leg contour, that is, the control point coordinates and the end points which are the optimal shape of the rear leg contour are used. As shown in FIG. 19, the end points and control point coordinates of the rear leg contour are rotated and scaled. Obtained by conversion. The end points are the leftmost end point M2 and the saddle point M4 at the rear end of the belt on the rear leg, and the rightmost end point M3 and the lower knee point M6 at the front end of the belt on the front leg.
As shown in FIG. 20, the scale conversion magnification is a ratio of the length of the straight line E connecting the belt rear end M2 and the saddle point M4 to the length of the straight line F connecting the belt front end M4 and the knee point M6. The rear leg curve is compressed in the direction of the straight line E. Further, in the rotational movement, the difference between the inclinations of the two straight lines E and F is obtained, and the rear leg curve is rotated so as to match the inclination of the straight line F.

次に、トップ時の後脚初期輪郭線の形成について、図21,図22を用いて説明する。
トップ時の後脚初期輪郭線を求めるには、まず、図21のように、後述する最適化処理によりアドレス時の後脚輪郭線を収束させた収束結果を用い、該端点と制御点座標を前述したような回転移動、スケール変換することでテイク8時の後脚初期輪郭線を求める。該テイク8時の後脚初期輪郭線より、図22に示すように、収束結果を求める。
次に、テイク8時の収束結果より端点と制御点座標を回転移動、スケール変換して腕水平時の後脚初期輪郭線を求める。該後脚初期輪郭線より腕水平時の収束結果を求める。
次に、該収束結果より端点と制御点座標を回転移動、スケール変換してトップ時の後脚初期輪郭線を求める。
このように、アドレス時からテイク腕水平時まで輪郭線を順次追跡変形し、トップ時の後脚初期輪郭線を求める。なお、テイク8時、腕水平時だけでなく、他のスウィング姿勢における初期輪郭線を求めても良い。
また、他の画像の輪郭を用いない場合は、アドレス時と同様の方法で初期輪郭を求めてもよい。
Next, formation of the rear leg initial contour line at the time of the top will be described with reference to FIGS.
In order to obtain the initial hind leg contour at the time of top, first, as shown in FIG. 21, the convergence result obtained by converging the hind leg outline at the address by the optimization process described later is used. The rear leg initial contour line at the time of take 8 is obtained by rotational movement and scale conversion as described above. A convergence result is obtained from the rear leg initial contour line at the time of the take 8 as shown in FIG.
Next, the end point and the control point coordinates are rotationally moved and scale-converted from the convergence result at the time of take 8 to obtain the rear leg initial contour line when the arm is horizontal. The convergence result when the arm is horizontal is obtained from the rear leg initial contour line.
Next, the end point and the control point coordinates are rotationally moved and scale-converted from the convergence result to obtain the initial hind leg contour at the top.
In this way, the contour line is sequentially tracked and deformed from the address time to the horizontal time of the take arm, and the rear leg initial contour line at the top time is obtained. Note that the initial contour line may be obtained not only at the time of take 8 and when the arm is horizontal, but also in other swing postures.
When the contour of another image is not used, the initial contour may be obtained by the same method as that for addressing.

前記した初期輪郭線を形成した後、該輪郭線を最適処理化して最適形状へ収束させる処理を行っている。該最適化処理は準ニュートン法を行い、輪郭線評価値が最小となる制御点座標を求めている。  After the initial contour is formed, the contour is optimized and converged to the optimal shape. The optimization process uses a quasi-Newton method to obtain control point coordinates that minimize the contour evaluation value.

まず、準ニュートン法の原理について説明する。
最初に、関数f(x)の最小化問題を考える。
X=Xの近傍においてf(x)をテイラー展開(2次まで)により近似した2次モデルは、数式15となる。
First, the principle of the quasi-Newton method will be described.
First, consider the minimization problem of the function f (x).
Quadratic model approximated by X = X k Taylor expansion of f (x) in the vicinity of (up to second order) becomes Equation 15.

Figure 2009095631
Figure 2009095631

数式15中において、H(x)はヘッセ行列(fを2回微分した行列)であり、正定値対称行列(n×n行列Aがx=0でない全てのn次元ベクトルxに対して、不等式xAx>=0を満たす行列)であるとき、関数fは下に凸な関数になる。つまり、f’=0は最小になる。
f(x)を微分すると、数式16となる。

Figure 2009095631
数式16は、図23の直線Gを表している。
f(x)は2次式なのでf’(x)=0のときxが最小になる。即ち、数式17で表される。
Figure 2009095631
上式を解いて求めたxをxk+1として更新していくと、数式18に示すようにf’=0に収束していく。
Figure 2009095631
In Equation 15, H (x k ) is a Hessian matrix (matrix obtained by differentiating f twice), and a positive definite symmetric matrix (for all n-dimensional vectors x in which the n × n matrix A is not x = 0, When the inequality x T Ax> = 0, the function f becomes a downward convex function. That is, f ′ = 0 is minimum.
When f (x) is differentiated, Equation 16 is obtained.
Figure 2009095631
Equation 16 represents the straight line G in FIG.
Since f (x) is a quadratic expression, x is minimized when f ′ (x) = 0. That is, it is expressed by Expression 17.
Figure 2009095631
When x obtained by solving the above equation is updated as x k + 1 , it converges to f ′ = 0 as shown in Equation 18.
Figure 2009095631

数式18は最適化したい関数が2次のものであればヘッセ行列の逆行列の前は1である。しかし、実際問題に応用して用いる場合には,αを逐次探索して最も良い結果を返す方が効率的である。従って、数式19を用いて、xをxk+1として更新してf(x)の最小値に収束させる。
このとき、ヘッセ逆行列(xk+1−1は数式20となる。

Figure 2009095631
Figure 2009095631
In Equation 18, if the function to be optimized is a quadratic function, 1 is before the inverse of the Hessian matrix. However, when it is applied to an actual problem, it is more efficient to search α sequentially and return the best result. Therefore, using Equation 19, x is updated as x k + 1 and converged to the minimum value of f (x).
At this time, the Hessian inverse matrix (x k + 1 ) −1 becomes Equation 20.
Figure 2009095631
Figure 2009095631

本実施形態においては、図24に示すように、f(x)のXは制御点Pのベクトル値であり、例えば2つの制御点P1、P2が存在する場合、x=(x1,y1,x2,y2)である。
前述したように制御点P1、P2をある範囲で動かしてそれぞれの評価値を求め、評価値が最小の場合のxをxk+1とする。具体的には、数式19のαを変化させxk+1を求め、xk+1毎にベジェ曲線を作成し、ベジェ曲線毎に評価値を求める。評価値が最小となるxk+1を選択し、再び、数式19のxにxk+1を代入する。このように、数式19の計算を繰り返して評価値が高いxを求める。
In this embodiment, as shown in FIG. 24, X of f (x) is a vector value of the control point P. For example, when there are two control points P1 and P2, x = (x1, y1, x2). , Y2).
As described above, the control points P1 and P2 are moved within a certain range to obtain respective evaluation values, and x when the evaluation value is minimum is set to xk + 1 . Specifically, α in Equation 19 is changed to obtain x k + 1 , a Bezier curve is created for each x k + 1 , and an evaluation value is obtained for each Bezier curve. X k + 1 that minimizes the evaluation value is selected, and x k + 1 is substituted for x in Equation 19 again. In this way, the calculation of Expression 19 is repeated to obtain x having a high evaluation value.

最適化処理の計算は、以下の(1)〜(3)のいずれかの場合に終了する。
(1)計算回数が500回を超えた場合
(2)一度前の計算での評価値が今回の計算での評価値とほとんど変わらない場合(評価値変化の絶対値が引数eps=0.001以下)
(3)評価関数の微分値(傾き)がeps以下のとき(関数形状がほぼ平坦のとき)
該最適化処理の計算が終了したときのxが、評価値が最小の制御点P1,P2の座標位置となる。
The calculation of the optimization process ends in any of the following (1) to (3).
(1) When the number of calculations exceeds 500 (2) When the evaluation value in the previous calculation is hardly different from the evaluation value in this calculation (the absolute value of the evaluation value change is the argument eps = 0.001) Less than)
(3) When the differential value (slope) of the evaluation function is eps or less (when the function shape is almost flat)
When the calculation of the optimization process is completed, x becomes the coordinate position of the control points P1 and P2 having the smallest evaluation value.

図25は準ニュートン法により、評価値が最小となる制御点の座標位置を求めるフローチャートである。
ステップS1では、制御点の初期値をx(0)、評価値をf(x(0))としている。
k=0、H(X0)−1=I(単位行列)とする。
ステップS2では、f‘(x(k))を計算し、|f‘(x(k))|<εであるかを判断している。もしくは、k>500であるか、|f(x(k))−f(x(k−1))|<ε(k>0)であるかを判断している。該条件式を満たす場合には、フローチャートを終了する。
ステップS3では、数式19を計算している。αは0〜1まで0.01刻みであり、101通りのx(k+1)が得られる。101通りのベジェ曲線を作成し、該ベジェ曲線毎に評価値を101通り求める。
ステップS4では、101通りのx(k+1)からf(x(k+1))が最小になるx(k+1)を決定している。即ち、評価値が最小になるαを決定し、数式19から次にステップS3に戻ったときに用いるx(k+1)を決定する。
ステップS5では、f‘(x(k+1))を計算している。f‘(x(k+1))は数式21で求められ、関数f(x)の微分ベクトルである。なお、f(x)はスカラーであるが、f‘(x)はベクトルである。
ステップS6では、数式20のヘッセ逆行列を計算している。
ステップS7ではk=k+1とし、ステップS2へ戻っている。
図25のフローチャートをステップS2で最適化処理の計算が終了するまで繰り返し、終了した時点でのXが制御点P1,P2の座標位置となる。
FIG. 25 is a flowchart for obtaining the coordinate position of the control point having the smallest evaluation value by the quasi-Newton method.
In step S1, the initial value of the control point is x (0), and the evaluation value is f (x (0)).
Let k = 0, H (X0) −1 = I (unit matrix).
In step S2, f ′ (x (k)) is calculated, and it is determined whether | f ′ (x (k)) | <ε. Alternatively, it is determined whether k> 500 or | f (x (k)) − f (x (k−1)) | <ε (k> 0). If the conditional expression is satisfied, the flowchart is terminated.
In step S3, Formula 19 is calculated. α is in steps of 0.01 from 0 to 1, and 101 types of x (k + 1) are obtained. 101 types of Bezier curves are created, and 101 evaluation values are obtained for each of the Bezier curves.
In step S4, x (k + 1) that minimizes f (x (k + 1)) from 101 types of x (k + 1) is determined. That is, α that minimizes the evaluation value is determined, and x (k + 1) to be used when returning to step S3 from Equation 19 is determined.
In step S5, f ′ (x (k + 1)) is calculated. f ′ (x (k + 1)) is obtained by Expression 21 and is a differential vector of the function f (x). Note that f (x) is a scalar, but f ′ (x) is a vector.
In step S6, the Hessian inverse matrix of Equation 20 is calculated.
In step S7, k = k + 1 is set, and the process returns to step S2.
The flowchart of FIG. 25 is repeated until the calculation of the optimization process is completed in step S2, and X at the time of completion becomes the coordinate position of the control points P1 and P2.

Figure 2009095631
Figure 2009095631

なお、ステップS3のベジェ曲線は、制御点と特徴点の座標位置から求めることができる。x(k+1)は制御点P1,P2の座標位置を示しており、図26の例では、制御点P1,P2の座標位置と、特徴点である後首点M1とベルト最左端点M2の座標位置の4点から3次のベジェ曲線Gを得て、最適な輪郭線としている。
3次のベジェ曲線は数式22として表すことができる。画像上にベジェ曲線をプロットする場合は、tの値を0.01刻みで変化させて、その小数点以下を四捨五入して曲線上のピクセル情報を決めている。なお数式21のBは後首点M1の座標位置を示し、Bはベルト最左端点M2の座標位置を示し、B及びBは制御点P1,P2の座標位置を示している。

Figure 2009095631
Note that the Bezier curve in step S3 can be obtained from the coordinate positions of the control points and feature points. x (k + 1) indicates the coordinate positions of the control points P1 and P2, and in the example of FIG. 26, the coordinate positions of the control points P1 and P2, and the coordinates of the rear neck point M1 and the belt leftmost point M2 that are characteristic points. A cubic Bezier curve G is obtained from the four points of the position, and is used as an optimum contour line.
A cubic Bezier curve can be expressed as Equation 22. When a Bezier curve is plotted on an image, the value of t is changed in increments of 0.01, and the pixel information on the curve is determined by rounding off the decimal point. In Equation 21, B 0 indicates the coordinate position of the rear neck point M1, B 3 indicates the coordinate position of the belt leftmost point M2, and B 1 and B 2 indicate the coordinate positions of the control points P1 and P2.
Figure 2009095631

図27(A)〜(D)および図28に第1実施例を示す。
第1実施例ではアドレス時の背中輪郭線の抽出している。
図27(A)に示すゴルファーが撮影されたがアドレス時の静止画像をコンピュータに格納し、コンピュータに内蔵したプログラムにより、図27(B)に示す差分画像と、図27(C)に示すエッジ画像を形成している。前述した特徴点M1、M2の抽出を用いて、初期輪郭線の形成し、取得した初期輪郭線を最適化処理して、図27(D)に示す最適化処理された輪郭線101(図中、赤線で示す)を有するゴルファーのシルエットを取得している。
図28は、前記初期輪郭線の形成時及び、該初期輪郭線の形成後の最適化処理する時に、評価値Vを最小とするために5回の輪郭線を作成して収束した経過を示している。
27A to 27D and FIG. 28 show the first embodiment.
In the first embodiment, the back contour line at the time of addressing is extracted.
The still image at the time of addressing the golfer shown in FIG. 27 (A) is stored in a computer, and the difference image shown in FIG. 27 (B) and the edge shown in FIG. 27 (C) are stored by a program built in the computer. An image is formed. Using the above-described extraction of the feature points M1 and M2, an initial contour line is formed, the acquired initial contour line is optimized, and the optimized contour line 101 shown in FIG. A golfer's silhouette is obtained (shown in red line).
FIG. 28 shows the process of creating and converging five contour lines in order to minimize the evaluation value V when the initial contour line is formed and when the optimization process after the initial contour line is formed. ing.

図29および図30に第2実施例を示す。
第2実施例では、図29に示すアドレス画像の後脚と、図30に示す前脚の輪郭線の抽出を行っている。
図29(A)は最適化処理した後脚輪郭線102を備え、図29(B)に示すように、評価値Vが最小となるように5回の輪郭線を作成して収束した経過を示している。
図30(A)は最適化処理した前脚輪郭線103を備え、図30(B)に示すように、評価値Vが最小となるように6回の輪郭線を作成して収束した経過を示している。
29 and 30 show a second embodiment.
In the second embodiment, the rear legs of the address image shown in FIG. 29 and the contour lines of the front legs shown in FIG. 30 are extracted.
FIG. 29A includes an optimized rear leg contour 102. As shown in FIG. 29B, five contours are created so that the evaluation value V is minimized, and the process of convergence is shown. Show.
FIG. 30A shows the progress of convergence by creating an outline 6 times so as to minimize the evaluation value V as shown in FIG. ing.

図31および図32に第3実施例を示す。
第3実施例では、トップ画像の後脚輪郭線104の抽出を行っている。
図31(A)に示すゴルファーが撮影されたがトップ時の静止画像をコンピュータに格納し、コンピュータに内蔵したプログラムにより、図31(B)に示す差分画像と、図31(C)に示すエッジ画像を形成している。前述した特徴点M1、M2の抽出を用いて初期輪郭線を形成し、取得した初期輪郭線を最適化処理して、図31(D)に示す最適化処理された輪郭線104を有するゴルファーのシルエットを取得している。
図32は、前記初期輪郭線の形成時及び、該初期輪郭線の形成後の最適化処理する時に、評価値Vを最小とするために6回の輪郭線を作成して収束した経過を示している。
なお、このときの初期値はテイク腕水平での収束結果を利用している。
31 and 32 show a third embodiment.
In the third example, the rear leg outline 104 of the top image is extracted.
The golfer shown in FIG. 31A is photographed, but the still image at the top is stored in the computer, and the difference image shown in FIG. 31B and the edge shown in FIG. An image is formed. The initial contour line is formed by using the extraction of the feature points M1 and M2 described above, the obtained initial contour line is optimized, and the golfer having the optimized contour line 104 shown in FIG. Get a silhouette.
FIG. 32 shows a process of creating and converging six contour lines in order to minimize the evaluation value V when the initial contour line is formed and when the optimization process after the initial contour line is formed. ing.
Note that the initial value at this time uses the result of convergence in the horizontal direction of the take arm.

前記のように、本発明のゴルフスウィング計測システムでは、屋外や屋内等の任意の場所でデジタルカメラ、アナログカメラ、さらには携帯電話のカメラでカラー撮影されたスウィング画像のデータを、シルエット抽出機能を有する画像処理用のプログラムを格納したコンピュータに取り込むと、任意に選択したアドレス、トップ、インパクト、フィニッシュ等から選択した静止画面に基づいて、ゴルファーのシルエットにフィットしたシルエットの抽出を行うことができる。  As described above, the golf swing measurement system of the present invention has a silhouette extraction function for data of a swing image taken in color by a digital camera, an analog camera, or a mobile phone camera at any place such as outdoors or indoors. When the image processing program is loaded into a computer, a silhouette fitted to the golfer's silhouette can be extracted based on a still screen selected from an arbitrarily selected address, top, impact, finish, or the like.

かつ、前述したエッジ画像を利用して最適化したシルエットを作成していることにより、ゴルファーの背景が日照条件等によって変化しても、該変化に影響されることなく、ゴルファーのシルエットの抽出を精度よく行うことができる。
このように、背景画像とスウィング画像との差分画像だけでなく、エッジ画像を併用していることで、背景が多少変化してもシルエットの抽出が行え、その結果、ゴルフスウィング計測装置を設置した専用の場所でなくとも、さらには、屋外で撮影したスウィング画像を用いてスウィング計測を行うことができる。
In addition, by creating an optimized silhouette using the above-mentioned edge image, even if the golfer's background changes due to sunshine conditions, etc., the golfer's silhouette can be extracted without being affected by the change. It can be performed with high accuracy.
In this way, not only the difference image between the background image and the swing image but also the edge image can be used together to extract the silhouette even if the background changes slightly. As a result, the golf swing measurement device was installed. Even if it is not a dedicated place, swing measurement can be performed using a swing image taken outdoors.

は本発明のゴルフスウィング計測システムの構成を示す概略図である。  FIG. 1 is a schematic view showing a configuration of a golf swing measurement system of the present invention. はゴルフスウィング計測時に抽出する特徴点を示す図面である。  These are figures which show the feature point extracted at the time of golf swing measurement. 後首の特徴点を求めるための探索範囲および探索範囲の基準点を示す図面である。  It is drawing which shows the search range for calculating | requiring the feature point of a back neck, and the reference point of a search range. 図3から得た濃淡画像を示す図面である。  It is drawing which shows the grayscale image obtained from FIG. (A)は図4の画像を二値化した画像を示す図面、(B)は(A)を収縮、その後膨張させた図面、(C)は後首の特徴点を示す説明図である。  4A is a diagram showing an image obtained by binarizing the image of FIG. 4, FIG. 5B is a diagram in which (A) is contracted and then expanded, and FIG. 5C is an explanatory diagram showing feature points of the back neck. ベルト領域周辺の図面である。  It is drawing around a belt area. ベルト領域の特徴点を示す図面である。  It is drawing which shows the feature point of a belt area | region. (A)はベルト領域端部の探索領域を説明する図面、(B)はベルト領域端部のマイナス領域とプラス領域を示す概念図である。  (A) is a drawing for explaining a search region at the belt region end, and (B) is a conceptual diagram showing a minus region and a plus region at the belt region end. 踵点およびつま先点を説明する図面である。  It is drawing explaining a saddle point and a toe point. (A)は二値化した画像を示す図面、(B)は(A)を収縮、その後膨張させた画像を示す図面、(C)は(B)からは踵点および爪先点を求める画像を説明する図面である。  (A) is a drawing showing a binarized image, (B) is a drawing showing an image obtained by contracting and then expanding (A), and (C) is an image for obtaining a saddle point and a toe point from (B). It is drawing to explain. 足・マットの交差点を求めるための探索範囲および基準のラインを説明する図面である。  It is drawing explaining the search range and reference | standard line for calculating | requiring the intersection of a foot | mat | matte. 足・マットの交差点を説明する図面である。  It is drawing explaining the intersection of a foot and a mat. 背中輪郭の線の形成の説明図であり、(A)はアドレス画像、(B)はインパクト画像の場合である。  It is explanatory drawing of formation of the line of a back outline, (A) is an address image, (B) is a case of an impact image. 後脚輪郭の線の形成の説明図である。  It is explanatory drawing of formation of the line of a back leg outline. 背中初期輪郭線の形成の説明図である。  It is explanatory drawing of formation of a back initial outline. (A)はモデル曲線上のエッジ強度平均の説明図、(B)は輪郭モデル内側の領域における背景差分値平均及び輪郭モデル外側の領域における背景差分値平均の説明図である。  (A) is explanatory drawing of the edge strength average on a model curve, (B) is explanatory drawing of the background difference value average in the area | region inside an outline model, and the background difference value average in the area | region outside an outline model. エッジ強度を求める説明図である。  It is explanatory drawing which calculates | requires edge strength. 制御点の動かし方の説明図である。  It is explanatory drawing of how to move a control point. 前脚初期輪郭線の形成のスケール変換、回転移動の説明図である。  It is explanatory drawing of scale conversion and rotation movement of formation of a front leg initial outline. 前脚初期輪郭線の形成の説明図である。  It is explanatory drawing of formation of a front leg initial outline. トップ時の後脚初期輪郭線の説明図である。  It is explanatory drawing of the rear leg initial stage outline at the time of a top. トップ時の後脚初期輪郭線の説明図である。  It is explanatory drawing of the rear leg initial stage outline at the time of a top. 最適化処理の説明図である。  It is explanatory drawing of an optimization process. 制御点の説明図である。  It is explanatory drawing of a control point. 最適化処理を示すフローチャートである。  It is a flowchart which shows an optimization process. ベジェ曲線の説明図である。  It is explanatory drawing of a Bezier curve. 第1実施例のアドレス時の背中輪郭線の形成工程を示し、(A)〜(C)は各工程の画像を示す写真、(D)はシルエットの結果を元のスイング画像に重ねた写真である。  The back contour line forming process at the time of address in the first embodiment is shown, (A) to (C) are photographs showing images of the respective processes, and (D) is a photograph in which the result of the silhouette is superimposed on the original swing image. is there. 第1実施例の評価値に対して最小となるように輪郭線を形成した経過を示す表である。  It is a table | surface which shows the progress which formed the outline so that it might become the minimum with respect to the evaluation value of 1st Example. (A)は第2実施例のアドレス時の後脚輪郭線を元のスイング画像に重ねた写真、(B)は評価値に対して最小となるように輪郭線を形成した経過を示す表である。  (A) is a photograph in which the rear leg contour line at the address of the second embodiment is superimposed on the original swing image, and (B) is a table showing the process of forming the contour line so as to be the minimum with respect to the evaluation value. is there. (A)は第2実施例のアドレス時の前脚輪郭線を元のスイング画像に重ねた写真、(B)は評価値に対して最小となるように輪郭線を形成した経過を示す表である。  (A) is a photograph in which the front leg contour line at the time of addressing in the second embodiment is superimposed on the original swing image, and (B) is a table showing the process of forming the contour line so as to be the minimum with respect to the evaluation value. . 第3実施例のトップ時の後脚輪郭線の形成工程を示し、(A)〜(C)は各工程の画像を示す写真、(D)はシルエットの結果を元のスイング画像に重ねた写真である。  The top leg hind legs contour forming process of the third embodiment is shown, (A) to (C) are photographs showing images of the respective processes, and (D) is a photograph in which the result of the silhouette is superimposed on the original swing image. It is. 第3実施例の評価値に対して最小となるように輪郭線を形成した経過を示す表である。  It is a table | surface which shows the progress which formed the outline so that it might become the minimum with respect to the evaluation value of 3rd Example. 図11および図12における膝下点の抽出を示す表である。  It is a table | surface which shows extraction of the knee point in FIG. 11 and FIG.

符号の説明Explanation of symbols

11 ゴルファー
14 カメラ
16 コンピュータ
M1〜M6 特徴点
100〜104 最適化処理で収束された輪郭線
DESCRIPTION OF SYMBOLS 11 Golfer 14 Camera 16 Computer M1-M6 Feature point 100-104 Contour line converged by optimization processing

Claims (10)

ゴルフクラブを把持してスウィングするゴルファーを撮影した少なくとも1枚のカラー画像を取り込む演算処理手段を備え、
前記演算処理手段は、
前記ゴルファーのスウィング画像からゴルファーのスウィング時の姿勢を特定できる複数の特徴点を抽出し、該特徴点の位置座標を取得し、該抽出した複数の特徴点の位置座標間を結んで各身体部位の形状に応じた初期輪郭線を形成し、該初期輪郭線を最適化処理して最適形状に収束して、ゴルファーのスウィング姿勢の所要部位のシルエットを抽出する画像処理機能を備えていることを特徴とするゴルフスウィング計測システム。
Computation processing means for capturing at least one color image of a golfer who holds and swings a golf club,
The arithmetic processing means includes:
Extracting a plurality of feature points that can identify a golfer's swinging posture from the golfer's swing image, obtaining position coordinates of the feature points, and connecting the extracted position coordinates of the plurality of feature points to each body part The image processing function is provided to extract the silhouette of the required part of the golfer's swing posture by forming an initial contour line corresponding to the shape of the golf ball, optimizing the initial contour line and converging to the optimal shape. A unique golf swing measurement system.
前記演算処理手段に取り込んだカラー画像からスウィング画像と背景画像を取得し、
前記スウィング画像と背景画像を差分した差分値と、スウィング画像から濃淡画像を取得し、該濃淡画像を基にソーベル法によりエッジ画像を取得し、
前記差分画像とエッジ画像を用いて評価値を作成し、該評価値が最小となるように前記特徴点間を結ぶ線はベジェ曲線からなる近似曲線より変化させている請求項1に記載のゴルフスウィング計測システム。
A swing image and a background image are obtained from the color image captured by the arithmetic processing means,
A difference value obtained by subtracting the swing image and the background image, a grayscale image is obtained from the swing image, an edge image is obtained by a Sobel method based on the grayscale image,
The golf according to claim 1, wherein an evaluation value is created using the difference image and the edge image, and a line connecting the feature points is changed from an approximate curve made of a Bezier curve so that the evaluation value is minimized. Swing measurement system.
前記エッジ画像上の各ピクセルの濃淡度をエッジ強度とし、前記評価値は、前記差分値とエッジ強度とを用いて設定している請求項2に記載のゴルフスウィング計測システム。  The golf swing measurement system according to claim 2, wherein the intensity of each pixel on the edge image is defined as an edge strength, and the evaluation value is set using the difference value and the edge strength. 前記スウィング時のゴルファーのカラー画像は、アナログ式またはデジタル式の専用カメラ、または携帯電話機を含む電子機器に付設されたカメラにより撮影され、
屋内または屋外におけるスウィング時のアドレスからフィニシュまで連続した動画像から取得した少なくとも1枚の静止画像、またはアドレスからフィニシュまでの間の少なくとも1枚の静止画像からなる請求項1乃至請求項3のいずれか1項に記載のゴルフスウィング計測システム。
The golfer's color image during the swing is taken by an analog or digital dedicated camera, or a camera attached to an electronic device including a mobile phone,
4. The method according to claim 1, further comprising: at least one still image acquired from a continuous moving image from an address during swinging indoors or outdoors to a finish, or at least one still image between an address and a finish. The golf swing measurement system according to claim 1.
前記カラー画像から抽出する特徴点の位置は、後首、ウエスト位置の背面側と前面側の両端位置、靴のつま先位置と踵位置、および膝下位置を含む請求項1乃至請求項4のいずれか1項に記載のゴルフスウィング計測システム。  The position of the feature point extracted from the color image includes the rear neck, both end positions on the back side and the front side of the waist position, the toe position of the shoe, the heel position, and the lower knee position. The golf swing measurement system according to item 1. 前記後首、ウエスト位置の背面側と前面側の両端位置の各特徴点の抽出は、前記各特徴点を備える身体部周辺のスウィング画像と背景画像を差分した差分値およびゴルファーの服色領域から取得した色情報とスウィング画像を差分した差分値を取得し、取得した2つの差分値の情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記特徴点を特定して抽出している請求項5に記載のゴルフスウィング計測システム。  Extraction of the respective feature points at the back side and the front side both ends of the back neck and the waist position is based on a difference value obtained by subtracting a swing image and a background image around the body part including the feature points and a golfer's clothing color area. A difference value obtained by subtracting the acquired color information and the swing image is acquired, a grayscale image is acquired from information of the acquired two difference values, and the feature point is obtained from the binarized image obtained by binarizing the grayscale image. The golf swing measurement system according to claim 5, wherein the golf swing measurement system is specified and extracted. 前記靴のつま先位置と踵位置の特徴点の抽出は、特徴点を備える靴周辺のスウィング画像と背景画像とを差分した差分値を取得し、取得した情報から濃淡画像を取得し、該濃淡画像を二値化処理した二値化処理画像から前記特徴点を特定して抽出している請求項5に記載のゴルフスウィング計測システム。  The feature points of the toe position and the heel position of the shoe are extracted by obtaining a difference value obtained by subtracting a swing image around the shoe including the feature point and a background image, obtaining a grayscale image from the obtained information, and obtaining the grayscale image. The golf swing measurement system according to claim 5, wherein the feature point is specified and extracted from a binarized image obtained by binarizing the image. 前記膝下位置の特徴点の抽出は、特徴点を備える身体部位周辺のスウィング画像と背景画像との差分値と、前記エッジ強度とからなる評価値を求め、該評価値が最大となる箇所を特定して抽出している請求項5に記載のゴルフスウィング計測システム。  Extraction of the feature point at the position below the knee is performed by obtaining an evaluation value composed of a difference value between a swing image around the body part having the feature point and a background image and the edge strength, and specifying a portion where the evaluation value is maximized The golf swing measurement system according to claim 5, wherein the golf swing measurement system is extracted. 前記初期輪郭線の形成は、前記特徴点間を結ぶ線の周辺について、スウィング画像と背景画像とを差分して差分値と前記エッジ強度とからなる評価値を求め、
前記特徴点間に存在する複数点を制御点とし、
前記評価値が最小となるように前記制御点を動かすことによって生成された近似曲線で形成している請求項3乃至請求項8のいずれか1項に記載のゴルフスウィング計測システム。
For the formation of the initial contour line, around the line connecting the feature points, a swing image and a background image are subtracted to obtain an evaluation value consisting of the difference value and the edge strength,
A plurality of points existing between the feature points as control points,
The golf swing measurement system according to any one of claims 3 to 8, wherein the golf swing measurement system is formed by an approximate curve generated by moving the control point so that the evaluation value is minimized.
前記初期輪郭線の最適化処理は、前記初期輪郭線の前記スウィング画像と背景画像との差分値と前記エッジ強度から構成される評価値を求め、該評価値が最小となる曲線を準ニュートン法を用いて最適形状に収束している請求項3乃至請求項9のいずれか1項に記載のゴルフスウィング計測システム。  The optimization process of the initial contour line obtains an evaluation value composed of a difference value between the swing image and the background image of the initial contour line and the edge intensity, and a curve having the minimum evaluation value is obtained by a quasi-Newton method The golf swing measurement system according to claim 3, wherein the golf swing measurement system is converged to an optimal shape using
JP2007297255A 2007-10-18 2007-10-18 Golf swing measuring system Withdrawn JP2009095631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007297255A JP2009095631A (en) 2007-10-18 2007-10-18 Golf swing measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007297255A JP2009095631A (en) 2007-10-18 2007-10-18 Golf swing measuring system

Publications (1)

Publication Number Publication Date
JP2009095631A true JP2009095631A (en) 2009-05-07

Family

ID=40699182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007297255A Withdrawn JP2009095631A (en) 2007-10-18 2007-10-18 Golf swing measuring system

Country Status (1)

Country Link
JP (1) JP2009095631A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011177341A (en) * 2010-03-01 2011-09-15 Sri Sports Ltd Diagnosing method of golf swing
JP2013138742A (en) * 2011-12-29 2013-07-18 Dunlop Sports Co Ltd Diagnosing method of golf swing
JP2015139562A (en) * 2014-01-29 2015-08-03 横浜ゴム株式会社 Swing measurement method and swing measurement device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011177341A (en) * 2010-03-01 2011-09-15 Sri Sports Ltd Diagnosing method of golf swing
JP2013138742A (en) * 2011-12-29 2013-07-18 Dunlop Sports Co Ltd Diagnosing method of golf swing
JP2015139562A (en) * 2014-01-29 2015-08-03 横浜ゴム株式会社 Swing measurement method and swing measurement device

Similar Documents

Publication Publication Date Title
CN109863535B (en) Motion recognition device, storage medium, and motion recognition method
KR101833364B1 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
US7704157B2 (en) Golf swing-measuring system
JP5873442B2 (en) Object detection apparatus and object detection method
CN103155003B (en) Posture estimation device and posture estimation method
CN108053283B (en) Garment customization method based on 3D modeling
US9159134B2 (en) Method and apparatus for estimating a pose
GB2414190A (en) Golf swing diagnosis apparatus
JP5898014B2 (en) Posture estimation apparatus, posture estimation method, and posture estimation program
US8894500B2 (en) Diagnosing method of golf swing
JP2012123667A (en) Attitude estimation device and attitude estimation method
Elaoud et al. Skeleton-based comparison of throwing motion for handball players
JP4765075B2 (en) Object position and orientation recognition system using stereo image and program for executing object position and orientation recognition method
KR20180062069A (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
JP2022043264A (en) Motion evaluation system
JP4256289B2 (en) Golf swing diagnostic system
JP2012113438A (en) Posture estimation apparatus and posture estimation program
JP4256290B2 (en) Golf swing diagnostic system
JP2009095631A (en) Golf swing measuring system
WO2020147797A1 (en) Image processing method and apparatus, image device, and storage medium
WO2018207388A1 (en) Program, device and method relating to motion capture
CN107901424A (en) A kind of Image Acquisition modeling
TWI764393B (en) Manufacturing method of pressure garment
JP2021099666A (en) Method for generating learning model
JP4283147B2 (en) Golf swing measurement method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110104