JP2017074350A - Swing analysis apparatus, method, and program - Google Patents

Swing analysis apparatus, method, and program Download PDF

Info

Publication number
JP2017074350A
JP2017074350A JP2015250470A JP2015250470A JP2017074350A JP 2017074350 A JP2017074350 A JP 2017074350A JP 2015250470 A JP2015250470 A JP 2015250470A JP 2015250470 A JP2015250470 A JP 2015250470A JP 2017074350 A JP2017074350 A JP 2017074350A
Authority
JP
Japan
Prior art keywords
image
swing
dimensional coordinates
depth
shaft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015250470A
Other languages
Japanese (ja)
Other versions
JP6944144B2 (en
Inventor
祐樹 永野
Yuki Nagano
祐樹 永野
伸敬 島田
Nobutaka Shimada
伸敬 島田
良明 白井
Yoshiaki Shirai
良明 白井
植田 勝彦
Katsuhiko Ueda
勝彦 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Dunlop Sports Co Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Dunlop Sports Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Ritsumeikan Trust, Dunlop Sports Co Ltd filed Critical Sumitomo Rubber Industries Ltd
Publication of JP2017074350A publication Critical patent/JP2017074350A/en
Application granted granted Critical
Publication of JP6944144B2 publication Critical patent/JP6944144B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a swing analysis apparatus capable of analyzing a swing motion in a simple and highly accurate manner.SOLUTION: Provided is a swing analysis apparatus 1 for analyzing a swing motion of a golf club performed by a golfer 7. The swing analysis apparatus comprises an acquisition unit and a derivation unit. The acquisition unit acquires a depth image of the swing motion captured by a distance image sensor 2. The derivation unit derives, based on the depth image, positional information of a predetermined position of the golf club or of the golfer during the swing motion, or a three-dimensional vector indicative of the orientation of the shaft of the golf club during the swing motion.SELECTED DRAWING: Figure 1

Description

本発明は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置、方法及びプログラムに関する。   The present invention relates to a swing analysis apparatus, method, and program for analyzing a golf club swing motion by a golfer.

従来より、ゴルファーによるゴルフクラブのスイング動作をカメラで撮影し、得られた画像に基づいてスイング動作を解析する装置が公知である(特許文献1,2等)。解析の結果は、ゴルファーに適したゴルフクラブのフィッティングや、ゴルファーのフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。   2. Description of the Related Art Conventionally, an apparatus that captures a golf club swing motion by a golfer with a camera and analyzes the swing motion based on the obtained image is known (Patent Documents 1, 2, etc.). The results of the analysis are used in various applications such as fitting a golf club suitable for a golfer, improving a golfer's foam, and developing golf equipment.

特開2013−215349号公報JP 2013-215349 A 特開2004−313479号公報JP 2004-313479 A

以上のようなスイング動作の解析においては、しばしば、画像に写るゴルフクラブのグリップやヘッド、ゴルファーの関節等、注目部位の挙動を三次元的に特定することが行われる。特許文献1,2は、複数台のカメラにより複数の方向からスイング動作を撮影し、三角測量法やDLT法等に基づいて注目部位の三次元座標を導出することを開示している。しかしながら、複数の方向にカメラを配置しなくてはならないことは、設備を大型化させ、スイング解析を行うためのスペースの確保を困難にさせ得る。また、このような三次元計測は、解析の精度や計算負荷等の点からして、少なからず改善の余地がある。   In the analysis of the swing motion as described above, it is often performed to three-dimensionally identify the behavior of a site of interest, such as a golf club grip or head, a golfer's joint, or the like that appears in the image. Patent Documents 1 and 2 disclose that a swing motion is photographed from a plurality of directions by a plurality of cameras, and the three-dimensional coordinates of the region of interest are derived based on a triangulation method, a DLT method, or the like. However, having to arrange the cameras in a plurality of directions can increase the size of the equipment and make it difficult to secure a space for performing the swing analysis. In addition, such three-dimensional measurement has room for improvement in terms of analysis accuracy and calculation load.

本発明は、簡易かつ高精度にスイング動作を解析することができるスイング解析装置、方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide a swing analysis device, method, and program that can analyze swing motion easily and with high accuracy.

本発明の第1観点に係るスイング解析装置は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、取得部と、導出部とを備える。前記取得部は、前記スイング動作を距離画像センサにより撮影した深度画像を取得する。前記導出部は、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出する。   A swing analysis device according to a first aspect of the present invention is a swing analysis device for analyzing a golf club swing motion by a golfer, and includes an acquisition unit and a derivation unit. The acquisition unit acquires a depth image obtained by capturing the swing motion with a distance image sensor. The derivation unit is based on the depth image, and is a three-dimensional vector representing position information of a predetermined part of the golf club or the golfer during the swing operation or a shaft direction of the golf club during the swing operation. Is derived.

本発明の第2観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記取得部は、前記距離画像センサから二次元画像をさらに取得する。前記導出部は、前記二次元画像に基づいて、前記所定の部位の二次元座標を特定するとともに、前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記所定の部位の三次元座標を導出する。   The swing analysis apparatus according to a second aspect of the present invention is the swing analysis apparatus according to the first aspect, wherein the acquisition unit further acquires a two-dimensional image from the distance image sensor. The derivation unit specifies the two-dimensional coordinates of the predetermined part based on the two-dimensional image, and specifies the depth of the predetermined part based on the depth image, thereby Derive three-dimensional coordinates.

本発明の第3観点に係るスイング解析装置は、第2観点に係るスイング解析装置であって、前記導出部は、第1時刻での前記二次元画像上において、前記第1時刻よりも前の第2時刻での前記所定の部位の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記所定の部位の二次元座標を探索する。   The swing analysis apparatus according to a third aspect of the present invention is the swing analysis apparatus according to the second aspect, wherein the derivation unit is on the two-dimensional image at the first time and is before the first time. A search range is set based on the two-dimensional coordinates of the predetermined part at the second time, and the two-dimensional coordinates of the predetermined part are searched within the search range.

本発明の第4観点に係るスイング解析装置は、第1観点から第3観点のいずれかに係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。   A swing analyzing apparatus according to a fourth aspect of the present invention is the swing analyzing apparatus according to any one of the first to third aspects, wherein the predetermined part is a grip of the golf club.

本発明の第5観点に係るスイング解析装置は、第2観点又は第3観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの二次元座標を特定する。   A swing analysis device according to a fifth aspect of the present invention is the swing analysis device according to the second or third aspect, wherein the predetermined part is a grip of the golf club. The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the two-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.

本発明の第6観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。前記取得部は、前記距離画像センサから二次元画像をさらに取得する。前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記深度画像に基づいて、前記シャフトの二次元座標での奥行きを特定することにより、前記シャフトの三次元座標を導出し、前記シャフトの三次元座標の分布傾向に基づいて、前記グリップの三次元座標を特定する。   A swing analysis apparatus according to a sixth aspect of the present invention is the swing analysis apparatus according to the first aspect, wherein the predetermined part is a grip of the golf club. The acquisition unit further acquires a two-dimensional image from the distance image sensor. The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the depth in the two-dimensional coordinates of the shaft based on the depth image. The three-dimensional coordinates of the grip are derived, and the three-dimensional coordinates of the grip are specified based on the distribution tendency of the three-dimensional coordinates of the shaft.

本発明の第7観点に係るスイング解析装置は、第5観点又は第6観点に係るスイング解析装置であって、前記二次元画像及び前記深度画像は、前記スイング動作を前記距離画像センサにより前記ゴルファーの前方から撮影した情報である。前記導出部は、アドレス付近での前記二次元画像に基づいて、前記シャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの三次元座標を特定する。   A swing analysis device according to a seventh aspect of the present invention is the swing analysis device according to the fifth or sixth aspect, wherein the two-dimensional image and the depth image are obtained by performing the swing operation using the distance image sensor. This is information taken from the front. The deriving unit identifies the two-dimensional coordinates of the shaft based on the two-dimensional image near the address, and identifies the three-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.

本発明の第8観点に係るスイング解析装置は、第2,3,5〜7観点のいずれに係るスイング解析装置であって、前記導出部は、前記スイング動作のフェーズに応じて閾値を自動又は固定の間で切り替えつつ、前記二次元画像を二値化する。   A swing analysis device according to an eighth aspect of the present invention is the swing analysis device according to any of the second, third, fifth, and seventh aspects, wherein the derivation unit automatically sets a threshold value according to the phase of the swing operation or The two-dimensional image is binarized while switching between fixed.

本発明の第9観点に係るスイング解析装置は、第3観点に係るスイング解析装置であって、前記導出部は、前記スイング動作中のトップ付近のフェーズでは、前記ゴルファーの頭の位置を基準として、前記探索範囲の設定位置を制限する。   A swing analysis device according to a ninth aspect of the present invention is the swing analysis device according to the third aspect, wherein the derivation unit is based on the position of the golfer's head in the phase near the top during the swing operation. The setting position of the search range is limited.

本発明の第10観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記取得部は、前記距離画像センサから時系列の二次元画像をさらに取得する。前記導出部は、第1時刻での前記二次元画像から前記ゴルフクラブのグリップの位置が抽出できない場合には、前記第1時刻の直後の第2時刻での前記二次元画像から前記ゴルフクラブのシャフトの位置を特定し、当該シャフトの位置に基づいて当該第2時刻における前記グリップの位置を特定する。   A swing analysis apparatus according to a tenth aspect of the present invention is the swing analysis apparatus according to the first aspect, wherein the acquisition unit further acquires a time-series two-dimensional image from the distance image sensor. If the position of the grip of the golf club cannot be extracted from the two-dimensional image at the first time, the derivation unit can determine the golf club from the two-dimensional image at the second time immediately after the first time. The position of the shaft is specified, and the position of the grip at the second time is specified based on the position of the shaft.

本発明の第11観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルファーの肩である。   A swing analyzing apparatus according to an eleventh aspect of the present invention is the swing analyzing apparatus according to the first aspect, wherein the predetermined part is a shoulder of the golfer.

本発明の第12観点に係るスイング解析装置は、第11観点に係るスイング解析装置であって、前記取得部は、人体の骨組みを表すスケルトンデータをさらに取得し、前記導出部は、前記深度画像及び前記スケルトンデータに基づいて、前記肩の三次元座標を導出する。   A swing analysis device according to a twelfth aspect of the present invention is the swing analysis device according to the eleventh aspect, wherein the acquisition unit further acquires skeleton data representing a skeleton of the human body, and the derivation unit includes the depth image. And the three-dimensional coordinates of the shoulder are derived based on the skeleton data.

本発明の第13観点に係るスイング解析装置は、第11観点又は第12観点に係るスイング解析装置であって、前記導出部は、中央部分を強調し、周辺部分を抑制する凸部抽出フィルタにより、前記深度画像をフィルタリングすることで、前記肩の三次元座標を導出する。   A swing analysis apparatus according to a thirteenth aspect of the present invention is the swing analysis apparatus according to the eleventh aspect or the twelfth aspect, wherein the derivation unit uses a convex extraction filter that emphasizes the central part and suppresses the peripheral part. Then, the shoulder image is derived by filtering the depth image.

本発明の第14観点に係るスイング解析装置は、第11観点又は第12観点に係るスイング解析装置であって、前記導出部は、前記深度画像に対し凸形状の画像テンプレートを用いてテンプレートマッチングを施すことで、前記肩の三次元座標を導出する。   A swing analysis apparatus according to a fourteenth aspect of the present invention is the swing analysis apparatus according to the eleventh aspect or the twelfth aspect, in which the derivation unit performs template matching on the depth image using a convex image template. As a result, the three-dimensional coordinates of the shoulder are derived.

本発明の第15観点に係るスイング解析装置は、第11観点から第14観点のいずれかに係るスイング解析装置であって、前記導出部は、1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記ゴルファーの肩の三次元座標を導出する。   A swing analysis device according to a fifteenth aspect of the present invention is the swing analysis device according to any of the eleventh to fourteenth aspects, wherein the derivation unit emphasizes the vicinity of one corner and the vicinity of the other corner. The depth image is filtered by the suppressing shoulder silhouette filter to derive the three-dimensional coordinates of the golfer's shoulder.

本発明の第16観点に係るスイング解析装置は、第12観点に係るスイング解析装置であって、前記導出部は、アドレスからテイクバック腕水平までの少なくとも一部の区間において、前記スケルトンデータに基づいて、前記肩の三次元座標を導出する。   A swing analysis apparatus according to a sixteenth aspect of the present invention is the swing analysis apparatus according to the twelfth aspect, wherein the derivation unit is based on the skeleton data in at least a part of the section from the address to the takeback arm horizontal. Then, the three-dimensional coordinates of the shoulder are derived.

本発明の第17観点に係るスイング解析装置は、第13観点に係るスイング解析装置であって、前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸部抽出フィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する。   A swing analysis apparatus according to a seventeenth aspect of the present invention is the swing analysis apparatus according to the thirteenth aspect, wherein the derivation unit is configured to project the convex in at least a part of a section from the takeback arm level to the downswing arm level. By performing filtering using a partial extraction filter, the three-dimensional coordinates of the shoulder are derived.

本発明の第18観点に係るスイング解析装置は、第14観点に係るスイング解析装置であって、前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸形状の画像テンプレートによるテンプレートマッチングを行うことで、前記肩の三次元座標を導出する。   A swing analysis apparatus according to an eighteenth aspect of the present invention is the swing analysis apparatus according to the fourteenth aspect, wherein the derivation unit is configured to project the convex in at least a part of a section from the takeback arm level to the downswing arm level. The three-dimensional coordinates of the shoulder are derived by performing template matching using a shape image template.

本発明の第19観点に係るスイング解析装置は、第15観点に係るスイング解析装置であって、前記導出部は、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する。   A swing analysis apparatus according to a nineteenth aspect of the present invention is the swing analysis apparatus according to the fifteenth aspect, wherein the derivation unit includes at least a part from the address to the takeback arm level and from the downswing arm level to the finish. In the section, the three-dimensional coordinates of the shoulder are derived by performing filtering using the shoulder silhouette filter.

本発明の第20観点に係るスイング解析装置は、第11観点から第19観点のいずれかに係るスイング解析装置であって、前記導出部は、第1時刻での前記深度画像上において、前記第1時刻又は前記第1時刻よりも前の第2時刻での前記肩の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記フィルタリングを行う。   A swing analysis apparatus according to a twentieth aspect of the present invention is the swing analysis apparatus according to any of the eleventh to nineteenth aspects, wherein the derivation unit is configured to perform the first analysis on the depth image at a first time. A search range is set based on the two-dimensional coordinates of the shoulder at one time or at a second time before the first time, and the filtering is performed within the search range.

本発明の第21観点に係るスイング解析装置は、第1観点から第20観点のいずれかに係るスイング解析装置であって、前記導出部は、予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行う。   A swing analysis apparatus according to a twenty-first aspect of the present invention is the swing analysis apparatus according to any one of the first to twentieth aspects, wherein the derivation unit uses a predetermined multiple regression equation having a predetermined coefficient. Calibration is performed by substituting the three-dimensional coordinates of the predetermined part.

本発明の第22観点に係るスイング解析装置は、第1観点から第21観点のいずれかに係るスイング解析装置であって、前記取得部は、前記スイング動作を複数の前記距離画像センサにより少なくとも第1方向及び第2方向から撮影した前記深度画像を取得する。   A swing analysis apparatus according to a twenty-second aspect of the present invention is the swing analysis apparatus according to any one of the first to twenty-first aspects, wherein the acquisition unit performs at least the swing operation by a plurality of the distance image sensors. The depth images taken from the first direction and the second direction are acquired.

本発明の第23観点に係るスイング解析装置は、第22観点に係るスイング解析装置であって、前記取得部は、少なくとも前記第1方向からの前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記第1方向からの前記スケルトンデータを前記第2方向からの前記スケルトンデータに変換し、前記第2方向からの前記スケルトンデータに基づいて、前記所定の部位の位置情報を導出する。   A swing analysis apparatus according to a twenty-third aspect of the present invention is the swing analysis apparatus according to the twenty-second aspect, wherein the acquisition unit generates skeleton data representing a human skeleton based on at least the depth image from the first direction. Get more. The derivation unit converts the skeleton data from the first direction into the skeleton data from the second direction, and derives position information of the predetermined part based on the skeleton data from the second direction. To do.

本発明の第24観点に係るスイング解析装置は、第22観点又は第23観点に係るスイング解析装置であって、前記第1方向は、前記ゴルファーの正面に向かう方向であり、前記第2方向は、前記ゴルファーの側面に向かう方向である。   A swing analysis device according to a twenty-fourth aspect of the present invention is the swing analysis device according to the twenty-second or twenty-third aspect, wherein the first direction is a direction toward the front of the golfer, and the second direction is The direction toward the side surface of the golfer.

本発明の第25観点に係るスイング解析装置は、第1観点から第24観点のいずれかに係るスイング解析装置であって、前記取得部は、前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出する。   A swing analysis device according to a twenty-fifth aspect of the present invention is the swing analysis device according to any one of the first to twenty-fourth aspects, wherein the acquisition unit generates skeleton data representing a human skeleton based on the depth image. Get more. The derivation unit derives position information of a first part included in the predetermined part based on the skeleton data.

本発明の第26観点に係るスイング解析装置は、第25観点に係るスイング解析装置であって、前記取得部は、人体のシルエットを表すシルエットデータをさらに取得する。前記導出部は、前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出する。   A swing analysis apparatus according to a twenty-sixth aspect of the present invention is the swing analysis apparatus according to the twenty-fifth aspect, in which the acquisition unit further acquires silhouette data representing a silhouette of a human body. The derivation unit derives position information of a second part different from the first part included in the predetermined part based on the skeleton data and the silhouette data.

本発明の第27観点に係るスイング解析装置は、第1観点から第26観点のいずれかに係るスイング解析装置であって、前記導出部は、前記深度画像において深度情報が得られていない領域の情報に基づいて、前記シルエットデータにおいて特定される前記シルエットの領域を拡張する。   A swing analysis apparatus according to a twenty-seventh aspect of the present invention is the swing analysis apparatus according to any one of the first to twenty-sixth aspects, wherein the derivation unit is a region for which depth information is not obtained in the depth image. Based on the information, the silhouette area specified in the silhouette data is expanded.

本発明の第28観点に係るスイング解析装置は、第1観点から第27観点のいずれかに係るスイング解析装置であって、前記導出部は、トップのタイミングにおける前記ゴルファーの右側面側からの前記深度画像において、手前側に突出している箇所を前記ゴルファーの左肘として導出する。   A swing analysis device according to a twenty-eighth aspect of the present invention is the swing analysis device according to any one of the first to the twenty-seventh aspects, wherein the derivation unit is the right side surface of the golfer at a top timing. In the depth image, a portion protruding to the near side is derived as the left elbow of the golfer.

本発明の第29観点に係るスイング解析装置は、第1観点から第28観点のいずれかに係るスイング解析装置であって、判定部をさらに備える。前記判定部は、所定のタイミングにおける前記所定の部位の位置情報及び前記三次元ベクトルの少なくとも一方に基づいて算出される指標値を、予め定められている正解データと比較することにより、前記スイング動作の良否を判定する。   A swing analysis device according to a twenty-ninth aspect of the present invention is the swing analysis device according to any one of the first to twenty-eighth aspects, further comprising a determination unit. The determination unit compares the index value calculated based on at least one of the position information of the predetermined part and the three-dimensional vector at a predetermined timing with predetermined correct answer data, thereby performing the swing motion Judge the quality of the.

本発明の第30観点に係るスイング解析方法は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップとを備える。   A swing analysis method according to a thirtieth aspect of the present invention is a swing analysis method for analyzing a golf club swing motion by a golfer, and obtaining a depth image obtained by photographing the swing motion with a distance image sensor; Deriving, based on the depth image, a position information of a predetermined part of the golf club or the golfer during the swing operation, or a three-dimensional vector representing a direction of a shaft of the golf club during the swing operation; Is provided.

本発明の第31観点に係るスイング解析プログラムは、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップとをコンピュータに実行させる。   A swing analysis program according to a thirty-first aspect of the present invention is a swing analysis program for analyzing a golf club swing motion by a golfer, and obtaining a depth image obtained by photographing the swing motion with a distance image sensor; Deriving, based on the depth image, a position information of a predetermined part of the golf club or the golfer during the swing operation, or a three-dimensional vector representing a direction of a shaft of the golf club during the swing operation; Is executed on the computer.

本発明によれば、ゴルファーによるゴルフクラブのスイング動作を距離画像センサにより撮影した深度画像が取得され、これに基づいて、スイング動作中のゴルフクラブ又はゴルファーの所定の部位の位置情報、或いはスイング動作中のゴルフクラブのシャフトの向きを表す三次元ベクトルが導出される。その結果、複数台のカメラを用いた異なる方向からの撮影は、必ずしも必要とされない。従って、簡易かつ高精度にスイング動作を解析することができる。   According to the present invention, a depth image obtained by photographing a golf club swing motion by a golfer with a distance image sensor is acquired, and based on this, position information of a predetermined part of the golf club or the golfer during the swing motion or the swing motion A three-dimensional vector representing the orientation of the shaft of the golf club inside is derived. As a result, shooting from different directions using a plurality of cameras is not necessarily required. Therefore, the swing motion can be analyzed easily and with high accuracy.

本発明の第1実施形態に係るスイング解析装置を含むスイング解析システムの全体構成を示す図。The figure which shows the whole structure of the swing analysis system containing the swing analyzer which concerns on 1st Embodiment of this invention. 第1実施形態に係るスイング解析システムの機能ブロック図。The functional block diagram of the swing analysis system which concerns on 1st Embodiment. グリップ挙動導出処理の全体の流れを示すフローチャート。The flowchart which shows the whole flow of a grip behavior derivation process. (A)アドレス状態を示す図。(B)トップ状態を示す図。(C)インパクト状態を示す図。(D)フィニッシュ状態を示す図。(A) The figure which shows an address state. (B) The figure which shows a top state. (C) The figure which shows an impact state. (D) The figure which shows a finish state. IRフレームからグリップ端の二次元座標を直接抽出する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which extracts directly the two-dimensional coordinate of a grip end from IR frame. グリップ端及びシャフトの像を示すIRフレームの図。The figure of IR frame which shows the image of a grip end and a shaft. グリップ端の像の補完を説明する図。The figure explaining the complement of the image of a grip end. 深度フレームからグリップ端の奥行きを直接特定する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which pinpoints the depth of a grip end directly from a depth frame. グリップ端の位置を示す深度フレームの図。The figure of the depth frame which shows the position of a grip end. グリップ端の近傍の深度フレームの図。The figure of the depth frame in the vicinity of the grip end. 人体の像を考慮したグリップ端の奥行きの補正の効果を示すグラフ。The graph which shows the effect of the correction | amendment of the depth of the grip end which considered the image of the human body. 例外処理の流れを示すフローチャート。The flowchart which shows the flow of exception processing. シャフトの慣性主軸の位置を示す深度フレームの図。The figure of the depth frame which shows the position of the inertia principal axis of a shaft. 慣性主軸上の点のb点からの距離と奥行きとの関係をプロットしたグラフ。The graph which plotted the relationship between the distance from b point of the point on an inertial principal axis, and depth. 慣性主軸上のa点及びc点の位置を示す深度フレームの図。The figure of the depth frame which shows the position of a point and c point on an inertial principal axis. グリップの下部の奥行きに基づいて、グリップ端の三次元座標を推定する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which estimates the three-dimensional coordinate of a grip end based on the depth of the lower part of a grip. テスト被写体の例を示す図。The figure which shows the example of a test subject. 補正処理の流れを示すフローチャート。The flowchart which shows the flow of a correction process. 主成分分析によるグリップ端の三次元座標の特定の方法を説明する図。The figure explaining the specific method of the three-dimensional coordinate of the grip end by principal component analysis. 補正処理の結果を示す図。The figure which shows the result of a correction process. 左肩挙動導出処理の全体の流れを示すフローチャート。The flowchart which shows the whole flow of left shoulder behavior derivation processing. 左肩挙動導出処理により導出された左肩の三次元座標を示すグラフ。The graph which shows the three-dimensional coordinate of the left shoulder derived | led-out by the left shoulder behavior deriving process. 凸部抽出フィルタの例を示す図。The figure which shows the example of a convex part extraction filter. トップのタイミングにおける深度フレームを示す図。The figure which shows the depth frame in the top timing. 凸部抽出フィルタ適用後の深度フレームを示す図。The figure which shows the depth frame after convex part extraction filter application. 深度フレームの二値化画像を示す図。The figure which shows the binarized image of a depth frame. 収縮後の二値化画像を示す図。The figure which shows the binarized image after shrinkage | contraction. 凸部抽出フィルタが適用されたマスキング後の深度フレームを示す図。The figure which shows the depth frame after masking to which the convex part extraction filter was applied. 凸部抽出フィルタの適用範囲の例を示す図。The figure which shows the example of the application range of a convex part extraction filter. 凸部抽出フィルタの適用範囲の別の例を示す図。The figure which shows another example of the application range of a convex part extraction filter. 左肩シルエットフィルタの例を示す図。The figure which shows the example of a left shoulder silhouette filter. 深度フレームの二値化画像を示す図。The figure which shows the binarized image of a depth frame. 左肩シルエットフィルタ適用後の二値化画像を示す図。The figure which shows the binarized image after a left shoulder silhouette filter application. 左肩シルエットフィルタの適用範囲の例を示す図。The figure which shows the example of the application range of a left shoulder silhouette filter. 左肩シルエットフィルタの適用範囲の別の例を示す図。The figure which shows another example of the application range of a left shoulder silhouette filter. 左肩シルエットフィルタの適用範囲のさらに別の例を示す図。The figure which shows another example of the application range of a left shoulder silhouette filter. 腕水平フレームの検出に用いられる矩形領域を示す図。The figure which shows the rectangular area | region used for the detection of an arm horizontal frame. シャフト方向導出処理の全体の流れを示すフローチャート。The flowchart which shows the whole flow of a shaft direction derivation | leading-out process. シャフトの三次元ベクトルの各軸成分のグラフ表示例を示す図。The figure which shows the example of a graph display of each axis | shaft component of the three-dimensional vector of a shaft. シャフトの三次元ベクトルの三次元的なグラフ表示例を示す図。The figure which shows the three-dimensional graph display example of the three-dimensional vector of a shaft. 実際のグリップ端が探索範囲外にあるときのIRフレームを示す図。The figure which shows IR frame when an actual grip end is outside a search range. IRフレーム上での探索範囲を設定するための限界ラインを示す図。The figure which shows the limit line for setting the search range on IR frame. テイクバック腕水平時の人物領域画像上での頭の頂点を示す図。The figure which shows the vertex of the head on the person area image at the time of a takeback arm level. 図3の実施形態に係るグリップ端の三次元座標を導出する処理を示すフローチャート。The flowchart which shows the process which derives | leads-out the three-dimensional coordinate of the grip end which concerns on embodiment of FIG. 変形例に係るグリップ端の三次元座標を導出する処理を示すフローチャート。The flowchart which shows the process which derives | leads-out the three-dimensional coordinate of the grip end which concerns on a modification. 凸形状テンプレートの例を示す図。The figure which shows the example of a convex shape template. Kinect(登録商標)v2を用いた変形例に係るテンプレートマッチングにより抽出された左肩の位置を示す図。The figure which shows the position of the left shoulder extracted by the template matching which concerns on the modification using Kinect (trademark) v2. 左肩抽出のためのアルゴリズムの切り替えを説明する概念図。The conceptual diagram explaining the switching of the algorithm for left shoulder extraction. 本発明の第2実施形態に係るスイング解析装置を含むスイング解析システムの全体構成を示す平面図。The top view which shows the whole structure of the swing analysis system containing the swing analyzer which concerns on 2nd Embodiment of this invention. 第2実施形態に係るスイング解析システムの機能ブロック図。The functional block diagram of the swing analysis system which concerns on 2nd Embodiment. 位置導出処理の流れを示すフローチャート。The flowchart which shows the flow of a position derivation process. 様々なチェックポイントでのゴルファーの正面図。Front view of golfer at various checkpoints. 様々なチェックポイントでのゴルファーの右側面図。A right side view of the golfer at various checkpoints. アドレス時の正面シルエットデータに正面スケルトンデータを重ねた画像を示す図。The figure which shows the image which superimposed the front skeleton data on the front silhouette data at the time of an address. アドレスから少し進んだタイミングでの正面シルエットデータに正面スケルトンデータを重ねた画像を示す図。The figure which shows the image which superimposed the front skeleton data on the front silhouette data in the timing slightly advanced from the address. アドレス時の右側面シルエットデータの画像を示す図。The figure which shows the image of the right side silhouette data at the time of an address. 図54Aの画像において、左足及び右足のシルエットが補完された画像を示す図。FIG. 54B is a diagram showing an image in which silhouettes of the left foot and the right foot are complemented in the image of FIG. 54A. トップ時の右側面シルエットデータの画像を示す図。The figure which shows the image of the right side silhouette data at the time of a top. テイクバック腕水平時の正面シルエットデータの画像を示す図。The figure which shows the image of the front silhouette data at the time of a takeback arm level.

以下、図面を参照しつつ、本発明のいくつかの実施形態に係るスイング解析装置、方法及びプログラムについて説明する。   Hereinafter, swing analysis devices, methods, and programs according to some embodiments of the present invention will be described with reference to the drawings.

<1.第1実施形態>
<1−1.スイング解析システムの概要>
図1及び図2に、本発明の第1実施形態に係るスイング解析装置1を含むスイング解析システム100の全体構成図を示す。スイング解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作を動画として撮影し、当該動画に基づいて当該ゴルフスイングを解析するためのシステムである。以上の撮影は、距離画像センサ2により行われる。スイング解析装置1は、距離画像センサ2とともにスイング解析システム100を構成し、距離画像センサ2により得られた画像データを画像処理することで、ゴルフスイングを解析する。スイング解析装置1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
<1. First Embodiment>
<1-1. Overview of swing analysis system>
1 and 2 show an overall configuration diagram of a swing analysis system 100 including a swing analysis apparatus 1 according to the first embodiment of the present invention. The swing analysis system 100 is a system for taking a swing motion of the golf club 5 by the golfer 7 as a moving image and analyzing the golf swing based on the moving image. The above photographing is performed by the distance image sensor 2. The swing analysis apparatus 1 constitutes a swing analysis system 100 together with the distance image sensor 2 and analyzes the golf swing by performing image processing on the image data obtained by the distance image sensor 2. The result of the analysis by the swing analysis device 1 is used for various purposes such as fitting of the golf club 5 suitable for the golfer 7, improvement of the form of the golfer 7, development of golf equipment, and the like.

本実施形態では、スイング動作中のゴルフクラブ5のグリップ51の挙動と、ゴルファー7の左肩71の挙動とが解析される。より具体的には、スイング動作中のグリップ51及び左肩71の三次元座標が導出される。また、本実施形態では、スイング動作中のゴルフクラブ5のシャフト52の向きが解析される。   In the present embodiment, the behavior of the grip 51 of the golf club 5 during the swing motion and the behavior of the left shoulder 71 of the golfer 7 are analyzed. More specifically, the three-dimensional coordinates of the grip 51 and the left shoulder 71 during the swing motion are derived. In the present embodiment, the orientation of the shaft 52 of the golf club 5 during the swing operation is analyzed.

<1−2.各部の詳細>
以下、スイング解析システム100の各部の詳細について説明する。
<1-2. Details of each part>
Hereinafter, details of each part of the swing analysis system 100 will be described.

<1−2−1.距離画像センサ>
距離画像センサ2は、ゴルファー7がゴルフクラブ5を試打する様子を二次元画像として撮影するとともに、被写体までの距離を測定する測距機能を有するカメラである。従って、距離画像センサ2は、二次元画像とともに、深度画像を出力することができる。なお、ここでいう二次元画像とは、撮影空間の像をカメラの光軸に直交する平面内へ投影した画像である。また、深度画像とは、カメラの光軸方向の被写体の奥行きのデータを、二次元画像と略同じ撮像範囲内の画素に割り当てた画像である。
<1-2-1. Distance image sensor>
The distance image sensor 2 is a camera having a ranging function that measures a distance to a subject while shooting a golfer 7 trial hitting the golf club 5 as a two-dimensional image. Therefore, the distance image sensor 2 can output a depth image together with the two-dimensional image. Note that the two-dimensional image here is an image obtained by projecting an image of the photographing space onto a plane orthogonal to the optical axis of the camera. The depth image is an image in which data on the depth of the subject in the optical axis direction of the camera is assigned to pixels within substantially the same imaging range as the two-dimensional image.

本実施形態で使用される距離画像センサ2は、二次元画像を赤外線画像(以下、IR画像という)として撮影する。また、深度画像は、赤外線を用いたタイムオブフライト方式やドットパターン投影方式等の方法により得られる。従って、図1に示すように、距離画像センサ2は、赤外線を前方に向けて発光するIR発光部21と、IR発光部21から照射され、被写体に反射して戻ってきた赤外線を受光するIR受光部22とを有する。IR受光部22は、光学系及び撮像素子等を有するカメラである。ドットパターン投影方式では、IR発光部21から照射された赤外線のドットパターンをIR受光部22で読み取り、距離画像センサ2内部での画像処理によりドットパターンを検出し、これに基づいて奥行きが計算される。本実施形態では、IR発光部21及びIR受光部22は、同じ筐体20内に収容され、筐体20の前方に配置されている。また、本実施形態に係る距離画像センサ2では、奥行きを計測可能な有効距離が定められており、深度画像には、奥行きの値が得られない画素が含まれ得る。   The distance image sensor 2 used in the present embodiment captures a two-dimensional image as an infrared image (hereinafter referred to as an IR image). The depth image is obtained by a method such as a time-of-flight method using infrared rays or a dot pattern projection method. Accordingly, as shown in FIG. 1, the distance image sensor 2 has an IR light emitting unit 21 that emits infrared rays toward the front, and an IR that receives the infrared rays that are emitted from the IR light emitting unit 21 and reflected back to the subject. A light receiving unit 22. The IR light receiving unit 22 is a camera having an optical system, an image sensor, and the like. In the dot pattern projection method, the IR dot pattern emitted from the IR light emitting unit 21 is read by the IR light receiving unit 22, the dot pattern is detected by image processing inside the distance image sensor 2, and the depth is calculated based on this. The In the present embodiment, the IR light emitting unit 21 and the IR light receiving unit 22 are accommodated in the same housing 20 and disposed in front of the housing 20. In the distance image sensor 2 according to the present embodiment, an effective distance capable of measuring the depth is determined, and the depth image may include pixels for which a depth value cannot be obtained.

距離画像センサ2には、距離画像センサ2の動作全体を制御するCPU23の他、撮影された画像データを少なくとも一時的に記憶するメモリ24が内蔵されている。距離画像センサ2の動作を制御する制御プログラムは、メモリ24内に格納されている。また、距離画像センサ2には、通信部25も内蔵されており、当該通信部25は、撮影された画像データを、有線又は無線の通信線17を介して、スイング解析装置1等の外部のデバイスへと出力することができる。本実施形態では、CPU23及びメモリ24も、IR発光部21及びIR受光部22とともに、筐体20内に収納されている。なお、スイング解析装置1への画像データの受け渡しは、必ずしも通信部25を介して行う必要はない。例えば、メモリ24が着脱式であれば、これを筐体20内から取り外し、スイング解析装置1のリーダー(後述する通信部15に対応)に挿入する等して、スイング解析装置1で画像データを読み出すことができる。   In addition to the CPU 23 that controls the entire operation of the distance image sensor 2, the distance image sensor 2 includes a memory 24 that stores captured image data at least temporarily. A control program for controlling the operation of the distance image sensor 2 is stored in the memory 24. The distance image sensor 2 also includes a communication unit 25, and the communication unit 25 transmits captured image data to an external device such as the swing analysis device 1 via a wired or wireless communication line 17. Can be output to the device. In the present embodiment, the CPU 23 and the memory 24 are also housed in the housing 20 together with the IR light emitting unit 21 and the IR light receiving unit 22. It is not always necessary to transfer the image data to the swing analysis device 1 via the communication unit 25. For example, if the memory 24 is detachable, it is removed from the housing 20 and inserted into a reader (corresponding to a communication unit 15 described later) of the swing analysis device 1 so that the image data is captured by the swing analysis device 1. Can be read.

本実施形態では、以上のとおり、距離画像センサ2により赤外線撮影が行われ、撮影されたIR画像に基づいて、グリップ51の軌道が追跡される。従って、この追跡が容易となるように、グリップ51(より正確には、グリップ端51a)には、赤外線を効率的に反射する反射シートがマーカーとして貼付される。また、後述するとおり、本実施形態では、撮影角度によりグリップ端51aが見えない場合には、ゴルフクラブ5のシャフト52の位置に基づいて、グリップ端51aの位置が特定されるとともに、シャフト52の向きも特定される。従って、シャフト52にも、同様の赤外線の反射シートがマーカーとして貼付される。本実施形態では、距離画像センサ2は、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。   In the present embodiment, as described above, infrared imaging is performed by the distance image sensor 2, and the trajectory of the grip 51 is tracked based on the captured IR image. Therefore, a reflection sheet that efficiently reflects infrared rays is attached to the grip 51 (more precisely, the grip end 51a) as a marker so as to facilitate this tracking. Further, as will be described later, in this embodiment, when the grip end 51a is not visible depending on the shooting angle, the position of the grip end 51a is specified based on the position of the shaft 52 of the golf club 5, and the shaft 52 The direction is also specified. Accordingly, a similar infrared reflecting sheet is also affixed to the shaft 52 as a marker. In the present embodiment, the distance image sensor 2 is installed in front of the golfer 7 so as to photograph the golfer 7 from the front side.

<1−2−2.スイング解析装置>
図2に示すとおり、スイング解析装置1は、CD−ROM等のコンピュータで読み取り可能な記録媒体30に格納されたスイング解析プログラム3を、当該記録媒体30から汎用のパーソナルコンピュータにインストールすることにより製造される。スイング解析プログラム3は、距離画像センサ2から送られてくる画像データに基づいてゴルフスイングを解析するためのソフトウェアであり、スイング解析装置1に後述する動作を実行させる。
<1-2-2. Swing analyzer>
As shown in FIG. 2, the swing analysis device 1 is manufactured by installing a swing analysis program 3 stored in a computer-readable recording medium 30 such as a CD-ROM from the recording medium 30 to a general-purpose personal computer. Is done. The swing analysis program 3 is software for analyzing a golf swing based on image data sent from the distance image sensor 2, and causes the swing analysis device 1 to perform an operation described later.

スイング解析装置1は、表示部11、入力部12、記憶部13、制御部14及び通信部15を備える。これらの部11〜15は、互いにバス線16を介して接続されており、相互に通信可能である。表示部11は、液晶ディスプレイ等で構成することができ、ゴルフスイングの解析の結果等をユーザに対し表示する。なお、ここでいうユーザとは、ゴルファー7自身やそのインストラクター、ゴルフ用品の開発者等、ゴルフスイングの解析の結果を必要とする者の総称である。入力部12は、マウス、キーボード、タッチパネル等で構成することができ、スイング解析装置1に対するユーザからの操作を受け付ける。   The swing analysis apparatus 1 includes a display unit 11, an input unit 12, a storage unit 13, a control unit 14, and a communication unit 15. These units 11 to 15 are connected to each other via the bus line 16 and can communicate with each other. The display unit 11 can be composed of a liquid crystal display or the like, and displays the result of golf swing analysis or the like to the user. In addition, a user here is a general term for those who require the result of golf swing analysis, such as golfer 7 itself, its instructor, and a developer of golf equipment. The input unit 12 can be configured with a mouse, a keyboard, a touch panel, and the like, and accepts an operation from the user for the swing analysis apparatus 1.

記憶部13は、ハードディスク等で構成することができる。記憶部13内には、スイング解析プログラム3が格納されている他、距離画像センサ2から送られてくる画像データが保存される。制御部14は、CPU、ROMおよびRAM等から構成することができる。制御部14は、記憶部13内のスイング解析プログラム3を読み出して実行することにより、仮想的に取得部14a、位置導出部14b及び向き導出部14cとして動作する。各部14a〜14cの動作の詳細については、後述する。通信部15は、距離画像センサ2等の外部のデバイスから通信線17を介してデータを受信する通信インターフェースとして機能する。   The storage unit 13 can be configured with a hard disk or the like. In the storage unit 13, the swing analysis program 3 is stored, and image data sent from the distance image sensor 2 is stored. The control part 14 can be comprised from CPU, ROM, RAM, etc. The control unit 14 virtually operates as an acquisition unit 14a, a position deriving unit 14b, and a direction deriving unit 14c by reading and executing the swing analysis program 3 in the storage unit 13. Details of the operations of the units 14a to 14c will be described later. The communication unit 15 functions as a communication interface that receives data from an external device such as the distance image sensor 2 via the communication line 17.

<1−3.スイング解析方法>
以下、スイング解析システム100により実行されるゴルフスイングの解析方法について説明する。本解析方法では、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により撮影する。距離画像センサ2により撮影されたIR画像及び深度画像の画像データは、距離画像センサ2からスイング解析装置1に送られる。既に述べたとおり、本実施形態では、スイング解析装置1により、スイング動作中のゴルフクラブ5のグリップ51の挙動及びゴルファー7の左肩71の挙動と、スイング動作中のゴルフクラブ5のシャフト52の向きとが解析される。以下では、まず、グリップ51の挙動を導出する処理(以下、グリップ挙動導出処理)について説明した後、ゴルファー7の左肩71の挙動を導出する処理(以下、左肩挙動導出処理)について説明する。その後、ゴルフクラブ5のシャフト52の向きを導出する処理(以下、シャフト方向導出処理)について説明する。
<1-3. Swing analysis method>
Hereinafter, a golf swing analysis method executed by the swing analysis system 100 will be described. In this analysis method, first, the golfer 7 makes a trial hit with the golf club 5, and the state is photographed by the distance image sensor 2. The image data of the IR image and the depth image captured by the distance image sensor 2 is sent from the distance image sensor 2 to the swing analysis apparatus 1. As already described, in this embodiment, the swing analysis device 1 causes the behavior of the grip 51 of the golf club 5 during the swing operation and the behavior of the left shoulder 71 of the golfer 7 and the orientation of the shaft 52 of the golf club 5 during the swing operation. Are analyzed. In the following, a process for deriving the behavior of the grip 51 (hereinafter referred to as grip behavior deriving process) will be described first, and then a process for deriving the behavior of the left shoulder 71 of the golfer 7 (hereinafter referred to as left shoulder behavior deriving process) will be described. Thereafter, processing for deriving the direction of the shaft 52 of the golf club 5 (hereinafter, shaft direction deriving processing) will be described.

<1−3−1.グリップ挙動導出処理>
グリップ挙動導出処理では、距離画像センサ2により撮影されたIR画像及び深度画像の画像データに基づいて、スイング動作中のグリップ端51aの軌道を表す三次元座標が導出される。解析の対象となる画像データは、動画である。従って、以下、解析の対象となるIR画像及び深度画像を、それぞれIRフレーム、深度フレームということがあり、単にフレームということもある。スイング動作中の各タイミングでの三次元座標は、主としてそのタイミングでのIRフレーム及び深度フレームに基づいて導出される。
<1-3-1. Grip behavior derivation process>
In the grip behavior deriving process, three-dimensional coordinates representing the trajectory of the grip end 51a during the swing operation are derived based on the IR image and depth image data captured by the distance image sensor 2. The image data to be analyzed is a moving image. Therefore, hereinafter, the IR image and the depth image to be analyzed may be referred to as an IR frame and a depth frame, respectively, and may be simply referred to as a frame. The three-dimensional coordinates at each timing during the swing motion are derived mainly based on the IR frame and the depth frame at that timing.

図3は、グリップ挙動導出処理の全体の流れを示すフローチャートである。グリップ挙動導出処理では、まず、取得部14aが、距離画像センサ2から取得され、記憶部13に格納されている画像データを読み出し、メモリに展開する。そして、位置導出部14bが、これらの画像データのうち、解析の対象となるフレームを決定する(ステップS1)。本実施形態では、スイング動作中のアドレスからインパクトのやや後までの期間が解析の対象とされる。従って、ステップS1では、アドレス及びインパクトのタイミングが決定され、この間のフレーム及びインパクト後の数フレームが解析の対象として決定される。また、ここでは、後の処理に備えて、トップのタイミングも決定される。アドレス、トップ及びインパクトのタイミングは、例えばグリップ51に取り付けられた慣性センサからの出力データに基づいて判定することもできるし、画像データ自体から画像処理により判定することもできる。このようなアドレス、トップ及びインパクトのタイミングの決定方法としては、様々なものが知られているため、ここでは詳細な説明を省略する。   FIG. 3 is a flowchart showing the overall flow of the grip behavior derivation process. In the grip behavior derivation process, first, the acquisition unit 14a reads the image data acquired from the distance image sensor 2 and stored in the storage unit 13, and develops it in the memory. Then, the position deriving unit 14b determines a frame to be analyzed among these image data (step S1). In the present embodiment, a period from the address during the swing operation to a little later than the impact is an analysis target. Therefore, in step S1, the address and impact timing are determined, and the frames in the meantime and several frames after the impact are determined as objects to be analyzed. Here, the top timing is also determined in preparation for later processing. The timing of the address, top and impact can be determined based on output data from an inertial sensor attached to the grip 51, for example, or can be determined by image processing from the image data itself. Various methods for determining the address, top, and impact timing are known, and detailed description thereof is omitted here.

なお、ゴルフクラブのスイング動作は、一般に、アドレス、トップ、インパクト、フィニッシュの順に進む。アドレスとは、図4(A)に示すとおり、ゴルフクラブ5のヘッドをボール近くに配置した初期の状態を意味し、トップとは、図4(B)に示すとおり、アドレスからゴルフクラブ5をテイクバックし、最もヘッドが振り上げられた状態を意味する。インパクトとは、図4(C)に示すとおり、トップからゴルフクラブ5が振り下ろされ、ヘッドがボールと衝突した瞬間の状態を意味し、フィニッシュとは、図4(D)に示すとおり、インパクト後、ゴルフクラブ5を前方へ振り抜いた状態を意味する。   Note that the golf club swing operation generally proceeds in the order of address, top, impact, and finish. The address means an initial state in which the head of the golf club 5 is arranged near the ball, as shown in FIG. 4A, and the top means the golf club 5 from the address as shown in FIG. It means a state where the head is swung up and the head is swung up most. As shown in FIG. 4C, the impact means a state at the moment when the golf club 5 is swung down from the top and the head collides with the ball. The finish means the impact as shown in FIG. After that, the golf club 5 is swung forward.

ステップS1により解析の対象となる期間が決定されると、位置導出部14bにより、アドレス付近でのグリップ端51aの三次元座標が導出される(ステップS2)。本実施形態では、ゴルファー7の前方から画像データが撮影されるため、アドレス付近では、ゴルファー7の手元に隠れ、グリップ端51aがフレームに写らない。そのため、ステップS2では、IRフレームに写るシャフト52の位置から、グリップ端51aの位置が推定される。   When the period to be analyzed is determined in step S1, the position deriving unit 14b derives the three-dimensional coordinates of the grip end 51a near the address (step S2). In this embodiment, since image data is taken from the front of the golfer 7, it is hidden near the golfer 7 near the address, and the grip end 51a is not shown in the frame. Therefore, in step S2, the position of the grip end 51a is estimated from the position of the shaft 52 shown in the IR frame.

具体的には、ステップS2での解析の対象となるのは、初期の期間のフレーム、例えば、アドレス付近の3枚のフレームである。上述したとおり、シャフト52には赤外線を効率的に反射させるマーカーが取り付けられているため、IRフレーム上には、当該マーカーの像が明確に表れる。位置導出部14bは、各IRフレームを適切な閾値を用いて2値化することで、各IRフレームをシャフト52のマーカーの像とその他の領域とに分割し、シャフト52の二次元座標を特定する。なお、当該閾値は、予め設定されている値であってもよいし、判別分析法等によりIRフレームから算出される値であってもよい。続いて、位置導出部14bは、同じタイミングでの深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52の三次元座標が導出される。ところで、シャフト52に取付けられているマーカーの長さ及びマーカーの中心(例えば、幾何学上の重心)からグリップ端51aまでの距離は既知であり、これらの値は予め記憶部13に記憶されている。従って、位置導出部14bは、これらの長さ及び距離と、IRフレームに写るシャフト52のマーカーの長さ及びマーカーの中心の三次元座標とに基づいて、アドレス付近でのグリップ端51aの三次元座標を導出する。   Specifically, the analysis target in step S2 is a frame in the initial period, for example, three frames near the address. As described above, since the marker that efficiently reflects the infrared rays is attached to the shaft 52, an image of the marker clearly appears on the IR frame. The position deriving unit 14b binarizes each IR frame using an appropriate threshold value, thereby dividing each IR frame into an image of the marker of the shaft 52 and other regions, and specifying the two-dimensional coordinates of the shaft 52. To do. The threshold value may be a preset value or a value calculated from an IR frame by a discriminant analysis method or the like. Subsequently, the position deriving unit 14b specifies the depth value corresponding to the two-dimensional coordinate specified here from the depth frame at the same timing. Thereby, the three-dimensional coordinates of the shaft 52 are derived. By the way, the length of the marker attached to the shaft 52 and the distance from the center of the marker (for example, the geometric center of gravity) to the grip end 51a are known, and these values are stored in the storage unit 13 in advance. Yes. Therefore, the position deriving unit 14b determines the three-dimensional shape of the grip end 51a near the address based on these lengths and distances, the marker length of the shaft 52 reflected in the IR frame, and the three-dimensional coordinates of the marker center. Deriving coordinates.

ステップS2が終了すると、ステップS3〜S7により、初期の期間後のグリップ端51aの三次元座標が特定される。ステップS3〜S7は、ステップS2の初期の期間のフレームを除く、ステップS1で決定された解析の期間に含まれる各フレームに対し、時間軸に沿って順に繰り返し実行される。   When step S2 ends, the three-dimensional coordinates of the grip end 51a after the initial period are specified by steps S3 to S7. Steps S3 to S7 are repeatedly executed in order along the time axis for each frame included in the analysis period determined in step S1 except for the frame in the initial period of step S2.

具体的には、まず、ステップS3において、位置導出部14bは、IRフレームに写るグリップ端51aの像を抽出することで、IRフレームから直接グリップ端51aの二次元座標を特定する。そして、この二次元座標の特定に成功した場合には(ステップS4において、「YES」)、位置導出部14bは、深度フレームから、当該二次元座標に対応する奥行きの値を直接特定する(ステップS5)。これにより、グリップ端51aの三次元座標が導出される。一方、ステップS3で、二次元座標の特定に失敗した場合には(ステップS4において、「NO」)、位置導出部14bは、別の方法でグリップ端51aの三次元座標を導出するための例外処理を実行する(ステップS6)。同様に、ステップS5で、奥行きの値の特定に失敗した場合にも、(ステップS7において、「NO」)、位置導出部14bは、同様の例外処理を実行する。ステップS3,S5,S6の処理の詳細は、後述する。   Specifically, first, in step S3, the position deriving unit 14b extracts the image of the grip end 51a that appears in the IR frame, thereby specifying the two-dimensional coordinates of the grip end 51a directly from the IR frame. When the two-dimensional coordinates are successfully identified (“YES” in step S4), the position deriving unit 14b directly identifies the depth value corresponding to the two-dimensional coordinates from the depth frame (step S4). S5). Thereby, the three-dimensional coordinate of the grip end 51a is derived. On the other hand, if the specification of the two-dimensional coordinates fails in step S3 (“NO” in step S4), the position deriving unit 14b uses an exception for deriving the three-dimensional coordinates of the grip end 51a by another method. Processing is executed (step S6). Similarly, even when the specification of the depth value fails in step S5 (“NO” in step S7), the position deriving unit 14b executes the same exception process. Details of the processes of steps S3, S5, and S6 will be described later.

ステップS1で決定された解析の対象となる期間についての以上の処理が終了すると、スイング動作中のグリップ端51aの三次元座標が導出されたことになる。位置導出部14bは、これらのグリップ端51aの三次元座標に対し、後述するステップS8のキャリブレーションを実行する。また、これらのキャリブレーション後の値は、依然として一定程度の誤差を含み得る。特に、IRフレームにグリップ端51aの像が写らず、後述する様々な方法でグリップ端51aの三次元座標の推定が行われた場合には、誤差が顕著に表れることがある。そこで、位置導出部14bは、これらのキャリブレーション後の三次元座標を補正処理により補正する(ステップS9)。この補正処理の詳細については、後述する。   When the above processing for the period to be analyzed determined in step S1 is completed, the three-dimensional coordinates of the grip end 51a during the swing motion are derived. The position deriving unit 14b performs calibration in step S8 described later on the three-dimensional coordinates of the grip end 51a. In addition, these post-calibration values may still contain some degree of error. In particular, when an image of the grip end 51a is not captured in the IR frame and the three-dimensional coordinates of the grip end 51a are estimated by various methods to be described later, an error may appear significantly. Therefore, the position deriving unit 14b corrects these three-dimensional coordinates after calibration by a correction process (step S9). Details of this correction processing will be described later.

以上の処理により、スイング動作中のグリップ端51aの三次元座標が高精度に導出される。これらのグリップ端51aの三次元座標は、記憶部13内に格納され、ユーザの命令に応じて、適宜、表示部11上に表示される。例えば、スイング動作中のグリップ端51aの軌道をグラフィック表示することも可能である。また、記憶部13内に格納されたこれらのグリップ端51aの三次元座標は、他のプログラムにより読み出され、さらなるゴルフスイングの解析にも利用され得る。   Through the above processing, the three-dimensional coordinates of the grip end 51a during the swing operation are derived with high accuracy. The three-dimensional coordinates of these grip ends 51a are stored in the storage unit 13 and are appropriately displayed on the display unit 11 in accordance with a user command. For example, the trajectory of the grip end 51a during the swing operation can be displayed graphically. Further, the three-dimensional coordinates of these grip ends 51a stored in the storage unit 13 can be read out by another program and used for further golf swing analysis.

<1−3−1−1.ステップS3の詳細>
以下、図5を参照しつつ、ステップS3の詳細を説明する。ステップS3は、IRフレームに写るグリップ端51aの像を抽出することで、IRフレームから直接グリップ端51aの二次元座標を特定する処理である。上述したとおり、ステップS3は、ステップS2の解析の対象となる初期の期間後の各フレームについて繰り返し実行される。従って、以下のステップS3の説明においては、初期の期間後の特定の時刻(以下、対象時刻という)での特定のフレーム(以下、対象フレームという)に対する処理の流れを説明する。なお、対象フレームには、IRフレーム及び深度フレームが含まれ、それぞれを対象IRフレーム及び対象深度フレームと呼ぶ。
<1-3-1-1. Details of Step S3>
Hereinafter, the details of step S3 will be described with reference to FIG. Step S3 is a process of specifying the two-dimensional coordinates of the grip end 51a directly from the IR frame by extracting the image of the grip end 51a reflected in the IR frame. As described above, step S3 is repeatedly executed for each frame after the initial period to be analyzed in step S2. Therefore, in the following description of step S3, the flow of processing for a specific frame (hereinafter referred to as a target frame) at a specific time (hereinafter referred to as a target time) after the initial period will be described. The target frame includes an IR frame and a depth frame, which are referred to as a target IR frame and a target depth frame, respectively.

まず、位置導出部14bは、以降の計算負荷を下げるために、対象フレーム上において対象フレームの画像サイズよりも小さい探索範囲R1を設定する(ステップS21)。具体的には、対象時刻の直前の所定の枚数(例えば、3枚)のフレームにおけるグリップ端51aの二次元座標から、対象時刻でのグリップ端51aの二次元座標が推定される。この推定は、例えば、直前の所定の枚数のフレームのグリップ端51aのフレーム間のベクトルの向きに基づいて行うことができる。そして、当該推定された二次元座標の周辺に、例えば、当該二次元座標を中心とする所定のサイズ(例えば、50ピクセル×50ピクセル)の探索範囲R1が設定される。   First, the position deriving unit 14b sets a search range R1 smaller than the image size of the target frame on the target frame in order to reduce the subsequent calculation load (step S21). Specifically, the two-dimensional coordinates of the grip end 51a at the target time are estimated from the two-dimensional coordinates of the grip end 51a in a predetermined number of frames (for example, three) immediately before the target time. This estimation can be performed based on, for example, the direction of the vector between frames of the grip end 51a of the predetermined number of frames immediately before. Then, for example, a search range R1 having a predetermined size (for example, 50 pixels × 50 pixels) around the two-dimensional coordinates is set around the estimated two-dimensional coordinates.

続くステップS22〜S24では、位置導出部14bは、探索範囲R1内において、グリップ端51a及びシャフト52に貼付されたマーカーを表す領域をその他の領域から分離するための対象IRフレームの二値化を行う。そのために、まず、ステップS22において、二値化のための閾値が設定される。当該閾値は、公知の様々な方法で算出することができるが、本実施形態では、判別分析法により算出される。或いは、当該閾値は、予め設定されている値であってもよい。続いて、ステップS23において、当該閾値の適否が判断され、適切であると判断された場合にはステップS24に進む。ステップS24では、当該閾値を用いて探索範囲R1内での対象IRフレームの二値化が行われる。なお、このとき、「1」領域(マーカーに対応する領域)の穴抜けを防ぐため、膨張処理及び縮小処理を行うことが好ましい。図6には、参考として、対象IRフレームの例が示される。図6には、グリップ端51aに加え、シャフト52に貼付されたマーカーの像が写っている。一方、ステップS23において、閾値が不適切であると判断された場合には、ステップS3は終了し、その後、上述のステップS4を経てステップS6の例外処理へと進む。なお、本実施形態に係るステップS23では、対象IRフレーム内の探索範囲R1内において、上記閾値が、輝度のとり得る範囲を0〜1に正規化した場合において0.1より大きい場合に、「適切」、そうでない場合に、「不適切」と判断される。また、これに加えて、上記閾値以上となる輝度の最頻度が所定値(例えば、2ピクセル)以上である場合に、「適切」、そうでない場合に、「不適切」と判断することもできる。   In subsequent steps S22 to S24, the position deriving unit 14b binarizes the target IR frame for separating the region representing the marker attached to the grip end 51a and the shaft 52 from other regions within the search range R1. Do. For this purpose, first, in step S22, a threshold value for binarization is set. The threshold value can be calculated by various known methods. In this embodiment, the threshold value is calculated by a discriminant analysis method. Alternatively, the threshold value may be a preset value. Subsequently, in step S23, whether or not the threshold is appropriate is determined. If it is determined that the threshold is appropriate, the process proceeds to step S24. In step S24, binarization of the target IR frame within the search range R1 is performed using the threshold value. At this time, it is preferable to perform an expansion process and a reduction process in order to prevent the “1” area (area corresponding to the marker) from being lost. FIG. 6 shows an example of a target IR frame as a reference. FIG. 6 shows an image of the marker attached to the shaft 52 in addition to the grip end 51a. On the other hand, if it is determined in step S23 that the threshold value is inappropriate, step S3 ends, and then the process proceeds to the exception process in step S6 through step S4 described above. In step S23 according to the present embodiment, in the search range R1 in the target IR frame, when the threshold value is larger than 0.1 when the range that the brightness can take is normalized to 0 to 1, “Appropriate”, otherwise, it is determined as “inappropriate”. In addition to this, it is possible to determine “appropriate” when the maximum frequency of luminance that is equal to or higher than the threshold is equal to or higher than a predetermined value (for example, 2 pixels), and “inappropriate” otherwise. .

続いて、ステップS25では、位置導出部14bは、グリップ端51aが対象IRフレーム内の探索範囲R1内に写っていない、又は探索範囲R1からはみ出している(探索範囲R1の外枠に重なっている)か否かを判断する。そして、グリップ端51aが探索範囲R1内に写っており、かつ、はみ出していない(以下、条件1)と判断される場合には、探索範囲R1が適切であるとして、ステップS26に進む。一方、条件1が満たされないと判断される場合には、探索範囲R1が不適切であるとして、ステップS20に進み、探索範囲R1の再設定が行われる。ステップS20では、前回の探索範囲R1よりも所定量だけ大きな探索範囲R1が設定され、その後、ステップS22以降が繰り返される。なお、はみ出していると判定された場合には、はみ出している方向にのみ所定量(例えば、10ピクセル)だけ拡大することができる。なお、図5からは明らかではないが、本実施形態では、ステップS20の繰り返しの回数には上限が設けられており、上限回数繰り返してもグリップ端51aが探索範囲R1内に写らない場合には、強制的にステップS3が終了する。また、上限回数繰り返してもはみ出している場合には、強制的にステップS26に進む。   Subsequently, in step S25, the position deriving unit 14b does not include the grip end 51a in the search range R1 in the target IR frame or protrudes from the search range R1 (overlaps the outer frame of the search range R1). ) Or not. If it is determined that the grip end 51a is in the search range R1 and does not protrude (hereinafter, condition 1), it is determined that the search range R1 is appropriate, and the process proceeds to step S26. On the other hand, when it is determined that the condition 1 is not satisfied, it is determined that the search range R1 is inappropriate, the process proceeds to step S20, and the search range R1 is reset. In step S20, a search range R1 that is larger than the previous search range R1 by a predetermined amount is set, and then step S22 and subsequent steps are repeated. If it is determined that the image is protruding, the image can be enlarged by a predetermined amount (for example, 10 pixels) only in the protruding direction. Although not clear from FIG. 5, in the present embodiment, there is an upper limit for the number of repetitions of step S20, and when the grip end 51a does not appear within the search range R1 even if the upper limit is repeated. Step S3 is forcibly ended. If the upper limit is repeated, the process proceeds to step S26 forcibly.

ステップS26では、位置導出部14bは、探索範囲R1内にシャフト52のマーカーの像が含まれる場合には、これを除去する。具体的には、探索範囲R1の外枠の所定の3辺を調べ、「1」領域が存在していた場合には、これを「0」に置き換える。これにより、探索範囲R1内の「1」領域は、グリップ端51aにのみ対応する領域となる。なお、アドレスからインパクトのやや後までの区間においては、グリップ51の左側にシャフトがくることが考えにくいため、所定の3辺としては、上下の辺と、グリップ51の右側の辺が設定される。   In step S26, when the image of the marker of the shaft 52 is included in the search range R1, the position deriving unit 14b removes this. Specifically, predetermined three sides of the outer frame of the search range R1 are examined, and if a “1” region exists, it is replaced with “0”. Thereby, the “1” region in the search range R1 is a region corresponding only to the grip end 51a. Since it is unlikely that the shaft will come to the left side of the grip 51 in the section from the address to a little after the impact, the upper and lower sides and the right side of the grip 51 are set as the predetermined three sides. .

続くステップS27では、位置導出部14bは、ラベリング処理を行い、探索範囲R1内のグリップ端51aの像が複数の領域に分離していないか否かを判断する。図7(A)に示すように、対象IRフレーム内では、特にダウンスイング中において、モーションブラーによりグリップ端51aの像が長細く写ることがある。そして、これを以上の方法で二値化すると、図7(B)に示すように、グリップ端51aを表す「1」領域が複数の領域に分離し得る。そこで、位置導出部14bは、探索範囲R1内のグリップ端51aの像が複数の領域に分離していると判断される場合には、図7(C)に示すように、それらを結合する(ステップS28)。具体的には、複数の「1」領域のより近い端点どうしが「1」の線で連結され、内側の穴が「1」で補完される。   In subsequent step S27, the position deriving unit 14b performs a labeling process, and determines whether or not the image of the grip end 51a in the search range R1 is separated into a plurality of regions. As shown in FIG. 7A, in the target IR frame, particularly during the downswing, the image of the grip end 51a may appear long due to motion blur. When this is binarized by the above method, as shown in FIG. 7B, the “1” region representing the grip end 51a can be separated into a plurality of regions. Therefore, when it is determined that the image of the grip end 51a in the search range R1 is separated into a plurality of regions, the position deriving unit 14b combines them as shown in FIG. Step S28). Specifically, closer end points of a plurality of “1” regions are connected by a line “1”, and the inner hole is complemented by “1”.

ステップS29では、位置導出部14bは、探索範囲R1内の「1」領域の中心を算出する。「1」領域の中心は、様々な方法で算出することが可能であるが、例えば、幾何学上の重心として算出することができる。そして、当該中心の二次元座標が、グリップ端51aの二次元座標として特定される。   In step S29, the position deriving unit 14b calculates the center of the “1” region within the search range R1. The center of the “1” region can be calculated by various methods. For example, it can be calculated as a geometric center of gravity. Then, the two-dimensional coordinates of the center are specified as the two-dimensional coordinates of the grip end 51a.

<1−3−1−2.ステップS5の詳細>
次に、図8を参照しつつ、ステップS5の詳細を説明する。ステップS5は、ステップS3で抽出に成功したグリップ端51aの奥行きの値を、深度フレームから直接特定する処理である。上述したとおり、ステップS5は、ステップS3と同様、ステップS2の解析の対象となる初期の期間後の各フレームについて繰り返し実行される。従って、以下でのステップS5の説明においては、ステップS3のときと同様に、対象フレームに対する処理の流れを説明する。
<1-3-1-2. Details of Step S5>
Next, the details of step S5 will be described with reference to FIG. Step S5 is a process for directly specifying the depth value of the grip end 51a that has been successfully extracted in step S3 from the depth frame. As described above, step S5 is repeatedly executed for each frame after the initial period to be analyzed in step S2, as in step S3. Therefore, in the description of step S5 below, the flow of processing for the target frame will be described as in step S3.

まず、ステップS31において、位置導出部14bは、対象深度フレームから、ステップS3で特定されたグリップ端51aの二次元座標に対応する位置での奥行きの値を抽出する。図9は、ステップS3で特定されたグリップ端51aの二次元座標の位置を対象深度フレーム上にプロットした図である。   First, in step S31, the position deriving unit 14b extracts a depth value at a position corresponding to the two-dimensional coordinates of the grip end 51a specified in step S3 from the target depth frame. FIG. 9 is a diagram in which the two-dimensional coordinate position of the grip end 51a specified in step S3 is plotted on the target depth frame.

続くステップS32では、位置導出部14bは、ステップS31で抽出した奥行きの値の適否を判断する。そして、適切であると判断された場合には、グリップ端51aの奥行きの値の特定に成功したと判断し、ステップS33以降に進む。一方、ステップS32において、ステップS31で抽出した奥行きの値が不適切であると判断された場合には、グリップ端51aの奥行きの値の特定に失敗したと判断し、ステップS5を終了させる。なお、本実施形態に係るステップS32では、ステップS31で抽出した奥行きの値が所定の範囲内、例えば、2000mm〜3500mmの範囲内にある場合には「適切」、そうでない場合に「不適切」と判断される。また、そもそもデータが欠落しており、ステップS31において奥行きの値が抽出されなかった場合にも、「不適切」と判断される。   In subsequent step S32, the position deriving unit 14b determines whether the depth value extracted in step S31 is appropriate. If it is determined to be appropriate, it is determined that the depth value of the grip end 51a has been successfully specified, and the process proceeds to step S33 and subsequent steps. On the other hand, if it is determined in step S32 that the depth value extracted in step S31 is inappropriate, it is determined that the specification of the depth value of the grip end 51a has failed, and step S5 is ended. In step S32 according to the present embodiment, “appropriate” is obtained when the depth value extracted in step S31 is within a predetermined range, for example, within a range of 2000 mm to 3500 mm, and “inappropriate” otherwise. It is judged. Further, if data is missing in the first place and no depth value is extracted in step S31, it is determined as “inappropriate”.

ステップS33では、位置導出部14bは、対象IRフレームから、シャフト52の中心の二次元座標を特定し、対象深度フレームから、当該二次元座標に対応する位置での奥行きの値を抽出する。これにより、シャフト52の中心の三次元座標が導出される。具体的には、ステップS24と同様の方法で対象IRフレームを二値化し、ここから既に抽出されているグリップ端51aの像を除去することにより、対象IRフレーム上においてシャフト52のマーカーの像を表す「1」領域が抽出される。そして、当該「1」領域の中心(例えば、幾何学上の重心)の二次元座標が、シャフト52の中心の二次元座標として特定される。なお、簡単のため、図8等からは省略されているが、ここでシャフト52の中心の三次元座標の導出に失敗した場合には、ステップS5は強制終了し、ステップS7を経てステップS6の例外処理へ進むものとする。   In step S33, the position deriving unit 14b specifies the two-dimensional coordinates of the center of the shaft 52 from the target IR frame, and extracts the value of the depth at the position corresponding to the two-dimensional coordinates from the target depth frame. Thereby, the three-dimensional coordinates of the center of the shaft 52 are derived. Specifically, the target IR frame is binarized in the same manner as in step S24, and the image of the grip end 51a already extracted from the target IR frame is removed, whereby the image of the marker of the shaft 52 on the target IR frame. The “1” area to be extracted is extracted. Then, the two-dimensional coordinates of the center of the “1” region (for example, the geometric center of gravity) are specified as the two-dimensional coordinates of the center of the shaft 52. Although omitted from FIG. 8 and the like for the sake of simplicity, if the derivation of the three-dimensional coordinates of the center of the shaft 52 fails here, step S5 is forcibly terminated, and step S6 is followed by step S6. Let's proceed to exception handling.

続くステップS34では、位置導出部14bは、グリップ端51aの二次元座標及びシャフト52の中心の二次元座標に基づいて、対象IRフレーム上でのシャフト52の角度を算出する。この値は、後述するステップS35で使用される。   In subsequent step S34, the position deriving unit 14b calculates the angle of the shaft 52 on the target IR frame based on the two-dimensional coordinates of the grip end 51a and the two-dimensional coordinates of the center of the shaft 52. This value is used in step S35 described later.

続くステップS35〜S37では、位置導出部14bは、グリップ端51aの奥行きの値を取り直すべきか否かを判断する。グリップ端51aの奥行きの値を取り直す条件は、
以下の3つである。
(1)シャフト52の角度が所定の範囲内(例えば、ゴルファーの正面から見て11時よりも前)である(ステップS35)。
(2)1つ前のフレームと対象フレームとのグリップ端51aの奥行きの値の差が所定値(例えば、50mm)以上である(ステップS36)。
(3)ステップS6の例外処理によらず、深度フレームからグリップ端51aの奥行きの値を直接抽出できたフレームが所定枚数(例えば、3枚)以上続いている(ステップS37)。
In subsequent steps S35 to S37, the position deriving unit 14b determines whether or not the depth value of the grip end 51a should be taken again. The conditions for re-taking the depth value of the grip end 51a are as follows:
The following are three.
(1) The angle of the shaft 52 is within a predetermined range (for example, before 11 o'clock when viewed from the front of the golfer) (step S35).
(2) The difference in the depth value of the grip end 51a between the previous frame and the target frame is equal to or greater than a predetermined value (for example, 50 mm) (step S36).
(3) A predetermined number (for example, three) or more of frames in which the depth value of the grip end 51a can be directly extracted from the depth frame irrespective of the exception processing in step S6 continues (step S37).

ステップS35〜S37の条件のいずれかを満たさない場合には、ステップS31で特定されたグリップ端51aの奥行きの値が確定し、ステップS5が終了する。一方、ステップS35〜S37の条件を全て満たす場合には、位置導出部14bは、ステップS31で特定されたグリップ端51aの奥行きの値が、グリップ端51aではなく人体の奥行きの値であると判断し、グリップ端51aの奥行きの値の取り直しを行う(ステップS38)。   If any of the conditions in steps S35 to S37 is not satisfied, the value of the depth of the grip end 51a specified in step S31 is determined, and step S5 is ended. On the other hand, when all the conditions in steps S35 to S37 are satisfied, the position deriving unit 14b determines that the depth value of the grip end 51a specified in step S31 is not the grip end 51a but the human body depth value. Then, the value of the depth of the grip end 51a is read again (step S38).

具体的には、ステップS38では、対象深度フレームにおいて、グリップ端51aの二次元座標を中心に所定のサイズ(例えば、10ピクセル×10ピクセル)の探索範囲R2を設定する(図10参照)。また、位置導出部14bは、ステップS31で特定されたグリップ端51aの奥行きの値から所定値(例えば、50mm)を引き(手前側に移動)、対象深度フレームに基づいて、探索範囲R2内で当該引いた値よりも奥にあるものは全て人体であると判断する。そして、探索範囲R2内で人体の像を除いた領域(グリップ端51a及び指の像と考えられる)内の全ての点に対応する奥行きの値を特定し、その最大値(最深値)をグリップ端51aの奥行きの値とする。図11は、ステップS38による奥行の値の補正の前後を示すグラフである。左側のグラフは、ステップS31の値をプロットしたグラフであり、右側のグラフでは、このうちの太枠の丸で囲んだ2点の位置が補正されている。   Specifically, in step S38, a search range R2 having a predetermined size (for example, 10 pixels × 10 pixels) is set around the two-dimensional coordinates of the grip end 51a in the target depth frame (see FIG. 10). Further, the position deriving unit 14b subtracts a predetermined value (for example, 50 mm) from the depth value of the grip end 51a specified in step S31 (moves to the near side), and within the search range R2 based on the target depth frame. It is determined that everything behind the subtracted value is a human body. Then, the depth value corresponding to all the points in the region excluding the human image in the search range R2 (considered as the grip end 51a and the finger image) is specified, and the maximum value (the deepest value) is gripped. It is set as the depth value of the end 51a. FIG. 11 is a graph showing before and after the correction of the depth value in step S38. The graph on the left is a graph in which the values in step S31 are plotted. In the graph on the right, the positions of two points surrounded by a thick circle are corrected.

<1−3−1−3.ステップS6(例外処理)の詳細>
以下、図12を参照しつつ、ステップS6の例外処理について説明する。例外処理は、ステップS3,S5においてグリップ端51aの三次元座標の導出に失敗した場合に、別の方法でグリップ端51aの三次元座標を導出するための処理である。
<1-3-1-3. Details of Step S6 (Exception Processing)>
Hereinafter, the exception processing in step S6 will be described with reference to FIG. The exception process is a process for deriving the three-dimensional coordinates of the grip end 51a by another method when the derivation of the three-dimensional coordinates of the grip end 51a fails in steps S3 and S5.

まず、ステップS41では、位置導出部14bは、対象IRフレームからシャフト52のマーカーの像を抽出する。具体的には、ステップS24と同様の方法で対象IRフレームを二値化し、ここから適宜グリップ端51aの像を除去することにより、対象IRフレーム上におけるシャフト52のマーカーの像が抽出される。ここでシャフト52の像が抽出された場合には、ステップS42に進み、抽出できなかった場合には、ステップS48に進む。   First, in step S41, the position deriving unit 14b extracts a marker image of the shaft 52 from the target IR frame. Specifically, the target IR frame is binarized by the same method as in step S24, and the image of the grip end 51a is appropriately removed therefrom, whereby the image of the marker of the shaft 52 on the target IR frame is extracted. If the image of the shaft 52 has been extracted, the process proceeds to step S42. If the image has not been extracted, the process proceeds to step S48.

ステップS42では、位置導出部14bは、ステップS41で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、位置導出部14bは、対象深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52のマーカーの三次元座標が導出される。   In step S42, the position deriving unit 14b specifies the two-dimensional coordinates of all points included in the region of the marker image of the shaft 52 extracted in step S41. In addition, the position deriving unit 14b specifies the depth value corresponding to the two-dimensional coordinates specified here from the target depth frame. Thereby, the three-dimensional coordinates of the marker of the shaft 52 are derived.

続いて、位置導出部14bは、シャフト52のマーカーの二次元座標に基づいて、グリップ端51aの二次元座標を推定する(ステップS43)。具体的には、当該グリップ端51aの二次元座標は、記憶部13内に格納されている、シャフト52のマーカーの長さ及びマーカーの中心からグリップ端51aまでの距離を参照することにより、対象IRフレームに写るシャフト52のマーカーの長さ及びマーカーの中心の二次元座標に基づいて特定される。   Subsequently, the position deriving unit 14b estimates the two-dimensional coordinates of the grip end 51a based on the two-dimensional coordinates of the marker of the shaft 52 (step S43). Specifically, the two-dimensional coordinates of the grip end 51a can be obtained by referring to the marker length of the shaft 52 and the distance from the center of the marker to the grip end 51a stored in the storage unit 13. It is specified based on the length of the marker of the shaft 52 reflected in the IR frame and the two-dimensional coordinates of the center of the marker.

続くステップS44では、位置導出部14bは、ステップS42で抽出したシャフト52の奥行きの値の適否を判断し、適切であると判断される場合には、ステップS45に進む。一方、ステップS44において、ステップS42で抽出した奥行きの値が不適切であると判断された場合には、ステップS46へと進む。なお、本実施形態に係るステップS44では、以下の2つの条件を満たす場合に「適切」、少なくとも一方を満たさない場合に「不適切」と判断される。なお、(2)の条件は、ステップS41においてシャフト52のマーカーの像を正しく抽出できているか、すなわち、脚等のデータを抽出していないかをチェックするための条件である。
(1)シャフト52の中心の奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にある。
(2)対象深度フレーム上において、シャフト52のマーカーの像に対応する領域内の全ての点のうち、奥行きの値が「0」(奥行きの値が得られなかった場合の画素値)の割合が所定値(例えば、4割)以下である。
In subsequent step S44, the position deriving unit 14b determines whether or not the depth value of the shaft 52 extracted in step S42 is appropriate, and if it is determined to be appropriate, the process proceeds to step S45. On the other hand, if it is determined in step S44 that the depth value extracted in step S42 is inappropriate, the process proceeds to step S46. Note that in step S44 according to the present embodiment, it is determined as “appropriate” when the following two conditions are satisfied, and “inappropriate” when at least one of the following conditions is not satisfied. The condition (2) is a condition for checking whether or not the marker image of the shaft 52 has been correctly extracted in step S41, that is, whether or not data such as a leg has been extracted.
(1) The value of the depth of the center of the shaft 52 is within a predetermined range (for example, 1000 mm to 3500 mm).
(2) Ratio of depth value “0” (pixel value when depth value is not obtained) among all points in the region corresponding to the marker image of shaft 52 on the target depth frame Is below a predetermined value (for example, 40%).

ステップS45では、位置導出部14bは、シャフト52のマーカーの三次元座標から、グリップ端51aの三次元座標を推定する。本実施形態では、まず、対象IRフレーム上において、シャフト52のマーカーの像からシャフト52の慣性主軸A1を抽出し、対象深度フレームから慣性主軸A1上の各点の奥行きの値を取得する(図13参照)。さらに、これらの奥行きの値から外れ値を除外する。外れ値は、所定の範囲外(例えば、1000mm以下、又は、3500mm以上)の値であるか、基準値から大きく乖離した値(例えば、300mm以上異なる値)である。当該基準値は、例えば、シャフト52の角度が9時より前はa−b線上の点の奥行きの最小値、シャフト52の角度が9時以降はa−b線上の点の奥行きの最大値として設定され得る。なお、a点は、対象IRフレーム内において、グリップ端51aに最も近い慣性主軸A1上の点(外れ値は除く)であり、b点は、対象IRフレーム内において、グリップ端51aから最も遠い慣性主軸A1上の点(外れ値は除く)である(図13参照)。続いて、対象IRフレーム内において、b点から慣性主軸A1上の各点(外れ値は除く)との距離を算出する。そして、慣性主軸A1上の各点(外れ値は除く)についてのb点からの距離と奥行きとを、距離−奥行き平面内にプロットし(図14参照)、距離と奥行きとの関係を表す一次近似式を導出する。続いて、対象IRフレーム内におけるb点からグリップ端51aまでの距離を算出し、この距離を上記一次近似式に代入することにより、グリップ端51aの奥行きを算出する。これにより、グリップ端51aの三次元座標が導出される。ステップS45が終了すると、例外処理は終了する。   In step S45, the position deriving unit 14b estimates the three-dimensional coordinates of the grip end 51a from the three-dimensional coordinates of the marker of the shaft 52. In the present embodiment, first, the inertia principal axis A1 of the shaft 52 is extracted from the marker image of the shaft 52 on the target IR frame, and the depth value of each point on the inertia principal axis A1 is acquired from the target depth frame (FIG. 13). Further, outliers are excluded from these depth values. The outlier is a value outside a predetermined range (for example, 1000 mm or less, or 3500 mm or more), or a value greatly deviating from the reference value (for example, a value different by 300 mm or more). The reference value is, for example, the minimum value of the depth of the point on the line ab before the angle of the shaft 52 before 9 o'clock, and the maximum value of the depth of the point on the line ab after the angle of the shaft 52 is 9 o'clock. Can be set. Note that point a is the point on the inertial principal axis A1 closest to the grip end 51a in the target IR frame (excluding outliers), and point b is the inertia farthest from the grip end 51a in the target IR frame. It is a point on the main axis A1 (excluding outliers) (see FIG. 13). Subsequently, in the target IR frame, the distance from the point b to each point on the inertial main axis A1 (excluding outliers) is calculated. Then, the distance and depth from the point b for each point (excluding outliers) on the inertial principal axis A1 are plotted in a distance-depth plane (see FIG. 14), and a primary representing the relationship between the distance and the depth. An approximate expression is derived. Subsequently, the distance from the point b in the target IR frame to the grip end 51a is calculated, and the depth of the grip end 51a is calculated by substituting this distance into the primary approximation formula. Thereby, the three-dimensional coordinate of the grip end 51a is derived. When step S45 ends, the exception processing ends.

なお、慣性主軸A1とは、以下に示す方法で特定される。すなわち、まず、シャフト52のマーカーの像と同じ二次モーメントを有する楕円を定義する。そして、当該楕円の長軸の長さをLとし、当該楕円の長軸とx軸(対象フレームの横軸)との為す角θを特定する。また、シャフト52のマーカーの重心の座標(x1,y1)を導出する。このとき、慣性主軸A1の始点(xs,ys)及び終点(xe,ye)の座標は、以下のとおりとなる。
s=x1−L・cosθ/2
s=y1−L・sinθ/2
e=x1+L・cosθ/2
e=x1+L・cosθ/2
The inertia main axis A1 is specified by the following method. That is, first, an ellipse having the same second moment as the marker image of the shaft 52 is defined. Then, the length of the major axis of the ellipse is L, and the angle θ formed by the major axis of the ellipse and the x axis (the horizontal axis of the target frame) is specified. Further, the coordinates (x 1 , y 1 ) of the center of gravity of the marker on the shaft 52 are derived. At this time, the coordinates of the start point (x s , y s ) and the end point (x e , y e ) of the inertial spindle A1 are as follows.
x s = x 1 −L · cos θ / 2
y s = y 1 −L · sin θ / 2
x e = x 1 + L · cos θ / 2
y e = x 1 + L · cos θ / 2

以下のS47では、グリップ端51aに代えて、グリップ51の下部の点の奥行きの値に基づいて、グリップ端51aの三次元座標が推定される。ステップS47の前に実行されるステップS46は、ステップS47の推定のアルゴリズムが効果的に機能する対象フレームを選別するためのステップである。具体的には、ステップS46において以下の2つの条件を満たすと判断された場合には、ステップS47へと進み、少なくとも一方を満たさないと判断された場合には、ステップS48へ進む。
(1)対象フレームがアドレス又はトップ近傍のフレーム(例えば、前後5枚のフレーム)である。
(2)a−c線上において、外れ値以外の奥行きを有する点が1点以上存在する。
In the following S47, the three-dimensional coordinates of the grip end 51a are estimated based on the depth value of the lower point of the grip 51 instead of the grip end 51a. Step S46, which is executed before step S47, is a step for selecting a target frame in which the estimation algorithm of step S47 functions effectively. Specifically, if it is determined in step S46 that the following two conditions are satisfied, the process proceeds to step S47, and if it is determined that at least one of the conditions is not satisfied, the process proceeds to step S48.
(1) The target frame is an address or a frame near the top (for example, five frames before and after).
(2) There are one or more points having a depth other than an outlier on the a-c line.

なお、c点とは、対象IRフレーム内において、a点とグリップ端51aとを結んだ線上において、a点からグリップ端51aの方向に所定の距離(例えば、20ピクセル)だけ離れた点である。また、(2)の外れ値とは、所定の範囲外(例えば、1000mm以下、又は、3500mm以上)の値であるか、基準値から大きく乖離した値(例えば、150mm以上異なる値)である。当該基準値も、ステップS45での説明と同様に設定することができる。   Note that the point c is a point separated from the point a in the direction of the grip end 51a by a predetermined distance (for example, 20 pixels) on the line connecting the point a and the grip end 51a in the target IR frame. . The outlier in (2) is a value outside a predetermined range (for example, 1000 mm or less, or 3500 mm or more), or a value greatly deviating from the reference value (for example, a value different by 150 mm or more). The reference value can also be set in the same manner as described in step S45.

ステップS47の詳細は、図16に示される。すなわち、まず、ステップS471として、位置導出部14bは、a−c線上の点の分布を表す1次近似式を導出する。具体的には、対象IRフレーム内において、グリップ端51aから最も遠いa−c線上の点(外れ値は除く)を基準点とし、当該基準点からa−c線上の各点(外れ値は除く)との距離を算出する。そして、a−c線上の各点(外れ値は除く)についての上記基準点からの距離と、奥行きとの関係を表す一次近似式を導出する。   Details of step S47 are shown in FIG. That is, first, as step S471, the position deriving unit 14b derives a first-order approximation expression representing the distribution of points on the a-c line. Specifically, in the target IR frame, a point on the a-c line (excluding outliers) farthest from the grip end 51a is used as a reference point, and each point on the ac line from the reference point (excluding outliers is excluded). ) Is calculated. Then, a linear approximate expression representing the relationship between the distance from the reference point and the depth of each point on the a-c line (excluding outliers) is derived.

続いて、ステップS472では、位置導出部14bは、ステップS471で算出された1次近似式の傾きが0になっていないか否かを判断し、0でない場合には、ステップS473に進む。ステップS473では、位置導出部14bは、対象IRフレーム内における上記基準点からグリップ端51aまでの距離を算出し、この距離を上記一次近似式に代入することにより、グリップ端51aの奥行きを算出する。これにより、グリップ端51aの三次元座標が導出される。ステップS473が終了すると、例外処理は終了する。   Subsequently, in step S472, the position deriving unit 14b determines whether or not the slope of the primary approximation calculated in step S471 is 0, and if not, the process proceeds to step S473. In step S473, the position deriving unit 14b calculates the distance from the reference point to the grip end 51a in the target IR frame, and calculates the depth of the grip end 51a by substituting this distance into the primary approximation formula. . Thereby, the three-dimensional coordinate of the grip end 51a is derived. When step S473 ends, the exception processing ends.

一方、ステップS472で1次近似式の傾きが0になっていると判断された場合には、位置導出部14bは、直前の3フレームにおけるグリップ端51aの動きのシーケンスから、対象時刻での奥行きを推定する(ステップS474)。例えば、以下の式に従って、対象時刻での奥行きDを決定することができる。ただし、D1〜D3は、それぞれ1つ前〜3つ前のフレームの奥行きDである。これにより、グリップ端51aの三次元座標が導出される。ステップ474が終了すると、例外処理は終了する。
D=2(D1−D2)−(D2−D3)+D1
On the other hand, if it is determined in step S472 that the slope of the first-order approximation equation is 0, the position deriving unit 14b determines the depth at the target time from the sequence of movement of the grip end 51a in the immediately preceding three frames. Is estimated (step S474). For example, the depth D at the target time can be determined according to the following equation. However, D 1 to D 3 are the depths D of the previous frame to the previous three frames, respectively. Thereby, the three-dimensional coordinate of the grip end 51a is derived. When step 474 ends, the exception processing ends.
D = 2 (D 1 -D 2 ) - (D 2 -D 3) + D 1

図12に戻って、ステップS48では、位置導出部14bは、グリップ端51aの抽出を5フレーム連続で失敗していないか否かを判断する。5フレーム連続で失敗していないと判断された場合には、ステップS49に進み、直前の3フレームにおけるグリップ端51aの動きのシーケンスから、対象時刻でのグリップ端51aの位置を推定する。より具体的には、グリップ端51aの二次元座標が特定されている場合には、ステップS474と同様に奥行きのみが推定され、グリップ端51aの二次元座標が特定されていない場合には、グリップ端51aの三次元座標が推定される。一方、ステップS48において、失敗の連続回数が5フレーム以上であると判断された場合には、位置導出部14bは、対象フレームのグリップ端51aの位置を決定せずに、例外処理を終了する。なお、ステップS49においては、グリップ端51aの二次元座標が特定されており、かつ、対象フレーム内でのグリップ端51aの二次元座標と、直前のフレームにおけるグリップ端51aの二次元座標との距離が小さい(例えば、5ピクセル以下)場合には、直前のフレームの奥行きの値をそのまま対象フレームの奥行きの値として使用することもできる。   Returning to FIG. 12, in step S48, the position deriving unit 14b determines whether or not the extraction of the grip end 51a has failed for five consecutive frames. If it is determined that five frames have not failed, the process proceeds to step S49, and the position of the grip end 51a at the target time is estimated from the movement sequence of the grip end 51a in the immediately preceding three frames. More specifically, when the two-dimensional coordinates of the grip end 51a are specified, only the depth is estimated as in step S474, and when the two-dimensional coordinates of the grip end 51a are not specified, the grip The three-dimensional coordinates of the end 51a are estimated. On the other hand, if it is determined in step S48 that the number of consecutive failures is 5 frames or more, the position deriving unit 14b ends the exception process without determining the position of the grip end 51a of the target frame. In step S49, the two-dimensional coordinates of the grip end 51a are specified, and the distance between the two-dimensional coordinates of the grip end 51a in the target frame and the two-dimensional coordinates of the grip end 51a in the immediately preceding frame. Is small (for example, 5 pixels or less), the depth value of the immediately preceding frame can be used as it is as the depth value of the target frame.

<1−3−1−4.キャリブレーション>
以下、以上の処理により導出されたグリップ端51aの三次元座標のキャリブレーションについて説明する。本キャリブレーションは、以上の処理により導出されたグリップ端51aの三次元座標を、以下の重回帰式に代入することにより行われる。
<1-3-1-4. Calibration>
Hereinafter, the calibration of the three-dimensional coordinates of the grip end 51a derived by the above processing will be described. This calibration is performed by substituting the three-dimensional coordinates of the grip end 51a derived by the above processing into the following multiple regression equation.

以上の重回帰式中のx,y,Zは、キャリブレーション前のグリップ端51aの三次元座標であり、X,Y,Z'は、キャリブレーション後のグリップ端51aの三次元座標である。なお、Z,Z'が奥行きである。また、係数a1〜c1,a2〜f2,a3〜f3は、実験により予め定められた値である。以下、係数a1〜c1,a2〜f2,a3〜f3の決定方法について説明する。 In the above multiple regression equations, x, y, and Z are the three-dimensional coordinates of the grip end 51a before calibration, and X, Y, and Z ′ are the three-dimensional coordinates of the grip end 51a after calibration. Z and Z ′ are depths. The coefficients a 1 to c 1 , a 2 to f 2 , and a 3 to f 3 are values determined in advance by experiments. Hereinafter, a method for determining the coefficients a 1 to c 1 , a 2 to f 2 , and a 3 to f 3 will be described.

まず、キャリブレーション後の三次元座標を規定するための三次元座標系であるX−Y−Z'座標系を定義する。そして、距離画像センサ2の前に様々なテスト被写体を配置してこれを撮影する。次に、位置導出部14bにより、上述したステップS3,S5(S29,S31)と同様の処理により、各テスト被写体の三次元座標(x,y,Z)を算出する。また、各テスト被写体の実際の位置を測定して、三次元座標(X,Y,Z)として表し、これらの値をスイング解析装置1に入力する。これにより、位置導出部14bは、様々なテスト被写体の三次元座標(x,y,Z)及び三次元座標(X,Y,Z)を取得したことになる。そこで、続けて、位置導出部14bは、これらのデータをサンプルデータとして、(x,y,Z)と(X,Y,Z')との関係を表す重回帰式を導出する。なお、数1の重回帰式は、非線形モデルであるが、線形モデルで表すこともできるし、X,Y,Z'の説明変数は、x,y,Zを適宜組み合わせて任意に設定することができる。   First, an XYZ ′ coordinate system that is a three-dimensional coordinate system for defining the three-dimensional coordinates after calibration is defined. Then, various test subjects are arranged in front of the distance image sensor 2 and photographed. Next, the position deriving unit 14b calculates the three-dimensional coordinates (x, y, Z) of each test subject by the same processing as in the above-described steps S3 and S5 (S29, S31). Further, the actual position of each test subject is measured and expressed as three-dimensional coordinates (X, Y, Z), and these values are input to the swing analysis apparatus 1. As a result, the position deriving unit 14b acquires the three-dimensional coordinates (x, y, Z) and the three-dimensional coordinates (X, Y, Z) of various test subjects. Therefore, subsequently, the position deriving unit 14b derives a multiple regression equation representing the relationship between (x, y, Z) and (X, Y, Z ′) using these data as sample data. The multiple regression equation of Equation 1 is a non-linear model, but it can also be expressed by a linear model, and the explanatory variables of X, Y, and Z ′ can be arbitrarily set by appropriately combining x, y, and Z. Can do.

X−Y−Z'座標系は、例えば、ボールを原点として、奥行きを表す距離画像センサ2の光軸方向をZ'軸とし、鉛直上下方向をY軸とし、水平方向をX軸として設定することができる。また、テスト被写体としては様々なものを使用し得るが、図17に示すような格子状に赤外線を効率的に反射するマーカーを張った板を用意し(格子の交点や格子で囲まれた四角形の領域の中心等がテスト被写体として機能し得る)、これをZ'軸方向の様々な位置に配置して撮影することで、効率的に重回帰分析を実行することができる。   The XYZ ′ coordinate system sets, for example, the ball as the origin, the optical axis direction of the distance image sensor 2 representing the depth as the Z ′ axis, the vertical vertical direction as the Y axis, and the horizontal direction as the X axis. be able to. A variety of test subjects can be used, but a plate with markers that efficiently reflect infrared rays in a lattice shape as shown in FIG. 17 is prepared (a rectangular intersection surrounded by lattice intersections and lattices). The center of this area can function as a test subject), and this can be arranged at various positions in the Z′-axis direction and photographed to efficiently perform multiple regression analysis.

<1−3−1−5.補正処理>
以下、図18を参照しつつ、ステップS9の補正処理について説明する。本補正処理は、以上の処理により導出されたグリップ端51aの三次元座標を補正する処理である。既に述べたとおり、IRフレームにグリップ端51aの像が写らず、シャフト52の位置等に基づいてグリップ端51aの三次元座標の推定が行われたフレームについては、誤差が顕著に表れることがある。このような誤差は、特にアドレス付近で生じやすいため、本実施形態では、アドレス付近でのフレームを対象として、本補正処理に係る以下のステップS53〜S57が実行される。しかしながら、アドレス付近に限らず、任意の期間のフレームを対象として、ステップS53〜S57を実行することも可能である。なお、本実施形態では、ステップS8のキャリブレーション後の三次元座標が補正の対象となるが、キャリブレーション前の三次元座標を補正してもよい。
<1-3-1-5. Correction processing>
Hereinafter, the correction process in step S9 will be described with reference to FIG. This correction process is a process for correcting the three-dimensional coordinates of the grip end 51a derived by the above process. As described above, an error may appear remarkably in a frame in which the image of the grip end 51a is not shown in the IR frame and the three-dimensional coordinates of the grip end 51a are estimated based on the position of the shaft 52 or the like. . Since such an error is likely to occur particularly in the vicinity of the address, in the present embodiment, the following steps S53 to S57 relating to the present correction process are executed for a frame near the address. However, steps S53 to S57 can be executed not only in the vicinity of the address but also in a frame of an arbitrary period. In the present embodiment, the three-dimensional coordinates after calibration in step S8 are to be corrected, but the three-dimensional coordinates before calibration may be corrected.

まず、ステップS51として、位置導出部14bは、最初にIRフレーム上においてグリップ端51aが抽出できたフレーム(ステップS7において、最初に「YES」となったフレーム。以下、最後のフレームという)を特定する。   First, in step S51, the position deriving unit 14b first identifies a frame in which the grip end 51a can be extracted on the IR frame (a frame that first becomes “YES” in step S7, hereinafter referred to as the last frame). To do.

続くステップS52では、位置導出部14bは、上記の最後のフレームまでのフレームのうち、IRフレーム上においてグリップ端51aが抽出できなかったフレーム(ステップS4又はS7において、「NO」となったフレーム)であり、かつ、シャフト52が抽出されているフレーム(以下、補正対象フレーム)を全て特定する。なお、補正対象フレームには、IRフレーム及び深度フレームが含まれ、それぞれを補正対象IRフレーム及び補正対象深度フレームと呼ぶ。   In the subsequent step S52, the position deriving unit 14b, among the frames up to the last frame, the frame in which the grip end 51a could not be extracted on the IR frame (the frame in which “NO” was determined in step S4 or S7). And all the frames from which the shaft 52 is extracted (hereinafter referred to as correction target frames) are specified. The correction target frame includes an IR frame and a depth frame, which are referred to as a correction target IR frame and a correction target depth frame, respectively.

続くステップS53〜S57は、各補正対象フレームに対し繰り返し実行される。具体的には、ステップS53では、位置導出部14bは、補正対象IRフレームからシャフト52のマーカーの像を抽出する。具体的な方法は、ステップS41と同様であり、ステップS41の結果を適宜流用することができる。   The subsequent steps S53 to S57 are repeatedly executed for each correction target frame. Specifically, in step S53, the position deriving unit 14b extracts a marker image of the shaft 52 from the correction target IR frame. The specific method is the same as step S41, and the result of step S41 can be appropriately used.

続くステップS54では、位置導出部14bは、ステップS53で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、位置導出部14bは、補正対象深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52のマーカーの三次元座標が導出される。これらの処理も、ステップS42の結果を流用することができる。   In subsequent step S54, the position deriving unit 14b specifies the two-dimensional coordinates of all the points included in the marker image area of the shaft 52 extracted in step S53. Further, the position deriving unit 14b specifies a depth value corresponding to the two-dimensional coordinate specified here from the correction target depth frame. Thereby, the three-dimensional coordinates of the marker of the shaft 52 are derived. Also in these processes, the result of step S42 can be used.

続くステップS55では、位置導出部14bは、ステップS53で抽出された全ての点のうち、奥行きの値が適切な点(以下、対象点という)を全て特定する。なお、奥行きの値が適切であるか否かは、例えば、奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にあるか否かに応じて判断される。   In subsequent step S55, the position deriving unit 14b specifies all the points having appropriate depth values (hereinafter referred to as target points) among all the points extracted in step S53. Whether or not the depth value is appropriate is determined depending on, for example, whether or not the depth value is within a predetermined range (for example, 1000 mm to 3500 mm).

続くステップS56では、位置導出部14bは、全ての対象点の三次元座標(X,Y,Z')に対して主成分分析を行い、第1主成分を導出する。具体的には、全ての対象点の三次元座標(X,Y,Z')の共分散行列Σを算出する。続いて、共分散行列Σの固有方程式を解き、3つの固有値λ1、λ2,λ3及びそれぞれに対応する固有ベクトルω1,ω2,ω3を算出する(λ1≧λ2≧λ3とする)。そして、最大の固有値λ1に対応する固有ベクトルω1(第1主成分)を特定する。 In subsequent step S56, the position deriving unit 14b performs principal component analysis on the three-dimensional coordinates (X, Y, Z ′) of all the target points to derive the first principal component. Specifically, the covariance matrix Σ of the three-dimensional coordinates (X, Y, Z ′) of all target points is calculated. Subsequently, the eigen equation of the covariance matrix Σ is solved to calculate three eigenvalues λ 1 , λ 2 , λ 3 and corresponding eigenvectors ω 1 , ω 2 , ω 31 ≧ λ 2 ≧ λ 3). And). Then, the eigenvector ω 1 (first principal component) corresponding to the maximum eigenvalue λ 1 is specified.

続くステップS57では、第1主成分ω1に沿ってシャフト52が伸びているものと仮定して、グリップ端51aの三次元座標が特定される(図19参照)。具体的には、位置導出部14bは、X−Y−Z'座標系内での、シャフト52のマーカーの中心からグリップ端51aまでの三次元距離Lを算出する。この距離Lは、記憶部13内に格納されている、シャフト52のマーカーの長さ及びマーカーの中心からグリップ端51aまでの距離の値を参照することにより算出される。そして、第1主成分ω1に沿った直線(すなわち、シャフト52を表す直線)上において、シャフト52のマーカーの中心から距離Lだけ離れた点の三次元座標(X,Y,Z')を特定し、グリップ端51aの三次元座標とする。 In the subsequent step S57, the along the first principal component omega 1 on the assumption that the shaft 52 is extended, three-dimensional coordinates of the grip end 51a is specified (see FIG. 19). Specifically, the position deriving unit 14b calculates a three-dimensional distance L from the center of the marker of the shaft 52 to the grip end 51a in the XYZ ′ coordinate system. The distance L is calculated by referring to the length of the marker of the shaft 52 and the value of the distance from the center of the marker to the grip end 51a, which are stored in the storage unit 13. Then, on a straight line (that is, a straight line representing the shaft 52) along the first principal component ω 1 , the three-dimensional coordinates (X, Y, Z ′) of a point separated from the center of the marker of the shaft 52 by the distance L are obtained. The three-dimensional coordinates of the grip end 51a are specified.

全ての補正対象フレームに対する以上ステップS53〜S57が終了すると、補正処理は終了する。図20は、実際の補正処理の結果を表す図である。図20中の「補正前」のグラフは、ステップS1〜S8により導出されたグリップ端51aのZ'値(奥行き)であり、「補正後」のグラフは、本補正処理後のグリップ端51aのZ'値(奥行き)である。また、「真値」は、多数の赤外線カメラにより様々な角度から撮影された画像に基づいてマーカーの三次元座標を高精度に読み取ることのできる三次元動作解析システム(実際にはインターリハ社製のVICONが使用されたが、勿論、他の三次元動作解析システムも利用可能である)により計測されたグリップ端51aの位置である。図20からは、本補正処理により、グリップ端51aの奥行きの座標を真値に近づけることができることが分かる。   When the above steps S53 to S57 are completed for all the correction target frames, the correction process ends. FIG. 20 is a diagram illustrating a result of actual correction processing. The “before correction” graph in FIG. 20 is the Z ′ value (depth) of the grip end 51a derived in steps S1 to S8, and the “after correction” graph is the grip end 51a after this correction processing. This is the Z ′ value (depth). The “true value” is a 3D motion analysis system (actually manufactured by Interliha) that can read the 3D coordinates of the marker with high accuracy based on images taken from various angles by a large number of infrared cameras. This is the position of the grip end 51a measured by the other VICON (of course, other three-dimensional motion analysis systems are also available). FIG. 20 shows that the depth coordinate of the grip end 51a can be brought closer to the true value by this correction processing.

<1−3−2.左肩挙動導出処理>
以下、左肩挙動導出処理について説明する。左肩挙動導出処理では、距離画像センサ2により撮影された深度画像に基づいて、スイング動作中のゴルファー7の左肩71の軌道を表す三次元座標が導出される。グリップ挙動導出処理の場合と同様、解析の対象となる画像データは、動画である。従って、ここでも、解析の対象となる深度画像を、深度フレームという。スイング動作中の各タイミングでの三次元座標は、主としてそのタイミングでの深度フレームに基づいて導出される。
<1-3-2. Left shoulder behavior derivation process>
Hereinafter, the left shoulder behavior derivation process will be described. In the left shoulder behavior deriving process, three-dimensional coordinates representing the trajectory of the left shoulder 71 of the golfer 7 during the swing motion are derived based on the depth image captured by the distance image sensor 2. As in the case of the grip behavior derivation process, the image data to be analyzed is a moving image. Accordingly, the depth image to be analyzed is also referred to as a depth frame here. The three-dimensional coordinates at each timing during the swing motion are derived mainly based on the depth frame at that timing.

図21は、左肩挙動導出処理の全体の流れを示すフローチャートである。左肩挙動導出処理では、まず、取得部14aが、距離画像センサ2から取得され、記憶部13に格納されているスイング動作中の各タイミングでの深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの深度フレームから、各タイミングでのスケルトンデータを取得する(ステップS61)。スケルトンデータとは、人体の主要な関節の位置(三次元座標)を表すデータである。深度フレームからスケルトンデータを導出する方法は、様々なものが公知であるため、ここでは詳細な説明を省略する。また、距離画像センサであるKinect(登録商標)(v1であっても、v2であってもよい。以下同様。)には、深度画像からスケルトンデータを読み出すためのライブラリが提供されており、本実施形態では、当該ライブラリを用いて、スケルトンデータが取得される。なお、距離画像センサ2のCPU23が、深度フレームからスケルトンデータを導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきたスケルトンデータを読み出すだけでよい。   FIG. 21 is a flowchart showing the overall flow of the left shoulder behavior derivation process. In the left shoulder behavior derivation process, first, the acquisition unit 14a reads the depth frame at each timing during the swing motion acquired from the distance image sensor 2 and stored in the storage unit 13, and expands it in the memory. Then, the acquisition unit 14a acquires skeleton data at each timing from these depth frames (step S61). Skeleton data is data representing the positions (three-dimensional coordinates) of major joints of the human body. Since various methods for deriving skeleton data from the depth frame are known, detailed description thereof is omitted here. In addition, Kinect (registered trademark) (which may be v1 or v2; the same applies hereinafter), which is a distance image sensor, provides a library for reading out skeleton data from a depth image. In the embodiment, skeleton data is acquired using the library. Note that the CPU 23 of the distance image sensor 2 may derive skeleton data from the depth frame. In this case, the acquisition unit 14a may simply read the skeleton data sent from the distance image sensor 2.

スケルトンデータには、左肩71の三次元座標が含まれるため、ステップS61は、左肩71の挙動を導出するステップであると言える。しかしながら、Kinect由来のスケルトンデータにより特定される左肩71の位置は、使用の目的にもよるが、必ずしもスンイグ動作中の全区間で十分な精度を保つとは限らない。そのため、本実施形態では、後述する凸部抽出フィルタ及び左肩シルエットフィルタによっても左肩71の三次元座標が導出され、これらが適宜切り替えられる。これにより、様々な区間において、左肩71の三次元座標を高精度に導出することができるようになっている。なお、使用の目的にもよるが、スケルトンデータのみから左肩71の位置を特定することもできるし、凸部抽出フィルタのみ又は左肩シルエットフィルタのみから左肩71の位置を特定することもできる。すなわち、これら3つの方法は、使用の目的に応じて、単独で用いることもできるし、任意のものを適宜組み合わせて用いることもできる。   Since the skeleton data includes the three-dimensional coordinates of the left shoulder 71, it can be said that step S61 is a step of deriving the behavior of the left shoulder 71. However, although the position of the left shoulder 71 specified by the skeleton data derived from Kinect depends on the purpose of use, it does not always maintain sufficient accuracy in the entire section during the snug operation. For this reason, in the present embodiment, the three-dimensional coordinates of the left shoulder 71 are derived also by a convex extraction filter and a left shoulder silhouette filter, which will be described later, and these are switched as appropriate. As a result, the three-dimensional coordinates of the left shoulder 71 can be derived with high accuracy in various sections. Although depending on the purpose of use, the position of the left shoulder 71 can be specified only from the skeleton data, or the position of the left shoulder 71 can be specified from only the convex portion extraction filter or only the left shoulder silhouette filter. That is, these three methods can be used singly or in combination with any one of them depending on the purpose of use.

続いて、ステップS62では、位置導出部14bは、取得部14aにより取得された以上の深度フレームのうち、解析の対象となるフレームを決定する(ステップS62)。本実施形態では、スイング動作中のアドレスからフィニッシュまでの期間が解析の対象とされる。従って、ステップS62では、アドレス及びフィニッシュのタイミングが決定され、この間の深度フレームが以後のステップS63〜69に係る解析の対象として決定される。アドレス及びフィニッシュのタイミングは、例えばグリップ51に取り付けられた慣性センサからの出力データに基づいて判定することもできるし、画像データ自体から画像処理により判定することもできる。このようなアドレス及びフィニッシュのタイミングの決定方法は、様々なものが知られているため、ここでは詳細な説明を省略する。   Subsequently, in step S62, the position deriving unit 14b determines a frame to be analyzed from the depth frames acquired by the acquiring unit 14a (step S62). In the present embodiment, the period from the address during the swing operation to the finish is the object of analysis. Accordingly, in step S62, the address and finish timing are determined, and the depth frame in between is determined as an analysis target according to subsequent steps S63-69. The address and finish timing can be determined based on output data from an inertial sensor attached to the grip 51, for example, or can be determined from image data itself by image processing. Since various methods for determining the address and finish timing are known, detailed description is omitted here.

続くステップS63では、位置導出部14bは、各深度フレームの画像サイズを縮小する。圧縮のアルゴリズムは、様々なものを利用することができ、例えば、バイキュービックやニアレストネイバー等を使用することができる。この圧縮処理により、以下の計算負荷を低減することができる。また、縮小後の画像サイズが一定値となるような圧縮を行えば、後述される各種フィルタを画像サイズに応じて生成する必要がなくなり、処理が効率化される。   In subsequent step S63, the position deriving unit 14b reduces the image size of each depth frame. Various compression algorithms can be used. For example, bicubic or nearest neighbor can be used. This compression processing can reduce the following calculation load. Further, if compression is performed so that the reduced image size becomes a constant value, it is not necessary to generate various filters described later according to the image size, and the processing becomes efficient.

続くステップS64では、位置導出部14bは、各深度フレームを二値化する。この二値化は、深度フレームにおいて人物を写す領域(例えば、奥行きが2200mm〜2800mmの範囲)で奥行きのデータが存在している画素値を「1」、それ以外を「0」とすることにより行われる。この二値化画像は、距離画像センサ2の有効距離の範囲内に存在する被写体(主として、ゴルファー7及びゴルフクラブ5)のシルエットを抽出した画像である。この二値化画像の用途は、後述する。   In subsequent step S64, the position deriving unit 14b binarizes each depth frame. This binarization is performed by setting a pixel value in which depth data exists in an area in which a person is captured in a depth frame (for example, a depth of 2200 mm to 2800 mm) to “1”, and other values to “0”. Done. This binarized image is an image obtained by extracting silhouettes of subjects (mainly, the golfer 7 and the golf club 5) existing within the range of the effective distance of the distance image sensor 2. The use of the binarized image will be described later.

続くステップS65では、位置導出部14bは、凸部抽出フィルタを用いて、各深度フレームから左肩71の三次元座標を導出する。また、ステップS66では、位置導出部14bは、左肩シルエットフィルタを用いて、各深度フレームから左肩71の三次元座標を導出する。これらのフィルタを用いた左肩71の抽出処理の詳細は、後述される。   In subsequent step S65, the position deriving unit 14b derives the three-dimensional coordinates of the left shoulder 71 from each depth frame using the convex extraction filter. In step S66, the position deriving unit 14b derives the three-dimensional coordinates of the left shoulder 71 from each depth frame using the left shoulder silhouette filter. Details of the extraction process of the left shoulder 71 using these filters will be described later.

以上、3つの方法(スケルトンデータ、凸部抽出フィルタ及び左肩シルエットフィルタによる方法)により左肩71の三次元座標が導出されると、位置導出部14bは、3つの方法を切り替えるタイミングを導出する(ステップS67)。本発明者らは、鋭意検討の結果、スイング動作中、アドレスからテイクバック腕水平までの区間では、スケルトンデータによる方法の精度が特に高く、テイクバック腕水平からダウンスイング腕水平まで区間では、凸部抽出フィルタによる方法の精度が特に高く、ダウンスイング腕水平からフィニッシュまでの区間では、左肩シルエットフィルタによる方法の精度が特に高いことを発見した。これは、Kinect(登録商標)由来のスケルトンデータでは、肩の捻転運動が十分に考慮されないため、テイクバック腕水平以後に左肩71が回転を始めると、精度が低下し得るためと予想される。すなわち、Kinect(登録商標)のスケルトンモデルでは、両肩と腰(両股関節)とが剛体としてモデリングされているため、肩のみ又は腰のみの回転が評価されない。従って、肩のみが回転するテイクバック腕水平以降では、スケルトンデータの信頼性が落ち易いため、本実施形態に係る切替が有効となる。また、ゴルファー7を正面から撮影する場合、テイクバック腕水平からダウンスイング腕水平までの区間においては、左肩71がゴルファー7の全体のシルエットの内部に存在することとなる。そうすると、詳細は後述されるが、凸部抽出フィルタは、深度フレーム内の凸部を強調するフィルタであるため、凸部抽出フィルタによる方法により、左肩71を正確に検出することができる。一方、ゴルファー7を正面から撮影する場合、ダウンスイング腕水平からフィニッシュまでの区間においては、左肩71がゴルファー7の全体のシルエットの輪郭付近に存在することとなる。そうすると、詳細は後述されるが、左肩71の輪郭を強調するための左肩シルエットフィルタによる方法により、左肩71を正確に検出することができる。なお、同様の理由により、左肩シルエットフィルタは、アドレスからテイクバック腕水平の区間においても、好適に使用することができる。   As described above, when the three-dimensional coordinates of the left shoulder 71 are derived by the three methods (the method using the skeleton data, the convex portion extraction filter, and the left shoulder silhouette filter), the position deriving unit 14b derives the timing for switching the three methods (step S67). As a result of intensive studies, the present inventors have found that the accuracy of the method based on the skeleton data is particularly high in the section from the address to the takeback arm level during the swing operation, and in the section from the takeback arm level to the downswing arm level. It was found that the accuracy of the method using the partial extraction filter is particularly high, and the accuracy of the method using the left shoulder silhouette filter is particularly high in the section from the horizontal to the finish of the downswing arm. This is presumably because in the skeleton data derived from Kinect (registered trademark), the torsional motion of the shoulder is not sufficiently taken into account, and therefore the accuracy can be lowered when the left shoulder 71 starts to rotate after the takeback arm is level. That is, in the Kinect (registered trademark) skeleton model, both shoulders and waist (both hip joints) are modeled as rigid bodies, and therefore, rotation of only the shoulder or only the waist is not evaluated. Therefore, after the takeback arm level where only the shoulder rotates, the reliability of the skeleton data is likely to be lowered, so that the switching according to the present embodiment is effective. Further, when the golfer 7 is photographed from the front, the left shoulder 71 exists in the entire silhouette of the golfer 7 in the section from the takeback arm level to the downswing arm level. Then, although details will be described later, since the convex portion extraction filter is a filter that emphasizes the convex portion in the depth frame, the left shoulder 71 can be accurately detected by the method using the convex portion extraction filter. On the other hand, when the golfer 7 is photographed from the front, the left shoulder 71 exists in the vicinity of the contour of the entire silhouette of the golfer 7 in the section from the level of the downswing arm to the finish. Then, although details will be described later, the left shoulder 71 can be accurately detected by the method using the left shoulder silhouette filter for enhancing the contour of the left shoulder 71. For the same reason, the left shoulder silhouette filter can be preferably used even in the horizontal section from the address to the takeback arm.

以上より、本実施形態では、切り替えのタイミングとして、テイクバック腕水平及びダウンスイング腕水平のタイミングが導出される。これらの腕水平のタイミングの決定方法の詳細については、後述する。なお、テイクバック腕水平とは、テイクバック中に左腕が水平になるタイミングのことを言い、ダウンスイング腕水平とは、ダウンスイング中に左腕が水平になるタイミングのことを言う。   As described above, in this embodiment, the takeback arm horizontal and downswing arm horizontal timings are derived as the switching timing. Details of the determination method of the arm horizontal timing will be described later. The takeback arm level refers to the timing when the left arm becomes horizontal during takeback, and the downswing arm level refers to the timing when the left arm becomes horizontal during the downswing.

腕水平のタイミングが導出されると、位置導出部14bは、3つの方法による左肩71の三次元座標を時間軸に沿って切り替えながら、三次元空間内でのスイング動作中の左肩71の軌道を導出する(ステップS68)。具体的には、アドレスからテイクバック腕水平までの区間でのスケルトンデータ由来の左肩71の三次元座標と、テイクバック腕水平からダウンスイング腕水平までの区間での凸部抽出フィルタ由来の左肩71の三次元座標と、ダウンスイング腕水平からフィニッシュまでの区間での左肩シルエットフィルタ由来の左肩71の三次元座標とが連結され、アドレスからフィニッシュまでのx−y−Z座標系内での左肩71の軌道が導出される。また、その後、ステップS8と同様の方法で、左肩71の軌道のキャリブレーションが行われる(ステップS69)。図22は、キャリブレーション後の左肩71の軌道の一例である。   When the arm horizontal timing is derived, the position deriving unit 14b switches the three-dimensional coordinates of the left shoulder 71 according to the three methods along the time axis, and changes the trajectory of the left shoulder 71 during the swing motion in the three-dimensional space. Derived (step S68). Specifically, the three-dimensional coordinates of the left shoulder 71 derived from the skeleton data in the section from the address to the takeback arm level, and the left shoulder 71 derived from the convex extraction filter in the section from the takeback arm level to the downswing arm level. Are connected to the three-dimensional coordinates of the left shoulder 71 derived from the left shoulder silhouette filter in the section from the horizontal to the finish of the downswing arm, and the left shoulder 71 in the xyZ coordinate system from the address to the finish is connected. Is derived. Thereafter, the trajectory of the left shoulder 71 is calibrated by the same method as in step S8 (step S69). FIG. 22 is an example of the trajectory of the left shoulder 71 after calibration.

以上の処理により、スイング動作中の左肩71の三次元座標が高精度に導出される。この左肩71の三次元座標は、記憶部13内に格納され、ユーザの命令に応じて、適宜、表示部11上に表示される。例えば、スイング動作中の左肩71の軌道をグラフィック表示することも可能である。また、記憶部13内に格納されたこれらの左肩71の三次元座標は、他のプログラムにより読み出され、さらなるゴルフスイングの解析にも利用され得る。   Through the above processing, the three-dimensional coordinates of the left shoulder 71 during the swing motion are derived with high accuracy. The three-dimensional coordinates of the left shoulder 71 are stored in the storage unit 13 and appropriately displayed on the display unit 11 according to a user command. For example, the trajectory of the left shoulder 71 during the swing operation can be displayed graphically. Further, the three-dimensional coordinates of these left shoulders 71 stored in the storage unit 13 can be read out by another program and used for further golf swing analysis.

<1−3−2−1.凸部抽出フィルタによる左肩抽出>
以下、凸部抽出フィルタによる左肩71の抽出方法について説明する。凸部抽出フィルタとは、当該フィルタが適用される領域内において、中央部分を強調し、周辺部分を抑制するフィルタである。すなわち、凸部抽出フィルタは、深度フレーム内に写る、中央が突出している凸部を強調するフィルタであり、例えば、図23のようなフィルタである。図23内の各四角形は、画素を表しており、各四角形内の数値は、当該四角形に対応する画素の画素値に掛け合わされる係数である。そして、フィルタ内の各画素について、当該画素の画素値と対応する係数とを乗算し、それらの乗算値を足し合わせた値が、フィルタ適用後の中央の画素の画素値となる。
<1-3-2-1. Left shoulder extraction with convex extraction filter>
Hereinafter, a method for extracting the left shoulder 71 using the convex portion extraction filter will be described. The convex portion extraction filter is a filter that emphasizes the central portion and suppresses the peripheral portion in the region to which the filter is applied. That is, the convex portion extraction filter is a filter that emphasizes a convex portion that protrudes from the center and appears in the depth frame, for example, a filter as shown in FIG. Each square in FIG. 23 represents a pixel, and the numerical value in each square is a coefficient multiplied by the pixel value of the pixel corresponding to the square. Then, for each pixel in the filter, the pixel value of the pixel is multiplied by a corresponding coefficient, and the sum of these multiplied values is the pixel value of the center pixel after the filter is applied.

図24は、トップのタイミングにおける深度フレームである。この深度フレーム全体に図23の凸部抽出フィルタを適用すると、図25に示す画像となる。そして、図25の深度フレーム内では、ゴルファー7の輪郭と背景とのギャップが大きいために、凸形状の左肩71だけでなく、ゴルファー7の輪郭も強調されてしまっている。その結果、左肩71が埋もれてしまっており、正しく左肩71の位置を抽出できない虞が生じている。そこで、本実施形態では、このような問題に対処するため、ステップS64で導出された二値化画像が使用される。なお、図24及び図25を含め、以後の図に示される深度フレームにおいては、ゴルファーの像が鏡面に写っている。   FIG. 24 is a depth frame at the top timing. When the convex portion extraction filter of FIG. 23 is applied to the entire depth frame, the image shown in FIG. 25 is obtained. In the depth frame of FIG. 25, since the gap between the contour of the golfer 7 and the background is large, not only the convex left shoulder 71 but also the contour of the golfer 7 is emphasized. As a result, the left shoulder 71 is buried and there is a possibility that the position of the left shoulder 71 cannot be extracted correctly. Therefore, in this embodiment, the binarized image derived in step S64 is used to deal with such a problem. In addition, in the depth frame shown in the subsequent figures including FIG. 24 and FIG. 25, the golfer's image is reflected on the mirror surface.

図26は、ステップS64を経た二値化画像であり、「1」の領域は、主としてゴルファー7のシルエットを示しており、背景領域は、「0」の領域となっている。本実施形態では、位置導出部14bは、ゴルファー7の輪郭を除去するため、この二値化画像を所定量だけ収縮する。収縮後の二値化画像を、図27に示す。そして、位置導出部14bは、当該収縮後の二値化画像をマスク画像として、凸部抽出フィルタ適用後の深度フレーム(図25参照)をマスキングする。このマスキング後のフレームを、図28に示す。図28に示すとおり、このマスキングにより、凸部抽出フィルタ適用後の深度フレームからゴルファー7の輪郭が除去され、左肩71が容易に抽出可能となる。図28では、参考のため、左肩71の位置を強調表示している。位置導出部14bは、マスキング後のフレームにおいて、最大の画素値を有する画素の二次元座標を特定し、左肩71の二次元座標とする。さらに、位置導出部14bは、当初の深度フレームから当該左肩71の二次元座標での奥行きのデータを抽出することで、左肩71の三次元座標を導出する。   FIG. 26 is a binarized image that has undergone step S64. The region “1” mainly indicates the silhouette of the golfer 7, and the background region is the region “0”. In the present embodiment, the position deriving unit 14b contracts the binarized image by a predetermined amount in order to remove the contour of the golfer 7. The binarized image after contraction is shown in FIG. Then, the position deriving unit 14b masks the depth frame (see FIG. 25) after the convex portion extraction filter is applied, using the binary image after contraction as a mask image. FIG. 28 shows the frame after the masking. As shown in FIG. 28, by this masking, the contour of the golfer 7 is removed from the depth frame after the convex portion extraction filter is applied, and the left shoulder 71 can be easily extracted. In FIG. 28, the position of the left shoulder 71 is highlighted for reference. The position deriving unit 14b specifies the two-dimensional coordinate of the pixel having the maximum pixel value in the frame after masking, and sets it as the two-dimensional coordinate of the left shoulder 71. Further, the position deriving unit 14b derives the three-dimensional coordinates of the left shoulder 71 by extracting the depth data at the two-dimensional coordinates of the left shoulder 71 from the initial depth frame.

なお、精度を向上し、及び/又は計算負荷を下げるために、凸部抽出フィルタの適用範囲を深度フレーム全体とするのではなく、一部の範囲内とすることもできる。例えば、同じ又は直前のフレーム上において特定された左肩71の二次元座標を含む適当なサイズの領域を、凸部抽出フィルタの適用範囲とすることができる。なお、アドレスからテイクバック腕水平の区間及びダウンスイング腕水平からフィニッシュまでの区間では、同じフレームのスケルトンデータに含まれる左肩71の二次元座標を中心とする所定のサイズの領域を、凸部抽出フィルタの適用範囲R3(図29参照)として設定することが好ましい。また、テイクバック腕水平のタイミングでは、1つ前のフレームのスケルトンデータに含まれる左肩71の二次元座標を中心とする所定のサイズの領域を、凸部抽出フィルタの適用範囲R3(図29参照)として設定することが好ましい。さらに、テイクバック腕水平の直後からダウンスイング腕水平までの区間では、1つ前のフレームにおいて凸部抽出フィルタを用いて特定された左肩71の二次元座標を右寄りの位置に含む所定のサイズの領域を、凸部抽出フィルタの適用範囲R4(図30参照)とすることが好ましい。なお、適用範囲R4として、左肩71を基準に左に延びた矩形領域が設定されるのは、右側(手先側)においてフィルタの応答値が非常に大きくなる部分があり、これを避けるためである。   In order to improve the accuracy and / or reduce the calculation load, the application range of the convex portion extraction filter may be set to a partial range instead of the entire depth frame. For example, an area of an appropriate size including the two-dimensional coordinates of the left shoulder 71 specified on the same or the previous frame can be set as the application range of the convex portion extraction filter. In addition, in the section from the address to the takeback arm horizontal section and the downswing arm horizontal section to the finish, a region having a predetermined size centered on the two-dimensional coordinates of the left shoulder 71 included in the skeleton data of the same frame is extracted as a convex portion. It is preferably set as the filter application range R3 (see FIG. 29). In addition, at the horizontal timing of the takeback arm, a region having a predetermined size centered on the two-dimensional coordinates of the left shoulder 71 included in the skeleton data of the previous frame is applied to the application range R3 of the convex portion extraction filter (see FIG. 29). ) Is preferably set. Further, in the section from immediately after the takeback arm level to the downswing arm level, the two-dimensional coordinates of the left shoulder 71 specified by using the convex portion extraction filter in the previous frame are included at a right-side position. It is preferable that the region be an application range R4 (see FIG. 30) of the convex portion extraction filter. The reason why the rectangular area extending to the left with reference to the left shoulder 71 is set as the application range R4 is to avoid a portion where the response value of the filter becomes very large on the right side (hand side). .

<1−3−2−2.左肩シルエットフィルタによる左肩抽出>
以下、左肩シルエットフィルタによる左肩71の抽出方法について説明する。左肩シルエットフィルタとは、当該フィルタが適用される領域内において、右下部分を強調し、左下、左上及び右上部分を抑制するフィルタである。すなわち、左肩シルエットフィルタは、深度フレーム内に写る、右下が突出している凸部を強調するフィルタであり、例えば、図31のようなフィルタである。凸部抽出フィルタと同様、図31内の各四角形は、画素を表しており、各四角形内の数値は、当該四角形に対応する画素の画素値に掛け合わされる係数である。そして、フィルタ内の各画素について、当該画素の画素値と対応する係数とを乗算し、それらの乗算値を足し合わせた値が、フィルタ適用後の中央の画素の画素値となる。
<1-3-2-2. Left shoulder extraction with left shoulder silhouette filter>
Hereinafter, a method for extracting the left shoulder 71 using the left shoulder silhouette filter will be described. The left shoulder silhouette filter is a filter that emphasizes the lower right portion and suppresses the lower left, upper left, and upper right portions in the region to which the filter is applied. In other words, the left shoulder silhouette filter is a filter that emphasizes a convex portion that projects in the depth frame and protrudes in the lower right, and is, for example, a filter as shown in FIG. As with the convex portion extraction filter, each square in FIG. 31 represents a pixel, and the numerical value in each square is a coefficient to be multiplied by the pixel value of the pixel corresponding to the square. Then, for each pixel in the filter, the pixel value of the pixel is multiplied by a corresponding coefficient, and the sum of these multiplied values is the pixel value of the center pixel after the filter is applied.

位置導出部14bは、ステップS64で導出された二値化画像に、左肩シルエットフィルタを適用する。図32は、ステップS64で導出された二値化画像であり、図33は、この二値化画像に図31の左肩シルエットフィルタを適用した画像を示している。そして、位置導出部14bは、左肩シルエットフィルタの適用後のフレームにおいて、最大の画素値を有する画素の二次元座標を特定し、左肩71の二次元座標とする。さらに、位置導出部14bは、当初の深度フレームから当該左肩71の二次元座標での奥行きのデータを抽出することで、左肩71の三次元座標を導出する。なお、図33では、参考のため、左肩71の位置を強調表示している。   The position deriving unit 14b applies the left shoulder silhouette filter to the binarized image derived in step S64. 32 is a binarized image derived in step S64, and FIG. 33 shows an image obtained by applying the left shoulder silhouette filter of FIG. 31 to this binarized image. Then, the position deriving unit 14b specifies the two-dimensional coordinate of the pixel having the maximum pixel value in the frame after the application of the left shoulder silhouette filter, and sets it as the two-dimensional coordinate of the left shoulder 71. Further, the position deriving unit 14b derives the three-dimensional coordinates of the left shoulder 71 by extracting the depth data at the two-dimensional coordinates of the left shoulder 71 from the initial depth frame. In FIG. 33, the position of the left shoulder 71 is highlighted for reference.

なお、精度を向上し、及び/又は計算負荷を下げるために、左肩シルエットフィルタの適用範囲を深度フレーム全体とするのではなく、一部の範囲内とすることもできる。例えば、同じ又は直前のフレーム上において特定された左肩71の二次元座標を含む適当なサイズの領域を、左肩シルエットフィルタの適用範囲とすることができる。なお、アドレスからテイクバック腕水平の区間では、同じフレームのスケルトンデータに含まれる左肩71の二次元座標を右下の端点とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R5(図34参照)として設定することが好ましい。また、ダウンスイング腕水平のタイミングでは、1つ前のフレームにおいて設定された上述のR4の領域の左上の端点を右下の端点とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R6(図35参照)として設定することが好ましい。さらに、ダウンスイング腕水平の直後からフィニッシュまでの区間では、1つ前のフレームにおいて左肩シルエットフィルタを用いて特定された左肩71の二次元座標を中心とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R7(図36参照)とすることが好ましい。   In order to improve the accuracy and / or reduce the calculation load, the application range of the left shoulder silhouette filter may not be the entire depth frame but may be within a part of the range. For example, an area of an appropriate size including the two-dimensional coordinates of the left shoulder 71 specified on the same or the previous frame can be set as the application range of the left shoulder silhouette filter. Note that in the horizontal section from the address to the takeback arm, a region of a predetermined size with the two-dimensional coordinates of the left shoulder 71 included in the skeleton data of the same frame as the lower right end point is applied to the application range R5 of the left shoulder silhouette filter (FIG. 34). Reference) is preferably set. At the horizontal timing of the downswing arm, a region of a predetermined size having the upper left end point of the above R4 region set in the previous frame as the lower right end point is applied to the application range R6 ( It is preferable to set as shown in FIG. Further, in the section from immediately after the downswing arm level to the finish, an area of a predetermined size centered on the two-dimensional coordinates of the left shoulder 71 specified by using the left shoulder silhouette filter in the previous frame is represented by the left shoulder silhouette filter. The application range R7 (see FIG. 36) is preferable.

<1−3−2−3.腕水平のタイミングの決定方法>
以下、本実施形態に係るテイクバック腕水平及びダウンスイング腕水平のタイミングの決定方法について説明する。
<1-3-2-2-3. How to determine horizontal arm timing>
Hereinafter, a method for determining the timing of the takeback arm level and the downswing arm level according to the present embodiment will be described.

まず、図37に示すように、位置導出部14bは、アドレス時のスケルトンデータから、右肩の二次元座標を取得する。そして、右肩の二次元座標を基準として、x軸正方向に所定の距離(例えば、30ピクセル)進み、y軸正方向に所定の距離(例えば、15ピクセル)進んだ点Aの二次元座標を特定する。なお、x軸正方向とは、水平方向に沿って、ゴルファー7の左手側から右手側に進む方向である。また、y軸正方向とは、鉛直方向に沿って、上から下に向かう方向である。続いて、位置導出部14bは、A点からx軸正方向に所定の距離(例えば、115ピクセル)の範囲を占め、y軸正方向に所定の距離(例
えば、30ピクセル)の範囲を占める矩形領域R8を形成する。
First, as shown in FIG. 37, the position deriving unit 14b acquires the two-dimensional coordinates of the right shoulder from the skeleton data at the time of addressing. Then, with the two-dimensional coordinates of the right shoulder as a reference, the two-dimensional coordinates of the point A advanced by a predetermined distance (for example, 30 pixels) in the positive x-axis direction and advanced by the predetermined distance (for example, 15 pixels) in the positive y-axis direction Is identified. The x-axis positive direction is a direction that proceeds from the left hand side of the golfer 7 to the right hand side along the horizontal direction. The positive y-axis direction is a direction from top to bottom along the vertical direction. Subsequently, the position deriving unit 14b occupies a range of a predetermined distance (for example, 115 pixels) from the point A in the x-axis positive direction, and occupies a range of a predetermined distance (for example, 30 pixels) in the y-axis positive direction. Region R8 is formed.

その後、位置導出部14bは、アドレスからフィニッシュまでの区間に含まれる各深度フレームについて、当該深度フレーム上の上述の矩形領域R8内において奥行きのデータが存在している画素数をカウントする。そして、当該画素数が所定数(例えば、400ピクセル)以上となる(以下、腕水平条件)深度フレームを全て特定する。このとき、通常、アドレスからフィニッシュまでの区間において、腕水平条件を満たす深度フレームが、時間軸に沿って大きく2つのグループに分けて出現する。従って、位置導出部14bは、これらの2つのグループを特定した後、前半のグループの中からテイクバック腕水平のフレームを特定するとともに、後半のグループからダウンスイング腕水平のフレームを特定する。1のグループに腕水平条件を満たす深度フレームが複数枚出現した場合には、例えば、先頭のフレームを腕水平フレームとすることができる。なお、アドレスからフィニッシュまでの区間において、腕水平条件を満たす深度フレームが大きく2つのグループに分けて出現しなかった場合には、適当なエラー処理を行う。   Thereafter, the position deriving unit 14b counts, for each depth frame included in the section from the address to the finish, the number of pixels in which the depth data exists in the above-described rectangular region R8 on the depth frame. Then, all depth frames in which the number of pixels is equal to or greater than a predetermined number (for example, 400 pixels) (hereinafter referred to as arm horizontal conditions) are specified. At this time, normally, in the section from the address to the finish, the depth frames that satisfy the arm horizontal condition appear in two groups along the time axis. Therefore, after specifying these two groups, the position deriving unit 14b specifies a take-back arm horizontal frame from the first group and a down-swing arm horizontal frame from the second group. When a plurality of depth frames satisfying the arm horizontal condition appear in one group, for example, the top frame can be set as the arm horizontal frame. It should be noted that in the section from the address to the finish, if the depth frame that satisfies the arm horizontal condition is large and does not appear in two groups, appropriate error processing is performed.

<1−3−3.シャフト方向導出処理>
以下、シャフト方向導出処理について説明する。シャフト方向導出処理では、距離画像センサ2により撮影された深度画像に基づいて、スイング動作中のシャフト52の向きを表す三次元ベクトルが導出される。グリップ挙動導出処理の場合と同様、解析の対象となる画像データは、動画である。従って、ここでも解析の対象となるIR画像及び深度画像を、IRフレーム及び深度フレームという。
<1-3-3. Shaft direction derivation process>
Hereinafter, the shaft direction derivation process will be described. In the shaft direction deriving process, a three-dimensional vector representing the direction of the shaft 52 during the swing operation is derived based on the depth image captured by the distance image sensor 2. As in the case of the grip behavior derivation process, the image data to be analyzed is a moving image. Accordingly, the IR image and depth image to be analyzed are also referred to as IR frame and depth frame here.

図38は、シャフト方向導出処理の全体の流れを示すフローチャートである。まず、ステップS70では、取得部14aが、距離画像センサ2から取得され、記憶部13に格納
されているIRフレーム及び深度フレームを読み出し、メモリに展開する。そして、向き導出部14cは、これらの画像データのうち、解析の対象となるフレームを決定する。本実施形態では、スイング動作中のアドレスからインパクトのやや後までの期間が解析の対象とされる。詳細は、ステップS1と同様である。
FIG. 38 is a flowchart showing the overall flow of the shaft direction derivation process. First, in step S70, the acquisition unit 14a reads the IR frame and the depth frame acquired from the distance image sensor 2 and stored in the storage unit 13, and develops them in the memory. Then, the direction deriving unit 14c determines a frame to be analyzed among these image data. In the present embodiment, a period from the address during the swing operation to a little later than the impact is an analysis target. Details are the same as in step S1.

続くステップS71〜S77は、解析の対象となる期間に含まれる各フレームについて繰り返し実行される。従って、以下の説明においては、グリップ挙動導出処理のときと同様に、シャフト52の向きを導出しようとしている時刻(以下、対象時刻)でのIRフレーム及び深度フレームを、それぞれ対象IRフレーム及び対象深度フレームと呼ぶ。また、各々のフレーム、或いはこれらをまとめて、対象フレームと呼ぶことがある。   The subsequent steps S71 to S77 are repeatedly executed for each frame included in the period to be analyzed. Therefore, in the following description, as in the grip behavior derivation process, the IR frame and the depth frame at the time (hereinafter, the target time) at which the direction of the shaft 52 is to be derived are respectively represented as the target IR frame and the target depth. Called a frame. Each frame or these may be collectively referred to as a target frame.

続くステップS71において、向き導出部14cは、対象IRフレームからシャフト52のマーカーの像を抽出する。具体的な処理は、ステップS41と同様である。そして、ここでシャフト52の像が抽出された場合には、ステップS72に進み、抽出できなかった場合には、次のフレームの処理に移る。   In subsequent step S71, the direction deriving unit 14c extracts an image of the marker of the shaft 52 from the target IR frame. The specific process is the same as that in step S41. If the image of the shaft 52 has been extracted, the process proceeds to step S72. If the image has not been extracted, the process proceeds to the next frame.

ステップS72では、向き導出部14cは、ステップS71で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、向き導出部14cは、対象深度フレームから、ここで二次元座標が特定された全ての点の奥行きの値を特定する。ただし、ここで特定された奥行きの値が適切でないと判断される点は、以下の解析から除去することができる。奥行きの値が適切か否かは、例えば、奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にあるか否かに応じて判断される。以上より、シャフト52に含まれる点の三次元座標が導出される。そして、シャフト52の
三次元座標が所定個数以上(本実施形態では、1点以上)導出された場合には、ステップS73に進み、導出されなかった場合には、次のフレームの処理に移る。
In step S72, the direction deriving unit 14c specifies the two-dimensional coordinates of all points included in the region of the marker image of the shaft 52 extracted in step S71. In addition, the direction deriving unit 14c specifies the depth values of all the points for which the two-dimensional coordinates are specified here from the target depth frame. However, the point determined that the depth value specified here is not appropriate can be removed from the following analysis. Whether or not the depth value is appropriate is determined depending on, for example, whether or not the depth value is within a predetermined range (for example, 1000 mm to 3500 mm). From the above, the three-dimensional coordinates of the points included in the shaft 52 are derived. If the predetermined number or more (one or more points in this embodiment) of the three-dimensional coordinates of the shaft 52 are derived, the process proceeds to step S73, and if not derived, the process proceeds to the next frame.

ステップS73では、向き導出部14cは、ステップS72で導出されたシャフト52に含まれる全ての点の三次元座標から、シャフト52を代表する点、本実施形態では、重心の三次元座標を算出する。重心の各軸方向の位置は、ステップS72で導出された全ての点の当該軸方向の座標値の平均値として算出することができる。   In step S73, the direction deriving unit 14c calculates a point representing the shaft 52, in this embodiment, the three-dimensional coordinate of the center of gravity, from the three-dimensional coordinates of all the points included in the shaft 52 derived in step S72. . The position of the center of gravity in each axial direction can be calculated as the average value of the coordinate values in the axial direction of all points derived in step S72.

続くステップS74では、向き導出部14cは、上述のステップS3〜S7において対象時刻におけるグリップ端51aの三次元座標が導出できているか否かを判断し、抽出できている場合には、ステップS75に進み、導出できていない場合にはステップS76に進む。なお、本ステップの実行時点において対象フレームに対して上述のステップS3〜S7が未実行であれば、本ステップにおいて実行し、グリップ端51aの三次元座標の導出を試みればよい。   In subsequent step S74, the direction deriving unit 14c determines whether or not the three-dimensional coordinates of the grip end 51a at the target time can be derived in the above-described steps S3 to S7. If it has not been derived, the process proceeds to step S76. If the above steps S3 to S7 are not executed for the target frame at the time of execution of this step, it may be executed in this step to try to derive the three-dimensional coordinates of the grip end 51a.

ステップS75では、向き導出部14cは、グリップ端51aの三次元座標と、シャフト52の重心の三次元座標とに基づいて、シャフト52の向きを表す三次元ベクトルを導出する。シャフト52の向きは、グリップ端51aからシャフト52の重心に向かう方向、或いはその逆として導出することができる。   In step S75, the direction deriving unit 14c derives a three-dimensional vector representing the direction of the shaft 52 based on the three-dimensional coordinates of the grip end 51a and the three-dimensional coordinates of the center of gravity of the shaft 52. The direction of the shaft 52 can be derived as the direction from the grip end 51a toward the center of gravity of the shaft 52, or vice versa.

一方、ステップS76では、向き導出部14cは、ステップS72においてシャフト52の三次元座標が所定個数以上(例えば、2点以上)導出されたか否かを判断し、導出されていた場合には、ステップS77に進み、導出されていなかった場合には、次のフレームの処理に移る。ステップS77では、ステップS72で導出されたシャフト52に含まれる全ての点の三次元座標に対して、主成分分析を行う。そして、最大の固有値に対応する固有ベクトル(第1主成分)を、シャフトの52の向きを表す三次元ベクトルとする。   On the other hand, in step S76, the direction deriving unit 14c determines whether or not a predetermined number or more (for example, two or more) of the three-dimensional coordinates of the shaft 52 have been derived in step S72. The process proceeds to S77, and if it has not been derived, the process proceeds to the next frame. In step S77, principal component analysis is performed on the three-dimensional coordinates of all the points included in the shaft 52 derived in step S72. Then, the eigenvector (first principal component) corresponding to the maximum eigenvalue is set as a three-dimensional vector representing the direction of the shaft 52.

解析の対象となる全ての時刻に対する以上のステップS71〜S77が完了すると、処理はステップS78に進む。ステップS78では、シャフト52の向きが未だ導出されていない時刻のシャフト52の向きを表す三次元ベクトルを、前後の時刻のシャフト52の向きから計算する。例えば、前後の時刻のシャフト52の向きを表す三次元ベクトルの平均とすることができる。   When the above steps S71 to S77 for all times to be analyzed are completed, the process proceeds to step S78. In step S78, a three-dimensional vector representing the direction of the shaft 52 at a time when the direction of the shaft 52 has not yet been derived is calculated from the direction of the shaft 52 at the previous and subsequent times. For example, the average of three-dimensional vectors representing the direction of the shaft 52 at the previous and subsequent times can be used.

以上より、解析の対象となる全ての時刻に対するシャフト52の向きが、三次元的に導出される。このようなシャフト52の向きは、例えば、図39に示すように各軸毎にグラフ表示することができるし、図40に示すように、三次元的にグラフ表示することもできる。図40の例では、シャフト52を表す直線に重ねて、グリップ端51aの位置やシャフト52の重心の位置が〇や×の記号で示されている。   From the above, the orientation of the shaft 52 with respect to all the times to be analyzed is derived three-dimensionally. Such a direction of the shaft 52 can be displayed in a graph for each axis as shown in FIG. 39, for example, and can also be displayed in a three-dimensional graph as shown in FIG. In the example of FIG. 40, the position of the grip end 51 a and the position of the center of gravity of the shaft 52 are indicated by symbols “◯” and “X” so as to overlap with a straight line representing the shaft 52.

<1−4.変形例>
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。
<1-4. Modification>
As mentioned above, although several embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. For example, the following changes can be made.

<1−4−1>
第1実施形態に係るグリップ挙動導出処理では、IR画像が用いられたが、IR画像に代えてカラー画像を用いることもできる。この場合、距離画像センサには、可視光を受光する可視光受光部(例えば、RGBカメラ)を搭載すればよい。
<1-4-1>
In the grip behavior deriving process according to the first embodiment, an IR image is used. However, a color image can be used instead of the IR image. In this case, the distance image sensor may be equipped with a visible light receiving unit (for example, an RGB camera) that receives visible light.

<1−4−2>
深度画像及び/又はスケルトンデータを用いた分析の対象となる部位は、グリップ51や左肩71に限られない。例えば、シャフト、ヘッド、右肩、左腕、右腕等の挙動(三次元座標)を特定することができる。また、このとき、適宜、分析の対象となる部位にマーカーを貼付しておくことができる。
<1-4-2>
The part to be analyzed using the depth image and / or skeleton data is not limited to the grip 51 or the left shoulder 71. For example, the behavior (three-dimensional coordinates) of the shaft, head, right shoulder, left arm, right arm, etc. can be specified. At this time, a marker can be appropriately attached to a site to be analyzed.

<1−4−3>
腕水平のタイミングの決定方法は、上述したものに限られない。例えば、腕に直線状の赤外線反射テープを貼付しておき、IR画像から当該反射テープの像を抽出し、当該像が水平となるタイミングを検出してもよい。
<1-4-3>
The method for determining the arm horizontal timing is not limited to the above. For example, a linear infrared reflective tape may be attached to the arm, an image of the reflective tape may be extracted from the IR image, and the timing at which the image becomes horizontal may be detected.

<1−4−4>
ステップS56,S57,S77における主成分分析を用いる処理に代えて、最小二乗法を用いる処理を実行することができる。具体的には、シャフト52の三次元座標の分布から最小二乗法により回帰直線を導出し、これをシャフト52の延びる軸と判断する。そして、この軸の延長線上においてグリップ端51aの位置を探索することができる。
<1-4-4>
Instead of the process using principal component analysis in steps S56, S57, and S77, a process using the least square method can be executed. Specifically, a regression line is derived from the distribution of the three-dimensional coordinates of the shaft 52 by the least square method, and this is determined as the axis on which the shaft 52 extends. Then, the position of the grip end 51a can be searched for on the extension line of this axis.

<1−4−5>
ステップS22では、グリップ端51aの像を抽出するための二値化のための閾値は、判別分析法により自動的に算出された。しかしながら、当該閾値は、例えば、最大輝度値(限界値)に0〜1の所定の係数を掛けた固定値、例えば、最大輝度値の0.1倍の値とすることができる。この場合、ステップS23は省略することができる。
<1-4-5>
In step S22, the threshold value for binarization for extracting the image of the grip end 51a was automatically calculated by the discriminant analysis method. However, the threshold value can be a fixed value obtained by multiplying the maximum luminance value (limit value) by a predetermined coefficient of 0 to 1, for example, a value that is 0.1 times the maximum luminance value. In this case, step S23 can be omitted.

対象IRフレーム上においてグリップ端51aのマークとシャフト52のマークとの間隔が狭くなると、グリップ端51aの探索範囲R1内にシャフト52のマークが写り込んでしまう。この場合において、グリップ端51aのマークよりもシャフト52のマークの方が輝度値が高いと、判別分析法を用いて二値化を行うと、グリップ端51aの像が消えてしまう虞がある。従って、たとえグリップ端51aのマークの輝度値が低かったとしてもこれを抽出できるよう、二値化のための閾値を最大輝度値の所定の割合の値に設定することが好ましい。なお、本変形例に係る固定値である閾値は、探索範囲R1内にシャフト52のマークが写り込み易い所定のフェーズにおいてのみ用いられることが好ましい。すなわち、本変形例に係る閾値と、判別分析法等により自動的に設定される閾値とは、スイング動作中のフェーズに応じて適宜切り替えられることが好ましい。このようなフェーズとしては、シャフト8時(テイクバック中であって、正面視においてシャフト52が時計の8時を指す時刻)からテイクバック腕水平までの区間、又はその一部の区間が挙げられる。なお、この区間は、正面に配置されるカメラから見て、グリップ端51aが遠ざかったり、ゴルファーの手の陰に入り易い区間である。   When the gap between the mark on the grip end 51a and the mark on the shaft 52 becomes narrow on the target IR frame, the mark on the shaft 52 appears in the search range R1 of the grip end 51a. In this case, if the mark of the shaft 52 has a higher luminance value than the mark of the grip end 51a, the binarization using the discriminant analysis method may cause the image of the grip end 51a to disappear. Therefore, it is preferable to set the threshold for binarization to a value of a predetermined ratio of the maximum luminance value so that even if the luminance value of the mark at the grip end 51a is low, it can be extracted. Note that the threshold value, which is a fixed value according to this modification, is preferably used only in a predetermined phase in which the mark of the shaft 52 is easily reflected in the search range R1. That is, it is preferable that the threshold value according to this modification and the threshold value automatically set by the discriminant analysis method or the like are appropriately switched according to the phase during the swing operation. Examples of such a phase include a section from the shaft 8 o'clock (during takeback and the time when the shaft 52 points to 8 o'clock in the front view) to the takeback arm level, or a part thereof. . Note that this section is a section in which the grip end 51a is likely to move away or enter into the shadow of the golfer's hand when viewed from the camera arranged in front.

<1−4−6>
第1実施形態に係るステップS21では、直前の所定の枚数のフレームにおけるグリップ端51aの移動方向(ベクトルの向き)に基づいて、グリップ端51aの探索範囲R1が設定された。しかしながら、グリップ端51aがゴルファーの身体に隠れる等して対象IRフレームに写りにくいフェーズにおいては、グリップ端51aの正確な位置特定が難しくなる場合がある。すなわち、以上のようなフェーズにおいては、グリップ端51aの位置がシャフト52の像から推定されがちであり、特にこのような事態が続くと、探索範囲R1が実際のグリップ端51aの動きを無視して進んでしまうことがある。そして、このような場合に、特に図41Aに示すように、探索範囲R1内にシャフト52の像が入り込んでしまうと、グリップ端51aの位置の検出の精度が低下し得る。そこで、このような所定のフェーズにおいては、探索範囲R1を所定の限界ラインを越えないように設定することが好ましい。
<1-4-6>
In step S21 according to the first embodiment, the search range R1 of the grip end 51a is set based on the moving direction (vector direction) of the grip end 51a in the predetermined number of frames immediately before. However, in the phase in which the grip end 51a is not easily captured in the target IR frame because it is hidden by the golfer's body, it may be difficult to specify the exact position of the grip end 51a. That is, in the above-described phase, the position of the grip end 51a tends to be estimated from the image of the shaft 52. In particular, when such a situation continues, the search range R1 ignores the actual movement of the grip end 51a. May go on. In such a case, as shown in FIG. 41A in particular, if the image of the shaft 52 enters the search range R1, the accuracy in detecting the position of the grip end 51a can be reduced. Therefore, in such a predetermined phase, it is preferable to set the search range R1 so as not to exceed a predetermined limit line.

以上のようなフェーズの例としては、トップ付近が挙げられる。トップ付近では、グリップ端51aが対象IRフレームに写らない可能性が高く、また、グリップ端51aの動きは停止又はほぼ停止した状態となる。そして、トップ付近では、探索範囲R1の設定位置を制限する限界ラインを、ゴルファーの頭(より詳細には、例えば、頭の頂点)の位置に設定することが好ましい(図41B参照)。トップ付近では、グリップ端51aがゴルファーの頭よりも正面視において右側に進むことは通常ないからである。この場合、グリップ端51aの位置の推定値は、正面視において限界ラインよりも右側に進まない。   An example of such a phase is near the top. In the vicinity of the top, there is a high possibility that the grip end 51a does not appear in the target IR frame, and the movement of the grip end 51a is stopped or almost stopped. In the vicinity of the top, it is preferable to set the limit line for limiting the setting position of the search range R1 to the position of the golfer's head (more specifically, for example, the vertex of the head) (see FIG. 41B). This is because, in the vicinity of the top, the grip end 51a usually does not move rightward in front view than the golfer's head. In this case, the estimated value of the position of the grip end 51a does not advance to the right of the limit line in front view.

なお、ゴルファーの頭の位置は、IRフレーム及び/又は深度フレームを画像処理することにより抽出してもよいし、スケルトンデータに基づいて決定してもよい。ゴルファーの頭の位置は、人物領域画像から抽出することができ、例えば、人物領域画像の最上点を、頭の位置と設定することができる。人物領域画像とは、主として人物が写る領域のみを示す画像であり、深度フレームから導出することもできるし、IRフレームから導出することもできる。このような人物領域画像を導出する方法としては、様々なものが公知であるため、ここでは詳細な説明を省略する。また、距離画像センサであるKinect(登録商標)には、深度画像から人物領域画像を読み出すためのライブラリが提供されており、取得部14aは、当該ライブラリを用いて人物領域画像を取得可能である。なお、距離画像センサ2のCPU23が、深度フレームから人物領域画像を導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきた人物領域画像を読み出すだけでよい。   The position of the golfer's head may be extracted by image processing of the IR frame and / or the depth frame, or may be determined based on skeleton data. The golfer's head position can be extracted from the person area image. For example, the top point of the person area image can be set as the head position. The person area image is an image mainly showing only an area in which a person is captured, and can be derived from a depth frame or can be derived from an IR frame. Since various methods for deriving such a person area image are known, detailed description thereof is omitted here. Also, Kinect (registered trademark), which is a distance image sensor, is provided with a library for reading a person area image from a depth image, and the acquisition unit 14a can acquire a person area image using the library. . Note that the CPU 23 of the distance image sensor 2 may derive a person region image from the depth frame. In this case, the acquisition unit 14a may simply read the person area image sent from the distance image sensor 2.

また、ゴルファーの頭の位置を抽出する基準となる画像は、グリップ端51aの位置を抽出しようとしているタイミングの画像としてもよいし、所定のタイミングでの画像とすることもできる。好ましくは、テイクバック腕水平時の画像とすることができる。図41Cは、テイクバック腕水平時の人物領域画像を示している。このように、頭付近に手等の他の部位が来る可能性の低いタイミングでの画像を用いることで、頭の位置の抽出の精度を向上させることができる。なお、テイクバック腕水平のタイミングの決定方法は、3−2−3に示したとおりである。   The image serving as a reference for extracting the position of the golfer's head may be an image at a timing when the position of the grip end 51a is to be extracted, or may be an image at a predetermined timing. Preferably, the image can be an image when the takeback arm is horizontal. FIG. 41C shows a person area image when the takeback arm is horizontal. In this way, the accuracy of extraction of the position of the head can be improved by using an image at a timing at which it is unlikely that another part such as a hand will come near the head. Note that the method for determining the horizontal timing of the takeback arm is as shown in 3-2-3.

<1−4−7>
第1実施形態では、図3に示すとおり、まず対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標を直接導出するよう試み(ステップS3,S5)、失敗した場合には、対象IRフレームからシャフト52を抽出し、抽出されたシャフト52の位置に基づいてグリップ端51aの三次元座標を導出するように構成されている(例外処理S6)。言い換えると、第1実施形態の処理に含まれるグリップ端51aの三次元座標を導出する処理は、図42で示すような、ステップS101〜S104を含む処理として表現することができる。
<1-4-7>
In the first embodiment, as shown in FIG. 3, first, an attempt is made to directly derive the three-dimensional coordinates of the grip end 51a from the target IR frame and the target depth frame (steps S3 and S5). Is extracted, and the three-dimensional coordinates of the grip end 51a are derived based on the extracted position of the shaft 52 (exception processing S6). In other words, the process of deriving the three-dimensional coordinates of the grip end 51a included in the process of the first embodiment can be expressed as a process including steps S101 to S104 as shown in FIG.

しかしながら、グリップ端51aの三次元座標を導出する処理は、図43のように構成することもできる。すなわち、まず、前の時刻でIRフレームからグリップ端51aが抽出できたか否かを判定する(ステップS201)。そして、ステップS201で抽出できたと判定された場合には、対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標の導出を試みる(ステップS101)。これ以降のステップは、図42の場合と同様である。一方、S201で抽出できなかったと判定された場合には、ステップS101を実行することなく、すなわち、対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標の導出を試みることなく、対象IRフレームからのシャフト52の抽出を行う(ステップS103)。そして、抽出されたシャフト52の位置に基づいてグリップ端51aの三次元座標を導出する(ステップS104)。   However, the process for deriving the three-dimensional coordinates of the grip end 51a can be configured as shown in FIG. That is, first, it is determined whether or not the grip end 51a has been extracted from the IR frame at the previous time (step S201). If it is determined in step S201 that extraction has been performed, an attempt is made to derive the three-dimensional coordinates of the grip end 51a from the target IR frame and the target depth frame (step S101). The subsequent steps are the same as in FIG. On the other hand, if it is determined in S201 that the target IR frame could not be extracted, step S101 is not executed, that is, without trying to derive the three-dimensional coordinates of the grip end 51a from the target IR frame and the target depth frame. The shaft 52 is extracted from (step S103). Then, the three-dimensional coordinates of the grip end 51a are derived based on the extracted position of the shaft 52 (step S104).

図43に係る処理は、図42に係る処理に比べ、以下の点でより優れている。すなわち、前の時刻でIRフレームからグリップ端51aが抽出できておらず、シャフト52の位置からグリップ端51aの位置を推定した場合には、当該位置が一定以上の誤差を含む可能性がある。そして、このような誤差を含むグリップ端51aの位置の情報を用いて、次のフレームに対しステップS101において探索範囲R1が設定されると、上記の誤差が蓄積してゆく虞がある。従って、前のフレームでIRフレームからグリップ端51aが抽出できなかった場合には、探索範囲R1内でグリップ端51aを探索するのではなく、先にシャフト52の位置を特定する。そして、シャフト52の位置に基づいてグリップ端51aの位置を特定するようにすれば、誤差の蓄積を防ぐことができる。   The process according to FIG. 43 is superior to the process according to FIG. 42 in the following points. That is, when the grip end 51a has not been extracted from the IR frame at the previous time and the position of the grip end 51a is estimated from the position of the shaft 52, the position may include an error of a certain level or more. Then, if the search range R1 is set in step S101 for the next frame using the information on the position of the grip end 51a including such an error, the above error may be accumulated. Therefore, when the grip end 51a cannot be extracted from the IR frame in the previous frame, the position of the shaft 52 is specified first instead of searching for the grip end 51a within the search range R1. If the position of the grip end 51a is specified based on the position of the shaft 52, accumulation of errors can be prevented.

本変形例に係るステップS103,S104の処理は、上述した例外処理S6と同様に処理することもできるし、変更することも可能である。例えば、上述した例外処理S6と同様の方法でシャフト52の二次元座標に基づいてグリップ端51aの二次元座標を導出した後、当該グリップ端51aの二次元座標を基準として、対象IRフレームに探索範囲R1を設定してもよい。そして、ステップS3と同様に当該探索範囲R1内でさらにグリップ端51aを探索し、その後もステップS3〜S7と同様にグリップ端51aの三次元座標を導出することができる。   The processes in steps S103 and S104 according to this modification can be performed in the same manner as the exception process S6 described above, or can be changed. For example, after the two-dimensional coordinates of the grip end 51a are derived based on the two-dimensional coordinates of the shaft 52 by the same method as the exception process S6 described above, the target IR frame is searched using the two-dimensional coordinates of the grip end 51a as a reference. A range R1 may be set. Then, similarly to step S3, the grip end 51a is further searched within the search range R1, and thereafter, the three-dimensional coordinates of the grip end 51a can be derived similarly to steps S3 to S7.

<1−4−8>
第1実施形態に係るステップS65では、凸部抽出フィルタを用いて左肩抽出を行った。しかしながら、これに代えて、凸形状テンプレートを用いたテンプレートマッチングにより、左肩の位置を特定することもできる。この凸形状テンプレートを用いたテンプレートマッチングによる方法は、テイクバック腕水平からダウンスイング腕水平まで区間において、特に左肩抽出の精度を高めることができる。
<1-4-8>
In step S65 according to the first embodiment, left shoulder extraction is performed using a convex portion extraction filter. However, instead of this, the position of the left shoulder can also be specified by template matching using a convex template. The template matching method using this convex template can improve the accuracy of the left shoulder extraction particularly in the section from the takeback arm level to the downswing arm level.

図44は、凸形状テンプレートの一例である。同図に示すように、凸形状テンプレートは、中央が最も小さく、中央から周辺に向かうにつれて徐々に大きくなるような画素値を有する画像のテンプレートである(中央が最も大きく、中央から周辺に向かうにつれて徐々に小さくなるような画素値を有する画像とすることもできる)。すなわち、このテンプレートを用いてテンプレートマッチングを行えば、中央が突出しており、周辺に向かうにつれて反対側に突出している被写体を捉えた画像を容易に抽出することができる。テンプレートマッチングの処理方法としては様々公知であるが、簡単に説明しておくと、以下の
とおりである。すなわち、深度フレーム内の上述したフィルタの適用範囲内で、凸形状テンプレートを上下に少しずつ(例えば、一画素ずつ)ずらしながら、凸形状テンプレートとこれに重なる深度フレームの部分画像との類似度を計算してゆく。類似度とは、例えば、SAD(各画素値の差の絶対値の合計)である。そして、深度フレーム内において類似度が最も高い(SADであれば、最小となる)領域が、左肩の位置として特定される。
FIG. 44 is an example of a convex template. As shown in the figure, the convex template is an image template having a pixel value that is smallest at the center and gradually increases from the center toward the periphery (the center is the largest, and from the center toward the periphery). It can also be an image having pixel values that gradually decrease). That is, if template matching is performed using this template, an image capturing a subject having a center projecting and projecting to the opposite side toward the periphery can be easily extracted. Various template matching processing methods are known, but a brief description is as follows. That is, within the application range of the above-described filter in the depth frame, the degree of similarity between the convex template and the partial image of the depth frame that overlaps the convex template is slightly shifted up and down (for example, one pixel at a time). I will calculate. The similarity is, for example, SAD (sum of absolute values of differences between pixel values). Then, the region having the highest similarity in the depth frame (minimum in the case of SAD) is specified as the position of the left shoulder.

ところで、上述したとおり、距離画像センサとして汎用のものに、Kinect(登録商標)v1及びv2がある。本変形例に係るテンプレートマッチングは、Kinect(登録商標)v2から出力される深度フレームのような比較的高画質の画像から左肩を抽出する場合に、特に有用である。本変形例に係るテンプレートマッチングは、第1実施形態に係る凸部抽出フィルタを用いた場合に比べ、左肩以外の凹凸、例えば、衣服の凹凸のような細かな凹凸に応答しにくい性質を有するからである。従って、左肩以外の細かな凹凸に応答することによる誤差がより確実に防止される。なお、図45は、Kinect(登録商標)v2から出力された深度フレームに対し、本変形例に係るテンプレートマッチングにより抽出された左肩の位置を示す図である。同図からは、左肩の位置が正しく検出されていることが分かる。   As described above, Kinect (registered trademark) v1 and v2 are general-purpose distance image sensors. Template matching according to this modification is particularly useful when the left shoulder is extracted from a relatively high-quality image such as a depth frame output from Kinect (registered trademark) v2. The template matching according to this modification has a property that it is less likely to respond to unevenness other than the left shoulder, for example, unevenness such as clothing unevenness, as compared with the case where the convex portion extraction filter according to the first embodiment is used. It is. Therefore, an error caused by responding to fine irregularities other than the left shoulder is more reliably prevented. FIG. 45 is a diagram showing the position of the left shoulder extracted by template matching according to this modification with respect to the depth frame output from Kinect (registered trademark) v2. From the figure, it can be seen that the position of the left shoulder is correctly detected.

<1−4−9>
第1実施形態では、スケルトンデータからの左肩抽出、凸部抽出フィルタによる左肩抽出及び左肩シルエットフィルタによる左肩抽出が、解析の全期間に対して行われた。しかしながら、演算時間の短縮のためには、各々による左肩の位置が最終的に使用される区間に対してのみ、これらの左肩抽出を行うことが好ましい。図46は、かかる処理の一例である。
<1-4-9>
In the first embodiment, the left shoulder extraction from the skeleton data, the left shoulder extraction by the convex portion extraction filter, and the left shoulder extraction by the left shoulder silhouette filter were performed for the entire analysis period. However, in order to shorten the calculation time, it is preferable to perform the left shoulder extraction only for the section where the position of the left shoulder by each is finally used. FIG. 46 shows an example of such processing.

図46では、まず、位置導出部14bが、アドレス、シャフト8時、トップ、インパクトの時間を特定する。そして、アドレスからインパクトに向かう順に、左肩71の位置を導出してゆく。アドレスからテイクバック腕水平に達するまでは、スケルトンデータから左肩71の位置を導出する。具体的には、アドレスからシャフト8時に達するまでは、スケルトンデータから左肩71の位置を導出する。シャフト8時のタイミングは、シャフト方向導出処理により導出されるシャフト52の向きから決定することができる。シャフト8時以降は、現在時刻の深度フレームの矩形領域R8内において奥行きのデータが存在している画素数をカウントし、所定数(例えば、400ピクセル)以下であればスケルトンデータに基づいて左肩71の位置を決定する。一方、所定数より多ければ、現在時刻をテイクバック腕水平の時刻に決定する。   In FIG. 46, first, the position deriving unit 14b specifies the address, shaft 8 o'clock, top, and impact time. Then, the position of the left shoulder 71 is derived in order from the address toward the impact. Until the takeback arm level is reached from the address, the position of the left shoulder 71 is derived from the skeleton data. Specifically, the position of the left shoulder 71 is derived from the skeleton data until the shaft reaches 8:00 from the address. The timing at 8 o'clock of the shaft can be determined from the orientation of the shaft 52 derived by the shaft direction deriving process. After the shaft 8 o'clock, the number of pixels in which the depth data exists in the rectangular area R8 of the depth frame at the current time is counted. If the number is less than a predetermined number (for example, 400 pixels), the left shoulder 71 is based on the skeleton data. Determine the position. On the other hand, if the number is greater than the predetermined number, the current time is determined as the horizontal time of the takeback arm.

テイクバック腕水平からダウンスイング腕水平に達するまでは、凸部抽出フィルタに基づいて左肩71を導出する。具体的には、テイクバック腕水平からトップに達するまでは、凸部抽出フィルタに基づいて左肩71を導出する。トップ以降は、現在時刻の深度フレームの矩形領域R8内において奥行きのデータが存在している画素数をカウントし、所定数(例えば、400ピクセル)以下であれば凸部抽出フィルタに基づいて左肩71の位置を決定する。一方、所定数より多ければ、現在時刻をダウンスイング腕水平の時刻に決定する。その後、ダウンスイング腕水平からインパクトまでは、左肩シルエットフィルタに基づいて左肩71を導出してゆく。また、凸部抽出フィルタを用いた処理に代えて、変形例1−4−8のテンプレートマッチングを実行してもよい。   From the takeback arm level to the downswing arm level, the left shoulder 71 is derived based on the convex extraction filter. Specifically, the left shoulder 71 is derived based on the convex extraction filter until the takeback arm level reaches the top from the horizontal. After the top, the number of pixels in which the depth data exists in the rectangular region R8 of the depth frame at the current time is counted. If the number is less than a predetermined number (for example, 400 pixels), the left shoulder 71 is based on the convex portion extraction filter. Determine the position. On the other hand, if it is greater than the predetermined number, the current time is determined as the time of the downswing arm horizontal. Thereafter, from the downswing arm level to the impact, the left shoulder 71 is derived based on the left shoulder silhouette filter. Moreover, it may replace with the process using a convex part extraction filter, and may perform the template matching of modification 1-4-8.

<2.第2実施形態>
<2−1.スイング解析システムの概要>
以下、第2実施形態に係るスイング解析装置201を含むスイング解析システム200について説明する。図47は、スイング解析システム200の平面図である。スイング解析システム200も、ゴルファー7によるゴルフクラブ5のスイング動作を捉えた動画に基づいて、ゴルフスイングを解析するためのシステムであり、第2実施形態でも、当該動画は、距離画像センサ2により撮影される。しかしながら、第1実施形態とは異なり、第2実施形態では、複数の距離画像センサ2が使用され、複数の方向からスイング動作が撮影される。ここでは、図47に示すとおり、2つの距離画像センサ2F,2Sが使用される例が説明されるが、勿論、3つ以上の距離画像センサを用いることも可能である。これにより、スイング動作を多方向から正確に捉えることができる。
<2. Second Embodiment>
<2-1. Overview of swing analysis system>
Hereinafter, the swing analysis system 200 including the swing analysis apparatus 201 according to the second embodiment will be described. FIG. 47 is a plan view of the swing analysis system 200. The swing analysis system 200 is also a system for analyzing a golf swing based on a movie that captures the swing motion of the golf club 5 by the golfer 7. In the second embodiment, the movie is also captured by the distance image sensor 2. Is done. However, unlike the first embodiment, in the second embodiment, a plurality of distance image sensors 2 are used, and a swing motion is photographed from a plurality of directions. Here, as shown in FIG. 47, an example in which two distance image sensors 2F and 2S are used will be described. Of course, it is also possible to use three or more distance image sensors. As a result, the swing motion can be accurately captured from multiple directions.

また、第2実施形態では、距離画像センサ2から出力される深度画像及び二次元画像、並びに深度画像に基づくスケルトンデータに加え、後述する人体のシルエットを表すシルエットデータが解析される。そして、このような様々な種類の情報を、それぞれの利点を活かしつつ適宜組み合わせることにより、スイング解析の精度が向上する。   In the second embodiment, in addition to the depth image and two-dimensional image output from the distance image sensor 2 and skeleton data based on the depth image, silhouette data representing the silhouette of the human body described later is analyzed. Then, the accuracy of swing analysis is improved by appropriately combining such various types of information while taking advantage of the respective advantages.

本実施形態では、第1実施形態と同様に、グリップ挙動導出処理、左肩挙動導出処理及びシャフト方向導出処理が実行され、これにより、グリップ端51a及び左肩71の三次元座標、並びにシャフト52の向きを表す三次元ベクトルが導出される。そして、本実施形態では、第1実施形態と同様のこれらの情報の他、左肩71以外のゴルファー7の身体の様々な部位の位置情報に基づいて、スイング動作の良否が判定される。   In the present embodiment, the grip behavior derivation process, the left shoulder behavior derivation process, and the shaft direction derivation process are executed as in the first embodiment, whereby the three-dimensional coordinates of the grip end 51a and the left shoulder 71 and the orientation of the shaft 52 are performed. A three-dimensional vector representing is derived. In the present embodiment, whether or not the swing motion is good is determined based on position information of various parts of the body of the golfer 7 other than the left shoulder 71 in addition to the same information as in the first embodiment.

以下、簡単のため、第1実施形態との共通点については説明を省略しつつ、主として第2実施形態に特有の特徴について説明する。なお、第1実施形態との共通する要素については、同じ参照符号が付される。   Hereinafter, for the sake of simplicity, descriptions of features common to the first embodiment will be omitted, and features specific to the second embodiment will be mainly described. In addition, the same referential mark is attached | subjected about the element which is common in 1st Embodiment.

<2−2.各部の詳細>
以下、図48を参照しつつ、スイング解析システム200の各部の詳細について説明する。
<2-2. Details of each part>
Hereinafter, the details of each part of the swing analysis system 200 will be described with reference to FIG.

<2−2−1.距離画像センサ>
距離画像センサ2F,2Sは、図48に示されるとおり、既に説明した距離画像センサ2と同様の構成を有する。距離画像センサ2Fは、第1実施形態に係る距離画像センサ2と同様に、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。一方、距離画像センサ2Sは、ゴルファー7を右側面側から撮影すべく、ゴルファー7の右方に設置される。
<2-2-1. Distance image sensor>
The distance image sensors 2F and 2S have the same configuration as the distance image sensor 2 already described, as shown in FIG. Similar to the distance image sensor 2 according to the first embodiment, the distance image sensor 2F is installed in front of the golfer 7 so as to photograph the golfer 7 from the front side. On the other hand, the distance image sensor 2S is installed on the right side of the golfer 7 so as to photograph the golfer 7 from the right side.

また、第2実施形態でも、距離画像センサ2F,2SによりIR画像が撮影されるため、グリップ51及びシャフト52には、赤外線の反射シートがマーカーとして貼付される。   Also in the second embodiment, since IR images are taken by the distance image sensors 2F and 2S, an infrared reflection sheet is attached to the grip 51 and the shaft 52 as a marker.

<2−2−2.スイング解析装置>
次に、スイング解析装置201について説明する。スイング解析装置201は、図48に示されるとおり、第1実施形態に係るスイング解析装置1と同様のハードウェア構成を有する。しかしながら、第1実施形態と異なる処理が実行されるため、記憶部13内にはスイング解析プログラム3に代えて、スイング解析プログラム203がインストールされている。また、これにより、制御部14は、取得部14a、第1位置導出部14b及び向き導出部14cとして動作する他、第2位置導出部14d及び判定部14eとしても動作する。各部14d,14eの動作の詳細については、後述する。なお、本実施形態においては、第2位置導出部14dとの区別のため、位置導出部14bを第1位置導出部14bと呼ぶ。
<2-2-2. Swing analyzer>
Next, the swing analysis apparatus 201 will be described. As shown in FIG. 48, the swing analysis device 201 has the same hardware configuration as the swing analysis device 1 according to the first embodiment. However, since processing different from that of the first embodiment is executed, a swing analysis program 203 is installed in the storage unit 13 instead of the swing analysis program 3. Accordingly, the control unit 14 operates as the acquisition unit 14a, the first position deriving unit 14b, and the direction deriving unit 14c, and also operates as the second position deriving unit 14d and the determination unit 14e. Details of the operation of each of the units 14d and 14e will be described later. In the present embodiment, the position deriving unit 14b is referred to as a first position deriving unit 14b for distinction from the second position deriving unit 14d.

なお、スイング解析装置201は、1台のコンピュータから構成することもできるし、複数台のコンピュータから構成することもできる。特に、距離画像センサ2F,2Sの各々に対し、コンピュータを接続する構成とすることもできる。   Note that the swing analysis apparatus 201 can be composed of one computer or a plurality of computers. In particular, a computer may be connected to each of the distance image sensors 2F and 2S.

<2−3.スイング解析方法>
以下、スイング解析システム200により実行されるゴルフスイングの解析方法について説明する。本解析方法でも、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2F,2Sにより撮影する。距離画像センサ2F,2Sにより撮影されたIRフレーム及び深度フレームの画像データは、距離画像センサ2F,2Sからスイング解析装置201に送られる。その後、グリップ挙動導出処理、左肩挙動導出処理、及びシャフト方向導出処理が実行される。また、記憶部13内の距離画像センサ2F,2Sからの2系列の画像データ(実際には、各センサから深度フレーム及びIRフレームの2系列の画像データが導出されるため、4系列と言うこともできる)は、取得部14aにより同期が取られる。同期は、様々な方法により実現可能であり、例えば、画像処理により各系統の画像データ内に同じ特徴が現れるタイミングを検出することにより実現することもできるし、距離画像センサ2F,2Sによる撮影を同時にトリガーする別途の装置を利用することもできる。その後、位置導出処理が実行される。位置導出処理では、所定のタイミング(以下、チェックポイント)における左肩71以外のゴルファー7の身体の所定の部位の位置情報が導出される。さらにその後、良否判定処理が実行される。良否判定処理では、グリップ端51aの位置情報、左肩71を含むゴルファー7の身体の所定の部位の位置情報、並びにシャフト52の向きを表す三次元ベクトルに基づいて、スイング動作の良否が判定される。また、位置導出処理の中では、後述するステップS202のキャリブレーションが行われる。以下では、位置導出処理について説明した後、このキャリブレーションに必要なパラメータを設定する処理(キャリブレーションパラメータ設定処理)について説明し、最後に、良否判定処理について説明する。
<2-3. Swing analysis method>
Hereinafter, a golf swing analysis method executed by the swing analysis system 200 will be described. Also in this analysis method, first, the golfer 7 makes a trial hit of the golf club 5, and the state is photographed by the distance image sensors 2F and 2S. The IR frame and depth frame image data captured by the distance image sensors 2F and 2S are sent from the distance image sensors 2F and 2S to the swing analysis apparatus 201. Thereafter, grip behavior derivation processing, left shoulder behavior derivation processing, and shaft direction derivation processing are executed. Also, two series of image data from the distance image sensors 2F and 2S in the storage unit 13 (in reality, two series of image data of a depth frame and an IR frame are derived from each sensor. Can also be synchronized by the acquisition unit 14a. The synchronization can be realized by various methods. For example, the synchronization can be realized by detecting the timing at which the same feature appears in the image data of each system by image processing, or photographing by the distance image sensors 2F and 2S. A separate device that triggers simultaneously can also be used. Thereafter, a position derivation process is executed. In the position deriving process, position information of a predetermined part of the body of the golfer 7 other than the left shoulder 71 at a predetermined timing (hereinafter referred to as a check point) is derived. Thereafter, pass / fail judgment processing is executed. In the quality determination process, the quality of the swing motion is determined based on the position information of the grip end 51a, the position information of a predetermined part of the body of the golfer 7 including the left shoulder 71, and the three-dimensional vector representing the direction of the shaft 52. . In the position derivation process, calibration in step S202 described later is performed. Hereinafter, after describing the position derivation process, a process for setting parameters necessary for the calibration (calibration parameter setting process) will be described, and finally, the quality determination process will be described.

<2−3−1.位置導出処理>
位置導出処理は、上記のとおり、チェックポイントにおける左肩71以外のゴルファー7の身体の所定の部位の位置情報を導出する処理である。図49は、位置導出処理の流れを示すフローチャートである。
<2-3-1. Position derivation process>
As described above, the position deriving process is a process of deriving position information of a predetermined part of the body of the golfer 7 other than the left shoulder 71 at the check point. FIG. 49 is a flowchart showing the flow of the position derivation process.

まず、ステップS201において、取得部14aが、記憶部13内に格納されている画像データを読み出し、メモリに展開する。そして、第2位置導出部14dが、これらの画像データのうち、解析の対象となるチェックポイントのフレームを決定する。本実施形態に係るチェックポイントは、アドレス、テイクバックシャフト8時、テイクバックシャフト9時、テイクバック腕水平、トップ、ダウンスイング腕水平、ダウンスイングシャフト9時、及びインパクトの8つのタイミングである(図50及び図51参照)。これらのチェックポイントは、スイング動作中にこの順番で現れる。図50及び図51は、それぞれこれらのチェックポイントでのゴルファー7の正面図及び右側面図である。テイクバックシャフト8時及びテイクバックシャフト9時は、それぞれゴルファー7を正面から見て、テイクバック中にシャフト52が概ね時計の8時及び9時の方向を指すタイミングである。ダウンスイングシャフト9時は、ゴルファー7を正面から見て、ダウンスイング中にシャフト52が概ね時計の9時の方向を指すタイミングである。   First, in step S201, the acquisition unit 14a reads the image data stored in the storage unit 13 and develops it in the memory. Then, the second position deriving unit 14d determines a checkpoint frame to be analyzed among these image data. Check points according to the present embodiment are eight timings of address, takeback shaft 8 o'clock, takeback shaft 9 o'clock, takeback arm horizontal, top, down swing arm horizontal, down swing shaft 9 o'clock, and impact ( 50 and 51). These checkpoints appear in this order during the swing movement. 50 and 51 are a front view and a right side view of the golfer 7 at these check points, respectively. The takeback shaft 8 o'clock and the takeback shaft 9 o'clock are timings when the golf player 7 is viewed from the front and the shaft 52 generally points in the direction of 8 o'clock and 9 o'clock of the timepiece during the takeback. 9 o'clock of the down swing shaft is a timing when the golf player 7 is viewed from the front, and the shaft 52 generally points in the 9 o'clock direction of the timepiece during the down swing.

これらのチェックポイントのフレームは、様々な方法で決定することができる。アドレス、テイクバック腕水平、トップ、ダウンスイング腕水平、インパクトでのフレームは、例えば、既に説明したとおりの方法で決定することができる。テイクバックシャフト8時のフレームは、例えば、アドレスからテイクバック腕水平までの区間で、ゴルファー7の正面から撮影されたIRフレーム(以下、正面IRフレーム)上でグリップ端51aが右足先よりも右側になったフレームを画像処理により特定し、これより1〜3フレーム戻したフレームとして導出することができる。なお、以下では、正面IRフレームと同様に、ゴルファー7の正面からから撮影された深度フレームを、正面深度フレームと呼び、ゴルファー7の右側面から撮影されたIRフレームを、右側面IRフレームと呼び、ゴルファー7の右側面から撮影された深度フレームを、右側面深度フレームと呼ぶ。また、ゴルファー7の正面から撮影されたフレームを正面フレームと呼び、ゴルファー7の右側面から撮影されたフレームを、右側面フレームと呼ぶ。   These checkpoint frames can be determined in various ways. The address, takeback arm level, top, downswing arm level, and impact frames can be determined, for example, by the method described above. The frame of the takeback shaft 8 o'clock is, for example, the section from the address to the horizontal of the takeback arm, and the grip end 51a on the right side of the right foot tip on the IR frame (hereinafter referred to as the front IR frame) taken from the front of the golfer 7. The frame that has become can be identified by image processing, and can be derived as a frame back by 1 to 3 frames. Hereinafter, similarly to the front IR frame, the depth frame shot from the front of the golfer 7 is referred to as a front depth frame, and the IR frame shot from the right side of the golfer 7 is referred to as a right side IR frame. The depth frame shot from the right side surface of the golfer 7 is referred to as a right side depth frame. A frame taken from the front of the golfer 7 is called a front frame, and a frame taken from the right side of the golfer 7 is called a right side frame.

テイクバックシャフト9時のフレームは、例えば、テイクバックシャフト8時からテイクバック腕水平の区間で、ゴルファー7の正面から見てシャフト52の角度が90°(水平)になったフレームとして導出することができる。ダウンスイングシャフト9時のフレームは、例えば、ダウンスイング腕水平からインパクトまでの区間で、ゴルファー7の正面から見てシャフト52の角度が90°(水平)になったフレームとして導出することができる。このとき、シャフト52の角度は、シャフト方向導出処理により導出されるシャフト52の向きを表す三次元ベクトル又は(IRフレーム由来の)二次元ベクトルを用いて特定することができる。   The frame at the time of the takeback shaft 9 is derived, for example, as a frame in which the angle of the shaft 52 is 90 ° (horizontal) when viewed from the front of the golfer 7 in the horizontal section of the takeback arm from the time of the takeback shaft 8 o'clock. Can do. The frame at the time of the downswing shaft 9 can be derived, for example, as a frame in which the angle of the shaft 52 is 90 ° (horizontal) when viewed from the front of the golfer 7 in the section from the horizontal of the downswing arm to the impact. At this time, the angle of the shaft 52 can be specified by using a three-dimensional vector representing the direction of the shaft 52 derived by the shaft direction deriving process or a two-dimensional vector (derived from the IR frame).

続くステップS202〜S205では、チェックポイントにおけるゴルファー7の身体の様々な部位の位置情報が導出される。ここでは主として、位置情報は、第1平面及び/又は第2平面内での位置情報として導出される。第1平面とは、距離画像センサ2Fの光軸に直交する平面、すなわち、ゴルファー7の腹から背に向かう方向に直交する平面である。第2平面とは、距離画像センサ2Sの光軸に直交する平面、すなわち、飛球線方向に直交する平面である。また、ここでは、位置情報は、既に算出されているグリップ端51aの三次元座標、左肩71の三次元座標及びシャフト52の向きを表す三次元ベクトル、スケルトンデータ、並びにシルエットデータの中から適宜必要なものを用いて算出される。スケルトンデータについては既に述べたが、シルエットデータについては後述する。   In subsequent steps S202 to S205, position information of various parts of the body of the golfer 7 at the checkpoint is derived. Here, the position information is mainly derived as position information in the first plane and / or the second plane. The first plane is a plane orthogonal to the optical axis of the distance image sensor 2F, that is, a plane orthogonal to the direction from the belly of the golfer 7 toward the back. The second plane is a plane orthogonal to the optical axis of the distance image sensor 2S, that is, a plane orthogonal to the flying ball direction. Further, here, the position information is necessary as appropriate from the already calculated three-dimensional coordinates of the grip end 51a, the three-dimensional coordinates of the left shoulder 71, the three-dimensional vector indicating the orientation of the shaft 52, skeleton data, and silhouette data. It is calculated using anything. The skeleton data has already been described, but the silhouette data will be described later.

まず、ステップS202では、取得部14aが、記憶部13内に格納されているスイング動作中の各チェックポイントでの正面深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの正面深度フレームから、各チェックポイントでのスケルトンデータを取得する。スケルトンデータの取得の態様は、第1実施形態と同様である。そして、第2位置導出部14dが、正面深度フレームに基づく正面側から見た各チェックポイントでのスケルトンデータを、右側面側から見たスケルトンデータに変換する。これは、以下の問題に対処するためである。すなわち、正面から撮影した深度フレームに基づくスケルトンデータ(より正確には、スケルトンデータに含まれる関節等の注目点の位置情報)は信頼性が高いが、側面から撮影した深度フレームに基づくスケルトンデータは信頼性が低い場合がある。そのため、以下では、右側面深度フレームに基づくスケルトンデータの代わりに、正面深度フレームに基づくスケルトンデータ(以下、正面スケルトンデータ)を変換したスケルトンデータが用いられる。以下、特に断らない限り、右側面スケルトンデータと言うときには、正面スケルトンデータからの変換後のスケルトンデータを意味する。また、ステップS202では、第2位置導出部14dは、右側面スケルトンデータに含まれる関節等の注目点の三次元座標を、第2平面内での二次元座標に変換する。   First, in step S202, the acquisition unit 14a reads the front depth frame at each check point during the swing operation stored in the storage unit 13 and develops it in the memory. And the acquisition part 14a acquires the skeleton data in each check point from these front depth frames. The manner of acquiring the skeleton data is the same as in the first embodiment. Then, the second position deriving unit 14d converts the skeleton data at each check point viewed from the front side based on the front depth frame into skeleton data viewed from the right side. This is to deal with the following problems. That is, the skeleton data based on the depth frame photographed from the front (more precisely, the position information of the attention point such as the joint included in the skeleton data) is highly reliable, but the skeleton data based on the depth frame photographed from the side is Reliability may be low. Therefore, in the following, skeleton data obtained by converting skeleton data based on the front depth frame (hereinafter referred to as front skeleton data) is used instead of the skeleton data based on the right side depth frame. Hereinafter, unless otherwise specified, the right side skeleton data means skeleton data after conversion from the front side skeleton data. In step S202, the second position deriving unit 14d converts the three-dimensional coordinates of the point of interest such as a joint included in the right-side skeleton data into two-dimensional coordinates in the second plane.

スケルトンデータの変換は、予め記憶部13内に記憶されているキャリブレーションパラメータに基づいて行われる。スケルトンデータの変換とは、ある三次元空間における三次元座標を、別の定義により設定される三次元空間での三次元座標に変換することを意味する。従って、変換前後の三次元空間の相対的な関係が既知であれば、かかる変換が可能になる。この相対的な関係を示すパラメータが、ここで用いられるキャリブレーションパラメータであり、後述するキャリブレーションパラメータ設定処理の中で設定される。   The conversion of the skeleton data is performed based on calibration parameters stored in the storage unit 13 in advance. The conversion of skeleton data means that three-dimensional coordinates in a certain three-dimensional space are converted into three-dimensional coordinates in a three-dimensional space set by another definition. Therefore, if the relative relationship between the three-dimensional space before and after the conversion is known, such conversion is possible. A parameter indicating this relative relationship is a calibration parameter used here, and is set in a calibration parameter setting process described later.

続くステップS203では、第2位置導出部14dが、グリップ挙動導出処理、左肩導出処理及びシャフト方向導出処理により導出された正面側から見たグリップ51の三次元座標、左肩71の三次元座標及びシャフト52の向きを表す三次元ベクトルを、それぞれ右側面側から見たデータに変換する。本実施形態では、後述するとおり、右側面側から見た画像データに基づいて、スイング解析が実行されるためである。以下では、特に断らない限り、右側面側から見た画像データの解析について説明している箇所では、ステップS203による変換後のグリップ端51aの位置情報、左肩71の位置情報及びシャフト52の向きが、解析の対象とされる。   In subsequent step S203, the second position deriving unit 14d determines the three-dimensional coordinates of the grip 51, the three-dimensional coordinates of the left shoulder 71, and the shaft derived from the front side derived by the grip behavior deriving process, the left shoulder deriving process, and the shaft direction deriving process. The three-dimensional vector representing the orientation of 52 is converted into data viewed from the right side. This is because, in the present embodiment, as will be described later, swing analysis is executed based on image data viewed from the right side. In the following, unless otherwise specified, in the portion describing the analysis of the image data viewed from the right side, the position information of the grip end 51a, the position information of the left shoulder 71 and the orientation of the shaft 52 after the conversion in step S203 are the same. , Subject to analysis.

ところで、本実施形態では、グリップ挙動導出処理及びシャフト方向導出処理により導出されたグリップ端51aの位置情報及びシャフト52の向きは、正面からの画像データに基づいて算出されるため、ステップS203での変換後の位置情報及びシャフト52の向きは、誤差が大きくなることがある。このような場合には、グリップ端51aの位置情報及びシャフト52の向きを、右側面からの画像(シルエットデータ、深度フレーム及びIRフレームを含む)に基づいて、画像処理により再導出することができる。また、左肩挙動導出処理により導出された左肩71の位置情報をステップS203により変換したデータについても、誤差が大きくなることがある。このような場合には、左肩71の位置情報を、右側面からの画像(シルエットデータ、深度フレーム及びIRフレームを含む)に基づいて、画像処理により再導出することができる。   By the way, in the present embodiment, the position information of the grip end 51a and the orientation of the shaft 52 derived by the grip behavior deriving process and the shaft direction deriving process are calculated based on the image data from the front. The positional information after the conversion and the orientation of the shaft 52 may increase errors. In such a case, the position information of the grip end 51a and the direction of the shaft 52 can be re-derived by image processing based on images from the right side surface (including silhouette data, depth frames, and IR frames). . In addition, the error may also increase for the data obtained by converting the position information of the left shoulder 71 derived by the left shoulder behavior deriving process in step S203. In such a case, the position information of the left shoulder 71 can be re-derived by image processing based on an image (including silhouette data, a depth frame, and an IR frame) from the right side surface.

続くステップS204,S205では、ステップS201で決定された各チェックポイントにおける所定の部位の位置情報が導出される。ここで導出される位置情報は、良否判定処理の中でスイング動作の良否の判定に用いられる。   In subsequent steps S204 and S205, position information of a predetermined part at each check point determined in step S201 is derived. The position information derived here is used to determine whether the swing motion is good or bad in the quality determination process.

上記のとおり、ステップS204,S205は、各チェックポイントでの所定の部位の位置情報を導出するステップである。このうち、ステップS204では、第1平面内での所定の部位の位置情報が導出され、ステップS205では、第2平面内での所定の部位の位置情報が導出される。本実施形態では、位置情報が導出される部位は、チェックポイントごとに異なる。本実施形態に係るチェックポイントごとの位置情報が導出される部位については、以下にまとめて説明する。ステップS205が終了すると、位置導出処理が終了する。   As described above, steps S204 and S205 are steps for deriving position information of a predetermined part at each check point. Among these, in step S204, position information of a predetermined part in the first plane is derived, and in step S205, position information of a predetermined part in the second plane is derived. In the present embodiment, the part from which the position information is derived differs for each check point. The parts from which the position information for each check point according to the present embodiment is derived will be described together below. When step S205 ends, the position derivation process ends.

<2−3−1−1.アドレス>
第2位置導出部14dは、スケルトンデータから、アドレス時の第1平面内でのゴルファー7の右肩、肩中心、臍、右足首及び左足首の位置情報を導出する。このとき、アドレス時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1. Address>
The second position deriving unit 14d derives position information of the right shoulder, shoulder center, navel, right ankle, and left ankle of the golfer 7 in the first plane at the time of addressing from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at the time of addressing are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

また、第2位置導出部14dは、シルエットデータから、アドレス時の第1平面内での左足幅基準位置、右足幅基準位置、臍左位置、臍右位置及び左足踵の位置情報を導出する。ここでの左足幅基準位置及び右足幅基準位置からは、アドレス時のスタンスの幅を特定することができる。ここでの臍左位置及び臍右位置からは、アドレス時の腰の幅を特定することができる。   Further, the second position deriving unit 14d derives position information of the left foot width reference position, the right foot width reference position, the umbilical left position, the umbilical right position, and the left footpad in the first plane at the time of address from the silhouette data. From the left foot width reference position and the right foot width reference position, the stance width at the time of addressing can be specified. The waist width at the time of addressing can be specified from the left navel position and right navel position here.

ここで、シルエットデータとは、各フレーム上でのゴルファー7のシルエットを示すデータであり、取得部14aにより取得される。より具体的には、取得部14aは、記憶部13内に格納されている深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの深度フレームからシルエットデータを取得する。すなわち、ゴルファー7は、距離画像センサ2F,2Sの撮像範囲において比較的手前側に存在するため、深度フレームから浅い深度を表す画素値を有する領域を抽出することにより、人体のシルエットを導出することができる。そのため、より正確には、ここでいうシルエットには、ゴルフクラブ5等のシルエットも含まれる。なお、距離画像センサであるKinect(登録商標)には、深度画像からシルエットデータを読み出すためのライブラリが提供されており、本実施形態では、当該ライブラリを用いて、シルエットデータが取得される。また、シルエットデータは、距離画像センサ2F,2SのCPU23が、深度フレームから導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきたシルエットデータを読み出すだけでよい。また、シルエットデータは、深度フレームではなく、IRフレームを画像処理することにより導出することもできる。   Here, the silhouette data is data indicating the silhouette of the golfer 7 on each frame, and is acquired by the acquisition unit 14a. More specifically, the acquisition unit 14a reads the depth frame stored in the storage unit 13 and develops it in the memory. And the acquisition part 14a acquires silhouette data from these depth frames. That is, since the golfer 7 exists relatively near in the imaging range of the distance image sensors 2F and 2S, the golfer 7 derives a silhouette of the human body by extracting a region having a pixel value representing a shallow depth from the depth frame. Can do. Therefore, more precisely, the silhouette here includes a silhouette of the golf club 5 or the like. It should be noted that Kinect (registered trademark), which is a distance image sensor, is provided with a library for reading silhouette data from a depth image. In this embodiment, silhouette data is acquired using the library. The silhouette data may be derived from the depth frame by the CPU 23 of the distance image sensors 2F and 2S. In this case, the acquisition unit 14a may simply read out the silhouette data sent from the distance image sensor 2. Silhouette data can also be derived by image processing of IR frames instead of depth frames.

なお、Kinect(登録商標)のライブラリを用いて直接的に抽出されるシルエットデータは、通常、2値化されていない。その場合、取得部14aは、当該シルエットデータを、ゴルファー7(より正確には、ゴルフクラブ5も含まれる)のシルエットのみを1、その他を0と表すように2値化することができる。また、取得部14aは、シルエットデータに対し膨張及び収縮を繰り返すことで、シルエットに分類されている小さなエリアを消去し、より正確なシルエットを取得することができる。また、取得部14aは、ラベリング処理を行うことによっても、シルエットに分類されている小さなエリアを消去することもできる。以下では、このように加工されたシルエットデータも、同様にシルエットデータと呼ぶ。以上のシルエットデータは、正面深度フレーム及び右側面深度フレームのそれぞれから同様の方法で、正面シルエットデータ及び右側面シルエットデータとして導出される。   Note that silhouette data directly extracted using a Kinect (registered trademark) library is not usually binarized. In that case, the acquisition unit 14a can binarize the silhouette data so that only the silhouette of the golfer 7 (more precisely, the golf club 5 is included) is 1 and the others are 0. Moreover, the acquisition part 14a can erase | acquire the small area classified into the silhouette by repeating expansion | swelling and shrinkage | contraction with respect to silhouette data, and can acquire a more exact silhouette. The acquisition unit 14a can also erase a small area classified as a silhouette by performing a labeling process. Hereinafter, the silhouette data processed in this way is also referred to as silhouette data. The above silhouette data is derived as front silhouette data and right side silhouette data from the front depth frame and the right side depth frame in the same manner.

左足幅基準位置、右足幅基準位置、臍左位置、臍右位置及び左足踵の位置情報の導出方法の説明に戻る。これらの位置情報は、第2位置導出部14dにより、正面シルエットデータを画像処理することにより導出される。図52は、アドレス時の正面シルエットデータに正面スケルトンデータを重ねた画像である。本実施形態では、図52に示されるとおり、正面シルエットデータの画像上において、シルエットの部分を囲む矩形枠L1が設定される。枠L1の左右の境界は、シルエットから所定の間隔をあけるように設定される。また、枠L1の上方の境界は、シルエットに含まれる最上点に一致し、下方の境界は、直線状のシャフト52のシルエットを除いたシルエットの下端に一致する。続いて、正面シルエットデータの画像上において、左右方向に左足首から枠L1の右端まで広がり、上下方向に左足首から枠L1の下端まで広がる枠L2が設定される。さらに、正面シルエットデータの画像上において、左右方向に右足首から枠L1の左端まで広がり、上下方向に右足首から枠L1の下端まで広がる枠L3が設定される。そして、枠L2内で左足首から最も遠いシルエット内の点の左右方向の位置が、左足幅基準位置として特定され、枠L3内で右足首から最も遠いシルエット内の点の左右方向の位置が、右足幅基準位置として特定される。   Returning to the description of the method for deriving the position information of the left foot width reference position, right foot width reference position, left navel position, right navel position and left footpad. These pieces of position information are derived by subjecting the front silhouette data to image processing by the second position deriving unit 14d. FIG. 52 is an image in which front skeleton data is superimposed on front silhouette data at the time of addressing. In the present embodiment, as shown in FIG. 52, a rectangular frame L1 surrounding the silhouette portion is set on the front silhouette data image. The left and right boundaries of the frame L1 are set so as to leave a predetermined interval from the silhouette. Further, the upper boundary of the frame L1 coincides with the uppermost point included in the silhouette, and the lower boundary coincides with the lower end of the silhouette excluding the silhouette of the linear shaft 52. Subsequently, on the image of the front silhouette data, a frame L2 is set that extends from the left ankle to the right end of the frame L1 in the left-right direction and extends from the left ankle to the lower end of the frame L1 in the vertical direction. Further, on the front silhouette data image, a frame L3 is set that extends from the right ankle to the left end of the frame L1 in the left-right direction and extends from the right ankle to the lower end of the frame L1 in the vertical direction. Then, the horizontal position of the point in the silhouette farthest from the left ankle in the frame L2 is specified as the left foot width reference position, and the horizontal position of the point in the silhouette farthest from the right ankle in the frame L3 is It is specified as the right foot width reference position.

また、図52に示されるとおり、アドレス時の正面シルエットデータの画像上において、臍を通る水平な直線上においてシルエット内の左端点が、臍右位置として特定される。また、同直線上においてシルエット内の右端点が、臍左位置として特定される。   As shown in FIG. 52, the left end point in the silhouette is specified as the right navel position on the horizontal straight line passing through the navel on the image of the front silhouette data at the time of addressing. Further, the right end point in the silhouette on the same line is specified as the left navel position.

左足踵の位置情報は、アドレスから少し進んだ(例えば、1フレーム進んだ)タイミングでの正面シルエットデータの画像から導出される。図53は、当該タイミングでの正面シルエットデータに正面スケルトンデータを重ねた画像である。本実施形態では、図53に示されるとおり、正面シルエットデータの画像上において、上記と同様の矩形枠L1が設定される。続いて、正面シルエットデータの画像上において、左右方向に左足首から枠L1の中央まで広がり、上下方向に左足首から枠L1の下端まで広がる枠L4が設定される。そして、枠L4内で左足首から最も遠いシルエット内の点が、左足踵の位置として特定される。   The position information of the left footpad is derived from the image of the front silhouette data at a timing slightly advanced from the address (for example, one frame advanced). FIG. 53 is an image obtained by superimposing the front skeleton data on the front silhouette data at the timing. In the present embodiment, as shown in FIG. 53, a rectangular frame L1 similar to the above is set on the front silhouette data image. Subsequently, on the front silhouette data image, a frame L4 is set that extends from the left ankle to the center of the frame L1 in the left-right direction and extends from the left ankle to the lower end of the frame L1 in the vertical direction. Then, the point in the silhouette farthest from the left ankle in the frame L4 is specified as the position of the left footpad.

次に、第2位置導出部14dは、スケルトンデータから、アドレス時の第2平面内でのゴルファー7の右肩、首、腰、左膝、右膝、右足首及び右肘の位置情報を導出する。このとき、アドレス時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。   Next, the second position deriving unit 14d derives the position information of the right shoulder, neck, waist, left knee, right knee, right ankle and right elbow of the golfer 7 in the second plane at the time of addressing from the skeleton data. To do. At this time, the two-dimensional coordinates of these parts included in the right-side skeleton data at the time of addressing are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

また、第2位置導出部14dは、シルエットデータから、アドレス時の第2平面内での左足先、右足先、左膝頭及び右膝頭の位置情報を導出する。ここで、左足及び右足については、地面からの赤外線データの反射波等がノイズとなり、深度フレームにおいて深度情報が取得されないことがある。この場合、深度フレームに基づくシルエットデータには、左足及び右足のシルエットが現れない。本実施形態では、このような場合に対処すべく、上述のシルエットデータにおいて特定されるシルエットの領域を拡張する、言い換えると、当該シルエットの領域に左足及び右足に対応する領域を補完する処理が行われる。具体的には、第2位置導出部14dは、アドレス時の右側面深度フレーム上で深度情報が欠落している領域の情報に基づいて、左足及び右足に対応する領域を導出する。図54Aは、アドレス時の右側面深度フレームに基づく右側面シルエットデータの画像である。本実施形態では、第2位置導出部14dは、この右側面シルエットデータの画像上において、右足首を基準として右足首周辺に所定のサイズの枠L5を設定する。そして、この枠L5内で、深度情報が0となっている領域を、左足及び右足に対応する領域として抽出する。図54Bは、左足及び右足のシルエットが補完された画像である。第2位置導出部14dは、右足首を基準として右足首周辺に所定のサイズの枠L6を設定し、枠L6内における左足のシルエットの右端点を左足先の位置として特定する。同様に、第2位置導出部14dは、右足首を基準として右足首周辺に所定のサイズの枠L7を設定し、枠L7内における右足のシルエットの右端点を右足先の位置として特定する。   Further, the second position deriving unit 14d derives position information of the left foot tip, the right foot tip, the left kneecap, and the right kneecap in the second plane at the time of addressing from the silhouette data. Here, for the left foot and the right foot, the reflected wave of infrared data from the ground becomes noise, and depth information may not be acquired in the depth frame. In this case, the silhouette of the left foot and the right foot does not appear in the silhouette data based on the depth frame. In the present embodiment, in order to deal with such a case, the silhouette region specified in the above-described silhouette data is expanded, in other words, processing for complementing the region corresponding to the left foot and the right foot is performed on the silhouette region. Is called. Specifically, the second position deriving unit 14d derives regions corresponding to the left foot and the right foot based on information on a region where depth information is missing on the right-side depth frame at the time of addressing. FIG. 54A is an image of right side silhouette data based on the right side depth frame at the time of addressing. In the present embodiment, the second position deriving unit 14d sets a frame L5 of a predetermined size around the right ankle on the right ankle silhouette image on the right side silhouette data image. And the area | region where depth information is 0 in this frame L5 is extracted as an area | region corresponding to a left foot and a right foot. FIG. 54B is an image in which the silhouettes of the left foot and the right foot are complemented. The second position deriving unit 14d sets a frame L6 having a predetermined size around the right ankle with reference to the right ankle, and specifies the right end point of the silhouette of the left foot in the frame L6 as the position of the left foot. Similarly, the second position deriving unit 14d sets a frame L7 of a predetermined size around the right ankle with reference to the right ankle, and specifies the right end point of the silhouette of the right foot in the frame L7 as the position of the right foot tip.

左膝頭及び右膝頭の位置情報は、正面深度フレーム上で左膝及び右膝の位置を深度方向にオフセットすることで左膝頭及び右膝頭の位置を決定し、これらをステップS202と同じ方法で右側面側から見た位置に変換し、変換後の左膝頭及び右膝頭の位置をシルエットの輪郭方向にオフセットした点の位置情報として特定される。   The position information of the left and right knee heads is determined by offsetting the positions of the left and right knees in the depth direction on the front depth frame, and determining the positions of the left and right knee heads in the same manner as in step S202. The position is converted into a position viewed from the surface side, and is specified as position information of a point obtained by offsetting the converted positions of the left and right knee caps in the contour direction of the silhouette.

<2−3−1−2.テイクバックシャフト8時>
第2位置導出部14dは、スケルトンデータから、テイクバックシャフト8時の第1平面内でのゴルファー7の右肩及び臍の位置情報を導出する。このとき、テイクバックシャフト8時の正面スケルトンデータに含まれるこれらの部位の2次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-2. Take back shaft 8 o'clock>
The second position deriving unit 14d derives position information of the right shoulder and navel of the golfer 7 in the first plane at the time of the takeback shaft 8 from the skeleton data. At this time, two-dimensional coordinates of these parts included in the front skeleton data at the time of the takeback shaft 8 are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

<2−3−1−3.テイクバックシャフト9時>
本実施形態では、テイクバックシャフト9時のタイミングでは、ゴルファー7の部位の位置情報は特定されない。しかしながら、後述するとおり、テイクバックシャフト9時のグリップ端51aの位置情報に基づいて、テイクバックシャフト9時のタイミングでのスイング動作の良否が判断される。
<2-3-1-3. Take back shaft 9 o'clock>
In the present embodiment, the position information of the part of the golfer 7 is not specified at the timing of the takeback shaft 9. However, as described later, the quality of the swing operation at the timing of the takeback shaft 9 is determined based on the position information of the grip end 51a at the time of the takeback shaft 9.

<2−3−1−4.テイクバック腕水平>
第2位置導出部14dは、スケルトンデータから、テイクバック腕水平時の第2平面内でのゴルファー7の首及び腰の位置情報を導出する。このとき、テイクバック腕水平時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-4. Take back arm horizontal>
The second position deriving unit 14d derives position information of the neck and waist of the golfer 7 in the second plane when the takeback arm is horizontal from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right-side skeleton data when the takeback arm is horizontal are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

<2−3−1−5.トップ>
第2位置導出部14dは、スケルトンデータから、トップ時の第1平面内でのゴルファー7の頭、臍、左膝及び右膝の位置情報を導出する。このとき、トップ時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-5. Top>
The second position deriving unit 14d derives position information of the head, navel, left knee, and right knee of the golfer 7 in the first plane at the time of the top from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at the top time are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

また、第2位置導出部14dは、シルエットデータから、トップ時の第1平面内での臍右位置の位置情報を導出する。ここでの臍右位置の導出方法は、アドレス時の正面シルエットデータの画像に代えて、インパクト時の正面シルエットデータの画像を用いる点を除き、アドレス時と同様である。   The second position deriving unit 14d derives position information of the right umbilicus position in the first plane at the time of top from the silhouette data. The method for deriving the right umbilicus position is the same as that at the time of addressing except that the image of the front silhouette data at the time of impact is used instead of the image of the front silhouette data at the time of addressing.

次に、第2位置導出部14dは、スケルトンデータから、トップ時の第2平面内でのゴルファー7の左膝、右膝、首及び腰の位置情報を導出する。このとき、トップ時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。   Next, the second position deriving unit 14d derives position information of the left knee, right knee, neck, and waist of the golfer 7 in the second plane at the time of top from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right side skeleton data at the time of the top are extracted, and the two-dimensional coordinates are directly used as the position information of these parts.

また、第2位置導出部14dは、シルエットデータから、トップ時の第2平面内でのゴルファー7の左肩71、左膝頭、右膝頭、左肘及び右肘の位置情報を導出する。左肩71の位置情報の導出には、既に導出されている左肩71の二次元座標が使用される。図55は、トップ時の右側面シルエットデータの画像である。具体的には、本実施形態では、図55に示すとおり、トップ時の右側面シルエットデータの画像上において、既に抽出されている左肩71の位置を、左方向に向かってシルエットの輪郭に重なるように移動させ、当該移動後の位置を新たな左肩の位置とする。   Further, the second position deriving unit 14d derives position information of the left shoulder 71, the left knee head, the right knee head, the left elbow, and the right elbow of the golfer 7 in the second plane at the time of the top from the silhouette data. For deriving the position information of the left shoulder 71, the already derived two-dimensional coordinates of the left shoulder 71 are used. FIG. 55 is an image of right side silhouette data at the time of top. Specifically, in the present embodiment, as shown in FIG. 55, the position of the left shoulder 71 that has already been extracted on the image of the right side silhouette data at the top is overlapped with the outline of the silhouette in the left direction. The position after the movement is set as a new left shoulder position.

また、右膝頭の位置情報は、アドレス時と同様の方法で導出される。一方、左膝頭の位置情報は、以下の方法で導出される。まず、右側面シルエットデータの画像上において、既に抽出されている左膝の位置を基準としてその周辺に所定サイズの枠L10(図55参照)が設定される。続いて、枠L10内に含まれるシルエットの輪郭の曲率が算出され、曲率が最大となっている点が新たな左膝頭の位置として特定される。   The position information of the right kneecap is derived by the same method as that at the time of addressing. On the other hand, the position information of the left kneecap is derived by the following method. First, a frame L10 of a predetermined size (see FIG. 55) is set around the position of the left knee that has already been extracted on the right side silhouette data image. Subsequently, the curvature of the outline of the silhouette included in the frame L10 is calculated, and the point having the maximum curvature is specified as the position of the new left kneecap.

右肘の位置情報も、シルエットの曲率に基づいて導出される。より具体的には、右側面シルエットデータの画像上において、グリップ端51aの位置を基準としてその周辺に所定サイズの枠L11(図55参照)が設定される。続いて、枠L11内に含まれるシルエットの輪郭の曲率が算出され、曲率が最大となっている点が新たな右肘の位置として特定される。   The position information of the right elbow is also derived based on the curvature of the silhouette. More specifically, a frame L11 of a predetermined size (see FIG. 55) is set around the grip end 51a on the right side silhouette data image. Subsequently, the curvature of the outline of the silhouette included in the frame L11 is calculated, and the point having the maximum curvature is specified as the position of the new right elbow.

左肘の位置情報は、以下の方法で導出される。まず、再抽出された左肩71の位置とグリップ端51aとの中点を仮左肘とする。次に、仮左肘の位置を基準としてその周辺に所定サイズの枠L12(図55参照)を設定し、右側面深度フレームに基づいて、枠L12内で左肩71よりも深度の浅い点、言い換えると、距離画像センサ2Fを基準として手前側に突出している点を、左肘の位置として特定する。   The position information of the left elbow is derived by the following method. First, the midpoint between the re-extracted position of the left shoulder 71 and the grip end 51a is taken as a temporary left elbow. Next, a frame L12 (see FIG. 55) of a predetermined size is set around the position of the provisional left elbow, and based on the right-side depth frame, a point that is shallower than the left shoulder 71 in the frame L12, in other words, And the point which protrudes to the near side on the basis of the distance image sensor 2F is specified as the position of the left elbow.

<2−3−1−6.ダウンスイング腕水平>
第2位置導出部14dは、スケルトンデータから、ダウンスイング腕水平時の第1平面内でのゴルファー7の左膝の位置情報を導出する。このとき、ダウンスイング腕水平時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-6. Down swing arm horizontal>
The second position deriving unit 14d derives position information of the left knee of the golfer 7 in the first plane when the downswing arm is horizontal from the skeleton data. At this time, two-dimensional coordinates of these parts included in the front skeleton data when the downswing arm is horizontal are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

次に、第2位置導出部14dは、スケルトンデータから、ダウンスイング腕水平時の第2平面内でのゴルファー7の首及び腰の位置情報を導出する。このとき、ダウンスイング腕水平時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。   Next, the second position deriving unit 14d derives position information of the neck and waist of the golfer 7 in the second plane when the downswing arm is horizontal from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right-side skeleton data when the downswing arm is horizontal are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

<2−3−1−7.ダウンスイングシャフト9時>
第2位置導出部14dは、シルエットデータから、ダウンスイングシャフト9時の第1平面内での手の位置情報を導出する。本実施形態では、手の位置は、ダウンスイングシャフト9時の正面シルエットデータの画像上において、グリップ端51aからシャフト52の延びる方向に沿ってヘッド側に所定の長さだけ移動した位置として特定される。
<2-3-1-7. Down swing shaft 9 o'clock>
The second position deriving unit 14d derives position information of the hand in the first plane at the time of the downswing shaft 9 from the silhouette data. In the present embodiment, the position of the hand is specified as a position moved by a predetermined length from the grip end 51a to the head side along the extending direction of the shaft 52 on the image of the front silhouette data at the time of the down swing shaft 9. The

<2−3−1−8.インパクト>
第2位置導出部14dは、スケルトンデータから、インパクト時の第1平面内でのゴルファー7の頭、肩中心、右肩、左肘及び臍の位置情報を導出する。このとき、インパクト時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-8. Impact>
The second position deriving unit 14d derives position information of the head, shoulder center, right shoulder, left elbow, and navel of the golfer 7 in the first plane at the time of impact from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at the time of impact are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

また、第2位置導出部14dは、シルエットデータから、インパクト時の第1平面内での臍左位置及び臍右位置の位置情報を導出する。ここでの臍左位置及び臍右位置からは、インパクト時の腰の幅を特定することができる。また、ここでの臍左位置及び臍右位置の導出方法は、アドレス時の正面シルエットデータの画像に代えて、インパクト時の正面シルエットデータの画像を用いる点を除き、アドレス時と同様である。なお、インパクト時の正面シルエットデータの画像上においては、腕が臍左位置に重なってしまう傾向にあるため、臍左位置を特定するときには、インパクトから所定の時間溯った(例えば、2フレーム前の)画像上で同様の処理を行うことが好ましい。   In addition, the second position deriving unit 14d derives position information of the left navel position and the right navel position in the first plane at the time of impact from the silhouette data. The waist width at the time of impact can be specified from the left navel position and right navel position here. The method for deriving the left umbilicus position and the right umbilicus position here is the same as that at the time of addressing except that the image of the front silhouette data at the time of impact is used instead of the image of the front silhouette data at the time of addressing. Since the arm tends to overlap the left umbilicus position on the front silhouette data image at the time of impact, when the left umbilicus position is specified, a predetermined time has passed from the impact (for example, 2 frames before ) It is preferable to perform the same processing on the image.

次に、第2位置導出部14dは、スケルトンデータから、インパクト時の第2平面内でのゴルファー7の首、腰、右膝及び右足首の位置情報を導出する。このとき、インパクト時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。   Next, the second position deriving unit 14d derives the position information of the neck, waist, right knee, and right ankle of the golfer 7 in the second plane at the time of impact from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right side skeleton data at the time of impact are extracted, and the two-dimensional coordinates are directly used as position information of these parts.

<2−3−2.キャリブレーションパラメータ設定処理>
次に、キャリブレーションパラメータ設定処理について説明する。まず、ゴルファー7が立つ位置の近傍に、スタンド等を介して赤外線を反射する1又は複数のマークを配置する。このマークは、距離画像センサ2F,2Sの両方から撮影可能な位置に配置される。そして、このマークを距離画像センサ2F,2Sにより撮影し、このマークの三次元座標を取得する。ここで、距離画像センサ2Fにより撮影されたマークの三次元座標を(FXi,FYi,FZi)と表し、距離画像センサ2Sにより撮影された同じ位置のマークの三次元座標を(SXi,SYi,SZi)と表す。ただし、i=1,2,・・・,n(n≧2)である。ここでは、マークを移動させる等して、n組のデータセット(FXi,FYi,FZi,SXi,SYi,SZi)を用意する。
<2-3-2. Calibration parameter setting process>
Next, calibration parameter setting processing will be described. First, in the vicinity of the position where the golfer 7 stands, one or more marks that reflect infrared rays through a stand or the like are arranged. This mark is arranged at a position where photographing can be performed from both the distance image sensors 2F and 2S. The mark is photographed by the distance image sensors 2F and 2S, and the three-dimensional coordinates of the mark are acquired. Here, the three-dimensional coordinates of the mark photographed by the distance image sensor 2F are represented as (FXi, FYi, FZi), and the three-dimensional coordinates of the mark at the same position photographed by the distance image sensor 2S are represented by (SXi, SYi, SZi). ). However, i = 1, 2,..., N (n ≧ 2). Here, n data sets (FXi, FYi, FZi, SXi, SYi, SZi) are prepared by moving the mark.

このとき、距離画像センサ2Fの三次元座標を、距離画像センサ2Sの三次元座標へと変換するための変換係数a〜lは、以下の式を満たす。
At this time, conversion coefficients a to l for converting the three-dimensional coordinates of the distance image sensor 2F into the three-dimensional coordinates of the distance image sensor 2S satisfy the following expressions.

以上の式に、n組のデータセット(FXi,FYi,FZi,SXi,SYi,SZi)を代入することにより、変換係数a〜lが算出される。この変換係数a〜lが、キャリブレーションパラメータである。なお、キャリブレーションパラメータは、他の方法でも当然に算出可能である。   By substituting n data sets (FXi, FYi, FZi, SXi, SYi, SZi) into the above equation, conversion coefficients a to l are calculated. These conversion coefficients a to l are calibration parameters. The calibration parameter can be naturally calculated by other methods.

<2−3−3.良否判定処理>
次に、スイング動作の良否の判定を行う良否判定処理について説明する。良否判定処理は、判定部14eにより実行される。
<2-3-3. Pass / Fail Judgment Processing>
Next, a quality determination process for determining quality of the swing motion will be described. The quality determination process is executed by the determination unit 14e.

良否判定処理は、ゴルファー7の様々な部位(左肩71を含む)の位置情報、グリップ端51aの位置情報、及びシャフト52の向きの情報に基づいて、実行される。具体的には、判定部14eは、これらの情報に基づいて、スイング動作の良否の判定を行うための指標値を算出する。指標値としては、様々なものがあり、チェックポイントごとに設定されている。本実施形態では、例えば、以下のような指標値が算出される。以下は、正面の解析を行うための指標値と、右側面の解析を行うための指標値とに分けて列挙している。   The pass / fail determination process is executed based on position information of various parts of the golfer 7 (including the left shoulder 71), position information of the grip end 51a, and information on the orientation of the shaft 52. Specifically, the determination unit 14e calculates an index value for determining whether or not the swing motion is good based on these pieces of information. There are various index values, which are set for each checkpoint. In the present embodiment, for example, the following index values are calculated. The following list is divided into index values for analyzing the front and index values for analyzing the right side.

(アドレス時の指標値−正面)
ボール位置(原点)に対する左足踵の位置、肩幅に対するスタンスの広さ、上半身のバランス、下半身のバランス
なお、肩幅に対するスタンスの広さは、右肩、左肩、左足幅基準位置及び右足幅基準位置の位置情報から、上半身のバランスは、左肩、右肩、左足幅基準位置及び右足幅基準位置の位置情報から、下半身のバランスは、臍左位置、臍右位置、左足幅基準位置及び右足幅基準位置の位置情報から導出することができる。
(Index value at address-front)
The position of the left footpad with respect to the ball position (origin), the width of the stance with respect to the shoulder width, the balance of the upper body, the balance of the lower body The width of the stance with respect to the shoulder width is that of the right shoulder, left shoulder, left foot width reference position and right foot width reference position. From the position information, the upper body balance is the left shoulder, right shoulder, left foot width reference position and right foot width reference position, and the lower body balance is the left navel position, the right navel position, the left foot width reference position, and the right foot width reference position. It can be derived from the position information.

(アドレス時の指標値−右側面)
バランスポイントラインに対する右肩の位置、バランスポイントラインに対する右膝の位置、スパインアングル
なお、右肩の位置は、右肩及び右足先の位置情報から、右膝の位置は、右膝頭及び右足先の位置情報から、スパインアングルは、首及び腰の位置から導出することができる。なお、バランスポイントラインとは、右側面フレーム上において右足先の位置から縦方向に引いたラインのことである。
(Index value at address-right side)
The position of the right shoulder relative to the balance point line, the position of the right knee relative to the balance point line, and the spine angle The position of the right shoulder is based on the position information of the right shoulder and the right foot, and the position of the right knee is the position of the right knee head and the right foot. From the position information, the spine angle can be derived from the neck and waist positions. The balance point line is a line drawn in the vertical direction from the position of the right foot on the right side frame.

(テイクバックシャフト8時の指標値−正面)
グリップ端51aの向き(臍に向かっているか)、理想シャフトラインとの角度差、アドレスからの右肩移動量
なお、グリップ端51aの向きは、グリップ端51aの位置情報、シャフト52aの向き及びアドレス時の臍の位置情報から、理想シャフトラインとの角度差は、シャフト52の角度及び所定の理想角度から、アドレスからの右肩移動量は、右肩の位置情報及びアドレス時の右肩の位置情報から導出することができる。
(Indicator value at 8 o'clock of takeback shaft-front)
The direction of the grip end 51a (toward the navel), the angle difference from the ideal shaft line, the amount of right shoulder movement from the address. The direction of the grip end 51a is the position information of the grip end 51a, the direction of the shaft 52a, and the address. From the position information of the navel at the time, the angle difference from the ideal shaft line is from the angle of the shaft 52 and the predetermined ideal angle, the amount of right shoulder movement from the address is the position information of the right shoulder and the position of the right shoulder at the address It can be derived from information.

(テイクバックシャフト9時の指標値−正面)
アドレス時の基準軸に対するグリップ端51aの位置
なお、本指標値は、グリップ端51aの位置情報、並びにアドレス時の右肩及び肩中心から導出することができる。
(Index value of takeback shaft 9 o'clock-front)
The position of the grip end 51a with respect to the reference axis at the time of addressing The index value can be derived from the position information of the grip end 51a, and the right shoulder and the shoulder center at the time of addressing.

(テイクバック腕水平の指標値−正面)
リストコックの角度、両肘の高さの差、アドレスからの左肩移動量
なお、リストコックの角度は、シャフト52の向きから、アドレスからの左肩移動量は、テイクバック腕水平及びアドレス時の左肩の位置情報から導出することができる。
(Takeback arm horizontal index value-front)
Wrist cock angle, difference in height between both elbows, left shoulder movement from the address Note that the wrist cock angle is from the direction of the shaft 52, and the left shoulder movement from the address is the takeback arm level and the left shoulder at the address. It can be derived from the position information.

両肘の高さの差は、例えば、以下のとおり導出することができる。図56は、テイクバック腕水平時の正面シルエットデータの画像を示している。ここでは、まず、上述した枠L1の他、グリップ端51a及び左肩71の位置を基準として図56に示すような枠L8,L9が設定される。次に、テイクバック腕水平時の正面シルエットデータの画像上において、図56に示す2つの参照点が特定され、これらの参照点間の幅が指標値として導出される。そして、当該指標値が所定値よりも大きい場合には、テイクバック腕水平時の正面シルエットデータの画像上において、参照点を結ぶ線分が特定される。続いて、テイクバック腕水平時の正面深度フレームから、当該線分上の深度情報が導出される。そして、枠L8内に含まれる当該線分上の点の深度情報に基づく深度と、枠L9内に含まれる当該線分上の点の深度情報に基づく深度との差が指標値として導出され、当該指標値の大小に応じて、左肘と右肘のどちらが高いかが判定される。   The difference in height between both elbows can be derived, for example, as follows. FIG. 56 shows an image of front silhouette data when the takeback arm is horizontal. Here, first, frames L8 and L9 as shown in FIG. 56 are set based on the positions of the grip end 51a and the left shoulder 71 in addition to the frame L1 described above. Next, two reference points shown in FIG. 56 are identified on the image of the front silhouette data when the takeback arm is horizontal, and the width between these reference points is derived as an index value. When the index value is larger than the predetermined value, a line segment connecting the reference points is specified on the image of the front silhouette data when the takeback arm is horizontal. Subsequently, depth information on the line segment is derived from the front depth frame when the takeback arm is horizontal. And the difference between the depth based on the depth information of the point on the line segment included in the frame L8 and the depth based on the depth information of the point on the line segment included in the frame L9 is derived as an index value. Whether the left elbow or the right elbow is higher is determined according to the magnitude of the index value.

(テイクバック腕水平の指標値−右側面)
アドレスを基準とするスパインアングル
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから導出することができる。
(Takeback arm horizontal index value-right side)
The spine angle based on the address The spine angle can be derived from the position information of the neck and waist and the spine angle at the address.

(トップの指標値−正面)
オーバースイング、上半身の反り、アドレスからの左右移動量、アドレスを基準とする右膝の位置、アドレスを基準とする頭の位置、アドレスを基準とする左肩の位置
なお、オーバースイングは、シャフト52の角度から、上半身の反りは、頭及び臍の位置情報から、左右移動量は、臍右位置及び臍位置の位置情報並びにアドレス時の右足幅基準位置及び臍の位置情報から、右膝の位置は、右膝の位置情報及びアドレス時の右足幅基準位置の位置情報から、頭の位置は、頭の位置及びアドレス時の右足幅基準位置の位置から、上記左肩の位置は、左肩の位置情報並びにアドレス時の左肩及び肩中心の位置情報から導出することができる。
(Top index value-front)
Overswing, upper body warp, left / right movement from address, right knee position based on address, head position based on address, left shoulder position based on address From the angle, the upper body warp is from the head and umbilical position information, the left and right movement is the right umbilical position and umbilical position position information, the right foot width reference position at the address and the umbilical position information, the right knee position is From the position information of the right knee and the reference position of the right foot width at the time of address, the position of the head from the position of the head and the reference position of the right foot width at the time of address, the position of the left shoulder is the position information of the left shoulder and It can be derived from the position information of the left shoulder and the shoulder center at the time of addressing.

(トップの指標値−右側面)
アドレスからの右膝の移動量、アドレスからの左膝の移動量、アドレスを基準とする手首の位置、両肘の高さ、アドレスを基準とするスパインアングル
なお、右膝の移動量は、右膝頭及びアドレス時の右膝頭の位置情報から、左膝の移動量は、左膝頭及びアドレス時の左膝頭の位置情報から、手首の位置は、首及びグリップ端51aの位置情報並びにアドレス時の右肘及びボール(原点)の位置情報から、両肘の高さは、左肘及び右肘の位置情報から、スパインアングルは、首及び腰の位置情報並びにアドレス時のスパインアングルから導出することができる。
(Top index value-right side)
The amount of movement of the right knee from the address, the amount of movement of the left knee from the address, the wrist position based on the address, the height of both elbows, and the spine angle based on the address. From the position information of the right knee head at the time of knee head and address, the amount of movement of the left knee is from the position information of the left knee head and the left knee head at the time of address, and the position of the wrist is the position information of the neck and grip end 51a and the right at the time of addressing From the position information of the elbow and the ball (origin), the height of both elbows can be derived from the position information of the left and right elbows, and the spine angle can be derived from the position information of the neck and waist and the spine angle at the time of addressing.

(ダウンスイング腕水平の指標値−正面)
リストコックの角度、アドレス時の左足幅基準位置に対する左膝の位置
なお、リストコックの角度は、シャフト52の向きから、左膝の位置は、左膝の位置情報及びアドレス時の左足幅基準位置の位置情報から導出することができる。
(Down swing arm horizontal index value-front)
Wrist cock angle, left knee position relative to left foot width reference position at address Note that the wrist cock angle is based on the orientation of the shaft 52, the left knee position is the left knee position information and the left foot width reference position at the address It can be derived from the position information.

(ダウンスイング腕水平の指標値−右側面)
アドレスを基準とするスパインアングル
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから導出することができる。
(Down swing arm horizontal index value-right side)
The spine angle based on the address The spine angle can be derived from the position information of the neck and waist and the spine angle at the address.

(ダウンスイングシャフト9時の指標値−正面)
リストコックの角度の変化、アドレス時の基準軸に対するグリップ端51aの位置
なお、リストコックの角度の変化は、シャフト52の向き、左肩の位置情報及びグリップ端51aの位置情報、並びにダウンスイング腕水平時のシャフト52の向きから、グリップ端51aの位置は、グリップ端51aの位置情報並びにアドレス時の右肩及び肩中心の位置情報から導出することができる。
(Indicator value for down swing shaft 9 o'clock-front)
Wrist cock angle change, position of grip end 51a with respect to reference axis at address. Wrist cock angle change depends on shaft 52 orientation, left shoulder position information and grip end 51a position information, and downswing arm level. From the orientation of the shaft 52 at the time, the position of the grip end 51a can be derived from the position information of the grip end 51a and the position information of the right shoulder and the center of the shoulder at the time of addressing.

(インパクトの指標値−正面)
左右移動量、上下移動量、頭の位置、肩の回転量、スパインの傾き、左肘の引け、アドレス時の基準軸に対するグリップ端51aの位置
なお、左右移動量は、臍の位置情報並びにアドレス時の左肩、右肩及び肩中心の位置情報から、上下移動量は、アドレス時及びインパクト時の臍の位置情報から、頭の位置は、頭の位置情報並びにアドレス時の左肩及び肩中心の位置情報から、肩の回転量は、左肩及び右肩の位置情報並びにアドレス時の左肩及び右肩の位置情報から、スパインの傾きは、臍及び肩中心の位置情報から、左肘の引けは、左肘、左肩及びグリップ端51aの位置情報から、グリップ端51aの位置は、グリップ端51aの位置情報並びにアドレス時の左肩及び肩中心の位置情報から導出することができる。
(Impact index value-front)
Left / right movement amount, vertical movement amount, head position, shoulder rotation amount, spine tilt, left elbow closure, position of grip end 51a with respect to the reference axis at the time of address. From the position information of the left shoulder, right shoulder and center of the shoulder at the time, the vertical movement amount is from the position information of the navel at the time of addressing and impact, the position of the head is the position information of the head and the position of the left shoulder and the center of the shoulder at the time of addressing From the information, the amount of rotation of the shoulder is the position information of the left shoulder and the right shoulder and the position information of the left shoulder and the right shoulder at the time of addressing, the inclination of the spine is the position information of the umbilicus and the center of the shoulder, the left elbow is From the position information of the elbow, the left shoulder and the grip end 51a, the position of the grip end 51a can be derived from the position information of the grip end 51a and the position information of the left shoulder and the shoulder center at the time of addressing.

(インパクトの指標値−右側面)
アドレスを基準とするスパインアングル、アドレスを基準とする膝の角度
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから、膝の角度は、腰、右膝及び右足首の位置情報、並びにアドレス時の腰、右膝及び右足首の位置情報から導出することができる。
(Impact index value-right side)
The spine angle based on the address and the knee angle based on the address Note that the spine angle is the position of the waist, right knee, and right ankle based on the information on the position of the neck and waist and the spine angle at the time of the address. It can be derived from the information and positional information of the waist, right knee and right ankle at the time of addressing.

本実施形態では、以上のような指標値の正解データ(スイング動作が良好と判定されるときの指標値の範囲)が、記憶部13内に予め設定されている。判定部12eは、この正解データと、算出された指標値とを比較することにより、各指標値についてスイング動作の良否を判定する。また、各指標値についての判定結果にポイントを付与しこれを加算する等して、スイング動作の良否を総合評価することもできる。判定結果は、適宜、表示部11上に表示される。例えば、報告書の形式で、各指標値についての判定結果の一覧及び総合評価を表示することができる。   In the present embodiment, the correct data of the index value as described above (the range of the index value when the swing motion is determined to be good) is preset in the storage unit 13. The determination unit 12e determines the quality of the swing motion for each index value by comparing the correct answer data with the calculated index value. Also, it is possible to comprehensively evaluate the quality of the swing motion by giving points to the determination result for each index value and adding the points. The determination result is appropriately displayed on the display unit 11. For example, a list of determination results for each index value and a comprehensive evaluation can be displayed in the form of a report.

1 スイング解析装置
2 距離画像センサ
3 スイング解析プログラム
5 ゴルフクラブ
7 ゴルファー
14a 取得部
14b 位置導出部(導出部)
14c 向き導出部(導出部)
51 グリップ
52 シャフト
71 左肩
100 スイング解析システム
DESCRIPTION OF SYMBOLS 1 Swing analysis apparatus 2 Distance image sensor 3 Swing analysis program 5 Golf club 7 Golfer 14a Acquisition part 14b Position derivation | leading-out part (derivation | leading-out part)
14c Direction derivation unit (derivation unit)
51 Grip 52 Shaft 71 Left shoulder 100 Swing analysis system

Claims (31)

ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出する導出部と
を備える、
スイング解析装置。
A swing analysis device for analyzing a swing motion of a golf club by a golfer,
An acquisition unit for acquiring a depth image obtained by capturing the swing motion by a distance image sensor;
Based on the depth image, a derivation unit that derives position information of a predetermined part of the golf club or the golfer during the swing operation or a direction of a shaft of the golf club during the swing operation With
Swing analysis device.
前記取得部は、前記距離画像センサから二次元画像をさらに取得し、
前記導出部は、前記二次元画像に基づいて、前記所定の部位の二次元座標を特定するとともに、前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記所定の部位の三次元座標を導出する、
請求項1に記載のスイング解析装置。
The acquisition unit further acquires a two-dimensional image from the distance image sensor,
The derivation unit specifies the two-dimensional coordinates of the predetermined part based on the two-dimensional image, and specifies the depth of the predetermined part based on the depth image, thereby Derive 3D coordinates,
The swing analysis apparatus according to claim 1.
前記導出部は、第1時刻での前記二次元画像上において、前記第1時刻よりも前の第2時刻での前記所定の部位の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記所定の部位の二次元座標を探索する、
請求項2に記載のスイング解析装置。
The derivation unit sets a search range on the basis of the two-dimensional coordinates of the predetermined part at a second time before the first time on the two-dimensional image at the first time, and the search range Search for the two-dimensional coordinates of the predetermined part,
The swing analysis apparatus according to claim 2.
前記所定の部位は、前記ゴルフクラブのグリップである、
請求項1から3のいずれかに記載のスイング解析装置。
The predetermined part is a grip of the golf club;
The swing analysis apparatus according to any one of claims 1 to 3.
前記所定の部位は、前記ゴルフクラブのグリップであり、
前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの二次元座標を特定する、
請求項2又は3に記載のスイング解析装置。
The predetermined part is a grip of the golf club;
The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the two-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
The swing analysis apparatus according to claim 2 or 3.
前記所定の部位は、前記ゴルフクラブのグリップであり、
前記取得部は、前記距離画像センサから二次元画像をさらに取得し、
前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記深度画像に基づいて、前記シャフトの二次元座標での奥行きを特定することにより、前記シャフトの三次元座標を導出し、前記シャフトの三次元座標の分布傾向に基づいて、前記グリップの三次元座標を特定する、
請求項1に記載のスイング解析装置。
The predetermined part is a grip of the golf club;
The acquisition unit further acquires a two-dimensional image from the distance image sensor,
The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the depth in the two-dimensional coordinates of the shaft based on the depth image. And the three-dimensional coordinates of the grip are specified based on the distribution tendency of the three-dimensional coordinates of the shaft.
The swing analysis apparatus according to claim 1.
前記二次元画像及び前記深度画像は、前記スイング動作を前記距離画像センサにより前記ゴルファーの前方から撮影した情報であり、
前記導出部は、アドレス付近での前記二次元画像に基づいて、前記シャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの三次元座標を特定する、
請求項5又は6に記載の解析装置。
The two-dimensional image and the depth image are information obtained by photographing the swing motion from the front of the golfer with the distance image sensor,
The derivation unit specifies the two-dimensional coordinates of the shaft based on the two-dimensional image near the address, and specifies the three-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
The analysis device according to claim 5 or 6.
前記導出部は、前記スイング動作のフェーズに応じて閾値を自動又は固定の間で切り替えつつ、前記二次元画像を二値化する、
請求項2,3,5〜7のいずれに記載の解析装置。
The derivation unit binarizes the two-dimensional image while switching a threshold value between automatic and fixed according to the phase of the swing operation.
The analysis device according to claim 2.
前記導出部は、前記スイング動作中のトップ付近のフェーズでは、前記ゴルファーの頭の位置を基準として、前記探索範囲の設定位置を制限する、
請求項3に記載の解析装置。
The derivation unit restricts the set position of the search range in the phase near the top during the swing operation with reference to the position of the head of the golfer.
The analysis device according to claim 3.
前記取得部は、前記距離画像センサから時系列の二次元画像をさらに取得し、
前記導出部は、第1時刻での前記二次元画像から前記ゴルフクラブのグリップの位置が抽出できない場合には、前記第1時刻の直後の第2時刻での前記二次元画像から前記ゴルフクラブのシャフトの位置を特定し、当該シャフトの位置に基づいて当該第2時刻における前記グリップの位置を特定する、
請求項1に記載の解析装置。
The acquisition unit further acquires a time-series two-dimensional image from the distance image sensor,
If the position of the grip of the golf club cannot be extracted from the two-dimensional image at the first time, the derivation unit can determine the golf club from the two-dimensional image at the second time immediately after the first time. Identifying the position of the shaft, and identifying the position of the grip at the second time based on the position of the shaft;
The analysis device according to claim 1.
前記所定の部位は、前記ゴルファーの肩である、
請求項1に記載のスイング解析装置。
The predetermined part is a shoulder of the golfer;
The swing analysis apparatus according to claim 1.
前記取得部は、人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記深度画像及び前記スケルトンデータに基づいて、前記肩の三次元座標を導出する、
請求項11に記載のスイング解析装置。
The acquisition unit further acquires skeleton data representing a skeleton of a human body,
The derivation unit derives the three-dimensional coordinates of the shoulder based on the depth image and the skeleton data.
The swing analysis apparatus according to claim 11.
前記導出部は、中央部分を強調し、周辺部分を抑制する凸部抽出フィルタにより、前記深度画像をフィルタリングすることで、前記肩の三次元座標を導出する、
請求項11又は12に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by filtering the depth image with a convex extraction filter that emphasizes a central part and suppresses a peripheral part.
The swing analysis apparatus according to claim 11 or 12.
前記導出部は、前記深度画像に対し凸形状の画像テンプレートを用いてテンプレートマッチングを施すことで、前記肩の三次元座標を導出する、
請求項11又は12に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by applying template matching to the depth image using a convex image template.
The swing analysis apparatus according to claim 11 or 12.
前記導出部は、1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記ゴルファーの肩の三次元座標を導出する、
請求項11から14のいずれかに記載のスイング解析装置。
The derivation unit derives three-dimensional coordinates of the golfer's shoulder by filtering the depth image by a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner.
The swing analysis apparatus according to any one of claims 11 to 14.
前記導出部は、アドレスからテイクバック腕水平までの少なくとも一部の区間において、前記スケルトンデータに基づいて、前記肩の三次元座標を導出する、
請求項12に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder based on the skeleton data in at least a part of the section from the address to the takeback arm horizontal.
The swing analysis apparatus according to claim 12.
前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸部抽出フィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する、
請求項13に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by performing filtering by the convex portion extraction filter in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal.
The swing analysis apparatus according to claim 13.
前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸形状の画像テンプレートによるテンプレートマッチングを行うことで、前記肩の三次元座標を導出する、
請求項14に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by performing template matching with the convex image template in at least a partial section from the takeback arm horizontal to the downswing arm horizontal.
The swing analysis apparatus according to claim 14.
前記導出部は、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する、
請求項15に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by performing filtering by the shoulder silhouette filter in at least a part of the section from the address to the takeback arm level and the downswing arm level to the finish.
The swing analysis apparatus according to claim 15.
前記導出部は、第1時刻での前記深度画像上において、前記第1時刻又は前記第1時刻よりも前の第2時刻での前記肩の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記フィルタリングを行う、
請求項11から19のいずれかに記載のスイング解析装置。
The derivation unit sets a search range on the basis of the two-dimensional coordinates of the shoulder at the first time or the second time before the first time on the depth image at the first time, Performing the filtering within the search range;
The swing analysis apparatus according to any one of claims 11 to 19.
前記導出部は、予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行う、
請求項1から20のいずれかに記載のスイング解析装置。
The derivation unit performs calibration by substituting the three-dimensional coordinates of the predetermined part into a predetermined multiple regression equation having a predetermined coefficient.
The swing analysis apparatus according to any one of claims 1 to 20.
前記取得部は、前記スイング動作を複数の前記距離画像センサにより少なくとも第1方向及び第2方向から撮影した前記深度画像を取得する、
請求項1から21のいずれかに記載のスイング解析装置。
The acquisition unit acquires the depth image obtained by capturing the swing motion from at least a first direction and a second direction by a plurality of the distance image sensors.
The swing analysis apparatus according to any one of claims 1 to 21.
前記取得部は、少なくとも前記第1方向からの前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記第1方向からの前記スケルトンデータを前記第2方向からの前記スケルトンデータに変換し、前記第2方向からの前記スケルトンデータに基づいて、前記所定の部位の位置情報を導出する、
請求項22に記載のスイング解析装置。
The acquisition unit further acquires skeleton data representing a skeleton of a human body based on at least the depth image from the first direction,
The derivation unit converts the skeleton data from the first direction into the skeleton data from the second direction, and derives position information of the predetermined part based on the skeleton data from the second direction. To
The swing analysis apparatus according to claim 22.
前記第1方向は、前記ゴルファーの正面に向かう方向であり、前記第2方向は、前記ゴルファーの側面に向かう方向である、
請求項22又は23に記載のスイング解析装置。
The first direction is a direction toward the front of the golfer, and the second direction is a direction toward the side of the golfer.
The swing analysis apparatus according to claim 22 or 23.
前記取得部は、前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出する、
請求項1から24のいずれかに記載のスイング解析装置。
The acquisition unit further acquires skeleton data representing a human body skeleton based on the depth image,
The deriving unit derives position information of a first part included in the predetermined part based on the skeleton data;
The swing analysis apparatus according to any one of claims 1 to 24.
前記取得部は、人体のシルエットを表すシルエットデータをさらに取得し、
前記導出部は、前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出する、
請求項25に記載のスイング解析装置。
The acquisition unit further acquires silhouette data representing a silhouette of a human body,
The derivation unit derives position information of a second part different from the first part included in the predetermined part based on the skeleton data and the silhouette data.
The swing analysis apparatus according to claim 25.
前記導出部は、前記深度画像において深度情報が得られていない領域の情報に基づいて、前記シルエットデータにおいて特定される前記シルエットの領域を拡張する、
請求項1から26のいずれかに記載のスイング解析装置。
The derivation unit expands the region of the silhouette specified in the silhouette data based on information of a region where depth information is not obtained in the depth image.
The swing analysis apparatus according to any one of claims 1 to 26.
前記導出部は、トップのタイミングにおける前記ゴルファーの右側面側からの前記深度画像において、手前側に突出している箇所を前記ゴルファーの左肘として導出する、
請求項1から27のいずれかに記載のスイング解析装置。
In the depth image from the right side of the golfer at the timing of the top, the deriving unit derives a position protruding to the near side as the left elbow of the golfer.
The swing analysis apparatus according to any one of claims 1 to 27.
所定のタイミングにおける前記所定の部位の位置情報及び前記三次元ベクトルの少なくとも一方に基づいて算出される指標値を、予め定められている正解データと比較することにより、前記スイング動作の良否を判定する判定部
をさらに備える、
請求項1から28のいずれかに記載のスイング解析装置。
The quality of the swing motion is determined by comparing an index value calculated based on at least one of the position information of the predetermined part and the three-dimensional vector at a predetermined timing with predetermined correct answer data. A determination unit;
The swing analysis apparatus according to any one of claims 1 to 28.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップと
を備える、
スイング解析方法。
A swing analysis method for analyzing a swing motion of a golf club by a golfer,
Obtaining a depth image obtained by photographing the swing motion by a distance image sensor;
Deriving, based on the depth image, a position information of a predetermined part of the golf club or the golfer during the swing operation, or a three-dimensional vector representing a direction of a shaft of the golf club during the swing operation; Comprising
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップと
をコンピュータに実行させる、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer,
Obtaining a depth image obtained by photographing the swing motion by a distance image sensor;
Deriving, based on the depth image, a position information of a predetermined part of the golf club or the golfer during the swing operation, or a three-dimensional vector representing a direction of a shaft of the golf club during the swing operation; To run on a computer,
Swing analysis program.
JP2015250470A 2014-12-25 2015-12-22 Swing analyzer, method and program Active JP6944144B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014263590 2014-12-25
JP2014263590 2014-12-25
JP2015205930 2015-10-19
JP2015205930 2015-10-19

Publications (2)

Publication Number Publication Date
JP2017074350A true JP2017074350A (en) 2017-04-20
JP6944144B2 JP6944144B2 (en) 2021-10-06

Family

ID=58550587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015250470A Active JP6944144B2 (en) 2014-12-25 2015-12-22 Swing analyzer, method and program

Country Status (1)

Country Link
JP (1) JP6944144B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021118501A (en) * 2020-01-29 2021-08-10 Kddi株式会社 Video conversion method, device and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218783A (en) * 2004-02-09 2005-08-18 Sumitomo Rubber Ind Ltd Golf swing measuring system and golf club
JP2005270480A (en) * 2004-03-26 2005-10-06 Sumitomo Rubber Ind Ltd Golf swing measuring system
JP2011177341A (en) * 2010-03-01 2011-09-15 Sri Sports Ltd Diagnosing method of golf swing
US20120053015A1 (en) * 2010-08-31 2012-03-01 Microsoft Corporation Coordinated Motion and Audio Experience Using Looped Motions
WO2012039467A1 (en) * 2010-09-22 2012-03-29 パナソニック株式会社 Exercise assistance system
JP2012123781A (en) * 2010-11-19 2012-06-28 Canon Inc Information processing device, information processing system and information processing method
JP2013116311A (en) * 2011-11-04 2013-06-13 Konami Digital Entertainment Co Ltd Game device, detail presentation method, and program
JP2013215349A (en) * 2012-04-06 2013-10-24 Bridgestone Corp Swing simulation system, simulation apparatus, and simulation method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218783A (en) * 2004-02-09 2005-08-18 Sumitomo Rubber Ind Ltd Golf swing measuring system and golf club
JP2005270480A (en) * 2004-03-26 2005-10-06 Sumitomo Rubber Ind Ltd Golf swing measuring system
JP2011177341A (en) * 2010-03-01 2011-09-15 Sri Sports Ltd Diagnosing method of golf swing
US20120053015A1 (en) * 2010-08-31 2012-03-01 Microsoft Corporation Coordinated Motion and Audio Experience Using Looped Motions
WO2012039467A1 (en) * 2010-09-22 2012-03-29 パナソニック株式会社 Exercise assistance system
JP2012123781A (en) * 2010-11-19 2012-06-28 Canon Inc Information processing device, information processing system and information processing method
JP2013116311A (en) * 2011-11-04 2013-06-13 Konami Digital Entertainment Co Ltd Game device, detail presentation method, and program
JP2013215349A (en) * 2012-04-06 2013-10-24 Bridgestone Corp Swing simulation system, simulation apparatus, and simulation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021118501A (en) * 2020-01-29 2021-08-10 Kddi株式会社 Video conversion method, device and program
JP7264838B2 (en) 2020-01-29 2023-04-25 Kddi株式会社 VIDEO CONVERSION METHOD, APPARATUS AND PROGRAM

Also Published As

Publication number Publication date
JP6944144B2 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP6573354B2 (en) Image processing apparatus, image processing method, and program
JP5618569B2 (en) Position and orientation estimation apparatus and method
CN108475439B (en) Three-dimensional model generation system, three-dimensional model generation method, and recording medium
CN108986164B (en) Image-based position detection method, device, equipment and storage medium
US10444617B2 (en) Image processing apparatus and image processing method
US8824781B2 (en) Learning-based pose estimation from depth maps
US9159134B2 (en) Method and apparatus for estimating a pose
JP5873442B2 (en) Object detection apparatus and object detection method
US20100289797A1 (en) Position and orientation estimation apparatus and method
JP7427188B2 (en) 3D pose acquisition method and device
JP5898014B2 (en) Posture estimation apparatus, posture estimation method, and posture estimation program
KR101913667B1 (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
CN106462738B (en) Method for constructing a model of a person&#39;s face, method and apparatus for analyzing a pose using such a model
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
Yamauchi et al. Recognition of walking humans in 3D: Initial results
KR20140114594A (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP7318814B2 (en) DATA GENERATION METHOD, DATA GENERATION PROGRAM AND INFORMATION PROCESSING DEVICE
JP6944144B2 (en) Swing analyzer, method and program
US20200226787A1 (en) Information processing apparatus, information processing method, and program
KR101394279B1 (en) Method for recognition of user&#39;s motion by analysis of depth image and apparatus for analyzing user&#39;s motion using the same
JP5032415B2 (en) Motion estimation apparatus and program
US11263780B2 (en) Apparatus, method, and program with verification of detected position information using additional physical characteristic points
Cheng et al. Capturing human motion in natural environments

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6944144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150