JP6944144B2 - Swing analyzer, method and program - Google Patents

Swing analyzer, method and program Download PDF

Info

Publication number
JP6944144B2
JP6944144B2 JP2015250470A JP2015250470A JP6944144B2 JP 6944144 B2 JP6944144 B2 JP 6944144B2 JP 2015250470 A JP2015250470 A JP 2015250470A JP 2015250470 A JP2015250470 A JP 2015250470A JP 6944144 B2 JP6944144 B2 JP 6944144B2
Authority
JP
Japan
Prior art keywords
swing
image
dimensional coordinates
depth
golfer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015250470A
Other languages
Japanese (ja)
Other versions
JP2017074350A (en
Inventor
祐樹 永野
祐樹 永野
伸敬 島田
伸敬 島田
良明 白井
良明 白井
植田 勝彦
勝彦 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Original Assignee
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Ritsumeikan Trust filed Critical Sumitomo Rubber Industries Ltd
Publication of JP2017074350A publication Critical patent/JP2017074350A/en
Application granted granted Critical
Publication of JP6944144B2 publication Critical patent/JP6944144B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置、方法及びプログラムに関する。 The present invention relates to a swing analysis device, method and program for analyzing the swing motion of a golf club by a golfer.

従来より、ゴルファーによるゴルフクラブのスイング動作をカメラで撮影し、得られた画像に基づいてスイング動作を解析する装置が公知である(特許文献1,2等)。解析の結果は、ゴルファーに適したゴルフクラブのフィッティングや、ゴルファーのフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。 Conventionally, there are known devices that capture the swing motion of a golf club by a golfer with a camera and analyze the swing motion based on the obtained image (Patent Documents 1, 2, etc.). The results of the analysis will be used for various purposes such as fitting golf clubs suitable for golfers, improving the form of golfers, and developing golf equipment.

特開2013−215349号公報Japanese Unexamined Patent Publication No. 2013-215349 特開2004−313479号公報Japanese Unexamined Patent Publication No. 2004-313479

以上のようなスイング動作の解析においては、しばしば、画像に写るゴルフクラブのグリップやヘッド、ゴルファーの関節等、注目部位の挙動を三次元的に特定することが行われる。特許文献1,2は、複数台のカメラにより複数の方向からスイング動作を撮影し、三角測量法やDLT法等に基づいて注目部位の三次元座標を導出することを開示している。しかしながら、複数の方向にカメラを配置しなくてはならないことは、設備を大型化させ、スイング解析を行うためのスペースの確保を困難にさせ得る。また、このような三次元計測は、解析の精度や計算負荷等の点からして、少なからず改善の余地がある。 In the analysis of the swing motion as described above, the behavior of the part of interest such as the grip and head of the golf club and the joint of the golfer shown in the image is often three-dimensionally specified. Patent Documents 1 and 2 disclose that swing motions are photographed from a plurality of directions by a plurality of cameras, and three-dimensional coordinates of a region of interest are derived based on a triangulation method, a DLT method, or the like. However, having to arrange the cameras in a plurality of directions may increase the size of the equipment and make it difficult to secure a space for swing analysis. In addition, such three-dimensional measurement has room for improvement in terms of analysis accuracy, calculation load, and the like.

本発明は、簡易かつ高精度にスイング動作を解析することができるスイング解析装置、方法及びプログラムを提供することを目的とする。 An object of the present invention is to provide a swing analysis device, a method and a program capable of analyzing a swing motion easily and with high accuracy.

本発明の第1観点に係るスイング解析装置は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、取得部と、導出部とを備える。前記取得部は、前記スイング動作を距離画像センサにより撮影した深度画像を取得する。前記導出部は、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出する。 The swing analysis device according to the first aspect of the present invention is a swing analysis device for analyzing the swing motion of a golf club by a golfer, and includes an acquisition unit and a derivation unit. The acquisition unit acquires a depth image obtained by capturing the swing motion with a distance image sensor. Based on the depth image, the derivation unit is a three-dimensional vector representing the position information of a predetermined portion of the golf club or the golfer during the swing operation, or the orientation of the shaft of the golf club during the swing operation. Is derived.

本発明の第2観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記取得部は、前記距離画像センサから二次元画像をさらに取得する。前記導出部は、前記二次元画像に基づいて、前記所定の部位の二次元座標を特定するとともに、前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記所定の部位の三次元座標を導出する。 The swing analysis device according to the second aspect of the present invention is the swing analysis device according to the first aspect, and the acquisition unit further acquires a two-dimensional image from the distance image sensor. The derivation unit specifies the two-dimensional coordinates of the predetermined portion based on the two-dimensional image, and specifies the depth of the predetermined portion based on the depth image, thereby determining the depth of the predetermined portion. Derivation of three-dimensional coordinates.

本発明の第3観点に係るスイング解析装置は、第2観点に係るスイング解析装置であって、前記導出部は、第1時刻での前記二次元画像上において、前記第1時刻よりも前の第2時刻での前記所定の部位の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記所定の部位の二次元座標を探索する。 The swing analysis device according to the third aspect of the present invention is the swing analysis device according to the second aspect, and the derivation unit is on the two-dimensional image at the first time before the first time. A search range is set based on the two-dimensional coordinates of the predetermined part at the second time, and the two-dimensional coordinates of the predetermined part are searched within the search range.

本発明の第4観点に係るスイング解析装置は、第1観点から第3観点のいずれかに係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。 The swing analysis device according to the fourth aspect of the present invention is a swing analysis device according to any one of the first to third aspects, and the predetermined portion is a grip of the golf club.

本発明の第5観点に係るスイング解析装置は、第2観点又は第3観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの二次元座標を特定する。 The swing analysis device according to the fifth aspect of the present invention is the swing analysis device according to the second or third aspect, and the predetermined portion is the grip of the golf club. The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the two-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.

本発明の第6観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。前記取得部は、前記距離画像センサから二次元画像をさらに取得する。前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記深度画像に基づいて、前記シャフトの二次元座標での奥行きを特定することにより、前記シャフトの三次元座標を導出し、前記シャフトの三次元座標の分布傾向に基づいて、前記グリップの三次元座標を特定する。 The swing analysis device according to the sixth aspect of the present invention is the swing analysis device according to the first aspect, and the predetermined portion is a grip of the golf club. The acquisition unit further acquires a two-dimensional image from the distance image sensor. The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the depth of the shaft in the two-dimensional coordinates based on the depth image, thereby causing the shaft. Is derived, and the three-dimensional coordinates of the grip are specified based on the distribution tendency of the three-dimensional coordinates of the shaft.

本発明の第7観点に係るスイング解析装置は、第5観点又は第6観点に係るスイング解析装置であって、前記二次元画像及び前記深度画像は、前記スイング動作を前記距離画像センサにより前記ゴルファーの前方から撮影した情報である。前記導出部は、アドレス付近での前記二次元画像に基づいて、前記シャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの三次元座標を特定する。 The swing analysis device according to the seventh aspect of the present invention is the swing analysis device according to the fifth or sixth aspect, and the two-dimensional image and the depth image are the golfer who performs the swing operation by the distance image sensor. This is information taken from the front of. The derivation unit specifies the two-dimensional coordinates of the shaft based on the two-dimensional image near the address, and specifies the three-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.

本発明の第8観点に係るスイング解析装置は、第2,3,5〜7観点のいずれに係るスイング解析装置であって、前記導出部は、前記スイング動作のフェーズに応じて閾値を自動又は固定の間で切り替えつつ、前記二次元画像を二値化する。 The swing analysis device according to the eighth aspect of the present invention is a swing analysis device according to any of the second, third, and fifth viewpoints, and the derivation unit automatically or sets a threshold value according to the phase of the swing operation. The two-dimensional image is binarized while switching between fixed.

本発明の第9観点に係るスイング解析装置は、第3観点に係るスイング解析装置であって、前記導出部は、前記スイング動作中のトップ付近のフェーズでは、前記ゴルファーの頭の位置を基準として、前記探索範囲の設定位置を制限する。 The swing analysis device according to the ninth aspect of the present invention is the swing analysis device according to the third aspect, and the derivation unit uses the position of the golfer's head as a reference in the phase near the top during the swing operation. , Limit the setting position of the search range.

本発明の第10観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記取得部は、前記距離画像センサから時系列の二次元画像をさらに取得する。前記導出部は、第1時刻での前記二次元画像から前記ゴルフクラブのグリップの位置が抽出できない場合には、前記第1時刻の直後の第2時刻での前記二次元画像から前記ゴルフクラブのシャフトの位置を特定し、当該シャフトの位置に基づいて当該第2時刻における前記グリップの位置を特定する。 The swing analysis device according to the tenth aspect of the present invention is the swing analysis device according to the first aspect, and the acquisition unit further acquires a time-series two-dimensional image from the distance image sensor. When the position of the grip of the golf club cannot be extracted from the two-dimensional image at the first time, the derivation unit of the golf club from the two-dimensional image at the second time immediately after the first time. The position of the shaft is specified, and the position of the grip at the second time is specified based on the position of the shaft.

本発明の第11観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルファーの肩である。 The swing analysis device according to the eleventh aspect of the present invention is the swing analysis device according to the first aspect, and the predetermined portion is the shoulder of the golfer.

本発明の第12観点に係るスイング解析装置は、第11観点に係るスイング解析装置であって、前記取得部は、人体の骨組みを表すスケルトンデータをさらに取得し、前記導出部は、前記深度画像及び前記スケルトンデータに基づいて、前記肩の三次元座標を導出する。 The swing analysis device according to the twelfth aspect of the present invention is the swing analysis device according to the eleventh aspect, the acquisition unit further acquires skeleton data representing the skeleton of the human body, and the derivation unit is the depth image. And, based on the skeleton data, the three-dimensional coordinates of the shoulder are derived.

本発明の第13観点に係るスイング解析装置は、第11観点又は第12観点に係るスイング解析装置であって、前記導出部は、中央部分を強調し、周辺部分を抑制する凸部抽出フィルタにより、前記深度画像をフィルタリングすることで、前記肩の三次元座標を導出する。 The swing analysis apparatus according to the thirteenth aspect of the present invention is a swing analysis apparatus according to the eleventh aspect or the twelfth aspect, and the derivation part uses a convex portion extraction filter that emphasizes the central portion and suppresses the peripheral portion. , The three-dimensional coordinates of the shoulder are derived by filtering the depth image.

本発明の第14観点に係るスイング解析装置は、第11観点又は第12観点に係るスイング解析装置であって、前記導出部は、前記深度画像に対し凸形状の画像テンプレートを用いてテンプレートマッチングを施すことで、前記肩の三次元座標を導出する。 The swing analysis device according to the 14th viewpoint of the present invention is a swing analysis device according to the 11th viewpoint or the 12th viewpoint, and the derivation unit performs template matching using a convex image template with respect to the depth image. By applying, the three-dimensional coordinates of the shoulder are derived.

本発明の第15観点に係るスイング解析装置は、第11観点から第14観点のいずれかに係るスイング解析装置であって、前記導出部は、1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記ゴルファーの肩の三次元座標を導出する。 The swing analysis device according to the fifteenth aspect of the present invention is a swing analysis device according to any one of the eleventh viewpoint to the fourteenth viewpoint, and the derivation unit emphasizes the vicinity of one corner and the vicinity of the other corner. By filtering the depth image with the suppressing shoulder silhouette filter, the three-dimensional coordinates of the golfer's shoulder are derived.

本発明の第16観点に係るスイング解析装置は、第12観点に係るスイング解析装置であって、前記導出部は、アドレスからテイクバック腕水平までの少なくとも一部の区間において、前記スケルトンデータに基づいて、前記肩の三次元座標を導出する。 The swing analysis device according to the 16th aspect of the present invention is the swing analysis device according to the 12th aspect, and the derivation unit is based on the skeleton data in at least a part of the section from the address to the takeback arm horizontal. To derive the three-dimensional coordinates of the shoulder.

本発明の第17観点に係るスイング解析装置は、第13観点に係るスイング解析装置であって、前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸部抽出フィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する。 The swing analysis device according to the seventeenth aspect of the present invention is the swing analysis device according to the thirteenth aspect, and the lead-out unit is the convex in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal. By filtering with the part extraction filter, the three-dimensional coordinates of the shoulder are derived.

本発明の第18観点に係るスイング解析装置は、第14観点に係るスイング解析装置であって、前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸形状の画像テンプレートによるテンプレートマッチングを行うことで、前記肩の三次元座標を導出する。 The swing analysis device according to the eighteenth aspect of the present invention is the swing analysis device according to the fourteenth aspect, and the lead-out unit is the convex in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal. The three-dimensional coordinates of the shoulder are derived by performing template matching using the shape image template.

本発明の第19観点に係るスイング解析装置は、第15観点に係るスイング解析装置であって、前記導出部は、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する。 The swing analysis device according to the 19th aspect of the present invention is the swing analysis device according to the 15th aspect, and the derivation unit is at least a part from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish. In the section, the three-dimensional coordinates of the shoulder are derived by filtering with the shoulder silhouette filter.

本発明の第20観点に係るスイング解析装置は、第11観点から第19観点のいずれかに係るスイング解析装置であって、前記導出部は、第1時刻での前記深度画像上において、前記第1時刻又は前記第1時刻よりも前の第2時刻での前記肩の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記フィルタリングを行う。 The swing analysis device according to the twentieth aspect of the present invention is a swing analysis device according to any one of the eleventh viewpoints to the nineteenth viewpoint, and the derivation unit is the first on the depth image at the first time. A search range is set with reference to the two-dimensional coordinates of the shoulder at one time or a second time before the first time, and the filtering is performed within the search range.

本発明の第21観点に係るスイング解析装置は、第1観点から第20観点のいずれかに係るスイング解析装置であって、前記導出部は、予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行う。 The swing analysis device according to the 21st aspect of the present invention is a swing analysis device according to any one of the 1st to 20th viewpoints, and the derivation unit has a predetermined multiple regression equation having a predetermined coefficient. Calibration is performed by substituting the three-dimensional coordinates of the predetermined portion.

本発明の第22観点に係るスイング解析装置は、第1観点から第21観点のいずれかに係るスイング解析装置であって、前記取得部は、前記スイング動作を複数の前記距離画像センサにより少なくとも第1方向及び第2方向から撮影した前記深度画像を取得する。 The swing analysis device according to the 22nd aspect of the present invention is a swing analysis device according to any one of the 1st to 21st viewpoints, and the acquisition unit performs the swing operation at least by the plurality of distance image sensors. The depth images taken from the first direction and the second direction are acquired.

本発明の第23観点に係るスイング解析装置は、第22観点に係るスイング解析装置であって、前記取得部は、少なくとも前記第1方向からの前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記第1方向からの前記スケルトンデータを前記第2方向からの前記スケルトンデータに変換し、前記第2方向からの前記スケルトンデータに基づいて、前記所定の部位の位置情報を導出する。 The swing analysis device according to the 23rd aspect of the present invention is a swing analysis device according to the 22nd aspect, and the acquisition unit obtains skeleton data representing a skeleton of a human body based on at least the depth image from the first direction. Get more. The derivation unit converts the skeleton data from the first direction into the skeleton data from the second direction, and derives the position information of the predetermined portion based on the skeleton data from the second direction. do.

本発明の第24観点に係るスイング解析装置は、第22観点又は第23観点に係るスイング解析装置であって、前記第1方向は、前記ゴルファーの正面に向かう方向であり、前記第2方向は、前記ゴルファーの側面に向かう方向である。 The swing analysis device according to the 24th viewpoint of the present invention is a swing analysis device according to the 22nd or 23rd viewpoint, the first direction is a direction toward the front of the golfer, and the second direction is a direction toward the front of the golfer. , The direction toward the side surface of the golfer.

本発明の第25観点に係るスイング解析装置は、第1観点から第24観点のいずれかに係るスイング解析装置であって、前記取得部は、前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出する。 The swing analysis device according to the 25th aspect of the present invention is a swing analysis device according to any one of the 1st to 24th viewpoints, and the acquisition unit obtains skeleton data representing the skeleton of the human body based on the depth image. Get more. The derivation unit derives the position information of the first part included in the predetermined part based on the skeleton data.

本発明の第26観点に係るスイング解析装置は、第25観点に係るスイング解析装置であって、前記取得部は、人体のシルエットを表すシルエットデータをさらに取得する。前記導出部は、前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出する。 The swing analysis device according to the 26th aspect of the present invention is a swing analysis device according to the 25th aspect, and the acquisition unit further acquires silhouette data representing a silhouette of a human body. Based on the skeleton data and the silhouette data, the derivation unit derives position information of a second portion included in the predetermined portion and different from the first portion.

本発明の第27観点に係るスイング解析装置は、第1観点から第26観点のいずれかに係るスイング解析装置であって、前記導出部は、前記深度画像において深度情報が得られていない領域の情報に基づいて、前記シルエットデータにおいて特定される前記シルエットの領域を拡張する。 The swing analysis device according to the 27th viewpoint of the present invention is a swing analysis device according to any one of the first to 26th viewpoints, and the derivation unit is a region in which depth information is not obtained in the depth image. Based on the information, the area of the silhouette specified in the silhouette data is expanded.

本発明の第28観点に係るスイング解析装置は、第1観点から第27観点のいずれかに係るスイング解析装置であって、前記導出部は、トップのタイミングにおける前記ゴルファーの右側面側からの前記深度画像において、手前側に突出している箇所を前記ゴルファーの左肘として導出する。 The swing analysis device according to the 28th aspect of the present invention is a swing analysis device according to any one of the 1st to 27th viewpoints, and the derivation unit is the above-mentioned from the right side surface side of the golfer at the top timing. In the depth image, the portion protruding toward the front side is derived as the left elbow of the golfer.

本発明の第29観点に係るスイング解析装置は、第1観点から第28観点のいずれかに係るスイング解析装置であって、判定部をさらに備える。前記判定部は、所定のタイミングにおける前記所定の部位の位置情報及び前記三次元ベクトルの少なくとも一方に基づいて算出される指標値を、予め定められている正解データと比較することにより、前記スイング動作の良否を判定する。 The swing analysis device according to the 29th aspect of the present invention is a swing analysis device according to any one of the 1st to 28th viewpoints, and further includes a determination unit. The determination unit compares the index value calculated based on the position information of the predetermined portion at a predetermined timing and at least one of the three-dimensional vectors with the predetermined correct answer data, thereby performing the swing operation. Judge the quality of.

本発明の第30観点に係るスイング解析方法は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップとを備える。 The swing analysis method according to the thirtieth aspect of the present invention is a swing analysis method for analyzing the swing motion of a golf club by a golfer, and includes a step of acquiring a depth image obtained by capturing the swing motion with a distance image sensor. Based on the depth image, a step of deriving the position information of the golf club or a predetermined portion of the golfer during the swing operation, or a three-dimensional vector representing the direction of the shaft of the golf club during the swing operation. To be equipped.

本発明の第31観点に係るスイング解析プログラムは、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップとをコンピュータに実行させる。 The swing analysis program according to the 31st aspect of the present invention is a swing analysis program for analyzing the swing motion of a golf club by a golfer, and includes a step of acquiring a depth image obtained by capturing the swing motion with a distance image sensor. Based on the depth image, a step of deriving the position information of the golf club or a predetermined portion of the golfer during the swing operation, or a three-dimensional vector representing the direction of the shaft of the golf club during the swing operation. To the computer.

本発明によれば、ゴルファーによるゴルフクラブのスイング動作を距離画像センサにより撮影した深度画像が取得され、これに基づいて、スイング動作中のゴルフクラブ又はゴルファーの所定の部位の位置情報、或いはスイング動作中のゴルフクラブのシャフトの向きを表す三次元ベクトルが導出される。その結果、複数台のカメラを用いた異なる方向からの撮影は、必ずしも必要とされない。従って、簡易かつ高精度にスイング動作を解析することができる。 According to the present invention, a depth image obtained by a distance image sensor of a golf club swinging motion by a golfer is acquired, and based on this, position information of a predetermined portion of the golf club or the golfer during the swinging motion, or a swing motion. A three-dimensional vector representing the orientation of the shaft of the golf club inside is derived. As a result, shooting from different directions using a plurality of cameras is not always required. Therefore, the swing motion can be analyzed easily and with high accuracy.

本発明の第1実施形態に係るスイング解析装置を含むスイング解析システムの全体構成を示す図。The figure which shows the whole structure of the swing analysis system including the swing analysis apparatus which concerns on 1st Embodiment of this invention. 第1実施形態に係るスイング解析システムの機能ブロック図。The functional block diagram of the swing analysis system which concerns on 1st Embodiment. グリップ挙動導出処理の全体の流れを示すフローチャート。A flowchart showing the overall flow of the grip behavior derivation process. (A)アドレス状態を示す図。(B)トップ状態を示す図。(C)インパクト状態を示す図。(D)フィニッシュ状態を示す図。(A) The figure which shows the address state. (B) The figure which shows the top state. (C) The figure which shows the impact state. (D) The figure which shows the finish state. IRフレームからグリップ端の二次元座標を直接抽出する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which directly extracts the 2D coordinates of a grip end from an IR frame. グリップ端及びシャフトの像を示すIRフレームの図。The figure of the IR frame which shows the image of a grip end and a shaft. グリップ端の像の補完を説明する図。The figure explaining the complementation of the image of the grip end. 深度フレームからグリップ端の奥行きを直接特定する処理の流れを示すフローチャート。A flowchart showing the flow of processing for directly specifying the depth of the grip end from the depth frame. グリップ端の位置を示す深度フレームの図。Diagram of a depth frame showing the position of the grip edge. グリップ端の近傍の深度フレームの図。Diagram of the depth frame near the grip edge. 人体の像を考慮したグリップ端の奥行きの補正の効果を示すグラフ。A graph showing the effect of correcting the depth of the grip edge in consideration of the image of the human body. 例外処理の流れを示すフローチャート。A flowchart showing the flow of exception handling. シャフトの慣性主軸の位置を示す深度フレームの図。Diagram of a depth frame showing the position of the inertial spindle of the shaft. 慣性主軸上の点のb点からの距離と奥行きとの関係をプロットしたグラフ。A graph plotting the relationship between the distance and depth of a point on the inertial spindle from point b. 慣性主軸上のa点及びc点の位置を示す深度フレームの図。The figure of the depth frame which shows the position of the point a and point c on the inertial spindle. グリップの下部の奥行きに基づいて、グリップ端の三次元座標を推定する処理の流れを示すフローチャート。A flowchart showing the flow of processing for estimating the three-dimensional coordinates of the grip end based on the depth of the lower part of the grip. テスト被写体の例を示す図。The figure which shows the example of the test subject. 補正処理の流れを示すフローチャート。A flowchart showing the flow of correction processing. 主成分分析によるグリップ端の三次元座標の特定の方法を説明する図。The figure explaining the method of specifying the 3D coordinates of a grip end by principal component analysis. 補正処理の結果を示す図。The figure which shows the result of the correction processing. 左肩挙動導出処理の全体の流れを示すフローチャート。A flowchart showing the overall flow of the left shoulder behavior derivation process. 左肩挙動導出処理により導出された左肩の三次元座標を示すグラフ。A graph showing the three-dimensional coordinates of the left shoulder derived by the left shoulder behavior derivation process. 凸部抽出フィルタの例を示す図。The figure which shows the example of the convex part extraction filter. トップのタイミングにおける深度フレームを示す図。The figure which shows the depth frame at the top timing. 凸部抽出フィルタ適用後の深度フレームを示す図。The figure which shows the depth frame after applying the convex part extraction filter. 深度フレームの二値化画像を示す図。The figure which shows the binarized image of a depth frame. 収縮後の二値化画像を示す図。The figure which shows the binarized image after shrinkage. 凸部抽出フィルタが適用されたマスキング後の深度フレームを示す図。The figure which shows the depth frame after masking which applied the convex part extraction filter. 凸部抽出フィルタの適用範囲の例を示す図。The figure which shows the example of the application range of the convex part extraction filter. 凸部抽出フィルタの適用範囲の別の例を示す図。The figure which shows another example of the application range of a convex part extraction filter. 左肩シルエットフィルタの例を示す図。The figure which shows the example of the left shoulder silhouette filter. 深度フレームの二値化画像を示す図。The figure which shows the binarized image of a depth frame. 左肩シルエットフィルタ適用後の二値化画像を示す図。The figure which shows the binarized image after applying the left shoulder silhouette filter. 左肩シルエットフィルタの適用範囲の例を示す図。The figure which shows the example of the application range of the left shoulder silhouette filter. 左肩シルエットフィルタの適用範囲の別の例を示す図。The figure which shows another example of the application range of the left shoulder silhouette filter. 左肩シルエットフィルタの適用範囲のさらに別の例を示す図。The figure which shows still another example of the application range of the left shoulder silhouette filter. 腕水平フレームの検出に用いられる矩形領域を示す図。The figure which shows the rectangular area used for the detection of the arm horizontal frame. シャフト方向導出処理の全体の流れを示すフローチャート。The flowchart which shows the whole flow of the shaft direction derivation process. シャフトの三次元ベクトルの各軸成分のグラフ表示例を示す図。The figure which shows the graph display example of each axis component of the three-dimensional vector of a shaft. シャフトの三次元ベクトルの三次元的なグラフ表示例を示す図。The figure which shows the 3D graph display example of the 3D vector of a shaft. 実際のグリップ端が探索範囲外にあるときのIRフレームを示す図。The figure which shows the IR frame when the actual grip end is out of the search range. IRフレーム上での探索範囲を設定するための限界ラインを示す図。The figure which shows the limit line for setting the search range on an IR frame. テイクバック腕水平時の人物領域画像上での頭の頂点を示す図。The figure which shows the apex of the head on the person area image when the takeback arm is horizontal. 図3の実施形態に係るグリップ端の三次元座標を導出する処理を示すフローチャート。The flowchart which shows the process of deriving the three-dimensional coordinates of the grip end which concerns on embodiment of FIG. 変形例に係るグリップ端の三次元座標を導出する処理を示すフローチャート。The flowchart which shows the process of deriving the three-dimensional coordinates of the grip end which concerns on a modification. 凸形状テンプレートの例を示す図。The figure which shows the example of the convex shape template. Kinect(登録商標)v2を用いた変形例に係るテンプレートマッチングにより抽出された左肩の位置を示す図。The figure which shows the position of the left shoulder extracted by the template matching which concerns on the modification which used Kinect (registered trademark) v2. 左肩抽出のためのアルゴリズムの切り替えを説明する概念図。A conceptual diagram illustrating switching of algorithms for left shoulder extraction. 本発明の第2実施形態に係るスイング解析装置を含むスイング解析システムの全体構成を示す平面図。The plan view which shows the whole structure of the swing analysis system including the swing analysis apparatus which concerns on 2nd Embodiment of this invention. 第2実施形態に係るスイング解析システムの機能ブロック図。The functional block diagram of the swing analysis system which concerns on 2nd Embodiment. 位置導出処理の流れを示すフローチャート。A flowchart showing the flow of the position derivation process. 様々なチェックポイントでのゴルファーの正面図。Front view of the golfer at various checkpoints. 様々なチェックポイントでのゴルファーの右側面図。Right side view of the golfer at various checkpoints. アドレス時の正面シルエットデータに正面スケルトンデータを重ねた画像を示す図。The figure which shows the image which superposed the front skeleton data on the front silhouette data at the time of address. アドレスから少し進んだタイミングでの正面シルエットデータに正面スケルトンデータを重ねた画像を示す図。The figure which shows the image which superposed the front skeleton data on the front silhouette data at the timing slightly advanced from the address. アドレス時の右側面シルエットデータの画像を示す図。The figure which shows the image of the right side silhouette data at the time of address. 図54Aの画像において、左足及び右足のシルエットが補完された画像を示す図。FIG. 54A shows an image in which the silhouettes of the left foot and the right foot are complemented. トップ時の右側面シルエットデータの画像を示す図。The figure which shows the image of the right side silhouette data at the time of the top. テイクバック腕水平時の正面シルエットデータの画像を示す図。The figure which shows the image of the front silhouette data when the takeback arm is horizontal.

以下、図面を参照しつつ、本発明のいくつかの実施形態に係るスイング解析装置、方法及びプログラムについて説明する。 Hereinafter, swing analysis devices, methods, and programs according to some embodiments of the present invention will be described with reference to the drawings.

<1.第1実施形態>
<1−1.スイング解析システムの概要>
図1及び図2に、本発明の第1実施形態に係るスイング解析装置1を含むスイング解析システム100の全体構成図を示す。スイング解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作を動画として撮影し、当該動画に基づいて当該ゴルフスイングを解析するためのシステムである。以上の撮影は、距離画像センサ2により行われる。スイング解析装置1は、距離画像センサ2とともにスイング解析システム100を構成し、距離画像センサ2により得られた画像データを画像処理することで、ゴルフスイングを解析する。スイング解析装置1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
<1. First Embodiment>
<1-1. Overview of swing analysis system>
1 and 2 show an overall configuration diagram of the swing analysis system 100 including the swing analysis device 1 according to the first embodiment of the present invention. The swing analysis system 100 is a system for photographing the swing motion of the golf club 5 by the golfer 7 as a moving image and analyzing the golf swing based on the moving image. The above shooting is performed by the distance image sensor 2. The swing analysis device 1 constitutes a swing analysis system 100 together with the distance image sensor 2, and analyzes the golf swing by performing image processing on the image data obtained by the distance image sensor 2. The result of the analysis by the swing analysis device 1 is used for various purposes such as fitting of a golf club 5 suitable for the golfer 7, improvement of the form of the golfer 7, development of golf equipment, and the like.

本実施形態では、スイング動作中のゴルフクラブ5のグリップ51の挙動と、ゴルファー7の左肩71の挙動とが解析される。より具体的には、スイング動作中のグリップ51及び左肩71の三次元座標が導出される。また、本実施形態では、スイング動作中のゴルフクラブ5のシャフト52の向きが解析される。 In the present embodiment, the behavior of the grip 51 of the golf club 5 and the behavior of the left shoulder 71 of the golfer 7 during the swing operation are analyzed. More specifically, the three-dimensional coordinates of the grip 51 and the left shoulder 71 during the swing operation are derived. Further, in the present embodiment, the orientation of the shaft 52 of the golf club 5 during the swing operation is analyzed.

<1−2.各部の詳細>
以下、スイング解析システム100の各部の詳細について説明する。
<1-2. Details of each part>
Hereinafter, details of each part of the swing analysis system 100 will be described.

<1−2−1.距離画像センサ>
距離画像センサ2は、ゴルファー7がゴルフクラブ5を試打する様子を二次元画像として撮影するとともに、被写体までの距離を測定する測距機能を有するカメラである。従って、距離画像センサ2は、二次元画像とともに、深度画像を出力することができる。なお、ここでいう二次元画像とは、撮影空間の像をカメラの光軸に直交する平面内へ投影した画像である。また、深度画像とは、カメラの光軸方向の被写体の奥行きのデータを、二次元画像と略同じ撮像範囲内の画素に割り当てた画像である。
<1-2-1. Distance image sensor>
The distance image sensor 2 is a camera having a distance measuring function of taking a two-dimensional image of a golfer 7 trying to hit a golf club 5 and measuring the distance to a subject. Therefore, the distance image sensor 2 can output a depth image together with the two-dimensional image. The two-dimensional image referred to here is an image obtained by projecting an image of the shooting space into a plane orthogonal to the optical axis of the camera. The depth image is an image in which the depth data of the subject in the optical axis direction of the camera is assigned to pixels within the same imaging range as the two-dimensional image.

本実施形態で使用される距離画像センサ2は、二次元画像を赤外線画像(以下、IR画像という)として撮影する。また、深度画像は、赤外線を用いたタイムオブフライト方式やドットパターン投影方式等の方法により得られる。従って、図1に示すように、距離画像センサ2は、赤外線を前方に向けて発光するIR発光部21と、IR発光部21から照射され、被写体に反射して戻ってきた赤外線を受光するIR受光部22とを有する。IR受光部22は、光学系及び撮像素子等を有するカメラである。ドットパターン投影方式では、IR発光部21から照射された赤外線のドットパターンをIR受光部22で読み取り、距離画像センサ2内部での画像処理によりドットパターンを検出し、これに基づいて奥行きが計算される。本実施形態では、IR発光部21及びIR受光部22は、同じ筐体20内に収容され、筐体20の前方に配置されている。また、本実施形態に係る距離画像センサ2では、奥行きを計測可能な有効距離が定められており、深度画像には、奥行きの値が得られない画素が含まれ得る。 The distance image sensor 2 used in the present embodiment captures a two-dimensional image as an infrared image (hereinafter referred to as an IR image). Further, the depth image can be obtained by a method such as a time-of-flight method using infrared rays or a dot pattern projection method. Therefore, as shown in FIG. 1, the distance image sensor 2 has an IR light emitting unit 21 that emits infrared rays forward and an IR that receives infrared rays that are emitted from the IR light emitting unit 21 and reflected on the subject and returned. It has a light receiving unit 22. The IR light receiving unit 22 is a camera having an optical system, an image sensor, and the like. In the dot pattern projection method, the infrared dot pattern emitted from the IR light emitting unit 21 is read by the IR light receiving unit 22, the dot pattern is detected by image processing inside the distance image sensor 2, and the depth is calculated based on this. NS. In the present embodiment, the IR light emitting unit 21 and the IR light receiving unit 22 are housed in the same housing 20 and are arranged in front of the housing 20. Further, in the distance image sensor 2 according to the present embodiment, an effective distance capable of measuring the depth is determined, and the depth image may include pixels for which the value of the depth cannot be obtained.

距離画像センサ2には、距離画像センサ2の動作全体を制御するCPU23の他、撮影された画像データを少なくとも一時的に記憶するメモリ24が内蔵されている。距離画像センサ2の動作を制御する制御プログラムは、メモリ24内に格納されている。また、距離画像センサ2には、通信部25も内蔵されており、当該通信部25は、撮影された画像データを、有線又は無線の通信線17を介して、スイング解析装置1等の外部のデバイスへと出力することができる。本実施形態では、CPU23及びメモリ24も、IR発光部21及びIR受光部22とともに、筐体20内に収納されている。なお、スイング解析装置1への画像データの受け渡しは、必ずしも通信部25を介して行う必要はない。例えば、メモリ24が着脱式であれば、これを筐体20内から取り外し、スイング解析装置1のリーダー(後述する通信部15に対応)に挿入する等して、スイング解析装置1で画像データを読み出すことができる。 In addition to the CPU 23 that controls the entire operation of the distance image sensor 2, the distance image sensor 2 has a built-in memory 24 that stores captured image data at least temporarily. The control program that controls the operation of the distance image sensor 2 is stored in the memory 24. Further, the distance image sensor 2 also has a built-in communication unit 25, and the communication unit 25 transmits the captured image data to an external device such as the swing analysis device 1 via a wired or wireless communication line 17. It can be output to the device. In the present embodiment, the CPU 23 and the memory 24 are also housed in the housing 20 together with the IR light emitting unit 21 and the IR light receiving unit 22. It should be noted that the transfer of image data to the swing analysis device 1 does not necessarily have to be performed via the communication unit 25. For example, if the memory 24 is removable, it can be removed from the housing 20 and inserted into the reader of the swing analysis device 1 (corresponding to the communication unit 15 described later) to obtain image data in the swing analysis device 1. It can be read.

本実施形態では、以上のとおり、距離画像センサ2により赤外線撮影が行われ、撮影されたIR画像に基づいて、グリップ51の軌道が追跡される。従って、この追跡が容易となるように、グリップ51(より正確には、グリップ端51a)には、赤外線を効率的に反射する反射シートがマーカーとして貼付される。また、後述するとおり、本実施形態では、撮影角度によりグリップ端51aが見えない場合には、ゴルフクラブ5のシャフト52の位置に基づいて、グリップ端51aの位置が特定されるとともに、シャフト52の向きも特定される。従って、シャフト52にも、同様の赤外線の反射シートがマーカーとして貼付される。本実施形態では、距離画像センサ2は、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。 In the present embodiment, as described above, infrared imaging is performed by the distance image sensor 2, and the trajectory of the grip 51 is tracked based on the captured IR image. Therefore, a reflective sheet that efficiently reflects infrared rays is attached to the grip 51 (more accurately, the grip end 51a) as a marker so that this tracking can be facilitated. Further, as will be described later, in the present embodiment, when the grip end 51a cannot be seen due to the shooting angle, the position of the grip end 51a is specified based on the position of the shaft 52 of the golf club 5, and the position of the shaft 52 is specified. The orientation is also specified. Therefore, a similar infrared reflective sheet is attached to the shaft 52 as a marker. In the present embodiment, the distance image sensor 2 is installed in front of the golfer 7 in order to photograph the golfer 7 from the front side.

<1−2−2.スイング解析装置>
図2に示すとおり、スイング解析装置1は、CD−ROM等のコンピュータで読み取り可能な記録媒体30に格納されたスイング解析プログラム3を、当該記録媒体30から汎用のパーソナルコンピュータにインストールすることにより製造される。スイング解析プログラム3は、距離画像センサ2から送られてくる画像データに基づいてゴルフスイングを解析するためのソフトウェアであり、スイング解析装置1に後述する動作を実行させる。
<1-2-2. Swing analyzer >
As shown in FIG. 2, the swing analysis device 1 is manufactured by installing a swing analysis program 3 stored in a computer-readable recording medium 30 such as a CD-ROM from the recording medium 30 on a general-purpose personal computer. Will be done. The swing analysis program 3 is software for analyzing a golf swing based on image data sent from the distance image sensor 2, and causes the swing analysis device 1 to execute an operation described later.

スイング解析装置1は、表示部11、入力部12、記憶部13、制御部14及び通信部15を備える。これらの部11〜15は、互いにバス線16を介して接続されており、相互に通信可能である。表示部11は、液晶ディスプレイ等で構成することができ、ゴルフスイングの解析の結果等をユーザに対し表示する。なお、ここでいうユーザとは、ゴルファー7自身やそのインストラクター、ゴルフ用品の開発者等、ゴルフスイングの解析の結果を必要とする者の総称である。入力部12は、マウス、キーボード、タッチパネル等で構成することができ、スイング解析装置1に対するユーザからの操作を受け付ける。 The swing analysis device 1 includes a display unit 11, an input unit 12, a storage unit 13, a control unit 14, and a communication unit 15. These units 11 to 15 are connected to each other via a bus line 16 and can communicate with each other. The display unit 11 can be configured by a liquid crystal display or the like, and displays the result of golf swing analysis or the like to the user. The term "user" as used herein is a general term for golfers 7 themselves, their instructors, developers of golf equipment, and other persons who require the results of golf swing analysis. The input unit 12 can be composed of a mouse, a keyboard, a touch panel, and the like, and receives an operation from the user on the swing analysis device 1.

記憶部13は、ハードディスク等で構成することができる。記憶部13内には、スイング解析プログラム3が格納されている他、距離画像センサ2から送られてくる画像データが保存される。制御部14は、CPU、ROMおよびRAM等から構成することができる。制御部14は、記憶部13内のスイング解析プログラム3を読み出して実行することにより、仮想的に取得部14a、位置導出部14b及び向き導出部14cとして動作する。各部14a〜14cの動作の詳細については、後述する。通信部15は、距離画像センサ2等の外部のデバイスから通信線17を介してデータを受信する通信インターフェースとして機能する。 The storage unit 13 can be configured by a hard disk or the like. In addition to storing the swing analysis program 3 in the storage unit 13, image data sent from the distance image sensor 2 is stored. The control unit 14 can be composed of a CPU, a ROM, a RAM, and the like. The control unit 14 virtually operates as the acquisition unit 14a, the position derivation unit 14b, and the orientation derivation unit 14c by reading and executing the swing analysis program 3 in the storage unit 13. Details of the operation of each part 14a to 14c will be described later. The communication unit 15 functions as a communication interface for receiving data from an external device such as the distance image sensor 2 via the communication line 17.

<1−3.スイング解析方法>
以下、スイング解析システム100により実行されるゴルフスイングの解析方法について説明する。本解析方法では、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により撮影する。距離画像センサ2により撮影されたIR画像及び深度画像の画像データは、距離画像センサ2からスイング解析装置1に送られる。既に述べたとおり、本実施形態では、スイング解析装置1により、スイング動作中のゴルフクラブ5のグリップ51の挙動及びゴルファー7の左肩71の挙動と、スイング動作中のゴルフクラブ5のシャフト52の向きとが解析される。以下では、まず、グリップ51の挙動を導出する処理(以下、グリップ挙動導出処理)について説明した後、ゴルファー7の左肩71の挙動を導出する処理(以下、左肩挙動導出処理)について説明する。その後、ゴルフクラブ5のシャフト52の向きを導出する処理(以下、シャフト方向導出処理)について説明する。
<1-3. Swing analysis method>
Hereinafter, a golf swing analysis method executed by the swing analysis system 100 will be described. In this analysis method, first, the golfer 7 is made to test-hit the golf club 5, and the state is photographed by the distance image sensor 2. The image data of the IR image and the depth image taken by the distance image sensor 2 is sent from the distance image sensor 2 to the swing analysis device 1. As described above, in the present embodiment, the behavior of the grip 51 of the golf club 5 during the swing operation, the behavior of the left shoulder 71 of the golfer 7, and the orientation of the shaft 52 of the golf club 5 during the swing operation are performed by the swing analysis device 1. Is analyzed. In the following, first, the process of deriving the behavior of the grip 51 (hereinafter, the grip behavior deriving process) will be described, and then the process of deriving the behavior of the left shoulder 71 of the golfer 7 (hereinafter, the left shoulder behavior deriving process) will be described. After that, a process of deriving the direction of the shaft 52 of the golf club 5 (hereinafter, shaft direction deriving process) will be described.

<1−3−1.グリップ挙動導出処理>
グリップ挙動導出処理では、距離画像センサ2により撮影されたIR画像及び深度画像の画像データに基づいて、スイング動作中のグリップ端51aの軌道を表す三次元座標が導出される。解析の対象となる画像データは、動画である。従って、以下、解析の対象となるIR画像及び深度画像を、それぞれIRフレーム、深度フレームということがあり、単にフレームということもある。スイング動作中の各タイミングでの三次元座標は、主としてそのタイミングでのIRフレーム及び深度フレームに基づいて導出される。
<1-3-1. Grip behavior derivation process>
In the grip behavior derivation process, three-dimensional coordinates representing the trajectory of the grip end 51a during the swing operation are derived based on the image data of the IR image and the depth image taken by the distance image sensor 2. The image data to be analyzed is a moving image. Therefore, hereinafter, the IR image and the depth image to be analyzed may be referred to as an IR frame and a depth frame, respectively, and may be simply referred to as a frame. The three-dimensional coordinates at each timing during the swing operation are derived mainly based on the IR frame and the depth frame at that timing.

図3は、グリップ挙動導出処理の全体の流れを示すフローチャートである。グリップ挙動導出処理では、まず、取得部14aが、距離画像センサ2から取得され、記憶部13に格納されている画像データを読み出し、メモリに展開する。そして、位置導出部14bが、これらの画像データのうち、解析の対象となるフレームを決定する(ステップS1)。本実施形態では、スイング動作中のアドレスからインパクトのやや後までの期間が解析の対象とされる。従って、ステップS1では、アドレス及びインパクトのタイミングが決定され、この間のフレーム及びインパクト後の数フレームが解析の対象として決定される。また、ここでは、後の処理に備えて、トップのタイミングも決定される。アドレス、トップ及びインパクトのタイミングは、例えばグリップ51に取り付けられた慣性センサからの出力データに基づいて判定することもできるし、画像データ自体から画像処理により判定することもできる。このようなアドレス、トップ及びインパクトのタイミングの決定方法としては、様々なものが知られているため、ここでは詳細な説明を省略する。 FIG. 3 is a flowchart showing the entire flow of the grip behavior derivation process. In the grip behavior derivation process, first, the acquisition unit 14a reads the image data acquired from the distance image sensor 2 and stored in the storage unit 13 and expands the image data into the memory. Then, the position derivation unit 14b determines a frame to be analyzed among these image data (step S1). In the present embodiment, the period from the address during the swing operation to a little after the impact is the target of analysis. Therefore, in step S1, the address and the timing of the impact are determined, and the frame during this period and several frames after the impact are determined as the analysis targets. Also, here, the top timing is determined in preparation for later processing. The timing of the address, the top, and the impact can be determined based on the output data from the inertial sensor attached to the grip 51, for example, or can be determined from the image data itself by image processing. Since various methods for determining the timing of such an address, top, and impact are known, detailed description thereof will be omitted here.

なお、ゴルフクラブのスイング動作は、一般に、アドレス、トップ、インパクト、フィニッシュの順に進む。アドレスとは、図4(A)に示すとおり、ゴルフクラブ5のヘッドをボール近くに配置した初期の状態を意味し、トップとは、図4(B)に示すとおり、アドレスからゴルフクラブ5をテイクバックし、最もヘッドが振り上げられた状態を意味する。インパクトとは、図4(C)に示すとおり、トップからゴルフクラブ5が振り下ろされ、ヘッドがボールと衝突した瞬間の状態を意味し、フィニッシュとは、図4(D)に示すとおり、インパクト後、ゴルフクラブ5を前方へ振り抜いた状態を意味する。 The swing motion of a golf club generally proceeds in the order of address, top, impact, and finish. The address means an initial state in which the head of the golf club 5 is arranged near the ball as shown in FIG. 4 (A), and the top means the golf club 5 from the address as shown in FIG. 4 (B). It means the state where the head is swung up most after taking back. The impact means the state at the moment when the golf club 5 is swung down from the top and the head collides with the ball as shown in FIG. 4 (C), and the finish means the state at the moment when the head collides with the ball, and the finish means the impact as shown in FIG. 4 (D). After that, it means a state in which the golf club 5 is swung forward.

ステップS1により解析の対象となる期間が決定されると、位置導出部14bにより、アドレス付近でのグリップ端51aの三次元座標が導出される(ステップS2)。本実施形態では、ゴルファー7の前方から画像データが撮影されるため、アドレス付近では、ゴルファー7の手元に隠れ、グリップ端51aがフレームに写らない。そのため、ステップS2では、IRフレームに写るシャフト52の位置から、グリップ端51aの位置が推定される。 When the period to be analyzed is determined in step S1, the position derivation unit 14b derives the three-dimensional coordinates of the grip end 51a near the address (step S2). In the present embodiment, since the image data is captured from the front of the golfer 7, the grip end 51a is hidden in the golfer 7's hand near the address and is not reflected in the frame. Therefore, in step S2, the position of the grip end 51a is estimated from the position of the shaft 52 reflected in the IR frame.

具体的には、ステップS2での解析の対象となるのは、初期の期間のフレーム、例えば、アドレス付近の3枚のフレームである。上述したとおり、シャフト52には赤外線を効率的に反射させるマーカーが取り付けられているため、IRフレーム上には、当該マーカーの像が明確に表れる。位置導出部14bは、各IRフレームを適切な閾値を用いて2値化することで、各IRフレームをシャフト52のマーカーの像とその他の領域とに分割し、シャフト52の二次元座標を特定する。なお、当該閾値は、予め設定されている値であってもよいし、判別分析法等によりIRフレームから算出される値であってもよい。続いて、位置導出部14bは、同じタイミングでの深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52の三次元座標が導出される。ところで、シャフト52に取付けられているマーカーの長さ及びマーカーの中心(例えば、幾何学上の重心)からグリップ端51aまでの距離は既知であり、これらの値は予め記憶部13に記憶されている。従って、位置導出部14bは、これらの長さ及び距離と、IRフレームに写るシャフト52のマーカーの長さ及びマーカーの中心の三次元座標とに基づいて、アドレス付近でのグリップ端51aの三次元座標を導出する。 Specifically, the target of the analysis in step S2 is the frame of the initial period, for example, three frames near the address. As described above, since the shaft 52 is attached with a marker that efficiently reflects infrared rays, the image of the marker clearly appears on the IR frame. The position derivation unit 14b divides each IR frame into a marker image of the shaft 52 and other regions by binarizing each IR frame using an appropriate threshold value, and specifies the two-dimensional coordinates of the shaft 52. do. The threshold value may be a preset value or a value calculated from an IR frame by a discriminant analysis method or the like. Subsequently, the position derivation unit 14b specifies the depth value corresponding to the two-dimensional coordinates specified here from the depth frame at the same timing. As a result, the three-dimensional coordinates of the shaft 52 are derived. By the way, the length of the marker attached to the shaft 52 and the distance from the center of the marker (for example, the geometric center of gravity) to the grip end 51a are known, and these values are stored in the storage unit 13 in advance. There is. Therefore, the position deriving unit 14b is based on these lengths and distances, the length of the marker of the shaft 52 reflected in the IR frame, and the three-dimensional coordinates of the center of the marker, and the three-dimensional position of the grip end 51a near the address. Derived the coordinates.

ステップS2が終了すると、ステップS3〜S7により、初期の期間後のグリップ端51aの三次元座標が特定される。ステップS3〜S7は、ステップS2の初期の期間のフレームを除く、ステップS1で決定された解析の期間に含まれる各フレームに対し、時間軸に沿って順に繰り返し実行される。 When step S2 is completed, the three-dimensional coordinates of the grip end 51a after the initial period are specified by steps S3 to S7. Steps S3 to S7 are repeatedly executed in order along the time axis for each frame included in the analysis period determined in step S1, excluding the frames in the initial period of step S2.

具体的には、まず、ステップS3において、位置導出部14bは、IRフレームに写るグリップ端51aの像を抽出することで、IRフレームから直接グリップ端51aの二次元座標を特定する。そして、この二次元座標の特定に成功した場合には(ステップS4において、「YES」)、位置導出部14bは、深度フレームから、当該二次元座標に対応する奥行きの値を直接特定する(ステップS5)。これにより、グリップ端51aの三次元座標が導出される。一方、ステップS3で、二次元座標の特定に失敗した場合には(ステップS4において、「NO」)、位置導出部14bは、別の方法でグリップ端51aの三次元座標を導出するための例外処理を実行する(ステップS6)。同様に、ステップS5で、奥行きの値の特定に失敗した場合にも、(ステップS7において、「NO」)、位置導出部14bは、同様の例外処理を実行する。ステップS3,S5,S6の処理の詳細は、後述する。 Specifically, first, in step S3, the position deriving unit 14b identifies the two-dimensional coordinates of the grip end 51a directly from the IR frame by extracting the image of the grip end 51a reflected in the IR frame. Then, when the two-dimensional coordinates are successfully specified (“YES” in step S4), the position derivation unit 14b directly specifies the depth value corresponding to the two-dimensional coordinates from the depth frame (step). S5). As a result, the three-dimensional coordinates of the grip end 51a are derived. On the other hand, if the identification of the two-dimensional coordinates fails in step S3 (“NO” in step S4), the position deriving unit 14b is an exception for deriving the three-dimensional coordinates of the grip end 51a by another method. The process is executed (step S6). Similarly, even if the identification of the depth value fails in step S5 (“NO” in step S7), the position deriving unit 14b executes the same exception handling. Details of the processes of steps S3, S5 and S6 will be described later.

ステップS1で決定された解析の対象となる期間についての以上の処理が終了すると、スイング動作中のグリップ端51aの三次元座標が導出されたことになる。位置導出部14bは、これらのグリップ端51aの三次元座標に対し、後述するステップS8のキャリブレーションを実行する。また、これらのキャリブレーション後の値は、依然として一定程度の誤差を含み得る。特に、IRフレームにグリップ端51aの像が写らず、後述する様々な方法でグリップ端51aの三次元座標の推定が行われた場合には、誤差が顕著に表れることがある。そこで、位置導出部14bは、これらのキャリブレーション後の三次元座標を補正処理により補正する(ステップS9)。この補正処理の詳細については、後述する。 When the above processing for the period to be analyzed determined in step S1 is completed, the three-dimensional coordinates of the grip end 51a during the swing operation are derived. The position deriving unit 14b executes calibration in step S8, which will be described later, with respect to the three-dimensional coordinates of these grip ends 51a. Also, these calibrated values may still contain some degree of error. In particular, when the image of the grip end 51a is not reflected on the IR frame and the three-dimensional coordinates of the grip end 51a are estimated by various methods described later, an error may appear remarkably. Therefore, the position derivation unit 14b corrects these calibrated three-dimensional coordinates by a correction process (step S9). The details of this correction process will be described later.

以上の処理により、スイング動作中のグリップ端51aの三次元座標が高精度に導出される。これらのグリップ端51aの三次元座標は、記憶部13内に格納され、ユーザの命令に応じて、適宜、表示部11上に表示される。例えば、スイング動作中のグリップ端51aの軌道をグラフィック表示することも可能である。また、記憶部13内に格納されたこれらのグリップ端51aの三次元座標は、他のプログラムにより読み出され、さらなるゴルフスイングの解析にも利用され得る。 By the above processing, the three-dimensional coordinates of the grip end 51a during the swing operation are derived with high accuracy. The three-dimensional coordinates of these grip ends 51a are stored in the storage unit 13 and are appropriately displayed on the display unit 11 in response to a user command. For example, it is also possible to graphically display the trajectory of the grip end 51a during the swing operation. Further, the three-dimensional coordinates of these grip ends 51a stored in the storage unit 13 can be read out by another program and used for further analysis of the golf swing.

<1−3−1−1.ステップS3の詳細>
以下、図5を参照しつつ、ステップS3の詳細を説明する。ステップS3は、IRフレームに写るグリップ端51aの像を抽出することで、IRフレームから直接グリップ端51aの二次元座標を特定する処理である。上述したとおり、ステップS3は、ステップS2の解析の対象となる初期の期間後の各フレームについて繰り返し実行される。従って、以下のステップS3の説明においては、初期の期間後の特定の時刻(以下、対象時刻という)での特定のフレーム(以下、対象フレームという)に対する処理の流れを説明する。なお、対象フレームには、IRフレーム及び深度フレームが含まれ、それぞれを対象IRフレーム及び対象深度フレームと呼ぶ。
<1-3-1-1. Details of step S3>
Hereinafter, the details of step S3 will be described with reference to FIG. Step S3 is a process of specifying the two-dimensional coordinates of the grip end 51a directly from the IR frame by extracting the image of the grip end 51a reflected in the IR frame. As described above, step S3 is repeatedly executed for each frame after the initial period to be analyzed in step S2. Therefore, in the following description of step S3, the flow of processing for a specific frame (hereinafter referred to as a target frame) at a specific time (hereinafter referred to as a target time) after the initial period will be described. The target frame includes an IR frame and a depth frame, which are referred to as a target IR frame and a target depth frame, respectively.

まず、位置導出部14bは、以降の計算負荷を下げるために、対象フレーム上において対象フレームの画像サイズよりも小さい探索範囲R1を設定する(ステップS21)。具体的には、対象時刻の直前の所定の枚数(例えば、3枚)のフレームにおけるグリップ端51aの二次元座標から、対象時刻でのグリップ端51aの二次元座標が推定される。この推定は、例えば、直前の所定の枚数のフレームのグリップ端51aのフレーム間のベクトルの向きに基づいて行うことができる。そして、当該推定された二次元座標の周辺に、例えば、当該二次元座標を中心とする所定のサイズ(例えば、50ピクセル×50ピクセル)の探索範囲R1が設定される。 First, the position derivation unit 14b sets a search range R1 on the target frame, which is smaller than the image size of the target frame, in order to reduce the subsequent calculation load (step S21). Specifically, the two-dimensional coordinates of the grip end 51a at the target time are estimated from the two-dimensional coordinates of the grip end 51a in a predetermined number of frames (for example, three) immediately before the target time. This estimation can be performed, for example, based on the orientation of the vector between the frames of the grip ends 51a of the predetermined number of frames immediately before. Then, for example, a search range R1 having a predetermined size (for example, 50 pixels × 50 pixels) centered on the two-dimensional coordinates is set around the estimated two-dimensional coordinates.

続くステップS22〜S24では、位置導出部14bは、探索範囲R1内において、グリップ端51a及びシャフト52に貼付されたマーカーを表す領域をその他の領域から分離するための対象IRフレームの二値化を行う。そのために、まず、ステップS22において、二値化のための閾値が設定される。当該閾値は、公知の様々な方法で算出することができるが、本実施形態では、判別分析法により算出される。或いは、当該閾値は、予め設定されている値であってもよい。続いて、ステップS23において、当該閾値の適否が判断され、適切であると判断された場合にはステップS24に進む。ステップS24では、当該閾値を用いて探索範囲R1内での対象IRフレームの二値化が行われる。なお、このとき、「1」領域(マーカーに対応する領域)の穴抜けを防ぐため、膨張処理及び縮小処理を行うことが好ましい。図6には、参考として、対象IRフレームの例が示される。図6には、グリップ端51aに加え、シャフト52に貼付されたマーカーの像が写っている。一方、ステップS23において、閾値が不適切であると判断された場合には、ステップS3は終了し、その後、上述のステップS4を経てステップS6の例外処理へと進む。なお、本実施形態に係るステップS23では、対象IRフレーム内の探索範囲R1内において、上記閾値が、輝度のとり得る範囲を0〜1に正規化した場合において0.1より大きい場合に、「適切」、そうでない場合に、「不適切」と判断される。また、これに加えて、上記閾値以上となる輝度の最頻度が所定値(例えば、2ピクセル)以上である場合に、「適切」、そうでない場合に、「不適切」と判断することもできる。 In the following steps S22 to S24, the position derivation unit 14b binarizes the target IR frame in the search range R1 to separate the region representing the marker attached to the grip end 51a and the shaft 52 from the other regions. conduct. Therefore, first, in step S22, a threshold value for binarization is set. The threshold value can be calculated by various known methods, but in the present embodiment, it is calculated by a discriminant analysis method. Alternatively, the threshold value may be a preset value. Subsequently, in step S23, the suitability of the threshold value is determined, and if it is determined to be appropriate, the process proceeds to step S24. In step S24, the target IR frame is binarized within the search range R1 using the threshold value. At this time, it is preferable to perform expansion treatment and reduction treatment in order to prevent holes in the “1” region (region corresponding to the marker). FIG. 6 shows an example of the target IR frame for reference. FIG. 6 shows an image of a marker attached to the shaft 52 in addition to the grip end 51a. On the other hand, if it is determined in step S23 that the threshold value is inappropriate, step S3 ends, and then the exception handling in step S6 proceeds through the above-mentioned step S4. In step S23 according to the present embodiment, when the threshold value is greater than 0.1 in the search range R1 in the target IR frame when the range in which the brightness can be taken is normalized to 0 to 1, ". If it is "appropriate" and not, it is judged to be "inappropriate". In addition to this, if the maximum frequency of the brightness exceeding the above threshold value is a predetermined value (for example, 2 pixels) or more, it can be determined as "appropriate", and if not, it can be determined as "inappropriate". ..

続いて、ステップS25では、位置導出部14bは、グリップ端51aが対象IRフレーム内の探索範囲R1内に写っていない、又は探索範囲R1からはみ出している(探索範囲R1の外枠に重なっている)か否かを判断する。そして、グリップ端51aが探索範囲R1内に写っており、かつ、はみ出していない(以下、条件1)と判断される場合には、探索範囲R1が適切であるとして、ステップS26に進む。一方、条件1が満たされないと判断される場合には、探索範囲R1が不適切であるとして、ステップS20に進み、探索範囲R1の再設定が行われる。ステップS20では、前回の探索範囲R1よりも所定量だけ大きな探索範囲R1が設定され、その後、ステップS22以降が繰り返される。なお、はみ出していると判定された場合には、はみ出している方向にのみ所定量(例えば、10ピクセル)だけ拡大することができる。なお、図5からは明らかではないが、本実施形態では、ステップS20の繰り返しの回数には上限が設けられており、上限回数繰り返してもグリップ端51aが探索範囲R1内に写らない場合には、強制的にステップS3が終了する。また、上限回数繰り返してもはみ出している場合には、強制的にステップS26に進む。 Subsequently, in step S25, in step S25, the grip end 51a does not appear in the search range R1 in the target IR frame, or protrudes from the search range R1 (overlaps the outer frame of the search range R1). ) Whether or not. Then, when it is determined that the grip end 51a is reflected in the search range R1 and does not protrude (hereinafter, condition 1), it is considered that the search range R1 is appropriate, and the process proceeds to step S26. On the other hand, if it is determined that the condition 1 is not satisfied, it is determined that the search range R1 is inappropriate, and the process proceeds to step S20, and the search range R1 is reset. In step S20, a search range R1 larger than the previous search range R1 by a predetermined amount is set, and then steps S22 and subsequent steps are repeated. If it is determined that the pixel is protruding, the image can be enlarged by a predetermined amount (for example, 10 pixels) only in the direction of the protrusion. Although it is not clear from FIG. 5, in the present embodiment, an upper limit is provided for the number of repetitions of step S20, and when the grip end 51a does not appear within the search range R1 even after the upper limit is repeated. , Step S3 is forcibly ended. Further, if it protrudes even after repeating the upper limit number of times, the process proceeds to step S26 forcibly.

ステップS26では、位置導出部14bは、探索範囲R1内にシャフト52のマーカーの像が含まれる場合には、これを除去する。具体的には、探索範囲R1の外枠の所定の3辺を調べ、「1」領域が存在していた場合には、これを「0」に置き換える。これにより、探索範囲R1内の「1」領域は、グリップ端51aにのみ対応する領域となる。なお、アドレスからインパクトのやや後までの区間においては、グリップ51の左側にシャフトがくることが考えにくいため、所定の3辺としては、上下の辺と、グリップ51の右側の辺が設定される。 In step S26, the position deriving unit 14b removes the image of the marker of the shaft 52 when it is included in the search range R1. Specifically, the predetermined three sides of the outer frame of the search range R1 are examined, and if the "1" region exists, it is replaced with "0". As a result, the "1" region in the search range R1 becomes an region corresponding only to the grip end 51a. In the section from the address to a little after the impact, it is unlikely that the shaft will come to the left side of the grip 51, so the upper and lower sides and the right side of the grip 51 are set as the predetermined three sides. ..

続くステップS27では、位置導出部14bは、ラベリング処理を行い、探索範囲R1内のグリップ端51aの像が複数の領域に分離していないか否かを判断する。図7(A)に示すように、対象IRフレーム内では、特にダウンスイング中において、モーションブラーによりグリップ端51aの像が長細く写ることがある。そして、これを以上の方法で二値化すると、図7(B)に示すように、グリップ端51aを表す「1」領域が複数の領域に分離し得る。そこで、位置導出部14bは、探索範囲R1内のグリップ端51aの像が複数の領域に分離していると判断される場合には、図7(C)に示すように、それらを結合する(ステップS28)。具体的には、複数の「1」領域のより近い端点どうしが「1」の線で連結され、内側の穴が「1」で補完される。 In the following step S27, the position derivation unit 14b performs a labeling process to determine whether or not the image of the grip end 51a in the search range R1 is separated into a plurality of regions. As shown in FIG. 7 (A), in the target IR frame, the image of the grip end 51a may be elongated due to motion blur, especially during a downswing. Then, when this is binarized by the above method, as shown in FIG. 7B, the “1” region representing the grip end 51a can be separated into a plurality of regions. Therefore, when it is determined that the image of the grip end 51a in the search range R1 is separated into a plurality of regions, the position deriving unit 14b combines them as shown in FIG. 7 (C). Step S28). Specifically, the closer endpoints of the plurality of "1" regions are connected by a "1" line, and the inner hole is complemented by a "1".

ステップS29では、位置導出部14bは、探索範囲R1内の「1」領域の中心を算出する。「1」領域の中心は、様々な方法で算出することが可能であるが、例えば、幾何学上の重心として算出することができる。そして、当該中心の二次元座標が、グリップ端51aの二次元座標として特定される。 In step S29, the position derivation unit 14b calculates the center of the “1” region in the search range R1. The center of the "1" region can be calculated by various methods, for example, as a geometric center of gravity. Then, the two-dimensional coordinates of the center are specified as the two-dimensional coordinates of the grip end 51a.

<1−3−1−2.ステップS5の詳細>
次に、図8を参照しつつ、ステップS5の詳細を説明する。ステップS5は、ステップS3で抽出に成功したグリップ端51aの奥行きの値を、深度フレームから直接特定する処理である。上述したとおり、ステップS5は、ステップS3と同様、ステップS2の解析の対象となる初期の期間後の各フレームについて繰り返し実行される。従って、以下でのステップS5の説明においては、ステップS3のときと同様に、対象フレームに対する処理の流れを説明する。
<1-3-1-2. Details of step S5>
Next, the details of step S5 will be described with reference to FIG. Step S5 is a process of directly specifying the depth value of the grip end 51a that was successfully extracted in step S3 from the depth frame. As described above, step S5 is repeatedly executed for each frame after the initial period to be analyzed in step S2, similarly to step S3. Therefore, in the description of step S5 below, the flow of processing for the target frame will be described as in the case of step S3.

まず、ステップS31において、位置導出部14bは、対象深度フレームから、ステップS3で特定されたグリップ端51aの二次元座標に対応する位置での奥行きの値を抽出する。図9は、ステップS3で特定されたグリップ端51aの二次元座標の位置を対象深度フレーム上にプロットした図である。 First, in step S31, the position deriving unit 14b extracts the depth value at the position corresponding to the two-dimensional coordinates of the grip end 51a specified in step S3 from the target depth frame. FIG. 9 is a diagram in which the positions of the two-dimensional coordinates of the grip end 51a identified in step S3 are plotted on the target depth frame.

続くステップS32では、位置導出部14bは、ステップS31で抽出した奥行きの値の適否を判断する。そして、適切であると判断された場合には、グリップ端51aの奥行きの値の特定に成功したと判断し、ステップS33以降に進む。一方、ステップS32において、ステップS31で抽出した奥行きの値が不適切であると判断された場合には、グリップ端51aの奥行きの値の特定に失敗したと判断し、ステップS5を終了させる。なお、本実施形態に係るステップS32では、ステップS31で抽出した奥行きの値が所定の範囲内、例えば、2000mm〜3500mmの範囲内にある場合には「適切」、そうでない場合に「不適切」と判断される。また、そもそもデータが欠落しており、ステップS31において奥行きの値が抽出されなかった場合にも、「不適切」と判断される。 In the following step S32, the position derivation unit 14b determines the suitability of the depth value extracted in step S31. Then, if it is determined to be appropriate, it is determined that the value of the depth of the grip end 51a has been successfully specified, and the process proceeds to step S33 and subsequent steps. On the other hand, if it is determined in step S32 that the depth value extracted in step S31 is inappropriate, it is determined that the identification of the depth value of the grip end 51a has failed, and step S5 is terminated. In step S32 according to the present embodiment, if the depth value extracted in step S31 is within a predetermined range, for example, in the range of 2000 mm to 3500 mm, it is "appropriate", and if not, it is "inappropriate". Is judged. Further, even if the data is missing in the first place and the depth value is not extracted in step S31, it is determined to be "inappropriate".

ステップS33では、位置導出部14bは、対象IRフレームから、シャフト52の中心の二次元座標を特定し、対象深度フレームから、当該二次元座標に対応する位置での奥行きの値を抽出する。これにより、シャフト52の中心の三次元座標が導出される。具体的には、ステップS24と同様の方法で対象IRフレームを二値化し、ここから既に抽出されているグリップ端51aの像を除去することにより、対象IRフレーム上においてシャフト52のマーカーの像を表す「1」領域が抽出される。そして、当該「1」領域の中心(例えば、幾何学上の重心)の二次元座標が、シャフト52の中心の二次元座標として特定される。なお、簡単のため、図8等からは省略されているが、ここでシャフト52の中心の三次元座標の導出に失敗した場合には、ステップS5は強制終了し、ステップS7を経てステップS6の例外処理へ進むものとする。 In step S33, the position derivation unit 14b specifies the two-dimensional coordinates of the center of the shaft 52 from the target IR frame, and extracts the depth value at the position corresponding to the two-dimensional coordinates from the target depth frame. As a result, the three-dimensional coordinates of the center of the shaft 52 are derived. Specifically, the target IR frame is binarized by the same method as in step S24, and the image of the grip end 51a already extracted from the target IR frame is removed to obtain an image of the marker of the shaft 52 on the target IR frame. The "1" region to be represented is extracted. Then, the two-dimensional coordinates of the center of the "1" region (for example, the geometric center of gravity) are specified as the two-dimensional coordinates of the center of the shaft 52. Although omitted from FIG. 8 and the like for the sake of simplicity, if the derivation of the three-dimensional coordinates of the center of the shaft 52 fails, step S5 is forcibly terminated, and step S7 is followed to step S6. Exception handling shall proceed.

続くステップS34では、位置導出部14bは、グリップ端51aの二次元座標及びシャフト52の中心の二次元座標に基づいて、対象IRフレーム上でのシャフト52の角度を算出する。この値は、後述するステップS35で使用される。 In the following step S34, the position deriving unit 14b calculates the angle of the shaft 52 on the target IR frame based on the two-dimensional coordinates of the grip end 51a and the two-dimensional coordinates of the center of the shaft 52. This value is used in step S35, which will be described later.

続くステップS35〜S37では、位置導出部14bは、グリップ端51aの奥行きの値を取り直すべきか否かを判断する。グリップ端51aの奥行きの値を取り直す条件は、
以下の3つである。
(1)シャフト52の角度が所定の範囲内(例えば、ゴルファーの正面から見て11時よりも前)である(ステップS35)。
(2)1つ前のフレームと対象フレームとのグリップ端51aの奥行きの値の差が所定値(例えば、50mm)以上である(ステップS36)。
(3)ステップS6の例外処理によらず、深度フレームからグリップ端51aの奥行きの値を直接抽出できたフレームが所定枚数(例えば、3枚)以上続いている(ステップS37)。
In the following steps S35 to S37, the position deriving unit 14b determines whether or not the value of the depth of the grip end 51a should be regained. The condition for regaining the depth value of the grip end 51a is
There are the following three.
(1) The angle of the shaft 52 is within a predetermined range (for example, before 11 o'clock when viewed from the front of the golfer) (step S35).
(2) The difference in the depth value of the grip end 51a between the previous frame and the target frame is a predetermined value (for example, 50 mm) or more (step S36).
(3) Regardless of the exception processing in step S6, the number of frames (for example, three) in which the depth value of the grip end 51a can be directly extracted from the depth frame continues (step S37).

ステップS35〜S37の条件のいずれかを満たさない場合には、ステップS31で特定されたグリップ端51aの奥行きの値が確定し、ステップS5が終了する。一方、ステップS35〜S37の条件を全て満たす場合には、位置導出部14bは、ステップS31で特定されたグリップ端51aの奥行きの値が、グリップ端51aではなく人体の奥行きの値であると判断し、グリップ端51aの奥行きの値の取り直しを行う(ステップS38)。 If any of the conditions of steps S35 to S37 is not satisfied, the depth value of the grip end 51a specified in step S31 is determined, and step S5 ends. On the other hand, when all the conditions of steps S35 to S37 are satisfied, the position deriving unit 14b determines that the depth value of the grip end 51a specified in step S31 is not the grip end 51a but the depth value of the human body. Then, the value of the depth of the grip end 51a is retaken (step S38).

具体的には、ステップS38では、対象深度フレームにおいて、グリップ端51aの二次元座標を中心に所定のサイズ(例えば、10ピクセル×10ピクセル)の探索範囲R2を設定する(図10参照)。また、位置導出部14bは、ステップS31で特定されたグリップ端51aの奥行きの値から所定値(例えば、50mm)を引き(手前側に移動)、対象深度フレームに基づいて、探索範囲R2内で当該引いた値よりも奥にあるものは全て人体であると判断する。そして、探索範囲R2内で人体の像を除いた領域(グリップ端51a及び指の像と考えられる)内の全ての点に対応する奥行きの値を特定し、その最大値(最深値)をグリップ端51aの奥行きの値とする。図11は、ステップS38による奥行の値の補正の前後を示すグラフである。左側のグラフは、ステップS31の値をプロットしたグラフであり、右側のグラフでは、このうちの太枠の丸で囲んだ2点の位置が補正されている。 Specifically, in step S38, in the target depth frame, a search range R2 having a predetermined size (for example, 10 pixels × 10 pixels) is set around the two-dimensional coordinates of the grip end 51a (see FIG. 10). Further, the position deriving unit 14b subtracts a predetermined value (for example, 50 mm) from the depth value of the grip end 51a specified in step S31 (moves to the front side), and is within the search range R2 based on the target depth frame. It is judged that everything behind the subtracted value is the human body. Then, the depth values corresponding to all the points in the search range R2 excluding the image of the human body (which is considered to be the grip end 51a and the image of the finger) are specified, and the maximum value (deepest value) is used as the grip. Let it be the value of the depth of the end 51a. FIG. 11 is a graph showing before and after the correction of the depth value in step S38. The graph on the left is a graph in which the values in step S31 are plotted, and in the graph on the right, the positions of the two points circled in the thick frame are corrected.

<1−3−1−3.ステップS6(例外処理)の詳細>
以下、図12を参照しつつ、ステップS6の例外処理について説明する。例外処理は、ステップS3,S5においてグリップ端51aの三次元座標の導出に失敗した場合に、別の方法でグリップ端51aの三次元座標を導出するための処理である。
<1-3-1-3. Details of step S6 (exception handling)>
Hereinafter, the exception handling in step S6 will be described with reference to FIG. The exception processing is a process for deriving the three-dimensional coordinates of the grip end 51a by another method when the derivation of the three-dimensional coordinates of the grip end 51a fails in steps S3 and S5.

まず、ステップS41では、位置導出部14bは、対象IRフレームからシャフト52のマーカーの像を抽出する。具体的には、ステップS24と同様の方法で対象IRフレームを二値化し、ここから適宜グリップ端51aの像を除去することにより、対象IRフレーム上におけるシャフト52のマーカーの像が抽出される。ここでシャフト52の像が抽出された場合には、ステップS42に進み、抽出できなかった場合には、ステップS48に進む。 First, in step S41, the position deriving unit 14b extracts an image of the marker of the shaft 52 from the target IR frame. Specifically, the target IR frame is binarized by the same method as in step S24, and the image of the grip end 51a is appropriately removed from the target IR frame to extract the image of the marker of the shaft 52 on the target IR frame. If the image of the shaft 52 is extracted here, the process proceeds to step S42, and if the image cannot be extracted, the process proceeds to step S48.

ステップS42では、位置導出部14bは、ステップS41で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、位置導出部14bは、対象深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52のマーカーの三次元座標が導出される。 In step S42, the position deriving unit 14b identifies the two-dimensional coordinates of all the points included in the area of the marker image of the shaft 52 extracted in step S41. Further, the position derivation unit 14b specifies a depth value corresponding to the two-dimensional coordinates specified here from the target depth frame. As a result, the three-dimensional coordinates of the marker on the shaft 52 are derived.

続いて、位置導出部14bは、シャフト52のマーカーの二次元座標に基づいて、グリップ端51aの二次元座標を推定する(ステップS43)。具体的には、当該グリップ端51aの二次元座標は、記憶部13内に格納されている、シャフト52のマーカーの長さ及びマーカーの中心からグリップ端51aまでの距離を参照することにより、対象IRフレームに写るシャフト52のマーカーの長さ及びマーカーの中心の二次元座標に基づいて特定される。 Subsequently, the position deriving unit 14b estimates the two-dimensional coordinates of the grip end 51a based on the two-dimensional coordinates of the marker of the shaft 52 (step S43). Specifically, the two-dimensional coordinates of the grip end 51a are targeted by referring to the length of the marker on the shaft 52 and the distance from the center of the marker to the grip end 51a stored in the storage unit 13. It is specified based on the length of the marker on the shaft 52 reflected in the IR frame and the two-dimensional coordinates of the center of the marker.

続くステップS44では、位置導出部14bは、ステップS42で抽出したシャフト52の奥行きの値の適否を判断し、適切であると判断される場合には、ステップS45に進む。一方、ステップS44において、ステップS42で抽出した奥行きの値が不適切であると判断された場合には、ステップS46へと進む。なお、本実施形態に係るステップS44では、以下の2つの条件を満たす場合に「適切」、少なくとも一方を満たさない場合に「不適切」と判断される。なお、(2)の条件は、ステップS41においてシャフト52のマーカーの像を正しく抽出できているか、すなわち、脚等のデータを抽出していないかをチェックするための条件である。
(1)シャフト52の中心の奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にある。
(2)対象深度フレーム上において、シャフト52のマーカーの像に対応する領域内の全ての点のうち、奥行きの値が「0」(奥行きの値が得られなかった場合の画素値)の割合が所定値(例えば、4割)以下である。
In the following step S44, the position derivation unit 14b determines the suitability of the depth value of the shaft 52 extracted in step S42, and if it is determined to be appropriate, proceeds to step S45. On the other hand, if it is determined in step S44 that the depth value extracted in step S42 is inappropriate, the process proceeds to step S46. In step S44 according to the present embodiment, it is determined to be "appropriate" when the following two conditions are satisfied, and "inappropriate" when at least one of them is not satisfied. The condition (2) is a condition for checking whether the image of the marker of the shaft 52 is correctly extracted in step S41, that is, whether the data of the legs or the like is extracted.
(1) The value of the depth of the center of the shaft 52 is within a predetermined range (for example, 1000 mm to 3500 mm).
(2) Percentage of all points in the area corresponding to the marker image of the shaft 52 on the target depth frame, where the depth value is "0" (pixel value when the depth value cannot be obtained). Is less than or equal to a predetermined value (for example, 40%).

ステップS45では、位置導出部14bは、シャフト52のマーカーの三次元座標から、グリップ端51aの三次元座標を推定する。本実施形態では、まず、対象IRフレーム上において、シャフト52のマーカーの像からシャフト52の慣性主軸A1を抽出し、対象深度フレームから慣性主軸A1上の各点の奥行きの値を取得する(図13参照)。さらに、これらの奥行きの値から外れ値を除外する。外れ値は、所定の範囲外(例えば、1000mm以下、又は、3500mm以上)の値であるか、基準値から大きく乖離した値(例えば、300mm以上異なる値)である。当該基準値は、例えば、シャフト52の角度が9時より前はa−b線上の点の奥行きの最小値、シャフト52の角度が9時以降はa−b線上の点の奥行きの最大値として設定され得る。なお、a点は、対象IRフレーム内において、グリップ端51aに最も近い慣性主軸A1上の点(外れ値は除く)であり、b点は、対象IRフレーム内において、グリップ端51aから最も遠い慣性主軸A1上の点(外れ値は除く)である(図13参照)。続いて、対象IRフレーム内において、b点から慣性主軸A1上の各点(外れ値は除く)との距離を算出する。そして、慣性主軸A1上の各点(外れ値は除く)についてのb点からの距離と奥行きとを、距離−奥行き平面内にプロットし(図14参照)、距離と奥行きとの関係を表す一次近似式を導出する。続いて、対象IRフレーム内におけるb点からグリップ端51aまでの距離を算出し、この距離を上記一次近似式に代入することにより、グリップ端51aの奥行きを算出する。これにより、グリップ端51aの三次元座標が導出される。ステップS45が終了すると、例外処理は終了する。 In step S45, the position deriving unit 14b estimates the three-dimensional coordinates of the grip end 51a from the three-dimensional coordinates of the marker on the shaft 52. In the present embodiment, first, on the target IR frame, the inertial spindle A1 of the shaft 52 is extracted from the image of the marker of the shaft 52, and the depth value of each point on the inertial spindle A1 is acquired from the target depth frame (FIG. See 13). In addition, we exclude outliers from these depth values. The outlier is a value outside the predetermined range (for example, 1000 mm or less, or 3500 mm or more), or a value that greatly deviates from the reference value (for example, a value that differs by 300 mm or more). The reference value is, for example, the minimum value of the depth of the point on the ab line when the angle of the shaft 52 is before 9 o'clock, and the maximum value of the depth of the point on the ab line after the angle of the shaft 52 is 9 o'clock. Can be set. Point a is the point on the inertial spindle A1 closest to the grip end 51a in the target IR frame (excluding outliers), and point b is the inertia farthest from the grip end 51a in the target IR frame. It is a point on the spindle A1 (excluding outliers) (see FIG. 13). Subsequently, in the target IR frame, the distance from the point b to each point (excluding outliers) on the inertial spindle A1 is calculated. Then, the distance and depth from point b for each point (excluding outliers) on the inertial spindle A1 are plotted in the distance-depth plane (see FIG. 14), and the primary representing the relationship between the distance and the depth. Derive an approximate expression. Subsequently, the distance from the point b in the target IR frame to the grip end 51a is calculated, and the depth of the grip end 51a is calculated by substituting this distance into the above-mentioned first-order approximation formula. As a result, the three-dimensional coordinates of the grip end 51a are derived. When step S45 ends, exception handling ends.

なお、慣性主軸A1とは、以下に示す方法で特定される。すなわち、まず、シャフト52のマーカーの像と同じ二次モーメントを有する楕円を定義する。そして、当該楕円の長軸の長さをLとし、当該楕円の長軸とx軸(対象フレームの横軸)との為す角θを特定する。また、シャフト52のマーカーの重心の座標(x1,y1)を導出する。このとき、慣性主軸A1の始点(xs,ys)及び終点(xe,ye)の座標は、以下のとおりとなる。
s=x1−L・cosθ/2
s=y1−L・sinθ/2
e=x1+L・cosθ/2
e=x1+L・cosθ/2
The inertial spindle A1 is specified by the method shown below. That is, first, an ellipse having the same moment of inertia as the image of the marker on the shaft 52 is defined. Then, let L be the length of the major axis of the ellipse, and specify the angle θ formed by the major axis of the ellipse and the x-axis (horizontal axis of the target frame). Further, the coordinates (x 1 , y 1 ) of the center of gravity of the marker of the shaft 52 are derived. At this time, the coordinates of the start point (x s , y s ) and the end point (x e , y e ) of the inertial spindle A1 are as follows.
x s = x 1 −L · cos θ / 2
y s = y 1 −L · sin θ / 2
x e = x 1 + L · cos θ / 2
y e = x 1 + L · cos θ / 2

以下のS47では、グリップ端51aに代えて、グリップ51の下部の点の奥行きの値に基づいて、グリップ端51aの三次元座標が推定される。ステップS47の前に実行されるステップS46は、ステップS47の推定のアルゴリズムが効果的に機能する対象フレームを選別するためのステップである。具体的には、ステップS46において以下の2つの条件を満たすと判断された場合には、ステップS47へと進み、少なくとも一方を満たさないと判断された場合には、ステップS48へ進む。
(1)対象フレームがアドレス又はトップ近傍のフレーム(例えば、前後5枚のフレーム)である。
(2)a−c線上において、外れ値以外の奥行きを有する点が1点以上存在する。
In the following S47, the three-dimensional coordinates of the grip end 51a are estimated based on the depth value of the lower point of the grip 51 instead of the grip end 51a. Step S46, which is executed before step S47, is a step for selecting a target frame in which the estimation algorithm of step S47 works effectively. Specifically, if it is determined in step S46 that the following two conditions are satisfied, the process proceeds to step S47, and if it is determined that at least one of the conditions is not satisfied, the process proceeds to step S48.
(1) The target frame is a frame near the address or the top (for example, five frames before and after).
(2) On the a-c line, there is one or more points having a depth other than the outliers.

なお、c点とは、対象IRフレーム内において、a点とグリップ端51aとを結んだ線上において、a点からグリップ端51aの方向に所定の距離(例えば、20ピクセル)だけ離れた点である。また、(2)の外れ値とは、所定の範囲外(例えば、1000mm以下、又は、3500mm以上)の値であるか、基準値から大きく乖離した値(例えば、150mm以上異なる値)である。当該基準値も、ステップS45での説明と同様に設定することができる。 The point c is a point in the target IR frame that is separated from the point a by a predetermined distance (for example, 20 pixels) in the direction of the grip end 51a on the line connecting the point a and the grip end 51a. .. The outlier of (2) is a value outside the predetermined range (for example, 1000 mm or less, or 3500 mm or more), or a value that greatly deviates from the reference value (for example, a value different by 150 mm or more). The reference value can also be set in the same manner as described in step S45.

ステップS47の詳細は、図16に示される。すなわち、まず、ステップS471として、位置導出部14bは、a−c線上の点の分布を表す1次近似式を導出する。具体的には、対象IRフレーム内において、グリップ端51aから最も遠いa−c線上の点(外れ値は除く)を基準点とし、当該基準点からa−c線上の各点(外れ値は除く)との距離を算出する。そして、a−c線上の各点(外れ値は除く)についての上記基準点からの距離と、奥行きとの関係を表す一次近似式を導出する。 Details of step S47 are shown in FIG. That is, first, in step S471, the position deriving unit 14b derives a first-order approximate expression representing the distribution of points on the a-c line. Specifically, in the target IR frame, the point on the ac line farthest from the grip end 51a (excluding outliers) is set as the reference point, and each point on the ac line from the reference point (excluding outliers). ) Is calculated. Then, a first-order approximate expression expressing the relationship between the distance from the reference point and the depth of each point (excluding outliers) on the ac line is derived.

続いて、ステップS472では、位置導出部14bは、ステップS471で算出された1次近似式の傾きが0になっていないか否かを判断し、0でない場合には、ステップS473に進む。ステップS473では、位置導出部14bは、対象IRフレーム内における上記基準点からグリップ端51aまでの距離を算出し、この距離を上記一次近似式に代入することにより、グリップ端51aの奥行きを算出する。これにより、グリップ端51aの三次元座標が導出される。ステップS473が終了すると、例外処理は終了する。 Subsequently, in step S472, the position derivation unit 14b determines whether or not the slope of the linear approximation formula calculated in step S471 is 0, and if it is not 0, the process proceeds to step S473. In step S473, the position derivation unit 14b calculates the distance from the reference point to the grip end 51a in the target IR frame, and substitutes this distance into the first-order approximation formula to calculate the depth of the grip end 51a. .. As a result, the three-dimensional coordinates of the grip end 51a are derived. When step S473 ends, exception handling ends.

一方、ステップS472で1次近似式の傾きが0になっていると判断された場合には、位置導出部14bは、直前の3フレームにおけるグリップ端51aの動きのシーケンスから、対象時刻での奥行きを推定する(ステップS474)。例えば、以下の式に従って、対象時刻での奥行きDを決定することができる。ただし、D1〜D3は、それぞれ1つ前〜3つ前のフレームの奥行きDである。これにより、グリップ端51aの三次元座標が導出される。ステップ474が終了すると、例外処理は終了する。
D=2(D1−D2)−(D2−D3)+D1
On the other hand, when it is determined in step S472 that the slope of the first-order approximation formula is 0, the position derivation unit 14b determines the depth at the target time from the sequence of movements of the grip end 51a in the immediately preceding three frames. Is estimated (step S474). For example, the depth D at the target time can be determined according to the following equation. However, D 1 to D 3 are the depths D of the frames one to three before, respectively. As a result, the three-dimensional coordinates of the grip end 51a are derived. When step 474 ends, exception handling ends.
D = 2 (D 1 − D 2 ) − (D 2 − D 3 ) + D 1

図12に戻って、ステップS48では、位置導出部14bは、グリップ端51aの抽出を5フレーム連続で失敗していないか否かを判断する。5フレーム連続で失敗していないと判断された場合には、ステップS49に進み、直前の3フレームにおけるグリップ端51aの動きのシーケンスから、対象時刻でのグリップ端51aの位置を推定する。より具体的には、グリップ端51aの二次元座標が特定されている場合には、ステップS474と同様に奥行きのみが推定され、グリップ端51aの二次元座標が特定されていない場合には、グリップ端51aの三次元座標が推定される。一方、ステップS48において、失敗の連続回数が5フレーム以上であると判断された場合には、位置導出部14bは、対象フレームのグリップ端51aの位置を決定せずに、例外処理を終了する。なお、ステップS49においては、グリップ端51aの二次元座標が特定されており、かつ、対象フレーム内でのグリップ端51aの二次元座標と、直前のフレームにおけるグリップ端51aの二次元座標との距離が小さい(例えば、5ピクセル以下)場合には、直前のフレームの奥行きの値をそのまま対象フレームの奥行きの値として使用することもできる。 Returning to FIG. 12, in step S48, the position deriving unit 14b determines whether or not the extraction of the grip end 51a has failed for five consecutive frames. If it is determined that the failure has not occurred for 5 consecutive frames, the process proceeds to step S49, and the position of the grip end 51a at the target time is estimated from the sequence of movements of the grip end 51a in the immediately preceding 3 frames. More specifically, when the two-dimensional coordinates of the grip end 51a are specified, only the depth is estimated as in step S474, and when the two-dimensional coordinates of the grip end 51a are not specified, the grip is gripped. The three-dimensional coordinates of the end 51a are estimated. On the other hand, if it is determined in step S48 that the number of consecutive failures is 5 frames or more, the position derivation unit 14b ends the exception handling without determining the position of the grip end 51a of the target frame. In step S49, the two-dimensional coordinates of the grip end 51a are specified, and the distance between the two-dimensional coordinates of the grip end 51a in the target frame and the two-dimensional coordinates of the grip end 51a in the immediately preceding frame. When is small (for example, 5 pixels or less), the depth value of the immediately preceding frame can be used as it is as the depth value of the target frame.

<1−3−1−4.キャリブレーション>
以下、以上の処理により導出されたグリップ端51aの三次元座標のキャリブレーションについて説明する。本キャリブレーションは、以上の処理により導出されたグリップ端51aの三次元座標を、以下の重回帰式に代入することにより行われる。

Figure 0006944144
<1-3-1-4. Calibration>
Hereinafter, the calibration of the three-dimensional coordinates of the grip end 51a derived by the above processing will be described. This calibration is performed by substituting the three-dimensional coordinates of the grip end 51a derived by the above process into the following multiple regression equation.
Figure 0006944144

以上の重回帰式中のx,y,Zは、キャリブレーション前のグリップ端51aの三次元座標であり、X,Y,Z'は、キャリブレーション後のグリップ端51aの三次元座標である。なお、Z,Z'が奥行きである。また、係数a1〜c1,a2〜f2,a3〜f3は、実験により予め定められた値である。以下、係数a1〜c1,a2〜f2,a3〜f3の決定方法について説明する。 In the above multiple regression equation, x, y, Z are the three-dimensional coordinates of the grip end 51a before calibration, and X, Y, Z'are the three-dimensional coordinates of the grip end 51a after calibration. In addition, Z, Z'is the depth. The coefficients a 1 to c 1 , a 2 to f 2 , and a 3 to f 3 are values predetermined by experiments. Hereinafter, a method for determining the coefficients a 1 to c 1 , a 2 to f 2 , and a 3 to f 3 will be described.

まず、キャリブレーション後の三次元座標を規定するための三次元座標系であるX−Y−Z'座標系を定義する。そして、距離画像センサ2の前に様々なテスト被写体を配置してこれを撮影する。次に、位置導出部14bにより、上述したステップS3,S5(S29,S31)と同様の処理により、各テスト被写体の三次元座標(x,y,Z)を算出する。また、各テスト被写体の実際の位置を測定して、三次元座標(X,Y,Z)として表し、これらの値をスイング解析装置1に入力する。これにより、位置導出部14bは、様々なテスト被写体の三次元座標(x,y,Z)及び三次元座標(X,Y,Z)を取得したことになる。そこで、続けて、位置導出部14bは、これらのデータをサンプルデータとして、(x,y,Z)と(X,Y,Z')との関係を表す重回帰式を導出する。なお、数1の重回帰式は、非線形モデルであるが、線形モデルで表すこともできるし、X,Y,Z'の説明変数は、x,y,Zを適宜組み合わせて任意に設定することができる。 First, the XYZ'coordinate system, which is a three-dimensional coordinate system for defining the three-dimensional coordinates after calibration, is defined. Then, various test subjects are arranged in front of the distance image sensor 2 and photographed. Next, the position derivation unit 14b calculates the three-dimensional coordinates (x, y, Z) of each test subject by the same processing as in steps S3 and S5 (S29, S31) described above. Further, the actual position of each test subject is measured, expressed as three-dimensional coordinates (X, Y, Z), and these values are input to the swing analysis device 1. As a result, the position derivation unit 14b has acquired the three-dimensional coordinates (x, y, Z) and the three-dimensional coordinates (X, Y, Z) of various test subjects. Therefore, the position derivation unit 14b subsequently derives a multiple regression equation expressing the relationship between (x, y, Z) and (X, Y, Z') using these data as sample data. Although the multiple regression equation of Equation 1 is a non-linear model, it can also be expressed by a linear model, and the explanatory variables of X, Y, and Z'are arbitrarily set by appropriately combining x, y, and Z. Can be done.

X−Y−Z'座標系は、例えば、ボールを原点として、奥行きを表す距離画像センサ2の光軸方向をZ'軸とし、鉛直上下方向をY軸とし、水平方向をX軸として設定することができる。また、テスト被写体としては様々なものを使用し得るが、図17に示すような格子状に赤外線を効率的に反射するマーカーを張った板を用意し(格子の交点や格子で囲まれた四角形の領域の中心等がテスト被写体として機能し得る)、これをZ'軸方向の様々な位置に配置して撮影することで、効率的に重回帰分析を実行することができる。 In the XYZ'coordinate system, for example, the ball is set as the origin, the optical axis direction of the distance image sensor 2 representing the depth is set as the Z'axis, the vertical vertical direction is set as the Y axis, and the horizontal direction is set as the X axis. be able to. In addition, although various test subjects can be used, a plate with a marker that efficiently reflects infrared rays is prepared in a grid pattern as shown in FIG. 17 (a quadrangle surrounded by grid intersections and grids). The center of the region can function as a test subject), and by arranging this at various positions in the Z'axis direction and taking a picture, multiple regression analysis can be efficiently performed.

<1−3−1−5.補正処理>
以下、図18を参照しつつ、ステップS9の補正処理について説明する。本補正処理は、以上の処理により導出されたグリップ端51aの三次元座標を補正する処理である。既に述べたとおり、IRフレームにグリップ端51aの像が写らず、シャフト52の位置等に基づいてグリップ端51aの三次元座標の推定が行われたフレームについては、誤差が顕著に表れることがある。このような誤差は、特にアドレス付近で生じやすいため、本実施形態では、アドレス付近でのフレームを対象として、本補正処理に係る以下のステップS53〜S57が実行される。しかしながら、アドレス付近に限らず、任意の期間のフレームを対象として、ステップS53〜S57を実行することも可能である。なお、本実施形態では、ステップS8のキャリブレーション後の三次元座標が補正の対象となるが、キャリブレーション前の三次元座標を補正してもよい。
<1-3-1-1-5. Correction process>
Hereinafter, the correction process of step S9 will be described with reference to FIG. This correction process is a process for correcting the three-dimensional coordinates of the grip end 51a derived by the above process. As already described, an error may appear remarkably in a frame in which the image of the grip end 51a is not reflected on the IR frame and the three-dimensional coordinates of the grip end 51a are estimated based on the position of the shaft 52 or the like. .. Since such an error is particularly likely to occur in the vicinity of the address, in the present embodiment, the following steps S53 to S57 related to this correction process are executed for the frame in the vicinity of the address. However, it is also possible to execute steps S53 to S57 not only in the vicinity of the address but also in the frame of an arbitrary period. In the present embodiment, the three-dimensional coordinates after the calibration in step S8 are the targets of correction, but the three-dimensional coordinates before the calibration may be corrected.

まず、ステップS51として、位置導出部14bは、最初にIRフレーム上においてグリップ端51aが抽出できたフレーム(ステップS7において、最初に「YES」となったフレーム。以下、最後のフレームという)を特定する。 First, as step S51, the position derivation unit 14b identifies the frame from which the grip end 51a can be first extracted on the IR frame (the frame in which the grip end 51a was first extracted in step S7; hereinafter, referred to as the last frame). do.

続くステップS52では、位置導出部14bは、上記の最後のフレームまでのフレームのうち、IRフレーム上においてグリップ端51aが抽出できなかったフレーム(ステップS4又はS7において、「NO」となったフレーム)であり、かつ、シャフト52が抽出されているフレーム(以下、補正対象フレーム)を全て特定する。なお、補正対象フレームには、IRフレーム及び深度フレームが含まれ、それぞれを補正対象IRフレーム及び補正対象深度フレームと呼ぶ。 In the following step S52, the position derivation unit 14b is a frame up to the last frame in which the grip end 51a could not be extracted on the IR frame (a frame that became “NO” in steps S4 or S7). And all the frames from which the shaft 52 is extracted (hereinafter, the frames to be corrected) are specified. The correction target frame includes an IR frame and a depth frame, which are referred to as a correction target IR frame and a correction target depth frame, respectively.

続くステップS53〜S57は、各補正対象フレームに対し繰り返し実行される。具体的には、ステップS53では、位置導出部14bは、補正対象IRフレームからシャフト52のマーカーの像を抽出する。具体的な方法は、ステップS41と同様であり、ステップS41の結果を適宜流用することができる。 Subsequent steps S53 to S57 are repeatedly executed for each correction target frame. Specifically, in step S53, the position deriving unit 14b extracts an image of the marker of the shaft 52 from the correction target IR frame. The specific method is the same as in step S41, and the result of step S41 can be appropriately diverted.

続くステップS54では、位置導出部14bは、ステップS53で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、位置導出部14bは、補正対象深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52のマーカーの三次元座標が導出される。これらの処理も、ステップS42の結果を流用することができる。 In the following step S54, the position deriving unit 14b identifies the two-dimensional coordinates of all the points included in the area of the marker image of the shaft 52 extracted in step S53. Further, the position derivation unit 14b specifies a depth value corresponding to the two-dimensional coordinates specified here from the correction target depth frame. As a result, the three-dimensional coordinates of the marker on the shaft 52 are derived. The results of step S42 can also be used for these processes.

続くステップS55では、位置導出部14bは、ステップS53で抽出された全ての点のうち、奥行きの値が適切な点(以下、対象点という)を全て特定する。なお、奥行きの値が適切であるか否かは、例えば、奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にあるか否かに応じて判断される。 In the following step S55, the position derivation unit 14b identifies all the points having an appropriate depth value (hereinafter referred to as target points) among all the points extracted in step S53. Whether or not the depth value is appropriate is determined, for example, depending on whether or not the depth value is within a predetermined range (for example, 1000 mm to 3500 mm).

続くステップS56では、位置導出部14bは、全ての対象点の三次元座標(X,Y,Z')に対して主成分分析を行い、第1主成分を導出する。具体的には、全ての対象点の三次元座標(X,Y,Z')の共分散行列Σを算出する。続いて、共分散行列Σの固有方程式を解き、3つの固有値λ1、λ2,λ3及びそれぞれに対応する固有ベクトルω1,ω2,ω3を算出する(λ1≧λ2≧λ3とする)。そして、最大の固有値λ1に対応する固有ベクトルω1(第1主成分)を特定する。 In the following step S56, the position derivation unit 14b performs principal component analysis on the three-dimensional coordinates (X, Y, Z') of all the target points, and derives the first principal component. Specifically, the covariance matrix Σ of the three-dimensional coordinates (X, Y, Z') of all the target points is calculated. Then, the eigenvalues of the covariance matrix Σ are solved to calculate the three eigenvalues λ 1 , λ 2 , λ 3 and the corresponding eigenvectors ω 1 , ω 2 , ω 3 (λ 1 ≧ λ 2 ≧ λ 3). ). Then, the eigenvector ω 1 (first principal component) corresponding to the maximum eigenvalue λ 1 is specified.

続くステップS57では、第1主成分ω1に沿ってシャフト52が伸びているものと仮定して、グリップ端51aの三次元座標が特定される(図19参照)。具体的には、位置導出部14bは、X−Y−Z'座標系内での、シャフト52のマーカーの中心からグリップ端51aまでの三次元距離Lを算出する。この距離Lは、記憶部13内に格納されている、シャフト52のマーカーの長さ及びマーカーの中心からグリップ端51aまでの距離の値を参照することにより算出される。そして、第1主成分ω1に沿った直線(すなわち、シャフト52を表す直線)上において、シャフト52のマーカーの中心から距離Lだけ離れた点の三次元座標(X,Y,Z')を特定し、グリップ端51aの三次元座標とする。 In the following step S57, the three-dimensional coordinates of the grip end 51a are specified on the assumption that the shaft 52 extends along the first principal component ω 1 (see FIG. 19). Specifically, the position deriving unit 14b calculates the three-dimensional distance L from the center of the marker on the shaft 52 to the grip end 51a in the XYZ'coordinate system. This distance L is calculated by referring to the length of the marker on the shaft 52 and the value of the distance from the center of the marker to the grip end 51a stored in the storage unit 13. Then, on the straight line along the first principal component ω 1 (that is, the straight line representing the shaft 52), the three-dimensional coordinates (X, Y, Z') of the points separated by the distance L from the center of the marker of the shaft 52 are set. It is specified and used as the three-dimensional coordinates of the grip end 51a.

全ての補正対象フレームに対する以上ステップS53〜S57が終了すると、補正処理は終了する。図20は、実際の補正処理の結果を表す図である。図20中の「補正前」のグラフは、ステップS1〜S8により導出されたグリップ端51aのZ'値(奥行き)であり、「補正後」のグラフは、本補正処理後のグリップ端51aのZ'値(奥行き)である。また、「真値」は、多数の赤外線カメラにより様々な角度から撮影された画像に基づいてマーカーの三次元座標を高精度に読み取ることのできる三次元動作解析システム(実際にはインターリハ社製のVICONが使用されたが、勿論、他の三次元動作解析システムも利用可能である)により計測されたグリップ端51aの位置である。図20からは、本補正処理により、グリップ端51aの奥行きの座標を真値に近づけることができることが分かる。 When the above steps S53 to S57 for all the frames to be corrected are completed, the correction process is completed. FIG. 20 is a diagram showing the result of the actual correction processing. The “before correction” graph in FIG. 20 is the Z'value (depth) of the grip end 51a derived in steps S1 to S8, and the “after correction” graph is the grip end 51a after this correction processing. Z'value (depth). In addition, "True Value" is a 3D motion analysis system (actually manufactured by Interliha) that can read the 3D coordinates of markers with high accuracy based on images taken from various angles by a large number of infrared cameras. VICON was used, but of course other 3D motion analysis systems are also available) for the position of the grip end 51a. From FIG. 20, it can be seen that the coordinates of the depth of the grip end 51a can be brought closer to the true value by this correction process.

<1−3−2.左肩挙動導出処理>
以下、左肩挙動導出処理について説明する。左肩挙動導出処理では、距離画像センサ2により撮影された深度画像に基づいて、スイング動作中のゴルファー7の左肩71の軌道を表す三次元座標が導出される。グリップ挙動導出処理の場合と同様、解析の対象となる画像データは、動画である。従って、ここでも、解析の対象となる深度画像を、深度フレームという。スイング動作中の各タイミングでの三次元座標は、主としてそのタイミングでの深度フレームに基づいて導出される。
<1-3-2. Left shoulder behavior derivation process>
The left shoulder behavior derivation process will be described below. In the left shoulder behavior derivation process, three-dimensional coordinates representing the trajectory of the left shoulder 71 of the golfer 7 during the swing operation are derived based on the depth image captured by the distance image sensor 2. As in the case of the grip behavior derivation process, the image data to be analyzed is a moving image. Therefore, here as well, the depth image to be analyzed is called a depth frame. The three-dimensional coordinates at each timing during the swing operation are derived mainly based on the depth frame at that timing.

図21は、左肩挙動導出処理の全体の流れを示すフローチャートである。左肩挙動導出処理では、まず、取得部14aが、距離画像センサ2から取得され、記憶部13に格納されているスイング動作中の各タイミングでの深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの深度フレームから、各タイミングでのスケルトンデータを取得する(ステップS61)。スケルトンデータとは、人体の主要な関節の位置(三次元座標)を表すデータである。深度フレームからスケルトンデータを導出する方法は、様々なものが公知であるため、ここでは詳細な説明を省略する。また、距離画像センサであるKinect(登録商標)(v1であっても、v2であってもよい。以下同様。)には、深度画像からスケルトンデータを読み出すためのライブラリが提供されており、本実施形態では、当該ライブラリを用いて、スケルトンデータが取得される。なお、距離画像センサ2のCPU23が、深度フレームからスケルトンデータを導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきたスケルトンデータを読み出すだけでよい。 FIG. 21 is a flowchart showing the entire flow of the left shoulder behavior derivation process. In the left shoulder behavior derivation process, first, the acquisition unit 14a reads the depth frame at each timing during the swing operation, which is acquired from the distance image sensor 2 and stored in the storage unit 13, and expands it into the memory. Then, the acquisition unit 14a acquires the skeleton data at each timing from these depth frames (step S61). Skeleton data is data that represents the positions (three-dimensional coordinates) of major joints in the human body. Since various methods for deriving skeleton data from the depth frame are known, detailed description thereof will be omitted here. Further, the distance image sensor Kinect (registered trademark) (which may be v1 or v2; the same shall apply hereinafter) is provided with a library for reading skeleton data from a depth image. In the embodiment, the skeleton data is acquired using the library. The CPU 23 of the distance image sensor 2 may derive the skeleton data from the depth frame. In this case, the acquisition unit 14a may simply read the skeleton data sent from the distance image sensor 2.

スケルトンデータには、左肩71の三次元座標が含まれるため、ステップS61は、左肩71の挙動を導出するステップであると言える。しかしながら、Kinect由来のスケルトンデータにより特定される左肩71の位置は、使用の目的にもよるが、必ずしもスンイグ動作中の全区間で十分な精度を保つとは限らない。そのため、本実施形態では、後述する凸部抽出フィルタ及び左肩シルエットフィルタによっても左肩71の三次元座標が導出され、これらが適宜切り替えられる。これにより、様々な区間において、左肩71の三次元座標を高精度に導出することができるようになっている。なお、使用の目的にもよるが、スケルトンデータのみから左肩71の位置を特定することもできるし、凸部抽出フィルタのみ又は左肩シルエットフィルタのみから左肩71の位置を特定することもできる。すなわち、これら3つの方法は、使用の目的に応じて、単独で用いることもできるし、任意のものを適宜組み合わせて用いることもできる。 Since the skeleton data includes the three-dimensional coordinates of the left shoulder 71, it can be said that step S61 is a step of deriving the behavior of the left shoulder 71. However, the position of the left shoulder 71 specified by the Kinect-derived skeleton data does not always maintain sufficient accuracy in the entire section during the snuig operation, although it depends on the purpose of use. Therefore, in the present embodiment, the three-dimensional coordinates of the left shoulder 71 are also derived by the convex portion extraction filter and the left shoulder silhouette filter, which will be described later, and these are appropriately switched. This makes it possible to derive the three-dimensional coordinates of the left shoulder 71 with high accuracy in various sections. Depending on the purpose of use, the position of the left shoulder 71 can be specified only from the skeleton data, or the position of the left shoulder 71 can be specified only from the convex extraction filter or the left shoulder silhouette filter. That is, these three methods can be used alone or in combination as appropriate, depending on the purpose of use.

続いて、ステップS62では、位置導出部14bは、取得部14aにより取得された以上の深度フレームのうち、解析の対象となるフレームを決定する(ステップS62)。本実施形態では、スイング動作中のアドレスからフィニッシュまでの期間が解析の対象とされる。従って、ステップS62では、アドレス及びフィニッシュのタイミングが決定され、この間の深度フレームが以後のステップS63〜69に係る解析の対象として決定される。アドレス及びフィニッシュのタイミングは、例えばグリップ51に取り付けられた慣性センサからの出力データに基づいて判定することもできるし、画像データ自体から画像処理により判定することもできる。このようなアドレス及びフィニッシュのタイミングの決定方法は、様々なものが知られているため、ここでは詳細な説明を省略する。 Subsequently, in step S62, the position derivation unit 14b determines a frame to be analyzed among the depth frames acquired by the acquisition unit 14a or more (step S62). In the present embodiment, the period from the address during the swing operation to the finish is the target of analysis. Therefore, in step S62, the address and the finish timing are determined, and the depth frame during this period is determined as the target of the analysis according to the subsequent steps S63 to 69. The address and finish timing can be determined based on, for example, the output data from the inertial sensor attached to the grip 51, or can be determined from the image data itself by image processing. Since various methods for determining such an address and finish timing are known, detailed description thereof will be omitted here.

続くステップS63では、位置導出部14bは、各深度フレームの画像サイズを縮小する。圧縮のアルゴリズムは、様々なものを利用することができ、例えば、バイキュービックやニアレストネイバー等を使用することができる。この圧縮処理により、以下の計算負荷を低減することができる。また、縮小後の画像サイズが一定値となるような圧縮を行えば、後述される各種フィルタを画像サイズに応じて生成する必要がなくなり、処理が効率化される。 In the following step S63, the position deriving unit 14b reduces the image size of each depth frame. Various compression algorithms can be used, for example, bicubic or nearest neighbor can be used. By this compression processing, the following calculation load can be reduced. Further, if compression is performed so that the reduced image size becomes a constant value, it is not necessary to generate various filters described later according to the image size, and the processing becomes efficient.

続くステップS64では、位置導出部14bは、各深度フレームを二値化する。この二値化は、深度フレームにおいて人物を写す領域(例えば、奥行きが2200mm〜2800mmの範囲)で奥行きのデータが存在している画素値を「1」、それ以外を「0」とすることにより行われる。この二値化画像は、距離画像センサ2の有効距離の範囲内に存在する被写体(主として、ゴルファー7及びゴルフクラブ5)のシルエットを抽出した画像である。この二値化画像の用途は、後述する。 In the following step S64, the position derivation unit 14b binarizes each depth frame. This binarization is performed by setting the pixel value in which the depth data exists in the area where the person is captured in the depth frame (for example, the depth range of 2200 mm to 2800 mm) to be "1" and the other pixel values to be "0". Will be done. This binarized image is an image obtained by extracting the silhouettes of subjects (mainly golfers 7 and golf clubs 5) existing within the effective distance range of the distance image sensor 2. The use of this binarized image will be described later.

続くステップS65では、位置導出部14bは、凸部抽出フィルタを用いて、各深度フレームから左肩71の三次元座標を導出する。また、ステップS66では、位置導出部14bは、左肩シルエットフィルタを用いて、各深度フレームから左肩71の三次元座標を導出する。これらのフィルタを用いた左肩71の抽出処理の詳細は、後述される。 In the following step S65, the position derivation unit 14b derives the three-dimensional coordinates of the left shoulder 71 from each depth frame by using the convex portion extraction filter. Further, in step S66, the position deriving unit 14b derives the three-dimensional coordinates of the left shoulder 71 from each depth frame by using the left shoulder silhouette filter. Details of the extraction process of the left shoulder 71 using these filters will be described later.

以上、3つの方法(スケルトンデータ、凸部抽出フィルタ及び左肩シルエットフィルタによる方法)により左肩71の三次元座標が導出されると、位置導出部14bは、3つの方法を切り替えるタイミングを導出する(ステップS67)。本発明者らは、鋭意検討の結果、スイング動作中、アドレスからテイクバック腕水平までの区間では、スケルトンデータによる方法の精度が特に高く、テイクバック腕水平からダウンスイング腕水平まで区間では、凸部抽出フィルタによる方法の精度が特に高く、ダウンスイング腕水平からフィニッシュまでの区間では、左肩シルエットフィルタによる方法の精度が特に高いことを発見した。これは、Kinect(登録商標)由来のスケルトンデータでは、肩の捻転運動が十分に考慮されないため、テイクバック腕水平以後に左肩71が回転を始めると、精度が低下し得るためと予想される。すなわち、Kinect(登録商標)のスケルトンモデルでは、両肩と腰(両股関節)とが剛体としてモデリングされているため、肩のみ又は腰のみの回転が評価されない。従って、肩のみが回転するテイクバック腕水平以降では、スケルトンデータの信頼性が落ち易いため、本実施形態に係る切替が有効となる。また、ゴルファー7を正面から撮影する場合、テイクバック腕水平からダウンスイング腕水平までの区間においては、左肩71がゴルファー7の全体のシルエットの内部に存在することとなる。そうすると、詳細は後述されるが、凸部抽出フィルタは、深度フレーム内の凸部を強調するフィルタであるため、凸部抽出フィルタによる方法により、左肩71を正確に検出することができる。一方、ゴルファー7を正面から撮影する場合、ダウンスイング腕水平からフィニッシュまでの区間においては、左肩71がゴルファー7の全体のシルエットの輪郭付近に存在することとなる。そうすると、詳細は後述されるが、左肩71の輪郭を強調するための左肩シルエットフィルタによる方法により、左肩71を正確に検出することができる。なお、同様の理由により、左肩シルエットフィルタは、アドレスからテイクバック腕水平の区間においても、好適に使用することができる。 As described above, when the three-dimensional coordinates of the left shoulder 71 are derived by the three methods (the method using the skeleton data, the convex extraction filter and the left shoulder silhouette filter), the position derivation unit 14b derives the timing for switching the three methods (step). S67). As a result of diligent studies, the present inventors have found that the accuracy of the method based on the skeleton data is particularly high in the section from the address to the takeback arm horizontal during the swing motion, and is convex in the section from the takeback arm horizontal to the downswing arm horizontal. It was found that the accuracy of the method using the partial extraction filter is particularly high, and the accuracy of the method using the left shoulder silhouette filter is particularly high in the section from the downswing arm horizontal to the finish. This is because the skeleton data derived from Kinect (registered trademark) does not fully consider the twisting motion of the shoulder, and it is expected that the accuracy may decrease when the left shoulder 71 starts to rotate after the takeback arm is horizontal. That is, in the Kinect (registered trademark) skeleton model, since both shoulders and hips (both hip joints) are modeled as rigid bodies, rotation of only shoulders or hips is not evaluated. Therefore, since the reliability of the skeleton data tends to decrease after the takeback arm horizontal in which only the shoulder rotates, the switching according to the present embodiment is effective. Further, when the golfer 7 is photographed from the front, the left shoulder 71 is present inside the entire silhouette of the golfer 7 in the section from the takeback arm horizontal to the downswing arm horizontal. Then, as will be described in detail later, since the convex portion extraction filter is a filter that emphasizes the convex portion in the depth frame, the left shoulder 71 can be accurately detected by the method using the convex portion extraction filter. On the other hand, when the golfer 7 is photographed from the front, the left shoulder 71 is present near the outline of the entire silhouette of the golfer 7 in the section from the downswing arm horizontal to the finish. Then, as will be described in detail later, the left shoulder 71 can be accurately detected by the method using the left shoulder silhouette filter for emphasizing the contour of the left shoulder 71. For the same reason, the left shoulder silhouette filter can be suitably used even in the section from the address to the takeback arm horizontal.

以上より、本実施形態では、切り替えのタイミングとして、テイクバック腕水平及びダウンスイング腕水平のタイミングが導出される。これらの腕水平のタイミングの決定方法の詳細については、後述する。なお、テイクバック腕水平とは、テイクバック中に左腕が水平になるタイミングのことを言い、ダウンスイング腕水平とは、ダウンスイング中に左腕が水平になるタイミングのことを言う。 From the above, in the present embodiment, the takeback arm horizontal and the downswing arm horizontal timings are derived as the switching timings. Details of the method for determining the timing of these arm horizontals will be described later. The takeback arm horizontal refers to the timing at which the left arm becomes horizontal during takeback, and the downswing arm horizontal refers to the timing at which the left arm becomes horizontal during the downswing.

腕水平のタイミングが導出されると、位置導出部14bは、3つの方法による左肩71の三次元座標を時間軸に沿って切り替えながら、三次元空間内でのスイング動作中の左肩71の軌道を導出する(ステップS68)。具体的には、アドレスからテイクバック腕水平までの区間でのスケルトンデータ由来の左肩71の三次元座標と、テイクバック腕水平からダウンスイング腕水平までの区間での凸部抽出フィルタ由来の左肩71の三次元座標と、ダウンスイング腕水平からフィニッシュまでの区間での左肩シルエットフィルタ由来の左肩71の三次元座標とが連結され、アドレスからフィニッシュまでのx−y−Z座標系内での左肩71の軌道が導出される。また、その後、ステップS8と同様の方法で、左肩71の軌道のキャリブレーションが行われる(ステップS69)。図22は、キャリブレーション後の左肩71の軌道の一例である。 When the arm horizontal timing is derived, the position deriving unit 14b switches the three-dimensional coordinates of the left shoulder 71 by three methods along the time axis, and shifts the trajectory of the left shoulder 71 during the swing operation in the three-dimensional space. Derivation (step S68). Specifically, the three-dimensional coordinates of the left shoulder 71 derived from the skeleton data in the section from the address to the takeback arm horizontal, and the left shoulder 71 derived from the convex extraction filter in the section from the takeback arm horizontal to the downswing arm horizontal. And the three-dimensional coordinates of the left shoulder 71 derived from the left shoulder silhouette filter in the section from the downswing arm horizontal to the finish are connected, and the left shoulder 71 in the xyZ coordinate system from the address to the finish. Orbit is derived. After that, the trajectory of the left shoulder 71 is calibrated in the same manner as in step S8 (step S69). FIG. 22 is an example of the trajectory of the left shoulder 71 after calibration.

以上の処理により、スイング動作中の左肩71の三次元座標が高精度に導出される。この左肩71の三次元座標は、記憶部13内に格納され、ユーザの命令に応じて、適宜、表示部11上に表示される。例えば、スイング動作中の左肩71の軌道をグラフィック表示することも可能である。また、記憶部13内に格納されたこれらの左肩71の三次元座標は、他のプログラムにより読み出され、さらなるゴルフスイングの解析にも利用され得る。 By the above processing, the three-dimensional coordinates of the left shoulder 71 during the swing operation are derived with high accuracy. The three-dimensional coordinates of the left shoulder 71 are stored in the storage unit 13, and are appropriately displayed on the display unit 11 according to a user's command. For example, it is possible to graphically display the trajectory of the left shoulder 71 during the swing operation. Further, the three-dimensional coordinates of these left shoulders 71 stored in the storage unit 13 can be read out by another program and used for further analysis of the golf swing.

<1−3−2−1.凸部抽出フィルタによる左肩抽出>
以下、凸部抽出フィルタによる左肩71の抽出方法について説明する。凸部抽出フィルタとは、当該フィルタが適用される領域内において、中央部分を強調し、周辺部分を抑制するフィルタである。すなわち、凸部抽出フィルタは、深度フレーム内に写る、中央が突出している凸部を強調するフィルタであり、例えば、図23のようなフィルタである。図23内の各四角形は、画素を表しており、各四角形内の数値は、当該四角形に対応する画素の画素値に掛け合わされる係数である。そして、フィルタ内の各画素について、当該画素の画素値と対応する係数とを乗算し、それらの乗算値を足し合わせた値が、フィルタ適用後の中央の画素の画素値となる。
<1-3-2-1. Left shoulder extraction with convex extraction filter>
Hereinafter, a method of extracting the left shoulder 71 by the convex portion extraction filter will be described. The convex extraction filter is a filter that emphasizes the central portion and suppresses the peripheral portion in the region to which the filter is applied. That is, the convex portion extraction filter is a filter that emphasizes the convex portion whose center protrudes in the depth frame, and is, for example, a filter as shown in FIG. 23. Each quadrangle in FIG. 23 represents a pixel, and the numerical value in each quadrangle is a coefficient multiplied by the pixel value of the pixel corresponding to the quadrangle. Then, for each pixel in the filter, the pixel value of the pixel is multiplied by the corresponding coefficient, and the sum of these multiplication values is the pixel value of the central pixel after the filter is applied.

図24は、トップのタイミングにおける深度フレームである。この深度フレーム全体に図23の凸部抽出フィルタを適用すると、図25に示す画像となる。そして、図25の深度フレーム内では、ゴルファー7の輪郭と背景とのギャップが大きいために、凸形状の左肩71だけでなく、ゴルファー7の輪郭も強調されてしまっている。その結果、左肩71が埋もれてしまっており、正しく左肩71の位置を抽出できない虞が生じている。そこで、本実施形態では、このような問題に対処するため、ステップS64で導出された二値化画像が使用される。なお、図24及び図25を含め、以後の図に示される深度フレームにおいては、ゴルファーの像が鏡面に写っている。 FIG. 24 is a depth frame at the top timing. When the convex portion extraction filter of FIG. 23 is applied to the entire depth frame, the image shown in FIG. 25 is obtained. In the depth frame of FIG. 25, since the gap between the contour of the golfer 7 and the background is large, not only the convex left shoulder 71 but also the contour of the golfer 7 is emphasized. As a result, the left shoulder 71 is buried, and there is a risk that the position of the left shoulder 71 cannot be extracted correctly. Therefore, in the present embodiment, in order to deal with such a problem, the binarized image derived in step S64 is used. In addition, in the depth frame shown in the following figures including FIGS. 24 and 25, the image of the golfer is reflected on the mirror surface.

図26は、ステップS64を経た二値化画像であり、「1」の領域は、主としてゴルファー7のシルエットを示しており、背景領域は、「0」の領域となっている。本実施形態では、位置導出部14bは、ゴルファー7の輪郭を除去するため、この二値化画像を所定量だけ収縮する。収縮後の二値化画像を、図27に示す。そして、位置導出部14bは、当該収縮後の二値化画像をマスク画像として、凸部抽出フィルタ適用後の深度フレーム(図25参照)をマスキングする。このマスキング後のフレームを、図28に示す。図28に示すとおり、このマスキングにより、凸部抽出フィルタ適用後の深度フレームからゴルファー7の輪郭が除去され、左肩71が容易に抽出可能となる。図28では、参考のため、左肩71の位置を強調表示している。位置導出部14bは、マスキング後のフレームにおいて、最大の画素値を有する画素の二次元座標を特定し、左肩71の二次元座標とする。さらに、位置導出部14bは、当初の深度フレームから当該左肩71の二次元座標での奥行きのデータを抽出することで、左肩71の三次元座標を導出する。 FIG. 26 is a binarized image that has undergone step S64, and the region “1” mainly shows the silhouette of the golfer 7, and the background region is the region “0”. In the present embodiment, the position deriving unit 14b shrinks the binarized image by a predetermined amount in order to remove the contour of the golfer 7. The binarized image after shrinkage is shown in FIG. 27. Then, the position derivation unit 14b masks the depth frame (see FIG. 25) after applying the convex portion extraction filter by using the binarized image after the contraction as a mask image. The frame after this masking is shown in FIG. As shown in FIG. 28, by this masking, the contour of the golfer 7 is removed from the depth frame after applying the convex extraction filter, and the left shoulder 71 can be easily extracted. In FIG. 28, the position of the left shoulder 71 is highlighted for reference. The position derivation unit 14b specifies the two-dimensional coordinates of the pixel having the maximum pixel value in the frame after masking, and sets the two-dimensional coordinates of the left shoulder 71. Further, the position derivation unit 14b derives the three-dimensional coordinates of the left shoulder 71 by extracting the depth data of the left shoulder 71 in the two-dimensional coordinates from the initial depth frame.

なお、精度を向上し、及び/又は計算負荷を下げるために、凸部抽出フィルタの適用範囲を深度フレーム全体とするのではなく、一部の範囲内とすることもできる。例えば、同じ又は直前のフレーム上において特定された左肩71の二次元座標を含む適当なサイズの領域を、凸部抽出フィルタの適用範囲とすることができる。なお、アドレスからテイクバック腕水平の区間及びダウンスイング腕水平からフィニッシュまでの区間では、同じフレームのスケルトンデータに含まれる左肩71の二次元座標を中心とする所定のサイズの領域を、凸部抽出フィルタの適用範囲R3(図29参照)として設定することが好ましい。また、テイクバック腕水平のタイミングでは、1つ前のフレームのスケルトンデータに含まれる左肩71の二次元座標を中心とする所定のサイズの領域を、凸部抽出フィルタの適用範囲R3(図29参照)として設定することが好ましい。さらに、テイクバック腕水平の直後からダウンスイング腕水平までの区間では、1つ前のフレームにおいて凸部抽出フィルタを用いて特定された左肩71の二次元座標を右寄りの位置に含む所定のサイズの領域を、凸部抽出フィルタの適用範囲R4(図30参照)とすることが好ましい。なお、適用範囲R4として、左肩71を基準に左に延びた矩形領域が設定されるのは、右側(手先側)においてフィルタの応答値が非常に大きくなる部分があり、これを避けるためである。 In order to improve the accuracy and / or reduce the calculation load, the applicable range of the convex extraction filter may be a part of the depth frame instead of the entire depth frame. For example, a region of an appropriate size including the two-dimensional coordinates of the left shoulder 71 specified on the same or immediately preceding frame can be the applicable range of the convex extraction filter. In the section from the address to the takeback arm horizontal and the section from the downswing arm horizontal to the finish, a region of a predetermined size centered on the two-dimensional coordinates of the left shoulder 71 included in the skeleton data of the same frame is extracted as a convex portion. It is preferable to set it as the application range R3 of the filter (see FIG. 29). Further, at the timing of the takeback arm horizontal, the area of a predetermined size centered on the two-dimensional coordinates of the left shoulder 71 included in the skeleton data of the previous frame is covered by the convex portion extraction filter application range R3 (see FIG. 29). ) Is preferable. Further, in the section from immediately after the takeback arm horizontal to the downswing arm horizontal, the two-dimensional coordinates of the left shoulder 71 specified by using the convex extraction filter in the previous frame are included in the position to the right of a predetermined size. The region is preferably set to the application range R4 (see FIG. 30) of the convex extraction filter. The reason why the rectangular area extending to the left with respect to the left shoulder 71 is set as the application range R4 is to avoid a part where the response value of the filter becomes very large on the right side (hand side). ..

<1−3−2−2.左肩シルエットフィルタによる左肩抽出>
以下、左肩シルエットフィルタによる左肩71の抽出方法について説明する。左肩シルエットフィルタとは、当該フィルタが適用される領域内において、右下部分を強調し、左下、左上及び右上部分を抑制するフィルタである。すなわち、左肩シルエットフィルタは、深度フレーム内に写る、右下が突出している凸部を強調するフィルタであり、例えば、図31のようなフィルタである。凸部抽出フィルタと同様、図31内の各四角形は、画素を表しており、各四角形内の数値は、当該四角形に対応する画素の画素値に掛け合わされる係数である。そして、フィルタ内の各画素について、当該画素の画素値と対応する係数とを乗算し、それらの乗算値を足し合わせた値が、フィルタ適用後の中央の画素の画素値となる。
<1-3-2-2. Left shoulder extraction with left shoulder silhouette filter>
Hereinafter, a method of extracting the left shoulder 71 by the left shoulder silhouette filter will be described. The left shoulder silhouette filter is a filter that emphasizes the lower right portion and suppresses the lower left, upper left, and upper right portions in the area to which the filter is applied. That is, the left shoulder silhouette filter is a filter that emphasizes the convex portion in which the lower right part protrudes in the depth frame, and is, for example, a filter as shown in FIG. 31. Similar to the convex extraction filter, each quadrangle in FIG. 31 represents a pixel, and the numerical value in each quadrangle is a coefficient multiplied by the pixel value of the pixel corresponding to the quadrangle. Then, for each pixel in the filter, the pixel value of the pixel is multiplied by the corresponding coefficient, and the sum of these multiplication values is the pixel value of the central pixel after the filter is applied.

位置導出部14bは、ステップS64で導出された二値化画像に、左肩シルエットフィルタを適用する。図32は、ステップS64で導出された二値化画像であり、図33は、この二値化画像に図31の左肩シルエットフィルタを適用した画像を示している。そして、位置導出部14bは、左肩シルエットフィルタの適用後のフレームにおいて、最大の画素値を有する画素の二次元座標を特定し、左肩71の二次元座標とする。さらに、位置導出部14bは、当初の深度フレームから当該左肩71の二次元座標での奥行きのデータを抽出することで、左肩71の三次元座標を導出する。なお、図33では、参考のため、左肩71の位置を強調表示している。 The position derivation unit 14b applies the left shoulder silhouette filter to the binarized image derived in step S64. FIG. 32 is a binarized image derived in step S64, and FIG. 33 shows an image in which the left shoulder silhouette filter of FIG. 31 is applied to the binarized image. Then, the position derivation unit 14b specifies the two-dimensional coordinates of the pixel having the maximum pixel value in the frame after the application of the left shoulder silhouette filter, and sets the two-dimensional coordinates of the left shoulder 71. Further, the position derivation unit 14b derives the three-dimensional coordinates of the left shoulder 71 by extracting the depth data of the left shoulder 71 in the two-dimensional coordinates from the initial depth frame. In FIG. 33, the position of the left shoulder 71 is highlighted for reference.

なお、精度を向上し、及び/又は計算負荷を下げるために、左肩シルエットフィルタの適用範囲を深度フレーム全体とするのではなく、一部の範囲内とすることもできる。例えば、同じ又は直前のフレーム上において特定された左肩71の二次元座標を含む適当なサイズの領域を、左肩シルエットフィルタの適用範囲とすることができる。なお、アドレスからテイクバック腕水平の区間では、同じフレームのスケルトンデータに含まれる左肩71の二次元座標を右下の端点とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R5(図34参照)として設定することが好ましい。また、ダウンスイング腕水平のタイミングでは、1つ前のフレームにおいて設定された上述のR4の領域の左上の端点を右下の端点とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R6(図35参照)として設定することが好ましい。さらに、ダウンスイング腕水平の直後からフィニッシュまでの区間では、1つ前のフレームにおいて左肩シルエットフィルタを用いて特定された左肩71の二次元座標を中心とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R7(図36参照)とすることが好ましい。 In addition, in order to improve the accuracy and / or reduce the calculation load, the applicable range of the left shoulder silhouette filter may be a part of the depth frame instead of the entire depth frame. For example, a region of an appropriate size including the two-dimensional coordinates of the left shoulder 71 specified on the same or immediately preceding frame can be the applicable range of the left shoulder silhouette filter. In the section from the address to the takeback arm horizontal, the area of a predetermined size having the two-dimensional coordinates of the left shoulder 71 included in the skeleton data of the same frame as the lower right end point is covered by the left shoulder silhouette filter application range R5 (FIG. 34). It is preferable to set as (see). Further, at the timing of the downswing arm horizontal, the area of a predetermined size having the upper left end point of the above-mentioned R4 area set in the previous frame as the lower right end point is covered by the left shoulder silhouette filter application range R6 ( It is preferable to set as (see FIG. 35). Further, in the section from immediately after the downswing arm horizontal to the finish, the area of a predetermined size centered on the two-dimensional coordinates of the left shoulder 71 specified by using the left shoulder silhouette filter in the previous frame is filtered by the left shoulder silhouette filter. It is preferable that the applicable range is R7 (see FIG. 36).

<1−3−2−3.腕水平のタイミングの決定方法>
以下、本実施形態に係るテイクバック腕水平及びダウンスイング腕水平のタイミングの決定方法について説明する。
<1-3-2-3. How to determine the timing of arm horizontal>
Hereinafter, a method for determining the timing of the takeback arm horizontal and the downswing arm horizontal according to the present embodiment will be described.

まず、図37に示すように、位置導出部14bは、アドレス時のスケルトンデータから、右肩の二次元座標を取得する。そして、右肩の二次元座標を基準として、x軸正方向に所定の距離(例えば、30ピクセル)進み、y軸正方向に所定の距離(例えば、15ピクセル)進んだ点Aの二次元座標を特定する。なお、x軸正方向とは、水平方向に沿って、ゴルファー7の左手側から右手側に進む方向である。また、y軸正方向とは、鉛直方向に沿って、上から下に向かう方向である。続いて、位置導出部14bは、A点からx軸正方向に所定の距離(例えば、115ピクセル)の範囲を占め、y軸正方向に所定の距離(例
えば、30ピクセル)の範囲を占める矩形領域R8を形成する。
First, as shown in FIG. 37, the position derivation unit 14b acquires the two-dimensional coordinates of the right shoulder from the skeleton data at the time of addressing. Then, with reference to the two-dimensional coordinates of the right shoulder, the two-dimensional coordinates of the point A that advances a predetermined distance (for example, 30 pixels) in the positive direction of the x-axis and advances a predetermined distance (for example, 15 pixels) in the positive direction of the y-axis. To identify. The x-axis positive direction is a direction in which the golfer 7 travels from the left-hand side to the right-hand side along the horizontal direction. Further, the y-axis positive direction is a direction from top to bottom along the vertical direction. Subsequently, the position deriving unit 14b occupies a range of a predetermined distance (for example, 115 pixels) in the positive direction of the x-axis from the point A, and occupies a range of a predetermined distance (for example, 30 pixels) in the positive direction of the y-axis. The region R8 is formed.

その後、位置導出部14bは、アドレスからフィニッシュまでの区間に含まれる各深度フレームについて、当該深度フレーム上の上述の矩形領域R8内において奥行きのデータが存在している画素数をカウントする。そして、当該画素数が所定数(例えば、400ピクセル)以上となる(以下、腕水平条件)深度フレームを全て特定する。このとき、通常、アドレスからフィニッシュまでの区間において、腕水平条件を満たす深度フレームが、時間軸に沿って大きく2つのグループに分けて出現する。従って、位置導出部14bは、これらの2つのグループを特定した後、前半のグループの中からテイクバック腕水平のフレームを特定するとともに、後半のグループからダウンスイング腕水平のフレームを特定する。1のグループに腕水平条件を満たす深度フレームが複数枚出現した場合には、例えば、先頭のフレームを腕水平フレームとすることができる。なお、アドレスからフィニッシュまでの区間において、腕水平条件を満たす深度フレームが大きく2つのグループに分けて出現しなかった場合には、適当なエラー処理を行う。 After that, the position derivation unit 14b counts the number of pixels in which the depth data exists in the above-mentioned rectangular region R8 on the depth frame for each depth frame included in the section from the address to the finish. Then, all the depth frames in which the number of pixels is equal to or greater than a predetermined number (for example, 400 pixels) (hereinafter, arm horizontal condition) are specified. At this time, normally, in the section from the address to the finish, depth frames satisfying the arm horizontal condition appear in two groups along the time axis. Therefore, after identifying these two groups, the position deriving unit 14b specifies the takeback arm horizontal frame from the first half group and the downswing arm horizontal frame from the second half group. When a plurality of depth frames satisfying the arm horizontal condition appear in one group, for example, the first frame can be an arm horizontal frame. In the section from the address to the finish, if the depth frame satisfying the arm horizontal condition does not appear in two groups, appropriate error processing is performed.

<1−3−3.シャフト方向導出処理>
以下、シャフト方向導出処理について説明する。シャフト方向導出処理では、距離画像センサ2により撮影された深度画像に基づいて、スイング動作中のシャフト52の向きを表す三次元ベクトルが導出される。グリップ挙動導出処理の場合と同様、解析の対象となる画像データは、動画である。従って、ここでも解析の対象となるIR画像及び深度画像を、IRフレーム及び深度フレームという。
<1-3-3. Shaft direction derivation process>
Hereinafter, the shaft direction derivation process will be described. In the shaft direction derivation process, a three-dimensional vector representing the direction of the shaft 52 during the swing operation is derived based on the depth image captured by the distance image sensor 2. As in the case of the grip behavior derivation process, the image data to be analyzed is a moving image. Therefore, the IR image and the depth image to be analyzed are also referred to as an IR frame and a depth frame.

図38は、シャフト方向導出処理の全体の流れを示すフローチャートである。まず、ステップS70では、取得部14aが、距離画像センサ2から取得され、記憶部13に格納
されているIRフレーム及び深度フレームを読み出し、メモリに展開する。そして、向き導出部14cは、これらの画像データのうち、解析の対象となるフレームを決定する。本実施形態では、スイング動作中のアドレスからインパクトのやや後までの期間が解析の対象とされる。詳細は、ステップS1と同様である。
FIG. 38 is a flowchart showing the entire flow of the shaft direction derivation process. First, in step S70, the acquisition unit 14a reads the IR frame and the depth frame acquired from the distance image sensor 2 and stored in the storage unit 13 and expands them into the memory. Then, the orientation derivation unit 14c determines a frame to be analyzed among these image data. In the present embodiment, the period from the address during the swing operation to a little after the impact is the target of analysis. The details are the same as in step S1.

続くステップS71〜S77は、解析の対象となる期間に含まれる各フレームについて繰り返し実行される。従って、以下の説明においては、グリップ挙動導出処理のときと同様に、シャフト52の向きを導出しようとしている時刻(以下、対象時刻)でのIRフレーム及び深度フレームを、それぞれ対象IRフレーム及び対象深度フレームと呼ぶ。また、各々のフレーム、或いはこれらをまとめて、対象フレームと呼ぶことがある。 Subsequent steps S71 to S77 are repeatedly executed for each frame included in the period to be analyzed. Therefore, in the following description, the IR frame and the depth frame at the time when the direction of the shaft 52 is to be derived (hereinafter referred to as the target time) are referred to as the target IR frame and the target depth, respectively, as in the case of the grip behavior derivation process. Called a frame. In addition, each frame or these may be collectively referred to as a target frame.

続くステップS71において、向き導出部14cは、対象IRフレームからシャフト52のマーカーの像を抽出する。具体的な処理は、ステップS41と同様である。そして、ここでシャフト52の像が抽出された場合には、ステップS72に進み、抽出できなかった場合には、次のフレームの処理に移る。 In the following step S71, the orientation deriving unit 14c extracts an image of the marker of the shaft 52 from the target IR frame. The specific process is the same as in step S41. If the image of the shaft 52 is extracted here, the process proceeds to step S72, and if the image cannot be extracted, the process proceeds to the next frame process.

ステップS72では、向き導出部14cは、ステップS71で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、向き導出部14cは、対象深度フレームから、ここで二次元座標が特定された全ての点の奥行きの値を特定する。ただし、ここで特定された奥行きの値が適切でないと判断される点は、以下の解析から除去することができる。奥行きの値が適切か否かは、例えば、奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にあるか否かに応じて判断される。以上より、シャフト52に含まれる点の三次元座標が導出される。そして、シャフト52の
三次元座標が所定個数以上(本実施形態では、1点以上)導出された場合には、ステップS73に進み、導出されなかった場合には、次のフレームの処理に移る。
In step S72, the orientation derivation unit 14c identifies the two-dimensional coordinates of all the points included in the area of the marker image of the shaft 52 extracted in step S71. Further, the orientation derivation unit 14c specifies the depth values of all the points whose two-dimensional coordinates are specified here from the target depth frame. However, the point that the depth value specified here is judged to be inappropriate can be removed from the following analysis. Whether or not the depth value is appropriate is determined, for example, depending on whether or not the depth value is within a predetermined range (for example, 1000 mm to 3500 mm). From the above, the three-dimensional coordinates of the points included in the shaft 52 are derived. Then, when the three-dimensional coordinates of the shaft 52 are derived in a predetermined number or more (one or more points in the present embodiment), the process proceeds to step S73, and when the three-dimensional coordinates are not derived, the process proceeds to the next frame process.

ステップS73では、向き導出部14cは、ステップS72で導出されたシャフト52に含まれる全ての点の三次元座標から、シャフト52を代表する点、本実施形態では、重心の三次元座標を算出する。重心の各軸方向の位置は、ステップS72で導出された全ての点の当該軸方向の座標値の平均値として算出することができる。 In step S73, the orientation deriving unit 14c calculates the three-dimensional coordinates of the point representing the shaft 52 from the three-dimensional coordinates of all the points included in the shaft 52 derived in step S72, and in the present embodiment, the three-dimensional coordinates of the center of gravity. .. The position of the center of gravity in each axial direction can be calculated as the average value of the coordinate values in the axial direction of all the points derived in step S72.

続くステップS74では、向き導出部14cは、上述のステップS3〜S7において対象時刻におけるグリップ端51aの三次元座標が導出できているか否かを判断し、抽出できている場合には、ステップS75に進み、導出できていない場合にはステップS76に進む。なお、本ステップの実行時点において対象フレームに対して上述のステップS3〜S7が未実行であれば、本ステップにおいて実行し、グリップ端51aの三次元座標の導出を試みればよい。 In the following step S74, the orientation deriving unit 14c determines whether or not the three-dimensional coordinates of the grip end 51a at the target time can be derived in the above steps S3 to S7, and if it can be extracted, the orientation deriving unit 14c proceeds to step S75. If the process has not been performed, the process proceeds to step S76. If the above steps S3 to S7 have not been executed for the target frame at the time of executing this step, it may be executed in this step to try to derive the three-dimensional coordinates of the grip end 51a.

ステップS75では、向き導出部14cは、グリップ端51aの三次元座標と、シャフト52の重心の三次元座標とに基づいて、シャフト52の向きを表す三次元ベクトルを導出する。シャフト52の向きは、グリップ端51aからシャフト52の重心に向かう方向、或いはその逆として導出することができる。 In step S75, the orientation deriving unit 14c derives a three-dimensional vector representing the orientation of the shaft 52 based on the three-dimensional coordinates of the grip end 51a and the three-dimensional coordinates of the center of gravity of the shaft 52. The direction of the shaft 52 can be derived from the grip end 51a toward the center of gravity of the shaft 52, or vice versa.

一方、ステップS76では、向き導出部14cは、ステップS72においてシャフト52の三次元座標が所定個数以上(例えば、2点以上)導出されたか否かを判断し、導出されていた場合には、ステップS77に進み、導出されていなかった場合には、次のフレームの処理に移る。ステップS77では、ステップS72で導出されたシャフト52に含まれる全ての点の三次元座標に対して、主成分分析を行う。そして、最大の固有値に対応する固有ベクトル(第1主成分)を、シャフトの52の向きを表す三次元ベクトルとする。 On the other hand, in step S76, the orientation derivation unit 14c determines whether or not the three-dimensional coordinates of the shaft 52 are derived by a predetermined number or more (for example, two points or more) in step S72, and if they are derived, the step. Proceed to S77, and if it has not been derived, the process proceeds to the next frame. In step S77, principal component analysis is performed on the three-dimensional coordinates of all the points included in the shaft 52 derived in step S72. Then, the eigenvector (first principal component) corresponding to the maximum eigenvalue is a three-dimensional vector representing the direction of 52 of the shaft.

解析の対象となる全ての時刻に対する以上のステップS71〜S77が完了すると、処理はステップS78に進む。ステップS78では、シャフト52の向きが未だ導出されていない時刻のシャフト52の向きを表す三次元ベクトルを、前後の時刻のシャフト52の向きから計算する。例えば、前後の時刻のシャフト52の向きを表す三次元ベクトルの平均とすることができる。 When the above steps S71 to S77 for all the times to be analyzed are completed, the process proceeds to step S78. In step S78, a three-dimensional vector representing the orientation of the shaft 52 at a time when the orientation of the shaft 52 has not yet been derived is calculated from the orientation of the shaft 52 at the time before and after. For example, it can be the average of three-dimensional vectors representing the orientation of the shaft 52 at the time before and after.

以上より、解析の対象となる全ての時刻に対するシャフト52の向きが、三次元的に導出される。このようなシャフト52の向きは、例えば、図39に示すように各軸毎にグラフ表示することができるし、図40に示すように、三次元的にグラフ表示することもできる。図40の例では、シャフト52を表す直線に重ねて、グリップ端51aの位置やシャフト52の重心の位置が〇や×の記号で示されている。 From the above, the orientation of the shaft 52 with respect to all the times to be analyzed is three-dimensionally derived. The orientation of such a shaft 52 can be displayed as a graph for each axis as shown in FIG. 39, or can be displayed as a three-dimensional graph as shown in FIG. 40. In the example of FIG. 40, the position of the grip end 51a and the position of the center of gravity of the shaft 52 are indicated by symbols ◯ and × so as to be superimposed on the straight line representing the shaft 52.

<1−4.変形例>
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。
<1-4. Modification example>
Although some embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention. For example, the following changes can be made.

<1−4−1>
第1実施形態に係るグリップ挙動導出処理では、IR画像が用いられたが、IR画像に代えてカラー画像を用いることもできる。この場合、距離画像センサには、可視光を受光する可視光受光部(例えば、RGBカメラ)を搭載すればよい。
<1-4-1>
Although the IR image was used in the grip behavior derivation process according to the first embodiment, a color image can be used instead of the IR image. In this case, the distance image sensor may be equipped with a visible light receiving unit (for example, an RGB camera) that receives visible light.

<1−4−2>
深度画像及び/又はスケルトンデータを用いた分析の対象となる部位は、グリップ51や左肩71に限られない。例えば、シャフト、ヘッド、右肩、左腕、右腕等の挙動(三次元座標)を特定することができる。また、このとき、適宜、分析の対象となる部位にマーカーを貼付しておくことができる。
<1-4-2>
The part to be analyzed using the depth image and / or the skeleton data is not limited to the grip 51 and the left shoulder 71. For example, the behavior (three-dimensional coordinates) of the shaft, head, right shoulder, left arm, right arm, etc. can be specified. Further, at this time, a marker can be appropriately attached to the site to be analyzed.

<1−4−3>
腕水平のタイミングの決定方法は、上述したものに限られない。例えば、腕に直線状の赤外線反射テープを貼付しておき、IR画像から当該反射テープの像を抽出し、当該像が水平となるタイミングを検出してもよい。
<1-4-3>
The method for determining the arm horizontal timing is not limited to the above. For example, a linear infrared reflective tape may be attached to the arm, an image of the reflective tape may be extracted from the IR image, and the timing at which the image becomes horizontal may be detected.

<1−4−4>
ステップS56,S57,S77における主成分分析を用いる処理に代えて、最小二乗法を用いる処理を実行することができる。具体的には、シャフト52の三次元座標の分布から最小二乗法により回帰直線を導出し、これをシャフト52の延びる軸と判断する。そして、この軸の延長線上においてグリップ端51aの位置を探索することができる。
<1-4-4>
Instead of the process using the principal component analysis in steps S56, S57, and S77, the process using the least squares method can be executed. Specifically, a regression line is derived from the distribution of the three-dimensional coordinates of the shaft 52 by the method of least squares, and this is determined to be the axis on which the shaft 52 extends. Then, the position of the grip end 51a can be searched for on the extension line of this axis.

<1−4−5>
ステップS22では、グリップ端51aの像を抽出するための二値化のための閾値は、判別分析法により自動的に算出された。しかしながら、当該閾値は、例えば、最大輝度値(限界値)に0〜1の所定の係数を掛けた固定値、例えば、最大輝度値の0.1倍の値とすることができる。この場合、ステップS23は省略することができる。
<1-4-5>
In step S22, the threshold value for binarization for extracting the image of the grip end 51a was automatically calculated by the discriminant analysis method. However, the threshold value can be, for example, a fixed value obtained by multiplying the maximum luminance value (limit value) by a predetermined coefficient of 0 to 1, for example, a value 0.1 times the maximum luminance value. In this case, step S23 can be omitted.

対象IRフレーム上においてグリップ端51aのマークとシャフト52のマークとの間隔が狭くなると、グリップ端51aの探索範囲R1内にシャフト52のマークが写り込んでしまう。この場合において、グリップ端51aのマークよりもシャフト52のマークの方が輝度値が高いと、判別分析法を用いて二値化を行うと、グリップ端51aの像が消えてしまう虞がある。従って、たとえグリップ端51aのマークの輝度値が低かったとしてもこれを抽出できるよう、二値化のための閾値を最大輝度値の所定の割合の値に設定することが好ましい。なお、本変形例に係る固定値である閾値は、探索範囲R1内にシャフト52のマークが写り込み易い所定のフェーズにおいてのみ用いられることが好ましい。すなわち、本変形例に係る閾値と、判別分析法等により自動的に設定される閾値とは、スイング動作中のフェーズに応じて適宜切り替えられることが好ましい。このようなフェーズとしては、シャフト8時(テイクバック中であって、正面視においてシャフト52が時計の8時を指す時刻)からテイクバック腕水平までの区間、又はその一部の区間が挙げられる。なお、この区間は、正面に配置されるカメラから見て、グリップ端51aが遠ざかったり、ゴルファーの手の陰に入り易い区間である。 When the distance between the mark of the grip end 51a and the mark of the shaft 52 becomes narrow on the target IR frame, the mark of the shaft 52 is reflected in the search range R1 of the grip end 51a. In this case, if the brightness value of the mark of the shaft 52 is higher than that of the mark of the grip end 51a, the image of the grip end 51a may disappear when binarization is performed using the discriminant analysis method. Therefore, even if the brightness value of the mark at the grip end 51a is low, it is preferable to set the threshold value for binarization to a value of a predetermined ratio of the maximum brightness value so that the mark can be extracted. The threshold value, which is a fixed value according to this modification, is preferably used only in a predetermined phase in which the mark of the shaft 52 is easily reflected in the search range R1. That is, it is preferable that the threshold value according to the present modification and the threshold value automatically set by the discriminant analysis method or the like are appropriately switched according to the phase during the swing operation. Examples of such a phase include a section from the shaft 8 o'clock (during takeback, the time when the shaft 52 points to the clock 8 o'clock in front view) to the takeback arm horizontal, or a part thereof. .. It should be noted that this section is a section in which the grip end 51a is easily moved away from the camera arranged in front of the golfer or is easily placed behind the golfer's hand.

<1−4−6>
第1実施形態に係るステップS21では、直前の所定の枚数のフレームにおけるグリップ端51aの移動方向(ベクトルの向き)に基づいて、グリップ端51aの探索範囲R1が設定された。しかしながら、グリップ端51aがゴルファーの身体に隠れる等して対象IRフレームに写りにくいフェーズにおいては、グリップ端51aの正確な位置特定が難しくなる場合がある。すなわち、以上のようなフェーズにおいては、グリップ端51aの位置がシャフト52の像から推定されがちであり、特にこのような事態が続くと、探索範囲R1が実際のグリップ端51aの動きを無視して進んでしまうことがある。そして、このような場合に、特に図41Aに示すように、探索範囲R1内にシャフト52の像が入り込んでしまうと、グリップ端51aの位置の検出の精度が低下し得る。そこで、このような所定のフェーズにおいては、探索範囲R1を所定の限界ラインを越えないように設定することが好ましい。
<1-4-6>
In step S21 according to the first embodiment, the search range R1 of the grip end 51a is set based on the moving direction (vector direction) of the grip end 51a in the predetermined number of frames immediately before. However, in a phase in which the grip end 51a is hidden by the golfer's body and is difficult to be reflected in the target IR frame, it may be difficult to accurately identify the position of the grip end 51a. That is, in the above phase, the position of the grip end 51a tends to be estimated from the image of the shaft 52, and especially when such a situation continues, the search range R1 ignores the actual movement of the grip end 51a. May go on. In such a case, as shown in FIG. 41A, if the image of the shaft 52 enters the search range R1, the accuracy of detecting the position of the grip end 51a may decrease. Therefore, in such a predetermined phase, it is preferable to set the search range R1 so as not to exceed the predetermined limit line.

以上のようなフェーズの例としては、トップ付近が挙げられる。トップ付近では、グリップ端51aが対象IRフレームに写らない可能性が高く、また、グリップ端51aの動きは停止又はほぼ停止した状態となる。そして、トップ付近では、探索範囲R1の設定位置を制限する限界ラインを、ゴルファーの頭(より詳細には、例えば、頭の頂点)の位置に設定することが好ましい(図41B参照)。トップ付近では、グリップ端51aがゴルファーの頭よりも正面視において右側に進むことは通常ないからである。この場合、グリップ端51aの位置の推定値は、正面視において限界ラインよりも右側に進まない。 An example of the above phases is near the top. In the vicinity of the top, there is a high possibility that the grip end 51a is not reflected in the target IR frame, and the movement of the grip end 51a is stopped or almost stopped. Then, in the vicinity of the top, it is preferable to set a limit line that limits the setting position of the search range R1 at the position of the golfer's head (more specifically, for example, the apex of the head) (see FIG. 41B). This is because, in the vicinity of the top, the grip end 51a usually does not advance to the right side of the golfer's head in front view. In this case, the estimated value of the position of the grip end 51a does not advance to the right of the limit line in front view.

なお、ゴルファーの頭の位置は、IRフレーム及び/又は深度フレームを画像処理することにより抽出してもよいし、スケルトンデータに基づいて決定してもよい。ゴルファーの頭の位置は、人物領域画像から抽出することができ、例えば、人物領域画像の最上点を、頭の位置と設定することができる。人物領域画像とは、主として人物が写る領域のみを示す画像であり、深度フレームから導出することもできるし、IRフレームから導出することもできる。このような人物領域画像を導出する方法としては、様々なものが公知であるため、ここでは詳細な説明を省略する。また、距離画像センサであるKinect(登録商標)には、深度画像から人物領域画像を読み出すためのライブラリが提供されており、取得部14aは、当該ライブラリを用いて人物領域画像を取得可能である。なお、距離画像センサ2のCPU23が、深度フレームから人物領域画像を導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきた人物領域画像を読み出すだけでよい。 The position of the golfer's head may be extracted by image processing the IR frame and / or the depth frame, or may be determined based on the skeleton data. The position of the golfer's head can be extracted from the person area image, and for example, the highest point of the person area image can be set as the head position. The person area image is an image that mainly shows only the area in which a person appears, and can be derived from a depth frame or an IR frame. Since various methods for deriving such a person area image are known, detailed description thereof will be omitted here. Further, Kinect (registered trademark), which is a distance image sensor, is provided with a library for reading a person area image from a depth image, and the acquisition unit 14a can acquire a person area image using the library. .. The CPU 23 of the distance image sensor 2 may derive a person region image from the depth frame. In this case, the acquisition unit 14a may simply read the person area image sent from the distance image sensor 2.

また、ゴルファーの頭の位置を抽出する基準となる画像は、グリップ端51aの位置を抽出しようとしているタイミングの画像としてもよいし、所定のタイミングでの画像とすることもできる。好ましくは、テイクバック腕水平時の画像とすることができる。図41Cは、テイクバック腕水平時の人物領域画像を示している。このように、頭付近に手等の他の部位が来る可能性の低いタイミングでの画像を用いることで、頭の位置の抽出の精度を向上させることができる。なお、テイクバック腕水平のタイミングの決定方法は、3−2−3に示したとおりである。 Further, the reference image for extracting the position of the golfer's head may be an image at the timing when the position of the grip end 51a is to be extracted, or may be an image at a predetermined timing. Preferably, it can be an image when the takeback arm is horizontal. FIG. 41C shows a person area image when the takeback arm is horizontal. In this way, the accuracy of extracting the position of the head can be improved by using the image at the timing when it is unlikely that other parts such as the hand will come near the head. The method for determining the horizontal takeback arm timing is as shown in 3-2-3.

<1−4−7>
第1実施形態では、図3に示すとおり、まず対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標を直接導出するよう試み(ステップS3,S5)、失敗した場合には、対象IRフレームからシャフト52を抽出し、抽出されたシャフト52の位置に基づいてグリップ端51aの三次元座標を導出するように構成されている(例外処理S6)。言い換えると、第1実施形態の処理に含まれるグリップ端51aの三次元座標を導出する処理は、図42で示すような、ステップS101〜S104を含む処理として表現することができる。
<1-4-7>
In the first embodiment, as shown in FIG. 3, an attempt is first made to directly derive the three-dimensional coordinates of the grip end 51a from the target IR frame and the target depth frame (steps S3 and S5), and if it fails, the target IR frame is used. The shaft 52 is extracted from the shaft 52, and the three-dimensional coordinates of the grip end 51a are derived based on the position of the extracted shaft 52 (exception processing S6). In other words, the process of deriving the three-dimensional coordinates of the grip end 51a included in the process of the first embodiment can be expressed as a process including steps S101 to S104 as shown in FIG. 42.

しかしながら、グリップ端51aの三次元座標を導出する処理は、図43のように構成することもできる。すなわち、まず、前の時刻でIRフレームからグリップ端51aが抽出できたか否かを判定する(ステップS201)。そして、ステップS201で抽出できたと判定された場合には、対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標の導出を試みる(ステップS101)。これ以降のステップは、図42の場合と同様である。一方、S201で抽出できなかったと判定された場合には、ステップS101を実行することなく、すなわち、対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標の導出を試みることなく、対象IRフレームからのシャフト52の抽出を行う(ステップS103)。そして、抽出されたシャフト52の位置に基づいてグリップ端51aの三次元座標を導出する(ステップS104)。 However, the process of deriving the three-dimensional coordinates of the grip end 51a can also be configured as shown in FIG. 43. That is, first, it is determined whether or not the grip end 51a could be extracted from the IR frame at the previous time (step S201). Then, when it is determined that the extraction can be performed in step S201, the three-dimensional coordinates of the grip end 51a are tried to be derived from the target IR frame and the target depth frame (step S101). Subsequent steps are the same as in FIG. 42. On the other hand, if it is determined that the extraction could not be performed in S201, the target IR frame is not executed, that is, without attempting to derive the three-dimensional coordinates of the grip end 51a from the target IR frame and the target depth frame. The shaft 52 is extracted from the above (step S103). Then, the three-dimensional coordinates of the grip end 51a are derived based on the extracted position of the shaft 52 (step S104).

図43に係る処理は、図42に係る処理に比べ、以下の点でより優れている。すなわち、前の時刻でIRフレームからグリップ端51aが抽出できておらず、シャフト52の位置からグリップ端51aの位置を推定した場合には、当該位置が一定以上の誤差を含む可能性がある。そして、このような誤差を含むグリップ端51aの位置の情報を用いて、次のフレームに対しステップS101において探索範囲R1が設定されると、上記の誤差が蓄積してゆく虞がある。従って、前のフレームでIRフレームからグリップ端51aが抽出できなかった場合には、探索範囲R1内でグリップ端51aを探索するのではなく、先にシャフト52の位置を特定する。そして、シャフト52の位置に基づいてグリップ端51aの位置を特定するようにすれば、誤差の蓄積を防ぐことができる。 The process according to FIG. 43 is superior to the process according to FIG. 42 in the following points. That is, when the grip end 51a has not been extracted from the IR frame at the previous time and the position of the grip end 51a is estimated from the position of the shaft 52, the position may include an error of a certain value or more. Then, if the search range R1 is set in step S101 for the next frame using the information on the position of the grip end 51a including such an error, the above error may accumulate. Therefore, when the grip end 51a cannot be extracted from the IR frame in the previous frame, the position of the shaft 52 is specified first instead of searching for the grip end 51a within the search range R1. Then, if the position of the grip end 51a is specified based on the position of the shaft 52, it is possible to prevent the accumulation of errors.

本変形例に係るステップS103,S104の処理は、上述した例外処理S6と同様に処理することもできるし、変更することも可能である。例えば、上述した例外処理S6と同様の方法でシャフト52の二次元座標に基づいてグリップ端51aの二次元座標を導出した後、当該グリップ端51aの二次元座標を基準として、対象IRフレームに探索範囲R1を設定してもよい。そして、ステップS3と同様に当該探索範囲R1内でさらにグリップ端51aを探索し、その後もステップS3〜S7と同様にグリップ端51aの三次元座標を導出することができる。 The processing of steps S103 and S104 according to this modification can be processed in the same manner as the exception processing S6 described above, or can be changed. For example, after deriving the two-dimensional coordinates of the grip end 51a based on the two-dimensional coordinates of the shaft 52 by the same method as the exception processing S6 described above, the target IR frame is searched based on the two-dimensional coordinates of the grip end 51a. The range R1 may be set. Then, the grip end 51a can be further searched within the search range R1 in the same manner as in step S3, and then the three-dimensional coordinates of the grip end 51a can be derived in the same manner as in steps S3 to S7.

<1−4−8>
第1実施形態に係るステップS65では、凸部抽出フィルタを用いて左肩抽出を行った。しかしながら、これに代えて、凸形状テンプレートを用いたテンプレートマッチングにより、左肩の位置を特定することもできる。この凸形状テンプレートを用いたテンプレートマッチングによる方法は、テイクバック腕水平からダウンスイング腕水平まで区間において、特に左肩抽出の精度を高めることができる。
<1-4-8>
In step S65 according to the first embodiment, left shoulder extraction was performed using a convex extraction filter. However, instead of this, the position of the left shoulder can be specified by template matching using a convex template. The method by template matching using this convex template can improve the accuracy of left shoulder extraction especially in the section from the takeback arm horizontal to the downswing arm horizontal.

図44は、凸形状テンプレートの一例である。同図に示すように、凸形状テンプレートは、中央が最も小さく、中央から周辺に向かうにつれて徐々に大きくなるような画素値を有する画像のテンプレートである(中央が最も大きく、中央から周辺に向かうにつれて徐々に小さくなるような画素値を有する画像とすることもできる)。すなわち、このテンプレートを用いてテンプレートマッチングを行えば、中央が突出しており、周辺に向かうにつれて反対側に突出している被写体を捉えた画像を容易に抽出することができる。テンプレートマッチングの処理方法としては様々公知であるが、簡単に説明しておくと、以下の
とおりである。すなわち、深度フレーム内の上述したフィルタの適用範囲内で、凸形状テンプレートを上下に少しずつ(例えば、一画素ずつ)ずらしながら、凸形状テンプレートとこれに重なる深度フレームの部分画像との類似度を計算してゆく。類似度とは、例えば、SAD(各画素値の差の絶対値の合計)である。そして、深度フレーム内において類似度が最も高い(SADであれば、最小となる)領域が、左肩の位置として特定される。
FIG. 44 is an example of a convex template. As shown in the figure, the convex template is an image template having a pixel value that is the smallest in the center and gradually increases from the center to the periphery (the largest in the center and from the center to the periphery). The image may have a pixel value that gradually decreases). That is, if template matching is performed using this template, it is possible to easily extract an image that captures a subject whose center protrudes and which protrudes to the opposite side toward the periphery. Various known methods for processing template matching are known, but a brief description is as follows. That is, within the applicable range of the above-mentioned filter in the depth frame, while shifting the convex template up and down little by little (for example, one pixel at a time), the similarity between the convex template and the partial image of the depth frame overlapping the convex template is adjusted. I will calculate. The similarity is, for example, SAD (the sum of the absolute values of the differences between the pixel values). Then, the region having the highest degree of similarity (minimum in the case of SAD) in the depth frame is specified as the position of the left shoulder.

ところで、上述したとおり、距離画像センサとして汎用のものに、Kinect(登録商標)v1及びv2がある。本変形例に係るテンプレートマッチングは、Kinect(登録商標)v2から出力される深度フレームのような比較的高画質の画像から左肩を抽出する場合に、特に有用である。本変形例に係るテンプレートマッチングは、第1実施形態に係る凸部抽出フィルタを用いた場合に比べ、左肩以外の凹凸、例えば、衣服の凹凸のような細かな凹凸に応答しにくい性質を有するからである。従って、左肩以外の細かな凹凸に応答することによる誤差がより確実に防止される。なお、図45は、Kinect(登録商標)v2から出力された深度フレームに対し、本変形例に係るテンプレートマッチングにより抽出された左肩の位置を示す図である。同図からは、左肩の位置が正しく検出されていることが分かる。 By the way, as described above, Kinect (registered trademark) v1 and v2 are general-purpose distance image sensors. The template matching according to this modification is particularly useful when extracting the left shoulder from a relatively high-quality image such as a depth frame output from Kinect (registered trademark) v2. This is because the template matching according to this modification has a property of being less likely to respond to unevenness other than the left shoulder, for example, fine unevenness such as unevenness of clothes, as compared with the case of using the convex portion extraction filter according to the first embodiment. Is. Therefore, the error caused by responding to fine irregularities other than the left shoulder is more reliably prevented. Note that FIG. 45 is a diagram showing the position of the left shoulder extracted by template matching according to this modification with respect to the depth frame output from Kinect (registered trademark) v2. From the figure, it can be seen that the position of the left shoulder is correctly detected.

<1−4−9>
第1実施形態では、スケルトンデータからの左肩抽出、凸部抽出フィルタによる左肩抽出及び左肩シルエットフィルタによる左肩抽出が、解析の全期間に対して行われた。しかしながら、演算時間の短縮のためには、各々による左肩の位置が最終的に使用される区間に対してのみ、これらの左肩抽出を行うことが好ましい。図46は、かかる処理の一例である。
<1-4-9>
In the first embodiment, left shoulder extraction from the skeleton data, left shoulder extraction by the convex extraction filter, and left shoulder extraction by the left shoulder silhouette filter were performed for the entire period of the analysis. However, in order to shorten the calculation time, it is preferable to perform these left shoulder extractions only for the section in which the position of each left shoulder is finally used. FIG. 46 is an example of such processing.

図46では、まず、位置導出部14bが、アドレス、シャフト8時、トップ、インパクトの時間を特定する。そして、アドレスからインパクトに向かう順に、左肩71の位置を導出してゆく。アドレスからテイクバック腕水平に達するまでは、スケルトンデータから左肩71の位置を導出する。具体的には、アドレスからシャフト8時に達するまでは、スケルトンデータから左肩71の位置を導出する。シャフト8時のタイミングは、シャフト方向導出処理により導出されるシャフト52の向きから決定することができる。シャフト8時以降は、現在時刻の深度フレームの矩形領域R8内において奥行きのデータが存在している画素数をカウントし、所定数(例えば、400ピクセル)以下であればスケルトンデータに基づいて左肩71の位置を決定する。一方、所定数より多ければ、現在時刻をテイクバック腕水平の時刻に決定する。 In FIG. 46, first, the position derivation unit 14b specifies the address, the shaft at 8 o'clock, the top, and the impact time. Then, the position of the left shoulder 71 is derived in the order from the address to the impact. The position of the left shoulder 71 is derived from the skeleton data until the takeback arm is horizontal from the address. Specifically, the position of the left shoulder 71 is derived from the skeleton data until the shaft reaches 8 o'clock from the address. The timing at 8 o'clock on the shaft can be determined from the orientation of the shaft 52 derived by the shaft direction derivation process. After 8 o'clock on the shaft, the number of pixels in which depth data exists in the rectangular area R8 of the depth frame at the current time is counted, and if it is less than a predetermined number (for example, 400 pixels), the left shoulder 71 is based on the skeleton data. Determine the position of. On the other hand, if it is more than a predetermined number, the current time is determined to be the time horizontal to the takeback arm.

テイクバック腕水平からダウンスイング腕水平に達するまでは、凸部抽出フィルタに基づいて左肩71を導出する。具体的には、テイクバック腕水平からトップに達するまでは、凸部抽出フィルタに基づいて左肩71を導出する。トップ以降は、現在時刻の深度フレームの矩形領域R8内において奥行きのデータが存在している画素数をカウントし、所定数(例えば、400ピクセル)以下であれば凸部抽出フィルタに基づいて左肩71の位置を決定する。一方、所定数より多ければ、現在時刻をダウンスイング腕水平の時刻に決定する。その後、ダウンスイング腕水平からインパクトまでは、左肩シルエットフィルタに基づいて左肩71を導出してゆく。また、凸部抽出フィルタを用いた処理に代えて、変形例1−4−8のテンプレートマッチングを実行してもよい。 From the take-back arm horizontal to the downswing arm horizontal, the left shoulder 71 is derived based on the convex extraction filter. Specifically, the left shoulder 71 is derived based on the convex extraction filter from the takeback arm horizontal to the top. After the top, the number of pixels in which depth data exists in the rectangular area R8 of the depth frame at the current time is counted, and if it is less than a predetermined number (for example, 400 pixels), the left shoulder 71 is based on the convex extraction filter. Determine the position of. On the other hand, if it is more than a predetermined number, the current time is determined to be the time horizontal to the downswing arm. After that, from the downswing arm horizontal to the impact, the left shoulder 71 is derived based on the left shoulder silhouette filter. Further, instead of the processing using the convex portion extraction filter, the template matching of the modified example 1-4-8 may be executed.

<2.第2実施形態>
<2−1.スイング解析システムの概要>
以下、第2実施形態に係るスイング解析装置201を含むスイング解析システム200について説明する。図47は、スイング解析システム200の平面図である。スイング解析システム200も、ゴルファー7によるゴルフクラブ5のスイング動作を捉えた動画に基づいて、ゴルフスイングを解析するためのシステムであり、第2実施形態でも、当該動画は、距離画像センサ2により撮影される。しかしながら、第1実施形態とは異なり、第2実施形態では、複数の距離画像センサ2が使用され、複数の方向からスイング動作が撮影される。ここでは、図47に示すとおり、2つの距離画像センサ2F,2Sが使用される例が説明されるが、勿論、3つ以上の距離画像センサを用いることも可能である。これにより、スイング動作を多方向から正確に捉えることができる。
<2. Second Embodiment>
<2-1. Overview of swing analysis system>
Hereinafter, the swing analysis system 200 including the swing analysis device 201 according to the second embodiment will be described. FIG. 47 is a plan view of the swing analysis system 200. The swing analysis system 200 is also a system for analyzing a golf swing based on a moving image of the swing motion of the golf club 5 by the golfer 7, and also in the second embodiment, the moving image is captured by the distance image sensor 2. Will be done. However, unlike the first embodiment, in the second embodiment, a plurality of distance image sensors 2 are used, and the swing motion is photographed from a plurality of directions. Here, as shown in FIG. 47, an example in which two distance image sensors 2F and 2S are used will be described, but of course, three or more distance image sensors can also be used. As a result, the swing motion can be accurately captured from multiple directions.

また、第2実施形態では、距離画像センサ2から出力される深度画像及び二次元画像、並びに深度画像に基づくスケルトンデータに加え、後述する人体のシルエットを表すシルエットデータが解析される。そして、このような様々な種類の情報を、それぞれの利点を活かしつつ適宜組み合わせることにより、スイング解析の精度が向上する。 Further, in the second embodiment, in addition to the depth image and the two-dimensional image output from the distance image sensor 2, and the skeleton data based on the depth image, the silhouette data representing the silhouette of the human body, which will be described later, is analyzed. Then, by appropriately combining such various types of information while taking advantage of their respective advantages, the accuracy of swing analysis is improved.

本実施形態では、第1実施形態と同様に、グリップ挙動導出処理、左肩挙動導出処理及びシャフト方向導出処理が実行され、これにより、グリップ端51a及び左肩71の三次元座標、並びにシャフト52の向きを表す三次元ベクトルが導出される。そして、本実施形態では、第1実施形態と同様のこれらの情報の他、左肩71以外のゴルファー7の身体の様々な部位の位置情報に基づいて、スイング動作の良否が判定される。 In the present embodiment, the grip behavior derivation process, the left shoulder behavior derivation process, and the shaft direction derivation process are executed as in the first embodiment, whereby the three-dimensional coordinates of the grip end 51a and the left shoulder 71 and the orientation of the shaft 52 are executed. A three-dimensional vector representing is derived. Then, in the present embodiment, in addition to the same information as in the first embodiment, the quality of the swing motion is determined based on the position information of various parts of the body of the golfer 7 other than the left shoulder 71.

以下、簡単のため、第1実施形態との共通点については説明を省略しつつ、主として第2実施形態に特有の特徴について説明する。なお、第1実施形態との共通する要素については、同じ参照符号が付される。 Hereinafter, for the sake of simplicity, the features peculiar to the second embodiment will be mainly described while omitting the description of the common points with the first embodiment. The same reference numerals are given to the elements common to those of the first embodiment.

<2−2.各部の詳細>
以下、図48を参照しつつ、スイング解析システム200の各部の詳細について説明する。
<2-2. Details of each part>
Hereinafter, details of each part of the swing analysis system 200 will be described with reference to FIG. 48.

<2−2−1.距離画像センサ>
距離画像センサ2F,2Sは、図48に示されるとおり、既に説明した距離画像センサ2と同様の構成を有する。距離画像センサ2Fは、第1実施形態に係る距離画像センサ2と同様に、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。一方、距離画像センサ2Sは、ゴルファー7を右側面側から撮影すべく、ゴルファー7の右方に設置される。
<2-2-1. Distance image sensor>
As shown in FIG. 48, the distance image sensors 2F and 2S have the same configuration as the distance image sensor 2 described above. The distance image sensor 2F is installed in front of the golfer 7 in order to photograph the golfer 7 from the front side, similarly to the distance image sensor 2 according to the first embodiment. On the other hand, the distance image sensor 2S is installed on the right side of the golfer 7 in order to photograph the golfer 7 from the right side.

また、第2実施形態でも、距離画像センサ2F,2SによりIR画像が撮影されるため、グリップ51及びシャフト52には、赤外線の反射シートがマーカーとして貼付される。 Further, also in the second embodiment, since the IR image is taken by the distance image sensors 2F and 2S, an infrared reflective sheet is attached to the grip 51 and the shaft 52 as markers.

<2−2−2.スイング解析装置>
次に、スイング解析装置201について説明する。スイング解析装置201は、図48に示されるとおり、第1実施形態に係るスイング解析装置1と同様のハードウェア構成を有する。しかしながら、第1実施形態と異なる処理が実行されるため、記憶部13内にはスイング解析プログラム3に代えて、スイング解析プログラム203がインストールされている。また、これにより、制御部14は、取得部14a、第1位置導出部14b及び向き導出部14cとして動作する他、第2位置導出部14d及び判定部14eとしても動作する。各部14d,14eの動作の詳細については、後述する。なお、本実施形態においては、第2位置導出部14dとの区別のため、位置導出部14bを第1位置導出部14bと呼ぶ。
<2-2-2. Swing analyzer >
Next, the swing analysis device 201 will be described. As shown in FIG. 48, the swing analysis device 201 has the same hardware configuration as the swing analysis device 1 according to the first embodiment. However, since processing different from that of the first embodiment is executed, the swing analysis program 203 is installed in the storage unit 13 instead of the swing analysis program 3. As a result, the control unit 14 operates as the acquisition unit 14a, the first position derivation unit 14b, and the orientation derivation unit 14c, and also operates as the second position derivation unit 14d and the determination unit 14e. Details of the operation of each part 14d and 14e will be described later. In the present embodiment, the position out-licensing unit 14b is referred to as the first position out-licensing unit 14b in order to distinguish it from the second position out-licensing unit 14d.

なお、スイング解析装置201は、1台のコンピュータから構成することもできるし、複数台のコンピュータから構成することもできる。特に、距離画像センサ2F,2Sの各々に対し、コンピュータを接続する構成とすることもできる。 The swing analysis device 201 may be composed of one computer or a plurality of computers. In particular, a computer may be connected to each of the distance image sensors 2F and 2S.

<2−3.スイング解析方法>
以下、スイング解析システム200により実行されるゴルフスイングの解析方法について説明する。本解析方法でも、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2F,2Sにより撮影する。距離画像センサ2F,2Sにより撮影されたIRフレーム及び深度フレームの画像データは、距離画像センサ2F,2Sからスイング解析装置201に送られる。その後、グリップ挙動導出処理、左肩挙動導出処理、及びシャフト方向導出処理が実行される。また、記憶部13内の距離画像センサ2F,2Sからの2系列の画像データ(実際には、各センサから深度フレーム及びIRフレームの2系列の画像データが導出されるため、4系列と言うこともできる)は、取得部14aにより同期が取られる。同期は、様々な方法により実現可能であり、例えば、画像処理により各系統の画像データ内に同じ特徴が現れるタイミングを検出することにより実現することもできるし、距離画像センサ2F,2Sによる撮影を同時にトリガーする別途の装置を利用することもできる。その後、位置導出処理が実行される。位置導出処理では、所定のタイミング(以下、チェックポイント)における左肩71以外のゴルファー7の身体の所定の部位の位置情報が導出される。さらにその後、良否判定処理が実行される。良否判定処理では、グリップ端51aの位置情報、左肩71を含むゴルファー7の身体の所定の部位の位置情報、並びにシャフト52の向きを表す三次元ベクトルに基づいて、スイング動作の良否が判定される。また、位置導出処理の中では、後述するステップS202のキャリブレーションが行われる。以下では、位置導出処理について説明した後、このキャリブレーションに必要なパラメータを設定する処理(キャリブレーションパラメータ設定処理)について説明し、最後に、良否判定処理について説明する。
<2-3. Swing analysis method>
Hereinafter, a golf swing analysis method executed by the swing analysis system 200 will be described. Also in this analysis method, first, the golfer 7 is made to test-hit the golf club 5, and the state is photographed by the distance image sensors 2F and 2S. The image data of the IR frame and the depth frame captured by the distance image sensors 2F and 2S are sent from the distance image sensors 2F and 2S to the swing analysis device 201. After that, the grip behavior derivation process, the left shoulder behavior derivation process, and the shaft direction derivation process are executed. Further, two series of image data from the distance image sensors 2F and 2S in the storage unit 13 (actually, two series of image data of the depth frame and the IR frame are derived from each sensor, so it is called 4 series. Is also possible) is synchronized by the acquisition unit 14a. Synchronization can be realized by various methods, for example, it can be realized by detecting the timing at which the same feature appears in the image data of each system by image processing, and shooting with the distance image sensors 2F and 2S can be performed. It is also possible to use a separate device that triggers at the same time. After that, the position derivation process is executed. In the position derivation process, the position information of a predetermined part of the body of the golfer 7 other than the left shoulder 71 at a predetermined timing (hereinafter, checkpoint) is derived. After that, the pass / fail determination process is executed. In the quality determination process, the quality of the swing motion is determined based on the position information of the grip end 51a, the position information of a predetermined part of the body of the golfer 7 including the left shoulder 71, and the three-dimensional vector representing the direction of the shaft 52. .. Further, in the position derivation process, the calibration of step S202, which will be described later, is performed. In the following, after explaining the position derivation process, the process of setting the parameters required for this calibration (calibration parameter setting process) will be described, and finally, the pass / fail determination process will be described.

<2−3−1.位置導出処理>
位置導出処理は、上記のとおり、チェックポイントにおける左肩71以外のゴルファー7の身体の所定の部位の位置情報を導出する処理である。図49は、位置導出処理の流れを示すフローチャートである。
<2-3-1. Position derivation process>
As described above, the position derivation process is a process for deriving the position information of a predetermined part of the body of the golfer 7 other than the left shoulder 71 at the checkpoint. FIG. 49 is a flowchart showing the flow of the position derivation process.

まず、ステップS201において、取得部14aが、記憶部13内に格納されている画像データを読み出し、メモリに展開する。そして、第2位置導出部14dが、これらの画像データのうち、解析の対象となるチェックポイントのフレームを決定する。本実施形態に係るチェックポイントは、アドレス、テイクバックシャフト8時、テイクバックシャフト9時、テイクバック腕水平、トップ、ダウンスイング腕水平、ダウンスイングシャフト9時、及びインパクトの8つのタイミングである(図50及び図51参照)。これらのチェックポイントは、スイング動作中にこの順番で現れる。図50及び図51は、それぞれこれらのチェックポイントでのゴルファー7の正面図及び右側面図である。テイクバックシャフト8時及びテイクバックシャフト9時は、それぞれゴルファー7を正面から見て、テイクバック中にシャフト52が概ね時計の8時及び9時の方向を指すタイミングである。ダウンスイングシャフト9時は、ゴルファー7を正面から見て、ダウンスイング中にシャフト52が概ね時計の9時の方向を指すタイミングである。 First, in step S201, the acquisition unit 14a reads the image data stored in the storage unit 13 and expands it into the memory. Then, the second position derivation unit 14d determines the frame of the checkpoint to be analyzed among these image data. The checkpoints according to the present embodiment are eight timings of address, takeback shaft 8 o'clock, takeback shaft 9 o'clock, takeback arm horizontal, top, downswing arm horizontal, downswing shaft 9 o'clock, and impact (8 o'clock). (See FIGS. 50 and 51). These checkpoints appear in this order during the swing motion. 50 and 51 are a front view and a right side view of the golfer 7 at these checkpoints, respectively. The takeback shaft 8 o'clock and the takeback shaft 9 o'clock are timings at which the shaft 52 generally points in the directions of 8 o'clock and 9 o'clock of the clock during takeback when the golfer 7 is viewed from the front, respectively. The downswing shaft at 9 o'clock is the timing when the golfer 7 is viewed from the front and the shaft 52 generally points in the direction of 9 o'clock on the clock during the downswing.

これらのチェックポイントのフレームは、様々な方法で決定することができる。アドレス、テイクバック腕水平、トップ、ダウンスイング腕水平、インパクトでのフレームは、例えば、既に説明したとおりの方法で決定することができる。テイクバックシャフト8時のフレームは、例えば、アドレスからテイクバック腕水平までの区間で、ゴルファー7の正面から撮影されたIRフレーム(以下、正面IRフレーム)上でグリップ端51aが右足先よりも右側になったフレームを画像処理により特定し、これより1〜3フレーム戻したフレームとして導出することができる。なお、以下では、正面IRフレームと同様に、ゴルファー7の正面からから撮影された深度フレームを、正面深度フレームと呼び、ゴルファー7の右側面から撮影されたIRフレームを、右側面IRフレームと呼び、ゴルファー7の右側面から撮影された深度フレームを、右側面深度フレームと呼ぶ。また、ゴルファー7の正面から撮影されたフレームを正面フレームと呼び、ゴルファー7の右側面から撮影されたフレームを、右側面フレームと呼ぶ。 The frame of these checkpoints can be determined in various ways. The address, takeback arm horizontal, top, downswing arm horizontal, and impact frame can be determined, for example, in the manner already described. The frame at 8 o'clock on the takeback shaft is, for example, the section from the address to the horizontal takeback arm, and the grip end 51a is on the right side of the right foot on the IR frame (hereinafter referred to as the front IR frame) taken from the front of the golfer 7. The frame can be specified by image processing, and can be derived as a frame obtained by returning 1 to 3 frames from this. In the following, similarly to the front IR frame, the depth frame taken from the front of the golfer 7 is referred to as a front depth frame, and the IR frame taken from the right side of the golfer 7 is referred to as a right side IR frame. A depth frame taken from the right side of the golfer 7 is called a right side depth frame. Further, a frame photographed from the front of the golfer 7 is referred to as a front frame, and a frame photographed from the right side of the golfer 7 is referred to as a right side frame.

テイクバックシャフト9時のフレームは、例えば、テイクバックシャフト8時からテイクバック腕水平の区間で、ゴルファー7の正面から見てシャフト52の角度が90°(水平)になったフレームとして導出することができる。ダウンスイングシャフト9時のフレームは、例えば、ダウンスイング腕水平からインパクトまでの区間で、ゴルファー7の正面から見てシャフト52の角度が90°(水平)になったフレームとして導出することができる。このとき、シャフト52の角度は、シャフト方向導出処理により導出されるシャフト52の向きを表す三次元ベクトル又は(IRフレーム由来の)二次元ベクトルを用いて特定することができる。 The frame at 9 o'clock on the takeback shaft is derived as, for example, a frame in which the angle of the shaft 52 is 90 ° (horizontal) when viewed from the front of the golfer 7 in the section where the takeback shaft is horizontal from 8 o'clock. Can be done. The frame at 9 o'clock of the downswing shaft can be derived as, for example, a frame in which the angle of the shaft 52 is 90 ° (horizontal) when viewed from the front of the golfer 7 in the section from the downswing arm horizontal to the impact. At this time, the angle of the shaft 52 can be specified by using a three-dimensional vector representing the direction of the shaft 52 derived by the shaft direction derivation process or a two-dimensional vector (derived from the IR frame).

続くステップS202〜S205では、チェックポイントにおけるゴルファー7の身体の様々な部位の位置情報が導出される。ここでは主として、位置情報は、第1平面及び/又は第2平面内での位置情報として導出される。第1平面とは、距離画像センサ2Fの光軸に直交する平面、すなわち、ゴルファー7の腹から背に向かう方向に直交する平面である。第2平面とは、距離画像センサ2Sの光軸に直交する平面、すなわち、飛球線方向に直交する平面である。また、ここでは、位置情報は、既に算出されているグリップ端51aの三次元座標、左肩71の三次元座標及びシャフト52の向きを表す三次元ベクトル、スケルトンデータ、並びにシルエットデータの中から適宜必要なものを用いて算出される。スケルトンデータについては既に述べたが、シルエットデータについては後述する。 In the following steps S202 to S205, the position information of various parts of the body of the golfer 7 at the checkpoint is derived. Here, the position information is mainly derived as the position information in the first plane and / or the second plane. The first plane is a plane orthogonal to the optical axis of the distance image sensor 2F, that is, a plane orthogonal to the direction from the antinode to the back of the golfer 7. The second plane is a plane orthogonal to the optical axis of the distance image sensor 2S, that is, a plane orthogonal to the flying ball line direction. Further, here, the position information is appropriately required from the already calculated three-dimensional coordinates of the grip end 51a, the three-dimensional coordinates of the left shoulder 71, the three-dimensional vector representing the direction of the shaft 52, the skeleton data, and the silhouette data. It is calculated using the above. The skeleton data has already been described, but the silhouette data will be described later.

まず、ステップS202では、取得部14aが、記憶部13内に格納されているスイング動作中の各チェックポイントでの正面深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの正面深度フレームから、各チェックポイントでのスケルトンデータを取得する。スケルトンデータの取得の態様は、第1実施形態と同様である。そして、第2位置導出部14dが、正面深度フレームに基づく正面側から見た各チェックポイントでのスケルトンデータを、右側面側から見たスケルトンデータに変換する。これは、以下の問題に対処するためである。すなわち、正面から撮影した深度フレームに基づくスケルトンデータ(より正確には、スケルトンデータに含まれる関節等の注目点の位置情報)は信頼性が高いが、側面から撮影した深度フレームに基づくスケルトンデータは信頼性が低い場合がある。そのため、以下では、右側面深度フレームに基づくスケルトンデータの代わりに、正面深度フレームに基づくスケルトンデータ(以下、正面スケルトンデータ)を変換したスケルトンデータが用いられる。以下、特に断らない限り、右側面スケルトンデータと言うときには、正面スケルトンデータからの変換後のスケルトンデータを意味する。また、ステップS202では、第2位置導出部14dは、右側面スケルトンデータに含まれる関節等の注目点の三次元座標を、第2平面内での二次元座標に変換する。 First, in step S202, the acquisition unit 14a reads out the front depth frame at each checkpoint during the swing operation stored in the storage unit 13 and expands it into the memory. Then, the acquisition unit 14a acquires the skeleton data at each checkpoint from these front depth frames. The mode of acquiring the skeleton data is the same as that of the first embodiment. Then, the second position derivation unit 14d converts the skeleton data at each checkpoint viewed from the front side based on the front depth frame into the skeleton data viewed from the right side. This is to address the following issues: That is, the skeleton data based on the depth frame taken from the front (more accurately, the position information of the points of interest such as joints included in the skeleton data) is highly reliable, but the skeleton data based on the depth frame taken from the side is It may be unreliable. Therefore, in the following, instead of the skeleton data based on the right side depth frame, the skeleton data obtained by converting the skeleton data based on the front depth frame (hereinafter referred to as the front skeleton data) is used. Hereinafter, unless otherwise specified, the right side skeleton data means the skeleton data after conversion from the front skeleton data. Further, in step S202, the second position derivation unit 14d converts the three-dimensional coordinates of the points of interest such as joints included in the right side surface skeleton data into the two-dimensional coordinates in the second plane.

スケルトンデータの変換は、予め記憶部13内に記憶されているキャリブレーションパラメータに基づいて行われる。スケルトンデータの変換とは、ある三次元空間における三次元座標を、別の定義により設定される三次元空間での三次元座標に変換することを意味する。従って、変換前後の三次元空間の相対的な関係が既知であれば、かかる変換が可能になる。この相対的な関係を示すパラメータが、ここで用いられるキャリブレーションパラメータであり、後述するキャリブレーションパラメータ設定処理の中で設定される。 The conversion of the skeleton data is performed based on the calibration parameters stored in the storage unit 13 in advance. The conversion of skeleton data means converting the three-dimensional coordinates in one three-dimensional space into the three-dimensional coordinates in the three-dimensional space set by another definition. Therefore, if the relative relationship of the three-dimensional space before and after the conversion is known, such conversion is possible. The parameter showing this relative relationship is the calibration parameter used here, and is set in the calibration parameter setting process described later.

続くステップS203では、第2位置導出部14dが、グリップ挙動導出処理、左肩導出処理及びシャフト方向導出処理により導出された正面側から見たグリップ51の三次元座標、左肩71の三次元座標及びシャフト52の向きを表す三次元ベクトルを、それぞれ右側面側から見たデータに変換する。本実施形態では、後述するとおり、右側面側から見た画像データに基づいて、スイング解析が実行されるためである。以下では、特に断らない限り、右側面側から見た画像データの解析について説明している箇所では、ステップS203による変換後のグリップ端51aの位置情報、左肩71の位置情報及びシャフト52の向きが、解析の対象とされる。 In the following step S203, the second position derivation unit 14d is derived by the grip behavior derivation process, the left shoulder derivation process, and the shaft direction derivation process, and the three-dimensional coordinates of the grip 51 as seen from the front side, the three-dimensional coordinates of the left shoulder 71, and the shaft. The three-dimensional vectors representing the directions of 52 are converted into data viewed from the right side. This is because, in the present embodiment, as will be described later, the swing analysis is executed based on the image data viewed from the right side. In the following, unless otherwise specified, in the parts where the analysis of the image data viewed from the right side is described, the position information of the grip end 51a after conversion by step S203, the position information of the left shoulder 71, and the orientation of the shaft 52 are shown. , Is the subject of analysis.

ところで、本実施形態では、グリップ挙動導出処理及びシャフト方向導出処理により導出されたグリップ端51aの位置情報及びシャフト52の向きは、正面からの画像データに基づいて算出されるため、ステップS203での変換後の位置情報及びシャフト52の向きは、誤差が大きくなることがある。このような場合には、グリップ端51aの位置情報及びシャフト52の向きを、右側面からの画像(シルエットデータ、深度フレーム及びIRフレームを含む)に基づいて、画像処理により再導出することができる。また、左肩挙動導出処理により導出された左肩71の位置情報をステップS203により変換したデータについても、誤差が大きくなることがある。このような場合には、左肩71の位置情報を、右側面からの画像(シルエットデータ、深度フレーム及びIRフレームを含む)に基づいて、画像処理により再導出することができる。 By the way, in the present embodiment, the position information of the grip end 51a derived by the grip behavior derivation process and the shaft direction derivation process and the orientation of the shaft 52 are calculated based on the image data from the front, so that in step S203. The error may be large in the position information after conversion and the orientation of the shaft 52. In such a case, the position information of the grip end 51a and the orientation of the shaft 52 can be redistributed by image processing based on the image from the right side surface (including the silhouette data, the depth frame and the IR frame). .. Further, the error may also be large for the data obtained by converting the position information of the left shoulder 71 derived by the left shoulder behavior derivation process in step S203. In such a case, the position information of the left shoulder 71 can be redistributed by image processing based on the image from the right side surface (including the silhouette data, the depth frame and the IR frame).

続くステップS204,S205では、ステップS201で決定された各チェックポイントにおける所定の部位の位置情報が導出される。ここで導出される位置情報は、良否判定処理の中でスイング動作の良否の判定に用いられる。 In the following steps S204 and S205, the position information of a predetermined portion at each checkpoint determined in step S201 is derived. The position information derived here is used to determine the quality of the swing operation in the quality determination process.

上記のとおり、ステップS204,S205は、各チェックポイントでの所定の部位の位置情報を導出するステップである。このうち、ステップS204では、第1平面内での所定の部位の位置情報が導出され、ステップS205では、第2平面内での所定の部位の位置情報が導出される。本実施形態では、位置情報が導出される部位は、チェックポイントごとに異なる。本実施形態に係るチェックポイントごとの位置情報が導出される部位については、以下にまとめて説明する。ステップS205が終了すると、位置導出処理が終了する。 As described above, steps S204 and S205 are steps for deriving the position information of a predetermined portion at each checkpoint. Of these, in step S204, the position information of the predetermined portion in the first plane is derived, and in step S205, the position information of the predetermined portion in the second plane is derived. In the present embodiment, the part from which the position information is derived differs for each checkpoint. The parts from which the position information for each checkpoint according to the present embodiment is derived will be described below. When step S205 is completed, the position derivation process is completed.

<2−3−1−1.アドレス>
第2位置導出部14dは、スケルトンデータから、アドレス時の第1平面内でのゴルファー7の右肩、肩中心、臍、右足首及び左足首の位置情報を導出する。このとき、アドレス時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1. Address>
The second position deriving unit 14d derives the position information of the golfer 7's right shoulder, shoulder center, umbilical cord, right ankle and left ankle in the first plane at the time of addressing from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at the time of addressing are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

また、第2位置導出部14dは、シルエットデータから、アドレス時の第1平面内での左足幅基準位置、右足幅基準位置、臍左位置、臍右位置及び左足踵の位置情報を導出する。ここでの左足幅基準位置及び右足幅基準位置からは、アドレス時のスタンスの幅を特定することができる。ここでの臍左位置及び臍右位置からは、アドレス時の腰の幅を特定することができる。 In addition, the second position derivation unit 14d derives the position information of the left foot width reference position, the right foot width reference position, the navel left position, the navel right position, and the left heel in the first plane at the time of addressing from the silhouette data. From the left foot width reference position and the right foot width reference position here, the width of the stance at the time of addressing can be specified. From the navel left position and the navel right position here, the width of the waist at the time of addressing can be specified.

ここで、シルエットデータとは、各フレーム上でのゴルファー7のシルエットを示すデータであり、取得部14aにより取得される。より具体的には、取得部14aは、記憶部13内に格納されている深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの深度フレームからシルエットデータを取得する。すなわち、ゴルファー7は、距離画像センサ2F,2Sの撮像範囲において比較的手前側に存在するため、深度フレームから浅い深度を表す画素値を有する領域を抽出することにより、人体のシルエットを導出することができる。そのため、より正確には、ここでいうシルエットには、ゴルフクラブ5等のシルエットも含まれる。なお、距離画像センサであるKinect(登録商標)には、深度画像からシルエットデータを読み出すためのライブラリが提供されており、本実施形態では、当該ライブラリを用いて、シルエットデータが取得される。また、シルエットデータは、距離画像センサ2F,2SのCPU23が、深度フレームから導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきたシルエットデータを読み出すだけでよい。また、シルエットデータは、深度フレームではなく、IRフレームを画像処理することにより導出することもできる。 Here, the silhouette data is data indicating the silhouette of the golfer 7 on each frame, and is acquired by the acquisition unit 14a. More specifically, the acquisition unit 14a reads the depth frame stored in the storage unit 13 and expands it into the memory. Then, the acquisition unit 14a acquires silhouette data from these depth frames. That is, since the golfer 7 exists on the relatively front side in the imaging range of the distance image sensors 2F and 2S, the silhouette of the human body is derived by extracting the region having the pixel value representing the shallow depth from the depth frame. Can be done. Therefore, more accurately, the silhouette referred to here includes a silhouette of a golf club 5 or the like. Kinect (registered trademark), which is a distance image sensor, is provided with a library for reading silhouette data from a depth image, and in the present embodiment, silhouette data is acquired using the library. Further, the silhouette data may be derived from the depth frame by the CPU 23 of the distance image sensors 2F and 2S. In this case, the acquisition unit 14a may simply read the silhouette data sent from the distance image sensor 2. Further, the silhouette data can be derived by image processing the IR frame instead of the depth frame.

なお、Kinect(登録商標)のライブラリを用いて直接的に抽出されるシルエットデータは、通常、2値化されていない。その場合、取得部14aは、当該シルエットデータを、ゴルファー7(より正確には、ゴルフクラブ5も含まれる)のシルエットのみを1、その他を0と表すように2値化することができる。また、取得部14aは、シルエットデータに対し膨張及び収縮を繰り返すことで、シルエットに分類されている小さなエリアを消去し、より正確なシルエットを取得することができる。また、取得部14aは、ラベリング処理を行うことによっても、シルエットに分類されている小さなエリアを消去することもできる。以下では、このように加工されたシルエットデータも、同様にシルエットデータと呼ぶ。以上のシルエットデータは、正面深度フレーム及び右側面深度フレームのそれぞれから同様の方法で、正面シルエットデータ及び右側面シルエットデータとして導出される。 The silhouette data directly extracted using the Kinect (registered trademark) library is usually not binarized. In that case, the acquisition unit 14a can binarize the silhouette data so that only the silhouette of the golfer 7 (more accurately, the golf club 5 is also included) is represented by 1 and the others are represented by 0. Further, the acquisition unit 14a can erase a small area classified as a silhouette by repeating expansion and contraction of the silhouette data, and can acquire a more accurate silhouette. In addition, the acquisition unit 14a can also erase a small area classified as a silhouette by performing a labeling process. Hereinafter, the silhouette data processed in this way is also referred to as silhouette data. The above silhouette data is derived as front silhouette data and right side silhouette data by the same method from each of the front depth frame and the right side depth frame.

左足幅基準位置、右足幅基準位置、臍左位置、臍右位置及び左足踵の位置情報の導出方法の説明に戻る。これらの位置情報は、第2位置導出部14dにより、正面シルエットデータを画像処理することにより導出される。図52は、アドレス時の正面シルエットデータに正面スケルトンデータを重ねた画像である。本実施形態では、図52に示されるとおり、正面シルエットデータの画像上において、シルエットの部分を囲む矩形枠L1が設定される。枠L1の左右の境界は、シルエットから所定の間隔をあけるように設定される。また、枠L1の上方の境界は、シルエットに含まれる最上点に一致し、下方の境界は、直線状のシャフト52のシルエットを除いたシルエットの下端に一致する。続いて、正面シルエットデータの画像上において、左右方向に左足首から枠L1の右端まで広がり、上下方向に左足首から枠L1の下端まで広がる枠L2が設定される。さらに、正面シルエットデータの画像上において、左右方向に右足首から枠L1の左端まで広がり、上下方向に右足首から枠L1の下端まで広がる枠L3が設定される。そして、枠L2内で左足首から最も遠いシルエット内の点の左右方向の位置が、左足幅基準位置として特定され、枠L3内で右足首から最も遠いシルエット内の点の左右方向の位置が、右足幅基準位置として特定される。 Return to the description of the method of deriving the position information of the left foot width reference position, the right foot width reference position, the navel left position, the navel right position, and the left heel. These position information are derived by image processing the front silhouette data by the second position derivation unit 14d. FIG. 52 is an image in which the front skeleton data is superimposed on the front silhouette data at the time of addressing. In the present embodiment, as shown in FIG. 52, a rectangular frame L1 surrounding the silhouette portion is set on the image of the front silhouette data. The left and right boundaries of the frame L1 are set so as to have a predetermined distance from the silhouette. Further, the upper boundary of the frame L1 coincides with the uppermost point included in the silhouette, and the lower boundary coincides with the lower end of the silhouette excluding the silhouette of the linear shaft 52. Subsequently, on the image of the front silhouette data, a frame L2 extending from the left ankle to the right end of the frame L1 in the left-right direction and extending from the left ankle to the lower end of the frame L1 in the vertical direction is set. Further, on the image of the front silhouette data, a frame L3 extending from the right ankle to the left end of the frame L1 in the left-right direction and extending from the right ankle to the lower end of the frame L1 in the vertical direction is set. Then, the horizontal position of the point in the silhouette farthest from the left ankle in the frame L2 is specified as the left foot width reference position, and the horizontal position of the point in the silhouette farthest from the right ankle in the frame L3 is determined. Specified as the right foot width reference position.

また、図52に示されるとおり、アドレス時の正面シルエットデータの画像上において、臍を通る水平な直線上においてシルエット内の左端点が、臍右位置として特定される。また、同直線上においてシルエット内の右端点が、臍左位置として特定される。 Further, as shown in FIG. 52, on the image of the front silhouette data at the time of addressing, the left end point in the silhouette is specified as the right navel position on a horizontal straight line passing through the navel. In addition, the right end point in the silhouette on the same straight line is specified as the left navel position.

左足踵の位置情報は、アドレスから少し進んだ(例えば、1フレーム進んだ)タイミングでの正面シルエットデータの画像から導出される。図53は、当該タイミングでの正面シルエットデータに正面スケルトンデータを重ねた画像である。本実施形態では、図53に示されるとおり、正面シルエットデータの画像上において、上記と同様の矩形枠L1が設定される。続いて、正面シルエットデータの画像上において、左右方向に左足首から枠L1の中央まで広がり、上下方向に左足首から枠L1の下端まで広がる枠L4が設定される。そして、枠L4内で左足首から最も遠いシルエット内の点が、左足踵の位置として特定される。 The position information of the left heel is derived from the image of the front silhouette data at the timing slightly advanced from the address (for example, advanced by one frame). FIG. 53 is an image in which the front skeleton data is superimposed on the front silhouette data at the relevant timing. In the present embodiment, as shown in FIG. 53, a rectangular frame L1 similar to the above is set on the image of the front silhouette data. Subsequently, on the image of the front silhouette data, a frame L4 extending from the left ankle to the center of the frame L1 in the left-right direction and extending from the left ankle to the lower end of the frame L1 in the vertical direction is set. Then, the point in the silhouette farthest from the left ankle in the frame L4 is specified as the position of the left heel.

次に、第2位置導出部14dは、スケルトンデータから、アドレス時の第2平面内でのゴルファー7の右肩、首、腰、左膝、右膝、右足首及び右肘の位置情報を導出する。このとき、アドレス時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。 Next, the second position derivation unit 14d derives the position information of the golfer 7's right shoulder, neck, waist, left knee, right knee, right ankle and right elbow in the second plane at the time of addressing from the skeleton data. do. At this time, the two-dimensional coordinates of these parts included in the right side surface skeleton data at the time of addressing are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

また、第2位置導出部14dは、シルエットデータから、アドレス時の第2平面内での左足先、右足先、左膝頭及び右膝頭の位置情報を導出する。ここで、左足及び右足については、地面からの赤外線データの反射波等がノイズとなり、深度フレームにおいて深度情報が取得されないことがある。この場合、深度フレームに基づくシルエットデータには、左足及び右足のシルエットが現れない。本実施形態では、このような場合に対処すべく、上述のシルエットデータにおいて特定されるシルエットの領域を拡張する、言い換えると、当該シルエットの領域に左足及び右足に対応する領域を補完する処理が行われる。具体的には、第2位置導出部14dは、アドレス時の右側面深度フレーム上で深度情報が欠落している領域の情報に基づいて、左足及び右足に対応する領域を導出する。図54Aは、アドレス時の右側面深度フレームに基づく右側面シルエットデータの画像である。本実施形態では、第2位置導出部14dは、この右側面シルエットデータの画像上において、右足首を基準として右足首周辺に所定のサイズの枠L5を設定する。そして、この枠L5内で、深度情報が0となっている領域を、左足及び右足に対応する領域として抽出する。図54Bは、左足及び右足のシルエットが補完された画像である。第2位置導出部14dは、右足首を基準として右足首周辺に所定のサイズの枠L6を設定し、枠L6内における左足のシルエットの右端点を左足先の位置として特定する。同様に、第2位置導出部14dは、右足首を基準として右足首周辺に所定のサイズの枠L7を設定し、枠L7内における右足のシルエットの右端点を右足先の位置として特定する。 In addition, the second position derivation unit 14d derives the position information of the left foot tip, the right foot tip, the left kneecap, and the right kneecap in the second plane at the time of addressing from the silhouette data. Here, for the left foot and the right foot, the reflected wave of infrared data from the ground becomes noise, and the depth information may not be acquired in the depth frame. In this case, the silhouettes of the left foot and the right foot do not appear in the silhouette data based on the depth frame. In the present embodiment, in order to deal with such a case, the area of the silhouette specified in the above-mentioned silhouette data is expanded, in other words, the area of the silhouette is complemented with the area corresponding to the left foot and the right foot. It is said. Specifically, the second position derivation unit 14d derives the regions corresponding to the left foot and the right foot based on the information of the region where the depth information is missing on the right surface depth frame at the time of addressing. FIG. 54A is an image of the right side silhouette data based on the right side depth frame at the time of addressing. In the present embodiment, the second position derivation unit 14d sets a frame L5 of a predetermined size around the right ankle with the right ankle as a reference on the image of the silhouette data of the right side surface. Then, in this frame L5, the region where the depth information is 0 is extracted as the region corresponding to the left foot and the right foot. FIG. 54B is an image in which the silhouettes of the left foot and the right foot are complemented. The second position deriving unit 14d sets a frame L6 having a predetermined size around the right ankle with reference to the right ankle, and specifies the right end point of the silhouette of the left foot in the frame L6 as the position of the left foot tip. Similarly, the second position derivation unit 14d sets a frame L7 of a predetermined size around the right ankle with reference to the right ankle, and specifies the right end point of the silhouette of the right foot in the frame L7 as the position of the right foot tip.

左膝頭及び右膝頭の位置情報は、正面深度フレーム上で左膝及び右膝の位置を深度方向にオフセットすることで左膝頭及び右膝頭の位置を決定し、これらをステップS202と同じ方法で右側面側から見た位置に変換し、変換後の左膝頭及び右膝頭の位置をシルエットの輪郭方向にオフセットした点の位置情報として特定される。 The position information of the left kneecap and the right kneecap determines the positions of the left kneecap and the right kneecap by offsetting the positions of the left knee and the right knee in the depth direction on the front depth frame, and these are determined on the right side in the same manner as in step S202. It is converted to the position viewed from the surface side, and the positions of the left and right kneecaps after conversion are specified as position information of points offset in the contour direction of the silhouette.

<2−3−1−2.テイクバックシャフト8時>
第2位置導出部14dは、スケルトンデータから、テイクバックシャフト8時の第1平面内でのゴルファー7の右肩及び臍の位置情報を導出する。このとき、テイクバックシャフト8時の正面スケルトンデータに含まれるこれらの部位の2次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-2. Takeback shaft 8 o'clock>
The second position derivation unit 14d derives the position information of the right shoulder and the navel of the golfer 7 in the first plane at 8 o'clock of the takeback shaft from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at 8 o'clock of the takeback shaft are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

<2−3−1−3.テイクバックシャフト9時>
本実施形態では、テイクバックシャフト9時のタイミングでは、ゴルファー7の部位の位置情報は特定されない。しかしながら、後述するとおり、テイクバックシャフト9時のグリップ端51aの位置情報に基づいて、テイクバックシャフト9時のタイミングでのスイング動作の良否が判断される。
<2-3-1-3. Takeback shaft 9 o'clock>
In the present embodiment, the position information of the golfer 7 portion is not specified at the timing of the takeback shaft at 9 o'clock. However, as will be described later, the quality of the swing operation at the timing of the takeback shaft 9 o'clock is determined based on the position information of the grip end 51a at the takeback shaft 9 o'clock.

<2−3−1−4.テイクバック腕水平>
第2位置導出部14dは、スケルトンデータから、テイクバック腕水平時の第2平面内でのゴルファー7の首及び腰の位置情報を導出する。このとき、テイクバック腕水平時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-4. Takeback arm horizontal >
The second position derivation unit 14d derives the position information of the neck and waist of the golfer 7 in the second plane when the takeback arm is horizontal from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right side surface skeleton data when the takeback arm is horizontal are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

<2−3−1−5.トップ>
第2位置導出部14dは、スケルトンデータから、トップ時の第1平面内でのゴルファー7の頭、臍、左膝及び右膝の位置情報を導出する。このとき、トップ時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1-5. Top >
The second position deriving unit 14d derives the position information of the golfer 7's head, navel, left knee, and right knee in the first plane at the top from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at the time of top are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

また、第2位置導出部14dは、シルエットデータから、トップ時の第1平面内での臍右位置の位置情報を導出する。ここでの臍右位置の導出方法は、アドレス時の正面シルエットデータの画像に代えて、インパクト時の正面シルエットデータの画像を用いる点を除き、アドレス時と同様である。 Further, the second position deriving unit 14d derives the position information of the right navel position in the first plane at the top from the silhouette data. The method for deriving the right umbilicus position here is the same as that at the time of addressing, except that the image of the frontal silhouette data at the time of impact is used instead of the image of the frontal silhouette data at the time of addressing.

次に、第2位置導出部14dは、スケルトンデータから、トップ時の第2平面内でのゴルファー7の左膝、右膝、首及び腰の位置情報を導出する。このとき、トップ時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。 Next, the second position derivation unit 14d derives the position information of the left knee, the right knee, the neck, and the waist of the golfer 7 in the second plane at the time of the top from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the skeleton data on the right side surface at the time of top are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

また、第2位置導出部14dは、シルエットデータから、トップ時の第2平面内でのゴルファー7の左肩71、左膝頭、右膝頭、左肘及び右肘の位置情報を導出する。左肩71の位置情報の導出には、既に導出されている左肩71の二次元座標が使用される。図55は、トップ時の右側面シルエットデータの画像である。具体的には、本実施形態では、図55に示すとおり、トップ時の右側面シルエットデータの画像上において、既に抽出されている左肩71の位置を、左方向に向かってシルエットの輪郭に重なるように移動させ、当該移動後の位置を新たな左肩の位置とする。 Further, the second position deriving unit 14d derives the position information of the left shoulder 71, the left kneecap, the right kneecap, the left elbow and the right elbow of the golfer 7 in the second plane at the time of the top from the silhouette data. The two-dimensional coordinates of the left shoulder 71 that have already been derived are used for deriving the position information of the left shoulder 71. FIG. 55 is an image of the silhouette data of the right side surface at the time of top. Specifically, in the present embodiment, as shown in FIG. 55, the position of the left shoulder 71 that has already been extracted on the image of the silhouette data on the right side at the top is overlapped with the contour of the silhouette toward the left. And the position after the movement is set as the new position of the left shoulder.

また、右膝頭の位置情報は、アドレス時と同様の方法で導出される。一方、左膝頭の位置情報は、以下の方法で導出される。まず、右側面シルエットデータの画像上において、既に抽出されている左膝の位置を基準としてその周辺に所定サイズの枠L10(図55参照)が設定される。続いて、枠L10内に含まれるシルエットの輪郭の曲率が算出され、曲率が最大となっている点が新たな左膝頭の位置として特定される。 Further, the position information of the right kneecap is derived by the same method as at the time of addressing. On the other hand, the position information of the left kneecap is derived by the following method. First, on the image of the silhouette data of the right side surface, a frame L10 (see FIG. 55) having a predetermined size is set around the position of the left knee that has already been extracted. Subsequently, the curvature of the contour of the silhouette included in the frame L10 is calculated, and the point where the curvature is maximum is specified as the position of the new left kneecap.

右肘の位置情報も、シルエットの曲率に基づいて導出される。より具体的には、右側面シルエットデータの画像上において、グリップ端51aの位置を基準としてその周辺に所定サイズの枠L11(図55参照)が設定される。続いて、枠L11内に含まれるシルエットの輪郭の曲率が算出され、曲率が最大となっている点が新たな右肘の位置として特定される。 The position information of the right elbow is also derived based on the curvature of the silhouette. More specifically, on the image of the silhouette data of the right side surface, a frame L11 (see FIG. 55) having a predetermined size is set around the position of the grip end 51a as a reference. Subsequently, the curvature of the contour of the silhouette included in the frame L11 is calculated, and the point where the curvature is maximum is specified as the position of the new right elbow.

左肘の位置情報は、以下の方法で導出される。まず、再抽出された左肩71の位置とグリップ端51aとの中点を仮左肘とする。次に、仮左肘の位置を基準としてその周辺に所定サイズの枠L12(図55参照)を設定し、右側面深度フレームに基づいて、枠L12内で左肩71よりも深度の浅い点、言い換えると、距離画像センサ2Fを基準として手前側に突出している点を、左肘の位置として特定する。 The position information of the left elbow is derived by the following method. First, the midpoint between the position of the re-extracted left shoulder 71 and the grip end 51a is set as the temporary left elbow. Next, a frame L12 of a predetermined size (see FIG. 55) is set around the temporary left elbow position as a reference, and a point shallower than the left shoulder 71 in the frame L12 based on the right side depth frame, in other words. And, the point protruding toward the front side with respect to the distance image sensor 2F is specified as the position of the left elbow.

<2−3−1−6.ダウンスイング腕水平>
第2位置導出部14dは、スケルトンデータから、ダウンスイング腕水平時の第1平面内でのゴルファー7の左膝の位置情報を導出する。このとき、ダウンスイング腕水平時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1-6. Downswing arm horizontal>
The second position deriving unit 14d derives the position information of the left knee of the golfer 7 in the first plane when the downswing arm is horizontal from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data when the downswing arm is horizontal are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

次に、第2位置導出部14dは、スケルトンデータから、ダウンスイング腕水平時の第2平面内でのゴルファー7の首及び腰の位置情報を導出する。このとき、ダウンスイング腕水平時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。 Next, the second position deriving unit 14d derives the position information of the neck and the waist of the golfer 7 in the second plane when the downswing arm is horizontal from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right side surface skeleton data when the downswing arm is horizontal are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

<2−3−1−7.ダウンスイングシャフト9時>
第2位置導出部14dは、シルエットデータから、ダウンスイングシャフト9時の第1平面内での手の位置情報を導出する。本実施形態では、手の位置は、ダウンスイングシャフト9時の正面シルエットデータの画像上において、グリップ端51aからシャフト52の延びる方向に沿ってヘッド側に所定の長さだけ移動した位置として特定される。
<2-3-1-1-7. Downswing shaft 9 o'clock>
The second position deriving unit 14d derives the position information of the hand in the first plane at 9 o'clock of the downswing shaft from the silhouette data. In the present embodiment, the position of the hand is specified as a position moved to the head side by a predetermined length along the extending direction of the shaft 52 from the grip end 51a on the image of the front silhouette data at 9 o'clock of the downswing shaft. NS.

<2−3−1−8.インパクト>
第2位置導出部14dは、スケルトンデータから、インパクト時の第1平面内でのゴルファー7の頭、肩中心、右肩、左肘及び臍の位置情報を導出する。このとき、インパクト時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-8. Impact >
The second position derivation unit 14d derives the position information of the golfer 7's head, shoulder center, right shoulder, left elbow, and navel in the first plane at the time of impact from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the front skeleton data at the time of impact are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

また、第2位置導出部14dは、シルエットデータから、インパクト時の第1平面内での臍左位置及び臍右位置の位置情報を導出する。ここでの臍左位置及び臍右位置からは、インパクト時の腰の幅を特定することができる。また、ここでの臍左位置及び臍右位置の導出方法は、アドレス時の正面シルエットデータの画像に代えて、インパクト時の正面シルエットデータの画像を用いる点を除き、アドレス時と同様である。なお、インパクト時の正面シルエットデータの画像上においては、腕が臍左位置に重なってしまう傾向にあるため、臍左位置を特定するときには、インパクトから所定の時間溯った(例えば、2フレーム前の)画像上で同様の処理を行うことが好ましい。 Further, the second position deriving unit 14d derives the position information of the umbilicus left position and the umbilicus right position in the first plane at the time of impact from the silhouette data. From the navel left position and the navel right position here, the width of the waist at the time of impact can be specified. Further, the method of deriving the umbilicus left position and the umbilicus right position here is the same as that at the time of addressing, except that the image of the frontal silhouette data at the time of impact is used instead of the image of the frontal silhouette data at the time of addressing. Since the arm tends to overlap the left navel position on the image of the front silhouette data at the time of impact, when specifying the left navel position, a predetermined time is taken from the impact (for example, two frames before). ) It is preferable to perform the same processing on the image.

次に、第2位置導出部14dは、スケルトンデータから、インパクト時の第2平面内でのゴルファー7の首、腰、右膝及び右足首の位置情報を導出する。このとき、インパクト時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。 Next, the second position derivation unit 14d derives the position information of the golfer 7's neck, waist, right knee, and right ankle in the second plane at the time of impact from the skeleton data. At this time, the two-dimensional coordinates of these parts included in the right side surface skeleton data at the time of impact are extracted, and the two-dimensional coordinates are used as they are as the position information of these parts.

<2−3−2.キャリブレーションパラメータ設定処理>
次に、キャリブレーションパラメータ設定処理について説明する。まず、ゴルファー7が立つ位置の近傍に、スタンド等を介して赤外線を反射する1又は複数のマークを配置する。このマークは、距離画像センサ2F,2Sの両方から撮影可能な位置に配置される。そして、このマークを距離画像センサ2F,2Sにより撮影し、このマークの三次元座標を取得する。ここで、距離画像センサ2Fにより撮影されたマークの三次元座標を(FXi,FYi,FZi)と表し、距離画像センサ2Sにより撮影された同じ位置のマークの三次元座標を(SXi,SYi,SZi)と表す。ただし、i=1,2,・・・,n(n≧2)である。ここでは、マークを移動させる等して、n組のデータセット(FXi,FYi,FZi,SXi,SYi,SZi)を用意する。
<2-3-2. Calibration parameter setting process>
Next, the calibration parameter setting process will be described. First, one or a plurality of marks that reflect infrared rays via a stand or the like are arranged in the vicinity of the position where the golfer 7 stands. This mark is arranged at a position where it can be photographed from both the distance image sensors 2F and 2S. Then, this mark is photographed by the distance image sensors 2F and 2S, and the three-dimensional coordinates of this mark are acquired. Here, the three-dimensional coordinates of the mark taken by the distance image sensor 2F are represented as (FXi, FYi, FZi), and the three-dimensional coordinates of the mark at the same position taken by the distance image sensor 2S are (SXi, SYi, SZi). ). However, i = 1, 2, ..., N (n ≧ 2). Here, n sets of data sets (FXi, FYi, FZi, SXi, SYi, SZi) are prepared by moving the marks and the like.

このとき、距離画像センサ2Fの三次元座標を、距離画像センサ2Sの三次元座標へと変換するための変換係数a〜lは、以下の式を満たす。

Figure 0006944144
At this time, the conversion coefficients a to l for converting the three-dimensional coordinates of the distance image sensor 2F into the three-dimensional coordinates of the distance image sensor 2S satisfy the following equations.
Figure 0006944144

以上の式に、n組のデータセット(FXi,FYi,FZi,SXi,SYi,SZi)を代入することにより、変換係数a〜lが算出される。この変換係数a〜lが、キャリブレーションパラメータである。なお、キャリブレーションパラメータは、他の方法でも当然に算出可能である。 By substituting n sets of data sets (FXi, FYi, FZi, SXi, SYi, SZi) into the above equation, the conversion coefficients a to l are calculated. The conversion coefficients a to l are calibration parameters. The calibration parameters can be calculated by other methods as a matter of course.

<2−3−3.良否判定処理>
次に、スイング動作の良否の判定を行う良否判定処理について説明する。良否判定処理は、判定部14eにより実行される。
<2-3-3. Pass / fail judgment process>
Next, the quality determination process for determining the quality of the swing operation will be described. The pass / fail determination process is executed by the determination unit 14e.

良否判定処理は、ゴルファー7の様々な部位(左肩71を含む)の位置情報、グリップ端51aの位置情報、及びシャフト52の向きの情報に基づいて、実行される。具体的には、判定部14eは、これらの情報に基づいて、スイング動作の良否の判定を行うための指標値を算出する。指標値としては、様々なものがあり、チェックポイントごとに設定されている。本実施形態では、例えば、以下のような指標値が算出される。以下は、正面の解析を行うための指標値と、右側面の解析を行うための指標値とに分けて列挙している。 The pass / fail determination process is executed based on the position information of various parts (including the left shoulder 71) of the golfer 7, the position information of the grip end 51a, and the orientation information of the shaft 52. Specifically, the determination unit 14e calculates an index value for determining the quality of the swing operation based on this information. There are various index values, which are set for each checkpoint. In this embodiment, for example, the following index values are calculated. The following is a list of index values for frontal analysis and index values for right side analysis.

(アドレス時の指標値−正面)
ボール位置(原点)に対する左足踵の位置、肩幅に対するスタンスの広さ、上半身のバランス、下半身のバランス
なお、肩幅に対するスタンスの広さは、右肩、左肩、左足幅基準位置及び右足幅基準位置の位置情報から、上半身のバランスは、左肩、右肩、左足幅基準位置及び右足幅基準位置の位置情報から、下半身のバランスは、臍左位置、臍右位置、左足幅基準位置及び右足幅基準位置の位置情報から導出することができる。
(Indicator value at address-front)
The position of the left heel with respect to the ball position (origin), the width of the stance with respect to the shoulder width, the balance of the upper body, the balance of the lower body. From the position information, the balance of the upper body is the left shoulder, the right shoulder, the left foot width reference position and the right foot width reference position. It can be derived from the position information of.

(アドレス時の指標値−右側面)
バランスポイントラインに対する右肩の位置、バランスポイントラインに対する右膝の位置、スパインアングル
なお、右肩の位置は、右肩及び右足先の位置情報から、右膝の位置は、右膝頭及び右足先の位置情報から、スパインアングルは、首及び腰の位置から導出することができる。なお、バランスポイントラインとは、右側面フレーム上において右足先の位置から縦方向に引いたラインのことである。
(Index value at address-right side)
The position of the right shoulder with respect to the balance point line, the position of the right knee with respect to the balance point line, and the spine angle. From the position information, the spine angle can be derived from the positions of the neck and waist. The balance point line is a line drawn in the vertical direction from the position of the right foot on the right side frame.

(テイクバックシャフト8時の指標値−正面)
グリップ端51aの向き(臍に向かっているか)、理想シャフトラインとの角度差、アドレスからの右肩移動量
なお、グリップ端51aの向きは、グリップ端51aの位置情報、シャフト52aの向き及びアドレス時の臍の位置情報から、理想シャフトラインとの角度差は、シャフト52の角度及び所定の理想角度から、アドレスからの右肩移動量は、右肩の位置情報及びアドレス時の右肩の位置情報から導出することができる。
(Indicator value at 8 o'clock on takeback shaft-front)
The orientation of the grip end 51a (whether toward the umbilical cord), the angle difference from the ideal shaft line, the amount of movement of the right shoulder from the address The orientation of the grip end 51a is the position information of the grip end 51a, the orientation and address of the shaft 52a. From the position information of the umbilical cord at the time, the angle difference from the ideal shaft line is from the angle of the shaft 52 and the predetermined ideal angle, and the amount of movement of the right shoulder from the address is the position information of the right shoulder and the position of the right shoulder at the time of addressing. It can be derived from the information.

(テイクバックシャフト9時の指標値−正面)
アドレス時の基準軸に対するグリップ端51aの位置
なお、本指標値は、グリップ端51aの位置情報、並びにアドレス時の右肩及び肩中心から導出することができる。
(Indicator value at 9 o'clock on takeback shaft-front)
Position of grip end 51a with respect to reference axis at address This index value can be derived from the position information of grip end 51a and the right shoulder and shoulder center at address.

(テイクバック腕水平の指標値−正面)
リストコックの角度、両肘の高さの差、アドレスからの左肩移動量
なお、リストコックの角度は、シャフト52の向きから、アドレスからの左肩移動量は、テイクバック腕水平及びアドレス時の左肩の位置情報から導出することができる。
(Takeback arm horizontal index value-front)
Wristcock angle, difference in height between both elbows, left shoulder movement from address Note that the wristcock angle is from the direction of the shaft 52, and the left shoulder movement from address is the takeback arm horizontal and left shoulder at address. It can be derived from the position information of.

両肘の高さの差は、例えば、以下のとおり導出することができる。図56は、テイクバック腕水平時の正面シルエットデータの画像を示している。ここでは、まず、上述した枠L1の他、グリップ端51a及び左肩71の位置を基準として図56に示すような枠L8,L9が設定される。次に、テイクバック腕水平時の正面シルエットデータの画像上において、図56に示す2つの参照点が特定され、これらの参照点間の幅が指標値として導出される。そして、当該指標値が所定値よりも大きい場合には、テイクバック腕水平時の正面シルエットデータの画像上において、参照点を結ぶ線分が特定される。続いて、テイクバック腕水平時の正面深度フレームから、当該線分上の深度情報が導出される。そして、枠L8内に含まれる当該線分上の点の深度情報に基づく深度と、枠L9内に含まれる当該線分上の点の深度情報に基づく深度との差が指標値として導出され、当該指標値の大小に応じて、左肘と右肘のどちらが高いかが判定される。 The difference in height between the elbows can be derived, for example, as follows. FIG. 56 shows an image of the front silhouette data when the takeback arm is horizontal. Here, first, in addition to the above-mentioned frame L1, frames L8 and L9 as shown in FIG. 56 are set with reference to the positions of the grip end 51a and the left shoulder 71. Next, the two reference points shown in FIG. 56 are specified on the image of the front silhouette data when the takeback arm is horizontal, and the width between these reference points is derived as an index value. Then, when the index value is larger than a predetermined value, a line segment connecting the reference points is specified on the image of the front silhouette data when the takeback arm is horizontal. Subsequently, the depth information on the line segment is derived from the front depth frame when the takeback arm is horizontal. Then, the difference between the depth based on the depth information of the points on the line segment included in the frame L8 and the depth based on the depth information of the points on the line segment included in the frame L9 is derived as an index value. Which of the left elbow and the right elbow is higher is determined according to the magnitude of the index value.

(テイクバック腕水平の指標値−右側面)
アドレスを基準とするスパインアングル
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから導出することができる。
(Takeback arm horizontal index value-right side)
Spine angle based on the address The spine angle can be derived from the position information of the neck and waist and the spine angle at the time of addressing.

(トップの指標値−正面)
オーバースイング、上半身の反り、アドレスからの左右移動量、アドレスを基準とする右膝の位置、アドレスを基準とする頭の位置、アドレスを基準とする左肩の位置
なお、オーバースイングは、シャフト52の角度から、上半身の反りは、頭及び臍の位置情報から、左右移動量は、臍右位置及び臍位置の位置情報並びにアドレス時の右足幅基準位置及び臍の位置情報から、右膝の位置は、右膝の位置情報及びアドレス時の右足幅基準位置の位置情報から、頭の位置は、頭の位置及びアドレス時の右足幅基準位置の位置から、上記左肩の位置は、左肩の位置情報並びにアドレス時の左肩及び肩中心の位置情報から導出することができる。
(Top index value-front)
Overswing, warp of the upper body, amount of left and right movement from the address, position of the right knee based on the address, position of the head based on the address, position of the left shoulder based on the address Note that the overswing is the position of the shaft 52. From the angle, the warp of the upper body is from the position information of the head and umbilical cord, the amount of lateral movement is from the position information of the right umbilical cord and the umbilical cord position, and the position information of the right foot width and the umbilical cord at the time of addressing. From the position information of the right knee and the position information of the right foot width reference position at the time of addressing, the position of the head is from the position of the head and the position of the right foot width reference position at the time of addressing, and the position of the left shoulder is the position information of the left shoulder and It can be derived from the position information of the left shoulder and the center of the shoulder at the time of addressing.

(トップの指標値−右側面)
アドレスからの右膝の移動量、アドレスからの左膝の移動量、アドレスを基準とする手首の位置、両肘の高さ、アドレスを基準とするスパインアングル
なお、右膝の移動量は、右膝頭及びアドレス時の右膝頭の位置情報から、左膝の移動量は、左膝頭及びアドレス時の左膝頭の位置情報から、手首の位置は、首及びグリップ端51aの位置情報並びにアドレス時の右肘及びボール(原点)の位置情報から、両肘の高さは、左肘及び右肘の位置情報から、スパインアングルは、首及び腰の位置情報並びにアドレス時のスパインアングルから導出することができる。
(Top index value-right side)
The amount of movement of the right knee from the address, the amount of movement of the left knee from the address, the position of the wrist based on the address, the height of both elbows, the spine angle based on the address The amount of movement of the right knee is the right From the position information of the right kneecap at the time of address and the kneecap, the amount of movement of the left knee is from the position information of the left kneecap and the left kneecap at the time of address, and the position of the wrist is the position information of the neck and grip end 51a and the right at the time of address. From the position information of the elbow and the ball (origin), the height of both elbows can be derived from the position information of the left elbow and the right elbow, and the spine angle can be derived from the position information of the neck and waist and the spine angle at the time of addressing.

(ダウンスイング腕水平の指標値−正面)
リストコックの角度、アドレス時の左足幅基準位置に対する左膝の位置
なお、リストコックの角度は、シャフト52の向きから、左膝の位置は、左膝の位置情報及びアドレス時の左足幅基準位置の位置情報から導出することができる。
(Downswing arm horizontal index value-front)
Wristcock angle, left knee position with respect to left foot width reference position at address Note that the wristcock angle is from the direction of the shaft 52, and the left knee position is the left knee position information and left foot width reference position at address. It can be derived from the position information of.

(ダウンスイング腕水平の指標値−右側面)
アドレスを基準とするスパインアングル
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから導出することができる。
(Downswing arm horizontal index value-right side)
Spine angle based on the address The spine angle can be derived from the position information of the neck and waist and the spine angle at the time of addressing.

(ダウンスイングシャフト9時の指標値−正面)
リストコックの角度の変化、アドレス時の基準軸に対するグリップ端51aの位置
なお、リストコックの角度の変化は、シャフト52の向き、左肩の位置情報及びグリップ端51aの位置情報、並びにダウンスイング腕水平時のシャフト52の向きから、グリップ端51aの位置は、グリップ端51aの位置情報並びにアドレス時の右肩及び肩中心の位置情報から導出することができる。
(Index value at 9 o'clock on the downswing shaft-front)
Changes in the angle of the wrist cock, the position of the grip end 51a with respect to the reference axis at the time of address The change in the angle of the wrist cock includes the orientation of the shaft 52, the position information of the left shoulder and the position information of the grip end 51a, and the downswing arm horizontal. From the orientation of the shaft 52 at the time, the position of the grip end 51a can be derived from the position information of the grip end 51a and the position information of the right shoulder and the center of the shoulder at the time of addressing.

(インパクトの指標値−正面)
左右移動量、上下移動量、頭の位置、肩の回転量、スパインの傾き、左肘の引け、アドレス時の基準軸に対するグリップ端51aの位置
なお、左右移動量は、臍の位置情報並びにアドレス時の左肩、右肩及び肩中心の位置情報から、上下移動量は、アドレス時及びインパクト時の臍の位置情報から、頭の位置は、頭の位置情報並びにアドレス時の左肩及び肩中心の位置情報から、肩の回転量は、左肩及び右肩の位置情報並びにアドレス時の左肩及び右肩の位置情報から、スパインの傾きは、臍及び肩中心の位置情報から、左肘の引けは、左肘、左肩及びグリップ端51aの位置情報から、グリップ端51aの位置は、グリップ端51aの位置情報並びにアドレス時の左肩及び肩中心の位置情報から導出することができる。
(Impact index value-front)
Left / right movement amount, up / down movement amount, head position, shoulder rotation amount, spine inclination, left elbow closing, position of grip end 51a with respect to reference axis at address. From the position information of the left shoulder, right shoulder and shoulder center at the time, the amount of vertical movement is from the position information of the umbilical cord at the time of address and impact, and the position of the head is the position information of the head and the position of the left shoulder and the center of the shoulder at the time of address. From the information, the amount of rotation of the shoulder is from the position information of the left and right shoulders and the position information of the left and right shoulders at the time of addressing, the inclination of the spine is from the position information of the umbilical cord and the center of the shoulder, and the closing of the left elbow is the left. The position of the grip end 51a can be derived from the position information of the elbow, the left shoulder and the grip end 51a from the position information of the grip end 51a and the position information of the left shoulder and the center of the shoulder at the time of addressing.

(インパクトの指標値−右側面)
アドレスを基準とするスパインアングル、アドレスを基準とする膝の角度
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから、膝の角度は、腰、右膝及び右足首の位置情報、並びにアドレス時の腰、右膝及び右足首の位置情報から導出することができる。
(Impact index value-right side)
Address-based spine angle, address-based knee angle Note that the spine angle is based on the position information of the neck and waist, and the spine angle at the time of addressing, and the knee angle is the position of the waist, right knee, and right ankle. It can be derived from the information and the position information of the waist, right knee and right ankle at the time of addressing.

本実施形態では、以上のような指標値の正解データ(スイング動作が良好と判定されるときの指標値の範囲)が、記憶部13内に予め設定されている。判定部12eは、この正解データと、算出された指標値とを比較することにより、各指標値についてスイング動作の良否を判定する。また、各指標値についての判定結果にポイントを付与しこれを加算する等して、スイング動作の良否を総合評価することもできる。判定結果は、適宜、表示部11上に表示される。例えば、報告書の形式で、各指標値についての判定結果の一覧及び総合評価を表示することができる。 In the present embodiment, the correct answer data of the index value as described above (the range of the index value when the swing operation is determined to be good) is set in advance in the storage unit 13. The determination unit 12e determines the quality of the swing operation for each index value by comparing the correct answer data with the calculated index value. It is also possible to comprehensively evaluate the quality of the swing operation by giving points to the determination results for each index value and adding them. The determination result is appropriately displayed on the display unit 11. For example, in the form of a report, a list of judgment results and a comprehensive evaluation for each index value can be displayed.

1 スイング解析装置
2 距離画像センサ
3 スイング解析プログラム
5 ゴルフクラブ
7 ゴルファー
14a 取得部
14b 位置導出部(導出部)
14c 向き導出部(導出部)
51 グリップ
52 シャフト
71 左肩
100 スイング解析システム
1 Swing analysis device 2 Distance image sensor 3 Swing analysis program 5 Golf club 7 Golfer 14a Acquisition unit 14b Position derivation unit (derivation unit)
14c direction derivation part (derivation part)
51 Grip 52 Shaft 71 Left shoulder 100 Swing analysis system

Claims (38)

ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得する取得部と、
前記二次元画像を画像処理することにより、前記スイング動作中の前記ゴルフクラブの所定の部位の追跡目標の二次元座標を特定するとともに、前記深度画像に基づいて、前記所定の部位の追跡目標の奥行きを特定することにより、前記所定の部位の追跡目標の三次元座標を導出する導出部と
を備える、
スイング解析装置。
A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image and a two-dimensional image obtained by capturing the swing motion with a distance image sensor, and
By image processing the two-dimensional image, the two-dimensional coordinates of the tracking target of the predetermined part of the golf club during the swing operation are specified, and the tracking target of the predetermined part is determined based on the depth image . A derivation unit for deriving the three-dimensional coordinates of the tracking target of the predetermined part by specifying the depth is provided.
Swing analyzer.
前記導出部は、第1時刻での前記二次元画像上において、前記第1時刻よりも前の第2時刻での前記所定の部位の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記所定の部位の二次元座標を探索する、
請求項1に記載のスイング解析装置。
The derivation unit sets a search range on the two-dimensional image at the first time based on the two-dimensional coordinates of the predetermined part at the second time before the first time, and sets the search range. Search for the two-dimensional coordinates of the predetermined part within.
The swing analysis device according to claim 1.
前記導出部は、前記スイング動作中のトップ付近のフェーズでは、前記ゴルファーの頭の位置を基準として、前記探索範囲の設定位置を制限する、
請求項2に記載のスイング解析装置。
In the phase near the top during the swing operation, the derivation unit limits the set position of the search range with reference to the position of the golfer's head.
The swing analysis device according to claim 2.
前記所定の部位は、前記ゴルフクラブのグリップである、
請求項1から3のいずれかに記載のスイング解析装置。
The predetermined portion is a grip of the golf club.
The swing analysis apparatus according to any one of claims 1 to 3.
前記所定の部位は、前記ゴルフクラブのグリップであり、
前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの二次元座標を特定する、
請求項1から3のいずれかに記載のスイング解析装置。
The predetermined portion is a grip of the golf club.
The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the two-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
The swing analysis apparatus according to any one of claims 1 to 3.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得する取得部と、
前記二次元画像を画像処理することにより、前記ゴルフクラブのシャフトの追跡目標の二次元座標を特定し、前記深度画像に基づいて、前記シャフトの追跡目標の二次元座標での奥行きを特定することにより、前記シャフトの追跡目標の三次元座標を導出し、前記シャフトの追跡目標の三次元座標の分布傾向に基づいて、所定の部位の三次元座標を特定する導出部と
を備え、
前記所定の部位は、前記ゴルフクラブのグリップである、
スイング解析装置。
A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image and a two-dimensional image obtained by capturing the swing motion with a distance image sensor, and
By image processing the two-dimensional image, the identified two-dimensional coordinates of the tracking target of the golf club shaft, based on the depth image, identifies the depth of the two-dimensional coordinates of the tracking target of the shaft To derive the three-dimensional coordinates of the tracking target of the shaft, and to specify the three-dimensional coordinates of a predetermined part based on the distribution tendency of the three-dimensional coordinates of the tracking target of the shaft.
The predetermined portion is a grip of the golf club.
Swing analyzer.
前記二次元画像及び前記深度画像は、前記スイング動作を前記距離画像センサにより前記ゴルファーの前方から撮影した情報であり、
前記導出部は、アドレス付近での前記二次元画像に基づいて、前記シャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの三次元座標を特定する、
請求項5又は6に記載のスイング解析装置。
The two-dimensional image and the depth image are information obtained by capturing the swing motion from the front of the golfer by the distance image sensor.
The derivation unit specifies the two-dimensional coordinates of the shaft based on the two-dimensional image near the address, and specifies the three-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
The swing analysis device according to claim 5 or 6.
前記導出部は、前記スイング動作のフェーズに応じて閾値を自動又は固定の間で切り替えつつ、前記二次元画像を二値化する、
請求項1〜7のいずれに記載のスイング解析装置。
The derivation unit binarizes the two-dimensional image while switching the threshold value between automatic and fixed according to the phase of the swing operation.
The swing analysis device according to any one of claims 1 to 7.
前記取得部は、前記距離画像センサから時系列の二次元画像をさらに取得し、
前記導出部は、第1時刻での前記二次元画像から前記ゴルフクラブのグリップの位置が抽出できない場合には、前記第1時刻の直後の第2時刻での前記二次元画像から前記ゴルフクラブのシャフトの位置を特定し、当該シャフトの位置に基づいて当該第2時刻における前記グリップの位置を特定する、
請求項1に記載のスイング解析装置。
The acquisition unit further acquires a time-series two-dimensional image from the distance image sensor.
When the position of the grip of the golf club cannot be extracted from the two-dimensional image at the first time, the derivation unit of the golf club from the two-dimensional image at the second time immediately after the first time. The position of the shaft is specified, and the position of the grip at the second time is specified based on the position of the shaft.
The swing analysis device according to claim 1.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより前記ゴルファーの正面側から撮影した深度画像を取得する取得部と、
前記深度画像を奥行の値により二値化した二値化画像を生成するとともに、前記深度画像を前記二値化画像によりマスキングし、1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記マスキングした深度画像をフィルタリングし、フィルタリング後の前記深度画像から前記スイング動作中の所定の部位の二次元座標を導出し、フィルタリング前の前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記スイング動作中の前記所定の部位の三次元座標を導出する導出部と、
を備え、
前記所定の部位は、前記ゴルファーの肩である、
スイング解析装置。
A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion taken from the front side of the golfer by a distance image sensor.
A binarized image obtained by binarizing the depth image with a depth value is generated, and the depth image is masked with the binarized image to emphasize the vicinity of one corner and suppress the vicinity of the other corners. The masked depth image is filtered by the silhouette filter, the two-dimensional coordinates of the predetermined portion during the swing operation are derived from the filtered depth image, and the predetermined portion is based on the depth image before filtering. A derivation unit that derives the three-dimensional coordinates of the predetermined part during the swing operation by specifying the depth of the
With
The predetermined part is the shoulder of the golfer.
Swing analyzer.
前記取得部は、人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記深度画像及び前記スケルトンデータに基づいて、前記肩の三次元座標を導出する、
請求項10に記載のスイング解析装置。
The acquisition unit further acquires skeleton data representing the skeleton of the human body.
The derivation unit derives the three-dimensional coordinates of the shoulder based on the depth image and the skeleton data.
The swing analysis device according to claim 10.
前記導出部は、中央部分を強調し、周辺部分を抑制する凸部抽出フィルタにより、前記深度画像をフィルタリングすることで、前記肩の三次元座標を導出する、
請求項10又は11に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by filtering the depth image with a convex extraction filter that emphasizes the central portion and suppresses the peripheral portion.
The swing analysis device according to claim 10 or 11.
前記導出部は、前記深度画像に対し凸形状の画像テンプレートを用いてテンプレートマッチングを施すことで、前記肩の三次元座標を導出する、
請求項10又は11に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by performing template matching on the depth image using a convex image template.
The swing analysis device according to claim 10 or 11.
前記導出部は、アドレスからテイクバック腕水平までの少なくとも一部の区間において、前記スケルトンデータに基づいて、前記肩の三次元座標を導出する、
請求項11に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder based on the skeleton data in at least a part of the section from the address to the takeback arm horizontal.
The swing analysis device according to claim 11.
前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸部抽出フィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する、
請求項12に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by filtering with the convex portion extraction filter in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal.
The swing analysis device according to claim 12.
前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸形状の画像テンプレートによるテンプレートマッチングを行うことで、前記肩の三次元座標を導出する、
請求項13に記載のスイング解析装置。
The derivation unit derives the three-dimensional coordinates of the shoulder by performing template matching using the convex image template in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal.
The swing analysis device according to claim 13.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記スイング動作中の所定の部位の三次元座標を導出する導出部と、
を備え、
前記所定の部位は、前記ゴルファーの肩であり、
前記導出部は、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する、
スイング解析装置。
A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion captured by a distance image sensor, and
A derivation unit that derives the three-dimensional coordinates of a predetermined part during the swing operation by filtering the depth image with a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner.
With
The predetermined part is the shoulder of the golfer.
The derivation unit derives the three-dimensional coordinates of the shoulder by filtering with the shoulder silhouette filter in at least a part of the section from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish.
Swing analyzer.
前記導出部は、第1時刻での前記深度画像上において、前記第1時刻又は前記第1時刻よりも前の第2時刻での前記肩の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記フィルタリングを行う、
請求項10から17のいずれかに記載のスイング解析装置。
The derivation unit sets a search range on the depth image at the first time with reference to the two-dimensional coordinates of the shoulder at the first time or the second time before the first time. Perform the filtering within the search range.
The swing analysis device according to any one of claims 10 to 17.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の三次元座標を導出し、予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行う導出部と
を備え、
前記重回帰式は、前記キャリブレーション後の3方向の座標の各々が、前記キャリブレーション前の3方向の座標を全て説明変数とする重回帰式である、
スイング解析装置。
A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion captured by a distance image sensor, and
Based on the depth image, the three-dimensional coordinates of the predetermined part of the golf club or the golfer during the swing operation are derived, and the three-dimensional of the predetermined part is expressed in a predetermined multiple regression equation having a predetermined coefficient. It is equipped with a derivation unit that performs calibration by substituting coordinates.
The multiple regression equation is a multiple regression equation in which each of the coordinates in the three directions after the calibration uses all the coordinates in the three directions before the calibration as explanatory variables.
Swing analyzer.
前記取得部は、前記スイング動作を複数の前記距離画像センサにより少なくとも第1方向及び第2方向から撮影した前記深度画像を取得する、
請求項1から19のいずれかに記載のスイング解析装置。
The acquisition unit acquires the depth image obtained by capturing the swing motion from at least the first direction and the second direction by the plurality of distance image sensors.
The swing analysis apparatus according to any one of claims 1 to 19.
前記取得部は、少なくとも前記第1方向からの前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記第1方向からの前記スケルトンデータを前記第2方向からの前記スケルトンデータに変換し、前記第2方向からの前記スケルトンデータに基づいて、前記所定の部位の位置情報を導出する、
請求項20に記載のスイング解析装置。
The acquisition unit further acquires skeleton data representing the skeleton of the human body based on the depth image from at least the first direction.
The derivation unit converts the skeleton data from the first direction into the skeleton data from the second direction, and derives the position information of the predetermined portion based on the skeleton data from the second direction. do,
The swing analysis device according to claim 20.
前記第1方向は、前記ゴルファーの正面に向かう方向であり、前記第2方向は、前記ゴルファーの側面に向かう方向である、
請求項20又は21に記載のスイング解析装置。
The first direction is a direction toward the front of the golfer, and the second direction is a direction toward the side surface of the golfer.
The swing analysis device according to claim 20 or 21.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報を導出する導出部と
を備え、
前記取得部は、前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出し、
前記取得部は、人体のシルエットを表すシルエットデータをさらに取得し、
前記導出部は、前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出する、
スイング解析装置。
A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion captured by a distance image sensor, and
A derivation unit for deriving position information of a predetermined portion of the golf club or the golfer during the swing operation based on the depth image is provided.
The acquisition unit further acquires skeleton data representing the skeleton of the human body based on the depth image.
The derivation unit derives the position information of the first part included in the predetermined part based on the skeleton data, and derives the position information.
The acquisition unit further acquires silhouette data representing the silhouette of the human body, and obtains the silhouette data.
Based on the skeleton data and the silhouette data, the derivation unit derives the position information of the second part included in the predetermined part and different from the first part.
Swing analyzer.
前記導出部は、前記深度画像において深度情報が得られていない領域の情報に基づいて、前記シルエットデータにおいて特定される前記シルエットを写す領域を拡張する、
請求項23に記載のスイング解析装置。
The derivation unit expands the area for copying the silhouette specified in the silhouette data based on the information of the area for which the depth information is not obtained in the depth image.
The swing analysis device according to claim 23.
前記導出部は、トップのタイミングにおける前記ゴルファーの右側面側からの前記深度画像において、手前側に突出している箇所を前記ゴルファーの左肘として導出する、
請求項1から24のいずれかに記載のスイング解析装置。
In the depth image from the right side of the golfer at the top timing, the lead-out unit derives a portion protruding toward the front side as the left elbow of the golfer.
The swing analysis apparatus according to any one of claims 1 to 24.
所定のタイミングにおける前記所定の部位の位置情報に基づいて算出される指標値を、予め定められている正解データと比較することにより、前記スイング動作の良否を判定する判定部
をさらに備える、
請求項1から25のいずれかに記載のスイング解析装置。
A determination unit for determining the quality of the swing operation is further provided by comparing an index value calculated based on the position information of the predetermined portion at a predetermined timing with predetermined correct answer data.
The swing analysis apparatus according to any one of claims 1 to 25.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記スイング動作中の前記ゴルフクラブの所定の部位の追跡目標の二次元座標を特定するステップと、
前記深度画像に基づいて、前記所定の部位の追跡目標の奥行きを特定することにより、前記所定の部位の追跡目標の三次元座標を導出するステップと
を備える、
スイング解析方法。
A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By performing image processing on the two-dimensional image, a step of specifying the two-dimensional coordinates of a tracking target of a predetermined portion of the golf club during the swing operation, and a step of specifying the two-dimensional coordinates.
Based on the depth image, by specifying the depth of the tracking target of the predetermined portion, and a step of deriving three-dimensional coordinates of the tracking target of the predetermined portion,
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記ゴルフクラブのシャフトの追跡目標の二次元座標を特定し、前記深度画像に基づいて、前記シャフトの追跡目標の二次元座標での奥行きを特定することにより、前記シャフトの追跡目標の三次元座標を導出するステップと、
前記シャフトの追跡目標の三次元座標の分布傾向に基づいて、所定の部位の三次元座標を特定するステップと
を備え、
前記所定の部位は、前記ゴルフクラブのグリップである、
スイング解析方法。
A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By image processing the two-dimensional image, the identified two-dimensional coordinates of the tracking target of the golf club shaft, based on the depth image, identifies the depth of the two-dimensional coordinates of the tracking target of the shaft To derive the three-dimensional coordinates of the tracking target of the shaft,
A step of specifying the three-dimensional coordinates of a predetermined part based on the distribution tendency of the three-dimensional coordinates of the tracking target of the shaft is provided.
The predetermined portion is a grip of the golf club.
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより前記ゴルファーの正面側から撮影した深度画像を取得するステップと、
前記深度画像を奥行の値により二値化した二値化画像を生成するとともに、前記深度画像を前記二値化画像によりマスキングするステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記マスキングされた深度画像をフィルタリングし、フィルタリング後の前記深度画像から前記スイング動作中の所定の部位の二次元座標を導出し、フィルタリング前の前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記スイング動作中の前記所定の部位の三次元座標を導出するステップと
を備え、
前記所定の部位は、前記ゴルファーの肩である、
スイング解析方法。
A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken from the front side of the golfer by a distance image sensor, and
A step of generating a binarized image obtained by binarizing the depth image with a depth value and masking the depth image with the binarized image.
The masked depth image is filtered by a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner, and the two-dimensional coordinates of the predetermined portion during the swing operation are obtained from the filtered depth image. A step of deriving and deriving the three-dimensional coordinates of the predetermined part during the swing operation by specifying the depth of the predetermined part based on the depth image before filtering is provided.
The predetermined part is the shoulder of the golfer.
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の三次元座標を導出するステップと、
予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行うステップと
を備え、
前記重回帰式は、前記キャリブレーション後の3方向の座標の各々が、前記キャリブレーション前の3方向の座標を全て説明変数とする重回帰式である、
スイング解析方法。
A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
Based on the depth image, a step of deriving the three-dimensional coordinates of a predetermined portion of the golf club or the golfer during the swing operation, and
A step of performing calibration by substituting the three-dimensional coordinates of the predetermined part into a predetermined multiple regression equation having a predetermined coefficient is provided.
The multiple regression equation is a multiple regression equation in which each of the coordinates in the three directions after the calibration uses all the coordinates in the three directions before the calibration as explanatory variables.
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づく人体の骨組みを表すスケルトンデータを取得するステップと、
人体のシルエットを表すシルエットデータを取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報を導出するステップと
を備え、
前記所定の部位の位置情報を導出するステップは、
前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出するステップと、
前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出するステップと
を含む、
スイング解析方法。
A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
The step of acquiring skeleton data representing the skeleton of the human body based on the depth image, and
Steps to acquire silhouette data representing the silhouette of the human body,
A step of deriving the position information of a predetermined portion of the golf club or the golfer during the swing operation based on the depth image is provided.
The step of deriving the position information of the predetermined part is
A step of deriving the position information of the first part included in the predetermined part based on the skeleton data, and
A step of deriving position information of a second part different from the first part included in the predetermined part based on the skeleton data and the silhouette data is included.
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記スイング動作中の前記ゴルフクラブの所定の部位の追跡目標の二次元座標を特定するステップと、
前記深度画像に基づいて、前記所定の部位の追跡目標の奥行きを特定することにより、前記所定の部位の追跡目標の三次元座標を導出するステップと
をコンピュータに実行させる、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By performing image processing on the two-dimensional image, a step of specifying the two-dimensional coordinates of a tracking target of a predetermined portion of the golf club during the swing operation, and a step of specifying the two-dimensional coordinates.
A computer is made to perform a step of deriving the three-dimensional coordinates of the tracking target of the predetermined part by specifying the depth of the tracking target of the predetermined part based on the depth image.
Swing analysis program.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記ゴルフクラブのシャフトの追跡目標の二次元座標を特定し、前記深度画像に基づいて、前記シャフトの追跡目標の二次元座標での奥行きを特定することにより、前記シャフトの追跡目標の三次元座標を導出するステップと、
前記シャフトの追跡目標の三次元座標の分布傾向に基づいて、所定の部位の三次元座標を特定するステップと
をコンピュータに実行させ、
前記所定の部位は、前記ゴルフクラブのグリップである、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By image processing the two-dimensional image, the identified two-dimensional coordinates of the tracking target of the golf club shaft, based on the depth image, identifies the depth of the two-dimensional coordinates of the tracking target of the shaft To derive the three-dimensional coordinates of the tracking target of the shaft,
A computer is made to perform a step of specifying the three-dimensional coordinates of a predetermined part based on the distribution tendency of the three-dimensional coordinates of the tracking target of the shaft.
The predetermined portion is a grip of the golf club.
Swing analysis program.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより前記ゴルファーの正面側から撮影した深度画像を取得するステップと、
前記深度画像を奥行の値により二値化した二値化画像を生成するとともに、前記深度画像を前記二値化画像によりマスキングするステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記マスキングされた深度画像をフィルタリングし、フィルタリング後の前記深度画像から前記スイング動作中の所定の部位の二次元座標を導出し、フィルタリング前の前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記スイング動作中の前記所定の部位の三次元座標を導出するステップと
をコンピュータに実行させ、
前記所定の部位は、前記ゴルファーの肩である、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken from the front side of the golfer by a distance image sensor, and
A step of generating a binarized image obtained by binarizing the depth image with a depth value and masking the depth image with the binarized image.
The masked depth image is filtered by a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner, and the two-dimensional coordinates of the predetermined portion during the swing operation are obtained from the filtered depth image. A computer is made to perform a step of deriving and deriving the three-dimensional coordinates of the predetermined part during the swing operation by specifying the depth of the predetermined part based on the depth image before filtering.
The predetermined part is the shoulder of the golfer.
Swing analysis program.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の三次元座標を導出するステップと、
予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行うステップと
をコンピュータに実行させ、
前記重回帰式は、前記キャリブレーション後の3方向の座標の各々が、前記キャリブレーション前の3方向の座標を全て説明変数とする重回帰式である、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
Based on the depth image, a step of deriving the three-dimensional coordinates of a predetermined portion of the golf club or the golfer during the swing operation, and
A computer is made to perform a step of performing calibration by substituting the three-dimensional coordinates of the predetermined part into a predetermined multiple regression equation having a predetermined coefficient.
The multiple regression equation is a multiple regression equation in which each of the coordinates in the three directions after the calibration uses all the coordinates in the three directions before the calibration as explanatory variables.
Swing analysis program.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づく人体の骨組みを表すスケルトンデータを取得するステップと、
人体のシルエットを表すシルエットデータを取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報を導出するステップと
をコンピュータに実行させ、
前記所定の部位の位置情報を導出するステップは、
前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出するステップと、
前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出するステップと
を含む、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
The step of acquiring skeleton data representing the skeleton of the human body based on the depth image, and
Steps to acquire silhouette data representing the silhouette of the human body,
Based on the depth image, the computer is made to perform a step of deriving the position information of the golf club or the golfer at a predetermined portion during the swing operation.
The step of deriving the position information of the predetermined part is
A step of deriving the position information of the first part included in the predetermined part based on the skeleton data, and
A step of deriving position information of a second part different from the first part included in the predetermined part based on the skeleton data and the silhouette data is included.
Swing analysis program.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記スイング動作中の所定の部位の三次元座標を導出するステップと
を備え、
前記所定の部位は、前記ゴルファーの肩であり、
前記導出するステップは、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出するステップを含む、
スイング解析方法。
A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
It is provided with a step of deriving the three-dimensional coordinates of a predetermined part during the swing operation by filtering the depth image with a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner.
The predetermined part is the shoulder of the golfer.
The derivation step is a step of deriving the three-dimensional coordinates of the shoulder by filtering with the shoulder silhouette filter in at least a part of the section from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish. including,
Swing analysis method.
ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記スイング動作中の所定の部位の三次元座標を導出するステップと
をコンピュータに実行させ、
前記所定の部位は、前記ゴルファーの肩であり、
前記導出するステップは、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出するステップを含む、
スイング解析プログラム。

A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
The computer executes a step of deriving the three-dimensional coordinates of a predetermined part during the swing operation by filtering the depth image with a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner. Let me
The predetermined part is the shoulder of the golfer.
The derivation step is a step of deriving the three-dimensional coordinates of the shoulder by filtering with the shoulder silhouette filter in at least a part of the section from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish. including,
Swing analysis program.

JP2015250470A 2014-12-25 2015-12-22 Swing analyzer, method and program Active JP6944144B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014263590 2014-12-25
JP2014263590 2014-12-25
JP2015205930 2015-10-19
JP2015205930 2015-10-19

Publications (2)

Publication Number Publication Date
JP2017074350A JP2017074350A (en) 2017-04-20
JP6944144B2 true JP6944144B2 (en) 2021-10-06

Family

ID=58550587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015250470A Active JP6944144B2 (en) 2014-12-25 2015-12-22 Swing analyzer, method and program

Country Status (1)

Country Link
JP (1) JP6944144B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264838B2 (en) * 2020-01-29 2023-04-25 Kddi株式会社 VIDEO CONVERSION METHOD, APPARATUS AND PROGRAM

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218783A (en) * 2004-02-09 2005-08-18 Sumitomo Rubber Ind Ltd Golf swing measuring system and golf club
JP4283145B2 (en) * 2004-03-26 2009-06-24 Sriスポーツ株式会社 Golf swing measurement system
JP5536491B2 (en) * 2010-03-01 2014-07-02 ダンロップスポーツ株式会社 Golf swing diagnosis method
US20120053015A1 (en) * 2010-08-31 2012-03-01 Microsoft Corporation Coordinated Motion and Audio Experience Using Looped Motions
CN103118647B (en) * 2010-09-22 2016-04-06 松下知识产权经营株式会社 Exercise assistance system
JP5839929B2 (en) * 2010-11-19 2016-01-06 キヤノン株式会社 Information processing apparatus, information processing system, information processing method, and program
JP5325327B2 (en) * 2011-11-04 2013-10-23 株式会社コナミデジタルエンタテインメント Game device, detailed presentation method, and program
JP6049286B2 (en) * 2012-04-06 2016-12-21 株式会社ブリヂストン Swing simulation system, simulation apparatus, and simulation method

Also Published As

Publication number Publication date
JP2017074350A (en) 2017-04-20

Similar Documents

Publication Publication Date Title
CN108986164B (en) Image-based position detection method, device, equipment and storage medium
JP7427188B2 (en) 3D pose acquisition method and device
JP6573354B2 (en) Image processing apparatus, image processing method, and program
US10657366B2 (en) Information processing apparatus, information processing method, and storage medium
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
US10444617B2 (en) Image processing apparatus and image processing method
US9159134B2 (en) Method and apparatus for estimating a pose
JP6433149B2 (en) Posture estimation apparatus, posture estimation method and program
CN108475439B (en) Three-dimensional model generation system, three-dimensional model generation method, and recording medium
Ye et al. A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis
JP5873442B2 (en) Object detection apparatus and object detection method
JP5877053B2 (en) Posture estimation apparatus and posture estimation method
JP5898014B2 (en) Posture estimation apparatus, posture estimation method, and posture estimation program
JP2017119102A (en) Motion analysis device, method and program
KR20180062069A (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
Yang et al. Multiple marker tracking in a single-camera system for gait analysis
EP2946360B1 (en) Foot tracking
KR101636171B1 (en) Skeleton tracking method and keleton tracking system using the method
JP5503510B2 (en) Posture estimation apparatus and posture estimation program
WO2020261404A1 (en) Person state detecting device, person state detecting method, and non-transient computer-readable medium containing program
JP2019012497A (en) Portion recognition method, device, program, and imaging control system
Yamauchi et al. Recognition of walking humans in 3D: Initial results
JP6944144B2 (en) Swing analyzer, method and program
KR101394279B1 (en) Method for recognition of user&#39;s motion by analysis of depth image and apparatus for analyzing user&#39;s motion using the same
Kitsikidis et al. Unsupervised dance motion patterns classification from fused skeletal data using exemplar-based HMMs

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6944144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250