JP6944144B2 - Swing analyzer, method and program - Google Patents
Swing analyzer, method and program Download PDFInfo
- Publication number
- JP6944144B2 JP6944144B2 JP2015250470A JP2015250470A JP6944144B2 JP 6944144 B2 JP6944144 B2 JP 6944144B2 JP 2015250470 A JP2015250470 A JP 2015250470A JP 2015250470 A JP2015250470 A JP 2015250470A JP 6944144 B2 JP6944144 B2 JP 6944144B2
- Authority
- JP
- Japan
- Prior art keywords
- swing
- image
- dimensional coordinates
- depth
- golfer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 172
- 238000004458 analytical method Methods 0.000 claims description 178
- 238000009795 derivation Methods 0.000 claims description 164
- 230000033001 locomotion Effects 0.000 claims description 85
- 238000000605 extraction Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 45
- 238000001914 filtration Methods 0.000 claims description 17
- 230000000873 masking effect Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 117
- 239000003550 marker Substances 0.000 description 40
- 210000002683 foot Anatomy 0.000 description 37
- 230000006399 behavior Effects 0.000 description 34
- 210000003127 knee Anatomy 0.000 description 25
- 238000012937 correction Methods 0.000 description 22
- 210000003423 ankle Anatomy 0.000 description 21
- 239000013598 vector Substances 0.000 description 20
- 210000001624 hip Anatomy 0.000 description 16
- 210000004417 patella Anatomy 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000005484 gravity Effects 0.000 description 9
- 210000003954 umbilical cord Anatomy 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 210000001113 umbilicus Anatomy 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置、方法及びプログラムに関する。 The present invention relates to a swing analysis device, method and program for analyzing the swing motion of a golf club by a golfer.
従来より、ゴルファーによるゴルフクラブのスイング動作をカメラで撮影し、得られた画像に基づいてスイング動作を解析する装置が公知である(特許文献1,2等)。解析の結果は、ゴルファーに適したゴルフクラブのフィッティングや、ゴルファーのフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
Conventionally, there are known devices that capture the swing motion of a golf club by a golfer with a camera and analyze the swing motion based on the obtained image (
以上のようなスイング動作の解析においては、しばしば、画像に写るゴルフクラブのグリップやヘッド、ゴルファーの関節等、注目部位の挙動を三次元的に特定することが行われる。特許文献1,2は、複数台のカメラにより複数の方向からスイング動作を撮影し、三角測量法やDLT法等に基づいて注目部位の三次元座標を導出することを開示している。しかしながら、複数の方向にカメラを配置しなくてはならないことは、設備を大型化させ、スイング解析を行うためのスペースの確保を困難にさせ得る。また、このような三次元計測は、解析の精度や計算負荷等の点からして、少なからず改善の余地がある。
In the analysis of the swing motion as described above, the behavior of the part of interest such as the grip and head of the golf club and the joint of the golfer shown in the image is often three-dimensionally specified.
本発明は、簡易かつ高精度にスイング動作を解析することができるスイング解析装置、方法及びプログラムを提供することを目的とする。 An object of the present invention is to provide a swing analysis device, a method and a program capable of analyzing a swing motion easily and with high accuracy.
本発明の第1観点に係るスイング解析装置は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析装置であって、取得部と、導出部とを備える。前記取得部は、前記スイング動作を距離画像センサにより撮影した深度画像を取得する。前記導出部は、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出する。 The swing analysis device according to the first aspect of the present invention is a swing analysis device for analyzing the swing motion of a golf club by a golfer, and includes an acquisition unit and a derivation unit. The acquisition unit acquires a depth image obtained by capturing the swing motion with a distance image sensor. Based on the depth image, the derivation unit is a three-dimensional vector representing the position information of a predetermined portion of the golf club or the golfer during the swing operation, or the orientation of the shaft of the golf club during the swing operation. Is derived.
本発明の第2観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記取得部は、前記距離画像センサから二次元画像をさらに取得する。前記導出部は、前記二次元画像に基づいて、前記所定の部位の二次元座標を特定するとともに、前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記所定の部位の三次元座標を導出する。 The swing analysis device according to the second aspect of the present invention is the swing analysis device according to the first aspect, and the acquisition unit further acquires a two-dimensional image from the distance image sensor. The derivation unit specifies the two-dimensional coordinates of the predetermined portion based on the two-dimensional image, and specifies the depth of the predetermined portion based on the depth image, thereby determining the depth of the predetermined portion. Derivation of three-dimensional coordinates.
本発明の第3観点に係るスイング解析装置は、第2観点に係るスイング解析装置であって、前記導出部は、第1時刻での前記二次元画像上において、前記第1時刻よりも前の第2時刻での前記所定の部位の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記所定の部位の二次元座標を探索する。 The swing analysis device according to the third aspect of the present invention is the swing analysis device according to the second aspect, and the derivation unit is on the two-dimensional image at the first time before the first time. A search range is set based on the two-dimensional coordinates of the predetermined part at the second time, and the two-dimensional coordinates of the predetermined part are searched within the search range.
本発明の第4観点に係るスイング解析装置は、第1観点から第3観点のいずれかに係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。 The swing analysis device according to the fourth aspect of the present invention is a swing analysis device according to any one of the first to third aspects, and the predetermined portion is a grip of the golf club.
本発明の第5観点に係るスイング解析装置は、第2観点又は第3観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの二次元座標を特定する。 The swing analysis device according to the fifth aspect of the present invention is the swing analysis device according to the second or third aspect, and the predetermined portion is the grip of the golf club. The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the two-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
本発明の第6観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルフクラブのグリップである。前記取得部は、前記距離画像センサから二次元画像をさらに取得する。前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記深度画像に基づいて、前記シャフトの二次元座標での奥行きを特定することにより、前記シャフトの三次元座標を導出し、前記シャフトの三次元座標の分布傾向に基づいて、前記グリップの三次元座標を特定する。 The swing analysis device according to the sixth aspect of the present invention is the swing analysis device according to the first aspect, and the predetermined portion is a grip of the golf club. The acquisition unit further acquires a two-dimensional image from the distance image sensor. The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the depth of the shaft in the two-dimensional coordinates based on the depth image, thereby causing the shaft. Is derived, and the three-dimensional coordinates of the grip are specified based on the distribution tendency of the three-dimensional coordinates of the shaft.
本発明の第7観点に係るスイング解析装置は、第5観点又は第6観点に係るスイング解析装置であって、前記二次元画像及び前記深度画像は、前記スイング動作を前記距離画像センサにより前記ゴルファーの前方から撮影した情報である。前記導出部は、アドレス付近での前記二次元画像に基づいて、前記シャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの三次元座標を特定する。 The swing analysis device according to the seventh aspect of the present invention is the swing analysis device according to the fifth or sixth aspect, and the two-dimensional image and the depth image are the golfer who performs the swing operation by the distance image sensor. This is information taken from the front of. The derivation unit specifies the two-dimensional coordinates of the shaft based on the two-dimensional image near the address, and specifies the three-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
本発明の第8観点に係るスイング解析装置は、第2,3,5〜7観点のいずれに係るスイング解析装置であって、前記導出部は、前記スイング動作のフェーズに応じて閾値を自動又は固定の間で切り替えつつ、前記二次元画像を二値化する。 The swing analysis device according to the eighth aspect of the present invention is a swing analysis device according to any of the second, third, and fifth viewpoints, and the derivation unit automatically or sets a threshold value according to the phase of the swing operation. The two-dimensional image is binarized while switching between fixed.
本発明の第9観点に係るスイング解析装置は、第3観点に係るスイング解析装置であって、前記導出部は、前記スイング動作中のトップ付近のフェーズでは、前記ゴルファーの頭の位置を基準として、前記探索範囲の設定位置を制限する。 The swing analysis device according to the ninth aspect of the present invention is the swing analysis device according to the third aspect, and the derivation unit uses the position of the golfer's head as a reference in the phase near the top during the swing operation. , Limit the setting position of the search range.
本発明の第10観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記取得部は、前記距離画像センサから時系列の二次元画像をさらに取得する。前記導出部は、第1時刻での前記二次元画像から前記ゴルフクラブのグリップの位置が抽出できない場合には、前記第1時刻の直後の第2時刻での前記二次元画像から前記ゴルフクラブのシャフトの位置を特定し、当該シャフトの位置に基づいて当該第2時刻における前記グリップの位置を特定する。 The swing analysis device according to the tenth aspect of the present invention is the swing analysis device according to the first aspect, and the acquisition unit further acquires a time-series two-dimensional image from the distance image sensor. When the position of the grip of the golf club cannot be extracted from the two-dimensional image at the first time, the derivation unit of the golf club from the two-dimensional image at the second time immediately after the first time. The position of the shaft is specified, and the position of the grip at the second time is specified based on the position of the shaft.
本発明の第11観点に係るスイング解析装置は、第1観点に係るスイング解析装置であって、前記所定の部位は、前記ゴルファーの肩である。 The swing analysis device according to the eleventh aspect of the present invention is the swing analysis device according to the first aspect, and the predetermined portion is the shoulder of the golfer.
本発明の第12観点に係るスイング解析装置は、第11観点に係るスイング解析装置であって、前記取得部は、人体の骨組みを表すスケルトンデータをさらに取得し、前記導出部は、前記深度画像及び前記スケルトンデータに基づいて、前記肩の三次元座標を導出する。 The swing analysis device according to the twelfth aspect of the present invention is the swing analysis device according to the eleventh aspect, the acquisition unit further acquires skeleton data representing the skeleton of the human body, and the derivation unit is the depth image. And, based on the skeleton data, the three-dimensional coordinates of the shoulder are derived.
本発明の第13観点に係るスイング解析装置は、第11観点又は第12観点に係るスイング解析装置であって、前記導出部は、中央部分を強調し、周辺部分を抑制する凸部抽出フィルタにより、前記深度画像をフィルタリングすることで、前記肩の三次元座標を導出する。 The swing analysis apparatus according to the thirteenth aspect of the present invention is a swing analysis apparatus according to the eleventh aspect or the twelfth aspect, and the derivation part uses a convex portion extraction filter that emphasizes the central portion and suppresses the peripheral portion. , The three-dimensional coordinates of the shoulder are derived by filtering the depth image.
本発明の第14観点に係るスイング解析装置は、第11観点又は第12観点に係るスイング解析装置であって、前記導出部は、前記深度画像に対し凸形状の画像テンプレートを用いてテンプレートマッチングを施すことで、前記肩の三次元座標を導出する。 The swing analysis device according to the 14th viewpoint of the present invention is a swing analysis device according to the 11th viewpoint or the 12th viewpoint, and the derivation unit performs template matching using a convex image template with respect to the depth image. By applying, the three-dimensional coordinates of the shoulder are derived.
本発明の第15観点に係るスイング解析装置は、第11観点から第14観点のいずれかに係るスイング解析装置であって、前記導出部は、1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記ゴルファーの肩の三次元座標を導出する。 The swing analysis device according to the fifteenth aspect of the present invention is a swing analysis device according to any one of the eleventh viewpoint to the fourteenth viewpoint, and the derivation unit emphasizes the vicinity of one corner and the vicinity of the other corner. By filtering the depth image with the suppressing shoulder silhouette filter, the three-dimensional coordinates of the golfer's shoulder are derived.
本発明の第16観点に係るスイング解析装置は、第12観点に係るスイング解析装置であって、前記導出部は、アドレスからテイクバック腕水平までの少なくとも一部の区間において、前記スケルトンデータに基づいて、前記肩の三次元座標を導出する。 The swing analysis device according to the 16th aspect of the present invention is the swing analysis device according to the 12th aspect, and the derivation unit is based on the skeleton data in at least a part of the section from the address to the takeback arm horizontal. To derive the three-dimensional coordinates of the shoulder.
本発明の第17観点に係るスイング解析装置は、第13観点に係るスイング解析装置であって、前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸部抽出フィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する。 The swing analysis device according to the seventeenth aspect of the present invention is the swing analysis device according to the thirteenth aspect, and the lead-out unit is the convex in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal. By filtering with the part extraction filter, the three-dimensional coordinates of the shoulder are derived.
本発明の第18観点に係るスイング解析装置は、第14観点に係るスイング解析装置であって、前記導出部は、テイクバック腕水平からダウンスイング腕水平までの少なくとも一部の区間において、前記凸形状の画像テンプレートによるテンプレートマッチングを行うことで、前記肩の三次元座標を導出する。 The swing analysis device according to the eighteenth aspect of the present invention is the swing analysis device according to the fourteenth aspect, and the lead-out unit is the convex in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal. The three-dimensional coordinates of the shoulder are derived by performing template matching using the shape image template.
本発明の第19観点に係るスイング解析装置は、第15観点に係るスイング解析装置であって、前記導出部は、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する。 The swing analysis device according to the 19th aspect of the present invention is the swing analysis device according to the 15th aspect, and the derivation unit is at least a part from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish. In the section, the three-dimensional coordinates of the shoulder are derived by filtering with the shoulder silhouette filter.
本発明の第20観点に係るスイング解析装置は、第11観点から第19観点のいずれかに係るスイング解析装置であって、前記導出部は、第1時刻での前記深度画像上において、前記第1時刻又は前記第1時刻よりも前の第2時刻での前記肩の二次元座標を基準に探索範囲を設定し、前記探索範囲内で、前記フィルタリングを行う。 The swing analysis device according to the twentieth aspect of the present invention is a swing analysis device according to any one of the eleventh viewpoints to the nineteenth viewpoint, and the derivation unit is the first on the depth image at the first time. A search range is set with reference to the two-dimensional coordinates of the shoulder at one time or a second time before the first time, and the filtering is performed within the search range.
本発明の第21観点に係るスイング解析装置は、第1観点から第20観点のいずれかに係るスイング解析装置であって、前記導出部は、予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行う。 The swing analysis device according to the 21st aspect of the present invention is a swing analysis device according to any one of the 1st to 20th viewpoints, and the derivation unit has a predetermined multiple regression equation having a predetermined coefficient. Calibration is performed by substituting the three-dimensional coordinates of the predetermined portion.
本発明の第22観点に係るスイング解析装置は、第1観点から第21観点のいずれかに係るスイング解析装置であって、前記取得部は、前記スイング動作を複数の前記距離画像センサにより少なくとも第1方向及び第2方向から撮影した前記深度画像を取得する。 The swing analysis device according to the 22nd aspect of the present invention is a swing analysis device according to any one of the 1st to 21st viewpoints, and the acquisition unit performs the swing operation at least by the plurality of distance image sensors. The depth images taken from the first direction and the second direction are acquired.
本発明の第23観点に係るスイング解析装置は、第22観点に係るスイング解析装置であって、前記取得部は、少なくとも前記第1方向からの前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記第1方向からの前記スケルトンデータを前記第2方向からの前記スケルトンデータに変換し、前記第2方向からの前記スケルトンデータに基づいて、前記所定の部位の位置情報を導出する。 The swing analysis device according to the 23rd aspect of the present invention is a swing analysis device according to the 22nd aspect, and the acquisition unit obtains skeleton data representing a skeleton of a human body based on at least the depth image from the first direction. Get more. The derivation unit converts the skeleton data from the first direction into the skeleton data from the second direction, and derives the position information of the predetermined portion based on the skeleton data from the second direction. do.
本発明の第24観点に係るスイング解析装置は、第22観点又は第23観点に係るスイング解析装置であって、前記第1方向は、前記ゴルファーの正面に向かう方向であり、前記第2方向は、前記ゴルファーの側面に向かう方向である。 The swing analysis device according to the 24th viewpoint of the present invention is a swing analysis device according to the 22nd or 23rd viewpoint, the first direction is a direction toward the front of the golfer, and the second direction is a direction toward the front of the golfer. , The direction toward the side surface of the golfer.
本発明の第25観点に係るスイング解析装置は、第1観点から第24観点のいずれかに係るスイング解析装置であって、前記取得部は、前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出する。 The swing analysis device according to the 25th aspect of the present invention is a swing analysis device according to any one of the 1st to 24th viewpoints, and the acquisition unit obtains skeleton data representing the skeleton of the human body based on the depth image. Get more. The derivation unit derives the position information of the first part included in the predetermined part based on the skeleton data.
本発明の第26観点に係るスイング解析装置は、第25観点に係るスイング解析装置であって、前記取得部は、人体のシルエットを表すシルエットデータをさらに取得する。前記導出部は、前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出する。 The swing analysis device according to the 26th aspect of the present invention is a swing analysis device according to the 25th aspect, and the acquisition unit further acquires silhouette data representing a silhouette of a human body. Based on the skeleton data and the silhouette data, the derivation unit derives position information of a second portion included in the predetermined portion and different from the first portion.
本発明の第27観点に係るスイング解析装置は、第1観点から第26観点のいずれかに係るスイング解析装置であって、前記導出部は、前記深度画像において深度情報が得られていない領域の情報に基づいて、前記シルエットデータにおいて特定される前記シルエットの領域を拡張する。 The swing analysis device according to the 27th viewpoint of the present invention is a swing analysis device according to any one of the first to 26th viewpoints, and the derivation unit is a region in which depth information is not obtained in the depth image. Based on the information, the area of the silhouette specified in the silhouette data is expanded.
本発明の第28観点に係るスイング解析装置は、第1観点から第27観点のいずれかに係るスイング解析装置であって、前記導出部は、トップのタイミングにおける前記ゴルファーの右側面側からの前記深度画像において、手前側に突出している箇所を前記ゴルファーの左肘として導出する。 The swing analysis device according to the 28th aspect of the present invention is a swing analysis device according to any one of the 1st to 27th viewpoints, and the derivation unit is the above-mentioned from the right side surface side of the golfer at the top timing. In the depth image, the portion protruding toward the front side is derived as the left elbow of the golfer.
本発明の第29観点に係るスイング解析装置は、第1観点から第28観点のいずれかに係るスイング解析装置であって、判定部をさらに備える。前記判定部は、所定のタイミングにおける前記所定の部位の位置情報及び前記三次元ベクトルの少なくとも一方に基づいて算出される指標値を、予め定められている正解データと比較することにより、前記スイング動作の良否を判定する。 The swing analysis device according to the 29th aspect of the present invention is a swing analysis device according to any one of the 1st to 28th viewpoints, and further includes a determination unit. The determination unit compares the index value calculated based on the position information of the predetermined portion at a predetermined timing and at least one of the three-dimensional vectors with the predetermined correct answer data, thereby performing the swing operation. Judge the quality of.
本発明の第30観点に係るスイング解析方法は、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析方法であって、前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップとを備える。 The swing analysis method according to the thirtieth aspect of the present invention is a swing analysis method for analyzing the swing motion of a golf club by a golfer, and includes a step of acquiring a depth image obtained by capturing the swing motion with a distance image sensor. Based on the depth image, a step of deriving the position information of the golf club or a predetermined portion of the golfer during the swing operation, or a three-dimensional vector representing the direction of the shaft of the golf club during the swing operation. To be equipped.
本発明の第31観点に係るスイング解析プログラムは、ゴルファーによるゴルフクラブのスイング動作を解析するためのスイング解析プログラムであって、前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報、或いは、前記スイング動作中の前記ゴルフクラブのシャフトの向きを表す三次元ベクトルを導出するステップとをコンピュータに実行させる。 The swing analysis program according to the 31st aspect of the present invention is a swing analysis program for analyzing the swing motion of a golf club by a golfer, and includes a step of acquiring a depth image obtained by capturing the swing motion with a distance image sensor. Based on the depth image, a step of deriving the position information of the golf club or a predetermined portion of the golfer during the swing operation, or a three-dimensional vector representing the direction of the shaft of the golf club during the swing operation. To the computer.
本発明によれば、ゴルファーによるゴルフクラブのスイング動作を距離画像センサにより撮影した深度画像が取得され、これに基づいて、スイング動作中のゴルフクラブ又はゴルファーの所定の部位の位置情報、或いはスイング動作中のゴルフクラブのシャフトの向きを表す三次元ベクトルが導出される。その結果、複数台のカメラを用いた異なる方向からの撮影は、必ずしも必要とされない。従って、簡易かつ高精度にスイング動作を解析することができる。 According to the present invention, a depth image obtained by a distance image sensor of a golf club swinging motion by a golfer is acquired, and based on this, position information of a predetermined portion of the golf club or the golfer during the swinging motion, or a swing motion. A three-dimensional vector representing the orientation of the shaft of the golf club inside is derived. As a result, shooting from different directions using a plurality of cameras is not always required. Therefore, the swing motion can be analyzed easily and with high accuracy.
以下、図面を参照しつつ、本発明のいくつかの実施形態に係るスイング解析装置、方法及びプログラムについて説明する。 Hereinafter, swing analysis devices, methods, and programs according to some embodiments of the present invention will be described with reference to the drawings.
<1.第1実施形態>
<1−1.スイング解析システムの概要>
図1及び図2に、本発明の第1実施形態に係るスイング解析装置1を含むスイング解析システム100の全体構成図を示す。スイング解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作を動画として撮影し、当該動画に基づいて当該ゴルフスイングを解析するためのシステムである。以上の撮影は、距離画像センサ2により行われる。スイング解析装置1は、距離画像センサ2とともにスイング解析システム100を構成し、距離画像センサ2により得られた画像データを画像処理することで、ゴルフスイングを解析する。スイング解析装置1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
<1. First Embodiment>
<1-1. Overview of swing analysis system>
1 and 2 show an overall configuration diagram of the
本実施形態では、スイング動作中のゴルフクラブ5のグリップ51の挙動と、ゴルファー7の左肩71の挙動とが解析される。より具体的には、スイング動作中のグリップ51及び左肩71の三次元座標が導出される。また、本実施形態では、スイング動作中のゴルフクラブ5のシャフト52の向きが解析される。
In the present embodiment, the behavior of the
<1−2.各部の詳細>
以下、スイング解析システム100の各部の詳細について説明する。
<1-2. Details of each part>
Hereinafter, details of each part of the
<1−2−1.距離画像センサ>
距離画像センサ2は、ゴルファー7がゴルフクラブ5を試打する様子を二次元画像として撮影するとともに、被写体までの距離を測定する測距機能を有するカメラである。従って、距離画像センサ2は、二次元画像とともに、深度画像を出力することができる。なお、ここでいう二次元画像とは、撮影空間の像をカメラの光軸に直交する平面内へ投影した画像である。また、深度画像とは、カメラの光軸方向の被写体の奥行きのデータを、二次元画像と略同じ撮像範囲内の画素に割り当てた画像である。
<1-2-1. Distance image sensor>
The
本実施形態で使用される距離画像センサ2は、二次元画像を赤外線画像(以下、IR画像という)として撮影する。また、深度画像は、赤外線を用いたタイムオブフライト方式やドットパターン投影方式等の方法により得られる。従って、図1に示すように、距離画像センサ2は、赤外線を前方に向けて発光するIR発光部21と、IR発光部21から照射され、被写体に反射して戻ってきた赤外線を受光するIR受光部22とを有する。IR受光部22は、光学系及び撮像素子等を有するカメラである。ドットパターン投影方式では、IR発光部21から照射された赤外線のドットパターンをIR受光部22で読み取り、距離画像センサ2内部での画像処理によりドットパターンを検出し、これに基づいて奥行きが計算される。本実施形態では、IR発光部21及びIR受光部22は、同じ筐体20内に収容され、筐体20の前方に配置されている。また、本実施形態に係る距離画像センサ2では、奥行きを計測可能な有効距離が定められており、深度画像には、奥行きの値が得られない画素が含まれ得る。
The
距離画像センサ2には、距離画像センサ2の動作全体を制御するCPU23の他、撮影された画像データを少なくとも一時的に記憶するメモリ24が内蔵されている。距離画像センサ2の動作を制御する制御プログラムは、メモリ24内に格納されている。また、距離画像センサ2には、通信部25も内蔵されており、当該通信部25は、撮影された画像データを、有線又は無線の通信線17を介して、スイング解析装置1等の外部のデバイスへと出力することができる。本実施形態では、CPU23及びメモリ24も、IR発光部21及びIR受光部22とともに、筐体20内に収納されている。なお、スイング解析装置1への画像データの受け渡しは、必ずしも通信部25を介して行う必要はない。例えば、メモリ24が着脱式であれば、これを筐体20内から取り外し、スイング解析装置1のリーダー(後述する通信部15に対応)に挿入する等して、スイング解析装置1で画像データを読み出すことができる。
In addition to the
本実施形態では、以上のとおり、距離画像センサ2により赤外線撮影が行われ、撮影されたIR画像に基づいて、グリップ51の軌道が追跡される。従って、この追跡が容易となるように、グリップ51(より正確には、グリップ端51a)には、赤外線を効率的に反射する反射シートがマーカーとして貼付される。また、後述するとおり、本実施形態では、撮影角度によりグリップ端51aが見えない場合には、ゴルフクラブ5のシャフト52の位置に基づいて、グリップ端51aの位置が特定されるとともに、シャフト52の向きも特定される。従って、シャフト52にも、同様の赤外線の反射シートがマーカーとして貼付される。本実施形態では、距離画像センサ2は、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。
In the present embodiment, as described above, infrared imaging is performed by the
<1−2−2.スイング解析装置>
図2に示すとおり、スイング解析装置1は、CD−ROM等のコンピュータで読み取り可能な記録媒体30に格納されたスイング解析プログラム3を、当該記録媒体30から汎用のパーソナルコンピュータにインストールすることにより製造される。スイング解析プログラム3は、距離画像センサ2から送られてくる画像データに基づいてゴルフスイングを解析するためのソフトウェアであり、スイング解析装置1に後述する動作を実行させる。
<1-2-2. Swing analyzer >
As shown in FIG. 2, the
スイング解析装置1は、表示部11、入力部12、記憶部13、制御部14及び通信部15を備える。これらの部11〜15は、互いにバス線16を介して接続されており、相互に通信可能である。表示部11は、液晶ディスプレイ等で構成することができ、ゴルフスイングの解析の結果等をユーザに対し表示する。なお、ここでいうユーザとは、ゴルファー7自身やそのインストラクター、ゴルフ用品の開発者等、ゴルフスイングの解析の結果を必要とする者の総称である。入力部12は、マウス、キーボード、タッチパネル等で構成することができ、スイング解析装置1に対するユーザからの操作を受け付ける。
The
記憶部13は、ハードディスク等で構成することができる。記憶部13内には、スイング解析プログラム3が格納されている他、距離画像センサ2から送られてくる画像データが保存される。制御部14は、CPU、ROMおよびRAM等から構成することができる。制御部14は、記憶部13内のスイング解析プログラム3を読み出して実行することにより、仮想的に取得部14a、位置導出部14b及び向き導出部14cとして動作する。各部14a〜14cの動作の詳細については、後述する。通信部15は、距離画像センサ2等の外部のデバイスから通信線17を介してデータを受信する通信インターフェースとして機能する。
The
<1−3.スイング解析方法>
以下、スイング解析システム100により実行されるゴルフスイングの解析方法について説明する。本解析方法では、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により撮影する。距離画像センサ2により撮影されたIR画像及び深度画像の画像データは、距離画像センサ2からスイング解析装置1に送られる。既に述べたとおり、本実施形態では、スイング解析装置1により、スイング動作中のゴルフクラブ5のグリップ51の挙動及びゴルファー7の左肩71の挙動と、スイング動作中のゴルフクラブ5のシャフト52の向きとが解析される。以下では、まず、グリップ51の挙動を導出する処理(以下、グリップ挙動導出処理)について説明した後、ゴルファー7の左肩71の挙動を導出する処理(以下、左肩挙動導出処理)について説明する。その後、ゴルフクラブ5のシャフト52の向きを導出する処理(以下、シャフト方向導出処理)について説明する。
<1-3. Swing analysis method>
Hereinafter, a golf swing analysis method executed by the
<1−3−1.グリップ挙動導出処理>
グリップ挙動導出処理では、距離画像センサ2により撮影されたIR画像及び深度画像の画像データに基づいて、スイング動作中のグリップ端51aの軌道を表す三次元座標が導出される。解析の対象となる画像データは、動画である。従って、以下、解析の対象となるIR画像及び深度画像を、それぞれIRフレーム、深度フレームということがあり、単にフレームということもある。スイング動作中の各タイミングでの三次元座標は、主としてそのタイミングでのIRフレーム及び深度フレームに基づいて導出される。
<1-3-1. Grip behavior derivation process>
In the grip behavior derivation process, three-dimensional coordinates representing the trajectory of the
図3は、グリップ挙動導出処理の全体の流れを示すフローチャートである。グリップ挙動導出処理では、まず、取得部14aが、距離画像センサ2から取得され、記憶部13に格納されている画像データを読み出し、メモリに展開する。そして、位置導出部14bが、これらの画像データのうち、解析の対象となるフレームを決定する(ステップS1)。本実施形態では、スイング動作中のアドレスからインパクトのやや後までの期間が解析の対象とされる。従って、ステップS1では、アドレス及びインパクトのタイミングが決定され、この間のフレーム及びインパクト後の数フレームが解析の対象として決定される。また、ここでは、後の処理に備えて、トップのタイミングも決定される。アドレス、トップ及びインパクトのタイミングは、例えばグリップ51に取り付けられた慣性センサからの出力データに基づいて判定することもできるし、画像データ自体から画像処理により判定することもできる。このようなアドレス、トップ及びインパクトのタイミングの決定方法としては、様々なものが知られているため、ここでは詳細な説明を省略する。
FIG. 3 is a flowchart showing the entire flow of the grip behavior derivation process. In the grip behavior derivation process, first, the
なお、ゴルフクラブのスイング動作は、一般に、アドレス、トップ、インパクト、フィニッシュの順に進む。アドレスとは、図4(A)に示すとおり、ゴルフクラブ5のヘッドをボール近くに配置した初期の状態を意味し、トップとは、図4(B)に示すとおり、アドレスからゴルフクラブ5をテイクバックし、最もヘッドが振り上げられた状態を意味する。インパクトとは、図4(C)に示すとおり、トップからゴルフクラブ5が振り下ろされ、ヘッドがボールと衝突した瞬間の状態を意味し、フィニッシュとは、図4(D)に示すとおり、インパクト後、ゴルフクラブ5を前方へ振り抜いた状態を意味する。
The swing motion of a golf club generally proceeds in the order of address, top, impact, and finish. The address means an initial state in which the head of the
ステップS1により解析の対象となる期間が決定されると、位置導出部14bにより、アドレス付近でのグリップ端51aの三次元座標が導出される(ステップS2)。本実施形態では、ゴルファー7の前方から画像データが撮影されるため、アドレス付近では、ゴルファー7の手元に隠れ、グリップ端51aがフレームに写らない。そのため、ステップS2では、IRフレームに写るシャフト52の位置から、グリップ端51aの位置が推定される。
When the period to be analyzed is determined in step S1, the position derivation unit 14b derives the three-dimensional coordinates of the
具体的には、ステップS2での解析の対象となるのは、初期の期間のフレーム、例えば、アドレス付近の3枚のフレームである。上述したとおり、シャフト52には赤外線を効率的に反射させるマーカーが取り付けられているため、IRフレーム上には、当該マーカーの像が明確に表れる。位置導出部14bは、各IRフレームを適切な閾値を用いて2値化することで、各IRフレームをシャフト52のマーカーの像とその他の領域とに分割し、シャフト52の二次元座標を特定する。なお、当該閾値は、予め設定されている値であってもよいし、判別分析法等によりIRフレームから算出される値であってもよい。続いて、位置導出部14bは、同じタイミングでの深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52の三次元座標が導出される。ところで、シャフト52に取付けられているマーカーの長さ及びマーカーの中心(例えば、幾何学上の重心)からグリップ端51aまでの距離は既知であり、これらの値は予め記憶部13に記憶されている。従って、位置導出部14bは、これらの長さ及び距離と、IRフレームに写るシャフト52のマーカーの長さ及びマーカーの中心の三次元座標とに基づいて、アドレス付近でのグリップ端51aの三次元座標を導出する。
Specifically, the target of the analysis in step S2 is the frame of the initial period, for example, three frames near the address. As described above, since the
ステップS2が終了すると、ステップS3〜S7により、初期の期間後のグリップ端51aの三次元座標が特定される。ステップS3〜S7は、ステップS2の初期の期間のフレームを除く、ステップS1で決定された解析の期間に含まれる各フレームに対し、時間軸に沿って順に繰り返し実行される。
When step S2 is completed, the three-dimensional coordinates of the
具体的には、まず、ステップS3において、位置導出部14bは、IRフレームに写るグリップ端51aの像を抽出することで、IRフレームから直接グリップ端51aの二次元座標を特定する。そして、この二次元座標の特定に成功した場合には(ステップS4において、「YES」)、位置導出部14bは、深度フレームから、当該二次元座標に対応する奥行きの値を直接特定する(ステップS5)。これにより、グリップ端51aの三次元座標が導出される。一方、ステップS3で、二次元座標の特定に失敗した場合には(ステップS4において、「NO」)、位置導出部14bは、別の方法でグリップ端51aの三次元座標を導出するための例外処理を実行する(ステップS6)。同様に、ステップS5で、奥行きの値の特定に失敗した場合にも、(ステップS7において、「NO」)、位置導出部14bは、同様の例外処理を実行する。ステップS3,S5,S6の処理の詳細は、後述する。
Specifically, first, in step S3, the position deriving unit 14b identifies the two-dimensional coordinates of the
ステップS1で決定された解析の対象となる期間についての以上の処理が終了すると、スイング動作中のグリップ端51aの三次元座標が導出されたことになる。位置導出部14bは、これらのグリップ端51aの三次元座標に対し、後述するステップS8のキャリブレーションを実行する。また、これらのキャリブレーション後の値は、依然として一定程度の誤差を含み得る。特に、IRフレームにグリップ端51aの像が写らず、後述する様々な方法でグリップ端51aの三次元座標の推定が行われた場合には、誤差が顕著に表れることがある。そこで、位置導出部14bは、これらのキャリブレーション後の三次元座標を補正処理により補正する(ステップS9)。この補正処理の詳細については、後述する。
When the above processing for the period to be analyzed determined in step S1 is completed, the three-dimensional coordinates of the
以上の処理により、スイング動作中のグリップ端51aの三次元座標が高精度に導出される。これらのグリップ端51aの三次元座標は、記憶部13内に格納され、ユーザの命令に応じて、適宜、表示部11上に表示される。例えば、スイング動作中のグリップ端51aの軌道をグラフィック表示することも可能である。また、記憶部13内に格納されたこれらのグリップ端51aの三次元座標は、他のプログラムにより読み出され、さらなるゴルフスイングの解析にも利用され得る。
By the above processing, the three-dimensional coordinates of the
<1−3−1−1.ステップS3の詳細>
以下、図5を参照しつつ、ステップS3の詳細を説明する。ステップS3は、IRフレームに写るグリップ端51aの像を抽出することで、IRフレームから直接グリップ端51aの二次元座標を特定する処理である。上述したとおり、ステップS3は、ステップS2の解析の対象となる初期の期間後の各フレームについて繰り返し実行される。従って、以下のステップS3の説明においては、初期の期間後の特定の時刻(以下、対象時刻という)での特定のフレーム(以下、対象フレームという)に対する処理の流れを説明する。なお、対象フレームには、IRフレーム及び深度フレームが含まれ、それぞれを対象IRフレーム及び対象深度フレームと呼ぶ。
<1-3-1-1. Details of step S3>
Hereinafter, the details of step S3 will be described with reference to FIG. Step S3 is a process of specifying the two-dimensional coordinates of the
まず、位置導出部14bは、以降の計算負荷を下げるために、対象フレーム上において対象フレームの画像サイズよりも小さい探索範囲R1を設定する(ステップS21)。具体的には、対象時刻の直前の所定の枚数(例えば、3枚)のフレームにおけるグリップ端51aの二次元座標から、対象時刻でのグリップ端51aの二次元座標が推定される。この推定は、例えば、直前の所定の枚数のフレームのグリップ端51aのフレーム間のベクトルの向きに基づいて行うことができる。そして、当該推定された二次元座標の周辺に、例えば、当該二次元座標を中心とする所定のサイズ(例えば、50ピクセル×50ピクセル)の探索範囲R1が設定される。
First, the position derivation unit 14b sets a search range R1 on the target frame, which is smaller than the image size of the target frame, in order to reduce the subsequent calculation load (step S21). Specifically, the two-dimensional coordinates of the
続くステップS22〜S24では、位置導出部14bは、探索範囲R1内において、グリップ端51a及びシャフト52に貼付されたマーカーを表す領域をその他の領域から分離するための対象IRフレームの二値化を行う。そのために、まず、ステップS22において、二値化のための閾値が設定される。当該閾値は、公知の様々な方法で算出することができるが、本実施形態では、判別分析法により算出される。或いは、当該閾値は、予め設定されている値であってもよい。続いて、ステップS23において、当該閾値の適否が判断され、適切であると判断された場合にはステップS24に進む。ステップS24では、当該閾値を用いて探索範囲R1内での対象IRフレームの二値化が行われる。なお、このとき、「1」領域(マーカーに対応する領域)の穴抜けを防ぐため、膨張処理及び縮小処理を行うことが好ましい。図6には、参考として、対象IRフレームの例が示される。図6には、グリップ端51aに加え、シャフト52に貼付されたマーカーの像が写っている。一方、ステップS23において、閾値が不適切であると判断された場合には、ステップS3は終了し、その後、上述のステップS4を経てステップS6の例外処理へと進む。なお、本実施形態に係るステップS23では、対象IRフレーム内の探索範囲R1内において、上記閾値が、輝度のとり得る範囲を0〜1に正規化した場合において0.1より大きい場合に、「適切」、そうでない場合に、「不適切」と判断される。また、これに加えて、上記閾値以上となる輝度の最頻度が所定値(例えば、2ピクセル)以上である場合に、「適切」、そうでない場合に、「不適切」と判断することもできる。
In the following steps S22 to S24, the position derivation unit 14b binarizes the target IR frame in the search range R1 to separate the region representing the marker attached to the
続いて、ステップS25では、位置導出部14bは、グリップ端51aが対象IRフレーム内の探索範囲R1内に写っていない、又は探索範囲R1からはみ出している(探索範囲R1の外枠に重なっている)か否かを判断する。そして、グリップ端51aが探索範囲R1内に写っており、かつ、はみ出していない(以下、条件1)と判断される場合には、探索範囲R1が適切であるとして、ステップS26に進む。一方、条件1が満たされないと判断される場合には、探索範囲R1が不適切であるとして、ステップS20に進み、探索範囲R1の再設定が行われる。ステップS20では、前回の探索範囲R1よりも所定量だけ大きな探索範囲R1が設定され、その後、ステップS22以降が繰り返される。なお、はみ出していると判定された場合には、はみ出している方向にのみ所定量(例えば、10ピクセル)だけ拡大することができる。なお、図5からは明らかではないが、本実施形態では、ステップS20の繰り返しの回数には上限が設けられており、上限回数繰り返してもグリップ端51aが探索範囲R1内に写らない場合には、強制的にステップS3が終了する。また、上限回数繰り返してもはみ出している場合には、強制的にステップS26に進む。
Subsequently, in step S25, in step S25, the
ステップS26では、位置導出部14bは、探索範囲R1内にシャフト52のマーカーの像が含まれる場合には、これを除去する。具体的には、探索範囲R1の外枠の所定の3辺を調べ、「1」領域が存在していた場合には、これを「0」に置き換える。これにより、探索範囲R1内の「1」領域は、グリップ端51aにのみ対応する領域となる。なお、アドレスからインパクトのやや後までの区間においては、グリップ51の左側にシャフトがくることが考えにくいため、所定の3辺としては、上下の辺と、グリップ51の右側の辺が設定される。
In step S26, the position deriving unit 14b removes the image of the marker of the
続くステップS27では、位置導出部14bは、ラベリング処理を行い、探索範囲R1内のグリップ端51aの像が複数の領域に分離していないか否かを判断する。図7(A)に示すように、対象IRフレーム内では、特にダウンスイング中において、モーションブラーによりグリップ端51aの像が長細く写ることがある。そして、これを以上の方法で二値化すると、図7(B)に示すように、グリップ端51aを表す「1」領域が複数の領域に分離し得る。そこで、位置導出部14bは、探索範囲R1内のグリップ端51aの像が複数の領域に分離していると判断される場合には、図7(C)に示すように、それらを結合する(ステップS28)。具体的には、複数の「1」領域のより近い端点どうしが「1」の線で連結され、内側の穴が「1」で補完される。
In the following step S27, the position derivation unit 14b performs a labeling process to determine whether or not the image of the
ステップS29では、位置導出部14bは、探索範囲R1内の「1」領域の中心を算出する。「1」領域の中心は、様々な方法で算出することが可能であるが、例えば、幾何学上の重心として算出することができる。そして、当該中心の二次元座標が、グリップ端51aの二次元座標として特定される。
In step S29, the position derivation unit 14b calculates the center of the “1” region in the search range R1. The center of the "1" region can be calculated by various methods, for example, as a geometric center of gravity. Then, the two-dimensional coordinates of the center are specified as the two-dimensional coordinates of the
<1−3−1−2.ステップS5の詳細>
次に、図8を参照しつつ、ステップS5の詳細を説明する。ステップS5は、ステップS3で抽出に成功したグリップ端51aの奥行きの値を、深度フレームから直接特定する処理である。上述したとおり、ステップS5は、ステップS3と同様、ステップS2の解析の対象となる初期の期間後の各フレームについて繰り返し実行される。従って、以下でのステップS5の説明においては、ステップS3のときと同様に、対象フレームに対する処理の流れを説明する。
<1-3-1-2. Details of step S5>
Next, the details of step S5 will be described with reference to FIG. Step S5 is a process of directly specifying the depth value of the
まず、ステップS31において、位置導出部14bは、対象深度フレームから、ステップS3で特定されたグリップ端51aの二次元座標に対応する位置での奥行きの値を抽出する。図9は、ステップS3で特定されたグリップ端51aの二次元座標の位置を対象深度フレーム上にプロットした図である。
First, in step S31, the position deriving unit 14b extracts the depth value at the position corresponding to the two-dimensional coordinates of the
続くステップS32では、位置導出部14bは、ステップS31で抽出した奥行きの値の適否を判断する。そして、適切であると判断された場合には、グリップ端51aの奥行きの値の特定に成功したと判断し、ステップS33以降に進む。一方、ステップS32において、ステップS31で抽出した奥行きの値が不適切であると判断された場合には、グリップ端51aの奥行きの値の特定に失敗したと判断し、ステップS5を終了させる。なお、本実施形態に係るステップS32では、ステップS31で抽出した奥行きの値が所定の範囲内、例えば、2000mm〜3500mmの範囲内にある場合には「適切」、そうでない場合に「不適切」と判断される。また、そもそもデータが欠落しており、ステップS31において奥行きの値が抽出されなかった場合にも、「不適切」と判断される。
In the following step S32, the position derivation unit 14b determines the suitability of the depth value extracted in step S31. Then, if it is determined to be appropriate, it is determined that the value of the depth of the
ステップS33では、位置導出部14bは、対象IRフレームから、シャフト52の中心の二次元座標を特定し、対象深度フレームから、当該二次元座標に対応する位置での奥行きの値を抽出する。これにより、シャフト52の中心の三次元座標が導出される。具体的には、ステップS24と同様の方法で対象IRフレームを二値化し、ここから既に抽出されているグリップ端51aの像を除去することにより、対象IRフレーム上においてシャフト52のマーカーの像を表す「1」領域が抽出される。そして、当該「1」領域の中心(例えば、幾何学上の重心)の二次元座標が、シャフト52の中心の二次元座標として特定される。なお、簡単のため、図8等からは省略されているが、ここでシャフト52の中心の三次元座標の導出に失敗した場合には、ステップS5は強制終了し、ステップS7を経てステップS6の例外処理へ進むものとする。
In step S33, the position derivation unit 14b specifies the two-dimensional coordinates of the center of the
続くステップS34では、位置導出部14bは、グリップ端51aの二次元座標及びシャフト52の中心の二次元座標に基づいて、対象IRフレーム上でのシャフト52の角度を算出する。この値は、後述するステップS35で使用される。
In the following step S34, the position deriving unit 14b calculates the angle of the
続くステップS35〜S37では、位置導出部14bは、グリップ端51aの奥行きの値を取り直すべきか否かを判断する。グリップ端51aの奥行きの値を取り直す条件は、
以下の3つである。
(1)シャフト52の角度が所定の範囲内(例えば、ゴルファーの正面から見て11時よりも前)である(ステップS35)。
(2)1つ前のフレームと対象フレームとのグリップ端51aの奥行きの値の差が所定値(例えば、50mm)以上である(ステップS36)。
(3)ステップS6の例外処理によらず、深度フレームからグリップ端51aの奥行きの値を直接抽出できたフレームが所定枚数(例えば、3枚)以上続いている(ステップS37)。
In the following steps S35 to S37, the position deriving unit 14b determines whether or not the value of the depth of the
There are the following three.
(1) The angle of the
(2) The difference in the depth value of the
(3) Regardless of the exception processing in step S6, the number of frames (for example, three) in which the depth value of the
ステップS35〜S37の条件のいずれかを満たさない場合には、ステップS31で特定されたグリップ端51aの奥行きの値が確定し、ステップS5が終了する。一方、ステップS35〜S37の条件を全て満たす場合には、位置導出部14bは、ステップS31で特定されたグリップ端51aの奥行きの値が、グリップ端51aではなく人体の奥行きの値であると判断し、グリップ端51aの奥行きの値の取り直しを行う(ステップS38)。
If any of the conditions of steps S35 to S37 is not satisfied, the depth value of the
具体的には、ステップS38では、対象深度フレームにおいて、グリップ端51aの二次元座標を中心に所定のサイズ(例えば、10ピクセル×10ピクセル)の探索範囲R2を設定する(図10参照)。また、位置導出部14bは、ステップS31で特定されたグリップ端51aの奥行きの値から所定値(例えば、50mm)を引き(手前側に移動)、対象深度フレームに基づいて、探索範囲R2内で当該引いた値よりも奥にあるものは全て人体であると判断する。そして、探索範囲R2内で人体の像を除いた領域(グリップ端51a及び指の像と考えられる)内の全ての点に対応する奥行きの値を特定し、その最大値(最深値)をグリップ端51aの奥行きの値とする。図11は、ステップS38による奥行の値の補正の前後を示すグラフである。左側のグラフは、ステップS31の値をプロットしたグラフであり、右側のグラフでは、このうちの太枠の丸で囲んだ2点の位置が補正されている。
Specifically, in step S38, in the target depth frame, a search range R2 having a predetermined size (for example, 10 pixels × 10 pixels) is set around the two-dimensional coordinates of the
<1−3−1−3.ステップS6(例外処理)の詳細>
以下、図12を参照しつつ、ステップS6の例外処理について説明する。例外処理は、ステップS3,S5においてグリップ端51aの三次元座標の導出に失敗した場合に、別の方法でグリップ端51aの三次元座標を導出するための処理である。
<1-3-1-3. Details of step S6 (exception handling)>
Hereinafter, the exception handling in step S6 will be described with reference to FIG. The exception processing is a process for deriving the three-dimensional coordinates of the
まず、ステップS41では、位置導出部14bは、対象IRフレームからシャフト52のマーカーの像を抽出する。具体的には、ステップS24と同様の方法で対象IRフレームを二値化し、ここから適宜グリップ端51aの像を除去することにより、対象IRフレーム上におけるシャフト52のマーカーの像が抽出される。ここでシャフト52の像が抽出された場合には、ステップS42に進み、抽出できなかった場合には、ステップS48に進む。
First, in step S41, the position deriving unit 14b extracts an image of the marker of the
ステップS42では、位置導出部14bは、ステップS41で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、位置導出部14bは、対象深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52のマーカーの三次元座標が導出される。
In step S42, the position deriving unit 14b identifies the two-dimensional coordinates of all the points included in the area of the marker image of the
続いて、位置導出部14bは、シャフト52のマーカーの二次元座標に基づいて、グリップ端51aの二次元座標を推定する(ステップS43)。具体的には、当該グリップ端51aの二次元座標は、記憶部13内に格納されている、シャフト52のマーカーの長さ及びマーカーの中心からグリップ端51aまでの距離を参照することにより、対象IRフレームに写るシャフト52のマーカーの長さ及びマーカーの中心の二次元座標に基づいて特定される。
Subsequently, the position deriving unit 14b estimates the two-dimensional coordinates of the
続くステップS44では、位置導出部14bは、ステップS42で抽出したシャフト52の奥行きの値の適否を判断し、適切であると判断される場合には、ステップS45に進む。一方、ステップS44において、ステップS42で抽出した奥行きの値が不適切であると判断された場合には、ステップS46へと進む。なお、本実施形態に係るステップS44では、以下の2つの条件を満たす場合に「適切」、少なくとも一方を満たさない場合に「不適切」と判断される。なお、(2)の条件は、ステップS41においてシャフト52のマーカーの像を正しく抽出できているか、すなわち、脚等のデータを抽出していないかをチェックするための条件である。
(1)シャフト52の中心の奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にある。
(2)対象深度フレーム上において、シャフト52のマーカーの像に対応する領域内の全ての点のうち、奥行きの値が「0」(奥行きの値が得られなかった場合の画素値)の割合が所定値(例えば、4割)以下である。
In the following step S44, the position derivation unit 14b determines the suitability of the depth value of the
(1) The value of the depth of the center of the
(2) Percentage of all points in the area corresponding to the marker image of the
ステップS45では、位置導出部14bは、シャフト52のマーカーの三次元座標から、グリップ端51aの三次元座標を推定する。本実施形態では、まず、対象IRフレーム上において、シャフト52のマーカーの像からシャフト52の慣性主軸A1を抽出し、対象深度フレームから慣性主軸A1上の各点の奥行きの値を取得する(図13参照)。さらに、これらの奥行きの値から外れ値を除外する。外れ値は、所定の範囲外(例えば、1000mm以下、又は、3500mm以上)の値であるか、基準値から大きく乖離した値(例えば、300mm以上異なる値)である。当該基準値は、例えば、シャフト52の角度が9時より前はa−b線上の点の奥行きの最小値、シャフト52の角度が9時以降はa−b線上の点の奥行きの最大値として設定され得る。なお、a点は、対象IRフレーム内において、グリップ端51aに最も近い慣性主軸A1上の点(外れ値は除く)であり、b点は、対象IRフレーム内において、グリップ端51aから最も遠い慣性主軸A1上の点(外れ値は除く)である(図13参照)。続いて、対象IRフレーム内において、b点から慣性主軸A1上の各点(外れ値は除く)との距離を算出する。そして、慣性主軸A1上の各点(外れ値は除く)についてのb点からの距離と奥行きとを、距離−奥行き平面内にプロットし(図14参照)、距離と奥行きとの関係を表す一次近似式を導出する。続いて、対象IRフレーム内におけるb点からグリップ端51aまでの距離を算出し、この距離を上記一次近似式に代入することにより、グリップ端51aの奥行きを算出する。これにより、グリップ端51aの三次元座標が導出される。ステップS45が終了すると、例外処理は終了する。
In step S45, the position deriving unit 14b estimates the three-dimensional coordinates of the
なお、慣性主軸A1とは、以下に示す方法で特定される。すなわち、まず、シャフト52のマーカーの像と同じ二次モーメントを有する楕円を定義する。そして、当該楕円の長軸の長さをLとし、当該楕円の長軸とx軸(対象フレームの横軸)との為す角θを特定する。また、シャフト52のマーカーの重心の座標(x1,y1)を導出する。このとき、慣性主軸A1の始点(xs,ys)及び終点(xe,ye)の座標は、以下のとおりとなる。
xs=x1−L・cosθ/2
ys=y1−L・sinθ/2
xe=x1+L・cosθ/2
ye=x1+L・cosθ/2
The inertial spindle A1 is specified by the method shown below. That is, first, an ellipse having the same moment of inertia as the image of the marker on the
x s = x 1 −L · cos θ / 2
y s = y 1 −L · sin θ / 2
x e = x 1 + L · cos θ / 2
y e = x 1 + L · cos θ / 2
以下のS47では、グリップ端51aに代えて、グリップ51の下部の点の奥行きの値に基づいて、グリップ端51aの三次元座標が推定される。ステップS47の前に実行されるステップS46は、ステップS47の推定のアルゴリズムが効果的に機能する対象フレームを選別するためのステップである。具体的には、ステップS46において以下の2つの条件を満たすと判断された場合には、ステップS47へと進み、少なくとも一方を満たさないと判断された場合には、ステップS48へ進む。
(1)対象フレームがアドレス又はトップ近傍のフレーム(例えば、前後5枚のフレーム)である。
(2)a−c線上において、外れ値以外の奥行きを有する点が1点以上存在する。
In the following S47, the three-dimensional coordinates of the
(1) The target frame is a frame near the address or the top (for example, five frames before and after).
(2) On the a-c line, there is one or more points having a depth other than the outliers.
なお、c点とは、対象IRフレーム内において、a点とグリップ端51aとを結んだ線上において、a点からグリップ端51aの方向に所定の距離(例えば、20ピクセル)だけ離れた点である。また、(2)の外れ値とは、所定の範囲外(例えば、1000mm以下、又は、3500mm以上)の値であるか、基準値から大きく乖離した値(例えば、150mm以上異なる値)である。当該基準値も、ステップS45での説明と同様に設定することができる。
The point c is a point in the target IR frame that is separated from the point a by a predetermined distance (for example, 20 pixels) in the direction of the
ステップS47の詳細は、図16に示される。すなわち、まず、ステップS471として、位置導出部14bは、a−c線上の点の分布を表す1次近似式を導出する。具体的には、対象IRフレーム内において、グリップ端51aから最も遠いa−c線上の点(外れ値は除く)を基準点とし、当該基準点からa−c線上の各点(外れ値は除く)との距離を算出する。そして、a−c線上の各点(外れ値は除く)についての上記基準点からの距離と、奥行きとの関係を表す一次近似式を導出する。
Details of step S47 are shown in FIG. That is, first, in step S471, the position deriving unit 14b derives a first-order approximate expression representing the distribution of points on the a-c line. Specifically, in the target IR frame, the point on the ac line farthest from the
続いて、ステップS472では、位置導出部14bは、ステップS471で算出された1次近似式の傾きが0になっていないか否かを判断し、0でない場合には、ステップS473に進む。ステップS473では、位置導出部14bは、対象IRフレーム内における上記基準点からグリップ端51aまでの距離を算出し、この距離を上記一次近似式に代入することにより、グリップ端51aの奥行きを算出する。これにより、グリップ端51aの三次元座標が導出される。ステップS473が終了すると、例外処理は終了する。
Subsequently, in step S472, the position derivation unit 14b determines whether or not the slope of the linear approximation formula calculated in step S471 is 0, and if it is not 0, the process proceeds to step S473. In step S473, the position derivation unit 14b calculates the distance from the reference point to the
一方、ステップS472で1次近似式の傾きが0になっていると判断された場合には、位置導出部14bは、直前の3フレームにおけるグリップ端51aの動きのシーケンスから、対象時刻での奥行きを推定する(ステップS474)。例えば、以下の式に従って、対象時刻での奥行きDを決定することができる。ただし、D1〜D3は、それぞれ1つ前〜3つ前のフレームの奥行きDである。これにより、グリップ端51aの三次元座標が導出される。ステップ474が終了すると、例外処理は終了する。
D=2(D1−D2)−(D2−D3)+D1
On the other hand, when it is determined in step S472 that the slope of the first-order approximation formula is 0, the position derivation unit 14b determines the depth at the target time from the sequence of movements of the
D = 2 (D 1 − D 2 ) − (D 2 − D 3 ) + D 1
図12に戻って、ステップS48では、位置導出部14bは、グリップ端51aの抽出を5フレーム連続で失敗していないか否かを判断する。5フレーム連続で失敗していないと判断された場合には、ステップS49に進み、直前の3フレームにおけるグリップ端51aの動きのシーケンスから、対象時刻でのグリップ端51aの位置を推定する。より具体的には、グリップ端51aの二次元座標が特定されている場合には、ステップS474と同様に奥行きのみが推定され、グリップ端51aの二次元座標が特定されていない場合には、グリップ端51aの三次元座標が推定される。一方、ステップS48において、失敗の連続回数が5フレーム以上であると判断された場合には、位置導出部14bは、対象フレームのグリップ端51aの位置を決定せずに、例外処理を終了する。なお、ステップS49においては、グリップ端51aの二次元座標が特定されており、かつ、対象フレーム内でのグリップ端51aの二次元座標と、直前のフレームにおけるグリップ端51aの二次元座標との距離が小さい(例えば、5ピクセル以下)場合には、直前のフレームの奥行きの値をそのまま対象フレームの奥行きの値として使用することもできる。
Returning to FIG. 12, in step S48, the position deriving unit 14b determines whether or not the extraction of the
<1−3−1−4.キャリブレーション>
以下、以上の処理により導出されたグリップ端51aの三次元座標のキャリブレーションについて説明する。本キャリブレーションは、以上の処理により導出されたグリップ端51aの三次元座標を、以下の重回帰式に代入することにより行われる。
Hereinafter, the calibration of the three-dimensional coordinates of the
以上の重回帰式中のx,y,Zは、キャリブレーション前のグリップ端51aの三次元座標であり、X,Y,Z'は、キャリブレーション後のグリップ端51aの三次元座標である。なお、Z,Z'が奥行きである。また、係数a1〜c1,a2〜f2,a3〜f3は、実験により予め定められた値である。以下、係数a1〜c1,a2〜f2,a3〜f3の決定方法について説明する。
In the above multiple regression equation, x, y, Z are the three-dimensional coordinates of the
まず、キャリブレーション後の三次元座標を規定するための三次元座標系であるX−Y−Z'座標系を定義する。そして、距離画像センサ2の前に様々なテスト被写体を配置してこれを撮影する。次に、位置導出部14bにより、上述したステップS3,S5(S29,S31)と同様の処理により、各テスト被写体の三次元座標(x,y,Z)を算出する。また、各テスト被写体の実際の位置を測定して、三次元座標(X,Y,Z)として表し、これらの値をスイング解析装置1に入力する。これにより、位置導出部14bは、様々なテスト被写体の三次元座標(x,y,Z)及び三次元座標(X,Y,Z)を取得したことになる。そこで、続けて、位置導出部14bは、これらのデータをサンプルデータとして、(x,y,Z)と(X,Y,Z')との関係を表す重回帰式を導出する。なお、数1の重回帰式は、非線形モデルであるが、線形モデルで表すこともできるし、X,Y,Z'の説明変数は、x,y,Zを適宜組み合わせて任意に設定することができる。
First, the XYZ'coordinate system, which is a three-dimensional coordinate system for defining the three-dimensional coordinates after calibration, is defined. Then, various test subjects are arranged in front of the
X−Y−Z'座標系は、例えば、ボールを原点として、奥行きを表す距離画像センサ2の光軸方向をZ'軸とし、鉛直上下方向をY軸とし、水平方向をX軸として設定することができる。また、テスト被写体としては様々なものを使用し得るが、図17に示すような格子状に赤外線を効率的に反射するマーカーを張った板を用意し(格子の交点や格子で囲まれた四角形の領域の中心等がテスト被写体として機能し得る)、これをZ'軸方向の様々な位置に配置して撮影することで、効率的に重回帰分析を実行することができる。
In the XYZ'coordinate system, for example, the ball is set as the origin, the optical axis direction of the
<1−3−1−5.補正処理>
以下、図18を参照しつつ、ステップS9の補正処理について説明する。本補正処理は、以上の処理により導出されたグリップ端51aの三次元座標を補正する処理である。既に述べたとおり、IRフレームにグリップ端51aの像が写らず、シャフト52の位置等に基づいてグリップ端51aの三次元座標の推定が行われたフレームについては、誤差が顕著に表れることがある。このような誤差は、特にアドレス付近で生じやすいため、本実施形態では、アドレス付近でのフレームを対象として、本補正処理に係る以下のステップS53〜S57が実行される。しかしながら、アドレス付近に限らず、任意の期間のフレームを対象として、ステップS53〜S57を実行することも可能である。なお、本実施形態では、ステップS8のキャリブレーション後の三次元座標が補正の対象となるが、キャリブレーション前の三次元座標を補正してもよい。
<1-3-1-1-5. Correction process>
Hereinafter, the correction process of step S9 will be described with reference to FIG. This correction process is a process for correcting the three-dimensional coordinates of the
まず、ステップS51として、位置導出部14bは、最初にIRフレーム上においてグリップ端51aが抽出できたフレーム(ステップS7において、最初に「YES」となったフレーム。以下、最後のフレームという)を特定する。
First, as step S51, the position derivation unit 14b identifies the frame from which the
続くステップS52では、位置導出部14bは、上記の最後のフレームまでのフレームのうち、IRフレーム上においてグリップ端51aが抽出できなかったフレーム(ステップS4又はS7において、「NO」となったフレーム)であり、かつ、シャフト52が抽出されているフレーム(以下、補正対象フレーム)を全て特定する。なお、補正対象フレームには、IRフレーム及び深度フレームが含まれ、それぞれを補正対象IRフレーム及び補正対象深度フレームと呼ぶ。
In the following step S52, the position derivation unit 14b is a frame up to the last frame in which the
続くステップS53〜S57は、各補正対象フレームに対し繰り返し実行される。具体的には、ステップS53では、位置導出部14bは、補正対象IRフレームからシャフト52のマーカーの像を抽出する。具体的な方法は、ステップS41と同様であり、ステップS41の結果を適宜流用することができる。
Subsequent steps S53 to S57 are repeatedly executed for each correction target frame. Specifically, in step S53, the position deriving unit 14b extracts an image of the marker of the
続くステップS54では、位置導出部14bは、ステップS53で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、位置導出部14bは、補正対象深度フレームから、ここで特定された二次元座標に対応する奥行きの値を特定する。これにより、シャフト52のマーカーの三次元座標が導出される。これらの処理も、ステップS42の結果を流用することができる。
In the following step S54, the position deriving unit 14b identifies the two-dimensional coordinates of all the points included in the area of the marker image of the
続くステップS55では、位置導出部14bは、ステップS53で抽出された全ての点のうち、奥行きの値が適切な点(以下、対象点という)を全て特定する。なお、奥行きの値が適切であるか否かは、例えば、奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にあるか否かに応じて判断される。 In the following step S55, the position derivation unit 14b identifies all the points having an appropriate depth value (hereinafter referred to as target points) among all the points extracted in step S53. Whether or not the depth value is appropriate is determined, for example, depending on whether or not the depth value is within a predetermined range (for example, 1000 mm to 3500 mm).
続くステップS56では、位置導出部14bは、全ての対象点の三次元座標(X,Y,Z')に対して主成分分析を行い、第1主成分を導出する。具体的には、全ての対象点の三次元座標(X,Y,Z')の共分散行列Σを算出する。続いて、共分散行列Σの固有方程式を解き、3つの固有値λ1、λ2,λ3及びそれぞれに対応する固有ベクトルω1,ω2,ω3を算出する(λ1≧λ2≧λ3とする)。そして、最大の固有値λ1に対応する固有ベクトルω1(第1主成分)を特定する。 In the following step S56, the position derivation unit 14b performs principal component analysis on the three-dimensional coordinates (X, Y, Z') of all the target points, and derives the first principal component. Specifically, the covariance matrix Σ of the three-dimensional coordinates (X, Y, Z') of all the target points is calculated. Then, the eigenvalues of the covariance matrix Σ are solved to calculate the three eigenvalues λ 1 , λ 2 , λ 3 and the corresponding eigenvectors ω 1 , ω 2 , ω 3 (λ 1 ≧ λ 2 ≧ λ 3). ). Then, the eigenvector ω 1 (first principal component) corresponding to the maximum eigenvalue λ 1 is specified.
続くステップS57では、第1主成分ω1に沿ってシャフト52が伸びているものと仮定して、グリップ端51aの三次元座標が特定される(図19参照)。具体的には、位置導出部14bは、X−Y−Z'座標系内での、シャフト52のマーカーの中心からグリップ端51aまでの三次元距離Lを算出する。この距離Lは、記憶部13内に格納されている、シャフト52のマーカーの長さ及びマーカーの中心からグリップ端51aまでの距離の値を参照することにより算出される。そして、第1主成分ω1に沿った直線(すなわち、シャフト52を表す直線)上において、シャフト52のマーカーの中心から距離Lだけ離れた点の三次元座標(X,Y,Z')を特定し、グリップ端51aの三次元座標とする。
In the following step S57, the three-dimensional coordinates of the
全ての補正対象フレームに対する以上ステップS53〜S57が終了すると、補正処理は終了する。図20は、実際の補正処理の結果を表す図である。図20中の「補正前」のグラフは、ステップS1〜S8により導出されたグリップ端51aのZ'値(奥行き)であり、「補正後」のグラフは、本補正処理後のグリップ端51aのZ'値(奥行き)である。また、「真値」は、多数の赤外線カメラにより様々な角度から撮影された画像に基づいてマーカーの三次元座標を高精度に読み取ることのできる三次元動作解析システム(実際にはインターリハ社製のVICONが使用されたが、勿論、他の三次元動作解析システムも利用可能である)により計測されたグリップ端51aの位置である。図20からは、本補正処理により、グリップ端51aの奥行きの座標を真値に近づけることができることが分かる。
When the above steps S53 to S57 for all the frames to be corrected are completed, the correction process is completed. FIG. 20 is a diagram showing the result of the actual correction processing. The “before correction” graph in FIG. 20 is the Z'value (depth) of the
<1−3−2.左肩挙動導出処理>
以下、左肩挙動導出処理について説明する。左肩挙動導出処理では、距離画像センサ2により撮影された深度画像に基づいて、スイング動作中のゴルファー7の左肩71の軌道を表す三次元座標が導出される。グリップ挙動導出処理の場合と同様、解析の対象となる画像データは、動画である。従って、ここでも、解析の対象となる深度画像を、深度フレームという。スイング動作中の各タイミングでの三次元座標は、主としてそのタイミングでの深度フレームに基づいて導出される。
<1-3-2. Left shoulder behavior derivation process>
The left shoulder behavior derivation process will be described below. In the left shoulder behavior derivation process, three-dimensional coordinates representing the trajectory of the
図21は、左肩挙動導出処理の全体の流れを示すフローチャートである。左肩挙動導出処理では、まず、取得部14aが、距離画像センサ2から取得され、記憶部13に格納されているスイング動作中の各タイミングでの深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの深度フレームから、各タイミングでのスケルトンデータを取得する(ステップS61)。スケルトンデータとは、人体の主要な関節の位置(三次元座標)を表すデータである。深度フレームからスケルトンデータを導出する方法は、様々なものが公知であるため、ここでは詳細な説明を省略する。また、距離画像センサであるKinect(登録商標)(v1であっても、v2であってもよい。以下同様。)には、深度画像からスケルトンデータを読み出すためのライブラリが提供されており、本実施形態では、当該ライブラリを用いて、スケルトンデータが取得される。なお、距離画像センサ2のCPU23が、深度フレームからスケルトンデータを導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきたスケルトンデータを読み出すだけでよい。
FIG. 21 is a flowchart showing the entire flow of the left shoulder behavior derivation process. In the left shoulder behavior derivation process, first, the
スケルトンデータには、左肩71の三次元座標が含まれるため、ステップS61は、左肩71の挙動を導出するステップであると言える。しかしながら、Kinect由来のスケルトンデータにより特定される左肩71の位置は、使用の目的にもよるが、必ずしもスンイグ動作中の全区間で十分な精度を保つとは限らない。そのため、本実施形態では、後述する凸部抽出フィルタ及び左肩シルエットフィルタによっても左肩71の三次元座標が導出され、これらが適宜切り替えられる。これにより、様々な区間において、左肩71の三次元座標を高精度に導出することができるようになっている。なお、使用の目的にもよるが、スケルトンデータのみから左肩71の位置を特定することもできるし、凸部抽出フィルタのみ又は左肩シルエットフィルタのみから左肩71の位置を特定することもできる。すなわち、これら3つの方法は、使用の目的に応じて、単独で用いることもできるし、任意のものを適宜組み合わせて用いることもできる。
Since the skeleton data includes the three-dimensional coordinates of the
続いて、ステップS62では、位置導出部14bは、取得部14aにより取得された以上の深度フレームのうち、解析の対象となるフレームを決定する(ステップS62)。本実施形態では、スイング動作中のアドレスからフィニッシュまでの期間が解析の対象とされる。従って、ステップS62では、アドレス及びフィニッシュのタイミングが決定され、この間の深度フレームが以後のステップS63〜69に係る解析の対象として決定される。アドレス及びフィニッシュのタイミングは、例えばグリップ51に取り付けられた慣性センサからの出力データに基づいて判定することもできるし、画像データ自体から画像処理により判定することもできる。このようなアドレス及びフィニッシュのタイミングの決定方法は、様々なものが知られているため、ここでは詳細な説明を省略する。
Subsequently, in step S62, the position derivation unit 14b determines a frame to be analyzed among the depth frames acquired by the
続くステップS63では、位置導出部14bは、各深度フレームの画像サイズを縮小する。圧縮のアルゴリズムは、様々なものを利用することができ、例えば、バイキュービックやニアレストネイバー等を使用することができる。この圧縮処理により、以下の計算負荷を低減することができる。また、縮小後の画像サイズが一定値となるような圧縮を行えば、後述される各種フィルタを画像サイズに応じて生成する必要がなくなり、処理が効率化される。 In the following step S63, the position deriving unit 14b reduces the image size of each depth frame. Various compression algorithms can be used, for example, bicubic or nearest neighbor can be used. By this compression processing, the following calculation load can be reduced. Further, if compression is performed so that the reduced image size becomes a constant value, it is not necessary to generate various filters described later according to the image size, and the processing becomes efficient.
続くステップS64では、位置導出部14bは、各深度フレームを二値化する。この二値化は、深度フレームにおいて人物を写す領域(例えば、奥行きが2200mm〜2800mmの範囲)で奥行きのデータが存在している画素値を「1」、それ以外を「0」とすることにより行われる。この二値化画像は、距離画像センサ2の有効距離の範囲内に存在する被写体(主として、ゴルファー7及びゴルフクラブ5)のシルエットを抽出した画像である。この二値化画像の用途は、後述する。
In the following step S64, the position derivation unit 14b binarizes each depth frame. This binarization is performed by setting the pixel value in which the depth data exists in the area where the person is captured in the depth frame (for example, the depth range of 2200 mm to 2800 mm) to be "1" and the other pixel values to be "0". Will be done. This binarized image is an image obtained by extracting the silhouettes of subjects (mainly
続くステップS65では、位置導出部14bは、凸部抽出フィルタを用いて、各深度フレームから左肩71の三次元座標を導出する。また、ステップS66では、位置導出部14bは、左肩シルエットフィルタを用いて、各深度フレームから左肩71の三次元座標を導出する。これらのフィルタを用いた左肩71の抽出処理の詳細は、後述される。
In the following step S65, the position derivation unit 14b derives the three-dimensional coordinates of the
以上、3つの方法(スケルトンデータ、凸部抽出フィルタ及び左肩シルエットフィルタによる方法)により左肩71の三次元座標が導出されると、位置導出部14bは、3つの方法を切り替えるタイミングを導出する(ステップS67)。本発明者らは、鋭意検討の結果、スイング動作中、アドレスからテイクバック腕水平までの区間では、スケルトンデータによる方法の精度が特に高く、テイクバック腕水平からダウンスイング腕水平まで区間では、凸部抽出フィルタによる方法の精度が特に高く、ダウンスイング腕水平からフィニッシュまでの区間では、左肩シルエットフィルタによる方法の精度が特に高いことを発見した。これは、Kinect(登録商標)由来のスケルトンデータでは、肩の捻転運動が十分に考慮されないため、テイクバック腕水平以後に左肩71が回転を始めると、精度が低下し得るためと予想される。すなわち、Kinect(登録商標)のスケルトンモデルでは、両肩と腰(両股関節)とが剛体としてモデリングされているため、肩のみ又は腰のみの回転が評価されない。従って、肩のみが回転するテイクバック腕水平以降では、スケルトンデータの信頼性が落ち易いため、本実施形態に係る切替が有効となる。また、ゴルファー7を正面から撮影する場合、テイクバック腕水平からダウンスイング腕水平までの区間においては、左肩71がゴルファー7の全体のシルエットの内部に存在することとなる。そうすると、詳細は後述されるが、凸部抽出フィルタは、深度フレーム内の凸部を強調するフィルタであるため、凸部抽出フィルタによる方法により、左肩71を正確に検出することができる。一方、ゴルファー7を正面から撮影する場合、ダウンスイング腕水平からフィニッシュまでの区間においては、左肩71がゴルファー7の全体のシルエットの輪郭付近に存在することとなる。そうすると、詳細は後述されるが、左肩71の輪郭を強調するための左肩シルエットフィルタによる方法により、左肩71を正確に検出することができる。なお、同様の理由により、左肩シルエットフィルタは、アドレスからテイクバック腕水平の区間においても、好適に使用することができる。
As described above, when the three-dimensional coordinates of the
以上より、本実施形態では、切り替えのタイミングとして、テイクバック腕水平及びダウンスイング腕水平のタイミングが導出される。これらの腕水平のタイミングの決定方法の詳細については、後述する。なお、テイクバック腕水平とは、テイクバック中に左腕が水平になるタイミングのことを言い、ダウンスイング腕水平とは、ダウンスイング中に左腕が水平になるタイミングのことを言う。 From the above, in the present embodiment, the takeback arm horizontal and the downswing arm horizontal timings are derived as the switching timings. Details of the method for determining the timing of these arm horizontals will be described later. The takeback arm horizontal refers to the timing at which the left arm becomes horizontal during takeback, and the downswing arm horizontal refers to the timing at which the left arm becomes horizontal during the downswing.
腕水平のタイミングが導出されると、位置導出部14bは、3つの方法による左肩71の三次元座標を時間軸に沿って切り替えながら、三次元空間内でのスイング動作中の左肩71の軌道を導出する(ステップS68)。具体的には、アドレスからテイクバック腕水平までの区間でのスケルトンデータ由来の左肩71の三次元座標と、テイクバック腕水平からダウンスイング腕水平までの区間での凸部抽出フィルタ由来の左肩71の三次元座標と、ダウンスイング腕水平からフィニッシュまでの区間での左肩シルエットフィルタ由来の左肩71の三次元座標とが連結され、アドレスからフィニッシュまでのx−y−Z座標系内での左肩71の軌道が導出される。また、その後、ステップS8と同様の方法で、左肩71の軌道のキャリブレーションが行われる(ステップS69)。図22は、キャリブレーション後の左肩71の軌道の一例である。
When the arm horizontal timing is derived, the position deriving unit 14b switches the three-dimensional coordinates of the
以上の処理により、スイング動作中の左肩71の三次元座標が高精度に導出される。この左肩71の三次元座標は、記憶部13内に格納され、ユーザの命令に応じて、適宜、表示部11上に表示される。例えば、スイング動作中の左肩71の軌道をグラフィック表示することも可能である。また、記憶部13内に格納されたこれらの左肩71の三次元座標は、他のプログラムにより読み出され、さらなるゴルフスイングの解析にも利用され得る。
By the above processing, the three-dimensional coordinates of the
<1−3−2−1.凸部抽出フィルタによる左肩抽出>
以下、凸部抽出フィルタによる左肩71の抽出方法について説明する。凸部抽出フィルタとは、当該フィルタが適用される領域内において、中央部分を強調し、周辺部分を抑制するフィルタである。すなわち、凸部抽出フィルタは、深度フレーム内に写る、中央が突出している凸部を強調するフィルタであり、例えば、図23のようなフィルタである。図23内の各四角形は、画素を表しており、各四角形内の数値は、当該四角形に対応する画素の画素値に掛け合わされる係数である。そして、フィルタ内の各画素について、当該画素の画素値と対応する係数とを乗算し、それらの乗算値を足し合わせた値が、フィルタ適用後の中央の画素の画素値となる。
<1-3-2-1. Left shoulder extraction with convex extraction filter>
Hereinafter, a method of extracting the
図24は、トップのタイミングにおける深度フレームである。この深度フレーム全体に図23の凸部抽出フィルタを適用すると、図25に示す画像となる。そして、図25の深度フレーム内では、ゴルファー7の輪郭と背景とのギャップが大きいために、凸形状の左肩71だけでなく、ゴルファー7の輪郭も強調されてしまっている。その結果、左肩71が埋もれてしまっており、正しく左肩71の位置を抽出できない虞が生じている。そこで、本実施形態では、このような問題に対処するため、ステップS64で導出された二値化画像が使用される。なお、図24及び図25を含め、以後の図に示される深度フレームにおいては、ゴルファーの像が鏡面に写っている。
FIG. 24 is a depth frame at the top timing. When the convex portion extraction filter of FIG. 23 is applied to the entire depth frame, the image shown in FIG. 25 is obtained. In the depth frame of FIG. 25, since the gap between the contour of the
図26は、ステップS64を経た二値化画像であり、「1」の領域は、主としてゴルファー7のシルエットを示しており、背景領域は、「0」の領域となっている。本実施形態では、位置導出部14bは、ゴルファー7の輪郭を除去するため、この二値化画像を所定量だけ収縮する。収縮後の二値化画像を、図27に示す。そして、位置導出部14bは、当該収縮後の二値化画像をマスク画像として、凸部抽出フィルタ適用後の深度フレーム(図25参照)をマスキングする。このマスキング後のフレームを、図28に示す。図28に示すとおり、このマスキングにより、凸部抽出フィルタ適用後の深度フレームからゴルファー7の輪郭が除去され、左肩71が容易に抽出可能となる。図28では、参考のため、左肩71の位置を強調表示している。位置導出部14bは、マスキング後のフレームにおいて、最大の画素値を有する画素の二次元座標を特定し、左肩71の二次元座標とする。さらに、位置導出部14bは、当初の深度フレームから当該左肩71の二次元座標での奥行きのデータを抽出することで、左肩71の三次元座標を導出する。
FIG. 26 is a binarized image that has undergone step S64, and the region “1” mainly shows the silhouette of the
なお、精度を向上し、及び/又は計算負荷を下げるために、凸部抽出フィルタの適用範囲を深度フレーム全体とするのではなく、一部の範囲内とすることもできる。例えば、同じ又は直前のフレーム上において特定された左肩71の二次元座標を含む適当なサイズの領域を、凸部抽出フィルタの適用範囲とすることができる。なお、アドレスからテイクバック腕水平の区間及びダウンスイング腕水平からフィニッシュまでの区間では、同じフレームのスケルトンデータに含まれる左肩71の二次元座標を中心とする所定のサイズの領域を、凸部抽出フィルタの適用範囲R3(図29参照)として設定することが好ましい。また、テイクバック腕水平のタイミングでは、1つ前のフレームのスケルトンデータに含まれる左肩71の二次元座標を中心とする所定のサイズの領域を、凸部抽出フィルタの適用範囲R3(図29参照)として設定することが好ましい。さらに、テイクバック腕水平の直後からダウンスイング腕水平までの区間では、1つ前のフレームにおいて凸部抽出フィルタを用いて特定された左肩71の二次元座標を右寄りの位置に含む所定のサイズの領域を、凸部抽出フィルタの適用範囲R4(図30参照)とすることが好ましい。なお、適用範囲R4として、左肩71を基準に左に延びた矩形領域が設定されるのは、右側(手先側)においてフィルタの応答値が非常に大きくなる部分があり、これを避けるためである。
In order to improve the accuracy and / or reduce the calculation load, the applicable range of the convex extraction filter may be a part of the depth frame instead of the entire depth frame. For example, a region of an appropriate size including the two-dimensional coordinates of the
<1−3−2−2.左肩シルエットフィルタによる左肩抽出>
以下、左肩シルエットフィルタによる左肩71の抽出方法について説明する。左肩シルエットフィルタとは、当該フィルタが適用される領域内において、右下部分を強調し、左下、左上及び右上部分を抑制するフィルタである。すなわち、左肩シルエットフィルタは、深度フレーム内に写る、右下が突出している凸部を強調するフィルタであり、例えば、図31のようなフィルタである。凸部抽出フィルタと同様、図31内の各四角形は、画素を表しており、各四角形内の数値は、当該四角形に対応する画素の画素値に掛け合わされる係数である。そして、フィルタ内の各画素について、当該画素の画素値と対応する係数とを乗算し、それらの乗算値を足し合わせた値が、フィルタ適用後の中央の画素の画素値となる。
<1-3-2-2. Left shoulder extraction with left shoulder silhouette filter>
Hereinafter, a method of extracting the
位置導出部14bは、ステップS64で導出された二値化画像に、左肩シルエットフィルタを適用する。図32は、ステップS64で導出された二値化画像であり、図33は、この二値化画像に図31の左肩シルエットフィルタを適用した画像を示している。そして、位置導出部14bは、左肩シルエットフィルタの適用後のフレームにおいて、最大の画素値を有する画素の二次元座標を特定し、左肩71の二次元座標とする。さらに、位置導出部14bは、当初の深度フレームから当該左肩71の二次元座標での奥行きのデータを抽出することで、左肩71の三次元座標を導出する。なお、図33では、参考のため、左肩71の位置を強調表示している。
The position derivation unit 14b applies the left shoulder silhouette filter to the binarized image derived in step S64. FIG. 32 is a binarized image derived in step S64, and FIG. 33 shows an image in which the left shoulder silhouette filter of FIG. 31 is applied to the binarized image. Then, the position derivation unit 14b specifies the two-dimensional coordinates of the pixel having the maximum pixel value in the frame after the application of the left shoulder silhouette filter, and sets the two-dimensional coordinates of the
なお、精度を向上し、及び/又は計算負荷を下げるために、左肩シルエットフィルタの適用範囲を深度フレーム全体とするのではなく、一部の範囲内とすることもできる。例えば、同じ又は直前のフレーム上において特定された左肩71の二次元座標を含む適当なサイズの領域を、左肩シルエットフィルタの適用範囲とすることができる。なお、アドレスからテイクバック腕水平の区間では、同じフレームのスケルトンデータに含まれる左肩71の二次元座標を右下の端点とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R5(図34参照)として設定することが好ましい。また、ダウンスイング腕水平のタイミングでは、1つ前のフレームにおいて設定された上述のR4の領域の左上の端点を右下の端点とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R6(図35参照)として設定することが好ましい。さらに、ダウンスイング腕水平の直後からフィニッシュまでの区間では、1つ前のフレームにおいて左肩シルエットフィルタを用いて特定された左肩71の二次元座標を中心とする所定のサイズの領域を、左肩シルエットフィルタの適用範囲R7(図36参照)とすることが好ましい。
In addition, in order to improve the accuracy and / or reduce the calculation load, the applicable range of the left shoulder silhouette filter may be a part of the depth frame instead of the entire depth frame. For example, a region of an appropriate size including the two-dimensional coordinates of the
<1−3−2−3.腕水平のタイミングの決定方法>
以下、本実施形態に係るテイクバック腕水平及びダウンスイング腕水平のタイミングの決定方法について説明する。
<1-3-2-3. How to determine the timing of arm horizontal>
Hereinafter, a method for determining the timing of the takeback arm horizontal and the downswing arm horizontal according to the present embodiment will be described.
まず、図37に示すように、位置導出部14bは、アドレス時のスケルトンデータから、右肩の二次元座標を取得する。そして、右肩の二次元座標を基準として、x軸正方向に所定の距離(例えば、30ピクセル)進み、y軸正方向に所定の距離(例えば、15ピクセル)進んだ点Aの二次元座標を特定する。なお、x軸正方向とは、水平方向に沿って、ゴルファー7の左手側から右手側に進む方向である。また、y軸正方向とは、鉛直方向に沿って、上から下に向かう方向である。続いて、位置導出部14bは、A点からx軸正方向に所定の距離(例えば、115ピクセル)の範囲を占め、y軸正方向に所定の距離(例
えば、30ピクセル)の範囲を占める矩形領域R8を形成する。
First, as shown in FIG. 37, the position derivation unit 14b acquires the two-dimensional coordinates of the right shoulder from the skeleton data at the time of addressing. Then, with reference to the two-dimensional coordinates of the right shoulder, the two-dimensional coordinates of the point A that advances a predetermined distance (for example, 30 pixels) in the positive direction of the x-axis and advances a predetermined distance (for example, 15 pixels) in the positive direction of the y-axis. To identify. The x-axis positive direction is a direction in which the
その後、位置導出部14bは、アドレスからフィニッシュまでの区間に含まれる各深度フレームについて、当該深度フレーム上の上述の矩形領域R8内において奥行きのデータが存在している画素数をカウントする。そして、当該画素数が所定数(例えば、400ピクセル)以上となる(以下、腕水平条件)深度フレームを全て特定する。このとき、通常、アドレスからフィニッシュまでの区間において、腕水平条件を満たす深度フレームが、時間軸に沿って大きく2つのグループに分けて出現する。従って、位置導出部14bは、これらの2つのグループを特定した後、前半のグループの中からテイクバック腕水平のフレームを特定するとともに、後半のグループからダウンスイング腕水平のフレームを特定する。1のグループに腕水平条件を満たす深度フレームが複数枚出現した場合には、例えば、先頭のフレームを腕水平フレームとすることができる。なお、アドレスからフィニッシュまでの区間において、腕水平条件を満たす深度フレームが大きく2つのグループに分けて出現しなかった場合には、適当なエラー処理を行う。 After that, the position derivation unit 14b counts the number of pixels in which the depth data exists in the above-mentioned rectangular region R8 on the depth frame for each depth frame included in the section from the address to the finish. Then, all the depth frames in which the number of pixels is equal to or greater than a predetermined number (for example, 400 pixels) (hereinafter, arm horizontal condition) are specified. At this time, normally, in the section from the address to the finish, depth frames satisfying the arm horizontal condition appear in two groups along the time axis. Therefore, after identifying these two groups, the position deriving unit 14b specifies the takeback arm horizontal frame from the first half group and the downswing arm horizontal frame from the second half group. When a plurality of depth frames satisfying the arm horizontal condition appear in one group, for example, the first frame can be an arm horizontal frame. In the section from the address to the finish, if the depth frame satisfying the arm horizontal condition does not appear in two groups, appropriate error processing is performed.
<1−3−3.シャフト方向導出処理>
以下、シャフト方向導出処理について説明する。シャフト方向導出処理では、距離画像センサ2により撮影された深度画像に基づいて、スイング動作中のシャフト52の向きを表す三次元ベクトルが導出される。グリップ挙動導出処理の場合と同様、解析の対象となる画像データは、動画である。従って、ここでも解析の対象となるIR画像及び深度画像を、IRフレーム及び深度フレームという。
<1-3-3. Shaft direction derivation process>
Hereinafter, the shaft direction derivation process will be described. In the shaft direction derivation process, a three-dimensional vector representing the direction of the
図38は、シャフト方向導出処理の全体の流れを示すフローチャートである。まず、ステップS70では、取得部14aが、距離画像センサ2から取得され、記憶部13に格納
されているIRフレーム及び深度フレームを読み出し、メモリに展開する。そして、向き導出部14cは、これらの画像データのうち、解析の対象となるフレームを決定する。本実施形態では、スイング動作中のアドレスからインパクトのやや後までの期間が解析の対象とされる。詳細は、ステップS1と同様である。
FIG. 38 is a flowchart showing the entire flow of the shaft direction derivation process. First, in step S70, the
続くステップS71〜S77は、解析の対象となる期間に含まれる各フレームについて繰り返し実行される。従って、以下の説明においては、グリップ挙動導出処理のときと同様に、シャフト52の向きを導出しようとしている時刻(以下、対象時刻)でのIRフレーム及び深度フレームを、それぞれ対象IRフレーム及び対象深度フレームと呼ぶ。また、各々のフレーム、或いはこれらをまとめて、対象フレームと呼ぶことがある。
Subsequent steps S71 to S77 are repeatedly executed for each frame included in the period to be analyzed. Therefore, in the following description, the IR frame and the depth frame at the time when the direction of the
続くステップS71において、向き導出部14cは、対象IRフレームからシャフト52のマーカーの像を抽出する。具体的な処理は、ステップS41と同様である。そして、ここでシャフト52の像が抽出された場合には、ステップS72に進み、抽出できなかった場合には、次のフレームの処理に移る。
In the following step S71, the
ステップS72では、向き導出部14cは、ステップS71で抽出されたシャフト52のマーカーの像の領域に含まれる全ての点の二次元座標を特定する。また、向き導出部14cは、対象深度フレームから、ここで二次元座標が特定された全ての点の奥行きの値を特定する。ただし、ここで特定された奥行きの値が適切でないと判断される点は、以下の解析から除去することができる。奥行きの値が適切か否かは、例えば、奥行きの値が所定の範囲内(例えば、1000mm〜3500mm)にあるか否かに応じて判断される。以上より、シャフト52に含まれる点の三次元座標が導出される。そして、シャフト52の
三次元座標が所定個数以上(本実施形態では、1点以上)導出された場合には、ステップS73に進み、導出されなかった場合には、次のフレームの処理に移る。
In step S72, the
ステップS73では、向き導出部14cは、ステップS72で導出されたシャフト52に含まれる全ての点の三次元座標から、シャフト52を代表する点、本実施形態では、重心の三次元座標を算出する。重心の各軸方向の位置は、ステップS72で導出された全ての点の当該軸方向の座標値の平均値として算出することができる。
In step S73, the
続くステップS74では、向き導出部14cは、上述のステップS3〜S7において対象時刻におけるグリップ端51aの三次元座標が導出できているか否かを判断し、抽出できている場合には、ステップS75に進み、導出できていない場合にはステップS76に進む。なお、本ステップの実行時点において対象フレームに対して上述のステップS3〜S7が未実行であれば、本ステップにおいて実行し、グリップ端51aの三次元座標の導出を試みればよい。
In the following step S74, the
ステップS75では、向き導出部14cは、グリップ端51aの三次元座標と、シャフト52の重心の三次元座標とに基づいて、シャフト52の向きを表す三次元ベクトルを導出する。シャフト52の向きは、グリップ端51aからシャフト52の重心に向かう方向、或いはその逆として導出することができる。
In step S75, the
一方、ステップS76では、向き導出部14cは、ステップS72においてシャフト52の三次元座標が所定個数以上(例えば、2点以上)導出されたか否かを判断し、導出されていた場合には、ステップS77に進み、導出されていなかった場合には、次のフレームの処理に移る。ステップS77では、ステップS72で導出されたシャフト52に含まれる全ての点の三次元座標に対して、主成分分析を行う。そして、最大の固有値に対応する固有ベクトル(第1主成分)を、シャフトの52の向きを表す三次元ベクトルとする。
On the other hand, in step S76, the
解析の対象となる全ての時刻に対する以上のステップS71〜S77が完了すると、処理はステップS78に進む。ステップS78では、シャフト52の向きが未だ導出されていない時刻のシャフト52の向きを表す三次元ベクトルを、前後の時刻のシャフト52の向きから計算する。例えば、前後の時刻のシャフト52の向きを表す三次元ベクトルの平均とすることができる。
When the above steps S71 to S77 for all the times to be analyzed are completed, the process proceeds to step S78. In step S78, a three-dimensional vector representing the orientation of the
以上より、解析の対象となる全ての時刻に対するシャフト52の向きが、三次元的に導出される。このようなシャフト52の向きは、例えば、図39に示すように各軸毎にグラフ表示することができるし、図40に示すように、三次元的にグラフ表示することもできる。図40の例では、シャフト52を表す直線に重ねて、グリップ端51aの位置やシャフト52の重心の位置が〇や×の記号で示されている。
From the above, the orientation of the
<1−4.変形例>
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。
<1-4. Modification example>
Although some embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention. For example, the following changes can be made.
<1−4−1>
第1実施形態に係るグリップ挙動導出処理では、IR画像が用いられたが、IR画像に代えてカラー画像を用いることもできる。この場合、距離画像センサには、可視光を受光する可視光受光部(例えば、RGBカメラ)を搭載すればよい。
<1-4-1>
Although the IR image was used in the grip behavior derivation process according to the first embodiment, a color image can be used instead of the IR image. In this case, the distance image sensor may be equipped with a visible light receiving unit (for example, an RGB camera) that receives visible light.
<1−4−2>
深度画像及び/又はスケルトンデータを用いた分析の対象となる部位は、グリップ51や左肩71に限られない。例えば、シャフト、ヘッド、右肩、左腕、右腕等の挙動(三次元座標)を特定することができる。また、このとき、適宜、分析の対象となる部位にマーカーを貼付しておくことができる。
<1-4-2>
The part to be analyzed using the depth image and / or the skeleton data is not limited to the
<1−4−3>
腕水平のタイミングの決定方法は、上述したものに限られない。例えば、腕に直線状の赤外線反射テープを貼付しておき、IR画像から当該反射テープの像を抽出し、当該像が水平となるタイミングを検出してもよい。
<1-4-3>
The method for determining the arm horizontal timing is not limited to the above. For example, a linear infrared reflective tape may be attached to the arm, an image of the reflective tape may be extracted from the IR image, and the timing at which the image becomes horizontal may be detected.
<1−4−4>
ステップS56,S57,S77における主成分分析を用いる処理に代えて、最小二乗法を用いる処理を実行することができる。具体的には、シャフト52の三次元座標の分布から最小二乗法により回帰直線を導出し、これをシャフト52の延びる軸と判断する。そして、この軸の延長線上においてグリップ端51aの位置を探索することができる。
<1-4-4>
Instead of the process using the principal component analysis in steps S56, S57, and S77, the process using the least squares method can be executed. Specifically, a regression line is derived from the distribution of the three-dimensional coordinates of the
<1−4−5>
ステップS22では、グリップ端51aの像を抽出するための二値化のための閾値は、判別分析法により自動的に算出された。しかしながら、当該閾値は、例えば、最大輝度値(限界値)に0〜1の所定の係数を掛けた固定値、例えば、最大輝度値の0.1倍の値とすることができる。この場合、ステップS23は省略することができる。
<1-4-5>
In step S22, the threshold value for binarization for extracting the image of the
対象IRフレーム上においてグリップ端51aのマークとシャフト52のマークとの間隔が狭くなると、グリップ端51aの探索範囲R1内にシャフト52のマークが写り込んでしまう。この場合において、グリップ端51aのマークよりもシャフト52のマークの方が輝度値が高いと、判別分析法を用いて二値化を行うと、グリップ端51aの像が消えてしまう虞がある。従って、たとえグリップ端51aのマークの輝度値が低かったとしてもこれを抽出できるよう、二値化のための閾値を最大輝度値の所定の割合の値に設定することが好ましい。なお、本変形例に係る固定値である閾値は、探索範囲R1内にシャフト52のマークが写り込み易い所定のフェーズにおいてのみ用いられることが好ましい。すなわち、本変形例に係る閾値と、判別分析法等により自動的に設定される閾値とは、スイング動作中のフェーズに応じて適宜切り替えられることが好ましい。このようなフェーズとしては、シャフト8時(テイクバック中であって、正面視においてシャフト52が時計の8時を指す時刻)からテイクバック腕水平までの区間、又はその一部の区間が挙げられる。なお、この区間は、正面に配置されるカメラから見て、グリップ端51aが遠ざかったり、ゴルファーの手の陰に入り易い区間である。
When the distance between the mark of the
<1−4−6>
第1実施形態に係るステップS21では、直前の所定の枚数のフレームにおけるグリップ端51aの移動方向(ベクトルの向き)に基づいて、グリップ端51aの探索範囲R1が設定された。しかしながら、グリップ端51aがゴルファーの身体に隠れる等して対象IRフレームに写りにくいフェーズにおいては、グリップ端51aの正確な位置特定が難しくなる場合がある。すなわち、以上のようなフェーズにおいては、グリップ端51aの位置がシャフト52の像から推定されがちであり、特にこのような事態が続くと、探索範囲R1が実際のグリップ端51aの動きを無視して進んでしまうことがある。そして、このような場合に、特に図41Aに示すように、探索範囲R1内にシャフト52の像が入り込んでしまうと、グリップ端51aの位置の検出の精度が低下し得る。そこで、このような所定のフェーズにおいては、探索範囲R1を所定の限界ラインを越えないように設定することが好ましい。
<1-4-6>
In step S21 according to the first embodiment, the search range R1 of the
以上のようなフェーズの例としては、トップ付近が挙げられる。トップ付近では、グリップ端51aが対象IRフレームに写らない可能性が高く、また、グリップ端51aの動きは停止又はほぼ停止した状態となる。そして、トップ付近では、探索範囲R1の設定位置を制限する限界ラインを、ゴルファーの頭(より詳細には、例えば、頭の頂点)の位置に設定することが好ましい(図41B参照)。トップ付近では、グリップ端51aがゴルファーの頭よりも正面視において右側に進むことは通常ないからである。この場合、グリップ端51aの位置の推定値は、正面視において限界ラインよりも右側に進まない。
An example of the above phases is near the top. In the vicinity of the top, there is a high possibility that the
なお、ゴルファーの頭の位置は、IRフレーム及び/又は深度フレームを画像処理することにより抽出してもよいし、スケルトンデータに基づいて決定してもよい。ゴルファーの頭の位置は、人物領域画像から抽出することができ、例えば、人物領域画像の最上点を、頭の位置と設定することができる。人物領域画像とは、主として人物が写る領域のみを示す画像であり、深度フレームから導出することもできるし、IRフレームから導出することもできる。このような人物領域画像を導出する方法としては、様々なものが公知であるため、ここでは詳細な説明を省略する。また、距離画像センサであるKinect(登録商標)には、深度画像から人物領域画像を読み出すためのライブラリが提供されており、取得部14aは、当該ライブラリを用いて人物領域画像を取得可能である。なお、距離画像センサ2のCPU23が、深度フレームから人物領域画像を導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきた人物領域画像を読み出すだけでよい。
The position of the golfer's head may be extracted by image processing the IR frame and / or the depth frame, or may be determined based on the skeleton data. The position of the golfer's head can be extracted from the person area image, and for example, the highest point of the person area image can be set as the head position. The person area image is an image that mainly shows only the area in which a person appears, and can be derived from a depth frame or an IR frame. Since various methods for deriving such a person area image are known, detailed description thereof will be omitted here. Further, Kinect (registered trademark), which is a distance image sensor, is provided with a library for reading a person area image from a depth image, and the
また、ゴルファーの頭の位置を抽出する基準となる画像は、グリップ端51aの位置を抽出しようとしているタイミングの画像としてもよいし、所定のタイミングでの画像とすることもできる。好ましくは、テイクバック腕水平時の画像とすることができる。図41Cは、テイクバック腕水平時の人物領域画像を示している。このように、頭付近に手等の他の部位が来る可能性の低いタイミングでの画像を用いることで、頭の位置の抽出の精度を向上させることができる。なお、テイクバック腕水平のタイミングの決定方法は、3−2−3に示したとおりである。
Further, the reference image for extracting the position of the golfer's head may be an image at the timing when the position of the
<1−4−7>
第1実施形態では、図3に示すとおり、まず対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標を直接導出するよう試み(ステップS3,S5)、失敗した場合には、対象IRフレームからシャフト52を抽出し、抽出されたシャフト52の位置に基づいてグリップ端51aの三次元座標を導出するように構成されている(例外処理S6)。言い換えると、第1実施形態の処理に含まれるグリップ端51aの三次元座標を導出する処理は、図42で示すような、ステップS101〜S104を含む処理として表現することができる。
<1-4-7>
In the first embodiment, as shown in FIG. 3, an attempt is first made to directly derive the three-dimensional coordinates of the
しかしながら、グリップ端51aの三次元座標を導出する処理は、図43のように構成することもできる。すなわち、まず、前の時刻でIRフレームからグリップ端51aが抽出できたか否かを判定する(ステップS201)。そして、ステップS201で抽出できたと判定された場合には、対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標の導出を試みる(ステップS101)。これ以降のステップは、図42の場合と同様である。一方、S201で抽出できなかったと判定された場合には、ステップS101を実行することなく、すなわち、対象IRフレーム及び対象深度フレームからグリップ端51aの三次元座標の導出を試みることなく、対象IRフレームからのシャフト52の抽出を行う(ステップS103)。そして、抽出されたシャフト52の位置に基づいてグリップ端51aの三次元座標を導出する(ステップS104)。
However, the process of deriving the three-dimensional coordinates of the
図43に係る処理は、図42に係る処理に比べ、以下の点でより優れている。すなわち、前の時刻でIRフレームからグリップ端51aが抽出できておらず、シャフト52の位置からグリップ端51aの位置を推定した場合には、当該位置が一定以上の誤差を含む可能性がある。そして、このような誤差を含むグリップ端51aの位置の情報を用いて、次のフレームに対しステップS101において探索範囲R1が設定されると、上記の誤差が蓄積してゆく虞がある。従って、前のフレームでIRフレームからグリップ端51aが抽出できなかった場合には、探索範囲R1内でグリップ端51aを探索するのではなく、先にシャフト52の位置を特定する。そして、シャフト52の位置に基づいてグリップ端51aの位置を特定するようにすれば、誤差の蓄積を防ぐことができる。
The process according to FIG. 43 is superior to the process according to FIG. 42 in the following points. That is, when the
本変形例に係るステップS103,S104の処理は、上述した例外処理S6と同様に処理することもできるし、変更することも可能である。例えば、上述した例外処理S6と同様の方法でシャフト52の二次元座標に基づいてグリップ端51aの二次元座標を導出した後、当該グリップ端51aの二次元座標を基準として、対象IRフレームに探索範囲R1を設定してもよい。そして、ステップS3と同様に当該探索範囲R1内でさらにグリップ端51aを探索し、その後もステップS3〜S7と同様にグリップ端51aの三次元座標を導出することができる。
The processing of steps S103 and S104 according to this modification can be processed in the same manner as the exception processing S6 described above, or can be changed. For example, after deriving the two-dimensional coordinates of the
<1−4−8>
第1実施形態に係るステップS65では、凸部抽出フィルタを用いて左肩抽出を行った。しかしながら、これに代えて、凸形状テンプレートを用いたテンプレートマッチングにより、左肩の位置を特定することもできる。この凸形状テンプレートを用いたテンプレートマッチングによる方法は、テイクバック腕水平からダウンスイング腕水平まで区間において、特に左肩抽出の精度を高めることができる。
<1-4-8>
In step S65 according to the first embodiment, left shoulder extraction was performed using a convex extraction filter. However, instead of this, the position of the left shoulder can be specified by template matching using a convex template. The method by template matching using this convex template can improve the accuracy of left shoulder extraction especially in the section from the takeback arm horizontal to the downswing arm horizontal.
図44は、凸形状テンプレートの一例である。同図に示すように、凸形状テンプレートは、中央が最も小さく、中央から周辺に向かうにつれて徐々に大きくなるような画素値を有する画像のテンプレートである(中央が最も大きく、中央から周辺に向かうにつれて徐々に小さくなるような画素値を有する画像とすることもできる)。すなわち、このテンプレートを用いてテンプレートマッチングを行えば、中央が突出しており、周辺に向かうにつれて反対側に突出している被写体を捉えた画像を容易に抽出することができる。テンプレートマッチングの処理方法としては様々公知であるが、簡単に説明しておくと、以下の
とおりである。すなわち、深度フレーム内の上述したフィルタの適用範囲内で、凸形状テンプレートを上下に少しずつ(例えば、一画素ずつ)ずらしながら、凸形状テンプレートとこれに重なる深度フレームの部分画像との類似度を計算してゆく。類似度とは、例えば、SAD(各画素値の差の絶対値の合計)である。そして、深度フレーム内において類似度が最も高い(SADであれば、最小となる)領域が、左肩の位置として特定される。
FIG. 44 is an example of a convex template. As shown in the figure, the convex template is an image template having a pixel value that is the smallest in the center and gradually increases from the center to the periphery (the largest in the center and from the center to the periphery). The image may have a pixel value that gradually decreases). That is, if template matching is performed using this template, it is possible to easily extract an image that captures a subject whose center protrudes and which protrudes to the opposite side toward the periphery. Various known methods for processing template matching are known, but a brief description is as follows. That is, within the applicable range of the above-mentioned filter in the depth frame, while shifting the convex template up and down little by little (for example, one pixel at a time), the similarity between the convex template and the partial image of the depth frame overlapping the convex template is adjusted. I will calculate. The similarity is, for example, SAD (the sum of the absolute values of the differences between the pixel values). Then, the region having the highest degree of similarity (minimum in the case of SAD) in the depth frame is specified as the position of the left shoulder.
ところで、上述したとおり、距離画像センサとして汎用のものに、Kinect(登録商標)v1及びv2がある。本変形例に係るテンプレートマッチングは、Kinect(登録商標)v2から出力される深度フレームのような比較的高画質の画像から左肩を抽出する場合に、特に有用である。本変形例に係るテンプレートマッチングは、第1実施形態に係る凸部抽出フィルタを用いた場合に比べ、左肩以外の凹凸、例えば、衣服の凹凸のような細かな凹凸に応答しにくい性質を有するからである。従って、左肩以外の細かな凹凸に応答することによる誤差がより確実に防止される。なお、図45は、Kinect(登録商標)v2から出力された深度フレームに対し、本変形例に係るテンプレートマッチングにより抽出された左肩の位置を示す図である。同図からは、左肩の位置が正しく検出されていることが分かる。 By the way, as described above, Kinect (registered trademark) v1 and v2 are general-purpose distance image sensors. The template matching according to this modification is particularly useful when extracting the left shoulder from a relatively high-quality image such as a depth frame output from Kinect (registered trademark) v2. This is because the template matching according to this modification has a property of being less likely to respond to unevenness other than the left shoulder, for example, fine unevenness such as unevenness of clothes, as compared with the case of using the convex portion extraction filter according to the first embodiment. Is. Therefore, the error caused by responding to fine irregularities other than the left shoulder is more reliably prevented. Note that FIG. 45 is a diagram showing the position of the left shoulder extracted by template matching according to this modification with respect to the depth frame output from Kinect (registered trademark) v2. From the figure, it can be seen that the position of the left shoulder is correctly detected.
<1−4−9>
第1実施形態では、スケルトンデータからの左肩抽出、凸部抽出フィルタによる左肩抽出及び左肩シルエットフィルタによる左肩抽出が、解析の全期間に対して行われた。しかしながら、演算時間の短縮のためには、各々による左肩の位置が最終的に使用される区間に対してのみ、これらの左肩抽出を行うことが好ましい。図46は、かかる処理の一例である。
<1-4-9>
In the first embodiment, left shoulder extraction from the skeleton data, left shoulder extraction by the convex extraction filter, and left shoulder extraction by the left shoulder silhouette filter were performed for the entire period of the analysis. However, in order to shorten the calculation time, it is preferable to perform these left shoulder extractions only for the section in which the position of each left shoulder is finally used. FIG. 46 is an example of such processing.
図46では、まず、位置導出部14bが、アドレス、シャフト8時、トップ、インパクトの時間を特定する。そして、アドレスからインパクトに向かう順に、左肩71の位置を導出してゆく。アドレスからテイクバック腕水平に達するまでは、スケルトンデータから左肩71の位置を導出する。具体的には、アドレスからシャフト8時に達するまでは、スケルトンデータから左肩71の位置を導出する。シャフト8時のタイミングは、シャフト方向導出処理により導出されるシャフト52の向きから決定することができる。シャフト8時以降は、現在時刻の深度フレームの矩形領域R8内において奥行きのデータが存在している画素数をカウントし、所定数(例えば、400ピクセル)以下であればスケルトンデータに基づいて左肩71の位置を決定する。一方、所定数より多ければ、現在時刻をテイクバック腕水平の時刻に決定する。
In FIG. 46, first, the position derivation unit 14b specifies the address, the shaft at 8 o'clock, the top, and the impact time. Then, the position of the
テイクバック腕水平からダウンスイング腕水平に達するまでは、凸部抽出フィルタに基づいて左肩71を導出する。具体的には、テイクバック腕水平からトップに達するまでは、凸部抽出フィルタに基づいて左肩71を導出する。トップ以降は、現在時刻の深度フレームの矩形領域R8内において奥行きのデータが存在している画素数をカウントし、所定数(例えば、400ピクセル)以下であれば凸部抽出フィルタに基づいて左肩71の位置を決定する。一方、所定数より多ければ、現在時刻をダウンスイング腕水平の時刻に決定する。その後、ダウンスイング腕水平からインパクトまでは、左肩シルエットフィルタに基づいて左肩71を導出してゆく。また、凸部抽出フィルタを用いた処理に代えて、変形例1−4−8のテンプレートマッチングを実行してもよい。
From the take-back arm horizontal to the downswing arm horizontal, the
<2.第2実施形態>
<2−1.スイング解析システムの概要>
以下、第2実施形態に係るスイング解析装置201を含むスイング解析システム200について説明する。図47は、スイング解析システム200の平面図である。スイング解析システム200も、ゴルファー7によるゴルフクラブ5のスイング動作を捉えた動画に基づいて、ゴルフスイングを解析するためのシステムであり、第2実施形態でも、当該動画は、距離画像センサ2により撮影される。しかしながら、第1実施形態とは異なり、第2実施形態では、複数の距離画像センサ2が使用され、複数の方向からスイング動作が撮影される。ここでは、図47に示すとおり、2つの距離画像センサ2F,2Sが使用される例が説明されるが、勿論、3つ以上の距離画像センサを用いることも可能である。これにより、スイング動作を多方向から正確に捉えることができる。
<2. Second Embodiment>
<2-1. Overview of swing analysis system>
Hereinafter, the
また、第2実施形態では、距離画像センサ2から出力される深度画像及び二次元画像、並びに深度画像に基づくスケルトンデータに加え、後述する人体のシルエットを表すシルエットデータが解析される。そして、このような様々な種類の情報を、それぞれの利点を活かしつつ適宜組み合わせることにより、スイング解析の精度が向上する。
Further, in the second embodiment, in addition to the depth image and the two-dimensional image output from the
本実施形態では、第1実施形態と同様に、グリップ挙動導出処理、左肩挙動導出処理及びシャフト方向導出処理が実行され、これにより、グリップ端51a及び左肩71の三次元座標、並びにシャフト52の向きを表す三次元ベクトルが導出される。そして、本実施形態では、第1実施形態と同様のこれらの情報の他、左肩71以外のゴルファー7の身体の様々な部位の位置情報に基づいて、スイング動作の良否が判定される。
In the present embodiment, the grip behavior derivation process, the left shoulder behavior derivation process, and the shaft direction derivation process are executed as in the first embodiment, whereby the three-dimensional coordinates of the
以下、簡単のため、第1実施形態との共通点については説明を省略しつつ、主として第2実施形態に特有の特徴について説明する。なお、第1実施形態との共通する要素については、同じ参照符号が付される。 Hereinafter, for the sake of simplicity, the features peculiar to the second embodiment will be mainly described while omitting the description of the common points with the first embodiment. The same reference numerals are given to the elements common to those of the first embodiment.
<2−2.各部の詳細>
以下、図48を参照しつつ、スイング解析システム200の各部の詳細について説明する。
<2-2. Details of each part>
Hereinafter, details of each part of the
<2−2−1.距離画像センサ>
距離画像センサ2F,2Sは、図48に示されるとおり、既に説明した距離画像センサ2と同様の構成を有する。距離画像センサ2Fは、第1実施形態に係る距離画像センサ2と同様に、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。一方、距離画像センサ2Sは、ゴルファー7を右側面側から撮影すべく、ゴルファー7の右方に設置される。
<2-2-1. Distance image sensor>
As shown in FIG. 48, the
また、第2実施形態でも、距離画像センサ2F,2SによりIR画像が撮影されるため、グリップ51及びシャフト52には、赤外線の反射シートがマーカーとして貼付される。
Further, also in the second embodiment, since the IR image is taken by the
<2−2−2.スイング解析装置>
次に、スイング解析装置201について説明する。スイング解析装置201は、図48に示されるとおり、第1実施形態に係るスイング解析装置1と同様のハードウェア構成を有する。しかしながら、第1実施形態と異なる処理が実行されるため、記憶部13内にはスイング解析プログラム3に代えて、スイング解析プログラム203がインストールされている。また、これにより、制御部14は、取得部14a、第1位置導出部14b及び向き導出部14cとして動作する他、第2位置導出部14d及び判定部14eとしても動作する。各部14d,14eの動作の詳細については、後述する。なお、本実施形態においては、第2位置導出部14dとの区別のため、位置導出部14bを第1位置導出部14bと呼ぶ。
<2-2-2. Swing analyzer >
Next, the
なお、スイング解析装置201は、1台のコンピュータから構成することもできるし、複数台のコンピュータから構成することもできる。特に、距離画像センサ2F,2Sの各々に対し、コンピュータを接続する構成とすることもできる。
The
<2−3.スイング解析方法>
以下、スイング解析システム200により実行されるゴルフスイングの解析方法について説明する。本解析方法でも、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2F,2Sにより撮影する。距離画像センサ2F,2Sにより撮影されたIRフレーム及び深度フレームの画像データは、距離画像センサ2F,2Sからスイング解析装置201に送られる。その後、グリップ挙動導出処理、左肩挙動導出処理、及びシャフト方向導出処理が実行される。また、記憶部13内の距離画像センサ2F,2Sからの2系列の画像データ(実際には、各センサから深度フレーム及びIRフレームの2系列の画像データが導出されるため、4系列と言うこともできる)は、取得部14aにより同期が取られる。同期は、様々な方法により実現可能であり、例えば、画像処理により各系統の画像データ内に同じ特徴が現れるタイミングを検出することにより実現することもできるし、距離画像センサ2F,2Sによる撮影を同時にトリガーする別途の装置を利用することもできる。その後、位置導出処理が実行される。位置導出処理では、所定のタイミング(以下、チェックポイント)における左肩71以外のゴルファー7の身体の所定の部位の位置情報が導出される。さらにその後、良否判定処理が実行される。良否判定処理では、グリップ端51aの位置情報、左肩71を含むゴルファー7の身体の所定の部位の位置情報、並びにシャフト52の向きを表す三次元ベクトルに基づいて、スイング動作の良否が判定される。また、位置導出処理の中では、後述するステップS202のキャリブレーションが行われる。以下では、位置導出処理について説明した後、このキャリブレーションに必要なパラメータを設定する処理(キャリブレーションパラメータ設定処理)について説明し、最後に、良否判定処理について説明する。
<2-3. Swing analysis method>
Hereinafter, a golf swing analysis method executed by the
<2−3−1.位置導出処理>
位置導出処理は、上記のとおり、チェックポイントにおける左肩71以外のゴルファー7の身体の所定の部位の位置情報を導出する処理である。図49は、位置導出処理の流れを示すフローチャートである。
<2-3-1. Position derivation process>
As described above, the position derivation process is a process for deriving the position information of a predetermined part of the body of the
まず、ステップS201において、取得部14aが、記憶部13内に格納されている画像データを読み出し、メモリに展開する。そして、第2位置導出部14dが、これらの画像データのうち、解析の対象となるチェックポイントのフレームを決定する。本実施形態に係るチェックポイントは、アドレス、テイクバックシャフト8時、テイクバックシャフト9時、テイクバック腕水平、トップ、ダウンスイング腕水平、ダウンスイングシャフト9時、及びインパクトの8つのタイミングである(図50及び図51参照)。これらのチェックポイントは、スイング動作中にこの順番で現れる。図50及び図51は、それぞれこれらのチェックポイントでのゴルファー7の正面図及び右側面図である。テイクバックシャフト8時及びテイクバックシャフト9時は、それぞれゴルファー7を正面から見て、テイクバック中にシャフト52が概ね時計の8時及び9時の方向を指すタイミングである。ダウンスイングシャフト9時は、ゴルファー7を正面から見て、ダウンスイング中にシャフト52が概ね時計の9時の方向を指すタイミングである。
First, in step S201, the
これらのチェックポイントのフレームは、様々な方法で決定することができる。アドレス、テイクバック腕水平、トップ、ダウンスイング腕水平、インパクトでのフレームは、例えば、既に説明したとおりの方法で決定することができる。テイクバックシャフト8時のフレームは、例えば、アドレスからテイクバック腕水平までの区間で、ゴルファー7の正面から撮影されたIRフレーム(以下、正面IRフレーム)上でグリップ端51aが右足先よりも右側になったフレームを画像処理により特定し、これより1〜3フレーム戻したフレームとして導出することができる。なお、以下では、正面IRフレームと同様に、ゴルファー7の正面からから撮影された深度フレームを、正面深度フレームと呼び、ゴルファー7の右側面から撮影されたIRフレームを、右側面IRフレームと呼び、ゴルファー7の右側面から撮影された深度フレームを、右側面深度フレームと呼ぶ。また、ゴルファー7の正面から撮影されたフレームを正面フレームと呼び、ゴルファー7の右側面から撮影されたフレームを、右側面フレームと呼ぶ。
The frame of these checkpoints can be determined in various ways. The address, takeback arm horizontal, top, downswing arm horizontal, and impact frame can be determined, for example, in the manner already described. The frame at 8 o'clock on the takeback shaft is, for example, the section from the address to the horizontal takeback arm, and the
テイクバックシャフト9時のフレームは、例えば、テイクバックシャフト8時からテイクバック腕水平の区間で、ゴルファー7の正面から見てシャフト52の角度が90°(水平)になったフレームとして導出することができる。ダウンスイングシャフト9時のフレームは、例えば、ダウンスイング腕水平からインパクトまでの区間で、ゴルファー7の正面から見てシャフト52の角度が90°(水平)になったフレームとして導出することができる。このとき、シャフト52の角度は、シャフト方向導出処理により導出されるシャフト52の向きを表す三次元ベクトル又は(IRフレーム由来の)二次元ベクトルを用いて特定することができる。
The frame at 9 o'clock on the takeback shaft is derived as, for example, a frame in which the angle of the
続くステップS202〜S205では、チェックポイントにおけるゴルファー7の身体の様々な部位の位置情報が導出される。ここでは主として、位置情報は、第1平面及び/又は第2平面内での位置情報として導出される。第1平面とは、距離画像センサ2Fの光軸に直交する平面、すなわち、ゴルファー7の腹から背に向かう方向に直交する平面である。第2平面とは、距離画像センサ2Sの光軸に直交する平面、すなわち、飛球線方向に直交する平面である。また、ここでは、位置情報は、既に算出されているグリップ端51aの三次元座標、左肩71の三次元座標及びシャフト52の向きを表す三次元ベクトル、スケルトンデータ、並びにシルエットデータの中から適宜必要なものを用いて算出される。スケルトンデータについては既に述べたが、シルエットデータについては後述する。
In the following steps S202 to S205, the position information of various parts of the body of the
まず、ステップS202では、取得部14aが、記憶部13内に格納されているスイング動作中の各チェックポイントでの正面深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの正面深度フレームから、各チェックポイントでのスケルトンデータを取得する。スケルトンデータの取得の態様は、第1実施形態と同様である。そして、第2位置導出部14dが、正面深度フレームに基づく正面側から見た各チェックポイントでのスケルトンデータを、右側面側から見たスケルトンデータに変換する。これは、以下の問題に対処するためである。すなわち、正面から撮影した深度フレームに基づくスケルトンデータ(より正確には、スケルトンデータに含まれる関節等の注目点の位置情報)は信頼性が高いが、側面から撮影した深度フレームに基づくスケルトンデータは信頼性が低い場合がある。そのため、以下では、右側面深度フレームに基づくスケルトンデータの代わりに、正面深度フレームに基づくスケルトンデータ(以下、正面スケルトンデータ)を変換したスケルトンデータが用いられる。以下、特に断らない限り、右側面スケルトンデータと言うときには、正面スケルトンデータからの変換後のスケルトンデータを意味する。また、ステップS202では、第2位置導出部14dは、右側面スケルトンデータに含まれる関節等の注目点の三次元座標を、第2平面内での二次元座標に変換する。
First, in step S202, the
スケルトンデータの変換は、予め記憶部13内に記憶されているキャリブレーションパラメータに基づいて行われる。スケルトンデータの変換とは、ある三次元空間における三次元座標を、別の定義により設定される三次元空間での三次元座標に変換することを意味する。従って、変換前後の三次元空間の相対的な関係が既知であれば、かかる変換が可能になる。この相対的な関係を示すパラメータが、ここで用いられるキャリブレーションパラメータであり、後述するキャリブレーションパラメータ設定処理の中で設定される。
The conversion of the skeleton data is performed based on the calibration parameters stored in the
続くステップS203では、第2位置導出部14dが、グリップ挙動導出処理、左肩導出処理及びシャフト方向導出処理により導出された正面側から見たグリップ51の三次元座標、左肩71の三次元座標及びシャフト52の向きを表す三次元ベクトルを、それぞれ右側面側から見たデータに変換する。本実施形態では、後述するとおり、右側面側から見た画像データに基づいて、スイング解析が実行されるためである。以下では、特に断らない限り、右側面側から見た画像データの解析について説明している箇所では、ステップS203による変換後のグリップ端51aの位置情報、左肩71の位置情報及びシャフト52の向きが、解析の対象とされる。
In the following step S203, the second
ところで、本実施形態では、グリップ挙動導出処理及びシャフト方向導出処理により導出されたグリップ端51aの位置情報及びシャフト52の向きは、正面からの画像データに基づいて算出されるため、ステップS203での変換後の位置情報及びシャフト52の向きは、誤差が大きくなることがある。このような場合には、グリップ端51aの位置情報及びシャフト52の向きを、右側面からの画像(シルエットデータ、深度フレーム及びIRフレームを含む)に基づいて、画像処理により再導出することができる。また、左肩挙動導出処理により導出された左肩71の位置情報をステップS203により変換したデータについても、誤差が大きくなることがある。このような場合には、左肩71の位置情報を、右側面からの画像(シルエットデータ、深度フレーム及びIRフレームを含む)に基づいて、画像処理により再導出することができる。
By the way, in the present embodiment, the position information of the
続くステップS204,S205では、ステップS201で決定された各チェックポイントにおける所定の部位の位置情報が導出される。ここで導出される位置情報は、良否判定処理の中でスイング動作の良否の判定に用いられる。 In the following steps S204 and S205, the position information of a predetermined portion at each checkpoint determined in step S201 is derived. The position information derived here is used to determine the quality of the swing operation in the quality determination process.
上記のとおり、ステップS204,S205は、各チェックポイントでの所定の部位の位置情報を導出するステップである。このうち、ステップS204では、第1平面内での所定の部位の位置情報が導出され、ステップS205では、第2平面内での所定の部位の位置情報が導出される。本実施形態では、位置情報が導出される部位は、チェックポイントごとに異なる。本実施形態に係るチェックポイントごとの位置情報が導出される部位については、以下にまとめて説明する。ステップS205が終了すると、位置導出処理が終了する。 As described above, steps S204 and S205 are steps for deriving the position information of a predetermined portion at each checkpoint. Of these, in step S204, the position information of the predetermined portion in the first plane is derived, and in step S205, the position information of the predetermined portion in the second plane is derived. In the present embodiment, the part from which the position information is derived differs for each checkpoint. The parts from which the position information for each checkpoint according to the present embodiment is derived will be described below. When step S205 is completed, the position derivation process is completed.
<2−3−1−1.アドレス>
第2位置導出部14dは、スケルトンデータから、アドレス時の第1平面内でのゴルファー7の右肩、肩中心、臍、右足首及び左足首の位置情報を導出する。このとき、アドレス時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1. Address>
The second
また、第2位置導出部14dは、シルエットデータから、アドレス時の第1平面内での左足幅基準位置、右足幅基準位置、臍左位置、臍右位置及び左足踵の位置情報を導出する。ここでの左足幅基準位置及び右足幅基準位置からは、アドレス時のスタンスの幅を特定することができる。ここでの臍左位置及び臍右位置からは、アドレス時の腰の幅を特定することができる。
In addition, the second
ここで、シルエットデータとは、各フレーム上でのゴルファー7のシルエットを示すデータであり、取得部14aにより取得される。より具体的には、取得部14aは、記憶部13内に格納されている深度フレームを読み出し、メモリに展開する。そして、取得部14aは、これらの深度フレームからシルエットデータを取得する。すなわち、ゴルファー7は、距離画像センサ2F,2Sの撮像範囲において比較的手前側に存在するため、深度フレームから浅い深度を表す画素値を有する領域を抽出することにより、人体のシルエットを導出することができる。そのため、より正確には、ここでいうシルエットには、ゴルフクラブ5等のシルエットも含まれる。なお、距離画像センサであるKinect(登録商標)には、深度画像からシルエットデータを読み出すためのライブラリが提供されており、本実施形態では、当該ライブラリを用いて、シルエットデータが取得される。また、シルエットデータは、距離画像センサ2F,2SのCPU23が、深度フレームから導出するようにしてもよい。この場合には、取得部14aは、単に距離画像センサ2から送られてきたシルエットデータを読み出すだけでよい。また、シルエットデータは、深度フレームではなく、IRフレームを画像処理することにより導出することもできる。
Here, the silhouette data is data indicating the silhouette of the
なお、Kinect(登録商標)のライブラリを用いて直接的に抽出されるシルエットデータは、通常、2値化されていない。その場合、取得部14aは、当該シルエットデータを、ゴルファー7(より正確には、ゴルフクラブ5も含まれる)のシルエットのみを1、その他を0と表すように2値化することができる。また、取得部14aは、シルエットデータに対し膨張及び収縮を繰り返すことで、シルエットに分類されている小さなエリアを消去し、より正確なシルエットを取得することができる。また、取得部14aは、ラベリング処理を行うことによっても、シルエットに分類されている小さなエリアを消去することもできる。以下では、このように加工されたシルエットデータも、同様にシルエットデータと呼ぶ。以上のシルエットデータは、正面深度フレーム及び右側面深度フレームのそれぞれから同様の方法で、正面シルエットデータ及び右側面シルエットデータとして導出される。
The silhouette data directly extracted using the Kinect (registered trademark) library is usually not binarized. In that case, the
左足幅基準位置、右足幅基準位置、臍左位置、臍右位置及び左足踵の位置情報の導出方法の説明に戻る。これらの位置情報は、第2位置導出部14dにより、正面シルエットデータを画像処理することにより導出される。図52は、アドレス時の正面シルエットデータに正面スケルトンデータを重ねた画像である。本実施形態では、図52に示されるとおり、正面シルエットデータの画像上において、シルエットの部分を囲む矩形枠L1が設定される。枠L1の左右の境界は、シルエットから所定の間隔をあけるように設定される。また、枠L1の上方の境界は、シルエットに含まれる最上点に一致し、下方の境界は、直線状のシャフト52のシルエットを除いたシルエットの下端に一致する。続いて、正面シルエットデータの画像上において、左右方向に左足首から枠L1の右端まで広がり、上下方向に左足首から枠L1の下端まで広がる枠L2が設定される。さらに、正面シルエットデータの画像上において、左右方向に右足首から枠L1の左端まで広がり、上下方向に右足首から枠L1の下端まで広がる枠L3が設定される。そして、枠L2内で左足首から最も遠いシルエット内の点の左右方向の位置が、左足幅基準位置として特定され、枠L3内で右足首から最も遠いシルエット内の点の左右方向の位置が、右足幅基準位置として特定される。
Return to the description of the method of deriving the position information of the left foot width reference position, the right foot width reference position, the navel left position, the navel right position, and the left heel. These position information are derived by image processing the front silhouette data by the second
また、図52に示されるとおり、アドレス時の正面シルエットデータの画像上において、臍を通る水平な直線上においてシルエット内の左端点が、臍右位置として特定される。また、同直線上においてシルエット内の右端点が、臍左位置として特定される。 Further, as shown in FIG. 52, on the image of the front silhouette data at the time of addressing, the left end point in the silhouette is specified as the right navel position on a horizontal straight line passing through the navel. In addition, the right end point in the silhouette on the same straight line is specified as the left navel position.
左足踵の位置情報は、アドレスから少し進んだ(例えば、1フレーム進んだ)タイミングでの正面シルエットデータの画像から導出される。図53は、当該タイミングでの正面シルエットデータに正面スケルトンデータを重ねた画像である。本実施形態では、図53に示されるとおり、正面シルエットデータの画像上において、上記と同様の矩形枠L1が設定される。続いて、正面シルエットデータの画像上において、左右方向に左足首から枠L1の中央まで広がり、上下方向に左足首から枠L1の下端まで広がる枠L4が設定される。そして、枠L4内で左足首から最も遠いシルエット内の点が、左足踵の位置として特定される。 The position information of the left heel is derived from the image of the front silhouette data at the timing slightly advanced from the address (for example, advanced by one frame). FIG. 53 is an image in which the front skeleton data is superimposed on the front silhouette data at the relevant timing. In the present embodiment, as shown in FIG. 53, a rectangular frame L1 similar to the above is set on the image of the front silhouette data. Subsequently, on the image of the front silhouette data, a frame L4 extending from the left ankle to the center of the frame L1 in the left-right direction and extending from the left ankle to the lower end of the frame L1 in the vertical direction is set. Then, the point in the silhouette farthest from the left ankle in the frame L4 is specified as the position of the left heel.
次に、第2位置導出部14dは、スケルトンデータから、アドレス時の第2平面内でのゴルファー7の右肩、首、腰、左膝、右膝、右足首及び右肘の位置情報を導出する。このとき、アドレス時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
Next, the second
また、第2位置導出部14dは、シルエットデータから、アドレス時の第2平面内での左足先、右足先、左膝頭及び右膝頭の位置情報を導出する。ここで、左足及び右足については、地面からの赤外線データの反射波等がノイズとなり、深度フレームにおいて深度情報が取得されないことがある。この場合、深度フレームに基づくシルエットデータには、左足及び右足のシルエットが現れない。本実施形態では、このような場合に対処すべく、上述のシルエットデータにおいて特定されるシルエットの領域を拡張する、言い換えると、当該シルエットの領域に左足及び右足に対応する領域を補完する処理が行われる。具体的には、第2位置導出部14dは、アドレス時の右側面深度フレーム上で深度情報が欠落している領域の情報に基づいて、左足及び右足に対応する領域を導出する。図54Aは、アドレス時の右側面深度フレームに基づく右側面シルエットデータの画像である。本実施形態では、第2位置導出部14dは、この右側面シルエットデータの画像上において、右足首を基準として右足首周辺に所定のサイズの枠L5を設定する。そして、この枠L5内で、深度情報が0となっている領域を、左足及び右足に対応する領域として抽出する。図54Bは、左足及び右足のシルエットが補完された画像である。第2位置導出部14dは、右足首を基準として右足首周辺に所定のサイズの枠L6を設定し、枠L6内における左足のシルエットの右端点を左足先の位置として特定する。同様に、第2位置導出部14dは、右足首を基準として右足首周辺に所定のサイズの枠L7を設定し、枠L7内における右足のシルエットの右端点を右足先の位置として特定する。
In addition, the second
左膝頭及び右膝頭の位置情報は、正面深度フレーム上で左膝及び右膝の位置を深度方向にオフセットすることで左膝頭及び右膝頭の位置を決定し、これらをステップS202と同じ方法で右側面側から見た位置に変換し、変換後の左膝頭及び右膝頭の位置をシルエットの輪郭方向にオフセットした点の位置情報として特定される。 The position information of the left kneecap and the right kneecap determines the positions of the left kneecap and the right kneecap by offsetting the positions of the left knee and the right knee in the depth direction on the front depth frame, and these are determined on the right side in the same manner as in step S202. It is converted to the position viewed from the surface side, and the positions of the left and right kneecaps after conversion are specified as position information of points offset in the contour direction of the silhouette.
<2−3−1−2.テイクバックシャフト8時>
第2位置導出部14dは、スケルトンデータから、テイクバックシャフト8時の第1平面内でのゴルファー7の右肩及び臍の位置情報を導出する。このとき、テイクバックシャフト8時の正面スケルトンデータに含まれるこれらの部位の2次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-2.
The second
<2−3−1−3.テイクバックシャフト9時>
本実施形態では、テイクバックシャフト9時のタイミングでは、ゴルファー7の部位の位置情報は特定されない。しかしながら、後述するとおり、テイクバックシャフト9時のグリップ端51aの位置情報に基づいて、テイクバックシャフト9時のタイミングでのスイング動作の良否が判断される。
<2-3-1-3.
In the present embodiment, the position information of the
<2−3−1−4.テイクバック腕水平>
第2位置導出部14dは、スケルトンデータから、テイクバック腕水平時の第2平面内でのゴルファー7の首及び腰の位置情報を導出する。このとき、テイクバック腕水平時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-4. Takeback arm horizontal >
The second
<2−3−1−5.トップ>
第2位置導出部14dは、スケルトンデータから、トップ時の第1平面内でのゴルファー7の頭、臍、左膝及び右膝の位置情報を導出する。このとき、トップ時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1-5. Top >
The second
また、第2位置導出部14dは、シルエットデータから、トップ時の第1平面内での臍右位置の位置情報を導出する。ここでの臍右位置の導出方法は、アドレス時の正面シルエットデータの画像に代えて、インパクト時の正面シルエットデータの画像を用いる点を除き、アドレス時と同様である。
Further, the second
次に、第2位置導出部14dは、スケルトンデータから、トップ時の第2平面内でのゴルファー7の左膝、右膝、首及び腰の位置情報を導出する。このとき、トップ時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
Next, the second
また、第2位置導出部14dは、シルエットデータから、トップ時の第2平面内でのゴルファー7の左肩71、左膝頭、右膝頭、左肘及び右肘の位置情報を導出する。左肩71の位置情報の導出には、既に導出されている左肩71の二次元座標が使用される。図55は、トップ時の右側面シルエットデータの画像である。具体的には、本実施形態では、図55に示すとおり、トップ時の右側面シルエットデータの画像上において、既に抽出されている左肩71の位置を、左方向に向かってシルエットの輪郭に重なるように移動させ、当該移動後の位置を新たな左肩の位置とする。
Further, the second
また、右膝頭の位置情報は、アドレス時と同様の方法で導出される。一方、左膝頭の位置情報は、以下の方法で導出される。まず、右側面シルエットデータの画像上において、既に抽出されている左膝の位置を基準としてその周辺に所定サイズの枠L10(図55参照)が設定される。続いて、枠L10内に含まれるシルエットの輪郭の曲率が算出され、曲率が最大となっている点が新たな左膝頭の位置として特定される。 Further, the position information of the right kneecap is derived by the same method as at the time of addressing. On the other hand, the position information of the left kneecap is derived by the following method. First, on the image of the silhouette data of the right side surface, a frame L10 (see FIG. 55) having a predetermined size is set around the position of the left knee that has already been extracted. Subsequently, the curvature of the contour of the silhouette included in the frame L10 is calculated, and the point where the curvature is maximum is specified as the position of the new left kneecap.
右肘の位置情報も、シルエットの曲率に基づいて導出される。より具体的には、右側面シルエットデータの画像上において、グリップ端51aの位置を基準としてその周辺に所定サイズの枠L11(図55参照)が設定される。続いて、枠L11内に含まれるシルエットの輪郭の曲率が算出され、曲率が最大となっている点が新たな右肘の位置として特定される。
The position information of the right elbow is also derived based on the curvature of the silhouette. More specifically, on the image of the silhouette data of the right side surface, a frame L11 (see FIG. 55) having a predetermined size is set around the position of the
左肘の位置情報は、以下の方法で導出される。まず、再抽出された左肩71の位置とグリップ端51aとの中点を仮左肘とする。次に、仮左肘の位置を基準としてその周辺に所定サイズの枠L12(図55参照)を設定し、右側面深度フレームに基づいて、枠L12内で左肩71よりも深度の浅い点、言い換えると、距離画像センサ2Fを基準として手前側に突出している点を、左肘の位置として特定する。
The position information of the left elbow is derived by the following method. First, the midpoint between the position of the re-extracted
<2−3−1−6.ダウンスイング腕水平>
第2位置導出部14dは、スケルトンデータから、ダウンスイング腕水平時の第1平面内でのゴルファー7の左膝の位置情報を導出する。このとき、ダウンスイング腕水平時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-1-6. Downswing arm horizontal>
The second
次に、第2位置導出部14dは、スケルトンデータから、ダウンスイング腕水平時の第2平面内でのゴルファー7の首及び腰の位置情報を導出する。このとき、ダウンスイング腕水平時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
Next, the second
<2−3−1−7.ダウンスイングシャフト9時>
第2位置導出部14dは、シルエットデータから、ダウンスイングシャフト9時の第1平面内での手の位置情報を導出する。本実施形態では、手の位置は、ダウンスイングシャフト9時の正面シルエットデータの画像上において、グリップ端51aからシャフト52の延びる方向に沿ってヘッド側に所定の長さだけ移動した位置として特定される。
<2-3-1-1-7.
The second
<2−3−1−8.インパクト>
第2位置導出部14dは、スケルトンデータから、インパクト時の第1平面内でのゴルファー7の頭、肩中心、右肩、左肘及び臍の位置情報を導出する。このとき、インパクト時の正面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
<2-3-1-8. Impact >
The second
また、第2位置導出部14dは、シルエットデータから、インパクト時の第1平面内での臍左位置及び臍右位置の位置情報を導出する。ここでの臍左位置及び臍右位置からは、インパクト時の腰の幅を特定することができる。また、ここでの臍左位置及び臍右位置の導出方法は、アドレス時の正面シルエットデータの画像に代えて、インパクト時の正面シルエットデータの画像を用いる点を除き、アドレス時と同様である。なお、インパクト時の正面シルエットデータの画像上においては、腕が臍左位置に重なってしまう傾向にあるため、臍左位置を特定するときには、インパクトから所定の時間溯った(例えば、2フレーム前の)画像上で同様の処理を行うことが好ましい。
Further, the second
次に、第2位置導出部14dは、スケルトンデータから、インパクト時の第2平面内でのゴルファー7の首、腰、右膝及び右足首の位置情報を導出する。このとき、インパクト時の右側面スケルトンデータに含まれるこれらの部位の二次元座標が抽出され、当該二次元座標がそのままこれらの部位の位置情報とされる。
Next, the second
<2−3−2.キャリブレーションパラメータ設定処理>
次に、キャリブレーションパラメータ設定処理について説明する。まず、ゴルファー7が立つ位置の近傍に、スタンド等を介して赤外線を反射する1又は複数のマークを配置する。このマークは、距離画像センサ2F,2Sの両方から撮影可能な位置に配置される。そして、このマークを距離画像センサ2F,2Sにより撮影し、このマークの三次元座標を取得する。ここで、距離画像センサ2Fにより撮影されたマークの三次元座標を(FXi,FYi,FZi)と表し、距離画像センサ2Sにより撮影された同じ位置のマークの三次元座標を(SXi,SYi,SZi)と表す。ただし、i=1,2,・・・,n(n≧2)である。ここでは、マークを移動させる等して、n組のデータセット(FXi,FYi,FZi,SXi,SYi,SZi)を用意する。
<2-3-2. Calibration parameter setting process>
Next, the calibration parameter setting process will be described. First, one or a plurality of marks that reflect infrared rays via a stand or the like are arranged in the vicinity of the position where the
このとき、距離画像センサ2Fの三次元座標を、距離画像センサ2Sの三次元座標へと変換するための変換係数a〜lは、以下の式を満たす。
以上の式に、n組のデータセット(FXi,FYi,FZi,SXi,SYi,SZi)を代入することにより、変換係数a〜lが算出される。この変換係数a〜lが、キャリブレーションパラメータである。なお、キャリブレーションパラメータは、他の方法でも当然に算出可能である。 By substituting n sets of data sets (FXi, FYi, FZi, SXi, SYi, SZi) into the above equation, the conversion coefficients a to l are calculated. The conversion coefficients a to l are calibration parameters. The calibration parameters can be calculated by other methods as a matter of course.
<2−3−3.良否判定処理>
次に、スイング動作の良否の判定を行う良否判定処理について説明する。良否判定処理は、判定部14eにより実行される。
<2-3-3. Pass / fail judgment process>
Next, the quality determination process for determining the quality of the swing operation will be described. The pass / fail determination process is executed by the
良否判定処理は、ゴルファー7の様々な部位(左肩71を含む)の位置情報、グリップ端51aの位置情報、及びシャフト52の向きの情報に基づいて、実行される。具体的には、判定部14eは、これらの情報に基づいて、スイング動作の良否の判定を行うための指標値を算出する。指標値としては、様々なものがあり、チェックポイントごとに設定されている。本実施形態では、例えば、以下のような指標値が算出される。以下は、正面の解析を行うための指標値と、右側面の解析を行うための指標値とに分けて列挙している。
The pass / fail determination process is executed based on the position information of various parts (including the left shoulder 71) of the
(アドレス時の指標値−正面)
ボール位置(原点)に対する左足踵の位置、肩幅に対するスタンスの広さ、上半身のバランス、下半身のバランス
なお、肩幅に対するスタンスの広さは、右肩、左肩、左足幅基準位置及び右足幅基準位置の位置情報から、上半身のバランスは、左肩、右肩、左足幅基準位置及び右足幅基準位置の位置情報から、下半身のバランスは、臍左位置、臍右位置、左足幅基準位置及び右足幅基準位置の位置情報から導出することができる。
(Indicator value at address-front)
The position of the left heel with respect to the ball position (origin), the width of the stance with respect to the shoulder width, the balance of the upper body, the balance of the lower body. From the position information, the balance of the upper body is the left shoulder, the right shoulder, the left foot width reference position and the right foot width reference position. It can be derived from the position information of.
(アドレス時の指標値−右側面)
バランスポイントラインに対する右肩の位置、バランスポイントラインに対する右膝の位置、スパインアングル
なお、右肩の位置は、右肩及び右足先の位置情報から、右膝の位置は、右膝頭及び右足先の位置情報から、スパインアングルは、首及び腰の位置から導出することができる。なお、バランスポイントラインとは、右側面フレーム上において右足先の位置から縦方向に引いたラインのことである。
(Index value at address-right side)
The position of the right shoulder with respect to the balance point line, the position of the right knee with respect to the balance point line, and the spine angle. From the position information, the spine angle can be derived from the positions of the neck and waist. The balance point line is a line drawn in the vertical direction from the position of the right foot on the right side frame.
(テイクバックシャフト8時の指標値−正面)
グリップ端51aの向き(臍に向かっているか)、理想シャフトラインとの角度差、アドレスからの右肩移動量
なお、グリップ端51aの向きは、グリップ端51aの位置情報、シャフト52aの向き及びアドレス時の臍の位置情報から、理想シャフトラインとの角度差は、シャフト52の角度及び所定の理想角度から、アドレスからの右肩移動量は、右肩の位置情報及びアドレス時の右肩の位置情報から導出することができる。
(Indicator value at 8 o'clock on takeback shaft-front)
The orientation of the
(テイクバックシャフト9時の指標値−正面)
アドレス時の基準軸に対するグリップ端51aの位置
なお、本指標値は、グリップ端51aの位置情報、並びにアドレス時の右肩及び肩中心から導出することができる。
(Indicator value at 9 o'clock on takeback shaft-front)
Position of
(テイクバック腕水平の指標値−正面)
リストコックの角度、両肘の高さの差、アドレスからの左肩移動量
なお、リストコックの角度は、シャフト52の向きから、アドレスからの左肩移動量は、テイクバック腕水平及びアドレス時の左肩の位置情報から導出することができる。
(Takeback arm horizontal index value-front)
Wristcock angle, difference in height between both elbows, left shoulder movement from address Note that the wristcock angle is from the direction of the
両肘の高さの差は、例えば、以下のとおり導出することができる。図56は、テイクバック腕水平時の正面シルエットデータの画像を示している。ここでは、まず、上述した枠L1の他、グリップ端51a及び左肩71の位置を基準として図56に示すような枠L8,L9が設定される。次に、テイクバック腕水平時の正面シルエットデータの画像上において、図56に示す2つの参照点が特定され、これらの参照点間の幅が指標値として導出される。そして、当該指標値が所定値よりも大きい場合には、テイクバック腕水平時の正面シルエットデータの画像上において、参照点を結ぶ線分が特定される。続いて、テイクバック腕水平時の正面深度フレームから、当該線分上の深度情報が導出される。そして、枠L8内に含まれる当該線分上の点の深度情報に基づく深度と、枠L9内に含まれる当該線分上の点の深度情報に基づく深度との差が指標値として導出され、当該指標値の大小に応じて、左肘と右肘のどちらが高いかが判定される。
The difference in height between the elbows can be derived, for example, as follows. FIG. 56 shows an image of the front silhouette data when the takeback arm is horizontal. Here, first, in addition to the above-mentioned frame L1, frames L8 and L9 as shown in FIG. 56 are set with reference to the positions of the
(テイクバック腕水平の指標値−右側面)
アドレスを基準とするスパインアングル
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから導出することができる。
(Takeback arm horizontal index value-right side)
Spine angle based on the address The spine angle can be derived from the position information of the neck and waist and the spine angle at the time of addressing.
(トップの指標値−正面)
オーバースイング、上半身の反り、アドレスからの左右移動量、アドレスを基準とする右膝の位置、アドレスを基準とする頭の位置、アドレスを基準とする左肩の位置
なお、オーバースイングは、シャフト52の角度から、上半身の反りは、頭及び臍の位置情報から、左右移動量は、臍右位置及び臍位置の位置情報並びにアドレス時の右足幅基準位置及び臍の位置情報から、右膝の位置は、右膝の位置情報及びアドレス時の右足幅基準位置の位置情報から、頭の位置は、頭の位置及びアドレス時の右足幅基準位置の位置から、上記左肩の位置は、左肩の位置情報並びにアドレス時の左肩及び肩中心の位置情報から導出することができる。
(Top index value-front)
Overswing, warp of the upper body, amount of left and right movement from the address, position of the right knee based on the address, position of the head based on the address, position of the left shoulder based on the address Note that the overswing is the position of the
(トップの指標値−右側面)
アドレスからの右膝の移動量、アドレスからの左膝の移動量、アドレスを基準とする手首の位置、両肘の高さ、アドレスを基準とするスパインアングル
なお、右膝の移動量は、右膝頭及びアドレス時の右膝頭の位置情報から、左膝の移動量は、左膝頭及びアドレス時の左膝頭の位置情報から、手首の位置は、首及びグリップ端51aの位置情報並びにアドレス時の右肘及びボール(原点)の位置情報から、両肘の高さは、左肘及び右肘の位置情報から、スパインアングルは、首及び腰の位置情報並びにアドレス時のスパインアングルから導出することができる。
(Top index value-right side)
The amount of movement of the right knee from the address, the amount of movement of the left knee from the address, the position of the wrist based on the address, the height of both elbows, the spine angle based on the address The amount of movement of the right knee is the right From the position information of the right kneecap at the time of address and the kneecap, the amount of movement of the left knee is from the position information of the left kneecap and the left kneecap at the time of address, and the position of the wrist is the position information of the neck and
(ダウンスイング腕水平の指標値−正面)
リストコックの角度、アドレス時の左足幅基準位置に対する左膝の位置
なお、リストコックの角度は、シャフト52の向きから、左膝の位置は、左膝の位置情報及びアドレス時の左足幅基準位置の位置情報から導出することができる。
(Downswing arm horizontal index value-front)
Wristcock angle, left knee position with respect to left foot width reference position at address Note that the wristcock angle is from the direction of the
(ダウンスイング腕水平の指標値−右側面)
アドレスを基準とするスパインアングル
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから導出することができる。
(Downswing arm horizontal index value-right side)
Spine angle based on the address The spine angle can be derived from the position information of the neck and waist and the spine angle at the time of addressing.
(ダウンスイングシャフト9時の指標値−正面)
リストコックの角度の変化、アドレス時の基準軸に対するグリップ端51aの位置
なお、リストコックの角度の変化は、シャフト52の向き、左肩の位置情報及びグリップ端51aの位置情報、並びにダウンスイング腕水平時のシャフト52の向きから、グリップ端51aの位置は、グリップ端51aの位置情報並びにアドレス時の右肩及び肩中心の位置情報から導出することができる。
(Index value at 9 o'clock on the downswing shaft-front)
Changes in the angle of the wrist cock, the position of the
(インパクトの指標値−正面)
左右移動量、上下移動量、頭の位置、肩の回転量、スパインの傾き、左肘の引け、アドレス時の基準軸に対するグリップ端51aの位置
なお、左右移動量は、臍の位置情報並びにアドレス時の左肩、右肩及び肩中心の位置情報から、上下移動量は、アドレス時及びインパクト時の臍の位置情報から、頭の位置は、頭の位置情報並びにアドレス時の左肩及び肩中心の位置情報から、肩の回転量は、左肩及び右肩の位置情報並びにアドレス時の左肩及び右肩の位置情報から、スパインの傾きは、臍及び肩中心の位置情報から、左肘の引けは、左肘、左肩及びグリップ端51aの位置情報から、グリップ端51aの位置は、グリップ端51aの位置情報並びにアドレス時の左肩及び肩中心の位置情報から導出することができる。
(Impact index value-front)
Left / right movement amount, up / down movement amount, head position, shoulder rotation amount, spine inclination, left elbow closing, position of
(インパクトの指標値−右側面)
アドレスを基準とするスパインアングル、アドレスを基準とする膝の角度
なお、スパインアングルは、首及び腰の位置情報、並びにアドレス時のスパインアングルから、膝の角度は、腰、右膝及び右足首の位置情報、並びにアドレス時の腰、右膝及び右足首の位置情報から導出することができる。
(Impact index value-right side)
Address-based spine angle, address-based knee angle Note that the spine angle is based on the position information of the neck and waist, and the spine angle at the time of addressing, and the knee angle is the position of the waist, right knee, and right ankle. It can be derived from the information and the position information of the waist, right knee and right ankle at the time of addressing.
本実施形態では、以上のような指標値の正解データ(スイング動作が良好と判定されるときの指標値の範囲)が、記憶部13内に予め設定されている。判定部12eは、この正解データと、算出された指標値とを比較することにより、各指標値についてスイング動作の良否を判定する。また、各指標値についての判定結果にポイントを付与しこれを加算する等して、スイング動作の良否を総合評価することもできる。判定結果は、適宜、表示部11上に表示される。例えば、報告書の形式で、各指標値についての判定結果の一覧及び総合評価を表示することができる。
In the present embodiment, the correct answer data of the index value as described above (the range of the index value when the swing operation is determined to be good) is set in advance in the
1 スイング解析装置
2 距離画像センサ
3 スイング解析プログラム
5 ゴルフクラブ
7 ゴルファー
14a 取得部
14b 位置導出部(導出部)
14c 向き導出部(導出部)
51 グリップ
52 シャフト
71 左肩
100 スイング解析システム
1
14c direction derivation part (derivation part)
51
Claims (38)
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得する取得部と、
前記二次元画像を画像処理することにより、前記スイング動作中の前記ゴルフクラブの所定の部位の追跡目標の二次元座標を特定するとともに、前記深度画像に基づいて、前記所定の部位の追跡目標の奥行きを特定することにより、前記所定の部位の追跡目標の三次元座標を導出する導出部と
を備える、
スイング解析装置。 A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image and a two-dimensional image obtained by capturing the swing motion with a distance image sensor, and
By image processing the two-dimensional image, the two-dimensional coordinates of the tracking target of the predetermined part of the golf club during the swing operation are specified, and the tracking target of the predetermined part is determined based on the depth image . A derivation unit for deriving the three-dimensional coordinates of the tracking target of the predetermined part by specifying the depth is provided.
Swing analyzer.
請求項1に記載のスイング解析装置。 The derivation unit sets a search range on the two-dimensional image at the first time based on the two-dimensional coordinates of the predetermined part at the second time before the first time, and sets the search range. Search for the two-dimensional coordinates of the predetermined part within.
The swing analysis device according to claim 1.
請求項2に記載のスイング解析装置。 In the phase near the top during the swing operation, the derivation unit limits the set position of the search range with reference to the position of the golfer's head.
The swing analysis device according to claim 2.
請求項1から3のいずれかに記載のスイング解析装置。 The predetermined portion is a grip of the golf club.
The swing analysis apparatus according to any one of claims 1 to 3.
前記導出部は、前記二次元画像に基づいて、前記ゴルフクラブのシャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの二次元座標を特定する、
請求項1から3のいずれかに記載のスイング解析装置。 The predetermined portion is a grip of the golf club.
The derivation unit specifies the two-dimensional coordinates of the shaft of the golf club based on the two-dimensional image, and specifies the two-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
The swing analysis apparatus according to any one of claims 1 to 3.
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得する取得部と、
前記二次元画像を画像処理することにより、前記ゴルフクラブのシャフトの追跡目標の二次元座標を特定し、前記深度画像に基づいて、前記シャフトの追跡目標の二次元座標での奥行きを特定することにより、前記シャフトの追跡目標の三次元座標を導出し、前記シャフトの追跡目標の三次元座標の分布傾向に基づいて、所定の部位の三次元座標を特定する導出部と
を備え、
前記所定の部位は、前記ゴルフクラブのグリップである、
スイング解析装置。 A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image and a two-dimensional image obtained by capturing the swing motion with a distance image sensor, and
By image processing the two-dimensional image, the identified two-dimensional coordinates of the tracking target of the golf club shaft, based on the depth image, identifies the depth of the two-dimensional coordinates of the tracking target of the shaft To derive the three-dimensional coordinates of the tracking target of the shaft, and to specify the three-dimensional coordinates of a predetermined part based on the distribution tendency of the three-dimensional coordinates of the tracking target of the shaft.
The predetermined portion is a grip of the golf club.
Swing analyzer.
前記導出部は、アドレス付近での前記二次元画像に基づいて、前記シャフトの二次元座標を特定し、前記シャフトの二次元座標に基づいて、前記グリップの三次元座標を特定する、
請求項5又は6に記載のスイング解析装置。 The two-dimensional image and the depth image are information obtained by capturing the swing motion from the front of the golfer by the distance image sensor.
The derivation unit specifies the two-dimensional coordinates of the shaft based on the two-dimensional image near the address, and specifies the three-dimensional coordinates of the grip based on the two-dimensional coordinates of the shaft.
The swing analysis device according to claim 5 or 6.
請求項1〜7のいずれに記載のスイング解析装置。 The derivation unit binarizes the two-dimensional image while switching the threshold value between automatic and fixed according to the phase of the swing operation.
The swing analysis device according to any one of claims 1 to 7.
前記導出部は、第1時刻での前記二次元画像から前記ゴルフクラブのグリップの位置が抽出できない場合には、前記第1時刻の直後の第2時刻での前記二次元画像から前記ゴルフクラブのシャフトの位置を特定し、当該シャフトの位置に基づいて当該第2時刻における前記グリップの位置を特定する、
請求項1に記載のスイング解析装置。 The acquisition unit further acquires a time-series two-dimensional image from the distance image sensor.
When the position of the grip of the golf club cannot be extracted from the two-dimensional image at the first time, the derivation unit of the golf club from the two-dimensional image at the second time immediately after the first time. The position of the shaft is specified, and the position of the grip at the second time is specified based on the position of the shaft.
The swing analysis device according to claim 1.
前記スイング動作を距離画像センサにより前記ゴルファーの正面側から撮影した深度画像を取得する取得部と、
前記深度画像を奥行の値により二値化した二値化画像を生成するとともに、前記深度画像を前記二値化画像によりマスキングし、1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記マスキングした深度画像をフィルタリングし、フィルタリング後の前記深度画像から前記スイング動作中の所定の部位の二次元座標を導出し、フィルタリング前の前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記スイング動作中の前記所定の部位の三次元座標を導出する導出部と、
を備え、
前記所定の部位は、前記ゴルファーの肩である、
スイング解析装置。 A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion taken from the front side of the golfer by a distance image sensor.
A binarized image obtained by binarizing the depth image with a depth value is generated, and the depth image is masked with the binarized image to emphasize the vicinity of one corner and suppress the vicinity of the other corners. The masked depth image is filtered by the silhouette filter, the two-dimensional coordinates of the predetermined portion during the swing operation are derived from the filtered depth image, and the predetermined portion is based on the depth image before filtering. A derivation unit that derives the three-dimensional coordinates of the predetermined part during the swing operation by specifying the depth of the
With
The predetermined part is the shoulder of the golfer.
Swing analyzer.
前記導出部は、前記深度画像及び前記スケルトンデータに基づいて、前記肩の三次元座標を導出する、
請求項10に記載のスイング解析装置。 The acquisition unit further acquires skeleton data representing the skeleton of the human body.
The derivation unit derives the three-dimensional coordinates of the shoulder based on the depth image and the skeleton data.
The swing analysis device according to claim 10.
請求項10又は11に記載のスイング解析装置。 The derivation unit derives the three-dimensional coordinates of the shoulder by filtering the depth image with a convex extraction filter that emphasizes the central portion and suppresses the peripheral portion.
The swing analysis device according to claim 10 or 11.
請求項10又は11に記載のスイング解析装置。 The derivation unit derives the three-dimensional coordinates of the shoulder by performing template matching on the depth image using a convex image template.
The swing analysis device according to claim 10 or 11.
請求項11に記載のスイング解析装置。 The derivation unit derives the three-dimensional coordinates of the shoulder based on the skeleton data in at least a part of the section from the address to the takeback arm horizontal.
The swing analysis device according to claim 11.
請求項12に記載のスイング解析装置。 The derivation unit derives the three-dimensional coordinates of the shoulder by filtering with the convex portion extraction filter in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal.
The swing analysis device according to claim 12.
請求項13に記載のスイング解析装置。 The derivation unit derives the three-dimensional coordinates of the shoulder by performing template matching using the convex image template in at least a part of the section from the takeback arm horizontal to the downswing arm horizontal.
The swing analysis device according to claim 13.
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記スイング動作中の所定の部位の三次元座標を導出する導出部と、
を備え、
前記所定の部位は、前記ゴルファーの肩であり、
前記導出部は、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出する、
スイング解析装置。 A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion captured by a distance image sensor, and
A derivation unit that derives the three-dimensional coordinates of a predetermined part during the swing operation by filtering the depth image with a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner.
With
The predetermined part is the shoulder of the golfer.
The derivation unit derives the three-dimensional coordinates of the shoulder by filtering with the shoulder silhouette filter in at least a part of the section from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish.
Swing analyzer.
請求項10から17のいずれかに記載のスイング解析装置。 The derivation unit sets a search range on the depth image at the first time with reference to the two-dimensional coordinates of the shoulder at the first time or the second time before the first time. Perform the filtering within the search range.
The swing analysis device according to any one of claims 10 to 17.
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の三次元座標を導出し、予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行う導出部と
を備え、
前記重回帰式は、前記キャリブレーション後の3方向の座標の各々が、前記キャリブレーション前の3方向の座標を全て説明変数とする重回帰式である、
スイング解析装置。 A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion captured by a distance image sensor, and
Based on the depth image, the three-dimensional coordinates of the predetermined part of the golf club or the golfer during the swing operation are derived, and the three-dimensional of the predetermined part is expressed in a predetermined multiple regression equation having a predetermined coefficient. It is equipped with a derivation unit that performs calibration by substituting coordinates.
The multiple regression equation is a multiple regression equation in which each of the coordinates in the three directions after the calibration uses all the coordinates in the three directions before the calibration as explanatory variables.
Swing analyzer.
請求項1から19のいずれかに記載のスイング解析装置。 The acquisition unit acquires the depth image obtained by capturing the swing motion from at least the first direction and the second direction by the plurality of distance image sensors.
The swing analysis apparatus according to any one of claims 1 to 19.
前記導出部は、前記第1方向からの前記スケルトンデータを前記第2方向からの前記スケルトンデータに変換し、前記第2方向からの前記スケルトンデータに基づいて、前記所定の部位の位置情報を導出する、
請求項20に記載のスイング解析装置。 The acquisition unit further acquires skeleton data representing the skeleton of the human body based on the depth image from at least the first direction.
The derivation unit converts the skeleton data from the first direction into the skeleton data from the second direction, and derives the position information of the predetermined portion based on the skeleton data from the second direction. do,
The swing analysis device according to claim 20.
請求項20又は21に記載のスイング解析装置。 The first direction is a direction toward the front of the golfer, and the second direction is a direction toward the side surface of the golfer.
The swing analysis device according to claim 20 or 21.
前記スイング動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報を導出する導出部と
を備え、
前記取得部は、前記深度画像に基づく人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出し、
前記取得部は、人体のシルエットを表すシルエットデータをさらに取得し、
前記導出部は、前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出する、
スイング解析装置。 A swing analysis device for analyzing the swing motion of a golf club by a golfer.
An acquisition unit that acquires a depth image of the swing motion captured by a distance image sensor, and
A derivation unit for deriving position information of a predetermined portion of the golf club or the golfer during the swing operation based on the depth image is provided.
The acquisition unit further acquires skeleton data representing the skeleton of the human body based on the depth image.
The derivation unit derives the position information of the first part included in the predetermined part based on the skeleton data, and derives the position information.
The acquisition unit further acquires silhouette data representing the silhouette of the human body, and obtains the silhouette data.
Based on the skeleton data and the silhouette data, the derivation unit derives the position information of the second part included in the predetermined part and different from the first part.
Swing analyzer.
請求項23に記載のスイング解析装置。 The derivation unit expands the area for copying the silhouette specified in the silhouette data based on the information of the area for which the depth information is not obtained in the depth image.
The swing analysis device according to claim 23.
請求項1から24のいずれかに記載のスイング解析装置。 In the depth image from the right side of the golfer at the top timing, the lead-out unit derives a portion protruding toward the front side as the left elbow of the golfer.
The swing analysis apparatus according to any one of claims 1 to 24.
をさらに備える、
請求項1から25のいずれかに記載のスイング解析装置。 A determination unit for determining the quality of the swing operation is further provided by comparing an index value calculated based on the position information of the predetermined portion at a predetermined timing with predetermined correct answer data.
The swing analysis apparatus according to any one of claims 1 to 25.
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記スイング動作中の前記ゴルフクラブの所定の部位の追跡目標の二次元座標を特定するステップと、
前記深度画像に基づいて、前記所定の部位の追跡目標の奥行きを特定することにより、前記所定の部位の追跡目標の三次元座標を導出するステップと
を備える、
スイング解析方法。 A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By performing image processing on the two-dimensional image, a step of specifying the two-dimensional coordinates of a tracking target of a predetermined portion of the golf club during the swing operation, and a step of specifying the two-dimensional coordinates.
Based on the depth image, by specifying the depth of the tracking target of the predetermined portion, and a step of deriving three-dimensional coordinates of the tracking target of the predetermined portion,
Swing analysis method.
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記ゴルフクラブのシャフトの追跡目標の二次元座標を特定し、前記深度画像に基づいて、前記シャフトの追跡目標の二次元座標での奥行きを特定することにより、前記シャフトの追跡目標の三次元座標を導出するステップと、
前記シャフトの追跡目標の三次元座標の分布傾向に基づいて、所定の部位の三次元座標を特定するステップと
を備え、
前記所定の部位は、前記ゴルフクラブのグリップである、
スイング解析方法。 A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By image processing the two-dimensional image, the identified two-dimensional coordinates of the tracking target of the golf club shaft, based on the depth image, identifies the depth of the two-dimensional coordinates of the tracking target of the shaft To derive the three-dimensional coordinates of the tracking target of the shaft,
A step of specifying the three-dimensional coordinates of a predetermined part based on the distribution tendency of the three-dimensional coordinates of the tracking target of the shaft is provided.
The predetermined portion is a grip of the golf club.
Swing analysis method.
前記スイング動作を距離画像センサにより前記ゴルファーの正面側から撮影した深度画像を取得するステップと、
前記深度画像を奥行の値により二値化した二値化画像を生成するとともに、前記深度画像を前記二値化画像によりマスキングするステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記マスキングされた深度画像をフィルタリングし、フィルタリング後の前記深度画像から前記スイング動作中の所定の部位の二次元座標を導出し、フィルタリング前の前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記スイング動作中の前記所定の部位の三次元座標を導出するステップと
を備え、
前記所定の部位は、前記ゴルファーの肩である、
スイング解析方法。 A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken from the front side of the golfer by a distance image sensor, and
A step of generating a binarized image obtained by binarizing the depth image with a depth value and masking the depth image with the binarized image.
The masked depth image is filtered by a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner, and the two-dimensional coordinates of the predetermined portion during the swing operation are obtained from the filtered depth image. A step of deriving and deriving the three-dimensional coordinates of the predetermined part during the swing operation by specifying the depth of the predetermined part based on the depth image before filtering is provided.
The predetermined part is the shoulder of the golfer.
Swing analysis method.
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の三次元座標を導出するステップと、
予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行うステップと
を備え、
前記重回帰式は、前記キャリブレーション後の3方向の座標の各々が、前記キャリブレーション前の3方向の座標を全て説明変数とする重回帰式である、
スイング解析方法。 A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
Based on the depth image, a step of deriving the three-dimensional coordinates of a predetermined portion of the golf club or the golfer during the swing operation, and
A step of performing calibration by substituting the three-dimensional coordinates of the predetermined part into a predetermined multiple regression equation having a predetermined coefficient is provided.
The multiple regression equation is a multiple regression equation in which each of the coordinates in the three directions after the calibration uses all the coordinates in the three directions before the calibration as explanatory variables.
Swing analysis method.
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づく人体の骨組みを表すスケルトンデータを取得するステップと、
人体のシルエットを表すシルエットデータを取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報を導出するステップと
を備え、
前記所定の部位の位置情報を導出するステップは、
前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出するステップと、
前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出するステップと
を含む、
スイング解析方法。 A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
The step of acquiring skeleton data representing the skeleton of the human body based on the depth image, and
Steps to acquire silhouette data representing the silhouette of the human body,
A step of deriving the position information of a predetermined portion of the golf club or the golfer during the swing operation based on the depth image is provided.
The step of deriving the position information of the predetermined part is
A step of deriving the position information of the first part included in the predetermined part based on the skeleton data, and
A step of deriving position information of a second part different from the first part included in the predetermined part based on the skeleton data and the silhouette data is included.
Swing analysis method.
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記スイング動作中の前記ゴルフクラブの所定の部位の追跡目標の二次元座標を特定するステップと、
前記深度画像に基づいて、前記所定の部位の追跡目標の奥行きを特定することにより、前記所定の部位の追跡目標の三次元座標を導出するステップと
をコンピュータに実行させる、
スイング解析プログラム。 A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By performing image processing on the two-dimensional image, a step of specifying the two-dimensional coordinates of a tracking target of a predetermined portion of the golf club during the swing operation, and a step of specifying the two-dimensional coordinates.
A computer is made to perform a step of deriving the three-dimensional coordinates of the tracking target of the predetermined part by specifying the depth of the tracking target of the predetermined part based on the depth image.
Swing analysis program.
前記スイング動作を距離画像センサにより撮影した深度画像及び二次元画像を取得するステップと、
前記二次元画像を画像処理することにより、前記ゴルフクラブのシャフトの追跡目標の二次元座標を特定し、前記深度画像に基づいて、前記シャフトの追跡目標の二次元座標での奥行きを特定することにより、前記シャフトの追跡目標の三次元座標を導出するステップと、
前記シャフトの追跡目標の三次元座標の分布傾向に基づいて、所定の部位の三次元座標を特定するステップと
をコンピュータに実行させ、
前記所定の部位は、前記ゴルフクラブのグリップである、
スイング解析プログラム。 A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image and a two-dimensional image of the swing motion taken by a distance image sensor, and
By image processing the two-dimensional image, the identified two-dimensional coordinates of the tracking target of the golf club shaft, based on the depth image, identifies the depth of the two-dimensional coordinates of the tracking target of the shaft To derive the three-dimensional coordinates of the tracking target of the shaft,
A computer is made to perform a step of specifying the three-dimensional coordinates of a predetermined part based on the distribution tendency of the three-dimensional coordinates of the tracking target of the shaft.
The predetermined portion is a grip of the golf club.
Swing analysis program.
前記スイング動作を距離画像センサにより前記ゴルファーの正面側から撮影した深度画像を取得するステップと、
前記深度画像を奥行の値により二値化した二値化画像を生成するとともに、前記深度画像を前記二値化画像によりマスキングするステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記マスキングされた深度画像をフィルタリングし、フィルタリング後の前記深度画像から前記スイング動作中の所定の部位の二次元座標を導出し、フィルタリング前の前記深度画像に基づいて、前記所定の部位の奥行きを特定することにより、前記スイング動作中の前記所定の部位の三次元座標を導出するステップと
をコンピュータに実行させ、
前記所定の部位は、前記ゴルファーの肩である、
スイング解析プログラム。 A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken from the front side of the golfer by a distance image sensor, and
A step of generating a binarized image obtained by binarizing the depth image with a depth value and masking the depth image with the binarized image.
The masked depth image is filtered by a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner, and the two-dimensional coordinates of the predetermined portion during the swing operation are obtained from the filtered depth image. A computer is made to perform a step of deriving and deriving the three-dimensional coordinates of the predetermined part during the swing operation by specifying the depth of the predetermined part based on the depth image before filtering.
The predetermined part is the shoulder of the golfer.
Swing analysis program.
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の三次元座標を導出するステップと、
予め定められた係数を有する所定の重回帰式に前記所定の部位の三次元座標を代入することによりキャリブレーションを行うステップと
をコンピュータに実行させ、
前記重回帰式は、前記キャリブレーション後の3方向の座標の各々が、前記キャリブレーション前の3方向の座標を全て説明変数とする重回帰式である、
スイング解析プログラム。 A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
Based on the depth image, a step of deriving the three-dimensional coordinates of a predetermined portion of the golf club or the golfer during the swing operation, and
A computer is made to perform a step of performing calibration by substituting the three-dimensional coordinates of the predetermined part into a predetermined multiple regression equation having a predetermined coefficient.
The multiple regression equation is a multiple regression equation in which each of the coordinates in the three directions after the calibration uses all the coordinates in the three directions before the calibration as explanatory variables.
Swing analysis program.
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記深度画像に基づく人体の骨組みを表すスケルトンデータを取得するステップと、
人体のシルエットを表すシルエットデータを取得するステップと、
前記深度画像に基づいて、前記スイング動作中の前記ゴルフクラブ又は前記ゴルファーの所定の部位の位置情報を導出するステップと
をコンピュータに実行させ、
前記所定の部位の位置情報を導出するステップは、
前記スケルトンデータに基づいて、前記所定の部位に含まれる第1部位の位置情報を導出するステップと、
前記スケルトンデータ及び前記シルエットデータに基づいて、前記所定の部位に含まれる前記第1部位とは異なる第2部位の位置情報を導出するステップと
を含む、
スイング解析プログラム。 A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
The step of acquiring skeleton data representing the skeleton of the human body based on the depth image, and
Steps to acquire silhouette data representing the silhouette of the human body,
Based on the depth image, the computer is made to perform a step of deriving the position information of the golf club or the golfer at a predetermined portion during the swing operation.
The step of deriving the position information of the predetermined part is
A step of deriving the position information of the first part included in the predetermined part based on the skeleton data, and
A step of deriving position information of a second part different from the first part included in the predetermined part based on the skeleton data and the silhouette data is included.
Swing analysis program.
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記スイング動作中の所定の部位の三次元座標を導出するステップと
を備え、
前記所定の部位は、前記ゴルファーの肩であり、
前記導出するステップは、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出するステップを含む、
スイング解析方法。 A swing analysis method for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
It is provided with a step of deriving the three-dimensional coordinates of a predetermined part during the swing operation by filtering the depth image with a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner.
The predetermined part is the shoulder of the golfer.
The derivation step is a step of deriving the three-dimensional coordinates of the shoulder by filtering with the shoulder silhouette filter in at least a part of the section from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish. including,
Swing analysis method.
前記スイング動作を距離画像センサにより撮影した深度画像を取得するステップと、
1つのコーナー付近を強調し、他のコーナー付近を抑制する肩シルエットフィルタにより、前記深度画像をフィルタリングすることで、前記スイング動作中の所定の部位の三次元座標を導出するステップと
をコンピュータに実行させ、
前記所定の部位は、前記ゴルファーの肩であり、
前記導出するステップは、アドレスからテイクバック腕水平まで及びダウンスイング腕水平からフィニッシュまでの少なくとも一部の区間において、前記肩シルエットフィルタによるフィルタリングを行うことで、前記肩の三次元座標を導出するステップを含む、
スイング解析プログラム。
A swing analysis program for analyzing the swing motion of a golf club by a golfer.
A step of acquiring a depth image of the swing motion taken by a distance image sensor, and
The computer executes a step of deriving the three-dimensional coordinates of a predetermined part during the swing operation by filtering the depth image with a shoulder silhouette filter that emphasizes the vicinity of one corner and suppresses the vicinity of the other corner. Let me
The predetermined part is the shoulder of the golfer.
The derivation step is a step of deriving the three-dimensional coordinates of the shoulder by filtering with the shoulder silhouette filter in at least a part of the section from the address to the takeback arm horizontal and from the downswing arm horizontal to the finish. including,
Swing analysis program.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263590 | 2014-12-25 | ||
JP2014263590 | 2014-12-25 | ||
JP2015205930 | 2015-10-19 | ||
JP2015205930 | 2015-10-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017074350A JP2017074350A (en) | 2017-04-20 |
JP6944144B2 true JP6944144B2 (en) | 2021-10-06 |
Family
ID=58550587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015250470A Active JP6944144B2 (en) | 2014-12-25 | 2015-12-22 | Swing analyzer, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6944144B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7264838B2 (en) * | 2020-01-29 | 2023-04-25 | Kddi株式会社 | VIDEO CONVERSION METHOD, APPARATUS AND PROGRAM |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005218783A (en) * | 2004-02-09 | 2005-08-18 | Sumitomo Rubber Ind Ltd | Golf swing measuring system and golf club |
JP4283145B2 (en) * | 2004-03-26 | 2009-06-24 | Sriスポーツ株式会社 | Golf swing measurement system |
JP5536491B2 (en) * | 2010-03-01 | 2014-07-02 | ダンロップスポーツ株式会社 | Golf swing diagnosis method |
US20120053015A1 (en) * | 2010-08-31 | 2012-03-01 | Microsoft Corporation | Coordinated Motion and Audio Experience Using Looped Motions |
CN103118647B (en) * | 2010-09-22 | 2016-04-06 | 松下知识产权经营株式会社 | Exercise assistance system |
JP5839929B2 (en) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | Information processing apparatus, information processing system, information processing method, and program |
JP5325327B2 (en) * | 2011-11-04 | 2013-10-23 | 株式会社コナミデジタルエンタテインメント | Game device, detailed presentation method, and program |
JP6049286B2 (en) * | 2012-04-06 | 2016-12-21 | 株式会社ブリヂストン | Swing simulation system, simulation apparatus, and simulation method |
-
2015
- 2015-12-22 JP JP2015250470A patent/JP6944144B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017074350A (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986164B (en) | Image-based position detection method, device, equipment and storage medium | |
JP7427188B2 (en) | 3D pose acquisition method and device | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
US10657366B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US9208395B2 (en) | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium | |
US10444617B2 (en) | Image processing apparatus and image processing method | |
US9159134B2 (en) | Method and apparatus for estimating a pose | |
JP6433149B2 (en) | Posture estimation apparatus, posture estimation method and program | |
CN108475439B (en) | Three-dimensional model generation system, three-dimensional model generation method, and recording medium | |
Ye et al. | A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis | |
JP5873442B2 (en) | Object detection apparatus and object detection method | |
JP5877053B2 (en) | Posture estimation apparatus and posture estimation method | |
JP5898014B2 (en) | Posture estimation apparatus, posture estimation method, and posture estimation program | |
JP2017119102A (en) | Motion analysis device, method and program | |
KR20180062069A (en) | Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same | |
Yang et al. | Multiple marker tracking in a single-camera system for gait analysis | |
EP2946360B1 (en) | Foot tracking | |
KR101636171B1 (en) | Skeleton tracking method and keleton tracking system using the method | |
JP5503510B2 (en) | Posture estimation apparatus and posture estimation program | |
WO2020261404A1 (en) | Person state detecting device, person state detecting method, and non-transient computer-readable medium containing program | |
JP2019012497A (en) | Portion recognition method, device, program, and imaging control system | |
Yamauchi et al. | Recognition of walking humans in 3D: Initial results | |
JP6944144B2 (en) | Swing analyzer, method and program | |
KR101394279B1 (en) | Method for recognition of user's motion by analysis of depth image and apparatus for analyzing user's motion using the same | |
Kitsikidis et al. | Unsupervised dance motion patterns classification from fused skeletal data using exemplar-based HMMs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20160126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160217 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20180207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6944144 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |