JP2016116613A - 運動解析装置、運動解析システム、運動解析方法、及びプログラム - Google Patents
運動解析装置、運動解析システム、運動解析方法、及びプログラム Download PDFInfo
- Publication number
- JP2016116613A JP2016116613A JP2014257255A JP2014257255A JP2016116613A JP 2016116613 A JP2016116613 A JP 2016116613A JP 2014257255 A JP2014257255 A JP 2014257255A JP 2014257255 A JP2014257255 A JP 2014257255A JP 2016116613 A JP2016116613 A JP 2016116613A
- Authority
- JP
- Japan
- Prior art keywords
- axis
- unit
- swing
- motion analysis
- inclination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 151
- 238000004458 analytical method Methods 0.000 title claims abstract description 123
- 238000012545 processing Methods 0.000 claims description 70
- 238000011156 evaluation Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 48
- 230000001133 acceleration Effects 0.000 description 41
- 238000005259 measurement Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 33
- 230000036544 posture Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000033764 rhythmic process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- YBJHBAHKTGYVGT-ZKWXMUAHSA-N (+)-Biotin Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)O)SC[C@@H]21 YBJHBAHKTGYVGT-ZKWXMUAHSA-N 0.000 description 3
- 102000016550 Complement Factor H Human genes 0.000 description 3
- 108010053085 Complement Factor H Proteins 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- FEPMHVLSLDOMQC-UHFFFAOYSA-N virginiamycin-S1 Natural products CC1OC(=O)C(C=2C=CC=CC=2)NC(=O)C2CC(=O)CCN2C(=O)C(CC=2C=CC=CC=2)N(C)C(=O)C2CCCN2C(=O)C(CC)NC(=O)C1NC(=O)C1=NC=CC=C1O FEPMHVLSLDOMQC-UHFFFAOYSA-N 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/003—Repetitive work cycles; Sequence of movements
- G09B19/0038—Sports
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6895—Sport equipment
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Entrepreneurship & Innovation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physical Education & Sports Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Golf Clubs (AREA)
Abstract
【課題】簡単にスイングの良し悪しを評価することを支援する。【解決手段】運動解析装置であって、慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する第1特定部と、前記第1軸の比較対象とする基準第1軸を取得する取得部と、前記第1軸の傾きと、前記基準第1軸の傾きとを比較する比較部とを有する。【選択図】図1
Description
本発明は、運動解析装置、運動解析システム、運動解析方法、及びプログラムに関する。
特許文献1には、アドレス状態からスイング終了までの間、打球方向の後方から撮影して画像を取得し、アドレス状態でのゴルフクラブのシャフト軸を通る第1の直線と、第1の直線と交わりかつ設置されるティーの根元とゴルファーの首の付け根を通る第2の直線とにより、画像を少なくとも3つの領域に分割する、と記載されている。
ゴルファーのアドレス時の姿勢(アドレス姿勢ともいう)は、スイングの良し悪しに影響する。アドレス姿勢からは、例えば、ゴルファーとボールの距離やゴルファーの腰の曲がり方などを確認することができる。そして、例えば、ゴルファーとボールの距離やゴルファーの腰の曲がり方などが普段と異なる場合には、スイングの調子が悪くなっている可能性がある。しかしながら、ゴルファーは、客観的にアドレス姿勢を見ることは困難であり、アドレス姿勢の変化を認識することも困難である。そのため、スイングが不調になった原因を知ることが難しい。また、アドレス姿勢に基づいてスイングの良し悪しを評価することも難しい。
特許文献1では、ゴルファーは、カメラによりアドレス姿勢を撮影し、画像上でアドレス姿勢を見ることができる。しかし、特許文献1は、例えば、ゴルファー全体が画像に含まれるようにカメラを設置するのが困難であったり、画像上で現在と過去のアドレス姿勢の違いを目視で確認するのが困難であったりする。
本発明は、以上のような問題点に鑑みてなされたものであり、簡単にスイングの良し悪しを評価することを支援することを目的とする。
上記の課題を解決する本発明の一態様は、運動解析装置であって、慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する第1特定部と、前記第1軸の比較対象とする基準第1軸を取得する取得部と、前記第1軸の傾きと、前記基準第1軸の傾きとを比較する比較部とを有する。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きの違いを検討することが可能となり、簡単にかつ正確にスイングの良し悪しを評価することができる。
前記比較部は、前記第1軸の傾きと前記基準第1軸の傾きとの大小を比較し、前記運動解析装置は、比較結果に応じた出力を行う出力処理部を有してもよい。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きの違いを客観的に認識することが可能となり、簡単にかつ正確にスイングの良し悪しを評価することができる。
前記出力処理部は、前記第1軸の傾きと前記基準第1軸の傾きとの差分が所定値を超える場合に、ユーザーに対して報知を行うための信号を生成してもよい。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きが、大きく異なることを簡単に認識することができる。
前記出力処理部は、前記第1軸の傾きと前記基準第1軸の傾きとの差分に応じて、ユーザーに対して異なる報知を行うための信号を生成してもよい。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きが、どのように異なるかを簡単に認識することができる。
前記出力処理部は、前記ユーザーに対し発光で報知するための信号を生成してもよい。これにより、ユーザーは、画面を見なくてもほぼリアルタイムにかつ簡単に、例えば、過去と現在のアドレス時やインパクト時の第1軸の位置や傾きが異なることを認識することできる。
前記出力処理部は、比較結果に応じて発光の種類を異ならせる信号を生成してもよい。これにより、ユーザーは、画面を見なくてもほぼリアルタイムにかつ簡単に、例えば、過去と現在のアドレス時やインパクト時の第1軸の位置や傾きがどのように異なるかを認識することできる。
前記第1特定部は、前記第1軸と打球方向を示す第3軸とを含む第1仮想平面を特定し、前記取得部は、前記基準第1軸と前記第3軸とを含む基準第1仮想平面を取得し、前記比較部は、前記第1仮想平面の傾きと前記基準第1仮想平面の傾きとを比較してもよい。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1仮想平面(シャフトプレーン)の位置や傾きの違いを検討することが可能となり、簡単にかつ正確にスイングの良し悪しを評価することができる。
上記の課題を解決する本発明の他の態様は、運動解析システムであって、慣性センサーと、前記慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する第1特定部と、前記第1軸の比較対象とする基準第1軸を取得する取得部と、前記第1軸の傾きと、前記基準第1軸の傾きとを比較する比較部とを有する。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きの違いを検討することが可能となり、簡単にかつ正確にスイングの良し悪しを評価することができる。
上記の課題を解決する本発明のさらに他の態様は、運動解析方法であって、慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する工程と、前記第1軸の比較対象とする基準第1軸を取得する工程と、前記第1軸の傾きと、前記基準第1軸の傾きとを比較する工程とを含む。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きの違いを検討することが可能となり、簡単にかつ正確にスイングの良し悪しを評価することができる。
上記の課題を解決する本発明のさらに他の態様は、プログラムであって、慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する工程と、前記第1軸の比較対象とする基準第1軸を取得する工程と、前記第1軸の傾きと、前記基準第1軸の傾きとを比較する工程とをコンピューターに実行させる。これにより、ユーザーは、例えば、過去と現在のアドレス時やインパクト時の第1軸(シャフトプレーン)の位置や傾きの違いを検討することが可能となり、簡単にかつ正確にスイングの良し悪しを評価することができる。
以下、本発明の実施形態について、図面を参照して説明する。以下では、ゴルフスイングの解析を行う運動解析システムを例に挙げて説明する。
図1は、本発明の実施形態に係る運動解析システムの概要を示す図である。
運動解析システム1は、センサーユニット10と、運動解析装置20とを備える。
センサーユニット10は、慣性センサーとして、3軸の各軸方向に生じる加速度と3軸の各軸回りに生じる角速度を計測可能であり、運動器具としてのゴルフクラブ3に装着される。センサーユニット10は、例えば、3つの検出軸(x軸,y軸,z軸)のうちの1軸、例えばy軸をシャフトの長軸方向に合わせて、ゴルフクラブ3のシャフトの一部に取り付けられる。望ましくは、センサーユニット10は、ショット時の衝撃が伝わりにくく、スイング時に遠心力がかからないグリップ部に近い位置に取り付けられる。シャフトは、ゴルフクラブ3のヘッドを除いた柄の部分であり、グリップ部も含まれる。
ユーザー2は、予め決められた手順に従って、ゴルフボール(図示せず)を打つスイング動作を行う。例えば、ユーザー2は、まず、ゴルフクラブ3を握って、ゴルフクラブ3のシャフトの長軸がターゲットライン(例えば、打球の目標方向)に対して垂直となるようにアドレスの姿勢をとり、所定時間以上(例えば、1秒以上)静止する。次に、ユーザー2は、スイング動作を行い、ゴルフボールを打って飛ばす(ショットあるいはストロークともいう)。なお、本明細書におけるアドレス姿勢とは、スイングを開始する前のユーザーの静止状態の姿勢、またはスイングを開始する前にユーザーが運動器具を揺動(ワッグルなどとも呼ばれる)させている状態の姿勢を含む。また、ターゲットラインとは、任意の打球方向を指し、本実施形態では一例として打球の目標方向と定めている。
ユーザー2が上述の手順に従ってゴルフボールを打つ動作を行う間、センサーユニット10は、所定周期(例えば1ms)で3軸加速度と3軸角速度を計測し、計測したデータを順次、運動解析装置20に送信する。センサーユニット10は、計測したデータをすぐに送信してもよいし、計測したデータを内部メモリーに記憶しておき、ユーザー2のスイング動作の終了後などの所望のタイミングで計測データを送信するようにしてもよい。センサーユニット10と運動解析装置20との間の通信は、無線通信でもよいし、有線通信でもよい。あるいは、センサーユニット10は、計測したデータをメモリーカード等の着脱可能な記録媒体に記憶しておき、運動解析装置20は、当該記録媒体から計測データを読み出すようにしてもよい。
運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2のゴルフクラブ3を用いたスイング運動を解析する。特に、本実施形態では、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2の静止時(アドレス時)におけるシャフトプレーン(本発明の第1仮想平面あるいは第1軸に相当する)とホーガンプレーン(本発明の第2仮想平面あるいは第2軸に相当する)を特定する。また、運動解析装置20は、ユーザー2がスイング動作を開始した後、スイングにおけるゴルフクラブ3の軌跡を計算する。また、運動解析装置20は、ユーザー2のスイングにおけるゴルフクラブ3の軌跡、シャフトプレーン及びホーガンプレーンを含む画像データを生成し、当該画像データに応じた画像を表示部に表示させる。なお、シャフトプレーン及びホーガンプレーンが表示されることで、シャフトプレーンとホーガンプレーンとの間のVゾーンと呼ばれる空間を認識することができる。運動解析装置20は、例えば、スマートフォンなどの携帯機器やパーソナルコンピューター(PC:Personal Computer)であってもよい。図1では、運動解析装置20はユーザー2の腰に装着されているが、装着位置は特に限定されず、また運動解析装置20はユーザー2に装着されていなくてもよい。
図2は、シャフトプレーン及びホーガンプレーンの一例を説明する図である。本実施形態では、打球の目標方向を示すターゲットラインをX軸、X軸に垂直な水平面上の軸をY軸、鉛直上方向(重力加速度の方向と逆方向)をZ軸とするXYZ座標系(グローバル座標系)を定義し、図2にはX軸,Y軸,Z軸が表記されている。
ここで、ユーザー2のアドレス時のシャフトプレーン30は、ゴルフクラブ3のシャフトの長軸方向に沿った第1軸としての第1線分51と、打球の目標方向を表す第3軸としての第3線分52と、を含み、T1,T2,S1,S2を4つの頂点とする仮想平面である。本実施形態では、ゴルフクラブ3のヘッド(打撃部)の位置61をXYZ座標系の原点O(0,0,0)とし、第1線分51は、ゴルフクラブ3のヘッドの位置61(原点O)とグリップエンドの位置62とを結ぶ線分である。また、第3線分52は、X軸上のT1,T2を両端として原点Oを中点とする長さTLの線分である。ユーザー2がアドレス時に上述したアドレス姿勢をとることでゴルフクラブ3のシャフトがターゲットライン(X軸)に対して垂直となるので、第3線分52は、ゴルフクラブ3のシャフトの長軸方向と直交する線分(ボールが当たるヘッドの打撃面と直交あるいは交差する線分とも言える)、すなわち第1線分51と直交する線分である。XYZ座標系における4つの頂点T1,T2,S1,S2の各座標を算出することによりシャフトプレーン30が特定される。T1,T2,S1,S2の各座標の算出方法については、後に詳述する。
また、ホーガンプレーン40は、第3線分52と、第2軸としての第2線分53と、を含み、T1,T2,H1,H2を4つの頂点とする仮想平面である。本実施形態では、第2線分53は、例えば、ユーザー2の両肩を結ぶ線分上の所定位置63(例えば、首の付け根の位置や左右いずれかの肩の位置など)とゴルフクラブ3のヘッド(打撃部)の位置62(打撃位置の一例)とを結ぶ線分である。ただし、第2線分53は、例えば、所定位置63とアドレス時のボールの位置(打撃位置の一例)とを結ぶ線分であってもよい。XYZ座標系における4つの頂点T1,T2,H1,H2の各座標を算出することによりホーガンプレーン40が特定される。T1,T2,H1,H2の各座標の算出方法については、後に詳述する。
図3は、運動解析システムの構成の一例を示すブロック図である。
センサーユニット10は、制御部11、通信部12、加速度センサー13、及び角速度センサー14を有する。
加速度センサー13は、互いに交差する(理想的には直交する)3軸方向の各々に生じる加速度を計測し、計測した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。
角速度センサー14は、互いに交差する(理想的には直交する)3軸の各々の軸回りに生じる角速度を計測し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。
制御部11は、センサーユニットを統合的に制御する。制御部11は、加速度センサー13と角速度センサー14から、それぞれ加速度データと角速度データを受け取って時刻情報を付して記憶部(図示せず)に記憶する。また、制御部11は、記憶した計測データ(加速度データと角速度データ)に時刻情報を付して通信用のフォーマットに合わせたパケットデータを生成し、通信部12に出力する。
加速度センサー13及び角速度センサー14は、それぞれ3軸が、センサーユニット10に対して定義される直交座標系(センサー座標系)の3軸(x軸、y軸、z軸)と一致するようにセンサーユニット10に取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、制御部11は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをxyz座標系のデータに変換する処理を行う。
さらに、制御部11は、加速度センサー13及び角速度センサー14の温度補正処理を行ってもよい。あるいは、加速度センサー13及び角速度センサー14に温度補正の機能が組み込まれていてもよい。
なお、加速度センサー13と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、制御部11が、加速度センサー13の出力信号と角速度センサー14の出力信号をそれぞれA/D(アナログ/デジタル)変換して計測データ(加速度データと角速度データ)を生成し、これらを用いて通信用のパケットデータを生成すればよい。
通信部12は、制御部11から受け取ったパケットデータを運動解析装置20に送信する処理や、運動解析装置20から制御コマンドを受信して制御部11に送る処理等を行う。制御部11は、制御コマンドに応じた各種処理を行う。
運動解析装置20は、制御部21、通信部22、操作部23、記憶部24、表示部25、及び音声出力部26を有する。
通信部22は、センサーユニット10から送信されたパケットデータを受信し、制御部21に送る処理や、制御部21からの制御コマンドをセンサーユニット10に送信する処理等を行う。
操作部23は、ユーザーからの操作データを取得し、制御部21に送る処理を行う。操作部23は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
記憶部24は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。
記憶部24は、制御部21が各種の計算処理や制御処理を行うためのプログラムや、アプリケーション機能を実現するための各種プログラムやデータ等を記憶している。特に、本実施形態では、記憶部24には、制御部21によって読み出され、運動解析処理を実行するための運動解析プログラムが記憶されている。運動解析プログラムは、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、制御部21がネットワークを介してサーバーから運動解析プログラムを受信して記憶部24に記憶させてもよい。
また、本実施形態では、記憶部24には、ユーザー2の身体情報、ゴルフクラブ3の仕様を表すクラブ仕様情報、及びセンサー装着位置情報が記憶される。例えば、ユーザー2が操作部23を操作して身長、体重、性別などの身体情報を入力し、入力された身体情報が身体情報として記憶部24に記憶される。また、例えば、ユーザー2が操作部23を操作して使用するゴルフクラブ3の型番を入力(あるいは、型番リストから選択)し、記憶部24にあらかじめ記憶されている型番毎の仕様情報(例えば、シャフトの長さ、重心の位置、ライ角、フェース角、ロフト角等の情報など)のうち、入力された型番の仕様情報をクラブ仕様情報とする。また、例えば、ユーザー2が操作部23を操作してセンサーユニット10の装着位置とゴルフクラブ3のグリップエンドとの間の距離を入力し、入力された距離の情報がセンサー装着位置情報として記憶部24に記憶される。あるいは、センサーユニット10を決められた所定位置(例えば、グリップエンドから20cmの距離など)に装着するものとして、当該所定位置の情報がセンサー装着位置情報としてあらかじめ記憶されていてもよい。
また、記憶部24は、制御部21の作業領域として用いられ、操作部23から入力されたデータ、制御部21が各種プログラムに従って実行した演算結果等を一時的に記憶する。さらに、記憶部24は、制御部21の処理により生成されたデータのうち、長期的な保存が必要なデータを記憶してもよい。
表示部25は、制御部21の処理結果を文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部25は、例えば、CRT(Cathode-Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、EPD(Electrophoretic Display)、有機発光ダイオード(OLED)を用いたディスプレイ、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)などであってもよい。なお、1つのタッチパネル型ディスプレイで操作部23と表示部25の機能を実現するようにしてもよい。
音声出力部26は、制御部21の処理結果を音声やブザー音等の音として出力するものである。音声出力部26は、例えば、スピーカーやブザーなどであってもよい。
制御部21は、各種プログラムに従って、センサーユニット10に制御コマンドを送信する処理や、センサーユニット10から通信部22を介して受信したデータに対する各種の計算処理や、その他の各種の制御処理を行う。特に、本実施形態では、制御部21は、運動解析プログラムを実行することにより、センサー情報取得部210、第1仮想平面特定部(本発明の第1特定部に相当する)211、第2仮想平面特定部(本発明の第2特定部に相当する)212、運動解析部213、基準取得部(本発明の取得部に相当する)214、比較部215、画像生成部216、及び出力処理部217として機能する。なお、第1特定部と第2特定部は、個別の演算手段で実現してもよいし、同じ演算手段で実現してもよい。
制御部21は、例えば、演算装置であるCPU(Central Processing Unit)、揮発性の記憶装置であるRAM(Random Access Memory)、不揮発性の記憶装置であるROM、制御部21と他のユニットを接続するインターフェイス(I/F)回路、これらを互いに接続するバス、などを備えるコンピューターにより実現してもよい。コンピューターは、画像処理回路など各種の専用処理回路を備えていてもよい。また、制御部21は、ASIC(Application Specific Integrated Circuit)などにより実現されてもよい。
センサー情報取得部210は、通信部22がセンサーユニット10から受信したパケットデータを受け取り、受け取ったパケットデータから時刻情報及び計測データを取得する。また、センサー情報取得部210は、取得した時刻情報と計測データを対応づけて記憶部24に記憶させる。
第1仮想平面特定部211は、センサーユニット10が出力する計測データを用いて、ユーザーの静止時における、ゴルフクラブ3のシャフトの長軸方向に沿った第1線分51を特定する処理を行う。さらに、第1仮想平面特定部211は、第1線分51と、打球の目標方向を表す第3線分52と、を含むシャフトプレーン(第1仮想平面)30(図2参照)を特定する処理を行う。
第1仮想平面特定部211は、センサーユニット10が出力する計測データを用いて、ゴルフクラブ3のグリップエンドの位置62の座標を計算し、グリップエンドの位置62の座標により第1線分51を特定してもよい。例えば、第1仮想平面特定部211は、ユーザー2の静止時(アドレス時)における加速度センサー13が計測した加速度データを用いてゴルフクラブ3のシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算し、計算した傾斜角とクラブ仕様情報に含まれるシャフトの長さの情報とを用いて、第1線分51を特定してもよい。
また、第1仮想平面特定部211は、第1線分51の長さと身体情報に基づくユーザー2の腕の長さとを用いて、シャフトプレーン30の幅を計算してもよい。
第2仮想平面特定部212は、打球の目標方向(第3線分52)を回転軸として、第1仮想平面特定部211が特定した第1線分51に対して所定角度θを成す第2線分53を特定する処理を行う。さらに、第2仮想平面特定部212は、第2線分53と、第3線分52と、を含むホーガンプレーン(第2仮想平面)40(図2参照)を特定する処理を行う。
例えば、第2仮想平面特定部212は、センサーユニット10が出力する計測データと身体情報とを用いて、ユーザー2の静止時におけるユーザー2の頭部と胸部の間(例えば、両肩を結ぶ線分上)の所定位置63を推定し、推定した所定位置63とゴルフクラブ3のヘッド(打撃部)の位置62とを結ぶ第2線分53を特定する処理を行う。そして、第2仮想平面特定部212は、第2線分53と、第3線分52と、を含むホーガンプレーン40を特定する処理を行う。
第2仮想平面特定部212は、第1仮想平面特定部211が計算したグリップエンドの位置62の座標と、身体情報に基づくユーザー2の腕の長さとを用いて、所定位置63を推定してもよい。あるいは、第2仮想平面特定部212が、センサーユニット10が出力する計測データを用いて、ゴルフクラブ3のグリップエンドの位置62の座標を計算してもよい。この場合は、第1仮想平面特定部211は、第2仮想平面特定部212が計算したグリップエンドの位置62の座標を用いて、シャフトプレーン30を特定してもよい。
また、第2仮想平面特定部212は、第1線分51の長さと身体情報に基づくユーザー2の腕の長さとを用いて、ホーガンプレーン40の幅を計算してもよい。
運動解析部213は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイング運動を解析する処理を行う。具体的には、運動解析部213は、まず、記憶部24に記憶された、ユーザー2の静止時(アドレス時)の計測データ(加速度データ及び角速度データ)を用いて、計測データに含まれるオフセット量を計算する。次に、運動解析部213は、記憶部24に記憶された、スイング開始後の計測データからオフセット量を減算してバイアス補正し、バイアス補正された計測データを用いて、ユーザー2のスイング動作中のセンサーユニット10の位置及び姿勢を計算する。
例えば、運動解析部213は、加速度センサー13が計測した加速度データ、クラブ仕様情報及びセンサー装着位置情報を用いて、XYZ座標系(グローバル座標系)におけるユーザー2の静止時(アドレス時)のセンサーユニット10の位置(初期位置)を計算し、その後の加速度データを積分してセンサーユニット10の初期位置からの位置の変化を時系列に計算する。ユーザー2は所定のアドレス姿勢で静止するので、センサーユニット10の初期位置のX座標は0である。さらに、センサーユニット10のy軸はゴルフクラブ3のシャフトの長軸方向と一致し、ユーザー2の静止時には、加速度センサー13は重力加速度のみを計測するので、運動解析部213は、y軸加速度データを用いてシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算することができる。そして、運動解析部213は、シャフトの傾斜角、クラブ仕様情報(シャフトの長さ)及びセンサー装着位置情報(グリップエンドからの距離)を用いて、センサーユニット10の初期位置のY座標及びZ座標を計算し、センサーユニット10の初期位置を特定することができる。あるいは、運動解析部213は、第1仮想平面特定部211又は第2仮想平面特定部212が計算したゴルフクラブ3のグリップエンドの位置62の座標とセンサー装着位置情報(グリップエンドからの距離)を用いて、センサーユニット10の初期位置の座標を計算してもよい。
また、運動解析部213は、加速度センサー13が計測した加速度データを用いて、XYZ座標系(グローバル座標系)におけるユーザー2の静止時(アドレス時)のセンサーユニット10の姿勢(初期姿勢)を計算し、その後の角速度センサー14が計測した角速度データを用いた回転演算を行ってセンサーユニット10の初期姿勢からの姿勢の変化を時系列に計算する。センサーユニット10の姿勢は、例えば、X軸、Y軸、Z軸回りの回転角(ロール角、ピッチ角、ヨー角)、オイラー角、クオータ二オン(四元数)などで表現することができる。ユーザー2の静止時には、加速度センサー13は重力加速度のみを計測するので、運動解析部213は、3軸加速度データを用いて、センサーユニット10のx軸、y軸、z軸の各々と重力方向とのなす角度を特定することができる。さらに、ユーザー2は所定のアドレス姿勢で静止するので、ユーザー2の静止時において、センサーユニット10のy軸はYZ平面上にあるため、運動解析部213は、センサーユニット10の初期姿勢を特定することができる。
なお、センサーユニット10の制御部11が、計測データのオフセット量を計算し、計測データのバイアス補正を行うようにしてもよいし、加速度センサー13及び角速度センサー14にバイアス補正の機能が組み込まれていてもよい。これらの場合は、運動解析部213による計測データのバイアス補正が不要となる。
また、運動解析部213は、身体情報(ユーザー2の身長(腕の長さ))、クラブ仕様情報(シャフトの長さや重心の位置)、センサー装着位置情報(グリップエンドからの距離)、ゴルフクラブ3の特徴(剛体である等)、人体の特徴(関節の曲がる方向が決まっている等)などを考慮した運動解析モデル(二重振子モデル等)を定義し、この運動解析モデルとセンサーユニット10の位置及び姿勢の情報とを用いて、ユーザー2のスイングにおけるゴルフクラブ3の軌跡を計算する。
また、運動解析部213は、記憶部24に記憶された時刻情報と計測データを用いて、ユーザー2のスイングの開始から終了までの一連の動作(「リズム」ともいう)、例えば、スイングの開始から、バックスイング、トップ、ダウンスイング、インパクト、フォロースルー、スイングの終了までを検出する。例えば、運動解析部213は、センサーユニット10が出力する計測データ(加速度データ又は角速度データ)の合成値を計算し、当該合成値に基づいてユーザー2がインパクトのタイミング(時刻)を特定する。
さらに、運動解析部213は、運動解析モデルとセンサーユニット10の位置及び姿勢の情報とを用いて、バックスイングからフォロースルーまでのスイングのリズム、ヘッドスピード、打球時の入射角(クラブパス)やフェース角、シャフトローテーション(スイング中のフェース角の変化量)、ゴルフクラブ3の減速率などの情報、あるいは、ユーザー2が複数回のスイングを行った場合のこれら各情報のばらつきの情報等も生成してもよい。
基準取得部214は、後述する比較部215により用いられる基準となるスイング(基準スイングともいう)に関する情報を取得する。基準スイングに関する情報には、例えば、当該基準スイングにおけるアドレス時の、第1軸としての第1線分51の傾斜角(シャフトプレーンの傾斜角)、第2軸としての第2線分53の傾斜角(ホーガンプレーンの傾斜角)等が含まれる。基準スイングは、例えば、ユーザー2の過去のスイング、プロゴルファーなどの他人のスイングなどである。基準取得部214は、例えば、ユーザー2から操作部23を介して基準スイングの設定を受け付け、当該基準スイングに関する情報を記憶部24に記憶する。
比較部215は、基準取得部214により取得された基準スイングと、比較対象となるスイング(比較対象スイングともいう)とを比較する。比較部215は、比較対象スイングに関する情報として、例えば、比較対象スイングにおけるアドレス時の、第1仮想平面特定部211により特定された第1軸としての第1線分51の傾斜角(シャフトプレーンの傾斜角)、第2仮想平面特定部211により特定された第2軸としての第2線分53の傾斜角(ホーガンプレーンの傾斜角)等を取得する。そして、比較部215は、例えば、基準スイングの第1線分51の傾斜角と、比較対象スイングの第1線分51の傾斜角とを比較し、これらの角度の差分や大小関係を判定する。また、比較部215は、例えば、基準スイングの第1線分51と第2線分53とが成すVゾーンの中心角と、比較対象スイングの第1線分51と第2線分53とが成すVゾーンの中心角とを比較し、これらの角度の差分や大小関係を判定する。
画像生成部216は、表示部25に表示される運動解析結果の画像に対応する画像データを生成する処理を行う。例えば、画像生成部216は、第1仮想平面特定部211が特定したシャフトプレーン30と、第2仮想平面特定部212が特定したホーガンプレーン40と、運動解析部213が計算したユーザー2のスイング(特に、ダウンスイング)におけるゴルフクラブ3の軌跡と、を含む画像データを生成する。例えば、画像生成部216は、図2に示したT1,T2,S1,S2の各座標の情報をもとに、T1,T2,S1,S2を4つの頂点とするシャフトプレーン30のポリゴンデータを生成し、T1,T2,H1,H2の各座標の情報をもとに、T1,T2,H1,H2を4つの頂点とするホーガンプレーン40のポリゴンデータを生成する。また、画像生成部216は、ユーザー2のダウンスイング時のゴルフクラブ3の軌跡を表す曲線データを生成する。そして、画像生成部216は、シャフトプレーン30のポリゴンデータ、ホーガンプレーン40のポリゴンデータ及びゴルフクラブ3の軌跡を表す曲線データを含む画像データを生成する。
また、画像生成部216は、例えば、基準スイングにおけるアドレス時のシャフトプレーン30と、比較対象スイングにおけるアドレス時のシャフトプレーン30とを含む画像データを生成する。また、画像生成部216は、例えば、基準スイングにおけるアドレス時のシャフトプレーン30及びホーガンプレーン40と、比較対象スイングにおけるアドレス時のシャフトプレーン30及びホーガンプレーン40とを含む画像データを生成する。また、画像生成部216は、例えば、比較部215に判定された基準スイングと比較対象スイングの比較結果を表す画像データを生成する。
なお、第1仮想平面特定部211、第2仮想平面特定部212、運動解析部213、基準取得部214、比較部215、及び画像生成部216は、算出した各種の情報等を記憶部24に記憶させる処理も行う。
出力処理部217は、表示部25に対して各種の画像(画像生成部216が生成した画像データに対応する画像の他、文字や記号等も含む)を表示させる処理を行う(すなわち、表示を行うための信号を生成する)。例えば、出力処理部217は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて画像生成部216が生成した画像データに対応する画像を表示部25に表示させる。あるいは、センサーユニット10に表示部を設けておいて、出力処理部217は、通信部22を介してセンサーユニット10に画像データを送信し、センサーユニット10の表示部に各種の画像を表示させてもよい。
また、出力処理部217は、音声出力部26に対して各種の音(音声やブザー音等も含む)を出力させる処理を行う(すなわち、音声出力を行うための信号を生成する)。例えば、出力処理部217は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、所定の入力操作が行われたときに、記憶部24に記憶されている各種の情報を読み出して音声出力部26に運動解析用の音や音声を出力させてもよい。あるいは、センサーユニット10に音声出力部を設けておいて、出力処理部217は、通信部22を介してセンサーユニット10に各種の音データや音声データを送信し、センサーユニット10の音声出力部に各種の音や音声を出力させてもよい。
なお、運動解析装置20あるいはセンサーユニット10に振動機構を設けておいて、当該振動機構により各種の情報を振動情報に変換してユーザー2に提示してもよい。
図4は、運動解析処理の一例を示すフローチャートである。制御部21は、記憶部24に記憶されている運動解析プログラムを実行することにより、図4に示すフローチャートの手順で運動解析処理を実行する。
まず、センサー情報取得部210は、センサーユニット10の計測データを取得する(ステップS10)。なお、制御部21は、ユーザー2のスイング運動(静止動作も含む)における最初の計測データを取得するとリアルタイムにステップS20以降の処理を行ってもよいし、センサーユニット10からユーザー2のスイング運動における一連の計測データの一部又は全部を取得した後に、ステップS20以降の処理を行ってもよい。
次に、運動解析部213は、センサーユニット10から取得した計測データを用いてユーザー2の静止動作(アドレス動作)を検出する(ステップS20)。なお、制御部21は、リアルタイムに処理を行う場合は、静止動作(アドレス動作)を検出した場合に、例えば、所定の画像や音を出力し、あるいは、センサーユニット10にLED(Light Emitting Diode)等の発光部を設けておいて当該発光部を点灯させる等して、ユーザー2に静止状態を検出したことを通知し、ユーザー2は、この通知を確認した後にスイングを開始してもよい。
次に、第1仮想平面特定部211は、センサーユニット10から取得した計測データ(ユーザー2の静止動作(アドレス動作)における計測データ)とクラブ仕様情報とを用いて、シャフトプレーン30(第1仮想平面)を特定する(ステップS30)。
次に、第2仮想平面特定部212は、センサーユニット10から取得した計測データ(ユーザー2の静止動作(アドレス動作)における計測データ)と身体情報とを用いて、ホーガンプレーン40(第2仮想平面)を特定する(ステップS40)。
次に、運動解析部213は、センサーユニット10から取得した計測データ(ユーザー2の静止動作(アドレス動作)における計測データ)を用いて、センサーユニット10の初期位置と初期姿勢を計算する(ステップS50)。
次に、運動解析部213は、センサーユニット10から取得した計測データを用いて、スイングの開始から終了までの一連の動作(リズム)を検出する(ステップS60)。
また、運動解析部213は、ステップS60の処理と並行して、ユーザー2のスイング動作中のセンサーユニット10の位置と姿勢を計算する(ステップS70)。
次に、運動解析部213は、ステップS60で検出したリズムと、ステップS70で計算したセンサーユニット10の位置及び姿勢とを用いて、ユーザー2のスイング動作中のゴルフクラブ3の軌跡を計算する(ステップS80)。
次に、画像生成部216は、ステップS30で特定されたシャフトプレーン、ステップS40で特定されたホーガンプレーン、及びステップS80で計算されたスイング動作中のゴルフクラブの軌跡を含む画像データを生成し、出力処理部217により表示部25に表示させる(ステップS90)。そして、制御部21は、図4に示すフローチャートの処理を終了する。
なお、図4のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。
次に、シャフトプレーン(第1仮想平面)を特定する処理(図4のステップS30の処理)の一例について詳細に説明する。
まず、第1仮想平面特定部211は、図2に示したように、ゴルフクラブ3のヘッドの位置61をXYZ座標系(グローバル座標系)の原点O(0,0,0)として、センサーユニット10が計測した静止時の加速度データとクラブ仕様情報とを用いて、グリップエンドの位置62の座標(0,GY,GZ)を計算する。図5は、ユーザー2の静止時(アドレス時)におけるゴルフクラブ3とセンサーユニット10をX軸の負側から見た平面図である。図5では、ゴルフクラブ3のヘッドの位置61が原点O(0,0,0)であり、グリップエンドの位置62の座標は(0,GY,GZ)である。ユーザー2の静止時にセンサーユニット10には重力加速度Gがかかるので、y軸加速度y(0)とゴルフクラブ3のシャフトの傾斜角(シャフトの長軸と水平面(XY平面)とのなす角)αとの関係は式(1)で表される。
従って、クラブ仕様情報に含まれるゴルフクラブ3のシャフトの長さをL1とすると、GY,GZは、シャフトの長さL1と傾斜角αを用いて、式(2)及び式(3)でそれぞれ計算される。
次に、第1仮想平面特定部211は、ゴルフクラブ3のグリップエンドの位置62の座標(0,GY,GZ)にスケールファクターSを乗算し、シャフトプレーン30の頂点S1と頂点S2の中点S3の座標(0,SY,SZ)を計算する。すなわち、SY及びSZは、式(4)及び式(5)により計算される。
図6は、図2のシャフトプレーン30をYZ平面で切った断面図をX軸の負側から見た図である。頂点S1と頂点S2の中点S3と原点Oとを結ぶ線分の長さ(シャフトプレーン30のX軸と直交する方向の幅)は、第1線分51の長さL1のS倍となる。このスケールファクターSは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がシャフトプレーン30に収まるような値に設定される。例えば、ユーザー2の腕の長さをL2とすると、シャフトプレーン30のX軸と直交する方向の幅S×L1が、シャフトの長さL1と腕の長さL2の和の2倍となるように、スケールファクターSを式(6)のように設定してもよい。
また、ユーザー2の腕の長さL2は、ユーザー2の身長L0と相関があり、統計情報に基づき、例えば、ユーザー2が男性の場合は式(7)のような相関式で表され、ユーザー2が女性の場合は式(8)のような相関式で表される。
従って、ユーザーの腕の長さL2は、身体情報に含まれるユーザー2の身長L0と性別とを用いて、式(7)又は式(8)により算出される。
次に、第1仮想平面特定部211は、上述のように計算した中点S3の座標(0,SY,SZ)及びシャフトプレーン30のX軸方向の幅(第3線分52の長さ)TLを用いて、シャフトプレーン30の頂点T1の座標(−TL/2,0,0)、頂点T2の座標(TL/2,0,0)、頂点S1の座標(−TL/2,SY,SZ)、S2の座標(TL/2,SY,SZ)を計算する。X軸方向の幅TLは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がシャフトプレーン30に収まるような値に設定される。例えば、X軸方向の幅TLを、X軸と直交する方向の幅S×L1と同じ、すなわち、シャフトの長さL1と腕の長さL2の和の2倍に設定してもよい。
このように計算された4つの頂点T1,T2,S1,S2の座標により、シャフトプレーン30が特定される。
次に、ホーガンプレーン(第2仮想平面)を特定する処理(図4のステップS40の処理)の一例について詳細に説明する。
まず、第2仮想平面特定部212は、上述のように計算されたゴルフクラブ3のグリップエンドの位置62の座標(0,GY,GZ)及びユーザー2の身体情報を用いて、ユーザー2の両肩を結ぶ線分上の所定位置63を推定し、その座標(AX,AY,AZ)を計算する。
図7は、図2のホーガンプレーン40をYZ平面で切った断面図をX軸の負側から見た図である。図7では、ユーザー2の両肩を結ぶ線分の中点を所定位置63としており、所定位置63はYZ平面上に存在する。従って、所定位置63のX座標AXは0である。そして、第2仮想平面特定部212は、ゴルフクラブ3のグリップエンドの位置62をZ軸の正方向にユーザー2の腕の長さL2だけ移動させた位置が所定位置63であると推定する。従って、所定位置63のY座標AYはグリップエンドの位置62のY座標GYと同じであり、所定位置63のZ座標AZは、式(9)のように、グリップエンドの位置62のZ座標GZとユーザー2の腕の長さL2の和として計算される。
ユーザーの腕の長さL2は、身体情報に含まれるユーザー2の身長L0と性別とを用いて、式(7)又は式(8)により算出される。
次に、第2仮想平面特定部212は、所定位置63のY座標AY及びZ座標AZにそれぞれスケールファクターHを乗算し、ホーガンプレーン40の頂点H1と頂点H2の中点H3の座標(0,HY,HZ)を計算する。すなわち、HY及びHZは、式(10)及び式(11)により計算される。
図7に示すように、頂点H1と頂点H2の中点H3と原点Oとを結ぶ線分の長さ(ホーガンプレーン40のX軸と直交する方向の幅)は、第2線分53の長さL3のH倍となる。このスケールファクターHは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がホーガンプレーン40に収まるような値に設定される。例えば、ホーガンプレーン40は、シャフトプレーン30と同じ形及び大きさとしてもよい。この場合、ホーガンプレーン40のX軸と直交する方向の幅H×L3が、シャフトプレーン30のX軸と直交する方向の幅S×L1と一致し、ゴルフクラブ3のシャフトの長さL1とユーザー2の腕の長さL2の和の2倍となるから、スケールファクターHを式(12)のように設定してもよい。
また、第2線分53の長さL3は、所定位置63のY座標AY及びZ座標AZを用いて、式(13)のより計算される。
次に、第2仮想平面特定部212は、上述のように計算した中点H3の座標(0,HY,HZ)及びホーガンプレーン40のX軸方向の幅(第3線分52の長さ)TLを用いて、ホーガンプレーン40の頂点T1の座標(−TL/2,0,0)、頂点T2の座標(TL/2,0,0)、頂点H1の座標(−TL/2,HY,HZ)、H2の座標(TL/2,HY,HZ)を計算する。X軸方向の幅TLは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がホーガンプレーン40に収まるような値に設定される。本実施形態では、ホーガンプレーン40のX軸方向の幅TLは、シャフトプレーン30のX軸方向の幅と同じであるから、上記のとおり、シャフトの長さL1と腕の長さL2の和の2倍に設定してもよい。
このように計算された4つの頂点T1,T2,H1,H2の座標により、ホーガンプレーン40が特定される。
次に、ユーザー2のスイングの開始から終了までの一連の動作(リズム)を検出する処理(図4のステップS60の処理)の一例について詳細に説明する。
運動解析部213は、センサーユニット10から取得した計測データを用いて、スイングの開始から終了までの一連の動作(リズム)、例えば、スイングの開始から、バックスイング、トップ、ダウンスイング、インパクト、フォロースルー、スイングの終了までを検出する。具体的なリズムの検出手順は、特に限定されないが、例えば下記のような手順を採用することができる。
まず、運動解析部213は、取得した時刻t毎の角速度データを用いて、各時刻tでの各軸回りの角速度の大きさの和(合成値あるいはノルムという)を計算する。また、運動解析部213は、各時刻tでの角速度のノルムを時間で微分してもよい。
ここで、3軸(x軸、y軸、z軸)の軸回りの角速度が、例えば図8(センサーユニットから出力される角速度の一例を示す図)に示すようなグラフに表れる場合を考える。図8では、横軸が時間(msec)、縦軸が角速度(dps)である。また、角速度のノルムは、例えば図9(角速度のノルムの一例を示す図)に示すようなグラフに表れる。図9では、横軸が時間(msec)、縦軸が角速度のノルムである。また、角速度のノルムの微分値は、例えば図10(角速度のノルムの微分値の一例を示す図)に示すようなグラフに表れる。図10では、横軸が時間(msec)、縦軸が角速度のノルムの微分値である。なお、図8〜図10は、本実施形態を理解し易くするためものであり、正確な値を示しているわけではない。
また、運動解析部213は、計算した角速度のノルムを用いて、スイングにおけるインパクトのタイミングを検出する。運動解析部213は、例えば、角速度のノルムが最大となるタイミングをインパクトのタイミングとして検出する(図9のT5)。または、運動解析部213は、例えば、計算した角速度のノルムの微分の値が最大となるタイミングと最小となるタイミングのうち、先のタイミングをインパクトのタイミングとして検出するようにしてもよい(図10のT5)。
また、運動解析部213は、例えば、インパクトより前で、計算した角速度のノルムが極小となるタイミングをスイングのトップのタイミングとして検出する(図9のT3)。また、運動解析部213は、例えば、インパクトより前で角速度のノルムが第1閾値以下の連続した期間をトップ期間(トップでの溜めの期間)として特定する(図9のT2〜T4)。
また、運動解析部213は、例えば、トップより前で、角速度のノルムが第2閾値以下となるタイミングをスイングの開始のタイミングとして検出する(図9のT1)。
また、運動解析部213は、例えば、インパクトより後で、角速度のノルムが極小となるタイミングをスイングの終了(フィニッシュ)のタイミングとして検出する(図9のT7)。または、運動解析部213は、例えば、インパクトより後で、角速度のノルムが第3閾値以下となる最初のタイミングをスイングの終了(フィニッシュ)のタイミングとして検出するようにしてもよい。また、運動解析部213は、例えば、インパクトのタイミングより後で且つインパクトのタイミングに接近し、角速度のノルムが第4閾値以下となる連続した期間をフィニッシュ期間として特定する(図9のT6〜T8)。
上記のようにして、運動解析部213は、スイングのリズムを検出することができる。また、運動解析部213は、リズムを検出することにより、スイング中の各期間(例えば、スイング開始からトップ開始までのバックスイング期間、トップ終了からインパクトまでのダウンスイング期間、インパクトからスイング終了までのフォロースルー期間)を特定することができる。
次に、Vゾーン及び軌跡を表す画像データを生成及び表示する処理(図4のステップS90の処理)の一例について詳細に説明する。
図11は、シャフトプレーン及びホーガンプレーンを含む画像例を示す図である。図11では、シャフトプレーン及びホーガンプレーンをYZ平面に投影した図である
画像500は、シャフトプレーン30を表すポリゴンデータ501、ホーガンプレーン40を表すポリゴンデータ502、及び、ユーザー2のスイング時のゴルフクラブ3の軌跡を表す曲線503を含んでいる。また、画像500では、ポリゴンデータ501とポリゴンデータ502との間の空間であるVゾーンを認識できる。
なお、図11において、Vゾーンを表示する際には、プレーンで表示しなくてもよく、シャフトプレーン30に含まれる第1線分51(あるいは第1線分51に沿った直線)とホーガンプレーン40に含まれる第2線分53(あるいは第2線分53に沿った直線)のみを表示させてもよい。また、図11に示す画像は、ユーザー2の操作に応じて表示角度(画像を見る視点)を変えることが可能な3次元画像であってもよい。
次に、基準スイングと比較対象スイングの比較処理について詳細に説明する。なお、上述のような運動解析処理により、ユーザー2の過去の各スイングに関する情報が記憶部24に格納されている。
出力処理部217は、例えば、操作部23を介して、ユーザー2からスイングの指定を含む所定操作を受け付けて、図12(アドレス姿勢を表示する画面例を示す図)に示すような画面600を表示部25に表示させる。
画面600は、スイング画像欄610、前スイングボタン620、次スイングボタン630、基準スイング登録ボタン640、傾斜角比較ボタン650、Vゾーン比較ボタン660等を含む。
出力処理部217は、例えば、指定されたスイングに関する情報に基づいて、当該スイングに関する画像500(シャフトプレーン30のポリゴンデータ501、ホーガンプレーン40のポリゴンデータ502)を、スイング画像欄610に表示する。もちろん、スイング時のゴルフクラブ3の軌跡を表す曲線503を表示してもよい。また、出力処理部217は、例えば、操作部23を介して、前スイングボタン620又は次スイングボタン630が操作された場合には、所定順序に従って、表示されているスイングの前スイング又は次スイングに関する画像500を、スイング画像欄610に表示する。
基準取得部214は、例えば、操作部23を介して、基準スイング登録ボタン640が操作された場合、スイング画像欄610に表示されているスイングを基準スイングとして設定し、当該基準スイングに関する情報を取得する。
もちろん、基準スイングに関する情報の設定手順は、上記の手順に限られない。例えば、基準取得部214は、記憶部24又は外部の記憶装置に格納されている過去のスイングの中から、基準スイングの選択を受け付け、当該選択された基準スイングに関する情報を取得してもよい。また、例えば、基準取得部214は、基準スイングに関する情報の取得先(例えば、URLやファイルパスなど)の設定を受け付け、当該取得先から基準スイングに関する情報を取得してもよい。また、例えば、基準取得部214は、センサーユニット10の加速度センサー13及び角速度センサー14の少なくとも一方の信号に基づいて、所定の操作(例えば、ゴルフクラブ3のシャフトを所定回数叩くなど)を検出した場合に、最後に解析が行われたスイングを基準スイングとして選択し、当該選択された基準スイングに関する情報を取得してもよい。また、例えば、プロゴルファー等のユーザー2以外のゴルファーのスイングに関する情報を、当該ゴルファーの身体情報と関連付けて、当該記憶部24又は外部の記憶装置に蓄積しておき、基準取得部214は、ユーザー2の身体情報を受け付けて、身体情報(例えば、身長など)がユーザー2と同じ又は近いゴルファーを特定し、当該ゴルファーのスイングを基準スイングとして設定してもよい。
比較部215は、例えば、操作部23を介して、傾斜角比較ボタン650が操作された場合、基準スイングの傾斜角と比較対象スイングの傾斜角とを比較する。本実施形態では、比較対象スイングは、スイング画像欄610に表示されているスイングである。もちろん、比較部215は、例えば、操作部23を介して、比較対象スイングの設定を受け付けるようにしてもよい。比較部215は、基準スイングに関する情報と、比較対象スイングに関する情報とを取得する。
図13は、傾斜角を比較する手順と画面例を示す図である。比較部215は、比較対象スイングのシャフトプレーン30a(傾斜角αa)と、基準スイングのシャフトプレーン30b(傾斜角αb)とを比較する。具体的には、比較部215は、例えば、シャフトプレーン30aとシャフトプレーン30bの差分を計算したり、シャフトプレーン30aとシャフトプレーン30bの大小関係を判定したりする。画像生成部216は、シャフトプレーン30aのポリゴンデータ501a、シャフトプレーン30bのポリゴンデータ501b、及び、比較部215による比較結果に応じたメッセージ(例えば、シャフトプレーン30aとシャフトプレーン30bの差分、シャフトプレーン30aとシャフトプレーン30bの大小関係などを示すメッセージ)510を含む画像500を生成し、スイング画像欄610(図12参照)に表示させる。図13の例では、シャフトプレーン30aの傾斜角がシャフトプレーン30bの傾斜角よりも小さいため、「傾斜角が基準よりも小さいです」というメッセージが表示されている。なお、シャフトプレーン30aとシャフトプレーン30bの差分が所定角度を超えるか否かを判定し、所定角度を超える場合にメッセージを表示するようにしてもよい。
図12に説明に戻って、比較部215は、例えば、操作部23を介して、Vゾーン比較ボタン660が操作された場合、基準スイングのVゾーンと比較対象スイングのVゾーンとを比較する。本実施形態では、比較対象スイングは、スイング画像欄610に表示されているスイングである。もちろん、比較部215は、例えば、操作部23を介して、比較対象スイングの設定を受け付けるようにしてもよい。比較部215は、基準スイングに関する情報と、比較対象スイングに関する情報とを取得する。
図14は、Vゾーンを比較する手順と画面例を示す図である。比較部215は、比較対象スイングのシャフトプレーン30a(傾斜角αa)及びホーガンプレーン40a(傾斜角αa+θa)と、基準スイングのシャフトプレーン30b(傾斜角αb)及びホーガンプレーン40b(傾斜角αb+θb)とを比較する。具体的には、比較部215は、例えば、シャフトプレーン30a及びホーガンプレーン40aが成すVゾーンの中心角(所定角度θa)と、シャフトプレーン30b及びホーガンプレーン40bが成すVゾーンの中心角(所定角度θb)との差分を計算したり、これらの2つの中心角の大小関係を判定したりする。画像生成部216は、シャフトプレーン30aのポリゴンデータ501a、ホーガンプレーン40aのポリゴンデータ502a、シャフトプレーン30bのポリゴンデータ501b、ホーガンプレーン40bのポリゴンデータ502b、及び、比較部215による比較結果に応じたメッセージ(例えば、中心角θaと中心角θbの差分、中心角θaと中心角θbの大小関係などを示すメッセージ)510を含む画像500を生成し、スイング画像欄610(図12参照)に表示させる。図14の例では、中心角θaが中心角θbよりも小さいため、「Vゾーンが基準よりも狭いです」というメッセージが表示されている。なお、中心角θaと中心角θbの差分が所定角度を超えるか否かを判定し、所定角度を超える場合にメッセージを表示するようにしてもよい。
上記の例では、表示部25に画面600を表示することにより、基準スイングと比較対象スイングの比較結果をユーザー2に報知しているが、他の方法でユーザー2に報知してもよい。
例えば、センサーユニット10に、LED等の発光部(表示部とも呼ぶことができる)を設けてもよい。この場合、出力処理部217は、比較部215による比較結果に応じた発光態様(例えば発光パターン、発光色など)で、発光部を発光させる(すなわち、発光を行うための信号を生成する)。具体的には、例えば、出力処理部217は、シャフトプレーン30aとシャフトプレーン30bの差分が所定角度を超える場合に、所定の発光態様で発光部を発光させる。また、例えば、出力処理部217は、シャフトプレーン30aがシャフトプレーン30bよりも小さい場合には、第1の発光態様で発光部を発光させ、シャフトプレーン30aがシャフトプレーン30bよりも大きい場合には、第2の発光態様で発光部を発光させる。このようにすれば、ユーザー2は、画面を見なくても簡単に、基準スイングに対する比較スイングのシャフトプレーンの傾斜角の大小関係を認識することができる。
また、例えば、出力処理部217は、中心角θaと中心角θbの差分が所定角度を超える場合に、所定の発光態様で発光部を発光させる。また、例えば、出力処理部217は、中心角θaが中心角θbより小さい場合には、第3の発光態様で発光部を発光させ、中心角θaが中心角θbより大きい場合には、第4の発光態様で発光部を発光させる。このようにすれば、ユーザー2は、画面を見なくても簡単に、基準スイングに対する比較スイングのVゾーンの中心角の大小関係を認識することができる。
なお、運動解析装置20に発光部を設け、出力処理部217は、比較部215による比較結果に応じた発光態様で、運動解析装置20の発光部を発光させてもよい。
上記のような、センサーユニット10又は運動解析装置20に設けられた発光部を用いた比較結果のユーザー2への報知は、画面600でユーザー2からスイングの指定を受け付けたタイミングに限られない。例えば、図4のフローチャートでスイングの解析が終了した場合に(例えばステップS80の終了後)、比較部215は、予め設定されている基準スイングと比較対象スイング(解析が終了したスイング)とを比較し、出力処理部217は、比較部215による比較結果に応じた発光態様で発光部を発光させればよい。このようにすれば、ユーザー2は、終えたばかりのスイングについて、基準スイングに対する比較結果を、ほぼリアルタイムにかつ簡単に認識することができる。
また、例えば、センサーユニット10に、スピーカー等の音声出力部を設けてもよい。この場合、出力処理部217は、比較部215による比較結果に応じた音声を、音声出力部に出力させる。具体的には、例えば、出力処理部217は、シャフトプレーン30aとシャフトプレーン30bの差分が所定角度を超える場合に、所定の音声を音声出力部に出力させる。また、例えば、出力処理部217は、シャフトプレーン30aがシャフトプレーン30bよりも小さい場合には、第1の音声を音声出力部に出力させ、シャフトプレーン30aがシャフトプレーン30bよりも大きい場合には、第2の音声を音声出力部に出力させる。このようにすれば、ユーザー2は、画面を見なくても簡単に、基準スイングに対する比較スイングのシャフトプレーンの傾斜角の大小関係を認識することができる。
また、例えば、出力処理部217は、中心角θaと中心角θbの差分が所定角度を超える場合に、所定の音声を音声出力部に出力させる。また、例えば、出力処理部217は、中心角θaが中心角θbより小さい場合には、第3の音声を音声出力部に出力させ、中心角θaが中心角θbより大きい場合には、第4の音声を音声出力部に出力させる。このようにすれば、ユーザー2は、画面を見なくても簡単に、基準スイングに対する比較スイングのVゾーンの中心角の大小関係を認識することができる。
なお、運動解析装置20に発光部を設け、出力処理部217は、比較部215による比較結果に応じた音声を、運動解析装置20の音声出力部26に出力させてもよい。
上記のような、センサーユニット10又は運動解析装置20に設けられた音声出力部を用いた比較結果のユーザー2への報知は、画面600でユーザー2からスイングの指定を受け付けたタイミングに限られない。例えば、図4のフローチャートでスイングの解析が終了した場合に(例えばステップS80の終了後)、比較部215は、予め設定されている基準スイングと比較対象スイング(解析が終了したスイング)とを比較し、出力処理部217は、比較部215による比較結果に応じた音声を音声出力部に出力させればよい。このようにすれば、ユーザー2は、終えたばかりのスイングについて、基準スイングに対する比較結果を、ほぼリアルタイムにかつ簡単に認識することができる。
上記の例では、画面600で基準スイングと比較対象スイングがそれぞれ1つずつ表示されるが、複数のスイングに関する情報を含む画像を表示するようにしてもよい。
例えば、比較部215は、操作部23を介して、記憶部24に格納されている過去のスイングの中から、表示対象の複数のスイングの選択を受け付ける。出力処理部217は、図15(Vゾーンのパラメーターをプロットした画像例を示す図)に示すような画像700を含む画面を表示部25に表示させる。
画像700は、横軸をシャフトプレーンの傾斜角α、縦軸をVゾーンの中心角θとするグラフを含む。画像生成部216は、選択された各スイングのVゾーンのパラメーター(シャフトプレーン30の傾斜角α、シャフトプレーン30とホーガンプレーンが成すVゾーンの中心角θ)を記憶部24から取得し、これらの値をプロットしたグラフを生成する。ここで、画像生成部216は、最新のスイングを表す点710と、それ以外のスイングを表す点720とを、区別可能に異なる表示態様で描画してもよい。図15の例では、点710は白、点720は黒で表れている。
このようなグラフを表示することで、ユーザー2は、各スイングのVゾーンの位置、傾き、広さ等のばらつきを、簡単に認識することができる。また、ユーザー2は、最新のスイングのVゾーンが、過去のスイングのVゾーンと比べてどのような状態であるかを、簡単に認識することができる。なお、各スイングについて、シャフトプレーンの傾斜角α及びVゾーンの中心角θの一方をプロットしたグラフを生成するようにしてもよい。
ここで、基準取得部214は、各スイングのVゾーンに関するパラメーター(例えば、シャフトプレーンの傾斜角、ホーガンプレーンの傾斜角、Vゾーンの中心角のいずれか一つ以上)に基づいて、パラメーターのばらつきの度合い(例えば、標準偏差σなど)を求め、比較部215は、外れ値(例えば、パラメーターの平均値+2σを超える、又はパラメーターの平均値−2σ未満の値)のパラメーターを有するVゾーンとそのスイングを特定するようにしてもよい。例えば、比較部215は、ばらつきの度合いに基づいて、比較対象スイングが外れ値を有するかどうかを判定すればよい。この場合、画像生成部216は、外れ値を有するスイングを表す点と、それ以外のスイングを表す点とを、区別可能に異なる表示態様で描画してもよい。このようにすれば、ユーザー2は、どのスイングが普段と大きく異なっているかなどを、簡単に認識することができる。
なお、図4のフローチャートでスイングの解析が終了した場合に(例えばステップS80の終了後)、基準取得部214は、各スイングのVゾーンのパラメーターに基づいて、パラメーターのばらつきの度合いを求め、比較部215は、外れ値のパラメーターを有するVゾーンとそのスイングを特定してもよい。例えば、比較部215は、ばらつきの度合いに基づいて、解析が終了した最新のスイング(比較対象スイング)が外れ値を有するかどうかを判定すればよい。この場合、出力処理部217は、例えば、最新のスイングのパラメーターが外れ値を有する場合に、その旨を示す発光態様で発光部を発光させたり、その旨を示す音声を音声出力部に出力させたりしてもよい。このようにすれば、ユーザー2は、終えたばかりのスイングについて、普段と大きく異なっているかなどを、ほぼリアルタイムにかつ簡単に認識することができる。
上記の例では、基準取得部214は、1つのスイングを基準スイングとして取得しているが、複数のスイングを基準スイングとして取得してもよい。
例えば、基準取得部214は、記憶部24に格納されている全てのスイング、又は、選択されたスイングについて、これらのスイングに関する情報を取得する。そして、基準取得部214は、複数のスイングに関する情報に基づいて、シャフトプレーン30の傾斜角の平均値、又は、シャフトプレーン30及びホーガンプレーン40a成すVゾーンの中心角の平均値を計算し、これらを基準スイングの傾斜角及び中心角として使用する。このようにすれば、ユーザー2は、特定の1つのスイングではなく、平均的なスイングに対する比較結果を認識することができる。
以上、本発明の実施形態について説明した。本実施形態によれば、ユーザーは、シャフトプレーン及びホーガンプレーンの位置及び傾き、Vゾーンの大きさなどからアドレス姿勢を客観的に認識することができるので、より簡単にスイングの良し悪しを評価することができる。また、ユーザーは、スイング時のゴルフクラブの軌道とシャフトプレーン及びホーガンプレーンとの位置関係を認識することができるので、スイングの良し悪しを従来よりも正確に評価することができる。
また、本実施形態によれば、ゴルフクラブのシャフトの長軸がターゲットラインと垂直となるようにユーザーがアドレスするという制約を設けることで、運動解析装置は、アドレス時のセンサーユニットの計測データを用いて、打球の目標方向を表す第3線分を特定することができる。従って、運動解析装置は、この第3線分の方向に合わせてシャフトプレーンを適正に特定することができる。
また、本実施形態によれば、ユーザーの身体情報を考慮して、ホーガンプレーンにおけるユーザーの両肩を結ぶ線分上の所定位置を特定するため、1つのセンサーユニットの計測データを用いて、シャフトプレーンとホーガンプレーンを特定することができる。また、シャフトプレーンを所定角度(例えば30°)だけ回転させた仮想平面をホーガンプレーンとして特定する場合と比較して、ユーザーの体型に合ったホーガンプレーンを、より正確に特定することができる。
また、本実施形態によれば、基準スイングと比較対象スイングの比較が行われる。これにより、ユーザーは、例えば、過去と現在のアドレス姿勢の違いを客観的に認識することができるので、簡単にかつ正確にスイングの良し悪しを評価することができる。
また、本実施形態によれば、基準スイングと比較対象スイングについて、シャフトプレーンの傾斜角の比較が行われる。これにより、ユーザーは、例えば、過去と現在のシャフトの傾斜角の違いを客観的に認識することができるので、アドレス時の体とボールの距離などを、簡単にかつ正確に認識して、スイングの良し悪しを評価することができる。
また、本実施形態によれば、基準スイングと比較対象スイングについて、Vゾーンの中心角の広さの比較が行われる。これにより、ユーザーは、例えば、過去と現在のVゾーンの広さの違いを客観的に認識することができるので、アドレス時の腰の曲がり方などを、簡単にかつ正確に認識して、スイングの良し悪しを評価することができる。
また、本実施形態によれば、センサーユニットを用いてシャフトプレーン及びホーガンプレーンを特定するので、カメラなどの大掛かりな装置を使用する必要がなく、スイング解析を行う場所の制約が少ない。
本発明は、上述の実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。
上記の実施形態では、基準スイングのシャフトプレーン等と比較対象スイングのシャフトプレーン等を重ねて画像500に含めているが(図12、図13参照)、それぞれ別の画像に含めてこれらの画像を並べて表示するようにしてもよい。
上記の実施形態において、基準取得部214は、複数のスイングを基準スイングとして取得し、画像生成部216は、複数の基準スイングのシャフトプレーン等と比較対象スイングのシャフトプレーン等を重ねて画像500に含めるようにしてもよい。もちろん、複数の基準スイングのシャフトプレーン等を、それぞれ別の画像に含めてこれらの画像を並べて表示するようにしてもよい。同様に、比較対象スイングを複数選択可能であってもよい。
上記の実施形態において、スイングに関する情報をクラブの仕様別に管理し、基準スイングと比較対象スイングを比較する際に、同じ又は類似するクラブの仕様について、基準スイングと比較対象スイングが比較されるように制約を掛けてもよい。
上記の実施形態では、基準スイング及び比較対象スイングについて、アドレス時のシャフトプレーンの傾斜角やVゾーンの中心角等を比較しているが、スイング中の他の時点におけるシャフトプレーンの傾斜角やVゾーンの中心角等を特定してこれらを比較するようにしてもよい。例えば、第1仮想平面特定部211は、センサーユニット10が出力する計測データを用いて、スイング中のインパクト時の第1線分51及びシャフトプレーン30を特定する。また、2仮想平面特定部212は、センサーユニット10が出力する計測データと身体情報とを用いて、スイング中のインパクト時の第2線分53及びホーガンプレーン40を特定する。比較部215は、基準スイング及び比較対象スイングについて、インパクト時のシャフトプレーンの傾斜角やVゾーンの中心角等を比較すればよい。
上記の実施形態では、シャフトプレーンの傾斜角を比較しているが、ホーガンプレーンの角度を比較するようにしてもよい。
上記の実施形態では、第2仮想平面特定部212は、センサーユニット10が出力する計測データと身体情報とを用いて第2線分53を特定したが、第1仮想平面特定部211が特定した第1線分51と、第1線分51に対する所定角度θとを用いて、ゴルフクラブ3のヘッド(打撃部)の位置62と位置63とを結ぶ第2線分53を特定する処理を行ってもよい。
また、上記の実施形態では、運動解析装置20は、ゴルフクラブ3に装着したセンサーユニット10の計測データを用いて、シャフトプレーン及びホーガンプレーンを特定し、スイング中のゴルフクラブ3の軌跡を計算しているが、これ以外にも、例えば、ユーザー2の腕(手首など)に装着したセンサーユニット10の計測データを用いて、上記実施形態と同様の方法で、シャフトプレーン及びホーガンプレーンの特定やゴルフクラブ3の軌跡の計算を行ってもよい。あるいは、ゴルフクラブ3やユーザーの腕あるいは肩などの部位に、複数のセンサーユニット10を装着し、当該複数のセンサーユニット10の各々の計測データを用いて、シャフトプレーン及びホーガンプレーンの特定やゴルフクラブ3の軌跡の計算を行ってもよい。
また、上記の実施形態では、加速度センサー13と角速度センサー14が、センサーユニット10に内蔵されて一体化されているが、加速度センサー13と角速度センサー14は一体化されていなくてもよい。あるいは、加速度センサー13と角速度センサー14が、センサーユニット10に内蔵されずに、ゴルフクラブ3又はユーザー2に直接装着されてもよい。また、上記の実施形態では、センサーユニット10と運動解析装置20が別体であるが、これらを一体化してゴルフクラブ3又はユーザー2に装着可能にしてもよい。
また、上記の実施形態では、運動解析装置20は、ユーザー2の両肩を結ぶ線分上の所定位置63のZ座標AZを、式(9)のように、グリップエンドの位置62のY座標GYとユーザー2の腕の長さL2の和として計算しているが、これ以外の式を用いてもよい。例えば、運動解析装置20は、AZ=GY+K・L2のように、L2に係数Kを乗じてGYに加算してAZを求めてもよい。
また、上記の実施形態では、ゴルフスイングを解析する運動解析システム(運動解析装置)を例に挙げたが、本発明は、テニスや野球などの様々な運動のスイングを解析する運動解析システム(運動解析装置)に適用することができる。
上述した実施形態および変形例は一例であって、これらに限定されるわけではない。例えば、各実施形態および各変形例を適宜組み合わせることも可能である。
なお、図3で示した運動解析システム1の構成は、運動解析システム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。運動解析システム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理又は機能の分担は、本発明の目的及び効果を達成できるのであれば、上述したものに限られない。なお、上記実施形態では、センサーユニット10と運動解析装置20とを別体として説明したが、センサーユニット10に運動解析装置20の機能を搭載してもよい。
また、図4で示したフローチャートの処理単位は、運動解析装置20の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。運動解析装置20の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。さらに、上記のフローチャートの処理順序も、図示した例に限られるものではない。
1:運動解析システム、2:ユーザー、3:ゴルフクラブ、10:センサーユニット、11:制御部、12:通信部、13:加速度センサー、14:角速度センサー、20:運動解析装置、21:制御部、22:通信部、23:操作部、24:記憶部、25:表示部、26:音声出力部、30:シャフトプレーン、30a:シャフトプレーン、30b:シャフトプレーン、40:ホーガンプレーン、40a:ホーガンプレーン、40b:ホーガンプレーン、51:第1線分、52:第3線分、53:第2線分、61:位置、62:位置、63:所定位置、210:センサー情報取得部、211:第1仮想平面特定部、212:第2仮想平面特定部、213:運動解析部、214:基準取得部、215:比較部、216:画像生成部、217:出力処理部、500:画像、501:ポリゴンデータ、502:ポリゴンデータ、501a:ポリゴンデータ、502a:ポリゴンデータ、501b:ポリゴンデータ、502b:ポリゴンデータ、503:曲線、504:ポリゴンデータ、600:画面、610:スイング画像欄、620:前スイングボタン、630:次スイングボタン、640:基準スイング登録ボタン、650:傾斜角比較ボタン、660:Vゾーン比較ボタン、700:画像、710:点、720:点
Claims (10)
- 慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する第1特定部と、
前記第1軸の比較対象とする基準第1軸を取得する取得部と、
前記第1軸の傾きと、前記基準第1軸の傾きとを比較する比較部と
を有する運動解析装置。 - 請求項1に記載の運動解析装置であって、
前記比較部は、前記第1軸の傾きと前記基準第1軸の傾きとの大小を比較し、
比較結果に応じた出力を行う出力処理部
を有する運動解析装置。 - 請求項2に記載の運動解析装置であって、
前記出力処理部は、前記第1軸の傾きと前記基準第1軸の傾きとの差分が所定値を超える場合に、ユーザーに対して報知を行うための信号を生成する
運動解析装置。 - 請求項2に記載の運動解析装置であって、
前記出力処理部は、前記第1軸の傾きと前記基準第1軸の傾きとの差分に応じて、ユーザーに対して異なる報知を行うための信号を生成する
運動解析装置。 - 請求項3に記載の運動解析装置であって、
前記出力処理部は、前記ユーザーに対し発光で報知するための信号を生成する
運動解析装置。 - 請求項5に記載の運動解析装置であって、
前記出力処理部は、比較結果に応じて発光の種類を異ならせる信号を生成する
運動解析装置。 - 請求項1に記載の運動解析装置であって、
前記第1特定部は、前記第1軸と打球方向を示す第3軸とを含む第1仮想平面を特定し、
前記取得部は、前記基準第1軸と前記第3軸とを含む基準第1仮想平面を取得し、
前記比較部は、前記第1仮想平面の傾きと前記基準第1仮想平面の傾きとを比較する
運動解析装置。 - 慣性センサーと、
前記慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する第1特定部と、
前記第1軸の比較対象とする基準第1軸を取得する取得部と、
前記第1軸の傾きと、前記基準第1軸の傾きとを比較する比較部と
を有する運動解析システム。 - 慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する工程と、
前記第1軸の比較対象とする基準第1軸を取得する工程と、
前記第1軸の傾きと、前記基準第1軸の傾きとを比較する工程と
を含む運動解析方法。 - 慣性センサーの出力を用いて、スイングのアドレス時又はインパクト時の運動器具のシャフト部の長軸方向に沿った第1軸の傾きを特定する工程と、
前記第1軸の比較対象とする基準第1軸を取得する工程と、
前記第1軸の傾きと、前記基準第1軸の傾きとを比較する工程と
をコンピューターに実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014257255A JP2016116613A (ja) | 2014-12-19 | 2014-12-19 | 運動解析装置、運動解析システム、運動解析方法、及びプログラム |
US14/963,649 US20160175680A1 (en) | 2014-12-19 | 2015-12-09 | Exercise analysis device, exercise analysis system, exercise analysis method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014257255A JP2016116613A (ja) | 2014-12-19 | 2014-12-19 | 運動解析装置、運動解析システム、運動解析方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016116613A true JP2016116613A (ja) | 2016-06-30 |
Family
ID=56128312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014257255A Pending JP2016116613A (ja) | 2014-12-19 | 2014-12-19 | 運動解析装置、運動解析システム、運動解析方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160175680A1 (ja) |
JP (1) | JP2016116613A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019024550A (ja) * | 2017-07-25 | 2019-02-21 | 株式会社クオンタム | 検出装置、検出システム、処理装置、検出方法、及び検出プログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160175650A1 (en) * | 2014-12-19 | 2016-06-23 | Seiko Epson Corporation | Inclination determination device, inclination determination system, inclination determination method, exercise analysis device, exercise analysis system, exercise analysis method, and recording medium |
US10159885B2 (en) * | 2016-05-02 | 2018-12-25 | Nike, Inc. | Swing analysis system using angular rate and linear acceleration sensors |
US10220285B2 (en) | 2016-05-02 | 2019-03-05 | Nike, Inc. | Golf clubs and golf club heads having a sensor |
US10137347B2 (en) | 2016-05-02 | 2018-11-27 | Nike, Inc. | Golf clubs and golf club heads having a sensor |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2883255A (en) * | 1954-04-28 | 1959-04-21 | Panellit Inc | Automatic process logging system |
JP5870969B2 (ja) * | 2013-06-21 | 2016-03-01 | セイコーエプソン株式会社 | 運動解析装置および運動解析プログラム |
JP6295605B2 (ja) * | 2013-10-30 | 2018-03-20 | セイコーエプソン株式会社 | 運動解析装置 |
-
2014
- 2014-12-19 JP JP2014257255A patent/JP2016116613A/ja active Pending
-
2015
- 2015-12-09 US US14/963,649 patent/US20160175680A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019024550A (ja) * | 2017-07-25 | 2019-02-21 | 株式会社クオンタム | 検出装置、検出システム、処理装置、検出方法、及び検出プログラム |
JP7011416B2 (ja) | 2017-07-25 | 2022-01-26 | 株式会社クオンタム | 検出装置、検出システム、処理装置及び検出プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20160175680A1 (en) | 2016-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5870969B2 (ja) | 運動解析装置および運動解析プログラム | |
JP6696109B2 (ja) | 運動解析装置、運動解析システム、運動解析方法及びプログラム | |
JP6613684B2 (ja) | スイング診断方法、スイング診断プログラム、記録媒体、スイング診断装置及びスイング診断システム | |
US9962591B2 (en) | Motion analysis method, program, and motion analysis device | |
JP6613685B2 (ja) | スイング診断方法、スイング診断プログラム、記録媒体、スイング診断装置及びスイング診断システム | |
TW201501752A (zh) | 運動解析方法及運動解析裝置 | |
JP2016116566A (ja) | 運動解析装置、運動解析方法、プログラム、及び運動解析システム | |
JP2016067410A (ja) | 運動解析装置、運動解析システム、運動解析方法及びプログラム | |
JP2016116615A (ja) | 運動解析装置、運動解析システム、運動解析方法、及びプログラム | |
JP2016129565A (ja) | 運動解析装置、運動解析方法、プログラム、及び運動解析システム | |
JP2017023639A (ja) | スイング診断装置、スイング診断システム、スイング診断方法、スイング診断プログラム及び記録媒体 | |
JP2016116613A (ja) | 運動解析装置、運動解析システム、運動解析方法、及びプログラム | |
WO2015141173A1 (ja) | 運動解析方法、運動解析装置、運動解析システム及びプログラム | |
JP2017023638A (ja) | スイング診断装置、スイング診断システム、スイング診断方法、スイング診断プログラム及び記録媒体 | |
JP2017086164A (ja) | 電子機器、システム、方法、プログラム、及び記録媒体 | |
JP6380733B2 (ja) | 運動解析装置、運動解析システム、運動解析方法、運動解析情報の表示方法及びプログラム | |
KR20160076485A (ko) | 운동 해석 장치, 운동 해석 시스템, 운동 해석 방법, 표시 장치 및 기록 매체 | |
WO2015146062A1 (ja) | 運動解析方法、運動解析装置、運動解析システム及びプログラム | |
JP2017023636A (ja) | スイング診断装置、スイング診断システム、スイング診断方法、スイング診断プログラム及び記録媒体 | |
JP2017086850A (ja) | 電子機器、システム、方法、プログラム、及び記録媒体 | |
JP6315181B2 (ja) | 運動解析方法、運動解析装置、運動解析システム及びプログラム | |
JP2016116572A (ja) | 運動解析装置、運動解析方法、プログラム、及び運動解析システム | |
JP2016055028A (ja) | 運動解析方法、運動解析装置、運動解析システム及びプログラム | |
JP2018143404A (ja) | 運動解析装置、運動解析方法、運動解析システムおよび表示方法 | |
JP2016116745A (ja) | 傾き判定装置、傾き判定システム、傾き判定方法及びプログラム |