JP2016116566A - Motion analysis device, motion analysis method, program, and motion analysis system - Google Patents

Motion analysis device, motion analysis method, program, and motion analysis system Download PDF

Info

Publication number
JP2016116566A
JP2016116566A JP2014256579A JP2014256579A JP2016116566A JP 2016116566 A JP2016116566 A JP 2016116566A JP 2014256579 A JP2014256579 A JP 2014256579A JP 2014256579 A JP2014256579 A JP 2014256579A JP 2016116566 A JP2016116566 A JP 2016116566A
Authority
JP
Japan
Prior art keywords
axis
unit
motion analysis
trajectory
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014256579A
Other languages
Japanese (ja)
Inventor
顯 稲垣
Akira Inagaki
顯 稲垣
政樹 鵜川
Masaki Ugawa
政樹 鵜川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014256579A priority Critical patent/JP2016116566A/en
Priority to US14/965,394 priority patent/US20160175681A1/en
Publication of JP2016116566A publication Critical patent/JP2016116566A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to perform a swing evaluation simply.SOLUTION: A first virtual plane specifying part uses the output of an inertial sensor to specify a first shaft along the longitudinal direction of the shaft part of a locomotorium in the address position of a user. A second virtual plane specifying part has a ball hitting direction as a rotation axis and specifies a second shaft making a predetermined angle with respect to the first axis. A kinematic analysis part calculates the locus of the using of the user on the basis of the output of the inertial sensor. A locus judging part judges whether or not the locus of the swing passes a region specified on the basis of the first shaft and the second shaft.SELECTED DRAWING: Figure 3

Description

本発明は、運動解析装置、運動解析方法、プログラム、及び運動解析システムに関する。   The present invention relates to a motion analysis device, a motion analysis method, a program, and a motion analysis system.

特許文献1には、アドレス状態からスイング終了までの間、打球方向の後方から撮影して画像を取得し、アドレス状態でのゴルフクラブのシャフト軸を通る第1の直線と、第1の直線と交わりかつ設置されるティーの根元とゴルファーの首の付け根を通る第2の直線とにより、画像を少なくとも3つの領域に分解することが記載されている。   In Patent Document 1, from the address state to the end of the swing, an image is acquired from the back in the hitting direction, the first straight line passing through the shaft axis of the golf club in the address state, and the first straight line It is described that the image is decomposed into at least three regions by means of a crossed and installed tee root and a second straight line passing through the golfer's neck.

特開2010−82430号公報JP 2010-82430 A

ところで、スイングの良し悪しを図る指標としてVゾーンが知られている。一般的にスイングの軌跡がVゾーンに含まれていれば、良いスイングであると評価される。   By the way, the V zone is known as an index for improving the swing. Generally, if a swing trajectory is included in the V zone, it is evaluated as a good swing.

特許文献1では、打球方向の後方から、カメラを用いてアドレス時のゴルファーを撮影し、撮影した画像に対し、ユーザーが線を引くなどしてVゾーンを特定する。そして、特許文献1では、スイングするゴルファーをカメラで撮影し、ユーザーが線を引いたVゾーンに、ゴルファーのスイング軌跡が含まれるか否か目視で確認する。そのため、特許文献1では、スイング評価が困難であるという問題がある。   In Patent Document 1, a golfer at the time of addressing is photographed using a camera from the back in the hitting direction, and the user specifies a V zone by drawing a line on the photographed image. In Patent Document 1, a swinging golfer is photographed with a camera, and it is visually confirmed whether or not the golfer's swing trajectory is included in the V zone where the user has drawn a line. Therefore, in patent document 1, there exists a problem that swing evaluation is difficult.

そこで本発明は、スイング評価を簡単に行うことができる技術を提供する。   Therefore, the present invention provides a technique that can easily perform swing evaluation.

上記の課題を解決するための本発明の第一の態様は、慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する第1特定部と、打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する第2特定部と、前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する解析部と、前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する判定部と、を有することを特徴とする運動解析装置である。第一の態様によれば、運動解析装置は、第1軸と第2軸とに基づいて特定される領域に対する、スイングの軌跡の通過態様に応じて、スイングの軌跡の表示形態を変えることが可能となり、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   A first aspect of the present invention for solving the above-described problem is a first aspect of identifying a first axis along a major axis direction of a shaft portion of an exercise device in an address posture of a user using an output of an inertial sensor. Based on the output of the specific part, the second specific part that specifies the second axis that makes a predetermined angle with respect to the first axis with the direction of the hit ball as the rotational axis, and the output of the inertia sensor, A motion analysis apparatus comprising: an analysis unit that calculates; and a determination unit that determines whether or not the locus passes through a region specified based on the first axis and the second axis. is there. According to the first aspect, the motion analysis device can change the display form of the swing trajectory in accordance with the passage manner of the swing trajectory with respect to the region specified based on the first axis and the second axis. Thus, the user can easily see whether the locus of the swing passes through the region specified based on the first axis and the second axis, and can easily perform the swing evaluation.

前記判定部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とを判定する、ことを特徴としてもよい。これにより、運動解析装置は、スイングの軌跡の領域を通過している部分と、スイングの軌跡の領域を通過していない部分とに対し、スイングの軌跡の表示形態を変えることが可能となり、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   The determination unit may determine a portion of the locus that passes through the region and a portion of the locus that does not pass through the region. As a result, the motion analysis device can change the display form of the swing trajectory for the part that passes through the region of the swing trajectory and the part that does not pass through the region of the swing trajectory. Makes it easy to see whether the trajectory of the swing passes through a region specified based on the first axis and the second axis, and the swing evaluation can be easily performed.

前記判定部によって判定された、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の表示形態が異なる画像データを生成する画像生成部、をさらに有することを特徴としてもよい。これにより、ユーザーは、スイングの軌跡の表示形態の違いにより、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   Image generation for generating image data in which the display form of the trajectory is different between a portion of the trajectory that has passed through the region and a portion of the trajectory that has not passed through the region, as determined by the determination unit It is good also as having a part. This makes it easier for the user to see whether or not the swing trajectory passes through the area specified based on the first axis and the second axis due to the difference in the display format of the swing trajectory, and makes it easy to perform the swing evaluation. Can be done.

前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の色が異なる画像データを生成する、ことを特徴としてもよい。これにより、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か、スイングの軌跡の色の違いによって見やすくなり、スイング評価を簡単に行うことができる。   The image generation unit generates image data in which the color of the trajectory is different for a portion of the trajectory passing through the region and a portion of the trajectory not passing through the region. Also good. This makes it easier for the user to see whether the swing path passes through the area specified based on the first axis and the second axis, depending on the difference in the color of the swing path, and makes swing evaluation easier. It can be carried out.

前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡を常灯及び点滅を用いて区別させた画像データを生成する、ことを特徴としてもよい。これにより、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か、スイングの軌跡の常灯及び点滅よって見やすくなり、スイング評価を簡単に行うことができる。   The image generation unit generates image data obtained by distinguishing the trajectory using a normal light and blinking for a portion passing through the region of the trajectory and a portion not passing through the region of the trajectory. It may be characterized by generating. This makes it easier for the user to see whether the swing trajectory passes through an area specified based on the first axis and the second axis, and whether the swing trajectory is always lit or blinking, thereby simplifying the swing evaluation. Can be done.

前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の線の種類が異なる画像データを生成する、ことを特徴としてもよい。これにより、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か、スイングの軌跡の種類の違いによって見やすくなり、スイング評価を簡単に行うことができる。   The image generation unit generates image data having different types of lines of the trajectory for a portion passing through the region of the trajectory and a portion not passing through the region of the trajectory; It may be a feature. This makes it easier for the user to see whether or not the swing trajectory passes through an area specified based on the first axis and the second axis, depending on the type of swing trajectory, and makes swing evaluation easier. It can be carried out.

前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の線の太さが異なる画像データを生成する、ことを特徴としてもよい。これにより、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か、スイングの軌跡の線の太さの違いによって見やすくなり、スイング評価を簡単に行うことができる。   The image generation unit generates image data in which the thickness of the line of the trajectory is different between a portion of the trajectory passing through the region and a portion of the trajectory not passing through the region. May be a feature. This makes it easier for the user to see whether the swing trajectory passes through the region specified based on the first axis and the second axis, and the difference in the thickness of the swing trajectory line. Can be done easily.

前記第1特定部は、前記第1軸と前記打球方向とを含む第1仮想平面を特定し、前記第2特定部は、前記第2軸と前記打球方向とを含む第2仮想平面を特定し、前記領域は、前記第1仮想平面と前記第2仮想平面とによって挟まれている領域である、ことを特徴としてもよい。これにより、ユーザーは、スイングの軌跡が、第1仮想平面と第2仮想平面とに挟まれる領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   The first specifying unit specifies a first virtual plane that includes the first axis and the hitting direction, and the second specifying unit specifies a second virtual plane that includes the second axis and the hitting direction. However, the region may be a region sandwiched between the first virtual plane and the second virtual plane. This makes it easy for the user to see whether or not the swing trajectory passes through a region sandwiched between the first virtual plane and the second virtual plane, and can easily perform a swing evaluation.

前記画像生成部は、前記領域の外側に、前記領域を挟んで第1領域と第2領域とを定義し、前記領域、前記第1領域、および前記第2領域の各々を区別して表示させる画像データを生成する、ことを特徴としてもよい。これにより、ユーザーは、スイングの軌跡が、第1領域と第2領域とに対し、どのように通過しているのか見やすくなり、スイング評価を簡単に行うことができる。   The image generation unit defines a first area and a second area outside the area with the area interposed therebetween, and displays the area, the first area, and the second area separately. It is good also as generating data. Accordingly, the user can easily see how the swing locus passes through the first area and the second area, and can easily perform the swing evaluation.

上記の課題を解決するための本発明の第二の態様は、慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する工程と、打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する工程と、前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する工程と、前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する工程と、を含むことを特徴とする運動解析方法である。第二の態様によれば、運動解析装置は、第1軸と第2軸とに基づいて特定される領域に対する、スイングの軌跡の通過態様に応じて、スイングの軌跡の表示形態を変えることが可能となり、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   The second aspect of the present invention for solving the above-mentioned problem is a step of specifying a first axis along the long axis direction of the shaft portion of the exercise device in the user's address posture using the output of the inertial sensor; Identifying a second axis that forms a predetermined angle with respect to the first axis with the direction of the ball as the rotation axis, calculating a locus of the user's swing based on the output of the inertia sensor, Determining whether or not a trajectory passes through an area specified based on the first axis and the second axis. According to the second aspect, the motion analysis apparatus can change the display form of the swing trajectory according to the manner of passage of the swing trajectory with respect to the region specified based on the first axis and the second axis. Thus, the user can easily see whether the locus of the swing passes through the region specified based on the first axis and the second axis, and can easily perform the swing evaluation.

上記の課題を解決するための本発明の第三の態様は、慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する工程と、打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する工程と、前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する工程と、前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する工程と、をコンピューターに実行させるプログラムである。第三の態様によれば、コンピューターは、第1軸と第2軸とに基づいて特定される領域に対する、スイングの軌跡の通過態様に応じて、スイングの軌跡の表示形態を変えることが可能となり、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   A third aspect of the present invention for solving the above-described problem is a step of specifying a first axis along the longitudinal direction of the shaft portion of the exercise device in the user's address posture using the output of the inertial sensor; Identifying a second axis that forms a predetermined angle with respect to the first axis with the direction of the ball as the rotation axis, calculating a locus of the user's swing based on the output of the inertia sensor, Determining whether or not a trajectory passes through a region specified based on the first axis and the second axis. According to the third aspect, the computer can change the display form of the swing locus in accordance with the passage manner of the swing locus with respect to the region specified based on the first axis and the second axis. The user can easily see whether the trajectory of the swing passes through the region specified based on the first axis and the second axis, and can easily perform the swing evaluation.

上記の課題を解決するための本発明の第四の態様は、慣性センサーと、前記慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する第1特定部と、打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する第2特定部と、前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する解析部と、前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する判定部と、を有することを特徴とする運動解析システムである。第四の態様によれば、運動解析システムは、第1軸と第2軸とに基づいて特定される領域に対する、スイングの軌跡の通過態様に応じて、スイングの軌跡の表示形態を変えることが可能となり、ユーザーは、スイングの軌跡が、第1軸と第2軸とに基づいて特定される領域を通過しているか否か見やすくなり、スイング評価を簡単に行うことができる。   According to a fourth aspect of the present invention for solving the above-described problem, an inertial sensor and an output of the inertial sensor are used to provide a first axis along the longitudinal direction of the shaft portion of the exercise device in the user's address posture. Based on the output of the inertial sensor, a second specifying unit for specifying a second axis that makes a predetermined angle with respect to the first axis, with the direction of the hit ball as a rotation axis An analysis unit that calculates a trajectory of the swing of the motor, and a determination unit that determines whether or not the trajectory passes through an area specified based on the first axis and the second axis. It is a motion analysis system. According to the fourth aspect, the motion analysis system can change the display form of the swing locus in accordance with the passage manner of the swing locus for the region specified based on the first axis and the second axis. Thus, the user can easily see whether the locus of the swing passes through the region specified based on the first axis and the second axis, and can easily perform the swing evaluation.

本発明の一実施形態に係る運動解析システムの概要を示す図である。It is a figure showing the outline of the motion analysis system concerning one embodiment of the present invention. シャフトプレーン及びホーガンプレーンの一例を説明する図である。It is a figure explaining an example of a shaft plane and a Hogan plane. 運動解析システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a motion analysis system. 運動解析処理の一例を示すフローチャートである。It is a flowchart which shows an example of a motion analysis process. ユーザーの静止時におけるゴルフクラブとセンサーユニットをX軸の負側から見た平面図である。It is the top view which looked at the golf club and sensor unit at the time of a user's stationary from the negative side of the X-axis. シャフトプレーンをYZ平面で切った断面図をX軸の負側から見た図である。It is the figure which looked at the sectional view which cut the shaft plane with the YZ plane from the negative side of the X-axis. ホーガンプレーンをYZ平面で切った断面図をX軸の負側から見た図である。It is the figure which looked at the cross-sectional view which cut the Hogan plane in the YZ plane from the negative side of the X-axis. センサーユニットから出力される角速度の一例を示す図である。It is a figure which shows an example of the angular velocity output from a sensor unit. 角速度のノルムの一例を示す図である。It is a figure which shows an example of the norm of angular velocity. 角速度のノルムの微分値の一例を示す図である。It is a figure which shows an example of the differential value of the norm of angular velocity. シャフトプレーン及びホーガンプレーンをX軸の負側から見た図(YZ平面に投影した図)である。It is the figure (view projected on the YZ plane) which looked at the shaft plane and the Hogan plane from the negative side of the X axis. 表示部に表示される画面の一例を示した図である。It is the figure which showed an example of the screen displayed on a display part. 軌跡判定部及び画像生成部の動作の一例を示したフローチャートである。It is the flowchart which showed an example of operation | movement of a locus | trajectory determination part and an image generation part. 線分とホーガンプレーンを含むVゾーン外の領域とを表示した画面の一例を示した図である。It is the figure which showed an example of the screen which displayed the area | region outside V zone containing a line segment and a Hogan plane.

以下、本発明の実施形態について、図面を参照して説明する。以下では、ゴルフスイングの解析を行う運動解析システムを例に挙げて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Hereinafter, a motion analysis system that analyzes a golf swing will be described as an example.

図1は、本発明の一実施形態に係る運動解析システムの概要を示す図である。   FIG. 1 is a diagram showing an outline of a motion analysis system according to an embodiment of the present invention.

運動解析システム1は、センサーユニット10と、運動解析装置20とを備える。   The motion analysis system 1 includes a sensor unit 10 and a motion analysis device 20.

センサーユニット10は、慣性センサーとして、3軸の各軸方向に生じる加速度と3軸の各軸回りに生じる角速度を計測可能であり、ゴルフクラブ3に装着される。センサーユニット10は、例えば、3つの検出軸(x軸,y軸,z軸)のうちの1軸、例えばy軸をシャフトの長軸方向に合わせて、ゴルフクラブ3のシャフトの一部に取り付けられる。望ましくは、センサーユニット10は、ショット時の衝撃が伝わりにくく、スイング時に遠心力がかからないグリップ部に近い位置に取り付けられる。シャフトは、ゴルフクラブ3のヘッドを除いた柄の部分であり、グリップ部も含まれる。   As an inertial sensor, the sensor unit 10 can measure acceleration generated in each of the three axes and angular velocity generated around each of the three axes, and is attached to the golf club 3. The sensor unit 10 is attached to a part of the shaft of the golf club 3 such that one of three detection axes (x axis, y axis, z axis), for example, the y axis is aligned with the long axis direction of the shaft. It is done. Desirably, the sensor unit 10 is attached at a position close to a grip portion where a shock during a shot is not easily transmitted and a centrifugal force is not applied during a swing. The shaft is a portion of the handle excluding the head of the golf club 3 and includes a grip portion.

ユーザー2は、予め決められた手順に従って、ゴルフボール(図示せず)を打つスイング動作を行う。例えば、ユーザー2は、まず、ゴルフクラブ3を握って、ゴルフクラブ3のシャフトの長軸がターゲットライン(打球の目標方向)に対して垂直となるようにアドレスの姿勢をとり、所定時間以上(例えば、1秒以上)静止する。次に、ユーザー2は、スイング動作を行い、ゴルフボールを打って飛ばす。なお、本明細書におけるアドレス姿勢とは、スイング開始する前のユーザーの静止状態の姿勢、またはスイング開始する前にユーザーが運動器具を搖動(ワッグル)させている状態の姿勢を含む。また、ターゲットラインとは、任意の打球方向を指し、本実施例では一例として打球の目標方向と定めている。   The user 2 performs a swing motion of hitting a golf ball (not shown) according to a predetermined procedure. For example, the user 2 first holds the golf club 3 and takes an address posture so that the long axis of the shaft of the golf club 3 is perpendicular to the target line (the target direction of the hit ball), (For example, 1 second or more). Next, the user 2 performs a swing motion and hits and skips the golf ball. Note that the address posture in this specification includes a posture in a stationary state of the user before starting the swing, or a posture in a state where the user swings the exercise equipment (waggles) before starting the swing. In addition, the target line refers to an arbitrary hitting direction, and in this embodiment, the target direction of the hitting ball is defined as an example.

ユーザー2が上述の手順に従ってゴルフボールを打つ動作を行う間、センサーユニット10は、所定周期(例えば1ms)で3軸加速度と3軸角速度を計測し、計測したデータを順次、運動解析装置20に送信する。センサーユニット10は、計測したデータをすぐに送信してもよいし、計測したデータを内部メモリーに記憶しておき、ユーザー2のスイング動作の終了後などの所望のタイミングで計測データを送信するようにしてもよい。センサーユニット10と運動解析装置20との間の通信は、無線通信でもよいし、有線通信でもよい。あるいは、センサーユニット10は、計測したデータをメモリーカード等の着脱可能な記録媒体に記憶しておき、運動解析装置20は、当該記録媒体から計測データを読み出すようにしてもよい。   While the user 2 performs the operation of hitting the golf ball according to the above-described procedure, the sensor unit 10 measures the triaxial acceleration and the triaxial angular velocity at a predetermined cycle (for example, 1 ms), and sequentially transmits the measured data to the motion analysis device 20. Send. The sensor unit 10 may transmit the measured data immediately, or store the measured data in the internal memory, and transmit the measured data at a desired timing such as after the end of the swing motion of the user 2. It may be. The communication between the sensor unit 10 and the motion analysis device 20 may be wireless communication or wired communication. Alternatively, the sensor unit 10 may store the measured data in a removable recording medium such as a memory card, and the motion analysis apparatus 20 may read the measurement data from the recording medium.

運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2のゴルフクラブ3を用いたスイング運動を解析する。特に、本実施形態では、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2の静止時(アドレス時)におけるシャフトプレーン(本発明の第1仮想平面あるいは第1軸に相当する)とホーガンプレーン(本発明の第2仮想平面あるいは第2軸に相当する)を特定する。   The motion analysis device 20 analyzes the swing motion of the user 2 using the golf club 3 using the data measured by the sensor unit 10. In particular, in the present embodiment, the motion analysis device 20 uses the data measured by the sensor unit 10 to correspond to the shaft plane (at the time of addressing) of the user 2 (corresponding to the first virtual plane or the first axis of the present invention). And Hogan's plane (corresponding to the second virtual plane or the second axis of the present invention).

運動解析装置20は、ユーザー2がスイング動作を開始した後、スイングにおけるゴルフクラブ3の軌跡(例えば、ヘッドの軌跡)を計算する。そして、運動解析装置20は、シャフトプレーンとホーガンプレーンとの間のVゾーンと呼ばれる領域に対する、ゴルフクラブ3の軌跡の通過態様に応じて、軌跡の表示形態を変え、表示装置に表示する。その際、運動解析装置20は、Vゾーンを示すシャフトプレーン及びホーガンプレーンを表示装置に表示しない。すなわち、運動解析装置20は、ゴルフクラブ3の軌跡を、表示形態を変えて表示装置に表示することによって、ゴルフクラブ3の軌跡が、Vゾーンをどのように通過しているか、ユーザー2に見せる。   The motion analysis device 20 calculates the trajectory (for example, the trajectory of the head) of the golf club 3 in the swing after the user 2 starts the swing motion. Then, the motion analysis apparatus 20 changes the display form of the trajectory according to the passage mode of the trajectory of the golf club 3 with respect to the region called the V zone between the shaft plane and the Hogan plane, and displays it on the display device. At that time, the motion analysis device 20 does not display the shaft plane and the Hogan plane indicating the V zone on the display device. In other words, the motion analysis device 20 displays the trajectory of the golf club 3 on the display device by changing the display form, so that the user 2 can see how the trajectory of the golf club 3 passes through the V zone. .

例えば、運動解析装置20は、Vゾーン外における軌跡を、例えば、赤色等の第1色で表示装置に表示し、Vゾーン内における軌跡を、第1色とは異なる、例えば、青色等の第2色で表示装置に表示する。これにより、ユーザー2は、Vゾーンを示すシャフトプレーンとホーガンプレーンとが表示装置に表示されなくても、自分のスイング軌跡がどのようにVゾーンを通過しているか、知ることができる。   For example, the motion analysis apparatus 20 displays a trajectory outside the V zone on the display device in a first color such as red, for example, and the trajectory inside the V zone is different from the first color, such as a first color such as blue. Display on the display device in two colors. Thereby, the user 2 can know how his / her swing trajectory passes through the V zone even when the shaft plane and the Hogan plane indicating the V zone are not displayed on the display device.

なお、運動解析装置20は、例えば、スマートフォンなどの携帯機器やパーソナルコンピューター(PC:Personal Computer)であってもよい。また、図1では、運動解析装置20はユーザー2の腰に装着されているが、装着位置は特に限定されず、また運動解析装置20はユーザー2に装着されていなくてもよい。   The motion analysis device 20 may be, for example, a portable device such as a smartphone or a personal computer (PC). In FIG. 1, the motion analysis device 20 is mounted on the waist of the user 2, but the mounting position is not particularly limited, and the motion analysis device 20 may not be mounted on the user 2.

図2は、シャフトプレーン及びホーガンプレーンの一例を説明する図である。本実施形態では、打球の目標方向を示すターゲットラインをX軸、X軸に垂直な水平面上の軸をY軸、鉛直上方向(重力加速度の方向と逆方向)をZ軸とするXYZ座標系(グローバル座標系)を定義し、図2にはX軸,Y軸,Z軸が表記されている。   FIG. 2 is a diagram illustrating an example of a shaft plane and a Hogan plane. In the present embodiment, an XYZ coordinate system in which the target line indicating the target direction of the hit ball is the X axis, the axis on the horizontal plane perpendicular to the X axis is the Y axis, and the vertical direction (the direction opposite to the direction of gravitational acceleration) is the Z axis. (Global coordinate system) is defined, and FIG. 2 shows the X axis, Y axis, and Z axis.

ここで、ユーザー2のアドレス時のシャフトプレーン30は、ゴルフクラブ3のシャフトの長軸方向に沿った第1軸としての第1線分51と、打球の目標方向を表す第3軸としての第3線分52と、を含み、T1,T2,S1,S2を4つの頂点とする仮想平面である。本実施形態では、ゴルフクラブ3のヘッド(打撃部)の位置61をXYZ座標系の原点O(0,0,0)とし、第1線分51は、ゴルフクラブ3のヘッドの位置61(原点O)とグリップエンドの位置62とを結ぶ線分である。また、第3線分52は、X軸上のT1,T2を両端として原点Oを中点とする長さTLの線分である。ユーザー2がアドレス時に上述したアドレス姿勢をとることでゴルフクラブ3のシャフトがターゲットライン(X軸)に対して垂直となるので、第3線分52は、ゴルフクラブ3のシャフトの長軸方向と直交する線分、すなわち第1線分51と直交する線分である。XYZ座標系における4つの頂点T1,T2,S1,S2の各座標を算出することによりシャフトプレーン30が特定される。T1,T2,S1,S2の各座標の算出方法については、後に詳述する。   Here, the shaft plane 30 at the time of the address of the user 2 includes a first line segment 51 as the first axis along the major axis direction of the shaft of the golf club 3 and a third axis as the third axis representing the target direction of the hit ball. 3 is a virtual plane including four line vertices, T1, T2, S1, and S2. In the present embodiment, the position 61 of the head (striking part) of the golf club 3 is the origin O (0, 0, 0) of the XYZ coordinate system, and the first line segment 51 is the position 61 (origin of the golf club 3) This is a line segment connecting O) and the grip end position 62. The third line segment 52 is a line segment having a length TL with T1 and T2 on the X axis as both ends and the origin O as a midpoint. When the user 2 takes the address attitude described above at the time of addressing, the shaft of the golf club 3 is perpendicular to the target line (X axis), and therefore, the third line segment 52 is the long axis direction of the shaft of the golf club 3. This is a line segment that is orthogonal to the first line segment 51. The shaft plane 30 is specified by calculating the coordinates of the four vertices T1, T2, S1, and S2 in the XYZ coordinate system. A method for calculating the coordinates of T1, T2, S1, and S2 will be described in detail later.

また、ホーガンプレーン40は、第3線分52と、第2軸としての第2線分53と、を含み、T1,T2,H1,H2を4つの頂点とする仮想平面である。本実施形態では、第2線分53は、ユーザー2の両肩を結ぶ線分上の所定位置63(例えば、首の付け根の位置や左右いずれかの肩の位置など)とゴルフクラブ3のヘッド(打撃部)の位置62(打撃位置の一例)とを結ぶ線分である。ただし、第2線分53は、所定位置63とアドレス時のボールの位置(打撃位置の一例)とを結ぶ線分であってもよい。XYZ座標系における4つの頂点T1,T2,H1,H2の各座標を算出することによりホーガンプレーン40が特定される。T1,T2,H1,H2の各座標の算出方法については、後に詳述する。   The Hogan plane 40 is a virtual plane that includes a third line segment 52 and a second line segment 53 as the second axis, and has four vertices at T1, T2, H1, and H2. In the present embodiment, the second line segment 53 is a predetermined position 63 (for example, the position of the base of the neck or the position of one of the left and right shoulders) on the line segment connecting both shoulders of the user 2 and the head of the golf club 3. This is a line segment that connects the position 62 (an example of the striking position) of the (striking part). However, the second line segment 53 may be a line segment that connects the predetermined position 63 and the ball position at the time of addressing (an example of a hitting position). The Hogan plane 40 is specified by calculating the coordinates of the four vertices T1, T2, H1, and H2 in the XYZ coordinate system. A method for calculating the coordinates of T1, T2, H1, and H2 will be described in detail later.

図3は、運動解析システムの構成の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of the configuration of the motion analysis system.

センサーユニット10は、制御部11、通信部12、加速度センサー13、及び角速度センサー14を有する。   The sensor unit 10 includes a control unit 11, a communication unit 12, an acceleration sensor 13, and an angular velocity sensor 14.

加速度センサー13は、互いに交差する(理想的には直交する)3軸方向の各々に生じる加速度を計測し、計測した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。   The acceleration sensor 13 measures acceleration generated in each of the three axis directions that intersect (ideally orthogonal) with each other, and outputs a digital signal (acceleration data) corresponding to the magnitude and direction of the measured three axis acceleration. .

角速度センサー14は、互いに交差する(理想的には直交する)3軸の各々の軸回りに生じる角速度を計測し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。   The angular velocity sensor 14 measures an angular velocity generated around each of three axes that intersect each other (ideally orthogonal), and outputs a digital signal (angular velocity data) corresponding to the magnitude and direction of the measured three-axis angular velocity. Output.

制御部11は、センサーユニットを統合的に制御する。制御部11は、加速度センサー13と角速度センサー14から、それぞれ加速度データと角速度データを受け取って時刻情報を付して記憶部(図示せず)に記憶する。また、制御部11は、記憶した計測データ(加速度データと角速度データ)に時刻情報を付して通信用のフォーマットに合わせたパケットデータを生成し、通信部12に出力する。   The control unit 11 controls the sensor unit in an integrated manner. The control unit 11 receives acceleration data and angular velocity data from the acceleration sensor 13 and the angular velocity sensor 14, respectively, attaches time information, and stores them in a storage unit (not shown). In addition, the control unit 11 adds time information to the stored measurement data (acceleration data and angular velocity data), generates packet data that matches the communication format, and outputs the packet data to the communication unit 12.

加速度センサー13及び角速度センサー14は、それぞれ3軸が、センサーユニット10に対して定義される直交座標系(センサー座標系)の3軸(x軸、y軸、z軸)と一致するようにセンサーユニット10に取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、制御部11は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをxyz座標系のデータに変換する処理を行う。   The acceleration sensor 13 and the angular velocity sensor 14 each have three axes that coincide with the three axes (x axis, y axis, z axis) of the orthogonal coordinate system (sensor coordinate system) defined for the sensor unit 10. Although it is ideal to be attached to the unit 10, an error in the attachment angle actually occurs. Therefore, the control unit 11 performs a process of converting the acceleration data and the angular velocity data into data in the xyz coordinate system using a correction parameter calculated in advance according to the attachment angle error.

さらに、制御部11は、加速度センサー13及び角速度センサー14の温度補正処理を行ってもよい。あるいは、加速度センサー13及び角速度センサー14に温度補正の機能が組み込まれていてもよい。   Further, the control unit 11 may perform temperature correction processing for the acceleration sensor 13 and the angular velocity sensor 14. Alternatively, a temperature correction function may be incorporated in the acceleration sensor 13 and the angular velocity sensor 14.

なお、加速度センサー13と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、制御部11が、加速度センサー13の出力信号と角速度センサー14の出力信号をそれぞれA/D(アナログ/デジタル)変換して計測データ(加速度データと角速度データ)を生成し、これらを用いて通信用のパケットデータを生成すればよい。   The acceleration sensor 13 and the angular velocity sensor 14 may output analog signals. In this case, the control unit 11 converts the output signal of the acceleration sensor 13 and the output signal of the angular velocity sensor 14 to A / D, respectively. Measurement data (acceleration data and angular velocity data) may be generated by (analog / digital) conversion, and packet data for communication may be generated using these.

通信部12は、制御部11から受け取ったパケットデータを運動解析装置20に送信する処理や、運動解析装置20から制御コマンドを受信して制御部11に送る処理等を行う。制御部11は、制御コマンドに応じた各種処理を行う。   The communication unit 12 performs processing for transmitting the packet data received from the control unit 11 to the motion analysis device 20, processing for receiving a control command from the motion analysis device 20 and sending it to the control unit 11, and the like. The control unit 11 performs various processes according to the control command.

運動解析装置20は、制御部21、通信部22、操作部23、記憶部24、表示部25、及び音声出力部26を有する。   The motion analysis apparatus 20 includes a control unit 21, a communication unit 22, an operation unit 23, a storage unit 24, a display unit 25, and an audio output unit 26.

通信部22は、センサーユニット10から送信されたパケットデータを受信し、制御部21に送る処理や、制御部21からの制御コマンドをセンサーユニット10に送信する処理等を行う。   The communication unit 22 receives the packet data transmitted from the sensor unit 10 and performs processing to send the packet data to the control unit 21, processing to send a control command from the control unit 21 to the sensor unit 10, and the like.

操作部23は、ユーザーからの操作データを取得し、制御部21に送る処理を行う。操作部23は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。   The operation unit 23 performs a process of acquiring operation data from the user and sending it to the control unit 21. The operation unit 23 may be, for example, a touch panel display, a button, a key, a microphone, or the like.

記憶部24は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。   The storage unit 24 includes, for example, various IC memories such as a ROM (Read Only Memory), a flash ROM, and a RAM (Random Access Memory), a recording medium such as a hard disk and a memory card, and the like.

記憶部24は、制御部21が各種の計算処理や制御処理を行うためのプログラムや、アプリケーション機能を実現するための各種プログラムやデータ等を記憶している。特に、本実施形態では、記憶部24には、制御部21によって読み出され、運動解析処理を実行するための運動解析プログラムが記憶されている。運動解析プログラムは、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、制御部21がネットワークを介してサーバーから運動解析プログラムを受信して記憶部24に記憶させてもよい。   The storage unit 24 stores programs for the control unit 21 to perform various calculation processes and control processes, various programs and data for realizing application functions, and the like. In particular, in the present embodiment, the storage unit 24 stores a motion analysis program that is read by the control unit 21 and that executes a motion analysis process. The motion analysis program may be stored in advance in a nonvolatile recording medium, or the control unit 21 may receive the motion analysis program from the server via the network and store the motion analysis program in the storage unit 24.

また、本実施形態では、記憶部24には、ユーザー2の身体情報、ゴルフクラブ3の仕様を表すクラブ仕様情報、及びセンサー装着位置情報が記憶される。例えば、ユーザー2が操作部23を操作して身長、体重、性別などの身体情報を入力し、入力された身体情報が身体情報として記憶部24に記憶される。また、例えば、ユーザー2が操作部23を操作して使用するゴルフクラブ3の型番を入力(あるいは、型番リストから選択)し、記憶部24にあらかじめ記憶されている型番毎の仕様情報(例えば、シャフトの長さ、重心の位置、ライ角、フェース角、ロフト角等の情報など)のうち、入力された型番の仕様情報をクラブ仕様情報とする。また、例えば、ユーザー2が操作部23を操作してセンサーユニット10の装着位置とゴルフクラブ3のグリップエンドとの間の距離を入力し、入力された距離の情報がセンサー装着位置情報として記憶部24に記憶される。あるいは、センサーユニット10を決められた所定位置(例えば、グリップエンドから20cmの距離など)に装着するものとして、当該所定位置の情報がセンサー装着位置情報としてあらかじめ記憶されていてもよい。   In the present embodiment, the storage unit 24 stores body information of the user 2, club specification information indicating the specifications of the golf club 3, and sensor mounting position information. For example, the user 2 operates the operation unit 23 to input physical information such as height, weight, and sex, and the input physical information is stored in the storage unit 24 as physical information. Further, for example, the user 2 inputs the model number of the golf club 3 to be used by operating the operation unit 23 (or selected from the model number list), and the specification information for each model number stored in advance in the storage unit 24 (for example, Of the shaft length, the position of the center of gravity, information on the lie angle, face angle, loft angle, etc.), the specification information of the input model number is used as club specification information. Further, for example, the user 2 operates the operation unit 23 to input the distance between the mounting position of the sensor unit 10 and the grip end of the golf club 3, and the information on the input distance is stored as sensor mounting position information. 24. Alternatively, the sensor unit 10 may be mounted at a predetermined position (for example, a distance of 20 cm from the grip end), and information on the predetermined position may be stored in advance as sensor mounting position information.

また、記憶部24は、制御部21の作業領域として用いられ、操作部23から入力されたデータ、制御部21が各種プログラムに従って実行した演算結果等を一時的に記憶する。さらに、記憶部24は、制御部21の処理により生成されたデータのうち、長期的な保存が必要なデータを記憶してもよい。   The storage unit 24 is used as a work area of the control unit 21, and temporarily stores data input from the operation unit 23, calculation results executed by the control unit 21 according to various programs, and the like. Furthermore, the memory | storage part 24 may memorize | store the data which require long-term preservation | save among the data produced | generated by the process of the control part 21. FIG.

表示部25は、制御部21の処理結果を文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部25は、例えば、CRT(Cathode-Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、EPD(Electrophoretic Display)、有機発光ダイオード(OLED)を用いたディスプレイ、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)などであってもよい。なお、1つのタッチパネル型ディスプレイで操作部23と表示部25の機能を実現するようにしてもよい。   The display unit 25 displays the processing results of the control unit 21 as characters, graphs, tables, animations, and other images. The display unit 25 is, for example, a CRT (Cathode-Ray Tube) display, an LCD (Liquid Crystal Display), an EPD (Electrophoretic Display), a display using an organic light emitting diode (OLED), a touch panel display, or an HMD (head mounted display). It may be. In addition, you may make it implement | achieve the function of the operation part 23 and the display part 25 with one touchscreen type display.

音声出力部26は、制御部21の処理結果を音声やブザー音等の音として出力するものである。音声出力部26は、例えば、スピーカーやブザーなどであってもよい。   The sound output unit 26 outputs the processing result of the control unit 21 as sound such as sound and buzzer sound. The audio output unit 26 may be, for example, a speaker or a buzzer.

制御部21は、各種プログラムに従って、センサーユニット10に制御コマンドを送信する処理や、センサーユニット10から通信部22を介して受信したデータに対する各種の計算処理や、その他の各種の制御処理を行う。特に、本実施形態では、制御部21は、運動解析プログラムを実行することにより、センサー情報取得部210、第1仮想平面特定部211(本発明の第1特定部に相当する)、第2仮想平面特定部212(本発明の第2特定部に相当する)、運動解析部213(本発明の解析部に相当する)、軌跡判定部214(本発明の判定部に相当する)、画像生成部215、及び出力処理部216として機能する。なお、センサー情報取得部210、第1仮想平面特定部211、第2仮想平面特定部212、運動解析部213、軌跡判定部214、画像生成部215、及び出力処理部216は個別の演算手段で演算しても良いし、一部または全てが同じ演算手段で演算しても良い。   The control unit 21 performs processing for transmitting a control command to the sensor unit 10 according to various programs, various calculation processing for data received from the sensor unit 10 via the communication unit 22, and other various control processing. In particular, in the present embodiment, the control unit 21 executes a motion analysis program, whereby a sensor information acquisition unit 210, a first virtual plane specifying unit 211 (corresponding to the first specifying unit of the present invention), a second virtual Plane specifying unit 212 (corresponding to the second specifying unit of the present invention), motion analyzing unit 213 (corresponding to the analyzing unit of the present invention), trajectory determining unit 214 (corresponding to the determining unit of the present invention), image generating unit 215 and the output processing unit 216. The sensor information acquisition unit 210, the first virtual plane specification unit 211, the second virtual plane specification unit 212, the motion analysis unit 213, the trajectory determination unit 214, the image generation unit 215, and the output processing unit 216 are individual calculation means. Calculation may be performed, or part or all may be calculated by the same calculation means.

なお、制御部21は、例えば、演算装置であるCPU(Central Processing Unit)、揮発性の記憶装置であるRAM(Random Access Memory)、不揮発性の記憶装置であるROM、制御部21と他のユニットを接続するインターフェイス(I/F)回路、これらを互いに接続するバス、などを備えるコンピューターにより実現してもよい。コンピューターは、画像処理回路など各種の専用処理回路を備えていてもよい。また、制御部21は、ASIC(Application Specific Integrated Circuit)などにより実現されてもよい。   The control unit 21 includes, for example, a CPU (Central Processing Unit) that is an arithmetic device, a RAM (Random Access Memory) that is a volatile storage device, a ROM that is a nonvolatile storage device, and the control unit 21 and other units. May be realized by a computer including an interface (I / F) circuit for connecting the two, a bus for connecting these to each other, and the like. The computer may include various dedicated processing circuits such as an image processing circuit. The control unit 21 may be realized by an ASIC (Application Specific Integrated Circuit) or the like.

センサー情報取得部210は、通信部22がセンサーユニット10から受信したパケットデータを受け取り、受け取ったパケットデータから時刻情報及び計測データを取得する。また、センサー情報取得部210は、取得した時刻情報と計測データを対応づけて記憶部24に記憶させる。   The sensor information acquisition unit 210 receives the packet data received from the sensor unit 10 by the communication unit 22 and acquires time information and measurement data from the received packet data. Further, the sensor information acquisition unit 210 stores the acquired time information and measurement data in the storage unit 24 in association with each other.

第1仮想平面特定部211は、センサーユニット10が出力する計測データを用いて、ユーザー2の静止時における、ゴルフクラブ3のシャフトの長軸方向に沿った第1線分51を特定する処理を行う。さらに、第1仮想平面特定部211は、第1線分51と、打球の目標方向を表す第3線分52と、を含むシャフトプレーン(第1仮想平面)30(図2参照)を特定する処理を行う。   The first virtual plane specifying unit 211 uses the measurement data output from the sensor unit 10 to perform processing for specifying the first line segment 51 along the long axis direction of the shaft of the golf club 3 when the user 2 is stationary. Do. Further, the first virtual plane specifying unit 211 specifies a shaft plane (first virtual plane) 30 (see FIG. 2) including the first line segment 51 and the third line segment 52 representing the target direction of the hit ball. Process.

第1仮想平面特定部211は、センサーユニット10が出力する計測データを用いて、ゴルフクラブ3のグリップエンドの位置62の座標を計算し、グリップエンドの位置62の座標により第1線分51を特定してもよい。例えば、第1仮想平面特定部211は、ユーザー2の静止時(アドレス時)における加速度センサー13が計測した加速度データを用いてゴルフクラブ3のシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算し、計算した傾斜角とクラブ仕様情報に含まれるシャフトの長さの情報とを用いて、第1線分51を特定してもよい。   The first virtual plane specifying unit 211 calculates the coordinates of the grip end position 62 of the golf club 3 using the measurement data output from the sensor unit 10, and calculates the first line segment 51 based on the coordinates of the grip end position 62. You may specify. For example, the first virtual plane specifying unit 211 uses the acceleration data measured by the acceleration sensor 13 when the user 2 is stationary (at the time of addressing), and the tilt angle (horizontal plane (XY plane) or vertical plane ( The first line segment 51 may be specified using the calculated inclination angle and the shaft length information included in the club specification information.

また、第1仮想平面特定部211は、第1線分51の長さと身体情報に基づくユーザー2の腕の長さとを用いて、シャフトプレーン30の幅を計算してもよい。   Further, the first virtual plane specifying unit 211 may calculate the width of the shaft plane 30 using the length of the first line segment 51 and the length of the arm of the user 2 based on the body information.

第2仮想平面特定部212は、打球の目標方向(第3線分52)を回転軸として、第1仮想平面特定部211が特定した第1線分51に対して所定角度をなす第2線分53を特定する処理を行う。さらに、第2仮想平面特定部212は、第2線分53と、第3線分52と、を含むホーガンプレーン(第2仮想平面)40(図2参照)を特定する処理を行う。   The second virtual plane specifying unit 212 is a second line that forms a predetermined angle with respect to the first line segment 51 specified by the first virtual plane specifying unit 211 with the target direction (third line segment 52) of the hit ball as the rotation axis. Processing for specifying the minute 53 is performed. Furthermore, the second virtual plane specifying unit 212 performs a process of specifying a Hogan plane (second virtual plane) 40 (see FIG. 2) including the second line segment 53 and the third line segment 52.

例えば、第2仮想平面特定部212は、センサーユニット10が出力する計測データと身体情報とを用いて、ユーザー2の静止時におけるユーザー2の頭部と胸部の間(例えば、両肩を結ぶ線分上)の所定位置63を推定し、推定した所定位置63とゴルフクラブ3のヘッド(打撃部)の位置62とを結ぶ第2線分53を特定する処理を行う。そして、第2仮想平面特定部212は、第2線分53と、第3線分52と、を含むホーガンプレーン40を特定する処理を行う。   For example, the second virtual plane specifying unit 212 uses the measurement data output from the sensor unit 10 and the body information, between the head and chest of the user 2 when the user 2 is stationary (for example, a line connecting both shoulders). The predetermined position 63 is estimated and the second line segment 53 connecting the estimated predetermined position 63 and the position 62 of the head (striking part) of the golf club 3 is specified. Then, the second virtual plane specifying unit 212 performs processing for specifying the Hogan plane 40 including the second line segment 53 and the third line segment 52.

第2仮想平面特定部212は、第1仮想平面特定部211が計算したグリップエンドの位置62の座標と、身体情報に基づくユーザー2の腕の長さとを用いて、所定位置63を推定してもよい。あるいは、第2仮想平面特定部212が、センサーユニット10が出力する計測データを用いて、ゴルフクラブ3のグリップエンドの位置62の座標を計算してもよい。この場合は、第1仮想平面特定部211は、第2仮想平面特定部212が計算したグリップエンドの位置62の座標を用いて、シャフトプレーン30を特定してもよい。   The second virtual plane specifying unit 212 estimates the predetermined position 63 using the coordinates of the grip end position 62 calculated by the first virtual plane specifying unit 211 and the arm length of the user 2 based on the body information. Also good. Alternatively, the second virtual plane specifying unit 212 may calculate the coordinates of the grip end position 62 of the golf club 3 using the measurement data output from the sensor unit 10. In this case, the first virtual plane specifying unit 211 may specify the shaft plane 30 using the coordinates of the grip end position 62 calculated by the second virtual plane specifying unit 212.

また、第2仮想平面特定部212は、第1線分51の長さと身体情報に基づくユーザー2の腕の長さとを用いて、ホーガンプレーン40の幅を計算してもよい。   Further, the second virtual plane specifying unit 212 may calculate the width of the Hogan plane 40 by using the length of the first line segment 51 and the arm length of the user 2 based on the body information.

運動解析部213は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイング運動を解析する処理を行う。具体的には、運動解析部213は、まず、記憶部24に記憶された、ユーザー2の静止時(アドレス時)の計測データ(加速度データ及び角速度データ)を用いて、計測データに含まれるオフセット量を計算する。次に、運動解析部213は、記憶部24に記憶された、スイング開始後の計測データからオフセット量を減算してバイアス補正し、バイアス補正された計測データを用いて、ユーザー2のスイング動作中のセンサーユニット10の位置及び姿勢を計算する。   The motion analysis unit 213 performs processing for analyzing the swing motion of the user 2 using the measurement data output from the sensor unit 10. Specifically, the motion analysis unit 213 first uses the measurement data (acceleration data and angular velocity data) stored in the storage unit 24 when the user 2 is stationary (at the time of address), and the offset included in the measurement data. Calculate the quantity. Next, the motion analysis unit 213 performs bias correction by subtracting the offset amount from the measurement data after the start of the swing stored in the storage unit 24, and the user 2 is performing the swing operation using the bias-corrected measurement data. The position and orientation of the sensor unit 10 are calculated.

例えば、運動解析部213は、加速度センサー13が計測した加速度データ、クラブ仕様情報及びセンサー装着位置情報を用いて、XYZ座標系(グローバル座標系)におけるユーザー2の静止時(アドレス時)のセンサーユニット10の位置(初期位置)を計算し、その後の加速度データを積分してセンサーユニット10の初期位置からの位置の変化を時系列に計算する。ユーザー2は所定のアドレス姿勢で静止するので、センサーユニット10の初期位置のX座標は0である。さらに、センサーユニット10のy軸はゴルフクラブ3のシャフトの長軸方向と一致し、ユーザー2の静止時には、加速度センサー13は重力加速度のみを計測するので、運動解析部213は、y軸加速度データを用いてシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算することができる。そして、運動解析部213は、シャフトの傾斜角、クラブ仕様情報(シャフトの長さ)及びセンサー装着位置情報(グリップエンドからの距離)を用いて、センサーユニット10の初期位置のY座標及びZ座標を計算し、センサーユニット10の初期位置を特定することができる。あるいは、運動解析部213は、第1仮想平面特定部211又は第2仮想平面特定部212が計算したゴルフクラブ3のグリップエンドの位置62の座標とセンサー装着位置情報(グリップエンドからの距離)を用いて、センサーユニット10の初期位置の座標を計算してもよい。   For example, the motion analysis unit 213 uses the acceleration data measured by the acceleration sensor 13, the club specification information, and the sensor mounting position information to use the sensor unit when the user 2 is stationary (address) in the XYZ coordinate system (global coordinate system). 10 positions (initial positions) are calculated, and subsequent acceleration data is integrated to calculate a change in position of the sensor unit 10 from the initial position in time series. Since the user 2 stops at a predetermined address posture, the X coordinate of the initial position of the sensor unit 10 is zero. Further, the y-axis of the sensor unit 10 coincides with the long axis direction of the shaft of the golf club 3, and when the user 2 is stationary, the acceleration sensor 13 measures only the gravitational acceleration. Can be used to calculate the tilt angle of the shaft (tilt with respect to the horizontal plane (XY plane) or vertical plane (XZ plane)). Then, the motion analysis unit 213 uses the inclination angle of the shaft, club specification information (shaft length), and sensor mounting position information (distance from the grip end) to determine the Y coordinate and Z coordinate of the initial position of the sensor unit 10. And the initial position of the sensor unit 10 can be specified. Alternatively, the motion analysis unit 213 uses the coordinates of the grip end position 62 of the golf club 3 and the sensor mounting position information (distance from the grip end) calculated by the first virtual plane specifying unit 211 or the second virtual plane specifying unit 212. It may be used to calculate the coordinates of the initial position of the sensor unit 10.

また、運動解析部213は、加速度センサー13が計測した加速度データを用いて、XYZ座標系(グローバル座標系)におけるユーザー2の静止時(アドレス時)のセンサーユニット10の姿勢(初期姿勢)を計算し、その後の角速度センサー14が計測した角速度データを用いた回転演算を行ってセンサーユニット10の初期姿勢からの姿勢の変化を時系列に計算する。センサーユニット10の姿勢は、例えば、X軸、Y軸、Z軸回りの回転角(ロール角、ピッチ角、ヨー角)、オイラー角、クオータ二オン(四元数)などで表現することができる。ユーザー2の静止時には、加速度センサー13は重力加速度のみを計測するので、運動解析部213は、3軸加速度データを用いて、センサーユニット10のx軸、y軸、z軸の各々と重力方向とのなす角度を特定することができる。さらに、ユーザー2は所定のアドレス姿勢で静止するので、ユーザー2の静止時において、センサーユニット10のy軸はYZ平面上にあるため、運動解析部213は、センサーユニット10の初期姿勢を特定することができる。   In addition, the motion analysis unit 213 uses the acceleration data measured by the acceleration sensor 13 to calculate the attitude (initial attitude) of the sensor unit 10 when the user 2 is stationary (addressing) in the XYZ coordinate system (global coordinate system). Then, the rotation calculation using the angular velocity data measured by the angular velocity sensor 14 is performed, and the change in posture of the sensor unit 10 from the initial posture is calculated in time series. The attitude of the sensor unit 10 can be expressed by, for example, rotation angles (roll angle, pitch angle, yaw angle) around the X axis, Y axis, and Z axis, Euler angles, and quarter-on (quaternion). . Since the acceleration sensor 13 measures only the gravitational acceleration when the user 2 is stationary, the motion analysis unit 213 uses the triaxial acceleration data to determine each of the x-axis, y-axis, and z-axis of the sensor unit 10 and the gravity direction. The angle formed by can be specified. Furthermore, since the user 2 stops at a predetermined address posture, the motion analysis unit 213 specifies the initial posture of the sensor unit 10 because the y axis of the sensor unit 10 is on the YZ plane when the user 2 is stationary. be able to.

なお、センサーユニット10の制御部11が、計測データのオフセット量を計算し、計測データのバイアス補正を行うようにしてもよいし、加速度センサー13及び角速度センサー14にバイアス補正の機能が組み込まれていてもよい。これらの場合は、運動解析部213による計測データのバイアス補正が不要となる。   The control unit 11 of the sensor unit 10 may calculate the offset amount of the measurement data and correct the bias of the measurement data, or the bias correction function is incorporated in the acceleration sensor 13 and the angular velocity sensor 14. May be. In these cases, bias correction of measurement data by the motion analysis unit 213 is not necessary.

また、運動解析部213は、身体情報(ユーザー2の身長(腕の長さ))、クラブ仕様情報(シャフトの長さや重心の位置)、センサー装着位置情報(グリップエンドからの距離)、ゴルフクラブ3の特徴(剛体である等)、人体の特徴(関節の曲がる方向が決まっている等)などを考慮した運動解析モデル(二重振子モデル等)を定義し、この運動解析モデルとセンサーユニット10の位置及び姿勢の情報とを用いて、ユーザー2のスイングにおけるゴルフクラブ3の軌跡を計算する。   In addition, the motion analysis unit 213 includes body information (height of the user 2 (arm length)), club specification information (shaft length and center of gravity position), sensor mounting position information (distance from the grip end), golf club 3) A motion analysis model (double pendulum model, etc.) that takes into account the characteristics of 3 (such as a rigid body) and the characteristics of the human body (such as the direction in which the joint bends) is defined. The trajectory of the golf club 3 in the swing of the user 2 is calculated using the information on the position and orientation of 10.

また、運動解析部213は、記憶部24に記憶された時刻情報と計測データを用いて、ユーザー2のスイング動作の期間におけるボールを打ったタイミング(インパクトのタイミング)を検出する。例えば、運動解析部213は、センサーユニット10が出力する計測データ(加速度データ又は角速度データ)の合成値を計算し、当該合成値に基づいてユーザー2がボールを打ったタイミング(時刻)を特定する。   In addition, the motion analysis unit 213 detects the timing of hitting the ball (impact timing) during the swing motion period of the user 2 using the time information and measurement data stored in the storage unit 24. For example, the motion analysis unit 213 calculates a composite value of measurement data (acceleration data or angular velocity data) output from the sensor unit 10 and specifies the timing (time) when the user 2 hits the ball based on the composite value. .

さらに、運動解析部213は、運動解析モデルとセンサーユニット10の位置及び姿勢の情報とを用いて、バックスイングからフォロースルーまでのスイングのリズム、ヘッドスピード、打球時の入射角(クラブパス)やフェース角、シャフトローテーション(スイング中のフェース角の変化量)、ゴルフクラブ3の減速率などの情報、あるいは、ユーザー2が複数回のスイングを行った場合のこれら各情報のばらつきの情報等も生成する。   Furthermore, the motion analysis unit 213 uses the motion analysis model and the position and orientation information of the sensor unit 10 to determine the swing rhythm from the back swing to the follow-through, the head speed, the incident angle (club path) at the time of hitting, Information such as face angle, shaft rotation (change amount of face angle during swing), deceleration rate of golf club 3, or information on variation of each information when user 2 swings multiple times is generated. To do.

軌跡判定部214は、運動解析部213によって計算されたゴルフクラブ3の軌跡が、Vゾーン(第1仮想平面特定部211で特定されたシャフトプレーン30と、第2仮想平面特定部212で特定されたホーガンプレーン40との間の領域)を通過しているか否か判定する。具体的には、軌跡判定部214は、運動解析部213によって計算されたゴルフクラブ3の軌跡の、Vゾーンを通過している部分と、通過していない部分とを判定する。   The trajectory determination unit 214 is configured such that the trajectory of the golf club 3 calculated by the motion analysis unit 213 is specified by the V zone (the shaft plane 30 specified by the first virtual plane specifying unit 211 and the second virtual plane specifying unit 212). It is determined whether or not the vehicle passes through a region between the Hogan plane 40 and the Hogan plane 40. Specifically, the trajectory determination unit 214 determines a portion that passes through the V zone and a portion that does not pass through the trajectory of the golf club 3 calculated by the motion analysis unit 213.

画像生成部215は、表示部25に表示される運動解析結果の画像に対応する画像データを生成する処理を行う。特に、本実施形態では、画像生成部215は、軌跡判定部214によって判定された、ゴルフクラブ3の軌跡のVゾーンを通過している部分と、ゴルフクラブ3の軌跡のVゾーンを通過していない部分とに対し、ゴルフクラブ3の軌跡の表示形態を変えた画像データを生成する。例えば、画像生成部215は、ゴルフクラブ3の軌跡の、Vゾーンを通過している部分と、Vゾーンを通過していない部分とに対し、軌跡の色を変えた画像データを生成する。具体的には、画像生成部215は、ゴルフクラブ3の軌跡の、Vゾーン外を通過している部分においては、その軌跡に第1色を付し、ゴルフクラブ3の軌跡の、Vゾーン内を通過している部分においては、その軌跡に第1色とは異なる第2色を付した画像データを生成する。   The image generation unit 215 performs processing for generating image data corresponding to the motion analysis result image displayed on the display unit 25. In particular, in the present embodiment, the image generation unit 215 passes the V zone of the path of the golf club 3 determined by the path determination unit 214 and the V zone of the path of the golf club 3. Image data in which the display form of the path of the golf club 3 is changed with respect to the part that does not exist is generated. For example, the image generation unit 215 generates image data in which the color of the locus is changed for a portion of the locus of the golf club 3 that passes through the V zone and a portion that does not pass through the V zone. Specifically, the image generation unit 215 attaches a first color to the locus of the golf club 3 in the V zone in the portion of the locus of the golf club 3 that passes outside the V zone. In the portion that passes, image data in which a second color different from the first color is attached to the locus is generated.

なお、第1仮想平面特定部211、第2仮想平面特定部212、運動解析部213、軌跡判定部214、及び画像生成部215は、算出した各種の情報等を記憶部24に記憶させる処理も行う。   The first virtual plane identification unit 211, the second virtual plane identification unit 212, the motion analysis unit 213, the trajectory determination unit 214, and the image generation unit 215 also perform processing for storing various types of calculated information in the storage unit 24. Do.

出力処理部216は、表示部25に対して各種の画像(画像生成部215が生成した画像データに対応する画像の他、文字や記号等も含む)を表示させる処理を行う。例えば、出力処理部216は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて画像生成部215が生成した画像データに対応する画像を表示部25に表示させる。あるいは、センサーユニット10に表示部を設けておいて、出力処理部216は、通信部22を介してセンサーユニット10に画像データを送信し、センサーユニット10の表示部に各種の画像を表示させてもよい。   The output processing unit 216 performs processing for causing the display unit 25 to display various images (including characters and symbols in addition to images corresponding to the image data generated by the image generation unit 215). For example, the output processing unit 216 displays an image corresponding to the image data generated by the image generation unit 215 on the display unit 25 automatically after the swing motion of the user 2 ends or according to the input operation of the user 2. Display. Alternatively, a display unit is provided in the sensor unit 10, and the output processing unit 216 transmits image data to the sensor unit 10 via the communication unit 22 and displays various images on the display unit of the sensor unit 10. Also good.

また、出力処理部216は、音声出力部26に対して各種の音(音声やブザー音等も含む)を出力させる処理を行う。例えば、出力処理部216は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、所定の入力操作が行われたときに、記憶部24に記憶されている各種の情報を読み出して音声出力部26に運動解析用の音や音声を出力させてもよい。あるいは、センサーユニット10に音出力部を設けておいて、出力処理部216は、通信部22を介してセンサーユニット10に各種の音データや音声データを送信し、センサーユニット10の音出力部に各種の音や音声を出力させてもよい。   Further, the output processing unit 216 performs processing for causing the sound output unit 26 to output various sounds (including sound and buzzer sound). For example, the output processing unit 216 reads various kinds of information stored in the storage unit 24 automatically after a user's 2 swing motion is completed or when a predetermined input operation is performed. You may make the output part 26 output the sound and sound for motion analysis. Alternatively, the sensor unit 10 is provided with a sound output unit, and the output processing unit 216 transmits various sound data and audio data to the sensor unit 10 via the communication unit 22, Various sounds and sounds may be output.

なお、運動解析装置20あるいはセンサーユニット10に振動機構を設けておいて、当該振動機構により各種の情報を振動情報に変換してユーザー2に提示してもよい。   Note that a vibration mechanism may be provided in the motion analysis device 20 or the sensor unit 10, and various information may be converted into vibration information by the vibration mechanism and presented to the user 2.

図4は、運動解析処理の一例を示すフローチャートである。制御部21は、記憶部24に記憶されている運動解析プログラムを実行することにより、図4に示すフローチャートの手順で運動解析処理を実行する。   FIG. 4 is a flowchart illustrating an example of the motion analysis process. The control unit 21 executes the motion analysis program stored in the storage unit 24, thereby executing the motion analysis process according to the procedure of the flowchart shown in FIG.

まず、センサー情報取得部210は、センサーユニット10の計測データを取得する(ステップS10)。なお、制御部21は、ユーザー2のスイング運動(静止動作も含む)における最初の計測データを取得するとリアルタイムにステップS20以降の処理を行ってもよいし、センサーユニット10からユーザー2のスイング運動における一連の計測データの一部又は全部を取得した後に、ステップS20以降の処理を行ってもよい。   First, the sensor information acquisition unit 210 acquires measurement data of the sensor unit 10 (step S10). In addition, the control part 21 may perform the process after step S20 in real time, if the first measurement data in the swing motion (including a stationary motion) of the user 2 is acquired, or in the swing motion of the user 2 from the sensor unit 10. After acquiring a part or all of a series of measurement data, the process after step S20 may be performed.

次に、運動解析部213は、センサーユニット10から取得した計測データを用いてユーザー2の静止動作(アドレス動作)を検出する(ステップS20)。なお、制御部21は、リアルタイムに処理を行う場合は、静止動作(アドレス動作)を検出した場合に、例えば、所定の画像や音を出力し、あるいは、センサーユニット10にLED(Light Emitting Diode)を設けておいて当該LEDを点灯させる等して、ユーザー2に静止状態を検出したことを通知し、ユーザー2は、この通知を確認した後にスイングを開始してもよい。   Next, the motion analysis unit 213 detects the stationary motion (address motion) of the user 2 using the measurement data acquired from the sensor unit 10 (step S20). In the case of performing processing in real time, the control unit 21 outputs, for example, a predetermined image or sound when detecting a stationary operation (address operation), or an LED (Light Emitting Diode) to the sensor unit 10. The user 2 may be notified that the stationary state has been detected by turning on the LED, and the user 2 may start swinging after confirming this notification.

次に、第1仮想平面特定部211は、センサーユニット10から取得した計測データ(ユーザー2の静止動作(アドレス動作)における計測データ)とクラブ仕様情報とを用いて、シャフトプレーン30(第1仮想平面)を特定する(ステップS30)。   Next, the first virtual plane specifying unit 211 uses the measurement data acquired from the sensor unit 10 (measurement data in the static motion (address motion) of the user 2) and the club specification information, and the shaft plane 30 (first virtual plane). A plane is specified (step S30).

次に、第2仮想平面特定部212は、センサーユニット10から取得した計測データ(ユーザー2の静止動作(アドレス動作)における計測データ)と身体情報とを用いて、ホーガンプレーン40(第2仮想平面)を特定する(ステップS40)。   Next, the second virtual plane specifying unit 212 uses the measurement data (measurement data in the static motion (address motion) of the user 2) and physical information acquired from the sensor unit 10 and the Hogan plane 40 (second virtual plane). ) Is specified (step S40).

次に、運動解析部213は、センサーユニット10から取得した計測データ(ユーザー2の静止動作(アドレス動作)における計測データ)を用いて、センサーユニット10の初期位置と初期姿勢を計算する(ステップS50)。   Next, the motion analysis unit 213 calculates the initial position and the initial posture of the sensor unit 10 using the measurement data acquired from the sensor unit 10 (measurement data in the static motion (address motion) of the user 2) (step S50). ).

次に、運動解析部213は、センサーユニット10から取得した計測データを用いて、スイングの開始から終了までの一連の動作(リズム)を検出する(ステップS60)。   Next, the motion analysis unit 213 detects a series of movements (rhythms) from the start to the end of the swing using the measurement data acquired from the sensor unit 10 (step S60).

また、運動解析部213は、ステップS60の処理と並行して、ユーザー2のスイング動作中のセンサーユニット10の位置と姿勢を計算する(ステップS70)。   The motion analysis unit 213 calculates the position and orientation of the sensor unit 10 during the swing motion of the user 2 in parallel with the process of step S60 (step S70).

次に、運動解析部213は、ステップS60で検出したリズムと、ステップS70で計算したセンサーユニット10の位置及び姿勢とを用いて、ユーザー2のスイング動作中のゴルフクラブ3の軌跡を計算する(ステップS80)。   Next, the motion analysis unit 213 calculates the trajectory of the golf club 3 during the swing motion of the user 2 using the rhythm detected in step S60 and the position and orientation of the sensor unit 10 calculated in step S70 ( Step S80).

次に、軌跡判定部214は、ステップS80で計算されたゴルフクラブ3の軌跡が、Vゾーン(ステップS30で特定されたシャフトプレーン30と、ステップS40で特定されたホーガンプレーン40との間の領域)を通過しているか否か判定する(ステップS90)。具体的には、軌跡判定部214は、運動解析部213によって計算されたゴルフクラブ3の軌跡の、Vゾーンを通過している部分と、通過していない部分とを判定する。   Next, the trajectory determination unit 214 indicates that the trajectory of the golf club 3 calculated in step S80 is an area between the V zone (the shaft plane 30 specified in step S30 and the Hogan plane 40 specified in step S40). ) Is determined (step S90). Specifically, the trajectory determination unit 214 determines a portion that passes through the V zone and a portion that does not pass through the trajectory of the golf club 3 calculated by the motion analysis unit 213.

次に、画像生成部215は、ステップS90の判定結果に基づいて、ゴルフクラブ3の軌跡を含む画像データを生成する(ステップS100)。その際、画像生成部215は、シャフトプレーン30及びホーガンプレーン40の画像を画像データに含めず、Vゾーンに対する、ゴルフクラブ3の軌跡の通過態様に応じて、ゴルフクラブ3の軌跡の表示形態を変えた画像データを生成する。例えば、画像生成部215は、ゴルフクラブ3の軌跡の、Vゾーンを通過している部分と、Vゾーンを通過していない部分とに対し、軌跡の色を変えた画像データを生成する。   Next, the image generation unit 215 generates image data including the trajectory of the golf club 3 based on the determination result of step S90 (step S100). At that time, the image generation unit 215 does not include the images of the shaft plane 30 and the Hogan plane 40 in the image data, and changes the display mode of the golf club 3 trajectory according to the passage manner of the golf club 3 trajectory with respect to the V zone. Generate the changed image data. For example, the image generation unit 215 generates image data in which the color of the locus is changed for a portion of the locus of the golf club 3 that passes through the V zone and a portion that does not pass through the V zone.

画像生成部215によって生成された画像データは、出力処理部216により表示部25に出力される。そして、制御部21は、図4に示すフローチャートの処理を終了する。   The image data generated by the image generation unit 215 is output to the display unit 25 by the output processing unit 216. And the control part 21 complete | finishes the process of the flowchart shown in FIG.

なお、図4のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。   In the flowchart of FIG. 4, the order of each process may be appropriately changed within a possible range.

次に、シャフトプレーン(第1仮想平面)を特定する処理(図4のステップS30の処理)の一例について詳細に説明する。   Next, an example of the process of specifying the shaft plane (first virtual plane) (the process of step S30 in FIG. 4) will be described in detail.

まず、第1仮想平面特定部211は、図2に示したように、ゴルフクラブ3のヘッドの位置61をXYZ座標系(グローバル座標系)の原点O(0,0,0)として、センサーユニット10が計測した静止時の加速度データとクラブ仕様情報とを用いて、グリップエンドの位置62の座標(0,G,G)を計算する。図5は、ユーザー2の静止時(アドレス時)におけるゴルフクラブ3とセンサーユニット10をX軸の負側から見た平面図である。図5では、ゴルフクラブ3のヘッドの位置61が原点O(0,0,0)であり、グリップエンドの位置62の座標は(0,G,G)である。ユーザー2の静止時にセンサーユニット10には重力加速度Gがかかるので、y軸加速度y(0)とゴルフクラブ3のシャフトの傾斜角(シャフトの長軸と水平面(XY平面)とのなす角)αとの関係は式(1)で表される。 First, as shown in FIG. 2, the first virtual plane specifying unit 211 sets the head position 61 of the golf club 3 as the origin O (0, 0, 0) of the XYZ coordinate system (global coordinate system). The coordinates (0, G Y , G Z ) of the grip end position 62 are calculated using the acceleration data at rest measured by 10 and the club specification information. FIG. 5 is a plan view of the golf club 3 and the sensor unit 10 viewed from the negative side of the X axis when the user 2 is stationary (addressing). In FIG. 5, the position 61 of the head of the golf club 3 is the origin O (0, 0, 0), and the coordinates of the position 62 of the grip end are (0, G Y , G Z ). Since the gravitational acceleration G is applied to the sensor unit 10 when the user 2 is stationary, the y-axis acceleration y (0) and the tilt angle of the shaft of the golf club 3 (the angle formed by the long axis of the shaft and the horizontal plane (XY plane)) α Is expressed by the formula (1).

Figure 2016116566
Figure 2016116566

従って、クラブ仕様情報に含まれるゴルフクラブ3のシャフトの長さをLとすると、G,Gは、シャフトの長さLと傾斜角αを用いて、式(2)及び式(3)でそれぞれ計算される。 Therefore, when the length of the shaft of the golf club 3 included in the club specification information L 1, G Y, G Z, using the inclination angle α and the length L 1 of the shaft, the formula (2) and ( Each is calculated in 3).

Figure 2016116566
Figure 2016116566

Figure 2016116566
Figure 2016116566

次に、第1仮想平面特定部211は、ゴルフクラブ3のグリップエンドの位置62の座標(0,G,G)にスケールファクターSを乗算し、シャフトプレーン30の頂点S1と頂点S2の中点S3の座標(0,S,S)を計算する。すなわち、S及びSは、式(4)及び式(5)により計算される。 Next, the first imaginary plane specifying unit 211 multiplies the coordinates (0, G Y , G Z ) of the grip end position 62 of the golf club 3 by the scale factor S to obtain the vertexes S1 and S2 of the shaft plane 30. The coordinates (0, S Y , S Z ) of the midpoint S3 are calculated. That is, SY and SZ are calculated by the equations (4) and (5).

Figure 2016116566
Figure 2016116566

Figure 2016116566
Figure 2016116566

図6は、図2のシャフトプレーン30をYZ平面で切った断面図をX軸の負側から見た図である。頂点S1と頂点S2の中点S3と原点Oとを結ぶ線分の長さ(シャフトプレーン30のX軸と直交する方向の幅)は、第1線分51の長さLのS倍となる。このスケールファクターSは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がシャフトプレーン30に収まるような値に設定される。例えば、ユーザー2の腕の長さをLとすると、シャフトプレーン30のX軸と直交する方向の幅S×Lが、シャフトの長さLと腕の長さLの和の2倍となるように、スケールファクターSを式(6)のように設定してもよい。 FIG. 6 is a cross-sectional view of the shaft plane 30 of FIG. 2 taken along the YZ plane as viewed from the negative side of the X axis. Line segment length connecting the midpoint S3 and the origin O of the vertices S1 and the vertex S2 (width in the direction perpendicular to the X axis of the shaft plane 30), and S times the length L 1 of the first segment 51 Become. The scale factor S is set to a value such that the locus of the golf club 3 during the swing motion of the user 2 is within the shaft plane 30. For example, when the length of the arm of the user 2 is L 2 , the width S × L 1 in the direction orthogonal to the X axis of the shaft plane 30 is 2 which is the sum of the shaft length L 1 and the arm length L 2. You may set the scale factor S like Formula (6) so that it may be doubled.

Figure 2016116566
Figure 2016116566

また、ユーザー2の腕の長さLは、ユーザー2の身長Lと相関があり、統計情報に基づき、例えば、ユーザー2が男性の場合は式(7)のような相関式で表され、ユーザー2が女性の場合は式(8)のような相関式で表される。 The arm length L 2 of the user 2 has a correlation with the height L 0 of the user 2, and is represented by a correlation equation such as Expression (7) when the user 2 is male based on statistical information. When the user 2 is a woman, it is represented by a correlation equation as shown in Equation (8).

Figure 2016116566
Figure 2016116566

Figure 2016116566
Figure 2016116566

従って、ユーザーの腕の長さLは、身体情報に含まれるユーザー2の身長Lと性別とを用いて、式(7)又は式(8)により算出される。 Accordingly, the length L 2 of the user's arm, with the height L 0 and gender users 2 included in the physical information is calculated by the equation (7) or (8).

次に、第1仮想平面特定部211は、上述のように計算した中点S3の座標(0,S,S)及びシャフトプレーン30のX軸方向の幅(第3線分52の長さ)TLを用いて、シャフトプレーン30の頂点T1の座標(− TL/2,0,0)、頂点T2の座標(TL/2,0,0)、頂点S1の座標(− TL/2,S,S)、S2の座標(TL/2,S,S)を計算する。X軸方向の幅TLは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がシャフトプレーン30に収まるような値に設定される。例えば、X軸方向の幅TLを、X軸と直交する方向の幅S×Lと同じ、すなわち、シャフトの長さLと腕の長さLの和の2倍に設定してもよい。 Next, the first virtual plane specifying unit 211 calculates the coordinates (0, S Y , S Z ) of the midpoint S3 and the width of the shaft plane 30 in the X-axis direction (the length of the third line segment 52) calculated as described above. Using the TL, the coordinates of the vertex T1 of the shaft plane 30 (−TL / 2, 0, 0), the coordinates of the vertex T2 (TL / 2, 0, 0), the coordinates of the vertex S1 (−TL / 2, (S Y , S Z ), S2 coordinates (TL / 2, S Y , S Z ) are calculated. The width TL in the X-axis direction is set to a value such that the locus of the golf club 3 during the swing motion of the user 2 is within the shaft plane 30. For example, even if the width TL in the X-axis direction is the same as the width S × L 1 in the direction orthogonal to the X-axis, that is, twice the sum of the shaft length L 1 and the arm length L 2. Good.

このように計算された4つの頂点T1,T2,S1,S2の座標により、シャフトプレーン30が特定される。   The shaft plane 30 is specified by the coordinates of the four vertices T1, T2, S1, and S2 calculated in this way.

次に、ホーガンプレーン(第2仮想平面)を特定する処理(図4のステップS40の処理)の一例について詳細に説明する。   Next, an example of the process of specifying the Hogan plane (second virtual plane) (the process of step S40 in FIG. 4) will be described in detail.

まず、第2仮想平面特定部212は、上述のように計算されたゴルフクラブ3のグリップエンドの位置62の座標(0,G,G)及びユーザー2の身体情報を用いて、ユーザー2の両肩を結ぶ線分上の所定位置63を推定し、その座標(A,A,A)を計算する。 First, the second virtual plane specifying unit 212 uses the coordinates (0, G Y , G Z ) of the grip end position 62 of the golf club 3 and the physical information of the user 2 calculated as described above. A predetermined position 63 on the line segment connecting the shoulders of the two is estimated, and its coordinates (A X , A Y , A Z ) are calculated.

図7は、図2のホーガンプレーン40をYZ平面で切った断面図をX軸の負側から見た図である。図7では、ユーザー2の両肩を結ぶ線分の中点を所定位置63としており、所定位置63はYZ平面上に存在する。従って、所定位置63のX座標Aは0である。そして、第2仮想平面特定部212は、ゴルフクラブ3のグリップエンドの位置62をZ軸の正方向にユーザー2の腕の長さLだけ移動させた位置が所定位置63であると推定する。従って、所定位置63のY座標Aはグリップエンドの位置62のY座標Gと同じであり、所定位置63のZ座標Aは、式(9)のように、グリップエンドの位置62のZ座標Gとユーザー2の腕の長さLの和として計算される。 FIG. 7 is a cross-sectional view of the Hogan plane 40 of FIG. 2 taken along the YZ plane as viewed from the negative side of the X axis. In FIG. 7, the midpoint of the line segment connecting both shoulders of the user 2 is a predetermined position 63, and the predetermined position 63 exists on the YZ plane. Therefore, the X-coordinate A X a predetermined position 63 is zero. Then, the second virtual plane surface specifying portion 212, a grip end position 62 of the golf club 3 is moved in the positive direction of the Z-axis of the user 2 arm by a length L 2 position is estimated to be the predetermined position 63 . Therefore, the Y coordinate A Y of the predetermined position 63 is the same as the Y-coordinate G Y position 62 of the grip end, the Z-coordinate A Z of predetermined positions 63, as shown in equation (9), position 62 of the grip end It is calculated as the sum of the Z coordinate G Z and the arm length L 2 of the user 2.

Figure 2016116566
Figure 2016116566

ユーザーの腕の長さLは、身体情報に含まれるユーザー2の身長Lと性別とを用いて、式(7)又は式(8)により算出される。 The length L 2 of the user's arm, with the height L 0 and gender users 2 included in the physical information is calculated by the equation (7) or (8).

次に、第2仮想平面特定部212は、所定位置63のY座標A及びZ座標AにそれぞれスケールファクターHを乗算し、ホーガンプレーン40の頂点H1と頂点H2の中点H3の座標(0,H,H)を計算する。すなわち、H及びHは、式(10)及び式(11)により計算される。 Next, the second virtual plane specifying unit 212 multiplies the Y coordinate A Y and the Z coordinate AZ of the predetermined position 63 by the scale factor H, respectively, and the coordinates of the midpoint H3 of the vertex H1 and the vertex H2 of the Hogan plane 40 ( 0, H Y , H Z ). That is, H Y and H Z are calculated by the equations (10) and (11).

Figure 2016116566
Figure 2016116566

Figure 2016116566
Figure 2016116566

図7に示すように、頂点H1と頂点H2の中点H3と原点Oとを結ぶ線分の長さ(ホーガンプレーン40のX軸と直交する方向の幅)は、第2線分53の長さLのH倍となる。このスケールファクターHは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がホーガンプレーン40に収まるような値に設定される。例えば、ホーガンプレーン40は、シャフトプレーン30と同じ形及び大きさとしてもよい。この場合、ホーガンプレーン40のX軸と直交する方向の幅H×Lが、シャフトプレーン30のX軸と直交する方向の幅S×Lと一致し、ゴルフクラブ3のシャフトの長さLとユーザー2の腕の長さLの和の2倍となるから、スケールファクターHを式(12)のように設定してもよい。 As shown in FIG. 7, the length of the line segment connecting the midpoint H3 of the vertex H1 and the vertex H2 and the origin O (the width in the direction perpendicular to the X axis of the Hogan plane 40) is the length of the second line segment 53. It is the H multiple of L 3. The scale factor H is set to a value such that the trajectory of the golf club 3 during the swing motion of the user 2 fits in the Hogan plane 40. For example, the Hogan plane 40 may have the same shape and size as the shaft plane 30. In this case, the width H × L 3 in the direction orthogonal to the X axis of the Hogan plane 40 matches the width S × L 1 in the direction orthogonal to the X axis of the shaft plane 30, and the length L of the shaft of the golf club 3 since the 1 and 2 times the sum of the lengths L 2 of the arm of the user 2, a scale factor H may be set as in equation (12).

Figure 2016116566
Figure 2016116566

また、第2線分53の長さLは、所定位置63のY座標A及びZ座標Aを用いて、式(13)のより計算される。 Further, the length L 3 of the second line segment 53 is calculated by the equation (13) using the Y coordinate A Y and the Z coordinate AZ of the predetermined position 63.

Figure 2016116566
Figure 2016116566

次に、第2仮想平面特定部212は、上述のように計算した中点H3の座標(0,H,H)及びホーガンプレーン40のX軸方向の幅(第3線分52の長さ)TLを用いて、ホーガンプレーン40の頂点T1の座標(− TL/2,0,0)、頂点T2の座標(TL/2,0,0)、頂点H1の座標(− TL/2,H,H)、H2の座標(TL/2,H,H)を計算する。X軸方向の幅TLは、ユーザー2のスイング動作中のゴルフクラブ3の軌跡がホーガンプレーン40に収まるような値に設定される。本実施形態では、ホーガンプレーン40のX軸方向の幅TLは、シャフトプレーン30のX軸方向の幅と同じであるから、上記のとおり、シャフトの長さLと腕の長さLの和の2倍に設定してもよい。 Next, the second virtual plane specifying unit 212 calculates the coordinates (0, H Y , H Z ) of the midpoint H3 and the width of the Hogan plane 40 in the X-axis direction (the length of the third line segment 52) calculated as described above. ) Using TL, the coordinates of the vertex T1 of the Hogan plane 40 (-TL / 2, 0, 0), the coordinates of the vertex T2 (TL / 2, 0, 0), the coordinates of the vertex H1 (-TL / 2, H Y , H Z ), H2 coordinates (TL / 2, H Y , H Z ) are calculated. The width TL in the X-axis direction is set to a value such that the locus of the golf club 3 during the swing motion of the user 2 is within the Hogan plane 40. In this embodiment, since the width TL in the X-axis direction of the Hogan plane 40 is the same as the width in the X-axis direction of the shaft plane 30, as described above, the shaft length L 1 and the arm length L 2 . You may set to 2 times the sum.

このように計算された4つの頂点T1,T2,H1,H2の座標により、ホーガンプレーン40が特定される。   The Hogan plane 40 is specified by the coordinates of the four vertices T1, T2, H1, and H2 calculated in this way.

次に、ユーザー2が打球したタイミングを検出する処理(図4のステップS60の処理)の一例について詳細に説明する。   Next, an example of a process for detecting the timing at which the user 2 hits the ball (the process in step S60 in FIG. 4) will be described in detail.

運動解析部213は、センサーユニット10から取得した計測データを用いて、スイングの開始から終了までの一連の動作(「リズム」ともいう)、例えば、スイングの開始から、バックスイング、トップ、ダウンスイング、インパクト、フォロースルー、スイングの終了までを検出する。具体的なリズムの検出手順は、特に限定されないが、例えば下記のような手順を採用することができる。   The motion analysis unit 213 uses the measurement data acquired from the sensor unit 10 to perform a series of operations (also referred to as “rhythm”) from the start to the end of the swing, for example, from the start of the swing to the back swing, top, down swing. , Detect impact, follow-through and end of swing. Although the specific rhythm detection procedure is not particularly limited, for example, the following procedure can be adopted.

まず、運動解析部213は、取得した時刻t毎の角速度データを用いて、各時刻tでの各軸回りの角速度の大きさの和(ノルムという)を計算する。また、運動解析部213は、各時刻tでの角速度のノルムを時間で微分してもよい。   First, the motion analysis unit 213 calculates the sum of the magnitudes of the angular velocities around each axis at each time t (referred to as a norm) using the acquired angular velocity data at each time t. The motion analysis unit 213 may differentiate the norm of the angular velocity at each time t with respect to time.

ここで、3軸(x軸、y軸、z軸)の軸回りの角速度が、例えば図8(センサーユニットから出力される角速度の一例を示す図)に示すようなグラフに表れる場合を考える。図8では、横軸が時間(msec)、縦軸が角速度(dps)である。また、角速度のノルムは、例えば図9(角速度のノルムの一例を示す図)に示すようなグラフに表れる。図9では、横軸が時間(msec)、縦軸が角速度のノルムである。また、角速度のノルムの微分値は、例えば図10(角速度のノルムの微分値の一例を示す図)に示すようなグラフに表れる。図10では、横軸が時間(msec)、縦軸が角速度のノルムの微分値である。なお、図8〜図10は、本実施形態を理解し易くするためものであり、正確な値を示しているわけではない。   Here, consider a case where the angular velocities around the three axes (x-axis, y-axis, z-axis) appear in a graph as shown in FIG. 8 (an example of an angular velocity output from the sensor unit), for example. In FIG. 8, the horizontal axis represents time (msec), and the vertical axis represents angular velocity (dps). Further, the norm of the angular velocity appears in a graph as shown in FIG. 9 (a diagram showing an example of the norm of angular velocity), for example. In FIG. 9, the horizontal axis represents time (msec), and the vertical axis represents the norm of angular velocity. Further, the differential value of the norm of angular velocity appears in a graph as shown in FIG. 10 (an example of the differential value of the norm of angular velocity), for example. In FIG. 10, the horizontal axis represents time (msec), and the vertical axis represents the differential value of the norm of angular velocity. 8 to 10 are for facilitating understanding of the present embodiment, and do not show accurate values.

また、運動解析部213は、計算した角速度のノルムを用いて、スイングにおけるインパクトのタイミングを検出する。運動解析部213は、例えば、角速度のノルムが最大となるタイミングをインパクトのタイミングとして検出する(図9のT5)。または、運動解析部213は、例えば、計算した角速度のノルムの微分の値が最大となるタイミングと最小となるタイミングのうち、先のタイミングをインパクトのタイミングとして検出するようにしてもよい(図10のT5)。   Further, the motion analysis unit 213 detects the impact timing in the swing using the calculated norm of the angular velocity. For example, the motion analysis unit 213 detects the timing at which the norm of the angular velocity is maximum as the impact timing (T5 in FIG. 9). Alternatively, for example, the motion analysis unit 213 may detect the earlier timing as the impact timing among the timing at which the calculated differential value of the norm of the angular velocity is maximized and minimized (FIG. 10). T5).

また、運動解析部213は、例えば、インパクトより前で、計算した角速度のノルムが極小となるタイミングをスイングのトップのタイミングとして検出する(図9のT3)。また、運動解析部213は、例えば、インパクトより前で角速度のノルムが第1閾値以下の連続した期間をトップ期間(トップでの溜めの期間)として特定する(図9のT2〜T4)。   Further, the motion analysis unit 213 detects, for example, the timing at which the calculated norm of the angular velocity is minimized before the impact as the top timing of the swing (T3 in FIG. 9). In addition, the motion analysis unit 213 specifies, for example, a continuous period in which the norm of the angular velocity is equal to or less than the first threshold before the impact as a top period (a period of accumulation at the top) (T2 to T4 in FIG. 9).

また、運動解析部213は、例えば、トップより前で、角速度のノルムが第2閾値以下となるタイミングをスイングの開始のタイミングとして検出する(図9のT1)。   Further, the motion analysis unit 213 detects, for example, the timing at which the norm of the angular velocity is equal to or less than the second threshold before the top as the swing start timing (T1 in FIG. 9).

また、運動解析部213は、例えば、インパクトより後で、角速度のノルムが極小となるタイミングをスイングの終了(フィニッシュ)のタイミングとして検出する(図9のT7)。または、運動解析部213は、例えば、インパクトより後で、角速度のノルムが第3閾値以下となる最初のタイミングをスイングの終了(フィニッシュ)のタイミングとして検出するようにしてもよい。また、運動解析部213は、例えば、インパクトのタイミングより後で且つインパクトのタイミングに接近し、角速度のノルムが第4閾値以下となる連続した期間をフィニッシュ期間として特定する(図9のT6〜T8)。   Further, the motion analysis unit 213 detects, for example, the timing at which the norm of the angular velocity becomes minimum after the impact as the timing of the end of the swing (finish) (T7 in FIG. 9). Alternatively, for example, the motion analysis unit 213 may detect the first timing when the norm of the angular velocity is equal to or less than the third threshold after the impact as the timing of the end of the swing (finish). Further, for example, the motion analysis unit 213 specifies a continuous period after the impact timing and approaches the impact timing and the norm of the angular velocity is equal to or less than the fourth threshold as the finish period (T6 to T8 in FIG. 9). ).

上記のようにして、運動解析部213は、スイングのリズムを検出することができる。また、運動解析部213は、リズムを検出することにより、スイング中の各期間(例えば、スイング開始からトップ開始までのバックスイング期間、トップ終了からインパクトまでのダウンスイング期間、インパクトからスイング終了までのフォロースルー期間)を特定することができる。   As described above, the motion analysis unit 213 can detect the rhythm of the swing. In addition, the motion analysis unit 213 detects each rhythm to detect each period during the swing (for example, a backswing period from the start of the swing to the top start, a downswing period from the top end to the impact, and from the impact to the end of the swing. Follow-through period) can be specified.

軌跡判定部214と画像生成部215について詳細に説明する。   The locus determination unit 214 and the image generation unit 215 will be described in detail.

図11は、シャフトプレーン及びホーガンプレーンをX軸の負側から見た図(YZ平面に投影した図)である。図11には、シャフトプレーン30と、ホーガンプレーン40と、ゴルフクラブ3の軌跡3aと、が示してある。図11の点線で示す軌跡3aは、バックスイングにおけるゴルフクラブ3の軌跡を示し、一点鎖線で示す軌跡3aは、ダウンスイングにおけるゴルフクラブ3の軌跡を示している。   FIG. 11 is a view of the shaft plane and Hogan plane as viewed from the negative side of the X axis (projected on the YZ plane). FIG. 11 shows the shaft plane 30, the Hogan plane 40, and the locus 3 a of the golf club 3. A trajectory 3a indicated by a dotted line in FIG. 11 indicates a trajectory of the golf club 3 in a backswing, and a trajectory 3a indicated by a one-dot chain line indicates a trajectory of the golf club 3 in a downswing.

軌跡判定部214は、XYZ座標系(グローバル座標系)で定義される空間を所定の領域に分ける。例えば、軌跡判定部214は、第1仮想平面特定部211で特定されたシャフトプレーン30と、第2仮想平面特定部212で特定されたホーガンプレーン40とで挟まれる領域(図11の斜線で示すVゾーン71)と、それ以外の領域とに分ける。そして、軌跡判定部214は、運動解析部213によって計算されたゴルフクラブ3の軌跡3aが、Vゾーン71を通過しているか否か判定する。具体的には、軌跡判定部214は、ゴルフクラブ3の軌跡3aのVゾーン71を通過している部分と、Vゾーン71を通過していない部分とを判定する。   The locus determination unit 214 divides the space defined by the XYZ coordinate system (global coordinate system) into predetermined regions. For example, the trajectory determination unit 214 is an area (indicated by hatching in FIG. 11) sandwiched between the shaft plane 30 specified by the first virtual plane specifying unit 211 and the Hogan plane 40 specified by the second virtual plane specifying unit 212. It is divided into a V zone 71) and other areas. Then, the locus determination unit 214 determines whether or not the locus 3 a of the golf club 3 calculated by the motion analysis unit 213 passes through the V zone 71. Specifically, the locus determination unit 214 determines a portion of the locus 3 a of the golf club 3 that passes through the V zone 71 and a portion that does not pass through the V zone 71.

例えば、図11の場合、範囲A1,A2に示す部分の軌跡3aは、Vゾーン71内を通過しておらず、範囲A1,A2以外の部分の軌跡3aは、Vゾーン71内を通過している。従って、図11の場合、軌跡判定部214は、範囲A1,A2に示す部分の軌跡3aについては、Vゾーン71を通過していないと判定し、範囲A1,A2以外の部分の軌跡3aについては、Vゾーン71を通過していると判定する。   For example, in the case of FIG. 11, the trajectory 3a of the portion shown in the range A1, A2 does not pass through the V zone 71, and the trajectory 3a of the portion other than the range A1, A2 passes through the V zone 71. Yes. Therefore, in the case of FIG. 11, the trajectory determination unit 214 determines that the trajectory 3a of the portion shown in the ranges A1 and A2 does not pass through the V zone 71, and the trajectory 3a of the portion other than the ranges A1 and A2 It is determined that the vehicle passes through the V zone 71.

画像生成部215は、ゴルフクラブ3の軌跡3aの画像データを生成する際、軌跡判定部214の判定結果に基づいて、ゴルフクラブ3の軌跡3aの表示形態を変える。例えば、画像生成部215は、Vゾーン71内の軌跡3a(Vゾーン71内にある点線で示された軌跡3aと一点鎖線で示された軌跡3aと)を青色にした画像データを生成する。また、画像生成部215は、例えば、範囲A1,A2に示す、Vゾーン71外の軌跡3aを赤色にした画像データを生成する。   When the image generation unit 215 generates image data of the locus 3 a of the golf club 3, the image generation unit 215 changes the display form of the locus 3 a of the golf club 3 based on the determination result of the locus determination unit 214. For example, the image generation unit 215 generates image data in which the locus 3a in the V zone 71 (the locus 3a indicated by the dotted line and the locus 3a indicated by the alternate long and short dash line in the V zone 71) is blue. Further, the image generation unit 215 generates image data in which the locus 3a outside the V zone 71 shown in the ranges A1 and A2, for example, is red.

図12は、表示部に表示される画面の一例を示した図である。画像生成部215で生成された画像データは、出力処理部216によって表示部25に出力される。図12に示す画面80は、表示部25に表示される画面例を示している。画面80は、打球方向の後方から見た画面例を示している。   FIG. 12 is a diagram illustrating an example of a screen displayed on the display unit. The image data generated by the image generation unit 215 is output to the display unit 25 by the output processing unit 216. A screen 80 illustrated in FIG. 12 illustrates a screen example displayed on the display unit 25. The screen 80 shows an example of the screen viewed from the back in the hitting direction.

画面80には、Vゾーンが表示されずに、ゴルフクラブ3の軌跡3aが表示されている。ゴルフクラブ3の軌跡3aがVゾーンに入っているか否かは、軌跡3aの色によって示される。   On the screen 80, the locus 3a of the golf club 3 is displayed without displaying the V zone. Whether or not the locus 3a of the golf club 3 is in the V zone is indicated by the color of the locus 3a.

例えば、太線で示す軌跡3aa,3acは、バックスイングにおけるVゾーン外の軌跡を示し(例えば、図11の範囲A1,A2を参照)、赤色で表示される。細線で示す軌跡3ab,3adは、バックスイングにおけるVゾーン内の軌跡を示し、例えば、青色で示される。   For example, the trajectories 3aa and 3ac indicated by bold lines indicate trajectories outside the V zone in the backswing (see, for example, the ranges A1 and A2 in FIG. 11) and are displayed in red. The trajectories 3ab and 3ad indicated by thin lines indicate trajectories in the V zone in the backswing, and are indicated in blue, for example.

また、例えば、細線で示す軌跡3aeは、ダウンスイングおけるVゾーン内の軌跡を示し、青色で示される。太線で示す軌跡3afは、ダウンスイングにおけるVゾーン外の軌跡を示し(例えば、図11の範囲A2を参照)、例えば、赤色で示される。   Further, for example, a locus 3ae indicated by a thin line indicates a locus in the V zone in the downswing and is indicated in blue. A trajectory 3af indicated by a bold line indicates a trajectory outside the V zone in the downswing (see, for example, the range A2 in FIG. 11), and is indicated in red, for example.

これにより、ユーザー2は、自分のスイングのどの部分において、Vゾーンから外れているか否か分かる。例えば、上記例のような色で軌跡3aが表示される場合、ユーザー2は、赤色の軌跡3aa,3ac,3afにおいて、自分のスイングがVゾーンから外れていると認識することができる。   As a result, the user 2 can know in which part of his / her swing is out of the V zone. For example, when the locus 3a is displayed in the color as in the above example, the user 2 can recognize that his / her swing is out of the V zone in the red locus 3aa, 3ac, 3af.

なお、図12では、Vゾーン内の軌跡3ab,3ad,3aeと、Vゾーン外の軌跡3aa,3ac,3afとの差異を明確にするため、Vゾーン外の軌跡3aa,3ac,3afを太線で示しているが、Vゾーン内の軌跡3ab,3ad,3aeと同じ太さの実線で表示してもよい。   In FIG. 12, in order to clarify the difference between the trajectories 3ab, 3ad, 3ae in the V zone and the trajectories 3aa, 3ac, 3af outside the V zone, the trajectories 3aa, 3ac, 3af outside the V zone are indicated by thick lines. Although shown, it may be displayed by a solid line having the same thickness as the trajectories 3ab, 3ad, 3ae in the V zone.

また、図12に示す画面80は、ユーザー2の操作に応じて表示角度(画像を見る視点)を変えることが可能な3次元画像であってもよい。   Further, the screen 80 shown in FIG. 12 may be a three-dimensional image in which the display angle (viewing point for viewing the image) can be changed according to the operation of the user 2.

図13は、軌跡判定部及び画像生成部の動作の一例を示したフローチャートである。図13のフローチャートは、図4のステップS90,S100の詳細な処理を示したフローチャートである。   FIG. 13 is a flowchart illustrating an example of operations of the trajectory determination unit and the image generation unit. The flowchart in FIG. 13 is a flowchart showing detailed processing in steps S90 and S100 in FIG.

まず、軌跡判定部214は、図4のステップS30で特定されたシャフトプレーン30と、図4のステップS40で特定されたホーガンプレーン40とに基づいて、Vゾーンを特定する(ステップS901)。   First, the locus determination unit 214 specifies the V zone based on the shaft plane 30 specified in step S30 of FIG. 4 and the Hogan plane 40 specified in step S40 of FIG. 4 (step S901).

次に、軌跡判定部214は、図4のステップS80で計算されたゴルフクラブ3の軌跡が、ステップS901にて特定したVゾーン内にあるか否か判定する(ステップS902)。なお、軌跡判定部214は、例えば、アドレス位置からインパクトまで順に、ゴルフクラブ3の軌跡が、ステップS901にて特定したVゾーン内にあるか否か判定していく。   Next, the trajectory determination unit 214 determines whether or not the trajectory of the golf club 3 calculated in step S80 of FIG. 4 is within the V zone specified in step S901 (step S902). For example, the trajectory determination unit 214 sequentially determines whether the trajectory of the golf club 3 is within the V zone specified in step S901 in order from the address position to the impact.

画像生成部215は、ステップS902にて、ゴルフクラブ3の軌跡が、Vゾーン内にあると軌跡判定部214によって判定された場合(S902の「Yes」)、ゴルフクラブ3の軌跡に第1色を付した画像データを生成する(ステップS903)。すなわち、画像生成部215は、Vゾーン内のゴルフクラブ3の軌跡に対し、第1色を付した画像データを生成する。画像生成部215は、軌跡に第1色を付した画像データを生成すると、ステップS905に処理を移行する。   In step S <b> 902, the image generation unit 215 determines that the track of the golf club 3 is in the V zone by the track determination unit 214 (“Yes” in S <b> 902). Is generated (step S903). That is, the image generation unit 215 generates image data with the first color applied to the locus of the golf club 3 in the V zone. When the image generation unit 215 generates image data with the first color added to the locus, the process proceeds to step S905.

画像生成部215は、ステップS902にて、ゴルフクラブ3の軌跡が、Vゾーン内にないと軌跡判定部214によって判定された場合(S902の「No」)、ゴルフクラブ3の軌跡に第2色を付した画像データを生成する(ステップS904)。すなわち、画像生成部215は、Vゾーン外のゴルフクラブ3の軌跡に対し、第2色を付した画像データを生成する。画像生成部215は、軌跡に第2色を付した画像データを生成すると、ステップS905に処理を移行する。   In step S902, the image generation unit 215 determines that the locus of the golf club 3 is not in the V zone by the locus determination unit 214 ("No" in S902). Is generated (step S904). That is, the image generation unit 215 generates image data with the second color applied to the locus of the golf club 3 outside the V zone. When the image generation unit 215 generates image data with the second color added to the locus, the process proceeds to step S905.

画像生成部215は、ゴルフクラブ3の軌跡のアドレスからインパクトまで、ステップS902からステップS904までの処理が行われたか否か判定する(ステップS905)。すなわち、画像生成部215は、アドレスからインパクトまでの軌跡に着色処理を行った画像データを生成したか否か判定する。画像生成部215は、アドレスからインパクトまでの軌跡に着色処理を行っていないと判定した場合(S905「No」)、ステップS902に処理を移行する。画像生成部215は、アドレスからインパクトまでの軌跡に着色処理を行っていると判定した場合(S905「Yes」)、ステップS906に処理を移行する。   The image generation unit 215 determines whether or not the processing from step S902 to step S904 has been performed from the address of the locus of the golf club 3 to the impact (step S905). That is, the image generation unit 215 determines whether or not the image data in which the coloring process is performed on the locus from the address to the impact is generated. If the image generation unit 215 determines that the coloring process is not performed on the trajectory from the address to the impact (S905 “No”), the process proceeds to step S902. If the image generation unit 215 determines that the coloring process is being performed on the trajectory from the address to the impact (S905 “Yes”), the process proceeds to step S906.

画像生成部215は、ステップS905にて、アドレスからインパクトまで軌跡の着色処理を行っていると判定した場合(S905「Yes」)、生成した画像データを出力処理部216に出力する(ステップS906)。   If it is determined in step S905 that the locus is colored from the address to the impact (S905 “Yes”), the image generation unit 215 outputs the generated image data to the output processing unit 216 (step S906). .

これにより、例えば、表示部25には、図12で説明したような画面80が表示される。例えば、図12の太線で示す軌跡3aa,3ac,3afには、第1色が付され、細線で示す軌跡3ab,3ad,3aeには、第2色が付される。従って、ユーザー2は、ゴルフクラブ3の軌跡3aが、Vゾーン内に収まっているのか否か画面80によって確認することができ、ゴルフクラブ3のスイング評価を簡単に行うことができる。   Thereby, for example, the screen 80 as described with reference to FIG. For example, the trajectories 3aa, 3ac, 3af indicated by thick lines in FIG. 12 are assigned the first color, and the trajectories 3ab, 3ad, 3ae indicated by thin lines are assigned the second color. Therefore, the user 2 can confirm whether or not the locus 3a of the golf club 3 is within the V zone on the screen 80, and can easily perform the swing evaluation of the golf club 3.

なお、上記では、ゴルフクラブ3の軌跡がVゾーン内にある場合、ゴルフクラブ3の軌跡に第1色(例えば赤色)を付し、ゴルフクラブ3の軌跡がVゾーン外にある場合、ゴルフクラブ3の軌跡に第2色(例えば青色)を付するとしたが、さらに、ゴルフクラブ3の軌跡が、バックスイングであるか、ダウンスイングであるか、によって色を変えてもよい。   In the above description, when the track of the golf club 3 is in the V zone, the first color (for example, red) is added to the track of the golf club 3, and when the track of the golf club 3 is outside the V zone, Although the second color (for example, blue) is added to the locus 3, the color may be changed depending on whether the locus of the golf club 3 is a backswing or a downswing.

例えば、画像生成部215は、バックスイングにおけるVゾーン外の軌跡に第1色(例えば赤色)を付し、ダウンスイングにおけるVゾーン外の軌跡に第2色(例えば紫色)を付した画像データを生成する。また、画像生成部215は、バックスイングにおけるVゾーン内の軌跡に第3色(例えば青色)を付し、ダウンスイングにおけるVゾーン内の軌跡に第4色(例えば黒色)を付した画像データを生成する。   For example, the image generation unit 215 adds image data in which a first color (for example, red) is added to the locus outside the V zone in the backswing and a second color (for example, purple) is added to the locus outside the V zone in the downswing. Generate. In addition, the image generation unit 215 adds image data in which a third color (for example, blue) is added to the locus in the V zone in the backswing and a fourth color (for example, black) is added to the locus in the V zone in the downswing. Generate.

この場合、例えば、図12の軌跡3aa,3ac(バックスイングにおけるVゾーン外の軌跡)には、第1色(例えば赤色)が付され、軌跡3af(ダウンスイングにおけるVゾーン外の軌跡)には、第2色(例えば紫色)が付される。また、図12の軌跡3ab,3ad(バックスイングにおけるVゾーン内の軌跡)には、第3色(例えば青色)が付され、軌跡3ae(ダウンスイングにおけるVゾーン内の軌跡)には、第4色(例えば黒色)が付される。   In this case, for example, the trajectories 3aa and 3ac (trajectories outside the V zone in the back swing) in FIG. 12 are given the first color (for example, red), and the trajectories 3af (trajectories outside the V zone in the down swing) are shown. , A second color (for example, purple) is added. In addition, a third color (for example, blue) is attached to the trajectories 3ab and 3ad (trajectory in the V zone in the back swing) in FIG. 12, and a fourth color is added to the trajectory 3ae (the trajectory in the V zone in the down swing). A color (for example, black) is attached.

これにより、ユーザー2は、ゴルフクラブ3の軌跡3aが、バックスイングにおいてVゾーンから外れているのか、ダウンスイングにおいてVゾーンから外れているのか認識することができ、ゴルフクラブ3のスイング評価を簡単に行うことができる。   Thereby, the user 2 can recognize whether the trajectory 3a of the golf club 3 is out of the V zone in the back swing or out of the V zone in the down swing, and the swing evaluation of the golf club 3 can be easily performed. Can be done.

以上説明したように、運動解析装置20は、Vゾーンに対する、ゴルフクラブ3の軌跡の通過を判定する。これにより、運動解析装置20は、Vゾーンに対する、ゴルフクラブ3の軌跡の通過態様に応じて、軌跡の表示形態を変えることができ、ユーザー2は、ゴルフクラブ3の軌跡のどの部分がVゾーンを通過しているのか見やすくなり、ゴルフクラブ3のスイング評価を簡単に行うことができる。   As described above, the motion analysis device 20 determines the passage of the path of the golf club 3 with respect to the V zone. Thereby, the motion analysis apparatus 20 can change the display form of a locus | trajectory according to the passage aspect of the locus | trajectory of the golf club 3 with respect to V zone, and the user 2 is what part of the locus | trajectory of the golf club 3 is V zone. The golf club 3 can be easily evaluated for swinging.

また、運動解析装置20は、センサーユニット10を用いてシャフトプレーン30及びホーガンプレーン40を特定するので、カメラなどの大掛かりな装置を使用する必要がなく、スイング解析を行う場所の制約が少ない。   Moreover, since the motion analysis apparatus 20 specifies the shaft plane 30 and the Hogan plane 40 using the sensor unit 10, it is not necessary to use a large-scale apparatus such as a camera, and there are few restrictions on the place where the swing analysis is performed.

なお、上記では、画像生成部215は、ゴルフクラブ3の軌跡のVゾーンを通過している部分と、ゴルフクラブの軌跡のVゾーンを通過していない部分とに対し、軌跡の色を変えた画像データを生成するとしたが、軌跡を常灯及び点滅するように画像データを生成してもよい。例えば、画像生成部215は、Vゾーン内にある軌跡を常灯し、Vゾーン外にある軌跡を点滅するように画像データを生成してもよい。   In the above description, the image generation unit 215 changes the color of the trajectory for the portion that passes through the V zone of the path of the golf club 3 and the portion that does not pass through the V zone of the path of the golf club. Although the image data is generated, the image data may be generated so that the locus is always lit and blinking. For example, the image generation unit 215 may generate the image data so that the locus in the V zone is always lit and the locus outside the V zone is blinked.

また、画像生成部215は、ゴルフクラブ3の軌跡の線の種類を変えた画像データを生成してもよい。例えば、画像生成部215は、Vゾーン内にある軌跡を実線で表示し、Vゾーン外にある軌跡を点線や破線で表示するように画像データを生成してもよい。   Further, the image generation unit 215 may generate image data in which the type of the track line of the golf club 3 is changed. For example, the image generation unit 215 may generate the image data so that the locus in the V zone is displayed with a solid line and the locus outside the V zone is displayed with a dotted line or a broken line.

また、画像生成部215は、ゴルフクラブ3の軌跡の線の太さを変えた画像データを生成してもよい。例えば、画像生成部215は、Vゾーン内にある軌跡を細線で表示し、Vゾーン外にある軌跡を太線で表示するように画像データを生成してもよい。   Further, the image generation unit 215 may generate image data in which the thickness of the track line of the golf club 3 is changed. For example, the image generation unit 215 may generate the image data so that the trajectory in the V zone is displayed with a thin line and the trajectory outside the V zone is displayed with a thick line.

また、画像生成部215は、Vゾーン内にある軌跡を表示せず、Vゾーン外にある軌跡のみを表示するように画像データを生成してもよい。   Further, the image generation unit 215 may generate image data so that only the locus outside the V zone is displayed without displaying the locus within the V zone.

また、画像生成部215は、Vゾーンの外側に、Vゾーンを挟んで第1領域と第2領域とを定義し、Vゾーン、第1領域、及び第2領域の各々を区別して表示させる画像データを生成してもよい。   Further, the image generation unit 215 defines the first area and the second area outside the V zone with the V zone interposed therebetween, and displays the V zone, the first area, and the second area separately. Data may be generated.

また、画像生成部215は、シャフトプレーン30を含むVゾーンとは反対側の領域と、ホーガンプレーン40を含むVゾーンとは反対側の領域とに所定の色を付した画像データを生成してもよい。例えば、画像生成部215は、図11において、シャフトプレーン30から反時計回りにある、Vゾーン外の第1領域と、ホーガンプレーン40から時計回りにある、Vゾーン外の第2領域とに所定の色を付した画像データを生成してもよい。その際、画像生成部215は、第1領域はスライスゾーンであり、第2領域はフックゾーンである旨の情報を画像データに含めてもよい。これにより、ユーザー2は、自分のスイング傾向がスライス傾向であるのか、フック傾向であるのか認識することができる。   In addition, the image generation unit 215 generates image data in which a predetermined color is given to a region opposite to the V zone including the shaft plane 30 and a region opposite to the V zone including the Hogan plane 40. Also good. For example, in FIG. 11, the image generation unit 215 performs predetermined processing on a first region outside the V zone that is counterclockwise from the shaft plane 30 and a second region outside the V zone that is clockwise from the Hogan plane 40. The image data with the color may be generated. At this time, the image generation unit 215 may include in the image data information indicating that the first area is a slice zone and the second area is a hook zone. Thereby, the user 2 can recognize whether his / her swing tendency is a slice tendency or a hook tendency.

また、画像生成部215は、所定区間のリズムにおいて、軌跡の表示形態を変えてもよい。例えば、図13では、画像生成部215は、アドレスからインパクトまでの軌跡の表示形態を変えるとしたが、アドレスからスイング終了までの軌跡に対し、表示形態を変えるようにしてもよい。または、画像生成部215は、ダウンスイングのみの軌跡に対し、軌跡の表示形態を変えるようにしてもよい。   Further, the image generation unit 215 may change the display form of the trajectory in the rhythm of the predetermined section. For example, in FIG. 13, the image generation unit 215 changes the display form of the trajectory from the address to the impact. However, the display form may be changed with respect to the trajectory from the address to the end of the swing. Alternatively, the image generation unit 215 may change the display form of the trajectory with respect to the trajectory of only the downswing.

また、画像生成部215は、Vゾーン内を着色した画像データを生成してもよい。例えば、画像生成部215は、シャフトプレーン30とホーガンプレーン40とで挟まれる領域を所定の色で塗りつぶした画像データを生成してもよい。この場合、画像生成部215は、Vゾーン内を着色した画像データに、上記で説明した表示形態を変えた軌跡を表示してもよい。または、画像生成部215は、Vゾーンの内外に応じて表示形態を変えずに軌跡を表示してもよい(例えば、軌跡を1色で表示してもよい)。   The image generation unit 215 may generate image data in which the V zone is colored. For example, the image generation unit 215 may generate image data in which a region sandwiched between the shaft plane 30 and the Hogan plane 40 is filled with a predetermined color. In this case, the image generation unit 215 may display a trajectory in which the display form described above is changed in the image data colored in the V zone. Or the image generation part 215 may display a locus | trajectory, without changing a display form according to the inside / outside of V zone (for example, a locus | trajectory may be displayed by 1 color).

また、画像生成部215は、第1線分51にスケールファクターSを乗算した線分と、ホーガンプレーン40を含むVゾーン外の領域とを含む画像データを生成してもよい。   The image generation unit 215 may generate image data including a line segment obtained by multiplying the first line segment 51 by the scale factor S and a region outside the V zone including the Hogan plane 40.

図14は、線分とホーガンプレーンを含むVゾーン外の領域とを表示した画面の一例を示した図である。図14に示すように画面90には、第1線分51にスケールファクターSを乗算した線分91が表示されている。また、画面90には、ホーガンプレーン40を側面の一部として含むVゾーン外の領域92が表示されている。領域92は、所定の色によって塗りつぶされている。   FIG. 14 is a diagram showing an example of a screen displaying a line segment and a region outside the V zone including the Hogan plane. As shown in FIG. 14, a line segment 91 obtained by multiplying the first line segment 51 by the scale factor S is displayed on the screen 90. Further, the screen 90 displays an area 92 outside the V zone that includes the Hogan plane 40 as a part of the side surface. The region 92 is filled with a predetermined color.

画像生成部215は、図14に示すように、線分91と領域92とによって、Vゾーンを示すようにしてもよい。そして、画像生成部215は、上記で説明したように、Vゾーンの内外に応じて表示形態を変えた軌跡を表示する。   As shown in FIG. 14, the image generation unit 215 may indicate a V zone by a line segment 91 and a region 92. Then, as described above, the image generation unit 215 displays a trajectory whose display form is changed according to the inside and outside of the V zone.

なお、画像生成部215は、線分91に替えて、第1線分51を画面90に表示するようにしてもよい。また、画像生成部215は、第2線分53にスケールファクターHを乗算した線分と、シャフトプレーン30を含むVゾーン外の領域とを含む画像データを生成してもよい。   Note that the image generation unit 215 may display the first line segment 51 on the screen 90 instead of the line segment 91. The image generation unit 215 may generate image data including a line segment obtained by multiplying the second line segment 53 by the scale factor H and a region outside the V zone including the shaft plane 30.

また、上記では、第2仮想平面特定部212は、センサーユニット10が出力する計測データと身体情報とを用いて、第2線分53を特定したが、第1仮想平面特定部211が特定した第1線分51と、第1線分51に対する所定角度θとを用いて、ゴルフクラブ3のヘッド(打撃部)の位置62と位置63とを結ぶ第2線分53を特定する処理を行ってもよい。   In the above description, the second virtual plane specifying unit 212 specifies the second line segment 53 using the measurement data output from the sensor unit 10 and the body information, but the first virtual plane specifying unit 211 specifies the second line segment 53. Using the first line segment 51 and the predetermined angle θ with respect to the first line segment 51, a process of specifying the second line segment 53 connecting the position 62 and the position 63 of the head (striking part) of the golf club 3 is performed. May be.

また、上記では、ゴルフクラブ3に取り付けられたセンサーユニット10の出力によって、ホーガンプレーン40を特定するようにしたがこれに限られない。例えば、ユーザー2の腕等に、センサーユニットを取り付け、このセンサーユニットの出力に基づいて、ホーガンプレーン40を特定するようにしてもよい。   In the above description, the Hogan plane 40 is specified by the output of the sensor unit 10 attached to the golf club 3, but the present invention is not limited to this. For example, a sensor unit may be attached to the arm of the user 2 and the Hogan plane 40 may be specified based on the output of the sensor unit.

また、上記では、加速度センサー13と角速度センサー14が、センサーユニット10に内蔵されて一体化されているが、加速度センサー13と角速度センサー14は一体化されていなくてもよい。あるいは、加速度センサー13と角速度センサー14が、センサーユニット10に内蔵されずに、ゴルフクラブ3又はユーザー2に直接装着されてもよい。また、上記では、センサーユニット10と運動解析装置20が別体であるが、これらを一体化してゴルフクラブ3又はユーザー2に装着可能にしてもよい。   In the above description, the acceleration sensor 13 and the angular velocity sensor 14 are integrated in the sensor unit 10, but the acceleration sensor 13 and the angular velocity sensor 14 may not be integrated. Alternatively, the acceleration sensor 13 and the angular velocity sensor 14 may be directly attached to the golf club 3 or the user 2 without being built in the sensor unit 10. In the above description, the sensor unit 10 and the motion analysis device 20 are separate, but they may be integrated so as to be mounted on the golf club 3 or the user 2.

また、上記では、運動解析装置20は、ユーザー2の両肩を結ぶ線分上の所定位置63のZ座標AZを、式(9)のように、グリップエンドの位置62のY座標GYとユーザー2の腕の長さL2の和として計算しているが、これ以外の式を用いてもよい。例えば、運動解析装置20は、AZ=GY+K・L2のように、L2に係数Kを乗じてGYに加算してAZを求めてもよい。   In the above description, the motion analysis apparatus 20 uses the Z coordinate AZ of the predetermined position 63 on the line segment connecting both the shoulders of the user 2 as the Y coordinate GY of the grip end position 62 and the user Although the calculation is performed as the sum of the lengths L2 of the two arms, other expressions may be used. For example, the motion analysis apparatus 20 may obtain AZ by multiplying L2 by a coefficient K and adding it to GY as AZ = GY + K · L2.

また、上記では、ゴルフスイングを解析する運動解析システム(運動解析装置)を例に挙げたが、本発明は、テニスや野球などの様々な運動のスイングを解析する運動解析システム(運動解析装置)に適用することができる。   In the above description, a motion analysis system (motion analysis device) that analyzes a golf swing is taken as an example. However, the present invention is a motion analysis system (motion analysis device) that analyzes swings of various motions such as tennis and baseball. Can be applied to.

上述した運動解析システムの機能構成は、運動解析システムの構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。運動解析システムの構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   The functional configuration of the motion analysis system described above is classified according to the main processing contents in order to facilitate understanding of the configuration of the motion analysis system. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the motion analysis system can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.

また、上述したフロー図の各処理単位は、運動解析システムの処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。運動解析システムの処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、処理の順番も上記フロー図に限られない。   In addition, each processing unit in the flowchart described above is divided according to the main processing contents in order to facilitate understanding of the processing of the motion analysis system. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the motion analysis system can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes. Further, the order of processing is not limited to the above flowchart.

以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更又は改良を加えることが可能であることが当業者には明らかである。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。また、本発明は、運動解析方法、運動解析装置のプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。なお、上記実施例ではセンサーユニット10と運動解析装置20とを別体として説明したが、センサーユニット10に運動解析装置20の機能を搭載しても良い。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made to the above-described embodiment. Further, it is apparent from the scope of the claims that embodiments with such changes or improvements can also be included in the technical scope of the present invention. The present invention can also be provided as a motion analysis method, a program for a motion analysis device, and a storage medium storing the program. In the above embodiment, the sensor unit 10 and the motion analysis device 20 are described as separate bodies. However, the sensor unit 10 may be equipped with the function of the motion analysis device 20.

1:運動解析システム1
2:ユーザー
3:ゴルフクラブ
3a,3ac〜3af:軌跡
10:センサーユニット
20:運動解析装置
21:制御部
210:センサー情報取得部
211:第1仮想平面特定部
212:第2仮想平面特定部
213:運動解析部
214:軌跡判定部
215:画像生成部
216:出力処理部
22:通信部
23:操作部
24:記憶部
25:表示部
26:音声出力部
30:シャフトプレーン
40:ホーガンプレーン
71:Vゾーン
80:画面
90:画面
91:線分
92:領域
1: Motion analysis system 1
2: User 3: Golf clubs 3a, 3ac-3af: Trajectory 10: Sensor unit 20: Motion analysis device 21: Control unit 210: Sensor information acquisition unit 211: First virtual plane identification unit 212: Second virtual plane identification unit 213 : Motion analysis unit 214: Trajectory determination unit 215: Image generation unit 216: Output processing unit 22: Communication unit 23: Operation unit 24: Storage unit 25: Display unit 26: Audio output unit 30: Shaft plane 40: Hogan plane 71: V zone 80: Screen 90: Screen 91: Line segment 92: Area

Claims (12)

慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する第1特定部と、
打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する第2特定部と、
前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する解析部と、
前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する判定部と、
を有することを特徴とする運動解析装置。
Using the output of the inertial sensor, a first specifying unit that specifies a first axis along the longitudinal direction of the shaft portion of the exercise device in the address posture of the user;
A second specifying unit for specifying a second axis having a predetermined angle with respect to the first axis, with the hitting direction as a rotation axis;
Based on the output of the inertial sensor, an analysis unit that calculates a trajectory of the user's swing;
A determination unit that determines whether or not the trajectory passes through an area specified based on the first axis and the second axis;
A motion analysis apparatus comprising:
請求項1に記載の運動解析装置であって、
前記判定部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とを判定する、
ことを特徴とする運動解析装置。
The motion analysis apparatus according to claim 1,
The determination unit determines a portion of the trajectory passing through the region and a portion of the trajectory not passing through the region;
A motion analysis apparatus characterized by that.
請求項2に記載の運動解析装置であって、
前記判定部によって判定された、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の表示形態が異なる画像データを生成する画像生成部、
をさらに有することを特徴とする運動解析装置。
The motion analysis device according to claim 2,
Image generation for generating image data in which the display form of the trajectory is different between a portion of the trajectory that has passed through the region and a portion of the trajectory that has not passed through the region, as determined by the determination unit Part,
The motion analysis apparatus further comprising:
請求項3に記載の運動解析装置であって、
前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の色が異なる画像データを生成する、
ことを特徴とする運動解析装置。
The motion analysis apparatus according to claim 3,
The image generation unit generates image data in which the color of the locus is different for a portion of the locus that passes through the region and a portion of the locus that does not pass through the region.
A motion analysis apparatus characterized by that.
請求項3に記載の運動解析装置であって、
前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡を常灯及び点滅を用いて区別させた画像データを生成する、
ことを特徴とする運動解析装置。
The motion analysis apparatus according to claim 3,
The image generation unit generates image data obtained by distinguishing the trajectory using a normal light and blinking for a portion passing through the region of the trajectory and a portion not passing through the region of the trajectory. Generate,
A motion analysis apparatus characterized by that.
請求項3に記載の運動解析装置であって、
前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の線の種類が異なる画像データを生成する、
ことを特徴とする運動解析装置。
The motion analysis apparatus according to claim 3,
The image generation unit generates image data having different types of lines of the locus for a portion passing through the region of the locus and a portion not passing through the region of the locus;
A motion analysis apparatus characterized by that.
請求項3に記載の運動解析装置であって、
前記画像生成部は、前記軌跡の前記領域を通過している部分と、前記軌跡の前記領域を通過していない部分とに対し、前記軌跡の線の太さが異なる画像データを生成する、
ことを特徴とする運動解析装置。
The motion analysis apparatus according to claim 3,
The image generation unit generates image data in which the line thickness of the trajectory is different for a portion that passes through the region of the trajectory and a portion that does not pass through the region of the trajectory.
A motion analysis apparatus characterized by that.
請求項1〜7のいずれか一項に記載の運動解析装置であって、
前記第1特定部は、前記第1軸と前記打球方向とを含む第1仮想平面を特定し、
前記第2特定部は、前記第2軸と前記打球方向とを含む第2仮想平面を特定し、
前記領域は、前記第1仮想平面と前記第2仮想平面とによって挟まれている領域である、
ことを特徴とする運動解析装置。
The motion analysis device according to any one of claims 1 to 7,
The first specifying unit specifies a first virtual plane including the first axis and the hitting direction,
The second specifying unit specifies a second virtual plane including the second axis and the hitting direction,
The region is a region sandwiched between the first virtual plane and the second virtual plane.
A motion analysis apparatus characterized by that.
請求項8に記載の運動解析装置であって、
前記画像生成部は、前記領域の外側に、前記領域を挟んで第1領域と第2領域とを定義し、前記領域、前記第1領域、および前記第2領域の各々を区別して表示させる画像データを生成する、
ことを特徴とする運動解析装置。
The motion analysis apparatus according to claim 8,
The image generation unit defines a first area and a second area outside the area with the area interposed therebetween, and displays the area, the first area, and the second area separately. Generate data,
A motion analysis apparatus characterized by that.
慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する工程と、
打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する工程と、
前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する工程と、
前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する工程と、
を含むことを特徴とする運動解析方法。
Identifying a first axis along the longitudinal direction of the shaft portion of the exercise device in the user's address posture using the output of the inertial sensor;
Identifying a second axis having a predetermined angle with respect to the first axis, with the direction of the ball as the rotation axis;
Calculating a locus of the user's swing based on the output of the inertial sensor;
Determining whether the trajectory passes through an area specified based on the first axis and the second axis;
A motion analysis method comprising:
慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する工程と、
打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する工程と、
前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する工程と、
前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する工程と、
をコンピューターに実行させるプログラム。
Identifying a first axis along the longitudinal direction of the shaft portion of the exercise device in the user's address posture using the output of the inertial sensor;
Identifying a second axis having a predetermined angle with respect to the first axis, with the direction of the ball as the rotation axis;
Calculating a locus of the user's swing based on the output of the inertial sensor;
Determining whether the trajectory passes through an area specified based on the first axis and the second axis;
A program that runs a computer.
慣性センサーと、
前記慣性センサーの出力を用いて、ユーザーのアドレス姿勢における運動器具のシャフト部の長軸方向に沿った第1軸を特定する第1特定部と、
打球方向を回転軸として、前記第1軸に対して所定角度をなす第2軸を特定する第2特定部と、
前記慣性センサーの出力に基づいて、前記ユーザーのスイングの軌跡を算出する解析部と、
前記軌跡が前記第1軸と前記第2軸とに基づいて特定される領域を通過しているか否か判定する判定部と、
を有することを特徴とする運動解析システム。
An inertial sensor,
Using the output of the inertial sensor, a first specifying unit for specifying a first axis along the long axis direction of the shaft unit of the exercise device in the address posture of the user;
A second specifying unit for specifying a second axis having a predetermined angle with respect to the first axis, with the hitting direction as a rotation axis;
Based on the output of the inertial sensor, an analysis unit that calculates a trajectory of the user's swing;
A determination unit that determines whether or not the trajectory passes through an area specified based on the first axis and the second axis;
A motion analysis system characterized by comprising:
JP2014256579A 2014-12-18 2014-12-18 Motion analysis device, motion analysis method, program, and motion analysis system Withdrawn JP2016116566A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014256579A JP2016116566A (en) 2014-12-18 2014-12-18 Motion analysis device, motion analysis method, program, and motion analysis system
US14/965,394 US20160175681A1 (en) 2014-12-18 2015-12-10 Exercise analysis device, exercise analysis method, program, recording medium, and exercise analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014256579A JP2016116566A (en) 2014-12-18 2014-12-18 Motion analysis device, motion analysis method, program, and motion analysis system

Publications (1)

Publication Number Publication Date
JP2016116566A true JP2016116566A (en) 2016-06-30

Family

ID=56128313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014256579A Withdrawn JP2016116566A (en) 2014-12-18 2014-12-18 Motion analysis device, motion analysis method, program, and motion analysis system

Country Status (2)

Country Link
US (1) US20160175681A1 (en)
JP (1) JP2016116566A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019024616A (en) * 2017-07-26 2019-02-21 ヤマハ株式会社 Golf swing display system, and information processing device and method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030742A1 (en) * 2016-08-09 2018-02-15 주식회사 비플렉스 Method and apparatus for recognizing exercise
US10973439B2 (en) 2016-12-29 2021-04-13 BioMech Sensor LLC Systems and methods for real-time data quantification, acquisition, analysis, and feedback
US11318350B2 (en) 2016-12-29 2022-05-03 BioMech Sensor LLC Systems and methods for real-time data quantification, acquisition, analysis, and feedback
US10352962B2 (en) 2016-12-29 2019-07-16 BioMech Sensor LLC Systems and methods for real-time data quantification, acquisition, analysis and feedback
US9773330B1 (en) 2016-12-29 2017-09-26 BioMech Sensor LLC Systems and methods for real-time data quantification, acquisition, analysis, and feedback
CN107786747B (en) * 2017-10-30 2020-12-15 京东方科技集团股份有限公司 Mobile equipment and anti-theft method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060084516A1 (en) * 2004-07-28 2006-04-20 Smartswing, Inc. Method and system for defining and using a reference swing for a sports training system
JP2011103925A (en) * 2009-11-12 2011-06-02 Hiroyuki Yoneyama Apparatus for evaluating golf swing
JP2013056074A (en) * 2011-09-09 2013-03-28 Sumitomo Rubber Ind Ltd Swing analysis method
JP2014115984A (en) * 2012-11-13 2014-06-26 Okada Denshi Co Ltd Customer management system having image comparison function and golf lesson support system using customer management system having image comparison function
US20140200094A1 (en) * 2013-01-17 2014-07-17 Gordon PARKE Device and method for reconstructing and analyzing motion of a rigid body

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5154427A (en) * 1990-11-07 1992-10-13 Harlan Thomas A Golfer's swing analysis device
US20050288119A1 (en) * 2004-06-28 2005-12-29 Hongchuan Wang Real-time measurements for establishing database of sporting apparatus motion and impact parameters
JP2006102247A (en) * 2004-10-06 2006-04-20 Daiwa Seiko Inc Golf club
JP5375744B2 (en) * 2010-05-31 2013-12-25 カシオ計算機株式会社 Movie playback device, movie playback method and program
US8550819B2 (en) * 2010-08-12 2013-10-08 Gary Anderson Motion training schematic and method of instruction
JP5639830B2 (en) * 2010-09-29 2014-12-10 任天堂株式会社 GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME CONTROL METHOD
JP5940436B2 (en) * 2012-11-20 2016-06-29 株式会社Access Swing analysis system using a motion sensor, swing analysis method, and swing analysis program
US20150018111A1 (en) * 2013-06-27 2015-01-15 Mobiplex, Inc. Interpretation of characteristics of a golf swing using motion analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060084516A1 (en) * 2004-07-28 2006-04-20 Smartswing, Inc. Method and system for defining and using a reference swing for a sports training system
JP2011103925A (en) * 2009-11-12 2011-06-02 Hiroyuki Yoneyama Apparatus for evaluating golf swing
JP2013056074A (en) * 2011-09-09 2013-03-28 Sumitomo Rubber Ind Ltd Swing analysis method
JP2014115984A (en) * 2012-11-13 2014-06-26 Okada Denshi Co Ltd Customer management system having image comparison function and golf lesson support system using customer management system having image comparison function
US20140200094A1 (en) * 2013-01-17 2014-07-17 Gordon PARKE Device and method for reconstructing and analyzing motion of a rigid body

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019024616A (en) * 2017-07-26 2019-02-21 ヤマハ株式会社 Golf swing display system, and information processing device and method
JP7005987B2 (en) 2017-07-26 2022-02-10 ヤマハ株式会社 Golf swing display system, information processing device and method

Also Published As

Publication number Publication date
US20160175681A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP2016116566A (en) Motion analysis device, motion analysis method, program, and motion analysis system
JP6696109B2 (en) Motion analysis device, motion analysis system, motion analysis method and program
JP6613684B2 (en) Swing diagnostic method, swing diagnostic program, recording medium, swing diagnostic device, and swing diagnostic system
US9962591B2 (en) Motion analysis method, program, and motion analysis device
TW201501752A (en) Motion analysis method and motion analysis device
WO2016113796A1 (en) Exercise analysis device, exercise analysis method, program, recording medium, and exercise analysis system
JP6613685B2 (en) Swing diagnostic method, swing diagnostic program, recording medium, swing diagnostic device, and swing diagnostic system
JP2015156882A (en) Motion analysis device and motion analysis system
JP2016116615A (en) Motion analysis device, motion analysis system, motion analysis method, and program
JP2016067410A (en) Motion analysis device, motion analysis system, and motion analysis method and program
JP2017023639A (en) Swing diagnostic device, swing diagnostic system, swing diagnostic method, swing diagnostic program and storage medium
JP2017086164A (en) Electronic apparatus, system, method, program, and recording medium
JP2017086210A (en) Swing analysis device, swing analysis system, swing analysis method, swing analysis program, recording medium, and swing display device
US10252136B2 (en) Swing diagnosis apparatus, swing diagnosis system, swing diagnosis method, and recording medium
JP6380733B2 (en) Motion analysis device, motion analysis system, motion analysis method, motion analysis information display method and program
JP2016116613A (en) Motion analysis device, motion analysis system, motion analysis method, and program
JP2017124074A (en) Electronic apparatus, system, determination method, determination program and recording medium
KR20160076485A (en) Exercise analysis device, exercise analysis system, exercise analysis method, display device, and recording medium
WO2015146062A1 (en) Motion analysis method, motion analysis device, motion analysis system and program
JP2017023644A (en) Arithmetic device, arithmetic system, arithmetic method, arithmetic program, and storage medium
JP2017086850A (en) Electronic apparatus, system, method, program, and recording medium
JP2016116572A (en) Motion analysis device, motion analysis method, program, and motion analysis system
JP2016055028A (en) Motion analysis method, motion analysis device, motion analysis system and program
JP2016116745A (en) Tilt determination device, tilt determination system, tilt determination method and program
JP2016030123A (en) Motion analysis method, motion analysis device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181211