JP2017119102A - Motion analysis device, method and program - Google Patents

Motion analysis device, method and program Download PDF

Info

Publication number
JP2017119102A
JP2017119102A JP2016249690A JP2016249690A JP2017119102A JP 2017119102 A JP2017119102 A JP 2017119102A JP 2016249690 A JP2016249690 A JP 2016249690A JP 2016249690 A JP2016249690 A JP 2016249690A JP 2017119102 A JP2017119102 A JP 2017119102A
Authority
JP
Japan
Prior art keywords
time
data
sensor
moving body
motion analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016249690A
Other languages
Japanese (ja)
Other versions
JP6776882B2 (en
Inventor
植田 勝彦
Katsuhiko Ueda
勝彦 植田
佑斗 中村
Yuto Nakamura
佑斗 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd filed Critical Sumitomo Rubber Industries Ltd
Publication of JP2017119102A publication Critical patent/JP2017119102A/en
Application granted granted Critical
Publication of JP6776882B2 publication Critical patent/JP6776882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a motion analysis device capable of accurately analyzing motion of a mobile object.SOLUTION: The motion analysis device for analyzing motion of a mobile object is provided. The motion analysis device comprises a first acquisition part, a second acquisition part and a derivation part. The first acquisition part acquires time-series sensor data, including at least one of time-series angular velocity data, acceleration data and terrestrial magnetism data output from a sensor unit. The sensor unit is attached to the mobile object, and includes at least one of an angular velocity sensor, an acceleration sensor and a terrestrial magnetism sensor. The second acquisition part acquires time-series image data including time-series depth images obtained by photographing motion of the mobile object using a distance image sensor and a time-series two-dimensional image. The derivation part derives a three-dimensional behavior of the mobile object based on the sensor data and the image data.SELECTED DRAWING: Figure 1

Description

本発明は、移動体の運動を解析するための運動解析装置、方法及びプログラムに関する。   The present invention relates to a motion analysis apparatus, method, and program for analyzing motion of a moving body.

従来より、角速度センサ、加速度センサ及び地磁気センサを含む慣性センサを移動体に取り付け、当該慣性センサの出力値に基づいて移動体の挙動を推定する技術が知られている(特許文献1等)。また、カメラにより移動体の運動を撮影し、得られた画像データに基づいて移動体の挙動を推定することも行われている(特許文献2,3等)。   Conventionally, a technique for attaching an inertial sensor including an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor to a moving body and estimating the behavior of the moving body based on an output value of the inertial sensor is known (Patent Document 1, etc.). In addition, the movement of a moving body is photographed with a camera, and the behavior of the moving body is estimated based on the obtained image data (Patent Documents 2, 3, etc.).

特開2011−227017号公報JP 2011-227017 A 特開2013−215349号公報JP 2013-215349 A 特開2004−313479号公報JP 2004-313479 A

しかしながら、特許文献1のように慣性センサの出力値に基づいて解析を行う場合、当該出力値には慣性センサのドリフト成分等による誤差が含まれるため、解析の精度が低下することがある。例えば、慣性センサの出力値である加速度のデータを積分して速度や位置を求めるような場合、この積分により誤差が蓄積し得る。また、移動体が高速で運動する場合には、特に角速度センサの誤差が大きくなり、移動体の姿勢の推定が困難となり得る。また、回転運動が大きい場合には特に、加速度センサの出力値に含まれる重力加速度の影響を正しく評価することが困難となり得る。   However, when the analysis is performed based on the output value of the inertial sensor as in Patent Document 1, since the output value includes an error due to a drift component of the inertial sensor, the accuracy of the analysis may be reduced. For example, when integrating the acceleration data, which is the output value of the inertial sensor, to obtain the speed and position, errors can be accumulated by this integration. Further, when the moving body moves at a high speed, the error of the angular velocity sensor becomes particularly large, and it may be difficult to estimate the posture of the moving body. Further, particularly when the rotational motion is large, it can be difficult to correctly evaluate the influence of gravitational acceleration included in the output value of the acceleration sensor.

一方、特許文献2,3のように画像データに基づいて解析を行う場合にも、しばしば精度の面で問題が生じる。例えば、画像処理により移動体の位置を推定し、当該位置のデータを微分することで速度や加速度を求めるような場合、位置の推定における誤差が僅かであっても、微分により誤差が増大し得る。   On the other hand, when performing analysis based on image data as in Patent Documents 2 and 3, there is often a problem in terms of accuracy. For example, when the position of a moving object is estimated by image processing and the speed and acceleration are obtained by differentiating the data of the position, even if the error in position estimation is small, the error may increase due to differentiation. .

本発明は、高精度に移動体の運動を解析することができる運動解析装置、方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide a motion analysis apparatus, method, and program capable of analyzing the motion of a moving object with high accuracy.

本発明の第1観点に係る運動解析装置は、移動体の運動を解析するための運動解析装置であって、第1取得部と、第2取得部と、導出部とを備える。前記第1取得部は、センサユニットから出力される時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータを取得する。前記センサユニットは、前記移動体に取り付けられ、角速度センサ、加速度センサ及び地磁気センサの少なくとも1つを含む。前記第2取得部は、第1距離画像センサにより前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得する。前記導出部は、前記センサデータ及び前記画像データに基づいて、前記移動体の三次元挙動を導出する。   A motion analysis device according to a first aspect of the present invention is a motion analysis device for analyzing motion of a moving body, and includes a first acquisition unit, a second acquisition unit, and a derivation unit. The first acquisition unit acquires time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data output from the sensor unit. The sensor unit is attached to the moving body and includes at least one of an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor. The second acquisition unit acquires time-series image data including a time-series depth image and a two-dimensional image obtained by photographing the movement of the moving body by the first distance image sensor. The deriving unit derives a three-dimensional behavior of the moving body based on the sensor data and the image data.

本発明の第2観点に係る運動解析装置は、第1観点に係る運動解析装置であって、前記導出部は、前記画像データ及び前記センサデータを用いて定義される関数を含む目的関数を最小化又は最大化する最適解として、前記移動体の姿勢を導出する。   A motion analysis apparatus according to a second aspect of the present invention is the motion analysis apparatus according to the first aspect, wherein the derivation unit minimizes an objective function including a function defined using the image data and the sensor data. The posture of the moving body is derived as an optimal solution to be maximized or maximized.

本発明の第3観点に係る運動解析装置は、第2観点に係る運動解析装置であって、前記関数は、前記画像データから導出される前記移動体の向きを用いて定義される。   A motion analysis apparatus according to a third aspect of the present invention is the motion analysis apparatus according to the second aspect, wherein the function is defined using a direction of the moving body derived from the image data.

本発明の第4観点に係る運動解析装置は、第2又は第3観点に係る運動解析装置であって、前記関数は、前記地磁気データ及び加速度データの少なくとも一方を用いて定義される。   A motion analysis apparatus according to a fourth aspect of the present invention is the motion analysis apparatus according to the second or third aspect, wherein the function is defined using at least one of the geomagnetic data and acceleration data.

本発明の第5観点に係る運動解析装置は、第2から第4観点のいずれかに係る運動解析装置であって、前記導出部は、前記移動体の初期の姿勢及び前記時系列の角速度データを用いて、前記移動体の仮の姿勢を算出する。前記関数は、前記仮の姿勢を用いて定義される。   A motion analysis apparatus according to a fifth aspect of the present invention is the motion analysis apparatus according to any one of the second to fourth aspects, wherein the derivation unit includes an initial posture of the moving body and time-series angular velocity data. Is used to calculate a temporary posture of the moving body. The function is defined using the temporary posture.

本発明の第6観点に係る運動解析装置は、第5観点に係る運動解析装置であって、前記導出部は、前記画像データから導出される初期の前記移動体の向き及び初期の前記加速度データ、又は、前記角速度データを用いて、前記移動体の初期の姿勢として、前記移動体の静止時の姿勢を導出する。   A motion analysis apparatus according to a sixth aspect of the present invention is the motion analysis apparatus according to the fifth aspect, wherein the derivation unit is an initial direction of the moving body and initial acceleration data derived from the image data. Alternatively, using the angular velocity data, a stationary posture of the moving body is derived as an initial posture of the moving body.

本発明の第7観点に係る運動解析装置は、第1から第6観点のいずれかに係る運動解析装置であって、前記導出部は、前記移動体の姿勢及び前記移動体の姿勢を微分フィルタによりフィルタリングした微分データに基づいて、前記移動体の角速度を導出する。   A motion analysis apparatus according to a seventh aspect of the present invention is the motion analysis apparatus according to any one of the first to sixth aspects, wherein the derivation unit uses a differential filter for the posture of the moving body and the posture of the moving body. The angular velocity of the moving body is derived based on the differential data filtered by the above.

本発明の第8観点に係る運動解析装置は、第1から第7観点のいずれかに係る運動解析装置であって、前記導出部は、前記加速度データ用いて、前記画像データから導出される前記移動体の仮の位置及び当該仮の位置を微分した仮の速度の少なくとも一方をスムージングすることにより、前記移動体の位置及び速度の少なくとも一方を導出する。   A motion analysis apparatus according to an eighth aspect of the present invention is the motion analysis apparatus according to any of the first to seventh aspects, wherein the derivation unit is derived from the image data using the acceleration data. By smoothing at least one of the temporary position of the moving body and the temporary speed obtained by differentiating the temporary position, at least one of the position and speed of the moving body is derived.

本発明の第9観点に係る運動解析装置は、第8観点に係る運動解析装置であって、前記導出部は、前記移動体の速度を微分フィルタによりフィルタリングすることにより、前記移動体の加速度を導出する。   The motion analysis apparatus according to a ninth aspect of the present invention is the motion analysis apparatus according to the eighth aspect, wherein the derivation unit filters the acceleration of the mobile object by filtering the speed of the mobile object with a differential filter. To derive.

本発明の第10観点に係る運動解析装置は、第1から第9観点のいずれかに係る運動解析装置であって、前記導出部は、前記画像データから導出される前記移動体の向きの時系列データと、前記センサデータから導出される前記移動体の向きの時系列データとの一致度が最も高くなるように、前記時系列の画像データと前記時系列のセンサデータとの時刻合わせを行う。   A motion analysis apparatus according to a tenth aspect of the present invention is the motion analysis apparatus according to any one of the first to ninth aspects, wherein the derivation unit has a direction of the moving body derived from the image data. Time alignment of the time-series image data and the time-series sensor data is performed so that the degree of coincidence between the series data and the time-series data of the moving body direction derived from the sensor data is the highest. .

本発明の第11観点に係る運動解析装置は、第1観点から第10観点のいずれかに係る運動解析装置であって、第3取得部をさらに備える。前記第3取得部は、第2距離画像センサにより前記第1距離画像センサとは異なる方向から前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得する。前記導出部は、前記センサデータと、前記第2取得部及び前記第3取得部により取得された前記画像データとに基づいて、前記移動体の三次元挙動を導出する。   A motion analysis apparatus according to an eleventh aspect of the present invention is the motion analysis apparatus according to any one of the first to tenth aspects, further including a third acquisition unit. The third acquisition unit acquires time-series image data including a time-series depth image and a two-dimensional image obtained by capturing the motion of the moving body from a direction different from the first distance image sensor by the second distance image sensor. To do. The derivation unit derives a three-dimensional behavior of the moving body based on the sensor data and the image data acquired by the second acquisition unit and the third acquisition unit.

本発明の第12観点に係る運動解析装置は、第1観点から第11観点のいずれかに係る運動解析装置であって、前記導出部は、前記画像データに基づいて第1時刻における前記移動体の姿勢である瞬時姿勢を導出し、前記移動体の姿勢が前記第1時刻において前記瞬時姿勢に一致するように、前記第1時刻と異なる第2時刻と前記第1時刻との間の前記移動体の姿勢を補間する。   A motion analysis apparatus according to a twelfth aspect of the present invention is the motion analysis apparatus according to any of the first to eleventh aspects, wherein the derivation unit is configured to move the moving body at a first time based on the image data. The movement between the second time different from the first time and the first time so that the posture of the moving body is derived and the posture of the moving body matches the instantaneous posture at the first time Interpolate body posture.

本発明の第13観点に係る運動解析方法は、移動体の運動を解析するための運動解析方法であって、以下の(1)〜(3)のステップを含む。
(1)センサユニットを用いて、時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータを取得するステップ。前記センサユニットは、前記移動体に取り付けられ、角速度センサ、加速度センサ及び地磁気センサの少なくとも1つを含む。
(2)距離画像センサを用いて、前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得するステップ。
(3)前記センサデータ及び前記画像データに基づいて、前記移動体の三次元挙動を導出するステップ。
A motion analysis method according to a thirteenth aspect of the present invention is a motion analysis method for analyzing the motion of a moving body, and includes the following steps (1) to (3).
(1) Using the sensor unit, obtaining time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data. The sensor unit is attached to the moving body and includes at least one of an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor.
(2) A step of acquiring time-series image data including a time-series depth image and a two-dimensional image obtained by photographing the motion of the moving body using a distance image sensor.
(3) Deriving a three-dimensional behavior of the moving body based on the sensor data and the image data.

本発明の第14観点に係る運動解析プログラムは、移動体の運動を解析するための運動解析プログラムであって、以下の(1)〜(3)のステップをコンピュータに実行させる。
(1)センサユニットから出力される時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータを取得するステップ。前記センサユニットは、前記移動体に取り付けられ、角速度センサ、加速度センサ及び地磁気センサの少なくとも1つを含む。
(2)距離画像センサにより前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得するステップ。
(3)前記センサデータ及び前記画像データに基づいて、前記移動体の三次元挙動を導出するステップ。
The motion analysis program according to the fourteenth aspect of the present invention is a motion analysis program for analyzing the motion of a moving body, and causes a computer to execute the following steps (1) to (3).
(1) A step of acquiring time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data output from the sensor unit. The sensor unit is attached to the moving body and includes at least one of an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor.
(2) A step of acquiring time-series image data including a time-series depth image and a two-dimensional image obtained by photographing the movement of the moving body by a distance image sensor.
(3) Deriving a three-dimensional behavior of the moving body based on the sensor data and the image data.

本発明によれば、移動体の運動が、(1)時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータ、及び、(2)時系列の深度画像及び二次元画像を含む時系列の画像データに基づいて導出される。その結果、センサデータに含まれる誤差は、画像データに基づいて軽減される。或いは、画像データに含まれる誤差は、センサデータに基づいて軽減される。よって、高精度に移動体の運動を解析することができる。   According to the present invention, the motion of the moving body includes (1) time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data, and (2) a time-series depth image and two Derived based on time-series image data including a dimensional image. As a result, the error included in the sensor data is reduced based on the image data. Alternatively, the error included in the image data is reduced based on the sensor data. Therefore, the movement of the moving body can be analyzed with high accuracy.

本発明の第1実施形態に係る運動解析装置を含む運動解析システムの全体構成を示す図。The figure which shows the whole structure of the motion analysis system containing the motion analysis apparatus which concerns on 1st Embodiment of this invention. 図1の運動解析システムの機能ブロック図。The functional block diagram of the motion analysis system of FIG. ゴルフクラブのグリップ近傍を基準とするxyz局所座標系を説明する図。The figure explaining xyz local coordinate system on the basis of the grip vicinity of a golf club. (A)アドレス状態を示す図。(B)トップ状態を示す図。(C)インパクト状態を示す図。(D)フィニッシュ状態を示す図。(A) The figure which shows an address state. (B) The figure which shows a top state. (C) The figure which shows an impact state. (D) The figure which shows a finish state. 第1実施形態に係る運動解析方法の流れを示すフローチャート。The flowchart which shows the flow of the motion analysis method which concerns on 1st Embodiment. 第1実施形態に係る時刻合わせ処理の流れを示すフローチャート。The flowchart which shows the flow of the time adjustment process which concerns on 1st Embodiment. 二次元のシャフトの向きを説明する図。The figure explaining the direction of a two-dimensional shaft. 時刻合わせ処理の原理を説明する概念図。The conceptual diagram explaining the principle of a time adjustment process. アドレス期間の姿勢の導出処理の流れを示すフローチャート。The flowchart which shows the flow of the derivation | leading-out process of the attitude | position of an address period. アドレスからインパクト付近までの姿勢の導出処理の流れを示すフローチャート。The flowchart which shows the flow of the derivation | leading-out process of the attitude | position from the address to the impact vicinity. グリップの位置及び速度の導出処理の流れを示すフローチャート。The flowchart which shows the flow of the derivation | leading-out process of the position and speed of a grip. グリップの角速度及び角加速度の導出処理の流れを示すフローチャート。The flowchart which shows the flow of the derivation | leading-out process of the angular velocity and angular acceleration of a grip. グリップの加速度の導出処理の流れを示すフローチャート。The flowchart which shows the flow of the derivation | leading-out process of the acceleration of a grip. 実施例1及び参考例1を示すグラフ。The graph which shows Example 1 and Reference Example 1. FIG. 実施例2及び参考例2を示すグラフ。The graph which shows Example 2 and Reference Example 2. FIG. 実施例3及び参考例3を示すグラフ(グリップのX軸方向の位置)。The graph which shows Example 3 and Reference Example 3 (position of the grip in the X-axis direction). 実施例3及び参考例3を示すグラフ(グリップのY軸方向の位置)。The graph which shows Example 3 and Reference Example 3 (position of the Y-axis direction of a grip). 実施例3及び参考例3を示すグラフ(グリップのZ軸方向の位置)。The graph which shows Example 3 and Reference Example 3 (position of a grip in the Z-axis direction). 実施例4及び参考例4を示すグラフ(グリップのX軸方向の位置)。The graph which shows Example 4 and Reference Example 4 (position of the X-axis direction of a grip). 実施例4及び参考例4を示すグラフ(グリップのY軸方向の位置)。The graph which shows Example 4 and Reference Example 4 (position of the Y-axis direction of a grip). 実施例4及び参考例4を示すグラフ(グリップのZ軸方向の位置)。The graph which shows Example 4 and Reference Example 4 (position of a grip in the Z-axis direction). 本発明の第2実施形態に係る運動解析装置を含む運動解析システムの全体構成を示す図。The figure which shows the whole structure of the motion analysis system containing the motion analysis apparatus which concerns on 2nd Embodiment of this invention. 図18の運動解析システムの機能ブロック図。The functional block diagram of the exercise | movement analysis system of FIG. 第2実施形態に係る運動解析方法の流れを示すフローチャート。The flowchart which shows the flow of the motion analysis method which concerns on 2nd Embodiment. 第2実施形態に係る時刻合わせ処理の流れを示すフローチャート。The flowchart which shows the flow of the time adjustment process which concerns on 2nd Embodiment. ダウンスイング期間の姿勢の補正処理の流れを示すフローチャート。The flowchart which shows the flow of the correction process of the attitude | position in a down swing period. 実施例5を示すグラフ。10 is a graph showing Example 5. 変形例に係る初期時刻の姿勢の導出処理の流れを示すフローチャート。The flowchart which shows the flow of the derivation | leading-out process of the attitude | position of the initial time which concerns on a modification.

以下、図面を参照しつつ、本発明に係る運動解析装置、方法及びプログラムをゴルフスイングの解析に利用した場合の幾つかの実施形態について説明する。   Hereinafter, some embodiments in the case of using a motion analysis device, method, and program according to the present invention for golf swing analysis will be described with reference to the drawings.

<1.第1実施形態>
<1−1.運動解析システムの概要>
図1及び図2に、本発明の第1実施形態に係る運動解析装置1を含む運動解析システム100の全体構成図を示す。運動解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作の解析に適するように構成されている。運動解析装置1は、ゴルフクラブ5に取り付けられた慣性センサユニット4から出力される時系列の角速度データ、加速度データ及び地磁気データ(以下、センサデータということがある)に加えて、スイング動作を撮影した時系列の画像データ(すなわち、動画データ)に基づいて、スイング動作を解析する。以上の撮影は、距離画像センサ2により行われる。運動解析装置1は、慣性センサユニット4及び距離画像センサ2とともに運動解析システム100を構成する。運動解析装置1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
<1. First Embodiment>
<1-1. Outline of Motion Analysis System>
1 and 2 show an overall configuration diagram of a motion analysis system 100 including a motion analysis device 1 according to the first embodiment of the present invention. The motion analysis system 100 is configured to be suitable for analyzing the swing motion of the golf club 5 by the golfer 7. In addition to time-series angular velocity data, acceleration data, and geomagnetic data (hereinafter sometimes referred to as sensor data) output from the inertial sensor unit 4 attached to the golf club 5, the motion analysis apparatus 1 captures a swing motion. The swing motion is analyzed based on the time-series image data (that is, moving image data). The above photographing is performed by the distance image sensor 2. The motion analysis apparatus 1 constitutes a motion analysis system 100 together with the inertial sensor unit 4 and the distance image sensor 2. The result of the analysis by the motion analysis apparatus 1 is used for various purposes such as fitting of the golf club 5 suitable for the golfer 7, improvement of the form of the golfer 7, development of golf equipment, and the like.

本実施形態では、主として、スイング動作中に移動するゴルフクラブ5のグリップ51及びシャフト52の三次元挙動が解析される。より具体的には、スイング動作中のグリップ51の位置(三次元座標)、速度、加速度、角速度及び角加速度とともに、シャフト52の姿勢が導出される。   In the present embodiment, the three-dimensional behavior of the grip 51 and the shaft 52 of the golf club 5 that moves during the swing operation is mainly analyzed. More specifically, the posture of the shaft 52 is derived together with the position (three-dimensional coordinates), speed, acceleration, angular velocity, and angular acceleration of the grip 51 during the swing operation.

<1−2.各部の詳細>
以下、運動解析システム100の各部の詳細について説明する。
<1-2. Details of each part>
Hereinafter, details of each part of the motion analysis system 100 will be described.

<1−2−1.距離画像センサ>
距離画像センサ2は、ゴルファー7がゴルフクラブ5を試打する様子を二次元画像として撮影するとともに、被写体までの距離を測定する測距機能を有するカメラである。従って、距離画像センサ2は、時系列の二次元画像とともに、時系列の深度画像を出力することができる。なお、ここでいう二次元画像とは、撮影空間の像をカメラの光軸に直交する平面内へ投影した画像である。また、深度画像とは、カメラの光軸方向の被写体の奥行きのデータを、二次元画像と略同じ撮像範囲内の画素に割り当てた画像である。
<1-2-1. Distance image sensor>
The distance image sensor 2 is a camera having a ranging function that measures a distance to a subject while shooting a golfer 7 trial hitting the golf club 5 as a two-dimensional image. Therefore, the distance image sensor 2 can output a time-series depth image together with a time-series two-dimensional image. Note that the two-dimensional image here is an image obtained by projecting an image of the photographing space onto a plane orthogonal to the optical axis of the camera. The depth image is an image in which data on the depth of the subject in the optical axis direction of the camera is assigned to pixels within substantially the same imaging range as the two-dimensional image.

本実施形態で使用される距離画像センサ2は、二次元画像を赤外線画像(以下、IR画像という)として撮影する。また、深度画像は、赤外線を用いたタイムオブフライト方式やドットパターン投影方式等の方法により得られる。従って、図1に示すように、距離画像センサ2は、赤外線を前方に向けて発光するIR発光部21と、IR発光部21から照射され、被写体に反射して戻ってきた赤外線を受光するIR受光部22とを有する。IR受光部22は、光学系及び撮像素子等を有するカメラである。ドットパターン投影方式では、IR発光部21から照射された赤外線のドットパターンをIR受光部22で読み取り、距離画像センサ2内部での画像処理によりドットパターンを検出し、これに基づいて奥行きが計算される。本実施形態では、IR発光部21及びIR受光部22は、同じ筐体20内に収容され、筐体20の前方に配置されている。また、本実施形態に係る距離画像センサ2では、奥行きを計測可能な有効距離が定められており、深度画像には、奥行きの値が得られない画素が含まれ得る。   The distance image sensor 2 used in the present embodiment captures a two-dimensional image as an infrared image (hereinafter referred to as an IR image). The depth image is obtained by a method such as a time-of-flight method using infrared rays or a dot pattern projection method. Accordingly, as shown in FIG. 1, the distance image sensor 2 has an IR light emitting unit 21 that emits infrared rays toward the front, and an IR that receives the infrared rays that are emitted from the IR light emitting unit 21 and reflected back to the subject. A light receiving unit 22. The IR light receiving unit 22 is a camera having an optical system, an image sensor, and the like. In the dot pattern projection method, the IR dot pattern emitted from the IR light emitting unit 21 is read by the IR light receiving unit 22, the dot pattern is detected by image processing inside the distance image sensor 2, and the depth is calculated based on this. The In the present embodiment, the IR light emitting unit 21 and the IR light receiving unit 22 are accommodated in the same housing 20 and disposed in front of the housing 20. In the distance image sensor 2 according to the present embodiment, an effective distance capable of measuring the depth is determined, and the depth image may include pixels for which a depth value cannot be obtained.

距離画像センサ2には、距離画像センサ2の動作全体を制御するCPU23の他、撮影された画像データを少なくとも一時的に記憶するメモリ24が内蔵されている。距離画像センサ2の動作を制御する制御プログラムは、メモリ24内に格納されている。また、距離画像センサ2には、通信部25も内蔵されており、当該通信部25は、撮影された画像データを、有線又は無線の通信線17を介して、運動解析装置1等の外部のデバイスへと出力することができる。本実施形態では、CPU23及びメモリ24も、IR発光部21及びIR受光部22とともに、筐体20内に収納されている。なお、運動解析装置1への画像データの受け渡しは、必ずしも通信部25を介して行う必要はない。例えば、メモリ24が着脱式であれば、これを筐体20内から取り外し、運動解析装置1のリーダー(後述する通信部15に対応)に挿入する等して、運動解析装置1で画像データを読み出すことができる。   In addition to the CPU 23 that controls the entire operation of the distance image sensor 2, the distance image sensor 2 includes a memory 24 that stores captured image data at least temporarily. A control program for controlling the operation of the distance image sensor 2 is stored in the memory 24. The distance image sensor 2 also includes a communication unit 25, and the communication unit 25 transmits captured image data to an external device such as the motion analysis apparatus 1 via a wired or wireless communication line 17. Can be output to the device. In the present embodiment, the CPU 23 and the memory 24 are also housed in the housing 20 together with the IR light emitting unit 21 and the IR light receiving unit 22. It is not always necessary to transfer the image data to the motion analysis apparatus 1 via the communication unit 25. For example, if the memory 24 is detachable, it is removed from the housing 20 and inserted into a reader (corresponding to a communication unit 15 described later) of the motion analysis device 1, so that the motion analysis device 1 captures image data. Can be read.

本実施形態では、以上のとおり、距離画像センサ2により赤外線撮影が行われ、撮影されたIR画像に基づいて、グリップ51の軌道が追跡される。従って、この追跡が容易となるように、グリップ51(より正確には、グリップ端51a)には、赤外線を効率的に反射する反射シートがマーカーとして貼付される。また、シャフト52にも、同様の赤外線の反射シートがマーカーとして貼付される。本実施形態では、距離画像センサ2は、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置される。   In the present embodiment, as described above, infrared imaging is performed by the distance image sensor 2, and the trajectory of the grip 51 is tracked based on the captured IR image. Therefore, a reflection sheet that efficiently reflects infrared rays is attached to the grip 51 (more precisely, the grip end 51a) as a marker so as to facilitate this tracking. A similar infrared reflective sheet is also attached to the shaft 52 as a marker. In the present embodiment, the distance image sensor 2 is installed in front of the golfer 7 so as to photograph the golfer 7 from the front side.

<1−2−2.慣性センサユニット>
慣性センサユニット4は、図1及び図3に示すとおり、ゴルフクラブ5のグリップ端51aに取り付けられており、グリップ端51aの挙動を計測する。本実施形態に係る慣性センサユニット4は、着脱自在に構成されており、任意のゴルフクラブ5に取り付けることができる。なお、ゴルフクラブ5は、一般的なゴルフクラブであり、シャフト52と、シャフト52の一端に設けられたヘッド53と、シャフト52の他端に設けられたグリップ51とから構成される。慣性センサユニット4は、スイング動作の妨げとならないよう、小型且つ軽量に構成されている。図2に示すように、本実施形態に係る慣性センサユニット4には、加速度センサ41、角速度センサ42及び地磁気センサ43が搭載されている。また、慣性センサユニット4には、これらのセンサ41〜43から出力されるセンサデータを運動解析装置1等の外部のデバイスに送信するための通信装置40も搭載されている。なお、本実施形態では、通信装置40は、スイング動作の妨げにならないように無線式であるが、ケーブルを介して有線式に運動解析装置1に接続するようにしてもよい。
<1-2-2. Inertial sensor unit>
As shown in FIGS. 1 and 3, the inertial sensor unit 4 is attached to the grip end 51a of the golf club 5, and measures the behavior of the grip end 51a. The inertial sensor unit 4 according to the present embodiment is configured to be detachable and can be attached to an arbitrary golf club 5. The golf club 5 is a general golf club, and includes a shaft 52, a head 53 provided at one end of the shaft 52, and a grip 51 provided at the other end of the shaft 52. The inertial sensor unit 4 is configured to be small and light so as not to hinder the swing operation. As shown in FIG. 2, an acceleration sensor 41, an angular velocity sensor 42, and a geomagnetic sensor 43 are mounted on the inertial sensor unit 4 according to the present embodiment. The inertial sensor unit 4 is also equipped with a communication device 40 for transmitting sensor data output from these sensors 41 to 43 to an external device such as the motion analysis device 1. In the present embodiment, the communication device 40 is wireless so as not to hinder the swing operation, but may be connected to the motion analysis device 1 in a wired manner via a cable.

加速度センサ41、角速度センサ42及び地磁気センサ43はそれぞれ、xyz局所座標系における加速度、角速度及び地磁気を計測する。より具体的には、加速度センサ41は、x軸、y軸及びz軸方向の加速度ax,ay,azを計測する。角速度センサ42は、x軸、y軸及びz軸周りの角速度ωx,ωy,ωzを計測する。地磁気センサ43は、x軸、y軸及びz軸方向の地磁気mx,my,mzを計測する。これらのセンサデータは、所定のサンプリング周期Δtの時系列データとして取得される。なお、xyz局所座標系は、図3に示すとおりに定義される3軸直交座標系である。すなわち、z軸は、シャフト52の延びる方向に一致し、ヘッド53からグリップ51に向かう方向が、z軸正方向である。y軸は、ゴルフクラブ5のアドレス時の飛球方向にできる限り沿うように、すなわち、フェース−バック方向に概ね沿うように配向される。x軸は、y軸及びz軸に直交するように、すなわち、トゥ−ヒール方向に概ね沿うように配向され、ヒール側からトゥ側に向かう方向がx軸正方向である。 The acceleration sensor 41, the angular velocity sensor 42, and the geomagnetic sensor 43 respectively measure acceleration, angular velocity, and geomagnetism in the xyz local coordinate system. More specifically, the acceleration sensor 41 measures accelerations a x , a y , and a z in the x-axis, y-axis, and z-axis directions. The angular velocity sensor 42 measures angular velocities ω x , ω y , and ω z around the x axis, the y axis, and the z axis. Geomagnetic sensor 43 measures the x-axis, y-axis and z-axis direction terrestrial magnetism m x, m y, a m z. These sensor data are acquired as time-series data of a predetermined sampling period Δt. The xyz local coordinate system is a three-axis orthogonal coordinate system defined as shown in FIG. That is, the z axis coincides with the direction in which the shaft 52 extends, and the direction from the head 53 toward the grip 51 is the positive z axis direction. The y-axis is oriented so as to be as much as possible along the flying direction of the golf club 5 at the time of addressing, that is, generally along the face-back direction. The x-axis is oriented so as to be orthogonal to the y-axis and the z-axis, that is, substantially along the toe-heel direction, and the direction from the heel side to the toe side is the x-axis positive direction.

本実施形態では、加速度センサ41、角速度センサ42及び地磁気センサ43からのセンサデータは、通信装置40を介してリアルタイムに運動解析装置1に送信される。しかしながら、例えば、慣性センサユニット4内の記憶装置にセンサデータを格納しておき、スイング動作の終了後に当該記憶装置からセンサデータを取り出して、運動解析装置1に受け渡すようにしてもよい。   In the present embodiment, sensor data from the acceleration sensor 41, the angular velocity sensor 42, and the geomagnetic sensor 43 are transmitted to the motion analysis apparatus 1 in real time via the communication device 40. However, for example, sensor data may be stored in a storage device in the inertial sensor unit 4, and the sensor data may be taken out from the storage device after the swing operation is finished and transferred to the motion analysis device 1.

<1−2−3.運動解析装置>
運動解析装置1は、ハードウェアとしては汎用のパーソナルコンピュータであり、例えば、タブレットコンピュータ、スマートフォン、ノート型コンピュータ、デスクトップ型コンピュータとして実現される。図2に示すとおり、運動解析装置1は、CD−ROM等のコンピュータで読み取り可能な記録媒体30から運動解析プログラム3を汎用のコンピュータにインストールすることにより製造される。運動解析プログラム3は、慣性センサユニット4から送られてくるセンサデータ及び距離画像センサ2から送られてくる画像データに基づいて、ゴルフスイングを解析するためのソフトウェアであり、運動解析装置1に後述する動作を実行させる。
<1-2-3. Motion analysis device>
The motion analysis apparatus 1 is a general-purpose personal computer as hardware, and is realized as, for example, a tablet computer, a smartphone, a notebook computer, or a desktop computer. As shown in FIG. 2, the motion analysis apparatus 1 is manufactured by installing a motion analysis program 3 from a computer-readable recording medium 30 such as a CD-ROM in a general-purpose computer. The motion analysis program 3 is software for analyzing a golf swing based on the sensor data sent from the inertial sensor unit 4 and the image data sent from the distance image sensor 2. Execute the action to be performed.

運動解析装置1は、表示部11、入力部12、記憶部13、制御部14及び通信部15を備える。これらの部11〜15は、互いにバス線16を介して接続されており、相互に通信可能である。表示部11は、液晶ディスプレイ等で構成することができ、ゴルフスイングの解析の結果等をユーザに対し表示する。なお、ここでいうユーザとは、ゴルファー7自身やそのインストラクター、ゴルフ用品の開発者等、ゴルフスイングの解析の結果を必要とする者の総称である。入力部12は、マウス、キーボード、タッチパネル等で構成することができ、運動解析装置1に対するユーザからの操作を受け付ける。   The motion analysis apparatus 1 includes a display unit 11, an input unit 12, a storage unit 13, a control unit 14, and a communication unit 15. These units 11 to 15 are connected to each other via the bus line 16 and can communicate with each other. The display unit 11 can be composed of a liquid crystal display or the like, and displays the result of golf swing analysis or the like to the user. In addition, a user here is a general term for those who require the result of golf swing analysis, such as golfer 7 itself, its instructor, and a developer of golf equipment. The input unit 12 can be configured with a mouse, a keyboard, a touch panel, and the like, and accepts an operation from the user for the motion analysis apparatus 1.

記憶部13は、ハードディスク等で構成することができる。記憶部13内には、運動解析プログラム3が格納されている他、慣性センサユニット4から送られてくるセンサデータが保存される。また、記憶部13内には、距離画像センサ2から送られてくる画像データも保存される。制御部14は、CPU、ROMおよびRAM等から構成することができる。制御部14は、記憶部13内の運動解析プログラム3を読み出して実行することにより、仮想的に第1取得部14a、第2取得部14b、導出部14c及び表示制御部14dとして動作する。各部14a〜14dの動作の詳細については、後述する。通信部15は、慣性センサユニット4や距離画像センサ2等の外部のデバイスから通信線17を介してデータを受信する通信インターフェースとして機能する。   The storage unit 13 can be configured with a hard disk or the like. In the storage unit 13, the motion analysis program 3 is stored, and sensor data sent from the inertial sensor unit 4 is stored. Further, the image data sent from the distance image sensor 2 is also stored in the storage unit 13. The control part 14 can be comprised from CPU, ROM, RAM, etc. The control unit 14 virtually operates as the first acquisition unit 14a, the second acquisition unit 14b, the derivation unit 14c, and the display control unit 14d by reading and executing the motion analysis program 3 in the storage unit 13. Details of the operations of the units 14a to 14d will be described later. The communication unit 15 functions as a communication interface that receives data from an external device such as the inertial sensor unit 4 and the distance image sensor 2 via the communication line 17.

<1−3.運動解析方法>
以下、図5を参照しつつ、ゴルフスイングを対象とする運動解析方法について説明する。この運動解析方法は、第1データ収集処理(S1)、第2データ収集処理(S2)及び運動解析処理(S3〜S9)により実現される。第1データ収集処理は、慣性センサユニット4から出力されるセンサデータを収集する処理であり、第2データ収集処理は、距離画像センサ2から出力される画像データを収集する処理である。運動解析処理は、当該センサデータ及び当該画像データに基づいて、運動解析装置1によりゴルフクラブ5の三次元挙動を解析する処理である。以下、これらの処理について、順に説明する。
<1-3. Motion analysis method>
Hereinafter, a motion analysis method for a golf swing will be described with reference to FIG. This motion analysis method is realized by the first data collection process (S1), the second data collection process (S2), and the motion analysis process (S3 to S9). The first data collection process is a process for collecting sensor data output from the inertial sensor unit 4, and the second data collection process is a process for collecting image data output from the distance image sensor 2. The motion analysis processing is processing for analyzing the three-dimensional behavior of the golf club 5 by the motion analysis device 1 based on the sensor data and the image data. Hereinafter, these processes will be described in order.

<1−3−1.第1データ収集処理>
第1データ収集処理では、ゴルファー7により、上述の慣性センサユニット4付きゴルフクラブ5がスイングされる。このとき、慣性センサユニット4により、ゴルフスイング中の加速度ax,ay,az、角速度ωx,ωy,ωz及び地磁気mx,my,mzのセンサデータが検出される。また、これらのセンサデータは、慣性センサユニット4の通信装置40を介して運動解析装置1に送信される。一方、運動解析装置1側では、第1取得部14aが通信部15を介してこれを受信し、記憶部13内に格納する。本実施形態では、少なくともアドレスの少し前(以下、初期時刻t1という)からフィニッシュまでの時系列のセンサデータが収集される。
<1-3-1. First data collection process>
In the first data collection process, the golf club 5 with the inertial sensor unit 4 is swung by the golfer 7. In this case, the inertial sensor unit 4, the acceleration a x in the golf swing, a y, a z, the angular velocity ω x, ω y, ω z and geomagnetism m x, m y, m z of the sensor data is detected. Further, these sensor data are transmitted to the motion analysis device 1 via the communication device 40 of the inertial sensor unit 4. On the other hand, on the side of the motion analysis device 1, the first acquisition unit 14 a receives this via the communication unit 15 and stores it in the storage unit 13. In the present embodiment, time-series sensor data from at least a little before the address (hereinafter referred to as initial time t 1 ) to the finish is collected.

なお、ゴルフクラブのスイング動作は、一般に、アドレス、トップ、インパクト、フィニッシュの順に進む。アドレスとは、図4(A)に示すとおり、ゴルフクラブ5のヘッド53をボール近くに配置した静止状態を意味し、トップとは、図4(B)に示すとおり、アドレスからゴルフクラブ5をテイクバックし、最もヘッド53が振り上げられた状態を意味する。インパクトとは、図4(C)に示すとおり、トップからゴルフクラブ5が振り下ろされ、ヘッド53がボールと衝突した瞬間の状態を意味し、フィニッシュとは、図4(D)に示すとおり、インパクト後、ゴルフクラブ5を前方へ振り抜いた状態を意味する。   Note that the golf club swing operation generally proceeds in the order of address, top, impact, and finish. The address means a stationary state in which the head 53 of the golf club 5 is arranged near the ball as shown in FIG. 4A, and the top means that the golf club 5 is moved from the address as shown in FIG. 4B. It means a state in which the head 53 is swung up by taking back. As shown in FIG. 4 (C), the impact means a state at the moment when the golf club 5 is swung down from the top and the head 53 collides with the ball, and the finish is as shown in FIG. 4 (D). It means a state in which the golf club 5 is swung forward after impact.

<1−3−2.第2データ収集処理>
第2データ収集処理では、ゴルフクラブ5のスイング動作が距離画像センサ2により撮影される。すなわち、距離画像センサ2により、ゴルフスイングを捉えたIR画像及び深度画像を含む画像データが検出される。第2データ収集処理は、第1データ収集処理と並行して、第1データ収集処理と同じスイング動作を対象として行われる。検出された画像データは、距離画像センサ2の通信部25を介して運動解析装置1に送信される。一方、運動解析装置1側では、第2取得部14bが通信部15を介してこれを受信し、記憶部13内に格納する。本実施形態では、少なくともアドレスの少し前の初期時刻t1からフィニッシュまでの時系列の画像データが収集される。
<1-3-2. Second data collection process>
In the second data collection process, the distance image sensor 2 captures the swing motion of the golf club 5. That is, the distance image sensor 2 detects image data including an IR image and a depth image capturing a golf swing. The second data collection process is performed on the same swing operation as the first data collection process in parallel with the first data collection process. The detected image data is transmitted to the motion analysis apparatus 1 via the communication unit 25 of the distance image sensor 2. On the other hand, on the side of the motion analysis device 1, the second acquisition unit 14 b receives this via the communication unit 15 and stores it in the storage unit 13. In this embodiment, at least time-series image data from the initial time t 1 slightly before the address to the finish is collected.

<1−3−3.運動解析処理>
運動解析処理の大まかな流れは、以下のとおりである。すなわち、まず、第1データ収集処理により取得された時系列のセンサデータと、第2データ収集処理により取得された時系列の画像データとの時刻合わせが行われる(S3)。言い換えると、導出部14cが、センサデータと画像データとを同期させる。
<1-3-3. Motion analysis processing>
The general flow of the motion analysis process is as follows. That is, first, time adjustment is performed on the time-series sensor data acquired by the first data collection process and the time-series image data acquired by the second data collection process (S3). In other words, the derivation unit 14c synchronizes the sensor data and the image data.

続くステップS4では、導出部14cが、初期時刻t1からアドレスまでの期間(以下、アドレス期間という)のシャフト52の姿勢を導出する。このとき、本実施形態では、ラグランジュの未定乗数法を用いた最適化が実行される。なお、多くのゴルファー7は、アドレス期間にゴルフクラブ5を軽く前後にスイングさせるワッグル動作を行う。しかしながら、アドレス以降のスイング動作時に比べると、アドレス期間において、ゴルフクラブ5、特にグリップ51は殆ど運動しない。このため、ステップS4では、静止している移動体及びほぼ静止している移動体の運動の解析に適したアルゴリズムが用いられる。 In step S4, deriving unit 14c is, the period from the initial time t 1 to the address (hereinafter, referred to as an address period) to derive the posture of the shaft 52. At this time, in this embodiment, optimization using Lagrange's undetermined multiplier method is executed. Many golfers 7 perform a waggle operation that swings the golf club 5 back and forth lightly during the address period. However, compared with the swing operation after the address, the golf club 5, especially the grip 51 hardly moves during the address period. For this reason, in step S4, an algorithm suitable for the motion analysis of the stationary moving body and the substantially stationary moving body is used.

続くステップS5では、導出部14cが、アドレスからインパクト付近までのシャフト52の姿勢を導出する。従って、ステップS5では、静止している移動体及びほぼ静止している移動体の運動のみならず、高速で運動する移動体の解析にも適したアルゴリズムが用いられる。本実施形態では、ここでも、ラグランジュの未定乗数法を用いた最適化が実行される。   In subsequent step S5, the deriving unit 14c derives the attitude of the shaft 52 from the address to the vicinity of the impact. Therefore, in step S5, an algorithm suitable for not only the motion of the stationary moving body and the substantially stationary moving body but also the analysis of the moving body moving at high speed is used. In this embodiment, again, optimization using the Lagrange multiplier method is performed.

続くステップS6では、導出部14cが、アドレスからインパクト付近までのグリップ51の位置及び速度を導出する。ここでは、本実施形態では、カルマンフィルタを用いる等したスムージングが実行される。   In subsequent step S6, the deriving unit 14c derives the position and speed of the grip 51 from the address to the vicinity of the impact. Here, in this embodiment, smoothing using a Kalman filter or the like is executed.

続くステップS7では、導出部14cが、アドレスからインパクト付近までのグリップ51の角速度及び角加速度を導出する。ここでは、本実施形態では、疑似微分フィルタを用いたフィルタリングが実行される。   In subsequent step S7, the deriving unit 14c derives the angular velocity and the angular acceleration of the grip 51 from the address to the vicinity of the impact. Here, in this embodiment, filtering using a pseudo differential filter is executed.

続くステップS8では、導出部14cが、アドレスからインパクト付近までのグリップ51の加速度を導出する。本実施形態では、ここでも、疑似微分フィルタを用いたフィルタリングが実行される。   In subsequent step S8, the deriving unit 14c derives the acceleration of the grip 51 from the address to the vicinity of the impact. In the present embodiment, filtering using a pseudo differential filter is also executed here.

続くステップS9では、表示制御部14dが、ステップS4〜S8で導出された三次元挙動を示す情報を表示部11上に表示する。このとき、例えば、数値情報、文字情報として表示することもできるし、グラフやコンピュータグラフィックス等を用いて図式的に表示することもできる。   In subsequent step S9, the display control unit 14d displays information indicating the three-dimensional behavior derived in steps S4 to S8 on the display unit 11. At this time, for example, it can be displayed as numerical information or character information, or can be displayed graphically using a graph, computer graphics, or the like.

<1−3−3−1.時刻合わせ(S3)>
以下、図6を参照しつつ、上記ステップS3における、時系列のセンサデータと時系列の画像データとの時刻合わせ処理について説明する。
<1-3-3-1. Time adjustment (S3)>
Hereinafter, the time adjustment processing of the time-series sensor data and the time-series image data in step S3 will be described with reference to FIG.

まず、ステップS11において、導出部14cは、記憶部13内のセンサデータを参照し、アドレス、トップ及びインパクトの時刻を導出する。これらの時刻の導出方法としては、様々なものが公知であるため、ここでは詳細な説明を省略する。   First, in step S11, the deriving unit 14c refers to the sensor data in the storage unit 13 and derives the address, top, and impact time. Since various methods for deriving these times are known, detailed description is omitted here.

続くステップS12では、導出部14cは、記憶部13内のセンサデータに基づいて、アドレスからインパクト付近までの各時刻における姿勢行列Nを導出する。今、姿勢行列Nを以下の式で表す。姿勢行列Nは、xyz局所座標系の値をXYZ慣性座標系の値に変換するための行列である。
In subsequent step S12, the deriving unit 14c derives the posture matrix N at each time from the address to the vicinity of the impact based on the sensor data in the storage unit 13. Now, the posture matrix N is expressed by the following equation. The posture matrix N is a matrix for converting values in the xyz local coordinate system into values in the XYZ inertial coordinate system.

XYZ慣性座標系は、図1に示すとおりに定義される3軸直交座標系である。すなわち、Z軸は、鉛直下方から上方に向かう方向であり、X軸は、ゴルファー7の背から腹に向かう方向であり、Y軸は、地平面に平行でボールの打球地点から目標地点に向かう方向である。   The XYZ inertial coordinate system is a three-axis orthogonal coordinate system defined as shown in FIG. That is, the Z-axis is a direction from the vertically lower side to the upper side, the X-axis is a direction from the back to the stomach of the golfer 7, and the Y-axis is parallel to the ground plane and goes from the ball hitting point to the target point. Direction.

姿勢行列Nの9つの成分の意味は、以下のとおりである。
成分a:慣性座標系のX軸と、局所座標系のx軸とのなす角度の余弦
成分b:慣性座標系のY軸と、局所座標系のx軸とのなす角度の余弦
成分c:慣性座標系のZ軸と、局所座標系のx軸とのなす角度の余弦
成分d:慣性座標系のX軸と、局所座標系のy軸とのなす角度の余弦
成分e:慣性座標系のY軸と、局所座標系のy軸とのなす角度の余弦
成分f:慣性座標系のZ軸と、局所座標系のy軸とのなす角度の余弦
成分g:慣性座標系のX軸と、局所座標系のz軸とのなす角度の余弦
成分h:慣性座標系のY軸と、局所座標系のz軸とのなす角度の余弦
成分i:慣性座標系のZ軸と、局所座標系のz軸とのなす角度の余弦
ここで、ベクトル(a,b,c)は、x軸方向の単位ベクトルを表し、ベクトル(d,e,f)は、y軸方向の単位ベクトルを表し、ベクトル(g,h,i)は、z軸方向の単位ベクトルを表している。
The meanings of the nine components of the posture matrix N are as follows.
Component a: Cosine of the angle formed by the X axis of the inertial coordinate system and the x axis of the local coordinate system Component b: Cosine of the angle formed by the Y axis of the inertial coordinate system and the x axis of the local coordinate system Component c: Inertia Cosine of angle formed by Z axis of coordinate system and x axis of local coordinate system Component d: Cosine of angle formed by X axis of inertial coordinate system and y axis of local coordinate system Component e: Y of inertial coordinate system Cosine of angle between axis and y-axis of local coordinate system Component f: cosine of angle between Z-axis of inertial coordinate system and y-axis of local coordinate system Component g: X-axis of local coordinate system and local Cosine of angle between z axis of coordinate system Component h: Cosine of angle between Y axis of inertial coordinate system and z axis of local coordinate system Component i: Z axis of inertial coordinate system and z of local coordinate system Here, the vector (a, b, c) represents a unit vector in the x-axis direction, and the vector (d, e, f) represents a single vector in the y-axis direction. Represents a vector, the vector (g, h, i) represents a unit vector in the z-axis direction.

アドレス時においては、ゴルフクラブ5は静止しているため、加速度センサ42は、Z軸方向の重力加速度のみを検出することになる。この事実から、アドレス時のc,f,iは、下式に従って算出することができる。
Since the golf club 5 is stationary at the time of addressing, the acceleration sensor 42 detects only the gravitational acceleration in the Z-axis direction. From this fact, c, f, and i at the time of address can be calculated according to the following equation.

また、残りのa,b,d,e,g,hは、c,f,iを説明変数とし、a,b,d,e,g,hのそれぞれを目的変数とする予め定められた重回帰式より算出することができる。この重回帰式は、多数のa〜iの真値のデータを重回帰分析することにより決定することができる。或いは、姿勢行列は、下式のとおり、オイラー変換行列としても表すことができる。従って、姿勢行列の9つの成分のうち3つの値が分かれば、φ,θ,ψを特定できるため、残りの成分を算出することができる。なお、姿勢行列の算出方法としては様々考えられ、いずれの方法を用いてもよいが、ここで説明した方法は、例えば、特開2013−56074号公報においても開示されている。   The remaining a, b, d, e, g, and h are predetermined weights with c, f, and i as explanatory variables and a, b, d, e, g, and h as objective variables, respectively. It can be calculated from a regression equation. This multiple regression equation can be determined by multiple regression analysis of a large number of true value data of a to i. Alternatively, the attitude matrix can be expressed as an Euler transformation matrix as shown in the following equation. Therefore, if three values of nine components of the posture matrix are known, φ, θ, and ψ can be specified, and the remaining components can be calculated. Various methods can be used for calculating the attitude matrix, and any method may be used. However, the method described here is also disclosed in, for example, Japanese Patent Laid-Open No. 2013-56074.

導出部14cは、アドレス時の姿勢行列Nの導出後、アドレス時の姿勢行列Nを初期値として、姿勢行列Nをサンプリング周期Δt間隔で時々刻々更新してゆく。具体的に説明すると、まず、姿勢行列Nは、オイラーパラメータq=(q0,q1,q2,q3)を用いて、以下の式で表される。
After deriving the posture matrix N at the time of addressing, the deriving unit 14c updates the posture matrix N from time to time at intervals of the sampling period Δt, with the posture matrix N at the time of addressing as an initial value. More specifically, first, the attitude matrix N is expressed by the following equation using Euler parameters q = (q 0 , q 1 , q 2 , q 3 ).

従って、ある時刻でのa〜iが既知の場合、当該時刻でのオイラーパラメータq=(q0,q1,q2,q3)は、以下の式に従って算出することができる。
Therefore, when a to i at a certain time are known, the Euler parameters q = (q 0 , q 1 , q 2 , q 3 ) at the time can be calculated according to the following equation.

今、アドレス時の姿勢行列Nを規定するa〜iの値は既知である。よって、以上の式に従って、まず、アドレス時のオイラーパラメータqが算出される。   Now, the values of a to i that define the attitude matrix N at the time of address are known. Therefore, according to the above formula, first, the Euler parameter q at the time of addressing is calculated.

そして、時刻tから微小時刻経過後のオイラーパラメータqt+1は、時刻tにおけるオイラーパラメータqtを用いて以下の式で表される。
Euler parameter q t + 1 after a lapse of a minute time from time t is expressed by the following equation using Euler parameter q t at time t.

また、オイラーパラメータqの時間変化を表す1階微分方程式は、以下の式で表される。
Further, the first-order differential equation representing the time change of the Euler parameter q is represented by the following equation.

数6,7の式を用いれば、角速度データに基づいて、時刻tのオイラーパラメータqを順次、次の時刻t+Δtのオイラーパラメータqへと更新することができる。ここでは、アドレスからインパクトまでのオイラーパラメータqが算出される。そして、アドレスからインパクトまでのオイラーパラメータqを数4の式に順次代入することにより、アドレスからインパクトまでの姿勢行列Nが算出される。   By using the equations (6) and (7), the Euler parameter q at time t can be sequentially updated to the Euler parameter q at the next time t + Δt based on the angular velocity data. Here, the Euler parameter q from the address to the impact is calculated. The posture matrix N from the address to the impact is calculated by sequentially substituting the Euler parameter q from the address to the impact into the equation (4).

なお、慣性センサユニットから出力されるセンサデータに基づいて、オイラーパラメータqや姿勢行列Nを算出する方法としては、ここで説明した方法に限らず、様々な方法が知られている。例えば、「根田康美,藤橋幸太,尾曲邦之,藤原謙,松永三郎"超小型衛星 Cute-1.7 シリーズにおける姿勢決定制御システムについて"第 16 回スペース・エンジニアリング・コンファレンス,東京,2007 年 1 月 25 日」に開示されている技術を利用することもできる。   Note that, as a method of calculating the Euler parameter q and the attitude matrix N based on the sensor data output from the inertial sensor unit, not only the method described here but also various methods are known. For example, “Yasumi Neda, Kouta Fujihashi, Kuniyuki Omagari, Ken Fujiwara, Saburo Matsunaga“ Attitude Control System for the Small Satellite Cute-1.7 Series ”, 16th Space Engineering Conference, Tokyo, January 25, 2007 It is also possible to use the technology disclosed in.

続くステップS13では、導出部14cは、記憶部13内の画像データに基づいて、アドレスからインパクト付近までの各時刻における時系列のシャフト52の向きθs(図7参照)を導出する。具体的には、本実施形態では、IR画像を画像処理することにより、直線状のシャフト52の像を検出する。そして、このシャフト52の像が延びる方向とZ方向との為す角度を、シャフト52の向きθsとして導出する。 In subsequent step S13, the deriving unit 14c derives the time-series direction θ s of the shaft 52 at each time from the address to the vicinity of the impact (see FIG. 7) based on the image data in the storage unit 13. Specifically, in this embodiment, the image of the linear shaft 52 is detected by performing image processing on the IR image. Then, the angle formed by the direction in which the image of the shaft 52 extends and the Z direction is derived as the direction θ s of the shaft 52.

続くステップS14では、導出部14cは、ステップS12の時系列の姿勢行列Nに基づいて、アドレスからインパクト付近までの各時刻における時系列のシャフト52の向きθsを導出する。具体的には、θsは、以下の式に従って算出することができる。
In step S14, it is deriving unit 14c, based on the posture matrix N of the time series of step S12, to derive the orientation theta s shaft 52 of a time series at each time from the address to the vicinity of the impact. Specifically, θ s can be calculated according to the following equation.

次に、導出部14cは、このセンサデータ由来の時系列のシャフト52の向きθsと、ステップS13の時系列のシャフト52の向きθsとの一致度が最も高くなるように、両時系列データを位置合わせする。例えば、導出部14cは、図8に示すように、両時系列データを時間軸に沿って前後に移動させながら、両時系列データの波形が最も一致する点を決定する。そして、そのときのタイミングを基準として、センサデータの時間軸と、画像データの時間軸とを相対的に時刻合わせさせる。 Next, the derivation unit 14c sets both time series so that the degree of coincidence between the direction θ s of the time series shaft 52 derived from the sensor data and the direction θ s of the time series shaft 52 in step S13 is the highest. Align the data. For example, as shown in FIG. 8, the deriving unit 14c determines the point at which the waveforms of the two time series data most closely match while moving the two time series data back and forth along the time axis. Then, based on the timing at that time, the time axis of the sensor data and the time axis of the image data are relatively time aligned.

なお、本実施形態では、二次元のシャフト52の向きθsに基づいて時刻合わせが行われたが、三次元のシャフト52の向きθsに基づいて時刻合わせを行うこともできる。すなわち、姿勢行列Nからは、三次元的なシャフト52の向き(g,h,i)を導出することが可能であるし、深度画像を用いれば、画像データからも三次元的なシャフト52の向きを導出することが可能である。従って、センサデータ及び画像データのそれぞれを由来とする三次元的なシャフト52の向きの時系列データを導出し、これらの時系列データの波形が三次元的に最も一致するタイミングを決定すればよい。 In the present embodiment, the time is adjusted based on the orientation θ s of the two-dimensional shaft 52, but the time can also be adjusted based on the orientation θ s of the three-dimensional shaft 52. That is, it is possible to derive the orientation (g, h, i) of the three-dimensional shaft 52 from the posture matrix N, and if the depth image is used, the three-dimensional shaft 52 can be derived from the image data. It is possible to derive the orientation. Therefore, it is only necessary to derive the time-series data of the direction of the three-dimensional shaft 52 derived from the sensor data and the image data, and determine the timing at which the waveforms of these time-series data most closely match in three dimensions. .

<1−3−3−2.アドレス期間の姿勢の導出(S4)>
以下、図9を参照しつつ、アドレス期間の姿勢の導出処理の流れを説明する。ここで、オイラーパラメータqは、上記のとおり、姿勢行列Nとの間で相互に変換可能である。また、上記のとおり、姿勢行列Nに含まれる行ベクトルは、慣性座標系内での局所座標系の三軸の向きを表している。従って、オイラーパラメータq及び姿勢行列Nの少なくとも一方が分かれば、慣性座標系内での局所座標系の三軸の向き、つまりはz軸に平行なシャフト52の向き(g,h,i)が分かる。そのため、以下では、シャフト52の姿勢として、オイラーパラメータq及び姿勢行列Nが導出される。
<1-3-3-2. Derivation of attitude during address period (S4)>
The flow of the address period attitude derivation process will be described below with reference to FIG. Here, the Euler parameter q can be mutually converted with the attitude matrix N as described above. Further, as described above, the row vector included in the posture matrix N represents the directions of the three axes of the local coordinate system in the inertial coordinate system. Therefore, if at least one of the Euler parameter q and the attitude matrix N is known, the direction of the three axes of the local coordinate system in the inertial coordinate system, that is, the direction (g, h, i) of the shaft 52 parallel to the z axis can be determined. I understand. Therefore, in the following, the Euler parameter q and the attitude matrix N are derived as the attitude of the shaft 52.

まず、ステップS21では、導出部14cは、アドレス期間に含まれる各時刻の姿勢q,Nを導出する。なお、以下のステップS26では、ラグランジュの未定乗数法により、姿勢qが最適化される。この意味で、ステップS21で導出される姿勢q,Nは、仮の姿勢と言える。   First, in step S21, the deriving unit 14c derives postures q and N at each time included in the address period. In the following step S26, the posture q is optimized by Lagrange's undetermined multiplier method. In this sense, the postures q and N derived in step S21 can be said to be temporary postures.

具体的には、導出部14cは、アドレス期間に含まれる最初の時刻である初期時刻t1のオイラーパラメータqを算出する。具体的には、導出部14cは、初期時刻t1のIR画像及び深度画像からシャフト52の向きを三次元的に導出する。すなわち、画像処理によりIR画像からシャフト52の像を検出し、当該像に含まれる各点のY座標及びZ座標を導出する。そして、深度画像からこれらの点における深度情報を抽出し、X座標に変換する。その後、これらの三次元座標から三次元のシャフト52の向き(g,h,i)が導出される。また、導出部14cは、初期時刻t1の加速度ax,ay,azはほぼ重力のみを表しているという事実に基づいて、初期時刻t1の加速度データ(ax,ay,az)から三次元の重力の向きを導出する。そして、導出部14cは、シャフト52の向き(g,h,i)と、重力の向きの外積を導出し、これをy軸の方向(d,e,f)とする。さらに、三次元のシャフト52の向き(g,h,i)と、y軸の方向(d,e,f)との外積を導出し、これをx軸の方向(a,b,c)とする。これにより、初期時刻t1の姿勢行列Nが導出される。また、導出部14cは、数5の式に従って、初期時刻t1の姿勢行列Nを初期時刻t1のオイラーパラメータqに変換する。 Specifically, deriving unit 14c calculates the Euler parameter q of the initial time t 1 is the first time included in the address period. Specifically, deriving unit 14c derives the orientation of the shaft 52 in three dimensions from the IR image and depth image of the initial time t 1. That is, the image of the shaft 52 is detected from the IR image by image processing, and the Y coordinate and Z coordinate of each point included in the image are derived. Then, the depth information at these points is extracted from the depth image and converted to the X coordinate. Thereafter, the direction (g, h, i) of the three-dimensional shaft 52 is derived from these three-dimensional coordinates. Further, deriving unit 14c, the acceleration a x of the initial time t 1, a y, based on the fact that a z represents almost gravitational only acceleration data of the initial time t 1 (a x, a y , a The direction of three-dimensional gravity is derived from z ). Then, the deriving unit 14c derives the outer product of the direction (g, h, i) of the shaft 52 and the direction of gravity, and sets this as the y-axis direction (d, e, f). Further, an outer product of the direction (g, h, i) of the three-dimensional shaft 52 and the direction (d, e, f) of the y axis is derived, and this is expressed as the direction (a, b, c) of the x axis. To do. Thereby, the posture matrix N at the initial time t 1 is derived. In addition, the derivation unit 14c converts the attitude matrix N at the initial time t 1 into the Euler parameter q at the initial time t 1 according to the equation (5).

また、ステップS21では、導出部14cは、初期時刻t1の姿勢行列Nを初期値として、姿勢行列Nをサンプリング周期Δt間隔で時々刻々更新してゆく。具体的な方法は、上述のステップS12と同様であるため、ここでは詳細な説明を省略する。 In step S21, the derivation unit 14c updates the posture matrix N from time to time at the sampling period Δt with the posture matrix N at the initial time t 1 as an initial value. Since the specific method is the same as that in step S12 described above, detailed description thereof is omitted here.

続くステップS22では、導出部14cは、初期時刻t1の局所座標系での地磁気mB=(mB x,mB y,mB z)=(mx,my,mz)を、慣性座標系での地磁気mI=(mI x,mI y,mI z)に変換する。なお、mI,mBに限らず、右肩にBを付けたときは、局所座標系のベクトルであることを表し、右肩にIを付けた場合には、慣性座標系のベクトルであることを表す。mIは、時刻によらず一定とすることができ、オイラーパラメータqを用いて、初期時刻t1のmBから下式に従って算出することができる。なお、以下のqには、ステップS21で導出された初期時刻t1のオイラーパラメータqを代入する。
ただし、
である。
In subsequent step S22, the derivation unit 14c calculates the geomagnetism m B = (m B x , m B y , m B z ) = (m x , m y , m z ) in the local coordinate system at the initial time t 1 , It is converted into geomagnetism m I = (m I x , m I y , m I z ) in the inertial coordinate system. In addition, not only m I and m B , when B is added to the right shoulder, it indicates a vector of the local coordinate system, and when I is added to the right shoulder, it is a vector of the inertial coordinate system. Represents that. m I can be constant regardless of the time, and can be calculated according to the following equation from m B at the initial time t 1 using the Euler parameter q. Note that the Euler parameter q at the initial time t 1 derived in step S21 is substituted for q below.
However,
It is.

地磁気mIは、別の方法によっても導出可能である。例えば、磁気センサ43とは異なる磁気センサを、慣性座標系の原点において、当該磁気センサの三軸を慣性座標系の三軸に一致させた状態で配置する。この場合、当該磁気センサの出力値は、慣性座標系での地磁気mIを表すことになる。 The geomagnetism m I can be derived by another method. For example, a magnetic sensor different from the magnetic sensor 43 is arranged in a state where the three axes of the magnetic sensor coincide with the three axes of the inertial coordinate system at the origin of the inertial coordinate system. In this case, the output value of the magnetic sensor represents the geomagnetism m I in the inertial coordinate system.

続くステップS23では、導出部14cは、アドレス期間に含まれる任意の時刻ti,tjの組み合わせに対し、時刻tiでの姿勢qiと、時刻tjにおける姿勢qjとの差である、qBjBiを導出する。このとき、tj,tiの先後は問わない。姿勢の差qBjBiは、下式に従って算出することができる。なお、下式に代入されるオイラーパラメータqi,qjは、ステップS21で算出されたオイラーパラメータqである。
In step S23, deriving unit 14c, to any combination of time t i, t j included in the address period is the difference between the posture q i at time t i, the attitude q j at time t j , Q BjBi is derived. At this time, the order of t j and t i does not matter. The attitude difference q BjBi can be calculated according to the following equation. The Euler parameters q i and q j that are substituted into the following expression are the Euler parameters q calculated in step S21.

姿勢の差qBjBiは、別の方法によっても導出可能である。例えば、数11の式に代入すべきアドレス期間に含まれる各時刻のオイラーパラメータqを、ステップS21で算出したものではなく、以下の方法で算出することができる。すなわち、上記ステップS21では、初期時刻t1より後の各時刻のオイラーパラメータqは、角速度データを用いて初期時刻t1のオイラーパラメータqを順次更新してゆくステップS12と同様の方法により算出された。しかしながら、初期時刻t1より後の各時刻の姿勢行列Nについても、初期時刻t1の場合と同様に、画像データ及び加速度データを用いて外積を計算する方法により算出してもよい。 The attitude difference q BjBi can be derived by another method. For example, the Euler parameter q at each time included in the address period to be substituted into Equation 11 is not calculated in step S21 but can be calculated by the following method. That is, in step S21, Euler parameters q each time after the initial time t 1 is calculated in the same manner as step S12 that slide into sequentially updated Euler parameter q of the initial time t 1 by using the angular velocity data It was. However, for the initial time t 1 each time the orientation matrix N later than, as is the case of the initial time t 1, the image data and the acceleration data may be calculated by a method of calculating the outer product by using.

あるいは、アドレス期間における姿勢の差qBjBiは、単位クォータニオン(1,0,0,0)と近似することができる。これは、アドレス期間においては、グリップ51が静止しているか又は殆ど動いておらず、姿勢の差が殆どないためである。 Alternatively, the attitude difference q BjBi in the address period can be approximated as a unit quaternion (1, 0, 0 , 0). This is because the grip 51 is stationary or hardly moving during the address period, and there is almost no difference in posture.

続くステップS24では、導出部14cは、アドレス期間に含まれる任意の時刻ti,tjの組み合わせに対し、以下に定義される行列Akjを導出する。Akjは、後のステップS26の最適化処理の中で、目的関数に代入される。
In subsequent step S24, the deriving unit 14c derives a matrix A kj defined below for a combination of arbitrary times t i and t j included in the address period. A kj is substituted into the objective function in the optimization process in the subsequent step S26.

以下、Akj及び上式中の右辺の各記号ついて説明する。まず、時刻ti,tjにおける慣性座標系での三次元のシャフト52の向きを表すベクトルをそれぞれbI i、bI jとし、時刻ti,tjにおける局所座標系での三次元のシャフト52の向きを表すベクトルをそれぞれbB i,bB jとする。なお、bB i,bB jは、時刻によらず一定値[0 0 −1]Tとすることができ(上付きTは転置を表す)、従って、bB i,bB jはいずれも、単にbBと表記することができる。このとき、下式が成り立つ。
Hereinafter, A kj and each symbol on the right side in the above formula will be described. First, vectors representing the directions of the three-dimensional shaft 52 in the inertial coordinate system at times t i and t j are b I i and b I j , respectively, and the three-dimensional vectors in the local coordinate system at times t i and t j are used. It is assumed that vectors representing the direction of the shaft 52 are b B i and b B j respectively. Incidentally, b B i, b B j is a constant value regardless of the time [0 0 -1] can be a T (the superscript T denotes the transpose), therefore, b B i, b B j are all Can be simply expressed as b B. At this time, the following equation holds.

また、数11より、下式が導かれる。
Further, the following equation is derived from Equation 11.

ここで、数13,14の式を変形すると、以式が成り立つ。
ただし、
である。数15の式を変形すると、下式のようになる。
Here, when the equations of Equations 13 and 14 are modified, the following equation is established.
However,
It is. When the formula of Formula 15 is transformed, the following formula is obtained.

数17の式からは、qiに関して線形の関係が成り立っていることが分かる。この式を整理すると、以下の関係式が導かれる。
From the equation (17), it can be seen that a linear relationship is established with respect to q i . Rearranging this formula leads to the following relational formula:

数18の関係式は、画像データやセンサデータに誤差がなければ、常に成り立つ恒等式である。数18の関係式は、ステップS26の最適化に用いられる目的関数を定義するのに用いられる。   The relational expression of Equation 18 is an identity that always holds if there is no error in the image data and sensor data. The relational expression of Expression 18 is used to define the objective function used for the optimization in step S26.

ここで、数12の式に戻ると、bI jx,bI jy,bI jzは、時刻tjにおける慣性座標系での三次元のシャフト52の向きを表すbI jのX,Y,Z軸成分を意味する。また、bjix,bjiy,bjizは、数16により定義されるbjiのX,Y,Z軸成分を意味する。なお、記号のハットは、正規化されていることを意味する。 Here, returning to the equation (12), b I jx , b I jy , b I jz are X, Y, b I j representing the orientation of the three-dimensional shaft 52 in the inertial coordinate system at time t j . Means the Z-axis component. Further, b jix , b jiy , and b jiz mean X, Y, and Z axis components of b ji defined by equation (16). Note that the hat of the symbol means that it is normalized.

ステップS24では、導出部14cは、アドレス期間のIR画像及び深度画像に基づいて、アドレス期間の各時刻における三次元のシャフト52の向きbI jを導出する。そして、Akjを導出すべく、その三軸成分であるbI jx,bI jy,bI jzの値を、数12の式に代入する。また、シャフト52の向きを表すbB=(bjx,bjy,bjz)=[0 0 −1]Tと、ステップS23のqBjBiを数16の式に代入することにより、bjiを導出し、さらにこれを数12に代入する。 In step S24, the deriving unit 14c derives the orientation b I j of the three-dimensional shaft 52 at each time in the address period based on the IR image and the depth image in the address period. Then, in order to derive A kj , the values of b I jx , b I jy , and b I jz that are the triaxial components are substituted into the equation (12). Further, b B = representing the orientation of the shaft 52 (b jx, b jy, b jz) = a [0 0 -1] T, by substituting q BjBi in step S23 in the numerical formula 16, a b ji Then, this is substituted into the equation (12).

続くステップS25では、導出部14cは、アドレス期間に含まれる任意の時刻ti,tjの組み合わせに対し、以下に定義される行列Amjを導出する。Amjは、Akjと同様に、後のステップS26の最適化処理の中で目的関数に代入される。
In subsequent step S25, the deriving unit 14c derives a matrix A mj defined below for any combination of times t i and t j included in the address period. Similarly to A kj , A mj is substituted into the objective function in the optimization process in the subsequent step S26.

ステップS24の中で説明した場合と同様に、下式が導かれる。この関係式は、ステップS26の最適化に用いられる目的関数を定義するのに用いられる。
Similar to the case described in step S24, the following equation is derived. This relational expression is used to define the objective function used for the optimization in step S26.

ここで、数19の式に戻ると、mI jx,mI jy,mI jzは、時刻tjにおける慣性座標系での地磁気を表すmI jのX,Y,Z軸成分を意味する。また、mjix,mjiy,mjizは、下式により定義されるmjiのX,Y,Z軸成分を意味する。
Here, returning to Equation 19, m I jx , m I jy , and m I jz mean X, Y, and Z axis components of m I j representing the geomagnetism in the inertial coordinate system at time t j . . M jix , m jiy , and m jiz mean X, Y, and Z axis components of m ji defined by the following equations.

ステップS25では、導出部14cは、数19の右辺において、mI jとしてステップS22で導出された地磁気のデータを代入する。また、時刻tjにおける地磁気のセンサデータであるmB j=(mjx,mjy,mjz)と、ステップS23のqBjBiを数21の式に代入することにより、mjiを導出し、さらにこれを数19の右辺に代入する。 In step S25, the deriving unit 14c substitutes the geomagnetic data derived in step S22 as m I j on the right side of Equation 19. Further, m ji is derived by substituting m B j = (m jx , m jy , m jz ), which is the geomagnetic sensor data at time t j , and q BjBi in step S23 into the equation (21), Furthermore, this is substituted into the right side of Equation 19.

続くステップS26では、ラグランジュの未定乗数法により、アドレス期間の各時刻tiにおける姿勢qiが最適化される。具体的には、各時刻tiにおいて以下の目的関数J1を定義する。
ただし、
である。
In the subsequent step S26, the posture q i at each time t i in the address period is optimized by the Lagrange multiplier method. Specifically, the following objective function J 1 is defined at each time t i .
However,
It is.

ここで、数18,20から明らかなとおり、Fk,Fmは、画像データやセンサデータに誤差がなければ0になるべき関数である。また、(1−qi Ti)は、拘束条件である。そこで、導出部14cは、ステップS24,S25で計算したAkj,Amjを用いて、目的関数J1を最小化するようなオイラーパラメータqiの最適解を導出する。また、導出部14cは、各時刻tiにおける最適化後のオイラーパラメータqiを数4の式に従って、姿勢行列Nに変換する。 Here, as is clear from Equations 18 and 20, F k and F m are functions that should be zero if there is no error in the image data or sensor data. Further, (1-q i T q i ) is a constraint condition. Accordingly, the deriving unit 14c derives an optimal solution of the Euler parameter q i that minimizes the objective function J 1 using A kj and Amj calculated in steps S24 and S25. In addition, the deriving unit 14c converts the Euler parameters q i after optimization at each time t i into an attitude matrix N according to the equation (4).

なお、wk,wmは、画像データ、地磁気データのいずれをどれだけ信頼するかに応じて、設定される重み係数である。 Note that w k and w m are weighting factors set in accordance with how much image data or geomagnetic data is to be trusted.

また、本実施形態では、目的関数J1の最小化は、以下のとおり行われる。すなわち、目的関数J1を最小化するためには、その微分値(偏微分値)がゼロになること、言い換えると、下式が成立することが必要条件となる。ただし、I4は、4×4の単位行列である。
In the present embodiment, the objective function J 1 is minimized as follows. That is, in order to minimize the objective function J 1 , it is a necessary condition that its differential value (partial differential value) becomes zero, in other words, the following equation holds. Here, I 4 is a 4 × 4 unit matrix.

上式は、下式の行列の固有値がλとなり、qiが固有ベクトルになることを表している。
The above equation represents that the eigenvalue of the matrix of the following equation is λ, and q i is an eigenvector.

従って、導出部14cは、ステップS24,S25の結果から、数25の行列を計算し、当該行列の最小の固有値に対応する大きさ1の固有ベクトルを導出して、これをqiとする。 Accordingly, the deriving unit 14c calculates a matrix of Formula 25 from the results of steps S24 and S25, derives an eigenvector of magnitude 1 corresponding to the minimum eigenvalue of the matrix, and sets this as q i .

<1−3−3−3.アドレスからインパクト付近までの姿勢の導出(S5)>
以下、図10を参照しつつ、アドレスからインパクト付近までの姿勢の導出処理の流れを説明する。本処理では、アドレス期間における姿勢の導出処理と類似のアルゴリズムが用いられる。両処理の主な相違点は、最適化のための目的関数J2に、上記関数Fk,Fmに加え、画像データ由来の二次元のシャフト52の向きに基づく関数Fnが含まれる点にある。以下、詳細に説明する。
<1-3-3-3. Derivation of posture from address to near impact (S5)>
Hereinafter, the flow of the posture deriving process from the address to the vicinity of the impact will be described with reference to FIG. In this process, an algorithm similar to the attitude derivation process in the address period is used. The main difference between the two processes is that the objective function J 2 for optimization includes a function F n based on the orientation of the two-dimensional shaft 52 derived from image data in addition to the functions F k and F m. It is in. Details will be described below.

ステップS31では、導出部14cは、アドレスからインパクト付近までの各時刻の仮の姿勢q,Nを導出する。具体的には、導出部14cは、角速度ωx,ωy,ωzのデータを用いて、数6,7の式に従って、最適化後のアドレス時のオイラーパラメータqを初期値としてオイラーパラメータqをサンプリング周期Δt間隔で時々刻々更新してゆく。その後、数5の式に従って、各時刻の姿勢qを、姿勢行列Nに換算する。 In step S31, the deriving unit 14c derives temporary postures q and N at each time from the address to the vicinity of the impact. Specifically, the derivation unit 14c uses the data of the angular velocities ω x , ω y , and ω z and uses the Euler parameter q at the time of optimization as an initial value according to the equations 6 and 7, to determine the Euler parameter q Is updated at intervals of the sampling period Δt. Thereafter, the posture q at each time is converted into a posture matrix N in accordance with the equation (5).

続くステップS32では、導出部14cは、アドレス時の局所座標系での地磁気mB=(mB x,mB y,mB z)=(mx,my,mz)を、慣性座標系での地磁気mI=(mI x,mI y,mI z)に変換する。具体的な変換方法は、ステップS22と同様である。ただし、ここで変換に用いられるオイラーパラメータqは、ステップS31で算出されたオイラーパラメータqである。 In the subsequent step S32, the deriving unit 14c calculates the geomagnetism m B = (m B x , m B y , m B z ) = (m x , m y , m z ) in the local coordinate system at the time of the inertial coordinates. The geomagnetism in the system is converted to m I = (m I x , m I y , m I z ). A specific conversion method is the same as that in step S22. However, the Euler parameter q used for the conversion here is the Euler parameter q calculated in step S31.

続くステップS33では、導出部14cは、アドレスからインパクト付近までの期間に含まれる任意の時刻ti,tjの組み合わせに対し、時刻tiでの姿勢qiと、時刻tjにおける姿勢qjとの差である、qBjBiを導出する。このとき、tj,tiの先後は問わない。姿勢の差qBjBiは、数11の式に従って算出することができる。なお、ここで数11の式に代入されるオイラーパラメータqi,qjは、ステップS31で算出されたオイラーパラメータqである。 In step S33, deriving unit 14c, an arbitrary time t i that is included in the period from the address to the vicinity of the impact, to the combination of t j, and the posture q i at time t i, the time t posture in j q j Q BjBi , which is a difference from the above, is derived. At this time, the order of t j and t i does not matter. The attitude difference q BjBi can be calculated according to the equation (11). Note that the Euler parameters q i and q j that are substituted into the equation (11) are the Euler parameters q calculated in step S31.

続くステップS34では、導出部14cは、アドレスからインパクト付近までの期間に含まれる任意の時刻ti,tjの組み合わせに対し、数12のとおり定義される行列Akjを導出する。Akjは、後のステップS37の最適化処理の中で、目的関数に代入される。 In subsequent step S34, the deriving unit 14c derives a matrix A kj defined as shown in Expression 12 for a combination of arbitrary times t i and t j included in the period from the address to the vicinity of the impact. A kj is substituted into the objective function in the optimization process in the subsequent step S37.

ステップS34では、導出部14cは、アドレスからインパクト付近までの期間のIR画像及び深度画像に基づいて、当該期間の各時刻における三次元のシャフト52の向きbI jを導出する。そして、Akjを導出すべく、その三軸成分であるbI jx,bI jy,bI jzの値を、数12の式に代入する。また、シャフト52の向きを表すbB=(bjx,bjy,bjz)=[0 0 −1]Tと、ステップS33のqBjBiを数16の式に代入することにより、bjiを導出し、さらにこれを数12に代入する。 In step S34, the deriving unit 14c derives the orientation b I j of the three-dimensional shaft 52 at each time in the period based on the IR image and the depth image in the period from the address to the vicinity of the impact. Then, in order to derive A kj , the values of b I jx , b I jy , and b I jz that are the triaxial components are substituted into the equation (12). Further, b B = representing the orientation of the shaft 52 (b jx, b jy, b jz) = a [0 0 -1] T, by substituting q BjBi in step S33 in the numerical formula 16, a b ji Then, this is substituted into the equation (12).

続くステップS35では、導出部14cは、アドレスからインパクト付近までの期間に含まれる任意の時刻ti,tjの組み合わせに対し、数19のとおり定義される行列Amjを導出する。Amjは、後のステップS37の最適化処理の中で、目的関数に代入される。 In subsequent step S35, the deriving unit 14c derives a matrix Amj defined as shown in Equation 19 for a combination of arbitrary times t i and t j included in the period from the address to the vicinity of the impact. A mj is substituted into the objective function in the optimization process in the subsequent step S37.

ステップS35では、導出部14cは、数19の右辺において、mI jとしてステップS32で導出された地磁気のデータを代入する。また、時刻tjにおける地磁気のセンサデータであるmB j=(mjx,mjy,mjz)と、ステップS33のqBjBiを数21の式に代入することにより、mjiを導出し、さらにこれを数19の右辺に代入する。 In step S35, the deriving unit 14c substitutes the geomagnetic data derived in step S32 as m I j on the right side of Equation 19. Further, m ji is derived by substituting m B j = (m jx , m jy , m jz ), which is the geomagnetic sensor data at time t j , and q BjBi in step S33 into the equation (21), Furthermore, this is substituted into the right side of Equation 19.

続くステップS36では、導出部14cは、アドレスからインパクト付近までの期間に含まれる任意の時刻ti,tjの組み合わせに対し、以下に定義される行列Anjを導出する。Anjは、後のステップS37の最適化処理の中で、目的関数に代入される。
In subsequent step S36, the deriving unit 14c derives a matrix A nj defined below for any combination of times t i and t j included in the period from the address to the vicinity of the impact. A nj is substituted into the objective function in the optimization process in the subsequent step S37.

以下、Anj及び上式中の右辺の各記号ついて説明する。まず、ここでは、YZ平面内における二次元のシャフト52の向きを考える。ここで、XYZ座標系における三次元座標をYZ平面に射影するための射影行列をPYZとする。このとき、時刻tiにおけるYZ平面内における二次元のシャフトの向きbSiは、PYZI iと表される。bSiは、オイラーパラメータqiを用いて、以下のとおり表すことができる。ただし、u=[1 0 0]Tである。
Hereinafter, A nj and each symbol on the right side of the above formula will be described. First, the direction of the two-dimensional shaft 52 in the YZ plane is considered here. Here, a projection matrix for projecting three-dimensional coordinates in the XYZ coordinate system onto the YZ plane is P YZ . At this time, the direction b Si two-dimensional shaft in the YZ plane at time t i is expressed as P YZ b I i. b Si can be expressed as follows using the Euler parameters q i . However, u = [1 0 0] T.

数27を変形すると、以下のとおりとなる。
さらに、数14の式から、数28を変形する。
When Equation 27 is transformed, the following is obtained.
Further, Equation 28 is transformed from Equation 14 below.

さらに、数29の両辺の右からqBjBiを掛ける。
さらに、数13,16から、以下のように変形される。
Furthermore, q BjBi is multiplied from the right of both sides of Equation 29.
Furthermore, from the formulas 13 and 16, it is modified as follows.

数31の式からは、qiに関して線形の関係が成り立っていることが分かる。この式を整理すると、以下の関係式が導かれる。
From the equation of Equation 31, it can be seen that a linear relationship is established with respect to q i . Rearranging this formula leads to the following relational formula:

数32の関係式は、画像データやセンサデータに誤差がなければ、常に成り立つ恒等式である。数32の関係式は、ステップS37の最適化に用いられる目的関数を定義するのに用いられる。   The relational expression of Equation 32 is an identity that always holds if there is no error in the image data and sensor data. The relational expression of Expression 32 is used to define an objective function used for the optimization in step S37.

ここで、数26の式に戻ると、bSjx,bSjy,bSjzは、時刻tjにおけるYZ平面内における二次元のシャフトの向きを表すbSjのX,Y,Z軸成分を意味する。従って、X成分であるbSjx=0である。 Here, returning to Equation 26, b Sjx , b Sjy , and b Sjz mean X, Y, and Z axis components of b Sj representing the orientation of the two-dimensional shaft in the YZ plane at time t j . . Accordingly, b Sjx = 0 as the X component.

ステップS36では、導出部14cは、Anjを導出すべく、bB=[0 0 −1]Tを数13を用いて慣性座標系の値(bI jx,bI jy,bI jz)に変換し、これを数26の式に代入する。また、シャフト52の向きを表すbB=(bjx,bjy,bjz)=[0 0 −1]Tと、ステップS33のqBjBiを数16の式に代入することにより、bjiを導出し、さらにこれを数26に代入する。さらに、導出部14cは、IR画像から導出されるbSjを、数26の式に代入する。 In step S36, the derivation unit 14c derives values of the inertial coordinate system (b I jx , b I jy , b I jz ) by using b B = [0 0 −1] T and Expression 13 in order to derive A nj. And this is substituted into the equation (26). Further, b B = representing the orientation of the shaft 52 (b jx, b jy, b jz) = a [0 0 -1] T, by substituting q BjBi in step S33 in the numerical formula 16, a b ji Then, this is substituted into the equation (26). Further, the deriving unit 14c substitutes b Sj derived from the IR image into the equation (26).

続くステップS37では、ラグランジュの未定乗数法により、アドレスからインパクト付近までの各時刻tiにおける姿勢qiが最適化される。具体的には、各時刻tiにおいて以下の目的関数J2を定義する。
ただし、
である。
In the subsequent step S37, the posture q i at each time t i from the address to the vicinity of the impact is optimized by Lagrange's undetermined multiplier method. Specifically, the following objective function J 2 is defined at each time t i .
However,
It is.

ここで、数32から明らかなとおり、Fnは、Fk,Fmと同じく、画像データやセンサデータに誤差がなければ0になるべき関数である。また、(1−qi Ti)は、拘束条件である。そこで、導出部14cは、ステップS34〜S36で計算したAkj,Amj,Anjを用いて、目的関数J2を最小化するようなオイラーパラメータqiの最適解を導出する。また、導出部14cは、各時刻tiにおける最適化後のオイラーパラメータqiを数4の式に従って、姿勢行列Nに変換する。 Here, as is clear from Equation 32, F n is a function that should be zero if there is no error in the image data or sensor data, as in F k and F m . Further, (1-q i T q i ) is a constraint condition. Therefore, the derivation unit 14c derives an optimal solution of the Euler parameter q i that minimizes the objective function J 2 by using A kj , A mj , A nj calculated in steps S34 to S36. In addition, the deriving unit 14c converts the Euler parameters q i after optimization at each time t i into an attitude matrix N according to the equation (4).

なお、wk,wm,wnは、深度画像のデータ、地磁気データ、IR画像のデータのいずれをどれだけ信頼するかに応じて、設定される重み係数である。 Incidentally, w k, w m, w n , the data of the depth image, geomagnetic data in response to either how much trust the data of the IR image, a weighting coefficient set.

また、本実施形態では、目的関数J2の最小化は、以下のとおり行われる。すなわち、目的関数J2を最小化するためには、その微分値(偏微分値)がゼロになること、言い換えると、下式が成立することが必要条件となる。
In the present embodiment, the objective function J 2 is minimized as follows. That is, in order to minimize the objective function J 2 is, that the differential value (the partial differential value) becomes zero, in other words, a necessary condition that the following expression is established.

上式は、下式の行列の固有値がλとなり、qiが固有ベクトルになることを表している。
The above equation represents that the eigenvalue of the matrix of the following equation is λ, and q i is an eigenvector.

従って、導出部14cは、ステップS33〜S36の結果から、数36の行列を計算し、当該行列の最小の固有値に対応する大きさ1の固有ベクトルを導出して、これをqiとする。 Accordingly, the deriving unit 14c calculates the matrix of Expression 36 from the results of steps S33 to S36, derives an eigenvector of size 1 corresponding to the minimum eigenvalue of the matrix, and sets this as q i .

<1−3−3−4.グリップの位置及び速度の導出(S6)>
以下、図11を参照しつつ、アドレスからインパクト付近までのグリップ51の位置及び速度の導出処理の流れを説明する。
<1-3-3-4. Derivation of grip position and speed (S6)>
Hereinafter, the flow of the process of deriving the position and speed of the grip 51 from the address to the vicinity of the impact will be described with reference to FIG.

グリップ51の位置は、画像データにより計測される。しかしながら、距離画像センサ2のサンプリング周期が粗い場合や、グリップ51が画像上に写らない場合等には、位置の測定が困難になることがある。そこで、ここでは、カルマンフィルタを用いる等して、画像データ由来のグリップ51の位置が加速度データによりスムージングされる。   The position of the grip 51 is measured by image data. However, when the sampling cycle of the distance image sensor 2 is rough, or when the grip 51 is not captured on the image, it may be difficult to measure the position. Therefore, here, the position of the grip 51 derived from the image data is smoothed by the acceleration data by using a Kalman filter or the like.

まず、ステップS41では、導出部14cは、下式に従って、アドレスからインパクト付近までの各時刻tiにおける局所座標系の加速度aB i=(ax,ay,az)を慣性座標系の加速度に変換し、さらに重力加速度の成分を除去する。これにより、慣性座標系でのグリップ51の加速度aI iが導出される。なお、下式のオイラーパラメータqiには、ステップS37で導出された値を代入することができる。Gは、重力加速度の大きさである。
First, in step S41, the derivation unit 14c calculates the acceleration a B i = (a x , a y , a z ) of the local coordinate system at each time t i from the address to the vicinity of the impact according to the following formula in the inertial coordinate system. Convert to acceleration and remove the gravitational acceleration component. Thereby, the acceleration a I i of the grip 51 in the inertial coordinate system is derived. Note that the value derived in step S37 can be substituted for the Euler parameter q i in the following equation. G is the magnitude of gravitational acceleration.

続くステップS42,S43では、導出部14cは、ステップS41の加速度aI iを用いて、IR画像及び深度画像から導出されるグリップ51の三次元の位置pをスムージングすることにより、誤差の除去された位置p及び速度p'(推定値)を導出する。この意味で、IR画像及び深度画像から導出されるグリップ51の三次元の位置pは、それぞれ仮の位置ということができる。 In subsequent steps S42 and S43, the derivation unit 14c uses the acceleration a I i in step S41 to smooth the three-dimensional position p of the grip 51 derived from the IR image and the depth image, thereby removing the error. Derived position p and velocity p ′ (estimated value) are derived. In this sense, the three-dimensional position p of the grip 51 derived from the IR image and the depth image can be said to be a temporary position.

グリップ51の位置p及び速度p'を推定するためのシステムは、以下のようにモデル化することができる。ただし、xは、求めたい位置p及び速度p'、yは、IR画像及び深度画像から導出される位置p、uは、加速度データ、wは、プロセス雑音、vは、観測雑音を表す。添え字のkは、時系列のデータ番号を表し、k=1,2,・・・,N(Nは、データ個数)である。なお、ステップS42,S43の説明において登場する符号/記号は、特に断らない限り、これまでの説明及びこれよりも後の説明に登場する符号/記号とは独立して定義されているものとする。
ただし、
とする。
The system for estimating the position p and the speed p ′ of the grip 51 can be modeled as follows. Here, x is a position p and velocity p ′ to be obtained, y is a position p derived from an IR image and a depth image, u is acceleration data, w is process noise, and v is observation noise. The subscript k represents a time-series data number, and k = 1, 2,..., N (N is the number of data). It should be noted that symbols / symbols appearing in the descriptions of steps S42 and S43 are defined independently of symbols / symbols appearing in the above description and later descriptions unless otherwise specified. .
However,
And

また、プロセス雑音wkの平均値を0、分散をQkとし、観測雑音vkの平均値を0、分散をRkとする。このQk及びRkは、スムージングをかける程度を決定する因子となり、Qk/Rkが大きければあまりスムージングが行われず、距離画像センサ2の計測結果の比重が大きくなる。一方、Qk/Rkが小さければ、スムージングが強くなり、加速度センサ41の計測結果の比重が大きくなる。 The average value of the process noise w k is 0, the variance is Q k , the average value of the observation noise v k is 0, and the variance is R k . Q k and R k are factors that determine the degree of smoothing. If Q k / R k is large, smoothing is not performed so much, and the specific gravity of the measurement result of the distance image sensor 2 increases. On the other hand, if Q k / R k is small, smoothing becomes strong and the specific gravity of the measurement result of the acceleration sensor 41 becomes large.

今、時間軸に沿って前向きにフィルタリングを行う場合の推定値をx+ fk、誤差共分散をP+ fkとする。導出部14cは、ステップS42において、k=0のときの初期値を以下のとおり導出する。なお、Eは、期待値を表す。
Now, let x + fk be the estimated value when filtering forward along the time axis, and P + fk the error covariance. In step S42, the deriving unit 14c derives an initial value when k = 0 as follows. E represents an expected value.

その後、導出部14cは、この初期値を以下の式に従って、更新してゆく。
Thereafter, the deriving unit 14c updates the initial value according to the following expression.

なお、x+ fkは、時刻kの状態の時刻k時点での推定値を表し、x- fkは、時刻kの状態の時刻(k−1)時点での推定値を表す。誤差共分散についても同様に、P+ fkは、時刻kの状態の時刻k時点での推定値を表し、P- fkは、時刻kの状態の時刻(k−1)時点での推定値を表す。また、x- fk、P- fkは、以下のとおり算出することができる。
である。
Note that x + fk represents an estimated value at time k in the state of time k, and x fk represents an estimated value at time (k−1) in the state of time k. Similarly for error covariance, P + fk represents an estimated value at time k in the state at time k, and P fk represents an estimated value at time (k−1) in the state at time k. Represent. Further, x fk and P fk can be calculated as follows.
It is.

以上により、過去及び現在の加速度データ及び画像データから誤差の除去されたx=(p,p')が推定される。なお、本実施形態では、画像データのサンプリング周期は、慣性センサユニット4の出力値である加速度データのサンプリング周期ΔTよりも大きい。そのため、ステップS42では、画像データを、線形補完等を適宜行って、加速度データのサンプリング周期ΔTに合わせたデータセットにしておく前処理が行われる。   As described above, x = (p, p ′) from which errors are removed from the past and present acceleration data and image data is estimated. In the present embodiment, the sampling period of the image data is longer than the sampling period ΔT of the acceleration data that is the output value of the inertial sensor unit 4. Therefore, in step S42, preprocessing is performed in which the image data is appropriately subjected to linear interpolation or the like to be a data set in accordance with the acceleration data sampling period ΔT.

続くステップS43では、導出部14cは、時間軸に沿って後向きにフィルタリングを行うことで、未来の加速度データ及び画像データを用いて、グリップ51の位置p及び速度p'をさらに更新する。   In subsequent step S43, the derivation unit 14c further updates the position p and speed p ′ of the grip 51 using future acceleration data and image data by performing backward filtering along the time axis.

具体的には、k=N−1,・・・,1,0に対して、以下の式に従ってスムージングを行うことにより、xkを導出する。なお、初期値となるxN=x+ fNである。
Specifically, x k is derived by performing smoothing on k = N−1,... Note that the initial value x N = x + fN .

以上により、過去及び現在の計測結果のみならず、未来の計測結果を用いて、高精度にグリップ51の位置p及び速度p'を導出することができる。   As described above, the position p and the speed p ′ of the grip 51 can be derived with high accuracy using not only the past and present measurement results but also the future measurement results.

<1−3−3−5.グリップの角速度及び角加速度の導出(S7)>
以下、図12を参照しつつ、アドレスからインパクト付近までのグリップ51の角速度及び角加速度の導出処理の流れを説明する。
<1-3-3-5. Derivation of angular velocity and acceleration of grip (S7)>
Hereinafter, the flow of the derivation process of the angular velocity and the angular acceleration of the grip 51 from the address to the vicinity of the impact will be described with reference to FIG.

まず、ステップS51において、導出部14cは、ステップS5で導出された姿勢qiに疑似微分フィルタを掛けることにより、アドレスからインパクト付近までの各時刻tiの姿勢の微分qi'を導出する。なお、疑似微分フィルタは、以下の式で表される。 First, in step S51, the derivation unit 14c derives the differential q i ′ of the posture at each time t i from the address to the vicinity of the impact by applying a pseudo differential filter to the posture q i derived in step S5. The pseudo differential filter is expressed by the following equation.

ただし、本実施形態では、数44の式を双1次変換して離散化した以下の式を用いて、時間微分が実行される。
However, in the present embodiment, time differentiation is performed using the following equation obtained by discretizing the equation 44 by bilinear transformation.

続くステップS52では、導出部14cは、ステップS5で導出された姿勢qiと、ステップS51で導出された姿勢の微分qi'とを用いて、アドレスからインパクト付近までの各時刻tiの角速度ωiを導出する。角速度ωiは、下式に従って、導出される。
In subsequent step S52, the deriving unit 14c uses the posture q i derived in step S5 and the differential q i ′ of the posture derived in step S51, and the angular velocity at each time t i from the address to the vicinity of the impact. Derived ω i . The angular velocity ω i is derived according to the following equation.

続くステップS53では、導出部14cは、ステップS52で導出した角速度ωiに疑似微分フィルタを掛けることにより、アドレスからインパクト付近までの各時刻tiの角加速度ωi'を算出する。疑似微分フィルタは、数45と同じである。 In subsequent step S53, the deriving unit 14c calculates an angular acceleration ω i ′ at each time t i from the address to the vicinity of the impact by applying a pseudo differential filter to the angular velocity ω i derived in step S52. The pseudo-differential filter is the same as Equation 45.

<1−3−3−6.グリップの加速度の導出(S8)>
以下、図13を参照しつつ、アドレスからインパクト付近までのグリップ51の加速度の導出処理の流れを説明する。
<1-3-3-6. Derivation of grip acceleration (S8)>
Hereinafter, the flow of the process for deriving the acceleration of the grip 51 from the address to the vicinity of the impact will be described with reference to FIG.

まず、ステップS61において、導出部14cは、ステップS6で導出されたスムージング後のグリップ51の速度p'に疑似微分フィルタを掛けることにより、アドレスからインパクト付近までの各時刻のグリップ51の加速度p''を導出する。疑似微分フィルタは、数45と同じである。   First, in step S61, the deriving unit 14c applies a pseudo differential filter to the speed p ′ of the grip 51 after smoothing derived in step S6, thereby accelerating the acceleration p ′ of the grip 51 at each time from the address to the vicinity of the impact. Derives'. The pseudo-differential filter is the same as Equation 45.

続くステップS62において、導出部14cは、ステップS5で導出されたオイラーパラメータqiを用いて、以下の式に従って、アドレスからインパクト付近までの各時刻におけるステップS61の慣性座標系での加速度p''=aI i、を、局所座標系の加速度aB iに変換する。
In subsequent step S62, the deriving unit 14c uses the Euler parameter q i derived in step S5, and according to the following formula, the acceleration p '' in the inertial coordinate system in step S61 at each time from the address to the vicinity of the impact. = A I i is converted into acceleration a B i in the local coordinate system.

<1−4.評価>
以下、本発明の実施例について説明するが、本発明は、以下の実施例に限定されない。
<1-4. Evaluation>
Examples of the present invention will be described below, but the present invention is not limited to the following examples.

<1−4−1>
実施例1として、ステップS4の最適化の効果を確認すべく、上記実施形態に係るステップS1〜S4を実行して得られた最適化された姿勢行列Nを用いて、局所座標系のシャフトの向き[0,0,1]Tを全体座標系でのシャフトの向きに変換した。そして、このシャフトの向きのベクトルと、モーションキャプチャーシステムで計測した全体座標系でのシャフトの向きを表すベクトル(真値)との為す角度を、角度誤差として算出した。この結果を、図14に実線で示す。なお、ここでいうモーションキャプチャーとは、例えば、特開2011−183090号公報及び特開2011−030761号公報に記載されるような、多数の赤外線カメラを使って高精度で動きを計測するシステムである。また、参考例1として、ステップS1〜S3及びステップS21を実行して姿勢行列Nを導出し、この姿勢行列Nを用いて、局所座標系のシャフトの向き[0,0,1]Tを全体座標系でのシャフトの向きに変換した。そして、このシャフトの向きのベクトルと、モーションキャプチャーシステムで計測した全体座標系でのシャフトの向きを表すベクトル(真値)との為す角度を、角度誤差として算出した。この結果を、図14に点線で示す。同図からは、ステップS4の最適化処理を経ることにより、真値との誤差が小さくなっていることが分かる。
<1-4-1>
As Example 1, in order to confirm the effect of the optimization in step S4, the optimized posture matrix N obtained by executing steps S1 to S4 according to the above embodiment is used to determine the shaft of the local coordinate system. Orientation [0, 0, 1] T was converted to the shaft orientation in the global coordinate system. The angle between the shaft orientation vector and the vector (true value) representing the shaft orientation in the global coordinate system measured by the motion capture system was calculated as an angle error. The result is shown by a solid line in FIG. The motion capture here is, for example, a system that measures movement with high accuracy using a large number of infrared cameras, as described in JP 2011-183090 A and JP 2011-030761 A. is there. Further, as Reference Example 1, steps S1 to S3 and step S21 are executed to derive a posture matrix N, and using this posture matrix N, the shaft direction [0, 0, 1] T of the local coordinate system is entirely set. Converted to the orientation of the shaft in the coordinate system. The angle between the shaft orientation vector and the vector (true value) representing the shaft orientation in the global coordinate system measured by the motion capture system was calculated as an angle error. The result is shown by a dotted line in FIG. From the figure, it can be seen that the error from the true value is reduced through the optimization process of step S4.

<1−4−2>
実施例2として、ステップS5の最適化の効果を確認すべく、上記実施形態に係るステップS1〜S5を実行して得られた最適化された姿勢行列Nを用いて、局所座標系のシャフトの向き[0,0,1]Tを全体座標系でのシャフトの向きに変換した。そして、このシャフトの向きのベクトルと、モーションキャプチャーシステムで計測した全体座標系でのシャフトの向きを表すベクトル(真値)との為す角度を、角度誤差として算出した。この結果を、図15に実線で示す。また、参考例2として、ステップS1〜S4及びステップS31を実行して姿勢行列Nを導出し、この姿勢行列Nを用いて、局所座標系のシャフトの向き[0,0,1]Tを全体座標系でのシャフトの向きに変換した。そして、このシャフトの向きのベクトルと、モーションキャプチャーシステムで計測した全体座標系でのシャフトの向きを表すベクトル(真値)との為す角度を、角度誤差として算出した。この結果を、図15に点線で示す。同図からは、ステップS5の最適化処理を経ることにより、真値との誤差が小さくなっていることが分かる。
<1-4-2>
As Example 2, in order to confirm the effect of the optimization in Step S5, the optimized posture matrix N obtained by executing Steps S1 to S5 according to the above embodiment is used to determine the shaft of the local coordinate system. Orientation [0, 0, 1] T was converted to the shaft orientation in the global coordinate system. The angle between the shaft orientation vector and the vector (true value) representing the shaft orientation in the global coordinate system measured by the motion capture system was calculated as an angle error. The result is shown by a solid line in FIG. Further, as Reference Example 2, steps S1 to S4 and step S31 are executed to derive a posture matrix N, and using this posture matrix N, the shaft direction [0, 0, 1] T of the local coordinate system is entirely set. Converted to the orientation of the shaft in the coordinate system. The angle between the shaft orientation vector and the vector (true value) representing the shaft orientation in the global coordinate system measured by the motion capture system was calculated as an angle error. The result is shown by a dotted line in FIG. From the figure, it can be seen that the error from the true value is reduced by performing the optimization process of step S5.

<1−4−3>
実施例3として、ステップS6のスムージングの効果を確認すべく、上記実施形態に係るステップS1〜S6を実行して、グリップの位置pを算出した。そして、この位置pと真値の位置pとの差(位置誤差)を算出した結果を、図16A〜図16Cに実線で示す。なお、真値は、モーションキャプチャーで計測した値とした。また、参考例3として、ステップS1により得られた同じセンサデータから、ステップS11,S12と同様の方法で導出された姿勢行列Nを用いて絶対座標系の加速度データを算出し、ここから重力成分を除去した後、これを2回積分することによりグリップの位置pを算出した。そして、この位置pと真値の位置pとの差(位置誤差)を算出した結果を、図16A〜図16Cに点線で示す。同図からは、ステップS6のスムージングを経ることにより、真値との誤差が小さくなっていることが分かる。
<1-4-3>
As Example 3, in order to confirm the effect of the smoothing in Step S6, Steps S1 to S6 according to the above embodiment were executed to calculate the grip position p. The results of calculating the difference (position error) between the position p and the true position p are shown by solid lines in FIGS. 16A to 16C. The true value was a value measured by motion capture. As Reference Example 3, acceleration data in the absolute coordinate system is calculated from the same sensor data obtained in step S1 using the attitude matrix N derived by the same method as in steps S11 and S12. The position p of the grip was calculated by integrating this twice. The results of calculating the difference (position error) between the position p and the true position p are shown by dotted lines in FIGS. 16A to 16C. From the figure, it can be seen that the error from the true value is reduced by performing the smoothing in step S6.

<1−4−4>
実施例4として、ステップS43のスムージングの効果を確認すべく、上記実施形態に係るステップS1〜S6を実行して、グリップの位置pを算出した。そして、この位置pと真値の位置pとの差(位置誤差)を算出した結果を、図17A〜図17Cに点線で示す。なお、真値は、モーションキャプチャーで計測した値とした。また、参考例4として、ステップS1〜S5,S41,S42を実行して、グリップの位置pを算出した。そして、この位置pと真値の位置pとの差(位置誤差)を算出した結果を、図17A〜図17Cに実線で示す。同図からは、ステップS43のスムージングを経ることにより、真値との誤差が小さくなっていることが分かる。
<1-4-4>
As Example 4, in order to confirm the effect of the smoothing in Step S43, Steps S1 to S6 according to the above embodiment were executed to calculate the grip position p. The results of calculating the difference (position error) between the position p and the true position p are shown by dotted lines in FIGS. 17A to 17C. The true value was a value measured by motion capture. Further, as Reference Example 4, steps S1 to S5, S41, and S42 were executed to calculate the grip position p. The results of calculating the difference (position error) between this position p and the true position p are shown by solid lines in FIGS. 17A to 17C. From the figure, it can be seen that the error from the true value is reduced by performing the smoothing in step S43.

<2.第2実施形態>
図18及び図19に、本発明の第2実施形態に係る運動解析装置101を含む運動解析システム200の全体構成図を示す。これらの図を図1及び図2と比較すれば明らかなように、第2実施形態の運動解析システム200には、第1実施形態の運動解析システム100に対し、2台目の距離画像センサ6が追加されている。2台目の距離画像センサ6は、図19に示すとおり、1台目の距離画像センサ2と同様の構成を有している。距離画像センサ6は、距離画像センサ2とは異なる方向から撮影すべく、具体的には、ゴルファー7を右側から撮影すべく、ゴルファー7の右側に設置される。距離画像センサ6も、通信線17を介して運動解析装置101に接続される。なお、運動解析装置101は、複数台のコンピュータから構成されていてもよく、例えば、距離画像センサ2,6が異なるコンピュータに接続されていてもよい。
<2. Second Embodiment>
18 and 19 are diagrams showing the overall configuration of a motion analysis system 200 including the motion analysis apparatus 101 according to the second embodiment of the present invention. As is clear from comparison of these figures with FIGS. 1 and 2, the motion analysis system 200 of the second embodiment includes a second distance image sensor 6 compared to the motion analysis system 100 of the first embodiment. Has been added. The second distance image sensor 6 has the same configuration as the first distance image sensor 2 as shown in FIG. The distance image sensor 6 is installed on the right side of the golfer 7 so as to photograph from a different direction from the distance image sensor 2, specifically, to photograph the golfer 7 from the right side. The distance image sensor 6 is also connected to the motion analysis apparatus 101 via the communication line 17. The motion analysis apparatus 101 may be composed of a plurality of computers. For example, the distance image sensors 2 and 6 may be connected to different computers.

第2実施形態の運動解析装置101と、第1実施形態の運動解析装置1とは、ハードウェア構成は同じである。しかしながら、後述するとおり、一部ソフトウェア処理が異なるため、異なる運動解析プログラム103がインストールされている。それにより、制御部14は、第1及び第2取得部14a,14bとして動作する他、第3取得部14eとしても動作し、導出部14cに代えて、導出部114cとして動作する。以下では、第1及び第2実施形態間で共通の要素には共通の符号を付し、適宜説明を省略しつつ、主として両実施形態の相違点について説明する。   The motion analysis apparatus 101 of the second embodiment and the motion analysis apparatus 1 of the first embodiment have the same hardware configuration. However, as described later, since some software processes are different, different motion analysis programs 103 are installed. Thereby, the control unit 14 operates as the first and second acquisition units 14a and 14b, and also operates as the third acquisition unit 14e, and operates as the derivation unit 114c instead of the derivation unit 14c. In the following, elements common to the first and second embodiments are denoted by common reference numerals, and the differences between the two embodiments will be mainly described while omitting the description as appropriate.

なお、本明細書では様々な記号が登場し、同じ記号が異なる意味で、或いは異なる記号が同じ意味で用いられる場合があるが、最新の定義が優先されるものとする。   Note that various symbols appear in this specification, and the same symbol may be used in a different meaning, or different symbols may be used in the same meaning, but the latest definition takes precedence.

<2−1.運動解析方法>
図20を参照しつつ、第2実施形態に係る運動解析方法について説明する。図5及び図20を比較すれば明らかなとおり、第1及び第2実施形態に係る運動解析方法は類似しているが、ステップS2,S3,S6が、ステップS102,S103,S106に改良されている点で異なる。また、第2実施形態では、ステップS5の後に、ステップS5で導出されたシャフト52の姿勢を補正するステップS105が挿入されている。以下、相違点に係るステップS102,S103,S105,S106について順に説明する。
<2-1. Motion analysis method>
The motion analysis method according to the second embodiment will be described with reference to FIG. As apparent from a comparison of FIGS. 5 and 20, the motion analysis methods according to the first and second embodiments are similar, but steps S2, S3, and S6 are improved to steps S102, S103, and S106. Is different. In the second embodiment, step S105 for correcting the posture of the shaft 52 derived in step S5 is inserted after step S5. Hereinafter, steps S102, S103, S105, and S106 relating to the differences will be described in order.

<2−1−1.第2データ収集処理(S102)>
第2実施形態では、第2データ収集処理として、ゴルフクラブ5のスイング動作が2台の距離画像センサ2,6により撮影される。すなわち、距離画像センサ2だけでなく、同時に距離画像センサ6も、ゴルフスイングを捉えた時系列のIR画像及び深度画像を含む画像データを検出する。距離画像センサ6により検出された画像データは、距離画像センサ2により検出された画像データと同様に、距離画像センサ6の通信部25を介して運動解析装置101に送信される。一方、運動解析装置101側では、第3取得部14eが通信部15を介してこれを受信し、記憶部13内に格納する。本実施形態では、少なくともアドレスの少し前の初期時刻t1からフィニッシュまでの時系列の画像データが収集される。
<2-1-1. Second Data Collection Process (S102)>
In the second embodiment, as the second data collection process, the swing motion of the golf club 5 is photographed by the two distance image sensors 2 and 6. That is, not only the distance image sensor 2 but also the distance image sensor 6 simultaneously detects image data including a time-series IR image and a depth image capturing a golf swing. The image data detected by the distance image sensor 6 is transmitted to the motion analysis apparatus 101 via the communication unit 25 of the distance image sensor 6 in the same manner as the image data detected by the distance image sensor 2. On the other hand, on the side of the motion analysis apparatus 101, the third acquisition unit 14 e receives this via the communication unit 15 and stores it in the storage unit 13. In this embodiment, at least time-series image data from the initial time t 1 slightly before the address to the finish is collected.

<2−1−2.時刻合わせ(S103)>
本実施形態では、2台の距離画像センサ2,6にそれぞれ由来する2系列の画像データが取得される。そのため、第1実施形態では、画像データとセンサデータとの時刻合わせのみが行われたが、本実施形態では、ステップS103として、これら2系列の画像データの時刻合わせも行われる。
<2-1-2. Time adjustment (S103)>
In this embodiment, two series of image data derived from the two distance image sensors 2 and 6 are acquired. Therefore, in the first embodiment, only the time adjustment of the image data and the sensor data is performed, but in this embodiment, the time adjustment of these two series of image data is also performed as step S103.

具体的には、ステップS103は、図21に示すフローチャートに従って進行する。同図に示されるとおり、ステップS103では、導出部114cにより、ステップS3と同じくステップS11〜S14が実行される。これにより、センサデータと、距離画像センサ2により正面から撮影された画像データ(以下、正面画像データという)との同期が取られる。続いて、ステップS111,S112において、正面画像データと、距離画像センサ6により右側から撮影された画像データ(以下、右側画像データという)との同期が取られる。まず、ステップS111では、導出部114cが、正面画像データを画像処理することにより、アドレスからインパクト付近までの各時刻におけるグリップ端51aの三次元座標を導出する。同様に、導出部114cが、右側画像データを画像処理することにより、アドレスからインパクト付近までの各時刻におけるグリップ端51aの三次元座標を導出する。   Specifically, step S103 proceeds according to the flowchart shown in FIG. As shown in the figure, in step S103, steps S11 to S14 are executed by the derivation unit 114c as in step S3. Thereby, the sensor data and the image data photographed from the front by the distance image sensor 2 (hereinafter referred to as front image data) are synchronized. Subsequently, in steps S111 and S112, the front image data and the image data photographed from the right side by the distance image sensor 6 (hereinafter referred to as right image data) are synchronized. First, in step S111, the deriving unit 114c performs image processing on the front image data, thereby deriving the three-dimensional coordinates of the grip end 51a at each time from the address to the vicinity of the impact. Similarly, the deriving unit 114c performs image processing on the right image data, thereby deriving the three-dimensional coordinates of the grip end 51a at each time from the address to the vicinity of the impact.

続くステップS112では、導出部114cは、正面画像データ由来の時系列のグリップ端51aの三次元座標と、右側画像データ由来の時系列のグリップ端51aの三次元座標との一致度が最も高くなるように、両時系列データを位置合わせする。つまり、ステップS14と同様に、両時系列データを時間軸に沿って前後に移動させながら、両時系列データの波形が最も一致する点を決定する。そして、そのときのタイミングを基準として、正面画像データの時間軸と、右側画像データの時間軸とを相対的に時刻合わせさせる。   In subsequent step S112, the derivation unit 114c has the highest degree of coincidence between the three-dimensional coordinates of the time-series grip end 51a derived from the front image data and the three-dimensional coordinates of the time-series grip end 51a derived from the right image data. Thus, both time series data are aligned. That is, as in step S14, the point at which the waveforms of the two time series data most closely match is determined while moving the two time series data back and forth along the time axis. Then, with the timing at that time as a reference, the time axis of the front image data and the time axis of the right image data are relatively time aligned.

以上により、時刻合わせは終了する。なお、以上の処理により、正面画像データを介して、右側画像データとセンサデータも時刻合わせされる。   The time adjustment is thus completed. By the above processing, the right image data and sensor data are also timed through the front image data.

<2−1−3.ダウンスイング期間の姿勢の補正(S105)>
図15を参照されたい。同図は、上述したとおり、ステップS1〜S5により導出された姿勢行列Nに基づくシャフト52の向きの角度誤差を表している。同図から分かるように、この誤差は、インパクト(図中、0秒に対応する)の少し前までは効果的に低減されているが、インパクト直前においてはやや大きい。これは、ダウンスイング期間に概ね相当するインパクト直前においてはゴルフクラブ5が高速に運動し、角速度センサ42(ジャイロセンサ)のバイアス成分が大きくなるためと考えられる。
<2-1-3. Correction of posture during downswing period (S105)>
See FIG. The figure shows the angle error of the direction of the shaft 52 based on the attitude | position matrix N derived | led-out by step S1-S5 as mentioned above. As can be seen from the figure, this error is effectively reduced until just before the impact (corresponding to 0 seconds in the figure), but is slightly larger immediately before the impact. This is presumably because the golf club 5 moves at a high speed immediately before the impact, which roughly corresponds to the downswing period, and the bias component of the angular velocity sensor 42 (gyro sensor) increases.

ステップS105は、このような誤差が比較的大きくなるインパクト直前の期間、言い換えると、(インパクト−T0秒)からインパクトまでの期間(以下、ダウンスイング期間という)におけるシャフト52の姿勢を補正するステップである。T0は、例えば、0.1秒〜0.5秒と設定することができ、0.2秒〜0.3秒がより好ましい。 Step S105 is a step of correcting the posture of the shaft 52 in the period immediately before the impact in which such an error is relatively large, in other words, the period from (impact-T 0 seconds) to the impact (hereinafter referred to as the downswing period). It is. T 0 can be set to 0.1 seconds to 0.5 seconds, for example, and more preferably 0.2 seconds to 0.3 seconds.

ステップS105は、図22に示すとおり進行する。まず、ステップS121では、導出部114cは、画像データに基づいてインパクト時の姿勢q(オイラーパラメータ)を導出する。より具体的には、導出部114cは、右側画像データに含まれるインパクト時の深度画像を画像処理することにより、シャフト52の向きを表す三次元ベクトルを導出するとともに、右側画像データに含まれるインパクト時のIR画像を画像処理することにより、シャフト52の向きを表す二次元ベクトルを導出する。同様に、導出部114cは、正面画像データに含まれるインパクト時の深度画像を画像処理することにより、シャフト52の向きを表す三次元ベクトルを導出するとともに、正面画像データに含まれるインパクト時のIR画像を画像処理することにより、シャフト52の向きを表す二次元ベクトルを導出する。さらに、導出部114cは、右側画像データ及び正面画像データに含まれるインパクト時の対のIR画像を画像処理することにより、シャフト52の向きを表す三次元ベクトルを導出する。このとき、DLT法等を用いて、2枚のIR画像に由来する2方向からのシャフト52の像の2次元座標に基づいて、シャフト52の像の3次元座標が導出される。   Step S105 proceeds as shown in FIG. First, in step S121, the deriving unit 114c derives the posture q (Euler parameter) at the time of impact based on the image data. More specifically, the deriving unit 114c derives a three-dimensional vector representing the orientation of the shaft 52 by performing image processing on the depth image at the time of impact included in the right image data, and at the same time the impact included in the right image data. A two-dimensional vector representing the orientation of the shaft 52 is derived by image processing of the IR image at the time. Similarly, the deriving unit 114c derives a three-dimensional vector representing the orientation of the shaft 52 by performing image processing on the depth image at impact included in the front image data, and at the same time IR at impact included in the front image data. By processing the image, a two-dimensional vector representing the direction of the shaft 52 is derived. Further, the deriving unit 114c derives a three-dimensional vector representing the orientation of the shaft 52 by performing image processing on the paired IR images at impact included in the right image data and the front image data. At this time, using the DLT method or the like, the three-dimensional coordinates of the image of the shaft 52 are derived based on the two-dimensional coordinates of the image of the shaft 52 from two directions derived from the two IR images.

導出部114cは、以上の5つのシャフト52の向きと、未知の姿勢qとの誤差の大きさを表わす目的関数を定義する。そして、当該目的関数を最適化することにより、当該誤差を最小にする姿勢qを導出する。なお、本実施形態では、シャフト52の向きを表す上記5つのベクトルを全て用いて目的関数が定義されるが、例えば、これらのうちの2つ以上のベクトルを任意に組み合わせて、目的関数を定義することもできる。   The deriving unit 114c defines an objective function representing the magnitude of the error between the orientation of the above five shafts 52 and the unknown posture q. And the attitude | position q which minimizes the said error is derived | led-out by optimizing the said objective function. In this embodiment, the objective function is defined using all the five vectors representing the direction of the shaft 52. For example, the objective function is defined by arbitrarily combining two or more of these vectors. You can also

続くステップS122では、導出部114cは、ステップS121で導出されたインパクト時の姿勢q(以下、qIBsと表記する)に基づいて、ステップS5で導出されたインパクト時の姿勢q(以下、qIBbと表記する)を補正する。qIBsは、Bs系の慣性系(XYZ慣性座標系に一致する。以下同じ)に対する姿勢を表すオイラーパラメータであり、qIBbは、Bb系の慣性系に対する姿勢を表すオイラーパラメータである。Bb系とは、ステップS5で得られる局所座標系であり、Bs系とは、ステップS121で得られる局所座標系である。 In subsequent step S122, the deriving unit 114c, based on the impact posture q derived in step S121 (hereinafter referred to as q IBs ), the impact posture q derived in step S5 (hereinafter q IBb). ). q IBs is an Euler parameter representing an attitude with respect to an inertial system of the B s system (corresponding to the XYZ inertial coordinate system; the same applies hereinafter), and q IBb is an Euler parameter representing an attitude of the B b system with respect to the inertial system. The B b system is a local coordinate system obtained in step S5, and the B s system is a local coordinate system obtained in step S121.

ここで、Bs系のBb系に対する姿勢を表すオイラーパラメータをqBbBsとおく。このとき、qBbBsは、以下のとおり表される。
Here, Euler parameter representing the attitude of the B s system with respect to the B b system is set as q BbBs . At this time, q BbBs is expressed as follows.

姿勢誤差は、Bs系又はBb系におけるシャフト軸と、B系におけるシャフト軸とをそれぞれ慣性系に変換したときの軸どうしの為す角度で評価される。なお、B系とは、局所座標系(真値)である。姿勢誤差をシャフト軸の向きの違いで評価するために、qBbBsを次のようにシャフト軸を一致させる回転(シャフト軸の向きの違い)と、シャフト軸周りの回転とに分解して考える。qsがシャフト軸を一致させる回転に対応し、qψがシャフト軸周りの回転に対応する。
The attitude error is evaluated by an angle between the shafts when the shaft axis in the B s system or the B b system and the shaft axis in the B system are converted into inertial systems, respectively. The B system is a local coordinate system (true value). In order to evaluate the attitude error based on the difference in the direction of the shaft axis, q BbBs is considered to be divided into a rotation that matches the shaft axis (difference in the direction of the shaft axis) and a rotation around the shaft axis as follows. q s corresponds to the rotation that matches the shaft axis, and qψ corresponds to the rotation around the shaft axis.

sとは、−z軸の向きを表す単位ベクトルであり、s=(0,0,−1)である。qsは、xy平面内の単位ベクトルα=(αx,αy,0)の周りにBb系のs軸を角度φだけ回転させる操作を表す。qψは、s軸の周りに角度ψだけ回転させる操作を表す。従って、姿勢誤差は、角度φを用いて評価される。また、αとsは直交するため、α・s=0となる。数49の式を展開すると、以下のとおりとなる。
s is a unit vector representing the direction of the −z axis, and s = (0, 0, −1). q s represents an operation of rotating the s axis of the B b system by an angle φ around a unit vector α = (α x , α y , 0) in the xy plane. qψ represents an operation of rotating around the s-axis by an angle ψ. Therefore, the attitude error is evaluated using the angle φ. Since α and s are orthogonal, α · s = 0. When the formula of Formula 49 is expanded, it becomes as follows.

上式の右辺第1項〜第3項は、以下のとおり変形される。
以上より、オイラーパラメータqのベクトル部をV(q)と表し、スカラー部をS(q)と表すとき、以下のとおりとなる。
The first term to the third term on the right side of the above formula are modified as follows.
From the above, when the vector part of the Euler parameter q is represented as V (q) and the scalar part is represented as S (q), the following is obtained.

数52の第1式を第2式で割ることにより、ψを表すことができる。
By dividing the first formula of Formula 52 by the second formula, ψ can be expressed.

ステップS122では、導出部114cは、数48の式にステップS121で導出されたインパクト時の姿勢qIBs、及びステップS5で導出されたインパクト時の姿勢qIBbを代入することにより、インパクト時のqBbBsを導出する。続いて、導出部114cは、このqBbBsを数53の式に代入することにより、インパクト時のψを導出する。さらに、導出部114cは、数49の第1式を変形した以下の式に、このqBbBsとψとを代入することにより、インパクト時のqsを導出する。
In step S122, the deriving unit 114c substitutes the impact posture q IBs derived in step S121 and the impact posture q IBb derived in step S5 into the equation 48, thereby calculating the impact q Derive BbBs . Subsequently, the deriving unit 114c derives ψ at the time of impact by substituting this q BbBs into the formula 53. Furthermore, the deriving unit 114c derives q s at the time of impact by substituting q BbBs and ψ into the following equation obtained by modifying the first equation of Formula 49.

さらに、導出部114cは、ステップS5で導出されたインパクト時の姿勢qIBbと、インパクト時のqsとを下式に代入することにより、インパクト時の姿勢qIBbを補正したqIBb’を導出する。数55の式による変換により、Bb系の姿勢誤差とBs系の姿勢誤差とが等しくなる。
Further, the deriving unit 114c derives q IBbobtained by correcting the impact posture q IBb by substituting the impact posture q IBb derived in step S5 and the impact q s into the following equation. To do. By the conversion according to the equation 55, the attitude error of the B b system and the attitude error of the B s system become equal.

続くステップS123,S124では、導出部114cは、ダウンスイング期間の始端の時刻(すなわち、インパクトのT0前)と終端の時刻(すなわち、インパクトの時刻)との間の姿勢qIBbを補間する。このとき、インパクトの時刻における姿勢qIBbが、ステップS122で導出された補正後の姿勢qIBb’に一致するようにする。具体的には、まず、qIBbの微分を考える。
ここで、ωBmは、角速度センサ42の検出値である。ωbiasは、ωBmのバイアス成分である。ステップS123では、このバイアス成分ωbiasが導出される。なお、数56では、バイアス成分が考慮されているという意味で、qIBbにハットの記号が付されている。
In subsequent steps S123 and S124, the deriving unit 114c interpolates the posture q IBb between the start time of the downswing period (ie, before the impact T 0 ) and the end time (ie, the impact time). At this time, the posture q IBb at the time of impact is made to coincide with the corrected posture q IBb ′ derived in step S122. Specifically, first, the differentiation of q IBb is considered.
Here, ω Bm is a detection value of the angular velocity sensor 42. ω bias is a bias component of ω Bm . In step S123, this bias component ω bias is derived. In Equation 56 , a hat symbol is attached to q IBb in the sense that a bias component is taken into consideration.

具体的には、導出部114cは、ダウンスイング期間に含まれる各時刻において、qIBb及びωBmを数56の右辺に代入する。このとき代入されるqIBbは、ダウンスイング期間の始端の時刻においては、ステップS5で算出された値である。それ以降の時刻においては、直前の時刻において数56の式から算出されたqIBbの微分と、数6の式とに基づいて更新されるクォータニオンが代入される。そして、これらの全ての時刻の代入値を加算する。言い換えると、ダウンスイング期間を積分期間として、数56の式が積分される。この加算値すなわち積分値は、ωbiasを未知数として含む式であり、インパクト時の姿勢qIBbを表している。従って、導出部114cは、この積分値(式)を、インパクト時の姿勢qIBbとして数48の式に代入して、qBbBsの値(式)を導出する。さらに、このqBbBsの値(式)を用いて、数53,54の式からqsの値(式)を導出する。そして、このqsの値(式)が、ステップS122で先に導出したqsの値と等しくなるように、ωbiasを決定する。ここで、qsのz成分は0となるため、満たすべき終端条件は2成分である。ωbiasは3つの成分を有するので、3つの成分を2つの終端条件を満たすように計算する。このとき、ニュートン法等を用いて効率的に、ωbiasの3つの成分を探索することが好ましい。 Specifically, the deriving unit 114c substitutes q IBb and ω Bm for the right side of Formula 56 at each time included in the downswing period. The q IBb substituted at this time is the value calculated in step S5 at the start time of the downswing period. At subsequent times, the quaternion that is updated based on the differential of q IBb calculated from the equation 56 and the equation 6 at the previous time is substituted. Then, the substitution values for all these times are added. In other words, Expression 56 is integrated using the downswing period as an integration period. This added value, that is, the integral value is an expression including ω bias as an unknown, and represents the posture q IBb at the time of impact. Therefore, the deriving unit 114c substitutes this integral value (formula) into the formula 48 as the posture q IBb at impact to derive the value (formula) of q BbBs . Further, the value (formula) of q s is derived from the formulas 53 and 54 using the value (formula) of q BbBs . Then, the value of the q s (expression), to be equal to the value of q s derived earlier in step S122, it determines the omega bias. Here, since the z component of q s is 0, the termination condition to be satisfied is two components. Since ω bias has three components, the three components are calculated so as to satisfy two termination conditions. At this time, it is preferable to efficiently search for the three components of ω bias using the Newton method or the like.

次に、S124では、ステップS123で導出されたバイアス成分ωbiasに基づいて、ダウンスイング期間における姿勢qIBbを導出し直す。具体的には、ステップS5で導出されたダウンスイング期間の始端の時刻における姿勢qIBbを、数6,7の式を用いて時々刻々更新してゆく。このとき、更新に用いられる角速度は、バイアス成分を加味した角速度(ωBm+ωbias)とされる。 Next, in S124, the posture q IBb in the downswing period is derived again based on the bias component ω bias derived in step S123. Specifically, the posture q IBb at the start time of the downswing period derived in step S5 is updated from time to time using the equations (6 ) and (7). At this time, the angular velocity used for the update is an angular velocity (ω Bm + ω bias ) in consideration of the bias component.

なお、本実施形態では、ステップS124において、バイアス成分を加味した角速度(ωBm+ωbias)を算出するに当たり、各時刻におけるバイアス成分ωbiasが以下の式で補正される。Tは、ダウンスイング期間の長さであり、tは、ダウンスイング期間の始端からの経過時間である。ωbiasfは、インパクト時のバイアス成分である。
これにより、3段落前の説明で導出されたバイアス成分ωbiasは、インパクトの時刻のバイアス成分ωbiasfとされ、ダウンスイング期間の始端の時刻のバイアス成分は、0とされる。また、ダウンスイング期間中にバイアス成分が徐々に大きくなるように設定される。これにより、ダウンスイング期間とそれ以外の期間との境界(始期の時刻とその直前の時刻との境界)で角速度が急激に変化することを避け、角速度を連続的に変化させることができる。
In the present embodiment, at step S124, the in calculating the angular velocity (ω Bm + ω bias) in consideration of the bias component, the bias component omega bias at each time is corrected by the following equation. T is the length of the downswing period, and t is the elapsed time from the beginning of the downswing period. ω biasf is a bias component at the time of impact.
As a result, the bias component ω bias derived in the description of the previous three paragraphs is the bias component ω biasf at the impact time, and the bias component at the start time of the downswing period is zero. In addition, the bias component is set to gradually increase during the downswing period. As a result, the angular velocity can be continuously changed while avoiding an abrupt change in the angular velocity at the boundary between the downswing period and the other period (the boundary between the initial time and the immediately preceding time).

また、バイアス成分の補正方法としては、以下の方法も考えられ、以下の補正方法は、以上の補正方法と組み合わせて使用することもできるし、単独で使用することもできる。すなわち、バイアス成分は、高速域では大きくなり、低速域では小さくなる。従って、ωBmは下式のとおり補正することができる。
ωBm’=TH+(ωBm−TH)×k (ωBm>THの場合)
ωBm’=−TH+(ωBm+TH)×k (ωBm<THの場合)
In addition, as a bias component correction method, the following method is also conceivable, and the following correction method can be used in combination with the above correction method, or can be used alone. That is, the bias component is large in the high speed region and small in the low speed region. Therefore, ω Bm can be corrected as follows.
ω Bm '= TH + (ω Bm −TH) × k (when ω Bm > TH)
ω Bm '= −TH + (ω Bm + TH) × k (when ω Bm <TH)

ここで、ωBm’は、補正後の角速度(バイアス成分を加味した角速度)であり、THは閾値であり、kは、補正係数である。以上により、ステップS105の補正処理が終了する。 Here, ω Bm ′ is an angular velocity after correction (an angular velocity including a bias component), TH is a threshold value, and k is a correction coefficient. Thus, the correction process in step S105 is completed.

<2−1−4.グリップの位置及び速度の導出(S106)>
グリップの位置及び速度の導出処理(ステップS106)は、ステップS6の処理と以下の点を除き同様である。すなわち、ステップS106では、正面画像データのみならず、側面画像データに基づいて、グリップ51の位置及び速度が導出される。具体的には、数39の式が以下のとおり変更される。bは、加速度センサのバイアス成分を意味している。
<2-1-4. Derivation of grip position and speed (S106)>
The grip position and speed derivation process (step S106) is the same as the process of step S6 except for the following points. That is, in step S106, the position and speed of the grip 51 are derived based not only on the front image data but also on the side image data. Specifically, the formula of Equation 39 is changed as follows. b means the bias component of the acceleration sensor.

<2−2.評価>
以下、本発明の実施例について説明するが、本発明は、以下の実施例に限定されない。
<2-2. Evaluation>
Examples of the present invention will be described below, but the present invention is not limited to the following examples.

実施例5として、ステップS105の最適化の効果を確認すべく、第2実施形態に係るステップS1〜S105を実行して得られた最適化された姿勢qを用いて、局所座標系のシャフトの向き[0,0,1]Tを全体座標系でのシャフトの向きに変換した。そして、このシャフトの向きのベクトルと、モーションキャプチャーシステムで計測した全体座標系でのシャフトの向きを表すベクトル(真値)との為す角度を、角度誤差として算出した。この結果を、図23に一点鎖線で示す。なお、図23には、図15の実施例2及び参考例2も示している。同図からは、ステップS105の補正処理を経ることにより、インパクト直前の期間においても、真値との誤差が小さくなっていることが分かる。 As Example 5, in order to confirm the effect of optimization in Step S105, the optimized posture q obtained by executing Steps S1 to S105 according to the second embodiment is used to determine the shaft of the local coordinate system. Orientation [0, 0, 1] T was converted to the shaft orientation in the global coordinate system. The angle between the shaft orientation vector and the vector (true value) representing the shaft orientation in the global coordinate system measured by the motion capture system was calculated as an angle error. The result is shown by a one-dot chain line in FIG. FIG. 23 also shows Example 2 and Reference Example 2 of FIG. From the figure, it can be seen that the error from the true value is reduced in the period immediately before the impact through the correction process in step S105.

<3.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。
<3. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. For example, the following changes can be made.

<3−1>
上記ステップS26の最適化処理では、地磁気データ由来の関数Fmと、画像データ由来の関数Fkを含む目的関数J1が最小化された。しかしながら、目的関数J1は、関数Fm,kの一方を含まないように定義することもできる。同様に、上記ステップS37の最適化処理では、Fn,Fm,Fkを含む目的関数J2が最小化されたが、目的関数J2は、関数Fn,Fm,Fkの少なくとも1つを含まないように定義することもできる。また、地磁気データ由来の関数Fmを、加速度データ由来の関数として定義することもできる。この場合、例えば、加速度センサ41により計測されたax,ay,azから重力成分を抽出する。そして、地磁気mx,my,mzのデータを、それぞれ抽出された重力の向きのデータに置き換えることにより、関数Fmを同様に算出することができる。
<3-1>
In the optimization process of step S26, the objective function J 1 including the function F m derived from geomagnetic data and the function F k derived from image data is minimized. However, the objective function J 1 can also be defined so as not to include one of the functions F m and F k . Similarly, in the optimization process of step S37, the objective function J 2 including F n , F m , and F k is minimized, but the objective function J 2 is at least one of the functions F n , F m , and F k . It can also be defined not to include one. In addition, the function F m derived from geomagnetic data can be defined as a function derived from acceleration data. In this case, for example, a gravity component is extracted from a x , a y , and a z measured by the acceleration sensor 41. The geomagnetic m x, m y, the data of m z, by replacing the data direction of gravity extracted respectively, can be calculated similarly functions F m.

<3−2>
上記実施形態では、距離画像センサ2によりIR画像が撮影されたが、IR画像に代えてカラー画像を撮影し、これを運動の解析に用いることもできる。この場合、距離画像センサ2には、可視光を受光する可視光受光部(例えば、RGBカメラ)を搭載すればよい。
<3-2>
In the above embodiment, an IR image is taken by the distance image sensor 2, but a color image can be taken instead of the IR image and used for motion analysis. In this case, the distance image sensor 2 may be equipped with a visible light receiving unit (for example, an RGB camera) that receives visible light.

<3−3>
上記実施形態に係る運動解析装置、方法及びプログラムは、ゴルフスイングの運動を解析するのに適するように構成されていたが、同様のアルゴリズムは、任意の運動を解析するのに用いることができる。
<3-3>
The motion analysis apparatus, method, and program according to the above embodiment are configured to be suitable for analyzing the motion of a golf swing, but the same algorithm can be used to analyze an arbitrary motion.

<3−4>
上記ステップS21では、初期時刻t1の姿勢(オイラーパラメータq及び姿勢行列N)が、初期時刻t1の画像データ、及び、初期時刻t1の加速度データから特定される重力の向きに基づいて導出された。しかしながら、初期時刻t1の姿勢は、角速度データから導出することもできる。図24のフローチャートは、その一例の処理の流れを示している。
<3-4>
In the step S21, the posture of the initial time t 1 (Euler parameters q and posture matrix N) is, the image data of the initial time t 1, and, on the basis of the acceleration data of the initial time t 1 in the direction of gravity identified derived It was done. However, the attitude at the initial time t 1 can also be derived from the angular velocity data. The flowchart in FIG. 24 shows an example of the process flow.

まず、ステップS71において、導出部14cは、初期時刻t1のオイラーパラメータqを[0,0,0,1]とし、当該オイラーパラメータqを、初期時刻t1からインパクト付近までの角速度ωx,ωy,ωzのデータを用いて、数6,7の式に従って時々刻々更新してゆく。その後、数5の式に従って、各時刻の姿勢qを、姿勢行列Nに換算する。続いて、導出部14cは、ステップS72において、ステップS23と同様に、時刻ti,tjにおける姿勢の差qBjBiを導出する。また、ステップS73において、ステップS24と同様に、行列Akjを導出する。その後、ステップS74において、ステップS26と同様に、ラグランジュの未定乗数法により、ステップS71で導出された姿勢qiが最適化される。具体的には、以下の評価関数J3を最小化するように最適化が行われる。
First, in step S71, the deriving unit 14c sets the Euler parameter q at the initial time t 1 to [0, 0, 0, 1 ], and uses the Euler parameter q as the angular velocity ω x , Using the data of ω y and ω z , it is updated every moment according to the formulas 6 and 7. Thereafter, the posture q at each time is converted into a posture matrix N in accordance with the equation (5). Subsequently, in step S72, the deriving unit 14c derives a posture difference q BjBi at times t i and t j in the same manner as in step S23. In step S73, a matrix A kj is derived as in step S24. Thereafter, in step S74, the posture q i derived in step S71 is optimized by the Lagrange's undetermined multiplier method, as in step S26. Specifically, the optimization is performed so as to minimize an evaluation function J 3 below.

この最適化の方法も、ステップS26と同様であり、評価関数J3が最小化されるためには、目的関数J3の微分に関し、数60が成立する必要がある。そして、この式は、数61の行列の固有値がλとなり、qiが固有ベクトルになることを表しているから、導出部14cは、数61の行列を計算し、当該行列の最小の固有値に対応する大きさ1の固有ベクトルを導出して、これをqiとする。導出部14cは、このqiを少なくとも初期時刻t1について導出し、さらに姿勢行列Nに変換する。これにより、初期時刻t1における姿勢が導出される。
The method of this optimization is also the same as steps S26, in order to evaluate the function J 3 is minimized relates derivative of the objective function J 3, it is necessary to number 60 is established. Since this equation represents that the eigenvalue of the matrix of Formula 61 is λ and q i is an eigenvector, the derivation unit 14c calculates the matrix of Formula 61 and corresponds to the minimum eigenvalue of the matrix. Then, an eigenvector of magnitude 1 to be derived is derived and set as q i . The deriving unit 14c derives this q i for at least the initial time t 1 and further converts it into the posture matrix N. Thereby, the posture at the initial time t 1 is derived.

<3−5>
第1及び第2実施形態におけるアドレスからインパクト付近までの姿勢の導出処理(ステップS5)において、ステップS32〜S37を省略することもできる。この場合、ステップS6以降の処理においては、ステップS37の結果に代えて、ステップS31で導出された仮の姿勢を用いることができる。
<3-5>
In the derivation process (step S5) of the posture from the address to the vicinity of the impact in the first and second embodiments, steps S32 to S37 can be omitted. In this case, in the processing after step S6, the temporary posture derived in step S31 can be used instead of the result of step S37.

1,101 運動解析装置
2 距離画像センサ
6 距離画像センサ
3 運動解析プログラム
4 慣性センサユニット
41 加速度センサ
42 角速度センサ
43 地磁気センサ
5 ゴルフクラブ
7 ゴルファー
14a 第1取得部
14b 第2取得部
14e 第3取得部
14c,114c 導出部
51 グリップ
52 シャフト
100,200 運動解析システム
1,101 motion analysis device 2 distance image sensor 6 distance image sensor 3 motion analysis program 4 inertial sensor unit 41 acceleration sensor 42 angular velocity sensor 43 geomagnetic sensor 5 golf club 7 golfer 14a first acquisition unit 14b second acquisition unit 14e third acquisition Parts 14c, 114c lead-out part 51 grip 52 shaft 100, 200 motion analysis system

Claims (14)

移動体の運動を解析するための運動解析装置であって、
前記移動体に取り付けられ、角速度センサ、加速度センサ及び地磁気センサの少なくとも1つを含むセンサユニットから出力される時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータを取得する第1取得部と、
第1距離画像センサにより前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得する第2取得部と、
前記センサデータ及び前記画像データに基づいて、前記移動体の三次元挙動を導出する導出部と
を備える、
運動解析装置。
A motion analysis device for analyzing the motion of a moving object,
Time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data output from a sensor unit that is attached to the moving body and includes at least one of an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor. A first acquisition unit to acquire;
A second acquisition unit that acquires time-series image data including a time-series depth image and a two-dimensional image obtained by photographing the movement of the moving object by the first distance image sensor;
A derivation unit that derives a three-dimensional behavior of the moving body based on the sensor data and the image data;
Motion analysis device.
前記導出部は、前記画像データ及び前記センサデータを用いて定義される関数を含む目的関数を最小化又は最大化する最適解として、前記移動体の姿勢を導出する、
請求項1に記載の運動解析装置。
The derivation unit derives the posture of the moving body as an optimal solution for minimizing or maximizing an objective function including a function defined using the image data and the sensor data.
The motion analysis apparatus according to claim 1.
前記関数は、前記画像データから導出される前記移動体の向きを用いて定義される、
請求項2に記載の運動解析装置。
The function is defined using an orientation of the moving object derived from the image data.
The motion analysis apparatus according to claim 2.
前記関数は、前記地磁気データ及び加速度データの少なくとも一方を用いて定義される、
請求項2又は3に記載の運動解析装置。
The function is defined using at least one of the geomagnetic data and acceleration data.
The motion analysis apparatus according to claim 2 or 3.
前記導出部は、前記移動体の初期の姿勢及び前記時系列の角速度データを用いて、前記移動体の仮の姿勢を算出し、
前記関数は、前記仮の姿勢を用いて定義される、
請求項2から4のいずれかに記載の運動解析装置。
The derivation unit calculates a temporary posture of the moving body using the initial posture of the moving body and the time-series angular velocity data.
The function is defined using the temporary posture,
The motion analysis apparatus according to claim 2.
前記導出部は、前記画像データから導出される初期の前記移動体の向き及び初期の前記加速度データ、又は、前記角速度データを用いて、前記移動体の初期の姿勢として、前記移動体の静止時の姿勢を導出する、
請求項5に記載の運動解析装置。
The derivation unit uses the initial orientation of the moving body and the initial acceleration data derived from the image data, or the angular velocity data as the initial posture of the moving body when the moving body is stationary. To derive the posture of
The motion analysis apparatus according to claim 5.
前記導出部は、前記移動体の姿勢及び前記移動体の姿勢を微分フィルタによりフィルタリングした微分データに基づいて、前記移動体の角速度を導出する、
請求項1から6のいずれかに記載の運動解析装置。
The derivation unit derives an angular velocity of the moving body based on differential data obtained by filtering the attitude of the moving body and the attitude of the moving body using a differential filter.
The motion analysis apparatus according to claim 1.
前記導出部は、前記加速度データ用いて、前記画像データから導出される前記移動体の仮の位置及び当該仮の位置を微分した仮の速度の少なくとも一方をスムージングすることにより、前記移動体の位置及び速度の少なくとも一方を導出する、
請求項1から7のいずれかに記載の運動解析装置。
The deriving unit uses the acceleration data to smooth at least one of a temporary position of the moving body derived from the image data and a temporary speed obtained by differentiating the temporary position, thereby determining the position of the moving body. And at least one of the speed is derived,
The motion analysis apparatus according to claim 1.
前記導出部は、前記移動体の速度を微分フィルタによりフィルタリングすることにより、前記移動体の加速度を導出する、
請求項8に記載の運動解析装置。
The derivation unit derives the acceleration of the moving body by filtering the speed of the moving body with a differential filter.
The motion analysis apparatus according to claim 8.
前記導出部は、前記画像データから導出される前記移動体の向きの時系列データと、前記センサデータから導出される前記移動体の向きの時系列データとの一致度が最も高くなるように、前記時系列の画像データと前記時系列のセンサデータとの時刻合わせを行う、
請求項1から9のいずれかに記載の運動解析装置。
The derivation unit has the highest degree of coincidence between the time series data of the moving body direction derived from the image data and the time series data of the moving body direction derived from the sensor data. Performing time adjustment of the time-series image data and the time-series sensor data;
The motion analysis apparatus according to claim 1.
第2距離画像センサにより前記第1距離画像センサとは異なる方向から前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得する第3取得部
をさらに備え、
前記導出部は、前記センサデータと、前記第2取得部及び前記第3取得部により取得された前記画像データとに基づいて、前記移動体の三次元挙動を導出する、
請求項1から10のいずれかに記載の運動解析装置。
A third acquisition unit for acquiring time-series image data including a time-series depth image and a two-dimensional image obtained by capturing the movement of the moving body from a direction different from that of the first distance image sensor by the second distance image sensor; Prepared,
The derivation unit derives a three-dimensional behavior of the moving body based on the sensor data and the image data acquired by the second acquisition unit and the third acquisition unit.
The motion analysis apparatus according to claim 1.
前記導出部は、前記画像データに基づいて第1時刻における前記移動体の姿勢である瞬時姿勢を導出し、前記移動体の姿勢が前記第1時刻において前記瞬時姿勢に一致するように、前記第1時刻と異なる第2時刻と前記第1時刻との間の前記移動体の姿勢を補間する、
請求項1から11のいずれかに記載の運動解析装置。
The deriving unit derives an instantaneous posture, which is the posture of the moving body at a first time, based on the image data, and the posture of the moving body matches the instantaneous posture at the first time. Interpolating the posture of the moving body between a second time different from one time and the first time;
The motion analysis apparatus according to claim 1.
移動体の運動を解析するための運動解析方法であって、
前記移動体に取り付けられ、角速度センサ、加速度センサ及び地磁気センサの少なくとも1つを含むセンサユニットを用いて、時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータを取得するステップと、
距離画像センサを用いて、前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得するステップと、
前記センサデータ及び前記画像データに基づいて、前記移動体の三次元挙動を導出するステップと、
を備える、
運動解析方法。
A motion analysis method for analyzing the motion of a moving object,
Using a sensor unit attached to the moving body and including at least one of an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor, time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data is obtained. A step to obtain,
Using a distance image sensor to acquire time-series image data including a time-series depth image and a two-dimensional image obtained by capturing the movement of the moving body;
Deriving a three-dimensional behavior of the moving body based on the sensor data and the image data;
Comprising
Motion analysis method.
移動体の運動を解析するための運動解析プログラムであって、
前記移動体に取り付けられ、角速度センサ、加速度センサ及び地磁気センサの少なくとも1つを含むセンサユニットから出力される時系列の角速度データ、加速度データ及び地磁気データの少なくとも1つを含む時系列のセンサデータを取得するステップと、
距離画像センサにより前記移動体の運動を撮影した時系列の深度画像及び二次元画像を含む時系列の画像データを取得するステップと、
前記センサデータ及び前記画像データに基づいて、前記移動体の三次元挙動を導出するステップと、
をコンピュータに実行させる、
運動解析プログラム。
A motion analysis program for analyzing the motion of a moving object,
Time-series sensor data including at least one of time-series angular velocity data, acceleration data, and geomagnetic data output from a sensor unit that is attached to the moving body and includes at least one of an angular velocity sensor, an acceleration sensor, and a geomagnetic sensor. A step to obtain,
Acquiring time-series image data including a time-series depth image and a two-dimensional image obtained by photographing the movement of the moving object by a distance image sensor;
Deriving a three-dimensional behavior of the moving body based on the sensor data and the image data;
To run on a computer,
Motion analysis program.
JP2016249690A 2015-12-28 2016-12-22 Motion analyzers, methods and programs Active JP6776882B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015256393 2015-12-28
JP2015256393 2015-12-28

Publications (2)

Publication Number Publication Date
JP2017119102A true JP2017119102A (en) 2017-07-06
JP6776882B2 JP6776882B2 (en) 2020-10-28

Family

ID=59271121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016249690A Active JP6776882B2 (en) 2015-12-28 2016-12-22 Motion analyzers, methods and programs

Country Status (1)

Country Link
JP (1) JP6776882B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230724A1 (en) 2017-06-16 2018-12-20 日東電工株式会社 Laminate and air bag
JP2019050863A (en) * 2017-09-12 2019-04-04 住友ゴム工業株式会社 Analysis apparatus of behavior of hitting tool
JP2019054845A (en) * 2017-09-19 2019-04-11 住友ゴム工業株式会社 Analysis apparatus of behavior of elastic body
JP2019083916A (en) * 2017-11-02 2019-06-06 住友ゴム工業株式会社 Hitting tool fitting device
JP2019187501A (en) * 2018-04-18 2019-10-31 美津濃株式会社 Swing analysis system and swing analysis method
JP2020042811A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method, and apparatus for clock synchronization, device, storage medium and vehicle
JP2020144041A (en) * 2019-03-07 2020-09-10 日本電信電話株式会社 Coordinate system conversion parameter estimation device, method and program
JPWO2019176150A1 (en) * 2018-03-14 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method and program
WO2021085578A1 (en) * 2019-10-31 2021-05-06 Gpro Co., Ltd. Ball tracking apparatus and ball tracking method
CN114533039A (en) * 2021-12-27 2022-05-27 重庆邮电大学 Human body joint position and angle calculating method based on redundant sensors

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007190365A (en) * 2005-12-23 2007-08-02 Sri Sports Ltd Method for acquiring optimal aerodynamic characteristic of golf ball, and custom-made system for golf ball dimple using the method
JP2009005760A (en) * 2007-06-26 2009-01-15 Univ Kansai Golf club analysis method
JP2013192590A (en) * 2012-03-16 2013-09-30 Seiko Epson Corp Motion analysis device and motion analysis method
JP2013192591A (en) * 2012-03-16 2013-09-30 Seiko Epson Corp Motion analysis information collecting apparatus, motion analysis device and motion analysis method
JP2013202066A (en) * 2012-03-27 2013-10-07 Seiko Epson Corp Motion analysis device
JP2013240486A (en) * 2012-05-21 2013-12-05 Bridgestone Corp Golf swing measurement system, measurement apparatus, and measurement method
WO2015146047A1 (en) * 2014-03-25 2015-10-01 セイコーエプソン株式会社 Reference-value generation method, motion analysis method, reference-value generation device, and program
JP2015181780A (en) * 2014-03-25 2015-10-22 セイコーエプソン株式会社 Exercise analysis method, exercise analysis device, exercise analysis system and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007190365A (en) * 2005-12-23 2007-08-02 Sri Sports Ltd Method for acquiring optimal aerodynamic characteristic of golf ball, and custom-made system for golf ball dimple using the method
JP2009005760A (en) * 2007-06-26 2009-01-15 Univ Kansai Golf club analysis method
JP2013192590A (en) * 2012-03-16 2013-09-30 Seiko Epson Corp Motion analysis device and motion analysis method
JP2013192591A (en) * 2012-03-16 2013-09-30 Seiko Epson Corp Motion analysis information collecting apparatus, motion analysis device and motion analysis method
JP2013202066A (en) * 2012-03-27 2013-10-07 Seiko Epson Corp Motion analysis device
JP2013240486A (en) * 2012-05-21 2013-12-05 Bridgestone Corp Golf swing measurement system, measurement apparatus, and measurement method
WO2015146047A1 (en) * 2014-03-25 2015-10-01 セイコーエプソン株式会社 Reference-value generation method, motion analysis method, reference-value generation device, and program
JP2015181780A (en) * 2014-03-25 2015-10-22 セイコーエプソン株式会社 Exercise analysis method, exercise analysis device, exercise analysis system and program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230724A1 (en) 2017-06-16 2018-12-20 日東電工株式会社 Laminate and air bag
JP7027745B2 (en) 2017-09-12 2022-03-02 住友ゴム工業株式会社 Analysis device for the behavior of hitting tools
JP2019050863A (en) * 2017-09-12 2019-04-04 住友ゴム工業株式会社 Analysis apparatus of behavior of hitting tool
JP2019054845A (en) * 2017-09-19 2019-04-11 住友ゴム工業株式会社 Analysis apparatus of behavior of elastic body
JP2019083916A (en) * 2017-11-02 2019-06-06 住友ゴム工業株式会社 Hitting tool fitting device
JP7038798B2 (en) 2018-03-14 2022-03-18 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method and program
US11402897B2 (en) 2018-03-14 2022-08-02 Sony Interactive Entertainment Inc. Position estimation apparatus, position estimation method, and program
JPWO2019176150A1 (en) * 2018-03-14 2020-12-03 株式会社ソニー・インタラクティブエンタテインメント Position estimation device, position estimation method and program
JP2019187501A (en) * 2018-04-18 2019-10-31 美津濃株式会社 Swing analysis system and swing analysis method
JP2020042811A (en) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method, and apparatus for clock synchronization, device, storage medium and vehicle
US11363192B2 (en) 2018-09-07 2022-06-14 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method, and apparatus for clock synchronization, device, storage medium and vehicle
JP7095628B2 (en) 2019-03-07 2022-07-05 日本電信電話株式会社 Coordinate system transformation parameter estimator, method and program
JP2020144041A (en) * 2019-03-07 2020-09-10 日本電信電話株式会社 Coordinate system conversion parameter estimation device, method and program
WO2020179526A1 (en) * 2019-03-07 2020-09-10 日本電信電話株式会社 Coordinate system conversion parameter estimation device, method, and program
JP2021071387A (en) * 2019-10-31 2021-05-06 株式会社Gpro Ball tracking device and ball tracking method
WO2021085578A1 (en) * 2019-10-31 2021-05-06 Gpro Co., Ltd. Ball tracking apparatus and ball tracking method
US11615541B2 (en) 2019-10-31 2023-03-28 Gpro Co., Ltd. Ball tracking apparatus and ball tracking method
CN114533039A (en) * 2021-12-27 2022-05-27 重庆邮电大学 Human body joint position and angle calculating method based on redundant sensors
CN114533039B (en) * 2021-12-27 2023-07-25 重庆邮电大学 Human joint position and angle resolving method based on redundant sensor

Also Published As

Publication number Publication date
JP6776882B2 (en) 2020-10-28

Similar Documents

Publication Publication Date Title
JP6776882B2 (en) Motion analyzers, methods and programs
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
US8913134B2 (en) Initializing an inertial sensor using soft constraints and penalty functions
US20040090444A1 (en) Image processing device and method therefor and program codes, storing medium
JP2005033319A (en) Position and orientation measurement method and apparatus
JP2018026131A (en) Motion analyzer
US20220051031A1 (en) Moving object tracking method and apparatus
CN110954134B (en) Gyro offset correction method, correction system, electronic device, and storage medium
US20120065926A1 (en) Integrated motion sensing apparatus
KR101913667B1 (en) Golf swing analysis system using inertial sensor and Multiple cameras and Golf swing analysis method using the same
KR101896827B1 (en) Apparatus and Method for Estimating Pose of User
JP2013252301A (en) Device and program for estimating eyeball center position
WO2023050634A1 (en) Positioning method and apparatus, device, storage medium, and computer program product
KR20120059824A (en) A method and system for acquiring real-time motion information using a complex sensor
KR101525411B1 (en) Image generating method for analysis of user&#39;s golf swing, analyzing method for user&#39;s golf swing using the same and apparatus for analyzing golf swing
JP6851038B2 (en) Analysis device for the behavior of hitting tools
US10456621B2 (en) Impact point estimation apparatus
Qian et al. Optical flow based step length estimation for indoor pedestrian navigation on a smartphone
JP6810442B2 (en) A camera assembly, a finger shape detection system using the camera assembly, a finger shape detection method using the camera assembly, a program for implementing the detection method, and a storage medium for the program.
JP6205387B2 (en) Method and apparatus for acquiring position information of virtual marker, and operation measurement method
JP6147446B1 (en) Inertial sensor initialization using soft constraints and penalty functions
WO2021039642A1 (en) Three-dimensional reconstruction device, method, and program
KR20120028416A (en) Integration motion sensing device
JP6845433B2 (en) Analysis device for the behavior of hitting tools
JP6897447B2 (en) Analytical device for the behavior of elastic bodies

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R150 Certificate of patent or registration of utility model

Ref document number: 6776882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250