JP2016032611A - Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program - Google Patents

Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program Download PDF

Info

Publication number
JP2016032611A
JP2016032611A JP2014157205A JP2014157205A JP2016032611A JP 2016032611 A JP2016032611 A JP 2016032611A JP 2014157205 A JP2014157205 A JP 2014157205A JP 2014157205 A JP2014157205 A JP 2014157205A JP 2016032611 A JP2016032611 A JP 2016032611A
Authority
JP
Japan
Prior art keywords
unit
user
motion analysis
information
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014157205A
Other languages
Japanese (ja)
Inventor
内田 周志
Chikashi Uchida
周志 内田
彰展 佐藤
Akinobu Sato
彰展 佐藤
俊一 水落
Shunichi Mizuochi
俊一 水落
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014157205A priority Critical patent/JP2016032611A/en
Priority to US14/811,730 priority patent/US20160029954A1/en
Priority to CN201510461445.4A priority patent/CN105311815A/en
Publication of JP2016032611A publication Critical patent/JP2016032611A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an exercise analysis device, an exercise analysis system, an exercise analysis method, an exercise analysis program and the like capable of grasping exercise of a left-foot and a right-foot with a simple configuration.SOLUTION: An exercise analysis device 2 includes: an acquisition section 242 acquiring detection results from a sensor (inertia measurement unit 10) being mounted onto a user and detecting information related to exercise of the user; and a left/right determination section 243 performing determination processing determining whether it is a first period including a right-foot grounding period of the user or a second period including a left-foot grounding period of the user on the basis of the detection results.SELECTED DRAWING: Figure 9

Description

本発明は、運動解析装置、運動解析システム、運動解析方法及び運動解析プログラムに関する。   The present invention relates to a motion analysis device, a motion analysis system, a motion analysis method, and a motion analysis program.

歩行動作や走行動作においては、左右バランスに偏りのない適切なフォームでステップを踏むことが重要である。   In walking and running motions, it is important to take steps in an appropriate form with no bias in the left / right balance.

特許文献1には、左足及び右足のそれぞれに取り付けられたジャイロセンサーの出力に基づいて歩行・走行動作を評価する歩行・走行動作評価支援装置が開示されている。   Patent Document 1 discloses a walking / running motion evaluation support device that evaluates walking / running motion based on the output of a gyro sensor attached to each of a left foot and a right foot.

特開2008−73285号公報JP 2008-73285 A

特許文献1のように左足及び右足のそれぞれにセンサーを取り付ける場合には、2つのセンサーが必要になるので、コストが嵩み、さらにセンサー間の同期処理も必要となる。また、リアルタイムで評価する場合には、各足のセンサーと通信する通信処理も必要となる。   When sensors are attached to each of the left foot and the right foot as in Patent Document 1, two sensors are required, which increases the cost and also requires synchronization processing between the sensors. Moreover, when evaluating in real time, the communication process which communicates with the sensor of each leg | foot is also required.

本発明は、以上のような問題点に鑑みてなされたものであり、本発明のいくつかの態様によれば、簡易な構成で左足及び右足の運動を把握できる、運動解析装置、運動解析システム、運動解析方法及び運動解析プログラム等を提供することができる。   The present invention has been made in view of the above problems, and according to some aspects of the present invention, a motion analysis apparatus and a motion analysis system capable of grasping the motion of the left foot and the right foot with a simple configuration. A motion analysis method, a motion analysis program, and the like can be provided.

本発明は前述の課題の少なくとも一部を解決するためになされたものであり、以下の態様又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following aspects or application examples.

[適用例1]
本適用例に係る運動解析装置は、使用者に取り付けられ、前記使用者の運動に関する情報を検出するセンサーから検出結果を取得する取得部と、前記検出結果に基づいて、前記使用者の右足接地期間を含む第1期間と、前記使用者の左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定部と、を含む、運動解析装置である。
[Application Example 1]
The motion analysis apparatus according to this application example is attached to a user, an acquisition unit that acquires a detection result from a sensor that detects information related to the user's motion, and the right foot grounding of the user based on the detection result A left and right determination unit that performs a determination process for determining which period is a first period including a period and a second period including the user's left foot contact period.

本適用例によれば、センサーが1つであっても判定処理を行えるので、簡易な構成で左足及び右足の運動を把握できる運動解析装置を実現できる。   According to this application example, since the determination process can be performed even with one sensor, it is possible to realize a motion analysis apparatus that can grasp the motion of the left foot and the right foot with a simple configuration.

[適用例2]
上述の運動解析装置において、前記センサーは、角度及び角速度の少なくとも一方を検出する慣性センサーであってもよい。
[Application Example 2]
In the motion analysis apparatus described above, the sensor may be an inertial sensor that detects at least one of an angle and an angular velocity.

慣性センサーは、装着された使用者の細かい動きを検出可能であるため、センサーが1つであっても精度よく左足及び右足の運動を把握できる運動解析装置を実現できる。   Since the inertial sensor can detect the fine movement of the user who is wearing it, even if there is only one sensor, it is possible to realize a motion analysis apparatus that can accurately grasp the motion of the left foot and the right foot.

[適用例3]
上述の運動解析装置において、前記左右判定部は、前記使用者のヨー方向の角速度に基づいて、前記判定処理を行ってもよい。
[Application Example 3]
In the above motion analysis device, the left / right determination unit may perform the determination process based on an angular velocity in the yaw direction of the user.

歩行動作や走行動作においては、胴体にヨー方向の回転運動が生じる。したがって、本適用例によれば、センサーが1つであっても精度よく左足及び右足の運動を把握できる運動解析装置を実現できる。   In the walking motion and the running motion, a rotational motion in the yaw direction is generated in the trunk. Therefore, according to this application example, it is possible to realize a motion analysis apparatus capable of accurately grasping the motion of the left foot and the right foot even with a single sensor.

[適用例4]
上述の運動解析装置において、前記左右判定部は、前記使用者の進行方向と上下方向にともに直交する方向の加速度に基づいて、前記判定処理を行ってもよい。
[Application Example 4]
In the motion analysis apparatus described above, the left / right determination unit may perform the determination process based on acceleration in a direction orthogonal to both the user's traveling direction and the vertical direction.

歩行動作や走行動作においては、前記使用者の進行方向と上下方向にともに直交する方向が生じる。したがって、本適用例によれば、センサーが1つであっても精度よく左足及び右足の運動を把握できる運動解析装置を実現できる。   In the walking motion and the running motion, a direction perpendicular to the user's traveling direction and the vertical direction is generated. Therefore, according to this application example, it is possible to realize a motion analysis apparatus capable of accurately grasping the motion of the left foot and the right foot even with a single sensor.

[適用例5]
上述の運動解析装置において、前記左右判定部は、前記使用者のヨー方向の角度に基づいて、前記判定処理を行ってもよい。
[Application Example 5]
In the above motion analysis apparatus, the left / right determination unit may perform the determination process based on an angle of the user in the yaw direction.

歩行動作や走行動作においては、胴体にヨー方向の回転運動が生じる。したがって、本適用例によれば、センサーが1つであっても精度よく左足及び右足の運動を把握できる運動解析装置を実現できる。   In the walking motion and the running motion, a rotational motion in the yaw direction is generated in the trunk. Therefore, according to this application example, it is possible to realize a motion analysis apparatus capable of accurately grasping the motion of the left foot and the right foot even with a single sensor.

[適用例6]
上述の運動解析装置において、前記使用者の走行タイミングを判定する走行検出部をさらに含み、前記左右判定部は、前記走行タイミングに基づいて前記判定処理を行ってもよい。
[Application Example 6]
The above motion analysis apparatus may further include a travel detection unit that determines the travel timing of the user, and the left / right determination unit may perform the determination process based on the travel timing.

本適用例によれば、走行タイミング(例えば、1歩のタイミング)とセンサーの検出結果とに基づいて判定処理を行えるので、精度よく左足及び右足の運動を把握できる運動解析装置を実現できる。   According to this application example, since the determination process can be performed based on the running timing (for example, the timing of one step) and the detection result of the sensor, it is possible to realize a motion analysis device that can accurately grasp the motion of the left foot and the right foot.

[適用例7]
上述の運動解析装置において、前記使用者の運動に関する指標を算出する算出部をさらに含み、前記算出部は、前記第1期間における前記指標と、前記第2期間における前記指標とを分けて算出してもよい。
[Application Example 7]
The above motion analysis apparatus further includes a calculation unit that calculates an index related to the user's movement, and the calculation unit calculates the index in the first period and the index in the second period separately. May be.

[適用例8]
上述の運動解析装置において、前記指標は、真下着地、推進効率、脚の流れ、走行ピッチ、着地衝撃の少なくとも1つであってもよい。
[Application Example 8]
In the motion analysis apparatus described above, the index may be at least one of true under landing, propulsion efficiency, leg flow, travel pitch, and landing impact.

本適用例によれば、使用者の運動の左右バランスに関する情報を使用者に提供することができる運動解析装置を実現できる。   According to this application example, it is possible to realize a motion analysis apparatus that can provide the user with information related to the left / right balance of the user's motion.

[適用例9]
上述の運動解析装置において、前記算出部は、前記第1期間における前記指標と、前記第2期間における前記指標との差分を算出してもよい。
[Application Example 9]
In the above motion analysis apparatus, the calculation unit may calculate a difference between the index in the first period and the index in the second period.

本適用例によれば、使用者の運動の左右バランスに関する情報を分かりやすく使用者に
提供することができる運動解析装置を実現できる。
According to this application example, it is possible to realize a motion analysis apparatus that can easily provide information on the right and left balance of the user's motion to the user.

[適用例10]
上述の運動解析装置において、前記差分が基準値以上である場合に、前記差分に関する情報である差分情報を出力する出力部をさらに含んでもよい。
[Application Example 10]
The motion analysis apparatus described above may further include an output unit that outputs difference information that is information related to the difference when the difference is equal to or greater than a reference value.

本適用例によれば、使用者の運動の左右バランスが崩れている場合に使用者等に通知することができる運動解析装置を実現できる。   According to this application example, it is possible to realize a motion analysis apparatus that can notify a user or the like when the left-right balance of the user's motion is broken.

[適用例11]
本適用例に係る運動解析システムは、上述の運動解析装置と、前記運動解析装置が出力する前記差分情報を出力する報知装置と、を含む、運動解析システムである。
[Application Example 11]
The motion analysis system according to this application example is a motion analysis system including the motion analysis device described above and a notification device that outputs the difference information output by the motion analysis device.

本適用例によれば、使用者の運動の左右バランスが崩れている場合に使用者等に通知することができる運動解析システムを実現できる。   According to this application example, it is possible to realize a motion analysis system capable of notifying the user or the like when the left-right balance of the motion of the user is broken.

[適用例12]
本適用例に係る運動解析方法は、使用者に取り付けられ、前記使用者の運動に関する情報を検出するセンサーから検出結果を取得する取得工程と、前記検出結果に基づいて、前記使用者の右足接地期間を含む第1期間と、前記使用者の左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定工程と、を含む、運動解析方法である。
[Application Example 12]
The motion analysis method according to the application example includes an acquisition step of acquiring a detection result from a sensor that is attached to a user and detects information related to the user's motion, and based on the detection result, the user's right foot grounding It is a motion analysis method including a left and right determination step of performing a determination process for determining which period is a first period including a period and a second period including the user's left foot contact period.

本適用例によれば、センサーが1つであっても判定処理を行えるので、簡易な構成で左足及び右足の運動を把握できる運動解析方法を実現できる。   According to this application example, since the determination process can be performed even with one sensor, a motion analysis method that can grasp the motion of the left foot and the right foot with a simple configuration can be realized.

[適用例13]
本適用例に係る運動解析プログラムは、使用者に取り付けられ、前記使用者の運動に関する情報を検出するセンサーからの検出結果を取得する取得部と、前記検出結果に基づいて、前記使用者の右足接地期間を含む第1期間と、前記使用者の左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定部と、してコンピューターを機能させる、運動解析プログラム。
[Application Example 13]
The motion analysis program according to this application example is attached to a user, an acquisition unit that acquires a detection result from a sensor that detects information about the user's motion, and a right foot of the user based on the detection result A motion analysis program for causing a computer to function as a left / right determination unit that performs a determination process for determining which period is a first period including a contact period and a second period including a user's left foot contact period .

本適用例によれば、センサーが1つであっても判定処理を行えるので、簡易な構成で左足及び右足の運動を把握できる運動解析プログラムを実現できる。   According to this application example, since the determination process can be performed even with one sensor, it is possible to realize a motion analysis program that can grasp the motion of the left foot and the right foot with a simple configuration.

本実施形態の運動解析システムの構成例を示す図。The figure which shows the structural example of the exercise | movement analysis system of this embodiment. 本実施形態の運動解析システムの概要についての説明図。Explanatory drawing about the outline | summary of the exercise | movement analysis system of this embodiment. 運動解析装置の構成例を示す機能ブロック図。The functional block diagram which shows the structural example of a motion analysis apparatus. センシングデータテーブルの構成例を示す図。The figure which shows the structural example of a sensing data table. GPSデータテーブルの構成例を示す図。The figure which shows the structural example of a GPS data table. 地磁気データテーブルの構成例を示す図。The figure which shows the structural example of a geomagnetic data table. 算出データテーブルの構成例を示す図。The figure which shows the structural example of a calculation data table. 運動解析装置の処理部の構成例を示す機能ブロック図。The functional block diagram which shows the structural example of the process part of a motion analysis apparatus. 慣性航法演算部の構成例を示す機能ブロック図。The functional block diagram which shows the structural example of an inertial navigation calculating part. 使用者の走行時の姿勢についての説明図。Explanatory drawing about the attitude | position at the time of driving | running | working of a user. 使用者の走行時のヨー角についての説明図。Explanatory drawing about the yaw angle at the time of a user's driving | running | working. 第1期間及び第2期間を説明するための図。The figure for demonstrating a 1st period and a 2nd period. ヨー方向の角速度を示すグラフ。The graph which shows the angular velocity of a yaw direction. y軸加速度を示すグラフである。It is a graph which shows a y-axis acceleration. 使用者の走行時の3軸加速度の一例を示す図。The figure which shows an example of the triaxial acceleration at the time of a user's driving | running | working. 運動解析部の構成例を示す機能ブロック図。The functional block diagram which shows the structural example of a motion analysis part. 処理部が行う運動解析処理の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of the exercise | movement analysis process which a process part performs. 慣性航法演算処理の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of an inertial navigation calculation process. 走行検出処理の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of a driving | running | working detection process. 判定処理の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of a determination process. 運動解析情報生成処理(図17のS50の処理)の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of exercise | movement analysis information generation processing (process of S50 of FIG. 17). 報知装置3の構成例を示す機能ブロック図。FIG. 3 is a functional block diagram illustrating a configuration example of a notification device 3. 図23(A)及び図23(B)は、報知装置の表示部に表示される情報の一例を示す図。23A and 23B are diagrams illustrating examples of information displayed on the display unit of the notification device. 処理部が行う報知処理の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of the alerting | reporting process which a process part performs. 情報分析装置の構成例を示す機能ブロック図。The functional block diagram which shows the structural example of an information analyzer. 処理部が行う分析処理の手順の一例を示すフローチャート図。The flowchart figure which shows an example of the procedure of the analysis process which a process part performs. 表示部270に表示される分析情報の一例を示す図である。6 is a diagram illustrating an example of analysis information displayed on a display unit 270. FIG.

以下、本発明の好適な実施形態について図面を用いて詳細に説明する。用いる図面は説明の便宜上のものである。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The drawings used are for convenience of explanation. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

1.運動解析システム
1−1.システムの構成
以下では、使用者の走行(歩行も含む)における運動を解析する運動解析システムを例に挙げて説明するが、本実施形態の運動解析システムは、走行以外の運動を解析する運動解析システムにも、同様に適用することができる。図1は、本実施形態の運動解析システム1の構成例を示す図である。図1に示すように、本実施形態の運動解析システム1は、運動解析装置2、報知装置3及び情報分析装置4を含んで構成されている。運動解析装置2は、使用者の走行中の運動を解析する装置であり、報知装置3は、使用者に走行中の運動の状態や走行結果の情報を使用者に通知する装置である。情報分析装置4は、使用者の走行終了後に走行結果を分析して提示する装置である。本実施形態では、図2に示すように、運動解析装置2は、慣性計測ユニット(IMU:Inertial Measurement Unit)10を内蔵し、使用者が静止している状態で、慣性計測ユニット(IMU)10の1つの検出軸(以下ではz軸とする)が重力加速度方向(鉛直下向き)とほぼ一致するように、使用者の胴体部分(例えば、右腰、左腰、又は腰の中央部)に装着される。また、報知装置3は、リスト型(腕時計型)の携帯情報機器であり、使用者の手首等に装着される。ただし、報知装置3は、ヘッドマウントディスプレイ(HMD:Head Mount Display)やスマートフォン等の携帯情報機器であってもよい。
1. Motion analysis system 1-1. In the following, a motion analysis system that analyzes a user's movement (including walking) will be described as an example. However, the movement analysis system of the present embodiment is a motion analysis that analyzes movements other than running. The same applies to the system. FIG. 1 is a diagram illustrating a configuration example of a motion analysis system 1 according to the present embodiment. As shown in FIG. 1, the motion analysis system 1 according to the present embodiment includes a motion analysis device 2, a notification device 3, and an information analysis device 4. The motion analysis device 2 is a device that analyzes the motion of the user while traveling, and the notification device 3 is a device that notifies the user of the state of motion during travel and information on the travel results. The information analysis device 4 is a device that analyzes and presents a traveling result after the user finishes traveling. In the present embodiment, as shown in FIG. 2, the motion analysis apparatus 2 includes an inertial measurement unit (IMU) 10 and an inertial measurement unit (IMU) 10 in a state where the user is stationary. Attached to the user's torso (for example, right waist, left waist, or the center of the waist) so that one detection axis (hereinafter referred to as the z-axis) is substantially aligned with the gravitational acceleration direction (vertically downward) Is done. The notification device 3 is a wrist-type (wristwatch-type) portable information device and is worn on the wrist of the user. However, the notification device 3 may be a portable information device such as a head mounted display (HMD) or a smartphone.

使用者は、走行開始時に報知装置3を操作して運動解析装置2による計測(後述する慣性航法演算処理及び運動解析処理)の開始を指示し、走行終了時に報知装置3を操作して運動解析装置2による計測の終了を指示する。報知装置3は、使用者の操作に応じて、計測の開始や終了を指示するコマンドを運動解析装置2に送信する。   The user operates the notification device 3 at the start of traveling to instruct the start of measurement (inertial navigation calculation processing and motion analysis processing described later) by the motion analysis device 2, and operates the notification device 3 at the end of travel to analyze the motion. The end of measurement by the apparatus 2 is instructed. The notification device 3 transmits a command for instructing the start and end of measurement to the motion analysis device 2 in accordance with a user operation.

運動解析装置2は、計測開始のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を開始し、計測結果を用いて、使用者の走行能力(運動能力の一例)に関係する指標である各種の運動指標の値を計算し、使用者の走行運動の解析結果の情報として、各種の運動指標の値を含む運動解析情報を生成する。運動解析装置2は、生成した運動
解析情報を用いて、使用者の走行中に出力する情報(走行中出力情報)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行中出力情報を受信し、走行中出力情報に含まれる各種の運動指標の値を事前に設定された各基準値と比較し、主として音や振動により各運動指標の良し悪しを使用者に報知する。これにより、使用者は、各運動指標の良し悪しを認識しながら走行することができる。
When the motion analysis device 2 receives a measurement start command, the motion analysis device 2 starts measurement by the inertial measurement unit (IMU) 10 and is an index related to the user's running ability (an example of athletic ability) using the measurement result. Various motion index values are calculated, and motion analysis information including various motion index values is generated as information on the analysis results of the user's running motion. The motion analysis device 2 uses the generated motion analysis information to generate information to be output while the user is traveling (running output information), and transmits the information to the notification device 3. The notification device 3 receives the traveling output information from the motion analysis device 2, compares the values of various motion indices included in the traveling output information with each reference value set in advance, Inform the user of good or bad exercise index. Thereby, the user can travel while recognizing whether each exercise index is good or bad.

また、運動解析装置2は、計測終了のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を終了し、使用者の走行結果の情報(走行結果情報:走行距離、走行速度)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行結果情報を受信し、走行結果の情報を文字や画像として使用者に報知する。これにより、使用者は、走行終了後すぐに走行結果の情報を認識することができる。   In addition, when the motion analysis device 2 receives the measurement end command, the motion analysis device 2 ends the measurement by the inertial measurement unit (IMU) 10 and generates information on the travel result of the user (travel result information: travel distance, travel speed). To the notification device 3. The notification device 3 receives the travel result information from the motion analysis device 2 and notifies the user of the travel result information as characters or images. Thereby, the user can recognize the information of a driving result immediately after completion | finish of driving | running | working.

なお、運動解析装置2と報知装置3との間のデータ通信は、無線通信でもよいし、有線通信でもよい。   Note that data communication between the motion analysis device 2 and the notification device 3 may be wireless communication or wired communication.

また、図1に示すように、本実施形態では、運動解析システム1は、インターネットやLAN(Local Area Network)などのネットワークに接続されたサーバー5を含んで構成されている。情報分析装置4は、例えば、パーソナルコンピューターやスマートフォン等の情報機器であり、ネットワークを介してサーバー5とデータ通信が可能である。情報分析装置4は、運動解析装置2から使用者の過去の走行における運動解析情報を取得し、ネットワークを介してサーバー5に送信する。ただし、情報分析装置4とは異なる装置が運動解析装置2から運動解析情報を取得してサーバー5に送信してもよいし、運動解析装置2が運動解析情報をサーバー5に直接送信してもよい。サーバー5は、この運動解析情報を受信して記憶部(不図示)に構築されているデータベースに保存する。本実施形態では、複数の使用者が同一の又は異なる運動解析装置2を装着して走行を行い、各使用者の運動解析情報がサーバー5のデータベースに保存される。   As shown in FIG. 1, in this embodiment, the motion analysis system 1 includes a server 5 connected to a network such as the Internet or a LAN (Local Area Network). The information analysis device 4 is, for example, an information device such as a personal computer or a smartphone, and can perform data communication with the server 5 via a network. The information analysis device 4 acquires the motion analysis information of the user's past travel from the motion analysis device 2 and transmits it to the server 5 via the network. However, a device different from the information analysis device 4 may acquire the motion analysis information from the motion analysis device 2 and transmit it to the server 5, or the motion analysis device 2 may transmit the motion analysis information directly to the server 5. Good. The server 5 receives this motion analysis information and stores it in a database constructed in a storage unit (not shown). In the present embodiment, a plurality of users run while wearing the same or different motion analysis devices 2, and the motion analysis information of each user is stored in the database of the server 5.

情報分析装置4は、ネットワークを介してサーバー5のデータベースから複数の使用者の運動解析情報を取得して当該複数の使用者の走行能力を比較可能な分析情報を生成し、当該分析情報を表示部(図1では不図示)に表示させる。情報分析装置4の表示部に表示された分析情報から、特定の使用者の走行能力を他の使用者と比較して相対的に評価することや各運動指標の基準値を適切に設定することが可能になる。使用者が各運動指標の基準値を設定した場合、情報分析装置4は、各運動指標の基準値の設定情報を報知装置3に送信する。   The information analysis device 4 acquires movement analysis information of a plurality of users from the database of the server 5 via the network, generates analysis information that can compare the running ability of the plurality of users, and displays the analysis information Part (not shown in FIG. 1). From the analysis information displayed on the display unit of the information analyzer 4, to evaluate the specific user's running ability relative to other users and to set the reference value of each exercise index appropriately Is possible. When the user sets the reference value for each exercise index, the information analysis device 4 transmits the setting information for the reference value for each exercise index to the notification device 3.

運動解析システム1は、運動解析装置2と報知装置3と情報分析装置4とが別に設けられたり、運動解析装置2と報知装置3が一体で情報分析装置4が別に設けられたり、報知装置3と情報分析装置4が一体で運動解析装置2が別に設けられたり、運動解析装置2と情報分析装置4が一体で報知装置3が別に設けられたり、運動解析装置2と報知装置3と情報分析装置4が一体であってもよい。運動解析装置2と報知装置3と情報分析装置4はどのような組み合わせであってもよい。   In the motion analysis system 1, the motion analysis device 2, the notification device 3, and the information analysis device 4 are provided separately, the motion analysis device 2 and the notification device 3 are integrated and the information analysis device 4 is provided separately, or the notification device 3. And the information analysis device 4 are integrated and the motion analysis device 2 is provided separately, or the motion analysis device 2 and the information analysis device 4 are integrated and the notification device 3 is provided separately. The device 4 may be integrated. The motion analysis device 2, the notification device 3, and the information analysis device 4 may be in any combination.

1−2.座標系
以下の説明において必要となる座標系を定義する。
・eフレーム(Earth Centered Earth Fixed Frame):地球の中心を原点とし、自転軸に平行にz軸をとった右手系の三次元直交座標
・nフレーム(Navigation Frame):移動体(使用者)を原点とし、x軸を北、y軸を東、z軸を重力方向とした三次元直交座標系
・bフレーム(Body Frame):センサー(慣性計測ユニット(IMU)10)を基準とする三次元直交座標系
・mフレーム(Moving Frame):移動体(使用者)を原点とし、移動体(使用者)の進行方向をx軸とした右手系の三次元直交座標系
1-2. Coordinate system The coordinate system required in the following description is defined.
・ E-frame (Earth Centered Earth Fixed Frame): 3D Cartesian coordinates of right-handed system with the center of the earth as the origin and z-axis parallel to the rotation axis ・ n-frame (Navigation Frame): Mobile object (user) Three-dimensional Cartesian coordinate system with the origin as the north, x-axis as east, y-axis as east, and z-axis as gravitational direction ・ B frame (Body Frame): Three-dimensional orthogonal based on the sensor (Inertial Measurement Unit (IMU) 10) Coordinate system-m frame (Moving Frame): A right-handed three-dimensional orthogonal coordinate system with the moving body (user) as the origin and the moving direction of the moving body (user) as the x axis.

1−3.運動解析装置
1−3−1.運動解析装置の構成
図3は、運動解析装置2の構成例を示す機能ブロック図である。図3に示すように、運動解析装置2は、慣性計測ユニット(IMU)10、処理部20、記憶部30、通信部40、GPS(Global Positioning System)ユニット50及び地磁気センサー60を含んで構成されている。ただし、本実施形態の運動解析装置2は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
1-3. Motion analysis device 1-3-1. Configuration of Motion Analysis Device FIG. 3 is a functional block diagram illustrating a configuration example of the motion analysis device 2. As shown in FIG. 3, the motion analysis apparatus 2 includes an inertial measurement unit (IMU) 10, a processing unit 20, a storage unit 30, a communication unit 40, a GPS (Global Positioning System) unit 50, and a geomagnetic sensor 60. ing. However, the motion analysis apparatus 2 of the present embodiment may have a configuration in which some of these components are deleted or changed, or other components are added.

慣性計測ユニット10(慣性センサーの一例)は、加速度センサー12、角速度センサー14及び信号処理部16を含んで構成されている。   The inertial measurement unit 10 (an example of an inertial sensor) includes an acceleration sensor 12, an angular velocity sensor 14, and a signal processing unit 16.

加速度センサー12は、互いに交差する(理想的には直交する)3軸方向の各々の加速度を検出し、検出した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。   The acceleration sensor 12 detects each acceleration in the three-axis directions that intersect (ideally orthogonal) with each other, and outputs a digital signal (acceleration data) corresponding to the magnitude and direction of the detected three-axis acceleration.

角速度センサー14は、互いに交差する(理想的には直交する)3軸方向の各々の角速度を検出し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。   The angular velocity sensor 14 detects angular velocities in the three axial directions that intersect (ideally orthogonal) with each other, and outputs a digital signal (angular velocity data) corresponding to the magnitude and direction of the measured three axial angular velocities.

信号処理部16は、加速度センサー12及び角速度センサー14から、それぞれ加速度データと角速度データを受け取って時刻情報を付して不図示の記憶部に記憶し、記憶した加速度データ、角速度データ及び時刻情報を所定のフォーマットに合わせたセンシングデータを生成し、処理部20に出力する。   The signal processing unit 16 receives acceleration data and angular velocity data from the acceleration sensor 12 and the angular velocity sensor 14, respectively, attaches time information to the storage unit (not shown), and stores the stored acceleration data, angular velocity data, and time information. Sensing data matching a predetermined format is generated and output to the processing unit 20.

加速度センサー12及び角速度センサー14は、それぞれ3軸が、慣性計測ユニット10を基準とするセンサー座標系(bフレーム)の3軸と一致するように取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、信号処理部16は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをセンサー座標系(bフレーム)のデータに変換する処理を行う。なお、信号処理部16の代わりに後述する処理部20が当該変換処理を行ってもよい。   The acceleration sensor 12 and the angular velocity sensor 14 are ideally attached so that each of the three axes coincides with the three axes of the sensor coordinate system (b frame) with the inertial measurement unit 10 as a reference. Error occurs. Therefore, the signal processing unit 16 performs a process of converting the acceleration data and the angular velocity data into data of the sensor coordinate system (b frame) using a correction parameter calculated in advance according to the attachment angle error. Note that the processing unit 20 described later may perform the conversion process instead of the signal processing unit 16.

さらに、信号処理部16は、加速度センサー12及び角速度センサー14の温度補正処理を行ってもよい。なお、信号処理部16の代わりに後述する処理部20が当該温度補正処理を行ってもよいし、加速度センサー12及び角速度センサー14に温度補正の機能が組み込まれていてもよい。   Further, the signal processing unit 16 may perform temperature correction processing of the acceleration sensor 12 and the angular velocity sensor 14. Note that the processing unit 20 to be described later may perform the temperature correction processing instead of the signal processing unit 16, and the acceleration sensor 12 and the angular velocity sensor 14 may incorporate a temperature correction function.

加速度センサー12と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、信号処理部16が、加速度センサー12の出力信号と角速度センサー14の出力信号をそれぞれA/D変換してセンシングデータを生成すればよい。   The acceleration sensor 12 and the angular velocity sensor 14 may output analog signals. In this case, the signal processing unit 16 performs A / D conversion on the output signal of the acceleration sensor 12 and the output signal of the angular velocity sensor 14, respectively. Then, sensing data may be generated.

GPSユニット50(センサーの一例)は、測位用衛星の一種であるGPS衛星から送信されるGPS衛星信号を受信し、当該GPS衛星信号を利用して測位計算を行ってnフレームにおける使用者の位置及び速度(大きさと向きを含むベクトル)を算出し、これらに時刻情報や測位精度情報を付したGPSデータを処理部20に出力する。なお、GPSを利用して、位置や速度を算出する方法や時刻情報を生成する方法については公知であるため、詳細な説明を省略する。   The GPS unit 50 (an example of a sensor) receives a GPS satellite signal transmitted from a GPS satellite, which is a kind of positioning satellite, performs a positioning calculation using the GPS satellite signal, and positions the user in n frames. Then, the speed (vector including magnitude and direction) is calculated, and GPS data with time information and positioning accuracy information added thereto is output to the processing unit 20. In addition, since the method of calculating a position and speed and the method of generating time information using GPS are publicly known, detailed description is omitted.

地磁気センサー60(センサーの一例)は、互いに交差する(理想的には直交する)3軸方向の各々の地磁気を検出し、検出した3軸地磁気の大きさ及び向きに応じたデジタル信号(地磁気データ)を出力する。ただし、地磁気センサー60は、アナログ信号を出力するものであってもよく、この場合は、処理部20が、地磁気センサー60の出力信号をA/D変換して地磁気データを生成してもよい。   The geomagnetic sensor 60 (an example of a sensor) detects each geomagnetism in three axial directions intersecting each other (ideally orthogonal), and a digital signal (geomagnetic data) corresponding to the magnitude and direction of the detected triaxial geomagnetism. ) Is output. However, the geomagnetic sensor 60 may output an analog signal. In this case, the processing unit 20 may A / D convert the output signal of the geomagnetic sensor 60 to generate geomagnetic data.

通信部40は、報知装置3の通信部140(図22参照)や情報分析装置4の通信部440(図25参照)との間でデータ通信を行うものであり、報知装置3の通信部140から送信されたコマンド(計測開始/計測終了のコマンド等)を受信して処理部20に送る処理、処理部20が生成した走行中出力情報や走行結果情報を受け取って報知装置3の通信部140に送信する処理、情報分析装置4の通信部440から運動解析情報の送信要求コマンドを受信して処理部20に送り、当該運動解析情報を処理部20から受け取って情報分析装置4の通信部440に送信する処理等を行う。   The communication unit 40 performs data communication with the communication unit 140 (see FIG. 22) of the notification device 3 and the communication unit 440 (see FIG. 25) of the information analysis device 4, and the communication unit 140 of the notification device 3. A process of receiving a command (measurement start / measurement end command, etc.) transmitted from, and sending it to the processing unit 20, receiving the running output information and travel result information generated by the processing unit 20, and receiving the communication unit 140 of the notification device 3. , A motion analysis information transmission request command is received from the communication unit 440 of the information analysis device 4 and sent to the processing unit 20, and the motion analysis information is received from the processing unit 20 to communicate with the communication unit 440 of the information analysis device 4. Process to send to.

処理部20は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等により構成され、記憶部30(記録媒体)に記憶されている各種プログラムに従って、各種の演算処理や制御処理を行う。特に、処理部20は、通信部40を介して報知装置3から計測開始のコマンドを受け取ると、計測終了のコマンドを受け取るまで、慣性計測ユニット10、GPSユニット50及び地磁気センサー60からそれぞれセンシングデータ、GPSデータ及び地磁気データを受け取り、これらのデータを用いて使用者の速度や位置、胴体の姿勢角等を算出する。また、処理部20は、算出したこれらの情報を用いて各種の演算処理を行って使用者の運動を解析して後述する各種の運動解析情報を生成し、記憶部30に記憶させる。また、処理部20は、生成した運動解析情報を用いて走行中出力情報や走行結果情報を生成し、通信部40に送る処理を行う。   The processing unit 20 is configured by, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), and the like, and according to various programs stored in the storage unit 30 (recording medium). Performs arithmetic processing and control processing. In particular, when receiving a measurement start command from the notification device 3 via the communication unit 40, the processing unit 20 senses sensing data from the inertial measurement unit 10, the GPS unit 50, and the geomagnetic sensor 60, respectively, until a measurement end command is received. The GPS data and the geomagnetic data are received, and the speed and position of the user, the posture angle of the trunk, etc. are calculated using these data. In addition, the processing unit 20 performs various arithmetic processes using the calculated information, analyzes the user's motion, generates various motion analysis information described later, and stores the information in the storage unit 30. In addition, the processing unit 20 performs processing to generate output information and traveling result information during traveling using the generated motion analysis information and send it to the communication unit 40.

また、処理部20は、通信部40を介して情報分析装置4から運動解析情報の送信要求コマンド受け取ると、送信要求コマンドで指定された運動解析情報を記憶部30から読み出して通信部40に情報分析装置4の通信部440に送る処理を行う。   In addition, when the processing unit 20 receives the motion analysis information transmission request command from the information analysis device 4 via the communication unit 40, the processing unit 20 reads the motion analysis information specified by the transmission request command from the storage unit 30 and transmits the information to the communication unit 40. Processing to send to the communication unit 440 of the analyzer 4 is performed.

記憶部30は、例えば、ROM(Read Only Memory)やフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部20の作業領域となるRAM(Random Access Memory)等により構成される。記憶部30(いずれかの記録媒体)には、処理部20によって読み出され、運動解析処理(図17参照)を実行するための運動解析プログラム300が記憶されている。運動解析プログラム300は、慣性航法演算処理(図18参照)を実行するための慣性航法演算プログラム302、運動解析情報生成処理(図21参照)を実行するための運動解析情報生成プログラム304をサブルーチンとして含む。   The storage unit 30 includes, for example, a ROM (Read Only Memory), a flash ROM, a recording medium that stores programs and data such as a hard disk and a memory card, and a RAM (Random Access Memory) that is a work area of the processing unit 20. Is done. The storage unit 30 (any recording medium) stores a motion analysis program 300 that is read by the processing unit 20 and executes a motion analysis process (see FIG. 17). The motion analysis program 300 includes an inertial navigation calculation program 302 for executing inertial navigation calculation processing (see FIG. 18) and a motion analysis information generation program 304 for executing motion analysis information generation processing (see FIG. 21) as subroutines. Including.

また、記憶部30には、センシングデータテーブル310、GPSデータテーブル320、地磁気データテーブル330、算出データテーブル340及び運動解析情報350等が記憶される。   The storage unit 30 also stores a sensing data table 310, a GPS data table 320, a geomagnetic data table 330, a calculation data table 340, motion analysis information 350, and the like.

センシングデータテーブル310は、処理部20が慣性計測ユニット10から受け取ったセンシングデータ(慣性計測ユニット10の検出結果)を時系列に記憶するデータテーブルである。図4は、センシングデータテーブル310の構成例を示す図である。図4に示すように、センシングデータテーブル310は、慣性計測ユニット10の検出時刻311、加速度センサー12により検出された加速度312及び角速度センサー14により検出された角速度313が対応付けられたセンシングデータが時系列に並べられて構成される。処理部20は、計測を開始すると、サンプリング周期Δt(例えば、20ms又は1
0ms)の経過毎に、センシングデータテーブル310に新たなセンシングデータを付加する。さらに、処理部20は、拡張カルマンフィルターを用いた誤差推定(後述)により推定された加速度バイアス及び角速度バイアスを用いて加速度及び角速度を補正し、補正後の加速度及び角速度を上書きしてセンシングデータテーブル310を更新する。
The sensing data table 310 is a data table that stores sensing data (detection results of the inertial measurement unit 10) received by the processing unit 20 from the inertial measurement unit 10 in time series. FIG. 4 is a diagram illustrating a configuration example of the sensing data table 310. As shown in FIG. 4, the sensing data table 310 includes the sensing data associated with the detection time 311 of the inertial measurement unit 10, the acceleration 312 detected by the acceleration sensor 12, and the angular velocity 313 detected by the angular velocity sensor 14. It is arranged in series. When the processing unit 20 starts the measurement, the sampling unit Δt (for example, 20 ms or 1
0 ms), new sensing data is added to the sensing data table 310. Further, the processing unit 20 corrects the acceleration and the angular velocity using the acceleration bias and the angular velocity bias estimated by the error estimation using the extended Kalman filter (described later), and overwrites the corrected acceleration and the angular velocity, thereby sensing data table. 310 is updated.

GPSデータテーブル320は、処理部20がGPSユニット50から受け取ったGPSデータ(GPSユニット(GPSセンサー)50の検出結果)を時系列に記憶するデータテーブルである。図5は、GPSデータテーブル320の構成例を示す図である。図5に示すように、GPSデータテーブル320は、GPSユニット50が測位計算を行った時刻321、測位計算により算出した位置322、測位計算により算出した速度323、測位精度(DOP(Dilution of Precision))324、受信したGPS衛星信号の信号強度325等が対応付けられたGPSデータが時系列に並べられて構成される。処理部20は、計測を開始すると、GPSデータを取得する毎に(例えば1秒毎に、センシングデータの取得タイミングとは非同期に)、新たなGPSデータを付加してGPSデータテーブル320を更新する。   The GPS data table 320 is a data table that stores the GPS data (the detection result of the GPS unit (GPS sensor) 50) received by the processing unit 20 from the GPS unit 50 in time series. FIG. 5 is a diagram illustrating a configuration example of the GPS data table 320. As shown in FIG. 5, the GPS data table 320 includes a time 321 when the GPS unit 50 performs a positioning calculation, a position 322 calculated by the positioning calculation, a speed 323 calculated by the positioning calculation, and a positioning accuracy (DOP (Dilution of Precision). 324, GPS data associated with the signal strength 325 of the received GPS satellite signal is arranged in time series. When measurement is started, the processing unit 20 adds new GPS data and updates the GPS data table 320 every time GPS data is acquired (for example, every second, asynchronously with sensing data acquisition timing). .

地磁気データテーブル330は、処理部20が地磁気センサー60から受け取った地磁気データ(地磁気センサー60の検出結果)を時系列に記憶するデータテーブルである。図6は、地磁気データテーブル330の構成例を示す図である。図6に示すように、地磁気データテーブル330は、地磁気センサー60の検出時刻331と地磁気センサー60により検出された地磁気332とが対応付けられた地磁気データが時系列に並べられて構成される。処理部20は、計測を開始すると、サンプリング周期Δt(例えば、10ms)の経過毎に、地磁気データテーブル330に新たな地磁気データを付加する。   The geomagnetic data table 330 is a data table that stores the geomagnetic data (detection results of the geomagnetic sensor 60) received by the processing unit 20 from the geomagnetic sensor 60 in time series. FIG. 6 is a diagram illustrating a configuration example of the geomagnetic data table 330. As shown in FIG. 6, the geomagnetic data table 330 is configured by arranging time-series geomagnetic data in which the detection time 331 of the geomagnetic sensor 60 and the geomagnetism 332 detected by the geomagnetic sensor 60 are associated with each other. When the measurement is started, the processing unit 20 adds new geomagnetic data to the geomagnetic data table 330 every time a sampling period Δt (for example, 10 ms) elapses.

算出データテーブル340は、処理部20がセンシングデータを用いて算出した速度、位置及び姿勢角を時系列に記憶するデータテーブルである。図7は、算出データテーブル340の構成例を示す図である。図7に示すように、算出データテーブル340は、処理部20が計算した時刻341、速度342、位置343及び姿勢角344が対応付けられた算出データが時系列に並べられて構成される。処理部20は、計測を開始すると、新たにセンシングデータを取得する毎に、すなわち、サンプリング周期Δtの経過毎に、速度、位置及び姿勢角を算出し、算出データテーブル340に新たな算出データを付加する。さらに、処理部20は、拡張カルマンフィルターを用いた誤差推定により推定された速度誤差、位置誤差及び姿勢角誤差を用いて、速度、位置及び姿勢角を補正し、補正後の速度、位置及び姿勢角を上書きして算出データテーブル340を更新する。   The calculated data table 340 is a data table that stores the speed, position, and attitude angle calculated by the processing unit 20 using the sensing data in time series. FIG. 7 is a diagram illustrating a configuration example of the calculation data table 340. As illustrated in FIG. 7, the calculation data table 340 is configured by calculating data in which time 341, speed 342, position 343, and attitude angle 344 calculated by the processing unit 20 are associated in time series. When the measurement is started, the processing unit 20 calculates the speed, position, and orientation angle every time sensing data is acquired, that is, every time the sampling period Δt elapses, and new calculation data is stored in the calculation data table 340. Append. Further, the processing unit 20 corrects the speed, the position, and the attitude angle using the speed error, the position error, and the attitude angle error estimated by the error estimation using the extended Kalman filter, and the corrected speed, position, and attitude are corrected. The calculated data table 340 is updated by overwriting the corner.

運動解析情報350は、使用者の運動に関する各種情報であり、処理部20が生成した、入力情報351の各項目、基本情報352の各項目、第1解析情報353の各項目、第2解析情報354の各項目、左右差率355の各項目等を含む。これら各種の情報の詳細については後述する。   The exercise analysis information 350 is various information regarding the user's exercise, and each item of the input information 351, each item of the basic information 352, each item of the first analysis information 353, and second analysis information generated by the processing unit 20. Each item of 354, each item of left-right difference rate 355, etc. are included. Details of these various types of information will be described later.

1−3−2.処理部の機能構成
図8は、運動解析装置2の処理部20の構成例を示す機能ブロック図である。本実施形態では、処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、慣性航法演算部22及び運動解析部24として機能する。ただし、処理部20は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている運動解析プログラム300を受信して実行してもよい。
1-3-2. Functional Configuration of Processing Unit FIG. 8 is a functional block diagram illustrating a configuration example of the processing unit 20 of the motion analysis apparatus 2. In the present embodiment, the processing unit 20 functions as the inertial navigation calculation unit 22 and the motion analysis unit 24 by executing the motion analysis program 300 stored in the storage unit 30. However, the processing unit 20 may receive and execute the motion analysis program 300 stored in an arbitrary storage device (recording medium) via a network or the like.

慣性航法演算部22は、センシングデータ(慣性計測ユニット10の検出結果)、GPSデータ(GPSユニット50の検出結果)及び地磁気データ(地磁気センサー60の検出結果)を用いて、慣性航法演算を行い、加速度、角速度、速度、位置、姿勢角、距離、
ストライド及び走行ピッチを算出し、これらの算出結果を含む演算データを出力する。慣性航法演算部22が出力する演算データは時刻順に記憶部30に記憶される。慣性航法演算部22の詳細については後述する。
The inertial navigation calculation unit 22 performs inertial navigation calculation using sensing data (detection result of the inertial measurement unit 10), GPS data (detection result of the GPS unit 50), and geomagnetic data (detection result of the geomagnetic sensor 60), Acceleration, angular velocity, speed, position, posture angle, distance,
The stride and the running pitch are calculated, and calculation data including these calculation results is output. The calculation data output from the inertial navigation calculation unit 22 is stored in the storage unit 30 in order of time. Details of the inertial navigation calculation unit 22 will be described later.

運動解析部24は、慣性航法演算部22が出力する演算データ(記憶部30に記憶されている演算データ)を用いて、使用者の走行中の運動を解析し、解析結果の情報である運動解析情報(後述する、入力情報、基本情報、第1解析情報、第2解析情報、左右差率等)を生成する。運動解析部24が生成した運動解析情報は、使用者の走行中に、時刻順に記憶部30に記憶される。   The motion analysis unit 24 analyzes the motion of the user while running using the computation data output from the inertial navigation computation unit 22 (calculation data stored in the storage unit 30), and the motion that is the analysis result information Analysis information (to be described later, input information, basic information, first analysis information, second analysis information, right / left difference ratio, etc.) is generated. The motion analysis information generated by the motion analysis unit 24 is stored in the storage unit 30 in time order while the user is traveling.

また、運動解析部24は、生成した運動解析情報を用いて、使用者の走行中(具体的には慣性計測ユニット10が計測を開始してから終了するまでの間)に出力する情報である走行中出力情報を生成する。運動解析部24が生成した走行中出力情報は、通信部40を介して報知装置3に送信される。   In addition, the motion analysis unit 24 is information that is output while the user is traveling (specifically, from when the inertial measurement unit 10 starts measurement to when it ends) using the generated motion analysis information. Generate travel output information. The traveling output information generated by the motion analysis unit 24 is transmitted to the notification device 3 via the communication unit 40.

また、運動解析部24は、走行中に生成した運動解析情報を用いて、使用者の走行終了時(具体的には慣性計測ユニット10の計測終了時)に、走行結果の情報である走行結果情報を生成する。運動解析部24が生成した走行結果情報は、通信部40を介して報知装置3に送信される。   In addition, the motion analysis unit 24 uses the motion analysis information generated during the travel, and the travel result that is the travel result information at the end of the travel of the user (specifically, at the end of the measurement of the inertial measurement unit 10). Generate information. The travel result information generated by the motion analysis unit 24 is transmitted to the notification device 3 via the communication unit 40.

1−3−3.慣性航法演算部の機能構成
図9は、慣性航法演算部22の構成例を示す機能ブロック図である。本実施形態では、慣性航法演算部22は、バイアス除去部210、積分処理部220、誤差推定部230、走行処理部240及び座標変換部250を含む。ただし、本実施形態の慣性航法演算部22は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
1-3-3. Functional Configuration of Inertial Navigation Calculation Unit FIG. 9 is a functional block diagram illustrating a configuration example of the inertial navigation calculation unit 22. In the present embodiment, the inertial navigation calculation unit 22 includes a bias removal unit 210, an integration processing unit 220, an error estimation unit 230, a travel processing unit 240, and a coordinate conversion unit 250. However, the inertial navigation calculation unit 22 of the present embodiment may have a configuration in which some of these components are deleted or changed, or other components are added.

バイアス除去部210は、新たに取得したセンシングデータに含まれる3軸加速度及び3軸角速度から、それぞれ、誤差推定部230が推定した加速度バイアスb及び角速度バイアスbωを減算し、3軸加速度及び3軸角速度を補正する処理を行う。なお、計測開始直後の初期状態では加速度バイアスb及び角速度バイアスbωの推定値が存在しないため、バイアス除去部210は、使用者の初期状態は静止状態であるものとして、慣性計測ユニットからのセンシングデータを用いて、初期バイアスを計算する。 Bias removal unit 210, the three-axis acceleration and 3 axis angular velocity contained in the newly acquired sensor data, respectively, by subtracting the acceleration bias b a and angular velocity bias b omega error estimation unit 230 estimates, the three-axis acceleration and A process of correcting the triaxial angular velocity is performed. Since the in the initial state immediately after the start of measurement no estimated value of the acceleration bias b a and angular velocity bias b omega, bias removal unit 210, as the initial state of the user is at rest, from the inertial measurement unit The initial bias is calculated using the sensing data.

積分処理部220は、バイアス除去部210が補正した加速度及び角速度からeフレームの速度v、位置p及び姿勢角(ロール角φbe、ピッチ角θbe、ヨー角ψbe)を算出する処理を行う。具体的には、積分処理部220は、まず、使用者の初期状態は静止状態であるものとして、初期速度をゼロとし、あるいは、GPSデータに含まれる速度から初期速度を算出し、さらに、GPSデータに含まれる位置から初期位置を算出する。また、積分処理部220は、バイアス除去部210が補正したbフレームの3軸加速度から重力加速度の向きを特定してロール角φbeとピッチ角θbeの初期値を算出するとともに、GPSデータに含まれる速度からヨー角ψbeの初期値を算出し、eフレームの初期姿勢角とする。GPSデータが得られない場合はヨー角ψbeの初期値を例えばゼロとする。そして、積分処理部220は、算出した初期姿勢角から式(1)で表されるbフレームからeフレームへの座標変換行列(回転行列)C の初期値を算出する。 Integration processing unit 220, the processing bias removal unit 210 calculates the speed v e of e frame from the acceleration corrected and the angular velocity, the position p e and orientation angle (roll angle phi BE, pitch angle theta BE, yaw angle [psi BE) and I do. Specifically, the integration processing unit 220 first assumes that the initial state of the user is a stationary state, sets the initial speed to zero, or calculates the initial speed from the speed included in the GPS data. The initial position is calculated from the position included in the data. Further, the integration processing unit 220 calculates the initial values of the roll angle φ be and the pitch angle θ be by specifying the direction of the gravitational acceleration from the triaxial acceleration of the b frame corrected by the bias removal unit 210, and converts the initial value of the GPS into the GPS data. The initial value of the yaw angle ψ be is calculated from the included velocity, and is set as the initial posture angle of the e frame. When GPS data cannot be obtained, the initial value of the yaw angle ψ be is set to zero, for example. Then, the integration processing unit 220 calculates an initial value of a coordinate transformation matrix (rotation matrix) C b e from the b frame to the e frame represented by Expression (1) from the calculated initial attitude angle.

その後は、積分処理部220は、バイアス除去部210が補正した3軸角速度を積算(回転演算)して座標変換行列C を算出し、式(2)より姿勢角を算出する。 Then, the integration processing section 220, the integrated three-axis angular velocity bias removal unit 210 is corrected (rotation operation) and to calculate the coordinate transformation matrix C b e, calculates the posture angle from the equation (2).

また、積分処理部220は、座標変換行列C を用いて、バイアス除去部210が補正したbフレームの3軸加速度をeフレームの3軸加速度に変換し、重力加速度成分を除去して積算することでeフレームの速度vを算出する。また、積分処理部220は、eフレームの速度vを積算してeフレームの位置pを算出する。 Further, the integration processing unit 220 uses the coordinate transformation matrix C b e, the 3-axis acceleration of b frames bias removal unit 210 is corrected by converting the 3-axis acceleration of the e frame, integrated to remove the gravitational acceleration component calculate the velocity v e of e frame by. Further, the integration processing unit 220 calculates the position p e of the e frame by integrating the speed v e of the e frame.

また、積分処理部220は、誤差推定部230が推定した速度誤差δv、位置誤差δp及び姿勢角誤差εを用いて、速度v、位置p及び姿勢角を補正する処理及び補正した速度vを積分して距離を計算する処理も行う。 Further, the integration processing section 220, speed error error estimator 230 estimates .delta.v e, using the position error .delta.p e and attitude angle error epsilon e velocity v e, processing and correction to correct the position p e and orientation angle processing is also performed for calculating was velocity v distance by integrating the e was.

さらに、積分処理部220は、bフレームからmフレームへの座標変換行列C 、eフレームからmフレームへの座標変換行列C 及びeフレームからnフレームへの座標変換行列C も算出する。これらの座標変換行列は座標変換情報として後述する座標変換部250の座標変換処理に用いられる。 Furthermore, the integration processing section 220, a coordinate transformation matrix C b m to m frames from b-frame, the coordinate transformation matrix C e n from the coordinate transformation matrix C e m and e frames to m frames from e frame to n-frame calculate. These coordinate transformation matrices are used as coordinate transformation information for coordinate transformation processing of the coordinate transformation unit 250 described later.

誤差推定部230は、積分処理部220が算出した速度・位置、姿勢角、バイアス除去部210が補正した加速度や角速度、GPSデータ、地磁気データ等を用いて、使用者の状態を表す指標の誤差を推定する。本実施形態では、誤差推定部230は、拡張カルマンフィルターを用いて、速度、姿勢角、加速度、角速度及び位置の誤差を推定する。すなわち、誤差推定部230は、積分処理部220が算出した速度vの誤差(速度誤差)δv、積分処理部220が算出した姿勢角の誤差(姿勢角誤差)ε、加速度バイアスb、角速度バイアスbω及び積分処理部220が算出した位置pの誤差(位置誤差)δpを拡張カルマンフィルターの状態変数とし、状態ベクトルXを式(3)のように定義する。 The error estimation unit 230 uses the speed / position, posture angle calculated by the integration processing unit 220, acceleration and angular velocity corrected by the bias removal unit 210, GPS data, geomagnetic data, etc. Is estimated. In the present embodiment, the error estimation unit 230 estimates errors in velocity, posture angle, acceleration, angular velocity, and position using an extended Kalman filter. That is, the error estimator 230, the error (velocity error) .delta.v e of the velocity v e of the integration processing unit 220 is calculated, an error of the posture angle integration processing unit 220 is calculated (posture angle error) epsilon e, acceleration bias b a the angular velocity bias b omega and integration processing unit 220 is an error of the position p e calculated (position error) .delta.p e and extended Kalman filter state variables defining the state vector X as in equation (3).

誤差推定部230は、拡張カルマンフィルターの予測式を用いて、状態ベクトルXに含まれる状態変数を予測する。拡張カルマンフィルターの予測式は、式(4)のように表される。式(4)において、行列Φは、前回の状態ベクトルXと今回の状態ベクトルXを関連付ける行列であり、その要素の一部は姿勢角や位置等を反映しながら時々刻々変化するように設計される。また、Qはプロセスノイズを表す行列であり、その各要素はあらかじめ適切な値に設定される。また、Pは状態変数の誤差共分散行列である。   The error estimation unit 230 predicts a state variable included in the state vector X using a prediction formula of an extended Kalman filter. The prediction formula of the extended Kalman filter is expressed as in Equation (4). In Equation (4), the matrix Φ is a matrix that associates the previous state vector X with the current state vector X, and some of the elements are designed to change from moment to moment while reflecting the posture angle, position, and the like. The Q is a matrix representing process noise, and each element thereof is set to an appropriate value in advance. P is an error covariance matrix of state variables.

また、誤差推定部230は、拡張カルマンフィルターの更新式を用いて、予測した状態変数を更新(補正)する。拡張カルマンフィルターの更新式は、式(5)のように表される。Z及びHはそれぞれ観測ベクトル及び観測行列であり、更新式(5)は、実際の観測ベクトルZと状態ベクトルXから予測されるベクトルHXとの差を用いて、状態ベクトルXを補正することを表している。Rは、観測誤差の共分散行列であり、あらかじめ決められた一定値であってもよいし、動的に変更してもよい。Kはカルマンゲインであり、Rが小さいほどKが大きくなる。式(5)より、Kが大きい(Rが小さい)ほど、状態ベクトルXの補正量が大きくなり、その分、Pが小さくなる。   Further, the error estimation unit 230 updates (corrects) the predicted state variable using the extended Kalman filter update formula. The extended Kalman filter update formula is expressed as shown in Formula (5). Z and H are an observation vector and an observation matrix, respectively, and the update equation (5) uses the difference between the actual observation vector Z and the vector HX predicted from the state vector X to correct the state vector X. Represents. R is an observation error covariance matrix, which may be a predetermined constant value or may be dynamically changed. K is a Kalman gain, and the smaller R is, the larger K is. From equation (5), the larger the K (the smaller R), the larger the amount of correction of the state vector X, and the smaller P.

誤差推定の方法(状態ベクトルXの推定方法)としては、例えば、以下のようなものが挙げられる。   Examples of error estimation methods (state vector X estimation methods) include the following.

姿勢角誤差に基づく補正による誤差推定方法:
図10は、運動解析装置2を右腰に装着した使用者が走行動作(直進)をする場合の使用者の移動を俯瞰した図である。また、図11は、使用者が走行動作(直進)をする場合に慣性計測ユニット10の検出結果から算出したヨー角(方位角)の一例を示す図であり、横軸は時間、縦軸はヨー角(方位角)である。
Error estimation method by correction based on attitude angle error:
FIG. 10 is an overhead view of the movement of the user when the user wearing the motion analysis device 2 on the right waist performs a running operation (straight forward). FIG. 11 is a diagram illustrating an example of the yaw angle (azimuth angle) calculated from the detection result of the inertial measurement unit 10 when the user performs a traveling operation (straight forward), where the horizontal axis represents time and the vertical axis represents The yaw angle (azimuth angle).

使用者の走行動作に伴い、使用者に対する慣性計測ユニット10の姿勢が随時変化する。使用者が左足を踏み出した状態では、図10中の(1)や(3)に示すように、慣性計測ユニット10は進行方向(mフレームのx軸)に対して左側に傾いた姿勢となる。それに対して、使用者が右足を踏み出した状態では、図10中の(2)や(4)に示すように、慣性計測ユニット10は進行方向(mフレームのx軸)に対して右側に傾いた姿勢となる。つまり、慣性計測ユニット10の姿勢は、使用者の走行動作に伴い、左右1歩ずつの2歩毎に周期的に変化することになる。図11では、例えば、右足を踏み出した状態でヨー角が極大となり(図11中の○)、左足を踏み出した状態でヨー角が極小となっている(図11中の●)。そこで、前回(2歩前)の姿勢角と今回の姿勢角は等しく、かつ、前回の姿勢角は真の姿勢であるものとして誤差を推定することができる。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、姿勢角誤差εと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。 As the user moves, the attitude of the inertial measurement unit 10 with respect to the user changes at any time. When the user steps on the left foot, the inertial measurement unit 10 is inclined to the left with respect to the traveling direction (the x axis of the m frame) as shown in (1) and (3) in FIG. . On the other hand, when the user steps on the right foot, the inertial measurement unit 10 tilts to the right with respect to the traveling direction (the x axis of the m frame) as shown in (2) and (4) in FIG. It becomes a posture. That is, the posture of the inertial measurement unit 10 periodically changes every two steps, one step left and right, with the user's running operation. In FIG. 11, for example, the yaw angle is maximized when the right foot is stepped on (◯ in FIG. 11), and the yaw angle is minimized when the left foot is stepped on (● in FIG. 11). Therefore, the error can be estimated assuming that the previous posture angle (two steps before) and the current posture angle are equal and the previous posture angle is a true posture. In this method, the observation vector Z in Equation (5) is the difference between the previous posture angle calculated by the integration processing unit 220 and the current posture angle, and the posture angle error ε e and the observed value are obtained by the update equation (5). The state vector X is corrected based on the difference between and the error is estimated.

角速度バイアスに基づく補正による誤差推定方法:
前回(2歩前)の姿勢角と今回の姿勢角は等しいが、前回の姿勢角は真の姿勢である必要はないものとして誤差を推定する方法である。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角及び今回の姿勢角から算出される角速度バイアスであり、更新式(5)により、角速度バイアスbωと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
Error estimation method by correction based on angular velocity bias:
This is a method of estimating an error on the assumption that the previous posture angle (two steps before) and the current posture angle are equal, but the previous posture angle does not have to be a true posture. In this way, an observation vector Z is the angular velocity bias integration processing unit 220 is calculated from the previous posture angle and the current attitude angles calculation of equation (5), the update equation (5), the angular velocity bias b omega The state vector X is corrected based on the difference from the observed value, and the error is estimated.

方位角誤差に基づく補正による誤差推定方法:
前回(2歩前)のヨー角(方位角)と今回のヨー角(方位角)は等しく、かつ、前回のヨー角(方位角)は真のヨー角(方位角)であるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した前回のヨー角と今回のヨー角の差であり、更新式(5)により、方位角誤差ε と観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
Error estimation method by correction based on azimuth error:
The previous yaw angle (azimuth angle) and the current yaw angle (azimuth angle) are the same, and the previous yaw angle (azimuth angle) is the true yaw angle (azimuth angle). This is an estimation method. In this method, the observed vector Z is the difference between the previous yaw angle calculated by the integration processing unit 220 and the current yaw angle, and is based on the difference between the azimuth error ε z e and the observed value by the update equation (5). The state vector X is corrected to estimate the error.

停止に基づく補正による誤差推定方法:
停止時は速度がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度vとゼロとの差であり、更新式(5)により、速度誤差δvに基づいて状態ベクトルXを補正し、誤差を推定する。
Error estimation method by correction based on stop:
This is a method of estimating the error on the assumption that the speed is zero at the time of stopping. In this method, the observation vector Z is the difference between the speed v e and zero integration processing unit 220 is calculated, the update equation (5), corrects the state vector X on the basis of the speed error .delta.v e, estimating the error To do.

静止に基づく補正による誤差推定方法:
静止時は速度がゼロであり、かつ、姿勢変化がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度vの誤差及び積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、速度誤差δv及び姿勢角誤差εに基づいて状態ベクトルXを補正し、誤差を推定する。
Error estimation method by correction based on stillness:
This is a method of estimating the error on the assumption that the speed is zero and the posture change is zero at the time of stationary. In this method, the observation vector Z is the difference between the previous attitude angle and the current posture angle error and the integration processing unit 220 calculates the velocity v e of the integration processing unit 220 is calculated, the update equation (5), correcting the state vector X on the basis of the speed error .delta.v e and attitude angle error epsilon e, estimating the error.

GPSの観測値に基づく補正による誤差推定方法:
積分処理部220が算出した速度v、位置pあるいはヨー角ψbeとGPSデータから算出される速度、位置あるいは方位角(eフレームに変換後の速度、位置、方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度、位置あるいはヨー角とGPSデータから算出される速度、位置速度あるいは方位角との差であり、更新式(5)により、速度誤差δv、位置誤差δpあるいは方位角誤差ε と観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
Error estimation method by correction based on GPS observations:
It is assumed that the speed v e , the position p e or the yaw angle ψ be calculated by the integration processing unit 220 and the speed, position or azimuth calculated from the GPS data (speed, position and azimuth converted to e frame) are equal. This is a method for estimating the error. In this method, the observation vector Z is the difference between the speed, position or yaw angle calculated by the integration processing unit 220 and the speed, position speed or azimuth calculated from the GPS data. .delta.v e, corrects the state vector X on the basis of the difference between the observed value and the position error .delta.p e or azimuth error epsilon z e, estimating the error.

地磁気センサーの観測値に基づく補正による誤差推定方法:
積分処理部220が算出したヨー角ψbeと地磁気センサー60から算出される方位角(eフレームに変換後の方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出したヨー角と地磁気データから算出される方位角との差であり、更新式(5)により、方位角誤差ε と観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
Error estimation method by correction based on observation values of geomagnetic sensor:
This is a method for estimating an error on the assumption that the yaw angle ψ be calculated by the integration processing unit 220 is equal to the azimuth angle calculated from the geomagnetic sensor 60 (azimuth angle after being converted into the e frame). In this method, the observation vector Z is a difference between the yaw angle calculated by the integration processing unit 220 and the azimuth angle calculated from the geomagnetic data, and the azimuth error ε z e and the observed value are calculated by the update equation (5). The state vector X is corrected based on the difference, and the error is estimated.

図9に戻り、走行処理部240は、演算部241、歩幅算出部245及びピッチ算出部246を含む。演算部241は、取得部242、左右判定部243及び走行検出部244を含む。   Returning to FIG. 9, the travel processing unit 240 includes a calculation unit 241, a stride calculation unit 245, and a pitch calculation unit 246. The calculation unit 241 includes an acquisition unit 242, a left / right determination unit 243, and a travel detection unit 244.

取得部242は、使用者に取り付けられ、使用者の運動に関する情報を検出するセンサー(例えば、慣性計測ユニット10)から検出結果を取得する。図9に示される例では、取得部242は、バイアス除去部210を介してセンシングデータを取得する。   The acquisition unit 242 acquires the detection result from a sensor (for example, the inertial measurement unit 10) that is attached to the user and detects information related to the user's movement. In the example illustrated in FIG. 9, the acquisition unit 242 acquires sensing data via the bias removal unit 210.

左右判定部243は、取得部242が取得した検出結果(図9に示される例ではセンシングデータ)に基づいて、右足接地期間を含む第1期間と、左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う。   Based on the detection result (sensing data in the example shown in FIG. 9) acquired by the acquisition unit 242, the left / right determination unit 243 selects any one of the first period including the right foot contact period and the second period including the left foot contact period. The determination process which determines whether it is a period is performed.

図12は、第1期間及び第2期間を説明するための図である。図12の横軸は時間である。   FIG. 12 is a diagram for explaining the first period and the second period. The horizontal axis of FIG. 12 is time.

右足接地期間は、右足が着地するタイミングから右足が離地するタイミングまでの期間である。左足接地期間は、左足が着地するタイミングから左足が離地するタイミングまでの期間である。第1期間は右足接地期間を1つ含む期間である。また、第1期間は左足接地期間を含まない期間である。第2期間は左足接地期間を1つ含む期間である。また、第2期間は右足接地期間を含まない期間である。   The right foot contact period is a period from the timing when the right foot lands to the timing when the right foot leaves. The left foot contact period is a period from the timing when the left foot lands to the timing when the left foot leaves. The first period is a period including one right foot contact period. The first period is a period that does not include the left foot contact period. The second period is a period including one left foot contact period. The second period is a period not including the right foot contact period.

図13は、ヨー方向の角速度を示すグラフである。図13の横軸は時間、縦軸はヨー方向の角速度である。図13において、角速度が正値である場合は右回転を表し、角速度が負値である場合は左回転を表す。   FIG. 13 is a graph showing the angular velocity in the yaw direction. In FIG. 13, the horizontal axis represents time, and the vertical axis represents the angular velocity in the yaw direction. In FIG. 13, when the angular velocity is a positive value, it represents a right rotation, and when the angular velocity is a negative value, it represents a left rotation.

図10に示したように、使用者の頭上から見て、慣性計測ユニット10は、使用者が左足を踏み出した状態(図10中の(1)や(3)の状態)から右足を踏み出した状態(図10中の(2)や(4)の状態)に至るまでに時計まわりに回転し、逆に、右足を踏み出した状態から左足を踏み出した状態に至るまでに反時計まわりに回転する。したがって、左右判定部243は、z軸角速度(ヨー方向の角速度)の極性から左右いずれの走行周期かを判定することができる。また、使用者のヨー方向の角度に基づいても左右いずれの走行周期かを判定することができる。なお、慣性計測ユニット10が検出する3軸角速度には高周波のノイズ成分が含まれるため、左右判定部243は、ローパスフィルターを通過させてノイズが除去されたz軸角速度を用いて左右いずれの走行周期かを判定してもよい。また例えば、左右判定部243は、z軸角速度の絶対値が基準値以上である場合に、判定処理を行ってもよい。基準値は、例えば、60度/秒程度としてもよい。   As shown in FIG. 10, when viewed from the user's overhead, the inertial measurement unit 10 steps out the right foot from the state where the user steps out the left foot (the state (1) or (3) in FIG. 10). Rotate clockwise until reaching the state (states (2) and (4) in FIG. 10), and conversely, rotate counterclockwise from the state of stepping on the right foot to the state of stepping on the left foot. . Therefore, the left / right determination unit 243 can determine the left / right travel cycle from the polarity of the z-axis angular velocity (the angular velocity in the yaw direction). Further, it is possible to determine the left or right traveling cycle based on the angle in the yaw direction of the user. Since the triaxial angular velocity detected by the inertial measurement unit 10 includes a high-frequency noise component, the left / right determination unit 243 uses the z-axis angular velocity from which noise has been removed by passing through a low-pass filter to travel either left or right. You may determine whether it is a period. For example, the left / right determination unit 243 may perform the determination process when the absolute value of the z-axis angular velocity is equal to or greater than a reference value. For example, the reference value may be about 60 degrees / second.

図14は、y軸加速度を示すグラフである。図14の横軸は時間、縦軸はy軸加速度である。図14において、y軸加速度が正値である場合は右向きへの加速を表し、y軸加速度が負値である場合は左向きへの加速を表す。   FIG. 14 is a graph showing the y-axis acceleration. In FIG. 14, the horizontal axis represents time, and the vertical axis represents y-axis acceleration. In FIG. 14, when the y-axis acceleration is a positive value, it represents acceleration to the right, and when the y-axis acceleration is a negative value, it represents acceleration to the left.

右足が接地している場合には、使用者の上体は左向きに加速する。また、左足が接地している場合には、使用者の上体は右向きに加速する。したがって、左右判定部243は、
y軸加速度の極性から左右いずれの走行周期かを判定することができる。なお、慣性計測ユニット10が検出する3軸加速度には高周波のノイズ成分が含まれるため、左右判定部243は、ローパスフィルターを通過させてノイズが除去されたy軸加速度を用いて左右いずれの走行周期かを判定してもよい。また例えば、左右判定部243は、y軸加速度の絶対値が基準値以上である場合に、判定処理を行ってもよい。
When the right foot is grounded, the user's upper body accelerates to the left. When the left foot is in contact with the ground, the user's upper body accelerates to the right. Therefore, the left / right determination unit 243
From the polarity of the y-axis acceleration, it can be determined whether the driving cycle is left or right. Since the triaxial acceleration detected by the inertial measurement unit 10 includes a high-frequency noise component, the left / right determination unit 243 uses the y-axis acceleration from which noise has been removed by passing through a low-pass filter to travel either left or right. You may determine whether it is a period. For example, the left / right determination unit 243 may perform the determination process when the absolute value of the y-axis acceleration is equal to or greater than a reference value.

左右判定部243は、これらに限らず、例えば、y軸速度や姿勢角(ヨー角)などに基づいて判定処理を行ってもよい。   The left / right determination unit 243 is not limited thereto, and may perform determination processing based on, for example, the y-axis speed, the posture angle (yaw angle), and the like.

また、左右判定部243は、判定処理の結果に応じて、左右いずれの走行周期かを示す左右足フラグ(例えば、右足の時にオン、左足の時にオフ)を出力する。   In addition, the left / right determination unit 243 outputs a left / right foot flag (for example, on for the right foot and off for the left foot) indicating whether the travel cycle is left or right according to the determination processing result.

図9に戻り、走行検出部244は、慣性計測ユニット10の検出結果(具体的には、バイアス除去部210が補正したセンシングデータ)を用いて、使用者の走行周期(走行タイミング)を検出する処理を行う。図10及び図11で説明したように、使用者の走行時には使用者の姿勢が周期的に(2歩(左右1歩ずつ)毎に)変化するため、慣性計測ユニット10が検出する加速度も周期的に変化する。図15は、使用者の走行時に慣性計測ユニット10が検出した3軸加速度の一例を示す図である。図15において、横軸は時間であり、縦軸は加速度値である。図15に示すように、3軸加速度は周期的に変化しており、特にz軸(重力方向の軸)加速度は、周期性をもって規則的に変化していることがわかる。このz軸加速度は、使用者の上下動の加速度を反映しており、z軸加速度が所定の閾値以上の極大値となる時から次に閾値以上の極大値となるまでの期間が1歩の期間に相当する。   Returning to FIG. 9, the travel detection unit 244 detects the travel cycle (travel timing) of the user using the detection result of the inertial measurement unit 10 (specifically, the sensing data corrected by the bias removal unit 210). Process. As described with reference to FIGS. 10 and 11, since the posture of the user changes periodically (every two steps (every one step on the left and right)) when the user is traveling, the acceleration detected by the inertial measurement unit 10 is also a cycle. Changes. FIG. 15 is a diagram illustrating an example of the triaxial acceleration detected by the inertial measurement unit 10 when the user travels. In FIG. 15, the horizontal axis is time, and the vertical axis is the acceleration value. As shown in FIG. 15, it can be seen that the triaxial acceleration changes periodically, and in particular, the z-axis (axis in the direction of gravity) acceleration changes regularly with periodicity. This z-axis acceleration reflects the acceleration of the user's vertical movement, and the period from when the z-axis acceleration reaches a maximum value greater than a predetermined threshold to the next maximum value greater than the threshold is one step. It corresponds to a period.

そこで、本実施形態では、走行検出部244は、慣性計測ユニット10が検出するz軸加速度(使用者の上下動の加速度に相当する)が所定の閾値以上の極大値となる毎に、走行周期を検出する。すなわち、走行検出部244は、z軸加速度が所定の閾値以上の極大値となる毎に、走行周期を検出したことを示すタイミング信号を出力する。実際には、慣性計測ユニット10が検出する3軸加速度には高周波のノイズ成分が含まれるため、走行検出部244は、ローパスフィルターを通過させてノイズが除去されたz軸加速度を用いて走行周期を検出する。   Therefore, in the present embodiment, the travel detection unit 244 performs the travel cycle every time the z-axis acceleration (corresponding to the user's vertical movement acceleration) detected by the inertial measurement unit 10 reaches a maximum value equal to or greater than a predetermined threshold. Is detected. That is, the travel detection unit 244 outputs a timing signal indicating that the travel cycle has been detected each time the z-axis acceleration reaches a maximum value that is equal to or greater than a predetermined threshold. Actually, since the triaxial acceleration detected by the inertial measurement unit 10 includes a high-frequency noise component, the traveling detection unit 244 uses the z-axis acceleration from which the noise has been removed by passing through the low-pass filter. Is detected.

左右判定部243は、慣性計測ユニット10の検出結果と、走行検出部244が検出する走行タイミングとに基づいて、判定処理を行ってもよい。これによって、精度よく左足及び右足の運動を把握できる。   The left / right determination unit 243 may perform determination processing based on the detection result of the inertial measurement unit 10 and the travel timing detected by the travel detection unit 244. Thereby, the movement of the left foot and the right foot can be accurately grasped.

歩幅算出部245は、走行検出部244が出力する走行周期のタイミング信号及び左右足フラグと、積分処理部220が算出する速度あるいは位置とを用いて、左右毎の歩幅を算出し、左右毎のストライドとして出力する処理を行う。すなわち、歩幅算出部245は、走行周期の開始から次の走行周期の開始までの期間、サンプリング周期Δt毎に速度を積分して(あるいは、走行周期の開始時の位置と次の走行周期の開始時の位置との差を計算して)歩幅を算出し、当該歩幅をストライドとして出力する。   The stride calculation unit 245 calculates the stride for each left and right using the timing signal and the left and right foot flags output by the travel detection unit 244 and the speed or position calculated by the integration processing unit 220, and calculates the stride for each left and right. Process to output as stride. That is, the stride calculation unit 245 integrates the speed for each sampling period Δt during the period from the start of the travel cycle to the start of the next travel cycle (or the position at the start of the travel cycle and the start of the next travel cycle). Calculate the stride (by calculating the difference from the time position) and output the stride as a stride.

ピッチ算出部246は、走行検出部244が出力する走行周期のタイミング信号を用いて、1分間の歩数を算出し、走行ピッチとして出力する処理を行う。すなわち、ピッチ算出部246は、例えば、走行周期の逆数をとって1秒当たりの歩数を計算し、これに60を掛けて1分間の歩数(走行ピッチ)を算出する。   The pitch calculation unit 246 calculates the number of steps per minute using the timing signal of the running cycle output from the running detection unit 244, and performs a process of outputting the number of steps as a running pitch. That is, for example, the pitch calculation unit 246 calculates the number of steps per second by taking the reciprocal of the traveling cycle, and multiplies this by 60 to calculate the number of steps per minute (traveling pitch).

座標変換部250は、積分処理部220が算出したbフレームからmフレームへの座標変換情報(座標変換行列C )を用いて、バイアス除去部210が補正したbフレーム
の3軸加速度及び3軸角速度をそれぞれmフレームの3軸加速度及び3軸角速度に変換する座標変換処理を行う。また、座標変換部250は、積分処理部220が算出したeフレームからmフレームへの座標変換情報(座標変換行列C )を用いて、積分処理部220が算出したeフレームの3軸方向の速度、3軸回りの姿勢角及び3軸方向の距離をそれぞれmフレームの3軸方向の速度、3軸回りの姿勢角及び3軸方向の距離に変換する座標変換処理を行う。また、座標変換部250は、積分処理部220が算出したeフレームからnフレームへの座標変換情報(座標変換行列C )を用いて、積分処理部220が算出したeフレームの位置をnフレームの位置に変換する座標変換処理を行う。
The coordinate conversion unit 250 uses the b-frame-to-m-frame coordinate conversion information (coordinate conversion matrix C b m ) calculated by the integration processing unit 220, and the b-frame three-axis acceleration and 3 corrected by the bias removal unit 210. A coordinate conversion process for converting the axial angular velocity into the triaxial acceleration and the triaxial angular velocity of m frames is performed. Further, the coordinate conversion unit 250 uses the coordinate conversion information (coordinate conversion matrix C e m ) from the e frame to the m frame calculated by the integration processing unit 220, and the three-axis directions of the e frame calculated by the integration processing unit 220 The coordinate conversion processing is performed to convert the three-axis attitude angle and the triaxial distance into the m-frame triaxial speed, the three-axis attitude angle and the triaxial distance, respectively. Also, the coordinate conversion unit 250 uses the coordinate conversion information (coordinate conversion matrix C e n ) from the e frame to the n frame calculated by the integration processing unit 220 to determine the position of the e frame calculated by the integration processing unit 220 by n. A coordinate conversion process for converting the frame position is performed.

そして、慣性航法演算部22は、座標変換部250が座標変換した後の加速度、角速度、速度、位置、姿勢角及び距離、走行処理部240が算出したストライド、走行ピッチ及び左右足フラグの各情報を含む演算データを出力する(記憶部30に記憶する)。   Then, the inertial navigation calculation unit 22 receives information on acceleration, angular velocity, speed, position, posture angle and distance after the coordinate conversion by the coordinate conversion unit 250, stride, travel pitch, and left and right foot flags calculated by the travel processing unit 240. Is output (stored in the storage unit 30).

1−3−4.運動解析部の機能構成
図16は、運動解析部24の構成例を示す機能ブロック図である。本実施形態では、運動解析部24は、特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272、算出部291及び出力部280を含む。ただし、本実施形態の運動解析部24は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
1-3-4. Functional Configuration of Motion Analysis Unit FIG. 16 is a functional block diagram illustrating a configuration example of the motion analysis unit 24. In the present embodiment, the motion analysis unit 24 includes a feature point detection unit 260, a contact time / impact time calculation unit 262, a basic information generation unit 272, a calculation unit 291 and an output unit 280. However, the motion analysis unit 24 of the present embodiment may have a configuration in which some of these components are deleted or changed, or other components are added.

特徴点検出部260は、演算データを用いて、使用者の走行運動における特徴点を検出する処理を行う。使用者の走行運動における特徴点は、例えば、着地(足裏の一部が地面に着いた時、足の裏全体が地面に着いた時、足のかかとから着いてつま先が離れる間の任意の時点、足のつま先から着いてかかとが離れる間の任意の時点、足の裏全体が着いている間など、適宜設定してもよい)、踏込(足に最も体重がかかっている状態)、離地(蹴り出しともいう、地面から足の裏の一部が離れた時、足の裏全体が地面が離れた時、足のかかとから着いてつま先が離れる間の任意の時点、足のつま先から着いてから離れる間の任意の時点など、適宜設定してもよい)等である。具体的には、特徴点検出部260は、演算データに含まれる左右足フラグを用いて、右足の走行周期における特徴点と左足の走行周期における特徴点とを別々に検出する。例えば、特徴点検出部260は、上下方向加速度(加速度センサー12のz軸の検出値)が正値から負値に変化した時点で着地を検出し、着地の後、上下方向加速度が負の方向にピークとなった以降に進行方向加速度がピークになる時点で踏込を検出し、上下方向加速度が負値から正値に変化した時点で離地(蹴り出し)を検出することができる。   The feature point detection unit 260 performs processing for detecting feature points in the user's running motion using the calculation data. The feature point of the user's running motion is, for example, landing (when a part of the sole touches the ground, when the entire sole of the foot touches the ground, an arbitrary point while the toe is released from the heel of the foot) It may be set as appropriate, such as at any point in time, while the heel is released from the toes of the foot, while the sole of the foot is wearing, etc.), stepping on (the most weight is on the foot), releasing Ground (also called kicking out, when a part of the sole of the foot is separated from the ground, when the entire sole of the foot is separated from the ground, at any time while the toes are released from the heel of the foot, from the toes of the foot It may be set as appropriate, for example, at an arbitrary point in time while leaving the vehicle). Specifically, the feature point detection unit 260 separately detects the feature point in the right foot travel cycle and the feature point in the left foot travel cycle, using the left and right foot flags included in the calculation data. For example, the feature point detection unit 260 detects landing when the vertical acceleration (detected value of the z-axis of the acceleration sensor 12) changes from a positive value to a negative value, and after landing, the vertical acceleration is in a negative direction. It is possible to detect the depression when the traveling direction acceleration reaches a peak after the peak, and to detect the takeoff (kicking out) when the vertical acceleration changes from a negative value to a positive value.

接地時間・衝撃時間算出部262は、演算データを用いて、特徴点検出部260が特徴点を検出した時点を基準として、接地時間及び衝撃時間の各値を算出する処理を行う。具体的には、接地時間・衝撃時間算出部262は、演算データに含まれる左右足フラグから現在の演算データが右足の走行周期と左足の走行周期のいずれの演算データであるかを判定し、特徴点検出部260が特徴点を検出した時点を基準として、接地時間及び衝撃時間の各値を、右足の走行周期と左足の走行周期に分けて算出する。接地時間及び衝撃時間の定義及び算出方法等の詳細については後述する。   The contact time / impact time calculation unit 262 performs a process of calculating each value of the contact time and the impact time by using the calculation data as a reference when the feature point detection unit 260 detects the feature point. Specifically, the contact time / impact time calculation unit 262 determines whether the current calculation data is the calculation data of the right foot travel cycle or the left foot travel cycle from the left and right foot flags included in the calculation data, Based on the time point when the feature point detection unit 260 detects the feature point, each value of the contact time and the impact time is calculated separately for the right foot travel cycle and the left foot travel cycle. Details of the definition and calculation method of the contact time and impact time will be described later.

基本情報生成部272は、演算データに含まれる加速度、速度、位置、ストライド、走行ピッチの情報を用いて、使用者の運動に関する基本情報を生成する処理を行う。ここで、基本情報は、走行ピッチ、ストライド、走行速度、標高、走行距離及び走行時間(ラップタイム)の各項目を含む。具体的には、基本情報生成部272は、演算データに含まれる走行ピッチ及びストライドをそれぞれ基本情報の走行ピッチ及びストライドとして出力する。また、基本情報生成部272は、演算データに含まれる加速度、速度、位置、走行ピッチ及びストライドの一部又は全部を用いて、走行速度、標高、走行距離、走行時間(
ラップタイム)の現在の値や走行中の平均値等を算出する。
The basic information generation unit 272 performs processing for generating basic information related to the user's movement using information on acceleration, speed, position, stride, and travel pitch included in the calculation data. Here, the basic information includes items of travel pitch, stride, travel speed, altitude, travel distance, and travel time (lap time). Specifically, the basic information generation unit 272 outputs the traveling pitch and stride included in the calculation data as the traveling pitch and stride of the basic information, respectively. In addition, the basic information generation unit 272 uses a part or all of acceleration, speed, position, travel pitch, and stride included in the calculation data to calculate travel speed, altitude, travel distance, travel time (
The current value of the lap time) and the average value during driving are calculated.

算出部291は、使用者の運動に関する指標を算出する。算出部291は、第1期間における指標と第2期間における指標とを分けて算出してもよい。例えば、算出部291は、第1期間における指標と第2期間における指標との差分を算出してもよい。本実施形態においては、算出部291は、第1解析情報生成部274、第2解析情報生成部276及び左右差率算出部278を含む。   The calculation part 291 calculates the parameter | index regarding a user's exercise | movement. The calculation unit 291 may calculate the index in the first period and the index in the second period separately. For example, the calculation unit 291 may calculate the difference between the index in the first period and the index in the second period. In the present embodiment, the calculation unit 291 includes a first analysis information generation unit 274, a second analysis information generation unit 276, and a left / right difference rate calculation unit 278.

第1解析情報生成部274は、入力情報を用いて、特徴点検出部260が特徴点を検出したタイミングを基準として使用者の運動を解析し、第1解析情報を生成する処理を行う。   The first analysis information generation unit 274 performs a process of analyzing the user's movement using the input information on the basis of the timing when the feature point detection unit 260 detects the feature point, and generating first analysis information.

ここで、入力情報は、進行方向加速度、進行方向速度、進行方向距離、上下方向加速度、上下方向速度、上下方向距離、左右方向加速度、左右方向速度、左右方向距離、姿勢角(ロール角、ピッチ角、ヨー角)、角速度(ロール方向、ピッチ方向、ヨー方向)、走行ピッチ、ストライド、接地時間、衝撃時間及び体重の各項目を含む。体重は使用者によって入力され、接地時間及び衝撃時間は接地時間・衝撃時間算出部262が算出し、その他の項目は演算データに含まれる。   Here, the input information includes travel direction acceleration, travel direction speed, travel direction distance, vertical direction acceleration, vertical direction speed, vertical direction distance, lateral direction acceleration, lateral direction speed, lateral direction distance, posture angle (roll angle, pitch) (Angle, yaw angle), angular velocity (roll direction, pitch direction, yaw direction), running pitch, stride, contact time, impact time, and weight. The weight is input by the user, the contact time and impact time are calculated by the contact time / impact time calculation unit 262, and other items are included in the calculation data.

また、第1解析情報は、着地時ブレーキ量(着地時ブレーキ量1、着地時ブレーキ量2)、真下着地率(真下着地率1、真下着地率2、真下着地率3)、推進力(推進力1、推進力2)、推進効率(推進効率1、推進効率2、推進効率3、推進効率4)、運動エネルギー、着地衝撃、ランニング能力、前傾角、タイミング一致度及び脚の流れの各項目を含む。第1解析情報の各項目は、使用者の走行状態(運動状態の一例)を表す項目である。第1解析情報の各項目の定義及び計算方法の詳細については後述する。   Also, the first analysis information includes the landing brake amount (landing brake amount 1, landing brake amount 2), true under landing rate (true under landing rate 1, true under landing rate 2, true under landing rate 3), propulsive force (propulsion) (Force 1, propulsion 2), propulsion efficiency (propulsion efficiency 1, propulsion efficiency 2, propulsion efficiency 3, propulsion efficiency 4), kinetic energy, landing impact, running ability, forward tilt angle, timing coincidence and leg flow including. Each item of the first analysis information is an item representing a user's running state (an example of an exercise state). The definition of each item of the first analysis information and details of the calculation method will be described later.

また、第1解析情報生成部274は、第1解析情報の各項目の値を、使用者の体の左右にわけて算出する。具体的には、第1解析情報生成部274は、特徴点検出部260が右足の走行周期における特徴点を検出したか左足の走行周期における特徴点を検出したかに応じて、第1解析情報に含まれる各項目を、右足の走行周期と左足の走行周期に分けて算出する。また、第1解析情報生成部274は、第1解析情報に含まれる各項目について、左右の平均値あるいは合計値も算出する。   The first analysis information generation unit 274 calculates the value of each item of the first analysis information separately on the left and right sides of the user's body. Specifically, the first analysis information generation unit 274 determines the first analysis information according to whether the feature point detection unit 260 detects a feature point in the right foot travel cycle or a feature point in the left foot travel cycle. Are calculated separately for the right foot travel cycle and the left foot travel cycle. The first analysis information generation unit 274 also calculates the average value or the total value of the left and right for each item included in the first analysis information.

第2解析情報生成部276は、第1解析情報生成部274が生成した第1解析情報を用いて、第2解析情報を生成する処理を行う。ここで、第2解析情報は、エネルギー損失、エネルギー効率及び体への負担の各項目を含む。第2解析情報の各項目の定義及び計算方法の詳細については後述する。第2解析情報生成部276は、第2解析情報の各項目の値を、右足の走行周期と左足の走行周期に分けて算出する。また、第2解析情報生成部276は、第2解析情報に含まれる各項目について、左右の平均値あるいは合計値も算出する。   The second analysis information generation unit 276 performs processing for generating second analysis information using the first analysis information generated by the first analysis information generation unit 274. Here, the second analysis information includes items of energy loss, energy efficiency, and burden on the body. The definition of each item of the second analysis information and details of the calculation method will be described later. The second analysis information generation unit 276 calculates the value of each item of the second analysis information separately for the right foot travel cycle and the left foot travel cycle. In addition, the second analysis information generation unit 276 also calculates a left and right average value or total value for each item included in the second analysis information.

左右差率算出部278は、入力情報に含まれる走行ピッチ、ストライド、接地時間及び衝撃時間、第1解析情報の全ての項目及び第2解析情報の全ての項目について、それぞれ右足の走行周期における値と左足の走行周期における値とを用いて、使用者の体の左右のバランスを示す指標である左右差率を算出する処理を行う。左右差率の定義及び計算方法の詳細については後述する。   The right / left difference rate calculation unit 278 is a value in the running cycle of the right foot for each of the running pitch, stride, contact time and impact time, all items of the first analysis information, and all items of the second analysis information included in the input information. And a value in the running cycle of the left foot is used to calculate a left / right difference rate that is an index indicating the left / right balance of the user's body. The definition of the left / right difference ratio and details of the calculation method will be described later.

出力部280は、第1期間における指標と第2期間における指標との差分が基準値以上である場合に、当該差分に関する情報である差分情報を出力する。例えば、出力部280は、差分が基準以上となった指標に関する情報を差分情報として出力してもよい。   When the difference between the index in the first period and the index in the second period is greater than or equal to the reference value, the output unit 280 outputs difference information that is information regarding the difference. For example, the output unit 280 may output information on an index whose difference is equal to or greater than a reference as difference information.

また、出力部280は、基本情報、入力情報、第1解析情報、第2解析情報、左右差率等を用いて、使用者の走行中に出力する情報である走行中出力情報を生成して出力する処理を行う。入力情報に含まれる「走行ピッチ」、「ストライド」、「接地時間」及び「衝撃時間」、第1解析情報のすべての項目、第2解析情報のすべての項目、及び、左右差率は、使用者の走行技術の評価に用いられる運動指標であり、走行中出力情報は、これらの運動指標の一部又は全部の値の情報を含む。走行中出力情報に含まれる運動指標は、予め決められていてもよいし、使用者が報知装置3を操作して選択可能にしても良い。また、走行中出力情報は、基本情報に含まれる走行速度、標高、走行距離及び走行時間(ラップタイム)の一部又は全部を含んでもよい。   Further, the output unit 280 generates traveling output information that is information to be output while the user is traveling, using basic information, input information, first analysis information, second analysis information, right / left difference ratio, and the like. Perform output processing. The “running pitch”, “stride”, “contact time” and “impact time” included in the input information, all items of the first analysis information, all items of the second analysis information, and the left / right difference ratio are used. Is an exercise index used for evaluation of a person's running technique, and the output information during running includes information on values of some or all of these exercise indexes. The exercise index included in the traveling output information may be determined in advance or may be selectable by the user operating the notification device 3. The output information during traveling may include a part or all of the traveling speed, altitude, traveling distance, and traveling time (lap time) included in the basic information.

また、出力部280は、基本情報、入力情報、第1解析情報、第2解析情報、左右差率等を用いて、使用者の走行結果の情報である走行結果情報を生成する。例えば、出力部280は、使用者の走行中(慣性計測ユニット10の計測中)における各運動指標の平均値の情報等を含む走行結果情報を生成してもよい。また、走行結果情報は、走行速度、標高、走行距離及び走行時間(ラップタイム)の一部又は全部を含んでもよい。また、出力部280は、通信部40を介して、使用者の走行中に、走行中出力情報を報知装置3に送信し、使用者の走行終了時に、走行結果情報を報知装置3に送信する。   Further, the output unit 280 generates travel result information that is information on the travel result of the user, using basic information, input information, first analysis information, second analysis information, right / left difference ratio, and the like. For example, the output unit 280 may generate travel result information including information on the average value of each motion index while the user is traveling (during measurement by the inertial measurement unit 10). The travel result information may include a part or all of travel speed, altitude, travel distance, and travel time (lap time). Further, the output unit 280 transmits output information during traveling to the notification device 3 while the user is traveling through the communication unit 40, and transmits traveling result information to the notification device 3 when the user finishes traveling. .

1−3−5.入力情報
以下に、入力情報の各項目の詳細について説明する。
1-3-5. Input information Details of each item of the input information will be described below.

[進行方向加速度、上下方向加速度、左右方向加速度]
「進行方向」とは使用者の進行方向(mフレームのx軸方向)であり、「上下方向」とは鉛直方向(mフレームのz軸方向)であり、「左右方向」とは進行方向と上下方向にともに直交する方向(mフレームのy軸方向)である。進行方向加速度、上下方向加速度及び左右方向加速度は、それぞれ、mフレームのx軸方向の加速度、z軸方向の加速度及びy軸方向の加速度であり、座標変換部250により算出される。
[Advance direction acceleration, vertical acceleration, horizontal acceleration]
The “traveling direction” is the traveling direction of the user (m-frame x-axis direction), the “vertical direction” is the vertical direction (m-frame z-axis direction), and the “left-right direction” is the traveling direction. The direction is perpendicular to the vertical direction (the y-axis direction of the m frame). The traveling direction acceleration, the vertical direction acceleration, and the horizontal direction acceleration are the acceleration in the x-axis direction, the acceleration in the z-axis direction, and the acceleration in the y-axis direction of the m frame, respectively, and are calculated by the coordinate conversion unit 250.

[進行方向速度、上下方向速度、左右方向速度]
進行方向速度、上下方向速度及び左右方向速度は、それぞれ、mフレームのx軸方向の速度、z軸方向の速度及びy軸方向の速度であり、座標変換部250により算出される。あるいは、進行方向加速度、上下方向加速度及び左右方向加速度をそれぞれ積分することにより、進行方向速度、上下方向速度及び左右方向速度をそれぞれ算出することもできる。
[Speed in traveling direction, vertical speed, horizontal speed]
The traveling direction speed, the up-down direction speed, and the left-right speed are the speed in the x-axis direction, the speed in the z-axis direction, and the speed in the y-axis direction of the m frame, respectively, and are calculated by the coordinate conversion unit 250. Alternatively, the traveling direction speed, the up-down direction speed, and the left-right direction speed can be calculated by integrating the traveling direction acceleration, the up-down direction acceleration, and the left-right direction acceleration, respectively.

[角速度(ロール方向、ピッチ方向、ヨー方向)]
ロール方向の角速度、ピッチ方向の角速度及びヨー方向の角速度は、それぞれ、mフレームのx軸回りの角速度、y軸回りの角速度及びz軸回りの角速度であり、座標変換部250により算出される。
[Angular velocity (roll direction, pitch direction, yaw direction)]
The angular velocity in the roll direction, the angular velocity in the pitch direction, and the angular velocity in the yaw direction are an angular velocity around the x axis, an angular velocity around the y axis, and an angular velocity around the z axis, respectively, and are calculated by the coordinate conversion unit 250.

[姿勢角(ロール角、ピッチ角、ヨー角)]
ロール角、ピッチ角及びヨー角は、それぞれ、座標変換部250が出力するmフレームのx軸回りの姿勢角、y軸回りの姿勢角及びz軸回りの姿勢角であり、座標変換部250により算出される。あるいは、ロール方向の角速度、ピッチ方向の角速度及びヨー方向の角速度を積分(回転演算)することにより、ロール角、ピッチ角及びヨー角を算出することもできる。
[Attitude angle (roll angle, pitch angle, yaw angle)]
The roll angle, the pitch angle, and the yaw angle are respectively an attitude angle around the x-axis, an attitude angle around the y-axis, and an attitude angle around the z-axis that are output by the coordinate conversion unit 250. Calculated. Alternatively, the roll angle, the pitch angle, and the yaw angle can be calculated by integrating (rotating calculation) the angular velocity in the roll direction, the angular velocity in the pitch direction, and the angular velocity in the yaw direction.

[進行方向距離、上下方向距離、左右方向距離]
進行方向距離、上下方向距離及び左右方向距離は、それぞれ、所望の位置(例えば、使
用者の走行開始直前の位置)からの、mフレームのx軸方向の移動距離、z軸方向の移動距離及びy軸方向の移動距離であり、座標変換部250により算出される。
[Advance distance, vertical distance, horizontal distance]
The traveling direction distance, the up-down direction distance, and the left-right direction distance are respectively the moving distance in the x-axis direction, the moving distance in the z-axis direction, and the moving distance in the z-axis direction from a desired position (for example, the position immediately before the user starts traveling) The movement distance in the y-axis direction is calculated by the coordinate conversion unit 250.

[走行ピッチ]
走行ピッチは、1分間あたりの歩数として定義される運動指標であり、ピッチ算出部246により算出される。あるいは、1分間の進行方向距離をストライドで除算することにより、走行ピッチを算出することもできる。
[Running pitch]
The travel pitch is an exercise index defined as the number of steps per minute, and is calculated by the pitch calculation unit 246. Alternatively, the traveling pitch can be calculated by dividing the distance in the traveling direction for one minute by the stride.

[ストライド]
ストライドは、1歩の歩幅として定義される運動指標であり、歩幅算出部245により算出される。あるいは、1分間の進行方向距離を走行ピッチで除算することにより、ストライドを算出することもできる。
[stride]
The stride is an exercise index defined as the step length of one step, and is calculated by the stride calculation unit 245. Alternatively, the stride can be calculated by dividing the traveling direction distance for 1 minute by the traveling pitch.

[接地時間]
接地時間は、着地から離地(蹴り出し)までにかかった時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。離地(蹴り出し)とは、つま先が地面から離れる時である。なお、接地時間は、走行スピードと相関が高いため、第1解析情報のランニング能力として使用することもできる。
[Grounding time]
The contact time is a motion index defined as the time taken from landing to takeoff (kicking out), and is calculated by the contact time / impact time calculation unit 262. Take off (kicking out) is when the toes leave the ground. Since the contact time is highly correlated with the traveling speed, it can be used as the running ability of the first analysis information.

[衝撃時間]
衝撃時間は、着地により発生する衝撃が体にかかっている時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。衝撃時間=(1歩中の進行方向加速度が最小となる時刻−着地の時刻)で計算できる。
[Shock time]
The impact time is a motion index defined as the time during which the impact generated by landing is applied to the body, and is calculated by the contact time / impact time calculation unit 262. Impact time = (time when traveling direction acceleration in one step is minimum−time of landing).

[体重]
体重は、使用者の体重であり、走行前に使用者が操作部150(図18参照)を操作することによりその数値が入力される。
[body weight]
The body weight is the weight of the user, and the numerical value is input by the user operating the operation unit 150 (see FIG. 18) before traveling.

1−3−6.第1解析情報
以下に、第1解析情報生成部274により算出される第1解析情報の各項目の詳細について説明する。
1-3-6. First Analysis Information Details of each item of the first analysis information calculated by the first analysis information generation unit 274 will be described below.

[着地時ブレーキ量1]
着地時ブレーキ量1は、着地により低下した速度量として定義される運動指標であり、着地時ブレーキ量1=(着地前の進行方向速度−着地後の進行方向最低速度)で計算できる。着地により進行方向の速度は低下し、1歩の中で着地後の進行方向速度の最下点が進行方向最低速度である。
[Brake amount at landing 1]
The landing brake amount 1 is a motion index defined as a speed amount decreased by landing, and can be calculated by the landing brake amount 1 = (traveling direction speed before landing−traveling direction minimum speed after landing). The speed in the traveling direction decreases due to the landing, and the lowest point in the traveling direction speed after landing in one step is the lowest traveling direction speed.

[着地時ブレーキ量2]
着地時ブレーキ量2は、着地により発生した進行方向マイナスの最低加速度量として定義される運動指標であり、1歩における着地後の進行方向最低加速度と一致する。1歩の中で着地後の進行方向加速度の最下点が進行方向最低加速度である。
[Brake amount at landing 2]
The brake amount 2 at the time of landing is an exercise index defined as the minimum acceleration amount minus the traveling direction generated by landing, and coincides with the minimum acceleration in the traveling direction after landing at one step. The lowest point in the traveling direction acceleration after landing in one step is the traveling direction minimum acceleration.

[真下着地率1]
真下着地率1は、体の真下で着地できているかを表現する運動指標である。体の真下で着地できるようになると、着地時のブレーキ量が少なくなり効率的な走りができるようになる。通常ブレーキ量は速度に応じて大きくなるため、ブレーキ量だけでは指標として不十分であるが、真下着地率1は率で表せる指標であるため、真下着地率1によれば速度が変わっても同じ評価ができる。着地時の進行方向加速度(マイナスの加速度)と上下方向加速度を用いて、α=arctan(着地時の進行方向加速度/着地時の上下方向加速度
)とすると、真下着地率1=cosα×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度α’を算出し、真下着地率1={1−|(α’−α)/α’|}×100(%)で計算することもできる。
[True underland landing rate 1]
The underground landing rate 1 is an exercise index that expresses whether or not the user can land directly under the body. If you can land right under your body, the amount of braking at the time of landing will decrease and you will be able to run efficiently. Since the normal brake amount increases according to the speed, the brake amount alone is not sufficient as an index. However, since the true underland landing rate 1 is an index that can be expressed as a rate, the true underland landing rate 1 is the same even if the speed changes. Can be evaluated. When α = arctan (traveling direction acceleration at landing / vertical acceleration at landing) using the traveling direction acceleration at the time of landing (negative acceleration) and the vertical direction acceleration, the true bottom landing rate 1 = cos α × 100 (% ). Alternatively, an ideal angle α ′ is calculated using data of a plurality of people who travel fast, and the true under landing rate 1 = {1− | (α′−α) / α ′ |} × 100 (%). You can also

[真下着地率2]
真下着地率2は、体の真下で着地できているかを着地時の速度低下度合で表現する運動指標であり、真下着地率2=(着地後の進行方向最低速度/着地直前の進行方向速度)×100(%)で計算される。
[True underland landing rate 2]
The underground landing rate 2 is a motion index that expresses whether or not the vehicle has landed directly under the body by the degree of speed reduction at the time of landing, and the true underland landing rate 2 = (minimum speed in the traveling direction after landing / velocity in the traveling direction immediately before landing) Calculated with x100 (%).

[真下着地率3]
真下着地率3は、体の真下で着地できているかを着地から体の真下に足が来るまでの距離又は時間で表現する運動指標である。真下着地率3=(体の真下に足が来る時の進行方向距離−着地時の進行方向距離)、あるいは、真下着地率3=(体の真下に足が来る時の時刻−着地時の時刻)で計算できる。着地(上下方向加速度が正値から負値に変化する点)の後、上下方向加速度が負の方向にピークとなるタイミングがあり、このタイミングを体の真下に足が来るタイミング(時刻)と判定することができる。
[True underland landing rate 3]
The direct landing rate 3 is an exercise index that expresses whether the landing has been performed directly under the body by the distance or time from the landing until the foot comes directly under the body. Underground landing rate 3 = (Distance in travel direction when feet are directly under the body−Distance in travel direction when landing), or Underground landing rate 3 = (Time when feet are directly under body−Time when landing) ). After landing (the point where the vertical acceleration changes from a positive value to a negative value), there is a timing when the vertical acceleration peaks in the negative direction, and this timing is determined as the timing (time) when the foot comes directly under the body can do.

なお、これ以外にも、真下着地率3=arctan(着地から体の真下に足が来るまでの距離/腰の高さ)と定義してもよい。あるいは、真下着地率3=(1−着地から体の真下に足が来るまでの距離/着地から蹴り上げまでに移動した距離)×100(%)(足が接地している間に移動した距離の中で着地から体の真下に足が来るまでの距離が占める割合)として定義してもよい。あるいは、真下着地率3=(1−着地から体の真下に足が来るまでの時間/着地から蹴り上げまでに移動した時間)×100(%)(足が接地している間に移動した時間の中で着地から体の真下に足が来るまでの時間が占める割合)と定義してもよい。   In addition to this, it may be defined as a true landing ratio 3 = arctan (distance from landing to the foot just below the body / height of the waist). Or, just below landing rate 3 = (1−distance from landing to just below the body / distance moved from landing to kicking up) × 100 (%) (distance moved while the foot was grounded) May be defined as the ratio of the distance from the landing to the foot just below the body). Or, just below landing rate 3 = (1—time from landing to just below the body / time to move from landing to kicking up) × 100 (%) (time to move while feet are grounded) It may be defined as the ratio of the time from landing to just below the body.

[推進力1]
推進力1は、地面を蹴ることにより進行方向へ増加した速度量として定義される運動指標であり、推進力1=(蹴り出し後の進行方向最高速度−蹴り出し前の進行方向最低速度)で計算できる。
[Propulsion 1]
The propulsive force 1 is a motion index defined as a speed amount increased in the traveling direction by kicking the ground, and the propulsive force 1 = (maximum traveling direction speed after kicking−minimum traveling direction speed before kicking). Can be calculated.

[推進力2]
推進力2は、蹴り出しにより発生した進行方向プラスの最大加速度として定義される運動指標であり、1歩における蹴り出し後の進行方向最大加速度と一致する。
[Propulsion 2]
The propulsive force 2 is a motion index defined as the maximum acceleration in the direction of travel generated by kicking, and coincides with the maximum acceleration in the direction of travel after kicking in one step.

[推進効率1]
推進効率1は、蹴り出しの力が効率よく推進力になっているかを表す運動指標である。無駄な上下動、無駄な左右動がなくなると効率のよい走りができるようになる。通常上下動、左右動は速度に応じて大きくなるため、上下動、左右動だけでは運動指標として不十分であるが、推進効率力1は率で表せる運動指標であるため、推進効率力1によれば速度が変わっても同じ評価ができる。推進効率力1は、上下方向と左右方向についてそれぞれ計算される。蹴り出し時の上下方向加速度と進行方向加速度を用いて、γ=arctan(蹴り出し時の上下方向加速度/蹴り出し時の進行方向加速度)とすると、上下方向の推進効率1=cosγ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度γ’を算出し、上下方向の推進効率1={1−|(γ’−γ)/γ’|}×100(%)で計算することもできる。同様に、蹴り出し時の左右方向加速度と進行方向加速度を用いて、δ=arctan(蹴り出し時の左右方向加速度/蹴り出し時の進行方向加速度)とすると、左右方向の推進効率1=cosδ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度δ’を算出し、左右方向の推進効率1={1−|(δ’−δ)/δ’|}×100(%)で計算することもでき
る。
[Propulsion efficiency 1]
The propulsion efficiency 1 is an exercise index indicating whether the kicking force is efficiently a propulsive force. Efficient driving will be possible if there is no useless vertical movement and useless horizontal movement. Normally, vertical movement and left-right movement increase with speed, so vertical movement and left-right movement alone are not sufficient as a motion index, but propulsion efficiency power 1 is a motion index that can be expressed as a rate. According to this, the same evaluation can be made even if the speed changes. The propulsion efficiency force 1 is calculated for each of the vertical direction and the horizontal direction. Using γ = arctan (vertical acceleration during kicking / traveling acceleration during kicking) using the vertical acceleration and kicking acceleration at the time of kicking, the vertical propulsion efficiency 1 = cos γ × 100 (% ). Alternatively, an ideal angle γ ′ is calculated using data of a plurality of people who travel fast, and the vertical propulsion efficiency 1 = {1- | (γ′−γ) / γ ′ |} × 100 (%) It can also be calculated. Similarly, if δ = arctan (lateral acceleration during kicking / traveling acceleration during kicking) using the lateral acceleration and the traveling acceleration during kicking, the propulsion efficiency in the lateral direction 1 = cos δ × 100 (%) can be calculated. Alternatively, an ideal angle δ ′ is calculated using data of a plurality of people who travel fast, and the propulsion efficiency in the left-right direction is 1 = {1− | (δ′−δ) / δ ′ |} × 100 (%). It can also be calculated.

なお、これ以外にも、γをarctan(蹴り出し時の上下方向の速度/蹴り出し時の進行方向の速度)に置き換えて上下方向の推進効率1を算出することもできる。同様に、δをarctan(蹴り出し時の左右方向の速度/蹴り出し時の進行方向の速度)に置き換えて左右方向の推進効率1を算出することもできる。   In addition, vertical propulsion efficiency 1 can be calculated by replacing γ with arctan (velocity in the vertical direction at the time of kicking / speed in the traveling direction at the time of kicking). Similarly, the propulsion efficiency 1 in the left-right direction can be calculated by replacing δ with arctan (the speed in the left-right direction at the time of kicking / the speed in the moving direction at the time of kicking).

[推進効率2]
推進効率2は、蹴り出しの力が効率よく推進力になっているかを踏込時の加速度の角度を用いて表す運動指標である。上下方向の推進効率2は、踏込時の上下方向加速度と進行方向加速度を用いて、ξ=arctan(踏込時の上下方向加速度/踏込時の進行方向加速度)とすると、上下方向の推進効率2=cosξ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度ξ’を算出し、上下方向の推進効率2={1−|(ξ’−ξ)/ξ’|}×100(%)で計算することもできる。同様に、踏込時の左右方向加速度と進行方向加速度を用いて、η=arctan(踏込時の左右方向加速度/踏込時の進行方向加速度)とすると、左右方向の推進効率2=cosη×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度η’を算出し、左右方向の推進効率2={1−|(η’−η)/η’|}×100(%)で計算することもできる。
[Propulsion efficiency 2]
The propulsion efficiency 2 is an exercise index that indicates whether the kicking force is efficiently a propulsive force by using an acceleration angle at the time of depression. The propulsion efficiency 2 in the vertical direction is expressed as follows. When ξ = arctan (vertical acceleration at the time of depression / traveling direction acceleration at the time of depression) using the vertical acceleration and the acceleration in the traveling direction, the vertical driving efficiency 2 = Cosξ × 100 (%) can be calculated. Alternatively, an ideal angle ξ ′ is calculated using data of a plurality of people who travel fast, and the vertical propulsion efficiency 2 = {1− | (ξ′−ξ) / ξ ′ |} × 100 (%) It can also be calculated. Similarly, if η = arctan (left-right acceleration at the time of depression / travel-direction acceleration at the time of depression) using the left-right acceleration at the time of stepping and the traveling-direction acceleration, the propulsion efficiency in the left-right direction 2 = cos η × 100 (% ). Alternatively, an ideal angle η ′ is calculated using data of a plurality of people who travel fast, and the propulsion efficiency in the left-right direction 2 = {1− | (η′−η) / η ′ |} × 100 (%) It can also be calculated.

なお、これ以外にも、ξをarctan(踏込時の上下方向の速度/踏込時の進行方向の速度)に置き換えて上下方向の推進効率2を算出することもできる。同様に、ηをarctan(踏込時の左右方向の速度/踏込時の進行方向の速度)に置き換えて左右方向の推進効率2を算出することもできる。   In addition, the propulsion efficiency 2 in the vertical direction can also be calculated by replacing ξ with arctan (speed in the vertical direction during depression / speed in the traveling direction during depression). Similarly, η can be replaced with arctan (the speed in the left-right direction during depression / the speed in the traveling direction during depression) to calculate the left-right propulsion efficiency 2.

[推進効率3]
推進効率3は、蹴り出しの力が効率よく推進力になっているかを飛び出しの角度を用いて表す運動指標である。1歩における上下方向の最高到達点(上下方向距離の振幅の1/2)をH、蹴り出しから着地までの進行方向距離をXとすると、推進効率3は、式(6)で計算できる。
[Propulsion efficiency 3]
The propulsion efficiency 3 is an exercise index that indicates whether the kicking force is efficiently a propulsive force by using a jumping angle. Propulsion efficiency 3 can be calculated by equation (6), where H is the highest point in the vertical direction at one step (1/2 of the amplitude of the vertical direction) and X is the distance in the traveling direction from kicking to landing.

[推進効率4]
推進効率4は、蹴り出しの力が効率よく推進力になっているかを、1歩の中で発生した全エネルギーに対する進行方向に進むために使われたエネルギーの比率で表す運動指標であり、推進効率4=(進行方向に進むために使用したエネルギー/1歩に使用したエネルギー)×100(%)で計算される。このエネルギーは、位置エネルギーと運動エネルギーの和である。
[Propulsion efficiency 4]
The propulsion efficiency 4 is an exercise index that expresses whether or not the kicking force is efficiently propelling force by the ratio of energy used to advance in the direction of travel with respect to the total energy generated in one step. Efficiency 4 = (energy used to travel in the traveling direction / energy used for one step) × 100 (%). This energy is the sum of potential energy and kinetic energy.

[運動エネルギー]
運動エネルギーは、1歩進むのに消費するエネルギー量として定義される運動指標であり、1歩進むのに消費するエネルギー量を走行期間積算したものも表す。運動エネルギー=(上下方向のエネルギー消費量+進行方向のエネルギー消費量+左右方向のエネルギー消費量)で計算される。ここで、上下方向のエネルギー消費量=(体重×重力×上下方向
距離)で計算される。また、進行方向のエネルギー消費量=[体重×{(蹴り出し後の進行方向最高速度)−(着地後の進行方向最低速度)}/2]で計算される。また、左右方向のエネルギー消費量=[体重×{(蹴り出し後の左右方向最高速度)−(着地後の左右方向最低速度)}/2]で計算される。
[Physical energy]
Kinetic energy is an exercise index defined as the amount of energy consumed to advance one step, and also represents an accumulation of the amount of energy consumed to advance one step during the travel period. Kinetic energy = (energy consumption in the vertical direction + energy consumption in the traveling direction + energy consumption in the left / right direction). Here, the energy consumption in the vertical direction = (weight × gravity × vertical distance) is calculated. Also, energy consumption in the traveling direction = [weight × {(maximum speed in the traveling direction after kicking out) 2 − (minimum traveling direction speed after landing) 2 } / 2]. Also, the energy consumption in the left-right direction = [body weight × {(maximum speed in the left-right direction after kicking out) 2 − (minimum speed in the left-right direction after landing) 2 } / 2].

[着地衝撃]
着地衝撃は、着地によりどれくらいの衝撃が体にかかっているかを表す運動指標であり、着地衝撃=(上下方向の衝撃力+進行方向の衝撃力+左右方向の衝撃力)で計算される。ここで、上下方向の衝撃力=(体重×着地時の上下方向速度/衝撃時間)で計算される。また、進行方向の衝撃力={体重×(着地前の進行方向速度−着地後の進行方向最低速度)/衝撃時間}で計算される。また、左右方向の衝撃力={体重×(着地前の左右方向速度−着地後の左右方向最低速度)/衝撃時間}で計算される。
[Landing impact]
The landing impact is a motion index indicating how much impact is applied to the body due to landing, and is calculated by landing impact = (vertical impact force + traveling direction impact force + left / right impact force). Here, the vertical impact force = (weight × vertical speed at landing / impact time). Further, the impact force in the traveling direction = {body weight × (traveling direction speed before landing−traveling direction minimum speed after landing) / impact time}. Also, the impact force in the left-right direction = {body weight × (left-right speed before landing−left-right minimum speed after landing) / impact time}.

[ランニング能力]
ランニング能力は、使用者のランニングの力を表す運動指標である。例えば、ストライドと接地時間との比と、ランニングの記録(タイム)との間には相関関係があることが知られており(「100m走レース中の接地時間、離地時間について」、Journal of Research and Development for Future Athletics.3(1):1-4, 2004.)、ランニング能力=(ストライド/接地時間)で計算される。
[Running ability]
The running ability is an exercise index that represents the running ability of the user. For example, it is known that there is a correlation between the ratio between stride and contact time and the running record (time) ("About the contact time and takeoff time during a 100m race", Journal of Research and Development for Future Athletics.3 (1): 1-4, 2004.), running ability = (stride / contact time).

[前傾角]
前傾角は、使用者の胴体が地面に対してどの程度傾いているかを表す運動指標である。使用者が地面に対して垂直に立っている状態の時の前傾角を0度とし、前かがみの時の前傾角は正の値であり、のけぞっている場合の前傾角は負の値である。前傾角は、mフレームのピッチ角を上記の様な仕様となるように変換することで得られる。運動解析装置2(慣性計測ユニット10)を使用者に装着した時に、既に傾きがある可能性があるので、静止時を左の図の0度と仮定し、そこからの変化量で前傾角を計算してもよい。
[Forward tilt]
The forward tilt angle is a motion index representing how much the user's torso is tilted with respect to the ground. The forward tilt angle when the user is standing perpendicular to the ground is 0 degree, the forward tilt angle when leaning forward is a positive value, and the forward tilt angle when sliding is a negative value. The forward tilt angle can be obtained by converting the pitch angle of the m frame so as to have the above specifications. When the motion analyzer 2 (inertial measurement unit 10) is attached to the user, there is a possibility that there is already a tilt. Therefore, it is assumed that the stationary state is 0 degrees in the left figure, and the forward tilt angle is determined by the amount of change from there. You may calculate.

[タイミング一致度]
タイミング一致度は、使用者の特徴点のタイミングが良いタイミングにどれだけ近いかを表す運動指標である。例えば、腰回転のタイミングが蹴り出しのタイミングにどれだけ近いかを表す運動指標が考えられる。脚が流れている走り方では、片脚を着いた時に逆脚はまだ身体の後ろに残っているので、蹴り出し後に腰の回転タイミングが来る場合は脚が流れている走り方と判断できる。腰の回転タイミングが蹴り出しのタイミングとほぼ一致していれば良い走り方と言える。一方、腰の回転タイミングが蹴り出しのタイミングよりも遅れている場合は、脚が流れている走り方と言える。
[Timing coincidence]
The timing coincidence is an exercise index representing how close the timing of the feature point of the user is to a good timing. For example, an exercise index indicating how close the hip rotation timing is to the kicking timing is conceivable. In the running method with legs flowing, the reverse leg still remains behind the body when wearing one leg, so if the hip rotation timing comes after kicking out, it can be determined that the legs are flowing. If the hip rotation timing is almost the same as the kicking timing, it can be said that it is a good way to run. On the other hand, when the hip rotation timing is behind the kicking timing, it can be said that the leg is running.

[脚の流れ]
脚の流れは、蹴りだした脚が次に着地した時点でその脚がどの程度後方にあるかを表す運動指標である。脚の流れは、例えば、着地時の後ろ脚の大腿骨の角度として計算される。例えば、脚の流れと相関のある指標を計算し、この指標から着地時の後ろ脚の大腿骨の角度を、予め求められた相関式を用いて推定することができる。
[Leg flow]
The leg flow is an exercise index that indicates how far the kicked leg is at the next landing point. The leg flow is calculated, for example, as the angle of the femur of the back leg when landing. For example, an index correlated with the flow of the leg can be calculated, and the angle of the femur of the rear leg at the time of landing can be estimated from the index using a correlation equation obtained in advance.

脚の流れと相関のある指標は、例えば、(腰がヨー方向に最大限に回った時の時間−着地時の時間)で計算される。「腰がヨー方向に最大限に回った時」とは、次の1歩の動作の開始時である。着地から次の動作までの時間が長い場合、脚を引き戻すのに時間がかかっていると言え、脚が流れている現象が発生している。   The index correlated with the flow of the legs is calculated by, for example, (time when the hips are turned to the maximum in the yaw direction−time when landing). “When the waist has turned to the maximum in the yaw direction” is the time when the next one-step motion starts. When the time from landing to the next movement is long, it can be said that it takes time to pull back the leg, and the phenomenon of the leg flowing occurs.

あるいは、脚の流れと相関のある指標は、(腰がヨー方向に最大限に回った時のヨー角−着地時のヨー角)で計算される。着地から次の動作までにヨー角の変化が大きい場合、
着地後に脚を引き戻す動作があり、それがヨー角の変化に現れる。そのため、脚が流れている現象が発生している。
Alternatively, an index correlated with the flow of the legs is calculated by (yaw angle when waist is fully turned in the yaw direction−yaw angle when landing). If the yaw angle changes greatly from landing to the next movement,
There is an action to pull back the leg after landing, which appears in the change of yaw angle. Therefore, the phenomenon that the legs are flowing has occurred.

あるいは、着地時のピッチ角を脚の流れと相関のある指標としてもよい。脚が後方に高くある場合、体(腰)が前傾する。そのため、腰につけたセンサーのピッチ角が大きくなる。着地時にピッチ角が大きい時は脚が流れている現象が発生している。   Alternatively, the pitch angle at the time of landing may be used as an index correlated with the flow of the legs. When the legs are high backwards, the body (waist) tilts forward. Therefore, the pitch angle of the sensor attached to the waist increases. When the pitch angle is large at the time of landing, a phenomenon of legs flowing occurs.

1−3−7.第2解析情報
以下に、第2解析情報生成部276により算出される第2解析情報の各項目の詳細について説明する。
1-3-7. Second Analysis Information Hereinafter, details of each item of the second analysis information calculated by the second analysis information generation unit 276 will be described.

[エネルギー損失]
エネルギー損失は、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を表す運動指標であり、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を走行期間積算したものも表す。エネルギー損失={運動エネルギー×(100−真下着地率)×(100−推進効率)}で計算される。ここで、真下着地率は真下着地率1〜3のいずれかであり、推進効率は推進効率1〜4のいずれかである。
[Energy loss]
Energy loss is an exercise index that represents the amount of energy that is wasted in the amount of energy consumed to advance one step, and the amount of energy that was wasted in the amount of energy consumed to advance one step. It also represents the accumulated travel period. Energy loss = {kinetic energy × (100−true landing rate) × (100−propulsion efficiency)}. Here, the true under landing rate is one of the true under landing rates 1 to 3, and the propulsion efficiency is any of the propulsion efficiencies 1 to 4.

[エネルギー効率]
エネルギー効率は、1歩進むのに消費したエネルギーが進行方向へ進むエネルギーに効率よく使われているかを表す運動指標であり、それを走行期間積算したものも表す。エネルギー効率={(運動エネルギー−エネルギー損失)/運動エネルギー}で計算される。
[Energy efficiency]
The energy efficiency is an exercise index that indicates whether the energy consumed to advance one step is efficiently used for the energy that advances in the traveling direction, and also represents an accumulated value of the traveling period. Energy efficiency = {(kinetic energy−energy loss) / kinetic energy}.

[体への負担]
体への負担は、着地衝撃を累積し、体にどれくらいの衝撃がたまっているかを表す運動指標である。怪我は衝撃の蓄積により起こるので、体への負担を評価することにより、怪我のしやすさも判断できる。体への負担=(右脚の負担+左脚の負担)で計算される。右脚の負担は、右脚の着地衝撃を積算することで計算できる。左脚の負担は、左脚の着地衝撃を積算することで計算できる。ここで、積算は走行中の積算と過去からの積算の両方を行う。
[Body burden]
The burden on the body is an exercise index that indicates how much impact is accumulated in the body by accumulating landing impacts. Since injuries occur due to the accumulation of shocks, the ease of injury can be determined by evaluating the burden on the body. Calculated by the burden on the body = (the burden on the right leg + the burden on the left leg). The load on the right leg can be calculated by integrating the landing impact on the right leg. The burden on the left leg can be calculated by integrating the landing impact on the left leg. Here, integration is performed both during running and from the past.

1−3−8.左右差率(左右バランス)
左右差率は、走行ピッチ、ストライド、接地時間、衝撃時間、第1解析情報の各項目及び第2解析情報の各項目について、体の左右でどれくらい差がみられるかを表す運動指標であり、左脚が右脚に対してどれくらい違うかを表すものとする。左右差率=(左脚の数値/右脚の数値×100)(%)で計算され、数値は、走行ピッチ、ストライド、接地時間、衝撃時間、ブレーキ量、推進力、真下着地率、推進効率、速度、加速度、移動距離、前傾角、脚の流れ、腰の回転角、腰の回転角速度、左右への傾き量、ランニング能力、運動エネルギー、エネルギー損失、エネルギー効率、着地衝撃、体への負担の各数値である。また、左右差率は、各数値の平均値や分散も含む。
1-3-8. Left / right difference ratio (left / right balance)
The left / right difference rate is an exercise index that indicates how much difference is seen on the left and right sides of the body for each item of the running pitch, stride, contact time, impact time, first analysis information and second analysis information, Let us represent how much the left leg differs from the right leg. Left / right difference ratio = (Left leg value / Right leg value x 100) (%). The values are travel pitch, stride, contact time, impact time, brake amount, propulsive force, true landing rate, propulsion efficiency. , Speed, acceleration, travel distance, forward tilt angle, leg flow, hip rotation angle, hip rotation angular velocity, left / right tilt amount, running ability, kinetic energy, energy loss, energy efficiency, landing impact, burden on the body Each numerical value of Further, the left / right difference rate includes an average value and variance of each numerical value.

1−3−10.処理の手順
図17は、処理部20が行う運動解析処理の手順の一例を示すフローチャート図である。処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、例えば図17のフローチャートの手順で運動解析処理を実行する。
1-3-10. Processing Procedure FIG. 17 is a flowchart showing an example of the procedure of the motion analysis processing performed by the processing unit 20. The processing unit 20 executes the motion analysis program 300 stored in the storage unit 30 to execute the motion analysis processing, for example, according to the procedure of the flowchart of FIG.

すなわち、運動解析プログラム300は、使用者に取り付けられ、使用者の運動に関する情報を検出するセンサー(例えば、慣性計測ユニット10)からの検出結果を取得する取得部242と、取得した検出結果に基づいて、右足接地期間を含む第1期間と、左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定部24
3と、してコンピューターを機能させる運動解析プログラムである。
That is, the motion analysis program 300 is attached to the user and is based on the acquisition unit 242 that acquires a detection result from a sensor (for example, the inertial measurement unit 10) that detects information related to the user's motion and the acquired detection result. Thus, the left / right determination unit 24 performs a determination process for determining which period is the first period including the right foot contact period and the second period including the left foot contact period.
3 is a motion analysis program for causing the computer to function.

本実施形態においては、主として処理部20によって、使用者に取り付けられ、使用者の運動に関する情報を検出するセンサー(例えば、慣性計測ユニット10)から検出結果を取得する取得工程と、取得した検出結果に基づいて、右足接地期間を含む第1期間と、左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定工程と、を含む、運動解析方法が実現されている。   In the present embodiment, an acquisition step of acquiring a detection result from a sensor (for example, the inertial measurement unit 10) that is attached to the user by the processing unit 20 and detects information related to the user's movement, and the acquired detection result. Based on the above, a motion analysis method is realized including a left / right determination step for performing a determination process for determining which period is a first period including a right foot contact period and a second period including a left foot contact period. ing.

図17に示すように、処理部20は、計測開始のコマンドを受信するまで待機し(S10のN)、計測開始のコマンドを受信した場合(S10のY)、まず、使用者が静止しているものとして、慣性計測ユニット10が計測したセンシングデータ、及び、GPSデータを用いて、初期姿勢、初期位置、初期バイアスを計算する(S20)。   As illustrated in FIG. 17, the processing unit 20 waits until a measurement start command is received (N in S10). When a measurement start command is received (Y in S10), first, the user is stationary. Assuming that the initial attitude, the initial position, and the initial bias are calculated using the sensing data and the GPS data measured by the inertial measurement unit 10 (S20).

次に、処理部20は、慣性計測ユニット10からセンシングデータを取得し、取得したセンシングデータをセンシングデータテーブル310に付加する(S30)。   Next, the processing unit 20 acquires sensing data from the inertial measurement unit 10, and adds the acquired sensing data to the sensing data table 310 (S30).

次に、処理部20は、慣性航法演算処理を行い、各種の情報を含む演算データを生成する(S40)。この慣性航法演算処理の手順の一例は後述する。   Next, the processing unit 20 performs inertial navigation calculation processing, and generates calculation data including various types of information (S40). An example of the procedure of the inertial navigation calculation process will be described later.

次に、処理部20は、S40で生成した演算データを用いて運動解析情報生成処理を行って運動解析情報を生成する(S50)。この運動解析情報生成処理の手順の一例は後述する。   Next, the processing unit 20 performs exercise analysis information generation processing using the operation data generated in S40, and generates exercise analysis information (S50). An example of the procedure of the motion analysis information generation process will be described later.

次に、処理部20は、S40で生成した運動解析情報を用いて走行中出力情報を生成して報知装置3に送信する(S60)。   Next, the processing unit 20 generates traveling output information using the motion analysis information generated in S40 and transmits it to the notification device 3 (S60).

そして、処理部20は、計測終了のコマンドを受信するまで(S70のN及びS80のN)、前回センシングデータを取得してからサンプリング周期Δtが経過する毎に(S70のY)、S30以降の処理を繰り返す。   Then, the processing unit 20 receives a sensing end command (N in S70 and N in S80) every time the sampling period Δt elapses after acquiring the previous sensing data (Y in S70), and after S30. Repeat the process.

処理部20は、計測終了のコマンドを受信すると(S80のY)、S50で生成した運動解析情報を用いて走行結果情報を生成して報知装置3に送信し(S90)、運動解析処理を終了する。   When receiving the measurement end command (Y in S80), the processing unit 20 generates travel result information using the motion analysis information generated in S50 and transmits it to the notification device 3 (S90), and ends the motion analysis processing. To do.

図18は、慣性航法演算処理(図17のS40の処理)の手順の一例を示すフローチャート図である。処理部20(慣性航法演算部22)は、記憶部30に記憶されている慣性航法演算プログラム302を実行することにより、例えば図18のフローチャートの手順で慣性航法演算処理を実行する。   FIG. 18 is a flowchart showing an example of the procedure of the inertial navigation calculation process (the process of S40 of FIG. 17). The processing unit 20 (inertial navigation calculation unit 22) executes the inertial navigation calculation program 302 stored in the storage unit 30, thereby executing the inertial navigation calculation process, for example, according to the procedure shown in the flowchart of FIG.

図18に示すように、まず、処理部20は、図17のS20で算出した初期バイアスを用いて(後述のS150で加速度バイアスb及び角速度バイアスbωを推定した後は、加速度バイアスb及び角速度バイアスbωを用いて)、図17のS30で取得したセンシングデータに含まれる加速度と角速度からバイアスを除去して補正し、補正した加速度と角速度によりセンシングデータテーブル310を更新する(S100)。 As shown in FIG. 18, first, the processing unit 20, after estimating the acceleration bias b a and angular velocity bias b omega in S150 by (described later using the initial bias calculated in S20 in FIG. 17, an acceleration bias b a And the angular velocity bias ), the bias is removed from the acceleration and angular velocity included in the sensing data acquired in S30 of FIG. 17 for correction, and the sensing data table 310 is updated with the corrected acceleration and angular velocity (S100). .

次に、処理部20は、S100で補正したセンシングデータを積分して速度、位置及び姿勢角を計算し、計算した速度、位置及び姿勢角を含む算出データを算出データテーブル340に付加する(S110)。   Next, the processing unit 20 integrates the sensing data corrected in S100 to calculate the speed, position, and attitude angle, and adds calculation data including the calculated speed, position, and attitude angle to the calculation data table 340 (S110). ).

次に、処理部20は、走行検出処理を行う(S120)。この走行検出処理の手順の一
例は後述する。
Next, the processing unit 20 performs a travel detection process (S120). An example of the procedure of the travel detection process will be described later.

次に、処理部20は、走行検出処理(S120)により走行周期を検出した場合(S130のY)、走行ピッチ及びストライドを計算する(S140)。また、処理部20は、走行周期を検出しなかった場合は(S130のN)、S140の処理を行わない。   Next, when the traveling period is detected by the traveling detection process (S120) (Y in S130), the processing unit 20 calculates the traveling pitch and stride (S140). Moreover, the process part 20 does not perform the process of S140, when a driving cycle is not detected (N of S130).

次に、処理部20は、誤差推定処理を行い、速度誤差δv、姿勢角誤差ε、加速度バイアスb、角速度バイアスbω及び位置誤差δpを推定する(S150)。 Then, the processing unit 20 performs error estimation process, speed error .delta.v e, attitude angle error epsilon e, acceleration bias b a, estimates the angular velocity bias b omega and position error δp e (S150).

次に、処理部20は、S150で推定した速度誤差δv、姿勢角誤差ε及び位置誤差δpを用いて、速度、位置及び姿勢角をそれぞれ補正し、補正した速度、位置及び姿勢角により算出データテーブル340を更新する(S160)。また、処理部20は、S160で補正した速度を積分し、eフレームの距離を計算する(S170)。 Then, the processing unit 20, the speed error .delta.v e estimated in S150, using the attitude angle error epsilon e and position error .delta.p e, speed, and corrects position and orientation angle of each corrected speed, position and attitude angle Thus, the calculation data table 340 is updated (S160). Further, the processing unit 20 integrates the speed corrected in S160, and calculates the distance of the e frame (S170).

次に、処理部20は、センシングデータテーブル310に記憶されているセンシングデータ(bフレームの加速度及び角速度)、算出データテーブル340に記憶されている算出データ(eフレームの速度、位置及び姿勢角)及びS170で算出したeフレームの距離を、それぞれ、mフレームの加速度、角速度、速度、位置、姿勢角及び距離に座標変換する(S180)。   Next, the processing unit 20 detects sensing data (b frame acceleration and angular velocity) stored in the sensing data table 310, and calculated data (e frame velocity, position, and attitude angle) stored in the calculation data table 340. And the e-frame distance calculated in S170 are converted into m-frame acceleration, angular velocity, speed, position, posture angle, and distance, respectively (S180).

そして、処理部20は、S180で座標変換した後のmフレームの加速度、角速度、速度、位置、姿勢角及び距離、S140で算出したストライド、走行ピッチを左右足フラグ含む演算データを生成する(S190)。処理部20は、図17のS30でセンシングデータを取得する毎に、この慣性航法演算処理(S100〜S190の処理)を行う。   Then, the processing unit 20 generates calculation data including left and right foot flags including m frame acceleration, angular velocity, speed, position, posture angle and distance, stride calculated in S140, and travel pitch after coordinate conversion in S180 (S190). ). The processing unit 20 performs this inertial navigation calculation processing (processing of S100 to S190) every time sensing data is acquired in S30 of FIG.

図19は、走行検出処理(図18のS120の処理)の手順の一例を示すフローチャート図である。処理部20(走行検出部244)は、例えば図19のフローチャートの手順で走行検出処理を実行する。   FIG. 19 is a flowchart showing an example of the procedure of the travel detection process (the process of S120 in FIG. 18). The processing unit 20 (running detection unit 244) executes the running detection process, for example, according to the procedure shown in the flowchart of FIG.

図19に示すように、処理部20は、図18のS100で補正した加速度に含まれるz軸加速度をローパスフィルター処理し(S200)、ノイズを除去する。   As shown in FIG. 19, the processing unit 20 performs low-pass filter processing on the z-axis acceleration included in the acceleration corrected in S100 of FIG. 18 (S200), and removes noise.

次に、処理部20は、S200でローパスフィルター処理したz軸加速度が閾値以上かつ極大値の場合(S210のY)、このタイミングで走行周期を検出する(S220)。   Next, when the z-axis acceleration subjected to the low-pass filter processing in S200 is equal to or greater than the threshold value and the maximum value (Y in S210), the processing unit 20 detects the traveling cycle at this timing (S220).

次に、処理部20は、判定処理を行い(S230)、走行検出処理を終了する。S230では、S220で検出した走行周期が左右いずれの走行周期かを判定して左右足フラグを設定する。処理部20は、z軸加速度が閾値未満か極大値でなければ(S210のN)、S220以降の処理を行わずに走行検出処理を終了する。   Next, the processing unit 20 performs a determination process (S230) and ends the travel detection process. In S230, the left and right foot flag is set by determining whether the travel cycle detected in S220 is the left or right travel cycle. If the z-axis acceleration is not less than the threshold value or the maximum value (N in S210), the processing unit 20 ends the traveling detection process without performing the processes after S220.

図20は、判定処理(図19のS230の処理)の手順の一例を示すフローチャート図である。処理部20(左右判定部243)は、例えば図20のフローチャートの手順で判定処理を実行する。   FIG. 20 is a flowchart illustrating an example of the procedure of the determination process (the process of S230 in FIG. 19). The processing unit 20 (left / right determination unit 243) executes the determination process, for example, according to the procedure of the flowchart of FIG.

図20に示すように、処理部20は、センサーからの検出結果としてz軸角速度を取得し(取得工程)、図18のS100で補正した角速度に含まれるz軸角速度をローパスフィルター処理し(S251)、ノイズを除去する。   As illustrated in FIG. 20, the processing unit 20 acquires the z-axis angular velocity as a detection result from the sensor (acquisition step), and performs low-pass filter processing on the z-axis angular velocity included in the angular velocity corrected in S100 of FIG. 18 (S251). ) Remove noise.

次に、処理部20は、S251でローパスフィルター処理したz軸角速度が正値かつ絶対値が基準値以上の場合(S252のY)、左右足フラグとして「左足」に相当するフラ
グを生成して(S253)判定処理を終了する。
Next, when the z-axis angular velocity subjected to the low-pass filter process in S251 is a positive value and the absolute value is equal to or greater than the reference value (Y in S252), the processing unit 20 generates a flag corresponding to “left foot” as the left and right foot flag. (S253) The determination process is terminated.

z軸角速度が正値かつ絶対値が基準値以上ではない場合(S252でN)において、処理部20は、S251でローパスフィルター処理したz軸角速度が負値かつ絶対値が基準値以上の場合(S254のY)、左右足フラグとして「右足」に相当するフラグを生成して(S255)、判定処理を終了する。   When the z-axis angular velocity is a positive value and the absolute value is not greater than or equal to the reference value (N in S252), the processing unit 20 performs the low-pass filter processing performed in S251 when the z-axis angular velocity is a negative value and the absolute value is greater than or equal to the reference value ( (Y in S254), a flag corresponding to “right foot” is generated as the left and right foot flag (S255), and the determination process is terminated.

z軸角速度が負値かつ絶対値が基準値以上ではない場合(S254でN)には、左右足フラグの更新を行わずに判定処理を終了する。   If the z-axis angular velocity is negative and the absolute value is not greater than or equal to the reference value (N in S254), the determination process is terminated without updating the left and right foot flags.

図21は、運動解析情報生成処理(図17のS50の処理)の手順の一例を示すフローチャート図である。処理部20(運動解析部24)は、記憶部30に記憶されている運動解析情報生成プログラム304を実行することにより、例えば図21のフローチャートの手順で運動解析情報生成処理を実行する。   FIG. 21 is a flowchart showing an example of the procedure of the motion analysis information generation process (the process of S50 in FIG. 17). The processing unit 20 (motion analysis unit 24) executes the motion analysis information generation program 304 by executing the motion analysis information generation program 304 stored in the storage unit 30, for example, according to the procedure of the flowchart of FIG.

図21に示すように、まず、処理部20は、図17のS40の慣性航法演算処理で生成した演算データを用いて、基本情報の各項目を算出する(S300)。   As shown in FIG. 21, first, the processing unit 20 calculates each item of basic information using the calculation data generated in the inertial navigation calculation process of S40 of FIG. 17 (S300).

次に、処理部20は、演算データを用いて、使用者の走行運動における特徴点(着地、踏込、離地等)の検出処理を行う(S310)。   Next, the processing unit 20 performs detection processing of feature points (landing, stepping, takeoff, etc.) in the user's running motion using the calculation data (S310).

処理部20は、S310の処理で特徴点を検出した場合(S320のY)、特徴点を検出したタイミングに基づき、接地時間及び衝撃時間を算出する(S330)。また、処理部20は、演算データの一部及びS330で生成した接地時間及び衝撃時間を入力情報として、特徴点を検出したタイミングに基づき、第1解析情報の一部の項目(算出に特徴点の情報が必要な項目)を算出する(S340)。処理部20は、S310の処理で特徴点を検出しなかった場合は(S320のN)、S330及びS340の処理を行わない。   When the feature point is detected in the process of S310 (Y of S320), the processing unit 20 calculates the contact time and the impact time based on the timing at which the feature point is detected (S330). Further, the processing unit 20 uses a part of the calculation data and the contact time and impact time generated in S330 as input information, and based on the timing at which the feature points are detected, some items (feature points for calculation). (Items requiring information) are calculated (S340). When the feature point is not detected in the process of S310 (N of S320), the processing unit 20 does not perform the processes of S330 and S340.

次に、処理部20は、入力情報を用いて、第1解析情報の他の項目(算出に特徴点の情報が不要な項目)を算出する(S350)。S350において、使用者の運動エネルギーが算出される。   Next, the processing unit 20 uses the input information to calculate other items of the first analysis information (items that do not require feature point information for calculation) (S350). In S350, the kinetic energy of the user is calculated.

次に、処理部20は、第1解析情報を用いて、第2解析情報の各項目を算出する(S360)。   Next, the processing unit 20 calculates each item of the second analysis information using the first analysis information (S360).

次に、処理部20は、入力情報の各項目、第1解析情報の各項目及び第2解析情報の各項目に対して左右差率を算出する(S370)。   Next, the processing unit 20 calculates a left / right difference ratio for each item of the input information, each item of the first analysis information, and each item of the second analysis information (S370).

次に、処理部20は、S300〜S370で算出した各情報に現在の計測時刻を付加して記憶部30に記憶(S380)し、運動解析情報生成処理を終了する。   Next, the processing unit 20 adds the current measurement time to each piece of information calculated in S300 to S370 and stores it in the storage unit 30 (S380), and ends the motion analysis information generation process.

1−4.報知装置
1−4−1.報知装置の構成
図22は、報知装置3の構成例を示す機能ブロック図である。図22に示すように、出力部110、報知装置3は、出力部110、処理部120、記憶部130、通信部140、操作部150及び計時部160を含んで構成されている。ただし、本実施形態の報知装置3は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
1-4. Notification device 1-4-1. Configuration of Notification Device FIG. 22 is a functional block diagram illustrating a configuration example of the notification device 3. As shown in FIG. 22, the output unit 110 and the notification device 3 are configured to include an output unit 110, a processing unit 120, a storage unit 130, a communication unit 140, an operation unit 150, and a time measuring unit 160. However, the notification device 3 of the present embodiment may have a configuration in which some of these components are deleted or changed, or other components are added.

記憶部130は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカー
ド等のプログラムやデータを記憶する記録媒体や、処理部120の作業領域となるRAM等により構成される。
The storage unit 130 includes, for example, a recording medium that stores programs and data such as a ROM, a flash ROM, a hard disk, and a memory card, and a RAM that is a work area of the processing unit 120.

通信部140は、運動解析装置2の通信部40(図3参照)との間でデータ通信を行うものであり、処理部120から操作データに応じたコマンド(計測開始/計測終了のコマンド等)を受け取って運動解析装置2の通信部40に送信する処理、運動解析装置2の通信部40から送信された走行中出力情報や走行結果情報を受信して処理部120に送る処理等を行う。   The communication unit 140 performs data communication with the communication unit 40 (see FIG. 3) of the motion analysis apparatus 2, and commands (such as measurement start / measurement end commands) according to operation data from the processing unit 120. Is received and transmitted to the communication unit 40 of the motion analysis device 2, and the output information and the travel result information transmitted from the communication unit 40 of the motion analysis device 2 are received and sent to the processing unit 120.

操作部150は、使用者からの操作データ(計測開始/計測終了の操作データ、表示内容の選択等の操作データ等)を取得し、処理部120に送る処理を行う。操作部150は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。   The operation unit 150 performs processing for acquiring operation data (operation data for measurement start / end of measurement, operation data for selecting display contents, etc.) from the user and sending it to the processing unit 120. The operation unit 150 may be, for example, a touch panel display, a button, a key, a microphone, or the like.

計時部160は、年、月、日、時、分、秒等の時刻情報を生成する処理を行う。計時部160は、例えば、リアルタイムクロック(RTC:Real Time Clock)ICなどで実現される。   The timer unit 160 performs processing for generating time information such as year, month, day, hour, minute, and second. The timer unit 160 is realized by a real time clock (RTC) IC, for example.

出力部110は、運動解析装置2の出力部280が生成して出力する差分情報を出力する。また、出力部110は、後述される評価結果を出力してもよい。図22に示される例では、出力部110は、表示部170、音出力部180及び振動部190を含んで構成されている。   The output unit 110 outputs difference information generated and output by the output unit 280 of the motion analysis apparatus 2. The output unit 110 may output an evaluation result described later. In the example shown in FIG. 22, the output unit 110 includes a display unit 170, a sound output unit 180, and a vibration unit 190.

表示部170は、処理部120から送られてきた画像データやテキストデータを、文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部170は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ、EPD(Electrophoretic Display)等のディスプレイで実現され、タッチパネル型ディスプレイであってもよい。なお、1つのタッチパネル型ディスプレイで操作部150と表示部170の機能を実現するようにしてもよい。   The display unit 170 displays the image data and text data sent from the processing unit 120 as characters, graphs, tables, animations, and other images. The display unit 170 is realized by a display such as an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) display, or an EPD (Electrophoretic Display), and may be a touch panel display. Note that the functions of the operation unit 150 and the display unit 170 may be realized by a single touch panel display.

音出力部180は、処理部120から送られてきた音データを、音声やブザー音等の音として出力するものである。音出力部180は、例えば、スピーカーやブザーなどで実現される。   The sound output unit 180 outputs the sound data sent from the processing unit 120 as sound such as sound or buzzer sound. The sound output unit 180 is realized by, for example, a speaker or a buzzer.

振動部190は、処理部120から送られてきた振動データに応じて振動する。この振動が報知装置3に伝わり、報知装置3を装着した使用者が振動を感じることができる。振動部190は、例えば、振動モーターなどで実現される。   The vibration unit 190 vibrates according to the vibration data sent from the processing unit 120. This vibration is transmitted to the notification device 3, and a user wearing the notification device 3 can feel the vibration. The vibration unit 190 is realized by, for example, a vibration motor.

処理部120は、例えば、CPU、DSP、ASIC等により構成され、記憶部130(記録媒体)に記憶されているプログラムを実行することにより、各種の演算処理や制御処理を行う。例えば、処理部120は、操作部150から受け取った操作データに応じた各種処理(計測開始/計測終了のコマンドを通信部140に送る処理や操作データに応じた表示処理や音出力処理等)、通信部140から走行中出力情報を受け取り、運動解析情報に応じたテキストデータや画像データを生成して表示部170に送る処理、運動解析情報に応じた音データを生成して音出力部180に送る処理、運動解析情報に応じた振動データを生成して振動部190に送る処理を行う。また、処理部120は、計時部160から受け取った時刻情報に応じた時刻画像データを生成して表示部170に送る処理等を行う。   The processing unit 120 includes, for example, a CPU, a DSP, an ASIC, and the like, and performs various arithmetic processes and control processes by executing a program stored in the storage unit 130 (recording medium). For example, the processing unit 120 performs various types of processing according to operation data received from the operation unit 150 (processing for sending measurement start / measurement end commands to the communication unit 140, display processing according to operation data, sound output processing, and the like), Processing for receiving output information during traveling from the communication unit 140, generating text data and image data corresponding to the motion analysis information and sending them to the display unit 170, and generating sound data corresponding to the motion analysis information to the sound output unit 180 A process of sending and vibration data corresponding to the motion analysis information are generated and sent to the vibration unit 190. Further, the processing unit 120 performs processing for generating time image data corresponding to the time information received from the time measuring unit 160 and sending the time image data to the display unit 170.

処理部120は、例えば、左右差率が基準値よりも悪い運動指標があれば音や振動により報知するとともに、左右差率が基準値よりも悪い運動指標の値を表示部170に表示さ
せる。処理部120は、基準値よりも悪い運動指標の種類に応じて異なる種類の音や振動を発生させてもよいし、運動指標毎に基準値よりも悪い程度によって音や振動の種類を変えてもよい。基準値よりも悪い運動指標が複数存在する場合、処理部120は、最も悪い運動指標に応じた種類の音や振動を発生させるとともに、例えば、図23(A)に示すように、基準値よりも悪いすべての運動指標の値と基準値の情報を表示部170に表示させてもよい。
For example, if there is an exercise index whose left-right difference rate is worse than the reference value, the processing unit 120 notifies the display unit 170 of a value of the exercise index whose left-right difference rate is worse than the reference value. The processing unit 120 may generate different types of sounds and vibrations according to the types of exercise indices that are worse than the reference values, or change the types of sounds and vibrations depending on the degree of worseness than the reference values for each exercise index. Also good. When there are a plurality of exercise indices that are worse than the reference value, the processing unit 120 generates a type of sound or vibration corresponding to the worst exercise index, and, for example, as shown in FIG. In addition, information on all bad exercise index values and reference values may be displayed on the display unit 170.

基準値と比較する運動指標は、走行中出力情報に含まれるすべての運動指標であってもよいし、予め決められた特定の運動指標のみであってもよいし、使用者が操作部150等を操作して選択可能にしてもよい。   The motion index to be compared with the reference value may be all motion indexes included in the running output information, or may be only a specific motion index determined in advance, or the user may use the operation unit 150 or the like. May be selected by operating.

使用者は、表示部170に表示される情報を見なくても、音や振動の種類から、どの運動指標が最も悪く、どの程度悪いのかを把握しながら走行を継続することができる。さらに、使用者は、表示部170に表示される情報を見れば、基準値よりも悪いすべての運動指標の値と当該基準値との差を正確に認識することもできる。   Even without looking at the information displayed on the display unit 170, the user can continue traveling while grasping which exercise index is the worst and how bad from the type of sound or vibration. Furthermore, the user can also accurately recognize the difference between the values of all exercise indices that are worse than the reference value and the reference value by looking at the information displayed on the display unit 170.

また、音や振動を発生させる対象の運動指標は、使用者が操作部150等を操作して、基準値と比較する運動指標の中から選択可能にしてもよい。この場合も、例えば、基準値よりも悪いすべての運動指標の値と基準値の情報を表示部170に表示させてもよい。   In addition, the motion index that is a target for generating sound and vibration may be selectable from among motion indexes that are compared with a reference value by the user operating the operation unit 150 or the like. Also in this case, for example, the values of all exercise indices and reference value information worse than the reference value may be displayed on the display unit 170.

また、使用者が操作部150を介して報知周期の設定(例えば、1分毎に5秒間音や振動を発生させる等の設定)を行い、処理部120が設定された報知周期に応じて使用者に報知してもよい。   Further, the user sets a notification cycle (for example, setting for generating a sound or vibration for 5 seconds every minute) via the operation unit 150, and the processing unit 120 is used according to the set notification cycle. A person may be notified.

また、本実施形態では、処理部120は、通信部140を介して、運動解析装置2から送信された走行結果情報を取得し、表示部170に走行結果情報を表示する。例えば、図23(B)に示すように、処理部120は、走行結果情報に含まれる、使用者の走行中における各運動指標の平均値を表示部170に表示する。使用者は、走行終了後(計測終了操作を行った後)に、表示部170を見れば、各運動指標の良し悪しをすぐに認識することができる。   In the present embodiment, the processing unit 120 acquires the travel result information transmitted from the motion analysis device 2 via the communication unit 140 and displays the travel result information on the display unit 170. For example, as illustrated in FIG. 23B, the processing unit 120 displays the average value of each exercise index during the traveling of the user included in the traveling result information on the display unit 170. The user can immediately recognize whether each exercise index is good or bad by looking at the display unit 170 after the end of travel (after performing the measurement end operation).

1−4−2.処理の手順
図24は、処理部120が行う報知処理の手順の一例を示すフローチャート図である。処理部120は、記憶部130に記憶されているプログラムを実行することにより、例えば図20のフローチャートの手順で報知処理を実行する。
1-4-2. Processing Procedure FIG. 24 is a flowchart illustrating an example of a notification processing procedure performed by the processing unit 120. The processing unit 120 executes the notification process according to the procedure of the flowchart of FIG. 20, for example, by executing the program stored in the storage unit 130.

図24に示すように、処理部120は、まず、処理部120は、操作部150から計測開始の操作データを取得するまで待機し(S410のN)、計測開始の操作データを取得した場合(S410のY)、通信部140を介して、計測開始のコマンドを運動解析装置2に送信する(S420)。   As shown in FIG. 24, the processing unit 120 first waits until the processing unit 120 acquires operation data for starting measurement from the operation unit 150 (N in S410), and acquires the operation data for starting measurement (S410). (Y in S410), a measurement start command is transmitted to the motion analysis apparatus 2 via the communication unit 140 (S420).

次に、処理部120は、操作部150から計測終了の操作データを取得するまでは(S470のN)、通信部140を介して、運動解析装置2から走行中出力情報を取得する毎に(S430のY)、取得した走行中出力情報に含まれる各運動指標の値をS400で取得した各基準値と比較する(S440)。   Next, every time the processing unit 120 acquires the traveling output information from the motion analysis apparatus 2 via the communication unit 140 until the operation data indicating the end of measurement is acquired from the operation unit 150 (N in S470) ( (Y of S430), the value of each motion index included in the acquired traveling output information is compared with each reference value acquired in S400 (S440).

基準値よりも悪い運動指標が存在する場合(S450のY)、処理部120は、基準値よりも悪い運動指標の情報を生成し、音出力部180、振動部190及び表示部170を介して音、振動、文字等により使用者に報知する(S460)。   If there is an exercise index that is worse than the reference value (Y in S450), the processing unit 120 generates information on an exercise index that is worse than the reference value, via the sound output unit 180, the vibration unit 190, and the display unit 170. The user is notified by sound, vibration, character, etc. (S460).

一方、基準値よりも悪い運動指標が存在しない場合(S450のN)、処理部120は、S460の処理を行わない。   On the other hand, when there is no exercise index worse than the reference value (N in S450), the processing unit 120 does not perform the process in S460.

そして、処理部120は、操作部150から計測終了の操作データを取得すると(S470のY)、通信部140を介して、運動解析装置2から走行結果情報を取得して表示部170に表示させ(S480)、報知処理を終了する。   Then, when the processing unit 120 acquires the operation data of the measurement end from the operation unit 150 (Y in S470), the processing unit 120 acquires the travel result information from the motion analysis device 2 via the communication unit 140 and causes the display unit 170 to display the travel result information. (S480), the notification process is terminated.

このように、使用者は、S450で報知される情報に基づき、走行状態を認識しながら走行することができる。また、使用者は、S480で表示される情報に基づき、走行終了後、直ちに走行結果を認識することができる。   As described above, the user can travel while recognizing the traveling state based on the information notified in S450. In addition, the user can recognize the traveling result immediately after the traveling based on the information displayed in S480.

1−5.情報分析装置
1−5−1.情報分析装置の構成
図25は、情報分析装置4の構成例を示す機能ブロック図である。図25に示すように、情報分析装置4は、処理部420、記憶部430、通信部440、操作部450、通信部460、表示部470及び音出力部480を含んで構成されている。ただし、本実施形態の情報分析装置4は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
1-5. Information analysis apparatus 1-5-1. Configuration of Information Analysis Device FIG. 25 is a functional block diagram illustrating a configuration example of the information analysis device 4. As shown in FIG. 25, the information analysis device 4 includes a processing unit 420, a storage unit 430, a communication unit 440, an operation unit 450, a communication unit 460, a display unit 470, and a sound output unit 480. However, the information analysis device 4 of the present embodiment may have a configuration in which some of these components are deleted or changed, or other components are added.

通信部440は、運動解析装置2の通信部40(図3参照)の間でデータ通信を行うものであり、操作データに応じて指定された運動解析情報の送信を要求する送信要求コマンドを処理部420から受け取って運動解析装置2の通信部40に送信し、当該運動解析情報を運動解析装置2の通信部40から受信して処理部420に送る処理等を行う。   The communication unit 440 performs data communication between the communication units 40 (see FIG. 3) of the motion analysis apparatus 2 and processes a transmission request command for requesting transmission of motion analysis information designated according to operation data. Processing is received from the unit 420 and transmitted to the communication unit 40 of the motion analysis device 2, and the motion analysis information is received from the communication unit 40 of the motion analysis device 2 and sent to the processing unit 420.

通信部460は、サーバー5との間でデータ通信を行うものであり、処理部420から登録対象の走行データを受け取ってサーバー5に送信する処理(走行データの登録処理)、走行データの編集、削除、入れ替え等の操作データに応じた管理情報を処理部420から受け取ってサーバー5に送信する処理等を行う。   The communication unit 460 performs data communication with the server 5, and receives processing data to be registered from the processing unit 420 and transmits it to the server 5 (processing for registering driving data), editing of driving data, A process of receiving management information corresponding to operation data such as deletion and replacement from the processing unit 420 and transmitting it to the server 5 is performed.

操作部450は、使用者からの操作データ(走行データの登録、編集、削除、入れ替え等の操作データ等)を取得し、処理部420に送る処理を行う。操作部450は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。   The operation unit 450 performs a process of acquiring operation data from the user (operation data such as registration, editing, deletion, and replacement of travel data) and sending it to the processing unit 420. The operation unit 450 may be, for example, a touch panel display, a button, a key, a microphone, or the like.

表示部470は、処理部420から送られてきた画像データやテキストデータを、文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部470は、例えば、LCD、有機ELディスプレイ、EPD等のディスプレイで実現され、タッチパネル型ディスプレイであってもよい。なお、1つのタッチパネル型ディスプレイで操作部450と表示部470の機能を実現するようにしてもよい。   The display unit 470 displays the image data and text data sent from the processing unit 420 as characters, graphs, tables, animations, and other images. The display unit 470 is realized by a display such as an LCD, an organic EL display, or an EPD, and may be a touch panel type display. In addition, you may make it implement | achieve the function of the operation part 450 and the display part 470 with one touchscreen type display.

音出力部480は、処理部420から送られてきた音データを、音声やブザー音等の音として出力するものである。音出力部480は、例えば、スピーカーやブザーなどで実現される。   The sound output unit 480 outputs the sound data sent from the processing unit 420 as sound such as sound or buzzer sound. The sound output unit 480 is realized by, for example, a speaker or a buzzer.

記憶部430は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部420の作業領域となるRAM等により構成される。記憶部430(いずれかの記録媒体)には、処理部420によって読み出され、分析処理を実行するための分析プログラム432が記憶されている。   The storage unit 430 includes, for example, a recording medium that stores programs and data such as a ROM, a flash ROM, a hard disk, and a memory card, and a RAM that is a work area of the processing unit 420. The storage unit 430 (any recording medium) stores an analysis program 432 that is read by the processing unit 420 and that executes analysis processing.

処理部420は、例えば、CPU、DSP、ASIC等により構成され、記憶部430(記録媒体)に記憶されている各種プログラムを実行することにより、各種の演算処理や
制御処理を行う。例えば、処理部420は、操作部450から受け取った操作データに応じて指定された運動解析情報の送信を要求する送信要求コマンドを、通信部440を介して運動解析装置2に送信し、通信部440を介して当該運動解析情報を運動解析装置2から受信する処理や、操作部450から受け取った操作データに応じて、運動解析装置2から受信した運動解析情報を含む走行データを生成し、通信部460を介してサーバー5に送信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じた管理情報を、通信部460を介してサーバー5に送信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じて選択された評価対象の走行データの送信要求を、通信部460を介してサーバー5に送信し、通信部460を介してサーバー5から当該評価対象の走行データを受信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じて選択された評価対象の走行データを分析して分析結果の情報である分析情報を生成し、テキストデータや画像データ、音データ等として表示部470や音出力部480に送る処理を行う。
The processing unit 420 includes, for example, a CPU, a DSP, an ASIC, and the like, and performs various arithmetic processes and control processes by executing various programs stored in the storage unit 430 (recording medium). For example, the processing unit 420 transmits a transmission request command for requesting transmission of exercise analysis information designated according to the operation data received from the operation unit 450 to the exercise analysis device 2 via the communication unit 440, and the communication unit In response to the process of receiving the motion analysis information from the motion analysis device 2 via 440 and the operation data received from the operation unit 450, the travel data including the motion analysis information received from the motion analysis device 2 is generated and communicated. Processing to transmit to the server 5 via the unit 460 is performed. Further, the processing unit 420 performs processing for transmitting management information corresponding to the operation data received from the operation unit 450 to the server 5 via the communication unit 460. In addition, the processing unit 420 transmits a transmission request of the evaluation target travel data selected according to the operation data received from the operation unit 450 to the server 5 through the communication unit 460, and transmits the server 5 through the communication unit 460. 5 to receive the evaluation target travel data. Further, the processing unit 420 analyzes the travel data to be evaluated selected according to the operation data received from the operation unit 450 to generate analysis information that is analysis result information, and generates text data, image data, and sound data. Etc., and the processing to be sent to the display unit 470 and the sound output unit 480.

特に、本実施形態では、処理部420は、記憶部430に記憶されている分析プログラム432を実行することにより、運動解析情報取得部422及び分析情報生成部424として機能する。ただし、処理部420は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている分析プログラム432を受信して実行してもよい。   In particular, in the present embodiment, the processing unit 420 functions as the motion analysis information acquisition unit 422 and the analysis information generation unit 424 by executing the analysis program 432 stored in the storage unit 430. However, the processing unit 420 may receive and execute the analysis program 432 stored in an arbitrary storage device (recording medium) via a network or the like.

運動解析情報取得部422は、サーバー5のデータベースから(あるいは運動解析装置2から)、分析対象の使用者の運動の解析結果の情報である運動解析情報を取得する処理を行う。運動解析情報取得部422が取得した運動解析情報は記憶部430に記憶される。この運動解析情報は、同一の運動解析装置2が生成したものであってもよいし、複数の異なる運動解析装置2のいずれかが生成したものであってもよい。運動解析情報取得部422が取得する複数の運動解析情報は、使用者の各種の運動指標(例えば、上述した各種の左右別の運動指標)の値を含んでもよい。   The motion analysis information acquisition unit 422 performs processing for acquiring motion analysis information, which is information on the analysis result of the motion of the user to be analyzed, from the database of the server 5 (or from the motion analysis device 2). The motion analysis information acquired by the motion analysis information acquisition unit 422 is stored in the storage unit 430. This motion analysis information may be generated by the same motion analysis device 2 or may be generated by any of a plurality of different motion analysis devices 2. The plurality of pieces of motion analysis information acquired by the motion analysis information acquisition unit 422 may include values of various types of motion indices of the user (for example, the above-described various left and right motion indices).

分析情報生成部424は、運動解析情報取得部422が取得した運動解析情報を用いて、分析対象の使用者の走行能力に関する分析情報を生成する処理を行う。分析情報生成部424は、例えば、操作部450から受け取った操作データにおいて選択された期間における分析対象の使用者の運動解析情報を用いて分析情報を生成してもよい。   The analysis information generation unit 424 uses the motion analysis information acquired by the motion analysis information acquisition unit 422 to perform processing for generating analysis information regarding the running ability of the user to be analyzed. For example, the analysis information generation unit 424 may generate the analysis information using the motion analysis information of the user to be analyzed in the period selected in the operation data received from the operation unit 450.

分析情報生成部424は、分析対象の使用者が走行を実施した日付毎の走行能力を比較可能な分析情報を生成してもよい。例えば、使用者が7月1日、7月8日、7月15日に3回走行した場合、使用者の走行能力を7月1日、7月8日、7月15日のそれぞれで比較可能な分析情報を生成してもよい。   The analysis information generation unit 424 may generate analysis information that can compare the running ability for each date on which the user to be analyzed has run. For example, if the user runs three times on July 1, July 8, and July 15, the user's driving ability is compared on July 1, July 8, and July 15, respectively. Possible analysis information may be generated.

また、分析情報生成部424は、サーバー5のデータベースに登録されている、分析対象の使用者を含む複数の使用者の走行データ(運動解析情報)にそれぞれ含まれる運動指標の値を用いて、分析対象の使用者の走行能力を相対的に評価可能な分析情報を生成してもよい。例えば、当該複数の使用者は、操作部450から受け取った操作データにおいて選択された使用者であってもよい。例えば、分析情報生成部424は、当該複数の使用者の運動指標値のうち、最も高い指標値を10、最も低い指標値を0として、分析対象の使用者の運動指標値を0〜10の値に変換し、変換した運動指標値の情報を含む分析情報を生成してもよいし、当該複数の使用者の運動指標値を用いて分析対象の使用者の運動指標値の偏差値を計算し、当該偏差値の情報を含む分析情報を生成してもよい。   In addition, the analysis information generation unit 424 uses the value of the exercise index included in each of the traveling data (exercise analysis information) of a plurality of users including the analysis target user registered in the database of the server 5, Analysis information that can relatively evaluate the running ability of the user to be analyzed may be generated. For example, the plurality of users may be users selected in the operation data received from the operation unit 450. For example, the analysis information generation unit 424 sets 10 as the highest index value and 0 as the lowest index value among the motion index values of the plurality of users, and sets the motion index value of the analysis target user as 0 to 10. It is possible to generate analysis information including information on the converted motion index value by converting to a value, or calculate the deviation value of the motion index value of the user to be analyzed using the motion index values of the plurality of users Then, analysis information including information on the deviation value may be generated.

処理部420は、分析情報生成部424により生成した分析情報を用いて、テキスト、画像などの表示データや音声等の音データを生成し、表示部470や音出力部480に出力する。これにより、表示部470や音出力部480から分析対象の複数の使用者の分析
結果が提示される。
The processing unit 420 uses the analysis information generated by the analysis information generation unit 424 to generate display data such as text and images and sound data such as sound and outputs the generated data to the display unit 470 and the sound output unit 480. Thereby, the analysis results of a plurality of users to be analyzed are presented from the display unit 470 and the sound output unit 480.

1−5−2.処理の手順
図26は、処理部420が行う分析処理の手順の一例を示すフローチャート図である。処理部420は、記憶部430に記憶されている分析プログラム432を実行することにより、例えば図26のフローチャートの手順で分析処理を実行する。
1-5-2. Processing Procedure FIG. 26 is a flowchart illustrating an example of the analysis processing procedure performed by the processing unit 420. The processing unit 420 executes the analysis process according to the procedure of the flowchart of FIG. 26, for example, by executing the analysis program 432 stored in the storage unit 430.

まず、処理部420は、分析対象を指定する操作データを取得するまで待機し(S600のN)、分析対象を指定する操作データを取得した場合(S600のY)、当該操作データにおいて指定された使用者(分析対象の使用者)の指定された期間(分析対象の期間)における運動解析情報(具体的には、走行データ)を、通信部460を介してサーバー5のデータベースから取得し、記憶部430に記憶させる(S610)。   First, the processing unit 420 waits until operation data specifying an analysis target is acquired (N in S600). When operation data specifying an analysis target is acquired (Y in S600), the processing unit 420 is specified in the operation data. Movement analysis information (specifically, travel data) in a specified period (analysis target period) of the user (analysis target user) is acquired from the database of the server 5 via the communication unit 460 and stored. The data is stored in the unit 430 (S610).

次に、処理部420は、S610で取得した運動解析情報(走行データ)を用いて、指定された使用者(分析対象の使用者)の指定された期間(分析対象の期間)における走行能力の分析情報を生成し、表示部270に表示させる(S620)。   Next, the processing unit 420 uses the motion analysis information (running data) acquired in S610 to determine the running ability of the designated user (analysis target user) in the specified period (analysis target period). Analysis information is generated and displayed on the display unit 270 (S620).

次に、処理部420は、分析対象を変更する操作データ又は分析終了の操作データを取得しなければ(S630のNかつS640のN)、S620の処理を行う。   Next, if the processing unit 420 does not acquire operation data for changing an analysis target or operation data for completion of analysis (N in S630 and N in S640), the processing unit 420 performs the process in S620.

処理部420は、分析対象を変更する操作データを取得した場合は(S630のY)、S610及びS620の処理を再び行い、分析終了の操作データを取得した場合は(S640のY)、分析処理を終了する。   The processing unit 420 performs the processing of S610 and S620 again when acquiring the operation data for changing the analysis target (Y of S630), and acquires the operation data of the end of analysis (Y of S640). Exit.

図27は、表示部270に表示される分析情報の一例を示す図である。図27の例では、表示部270に表示される分析情報は、分析対象の使用者の分析対象の期間の走行における5つの運動指標(真下着地、推進効率、脚の流れ、走行ピッチ、着地衝撃)の左右差率を、選択された複数の使用者の平均値と比較して相対評価したレーダーチャートを含む。例えば、使用者が、操作部450を介して、自分自身を分析対象の使用者として複数の使用者を選択し、かつ、分析対象の期間を選択すると、処理部420は、選択された複数の使用者が選択された期間に実施したすべての走行における運動解析情報(各運動指標の値)をサーバー5のデータベースから取得する。そして、処理部420は、各使用者の各運動指標の平均値を計算し、各運動指標について当該複数の使用者の中で最高値を10、最低値を0として、分析対象の使用者の値を相対評価した値に変換し、図27に示すようなレーダーチャートを生成する。使用者は、図27のような分析情報により、選択した複数の使用者(例えば、走行チームのメンバー)の中での自分の走行能力を相対評価することができる。例えば、図27の例では、「脚の流れ」や「真下着地」が悪い(弱点である)ことがわかるので、次回の走行では、これらの運動指標の改善を意識することで走行結果の向上が期待できる。   FIG. 27 is a diagram illustrating an example of analysis information displayed on the display unit 270. In the example of FIG. 27, the analysis information displayed on the display unit 270 includes five motion indices (true under landing, propulsion efficiency, leg flow, running pitch, landing impact) in the running period of the analysis target user. ) And a left-right difference rate compared with the average value of a plurality of selected users. For example, when the user selects a plurality of users as users to be analyzed via the operation unit 450 and selects a period to be analyzed, the processing unit 420 selects the plurality of selected users. The motion analysis information (value of each motion index) in all the travels performed during the period selected by the user is acquired from the database of the server 5. Then, the processing unit 420 calculates the average value of each exercise index of each user, sets the maximum value to 10 and the minimum value to 0 among the plurality of users for each exercise index. The value is converted into a value obtained by relative evaluation, and a radar chart as shown in FIG. 27 is generated. The user can relatively evaluate his / her driving ability among a plurality of selected users (for example, members of the driving team) based on the analysis information as shown in FIG. For example, in the example of FIG. 27, it can be seen that “leg flow” and “underground landing” are poor (is a weak point). Therefore, in the next run, the improvement of the running result is realized by being aware of the improvement of these exercise indices. Can be expected.

1−6.効果
本実施形態によれば、センサーが1つであっても判定処理を行えるので、簡易な構成で左足及び右足の運動を把握できる運動解析装置2及び運動解析システム1を実現できる。
1-6. Effect According to the present embodiment, since the determination process can be performed even with one sensor, the motion analysis device 2 and the motion analysis system 1 that can grasp the motion of the left foot and the right foot with a simple configuration can be realized.

特に、慣性センサー(慣性計測ユニット10)は、装着された使用者の細かい動きを検出可能であるため、センサーが1つであっても精度よく左足及び右足の運動を把握できる運動解析装置2及び運動解析システム1を実現できる。   In particular, since the inertial sensor (inertia measurement unit 10) can detect a fine movement of the user who is attached, the motion analysis apparatus 2 that can accurately grasp the motion of the left foot and the right foot even with a single sensor, and The motion analysis system 1 can be realized.

また、歩行動作や走行動作においては、胴体にヨー方向の回転運動が生じる。したがって、本実施形態によれば、センサーが1つであっても精度よく左足及び右足の運動を把握
できる運動解析装置2及び運動解析システム1を実現できる。
Further, in the walking motion and the running motion, a rotational motion in the yaw direction is generated in the trunk. Therefore, according to the present embodiment, it is possible to realize the motion analysis device 2 and the motion analysis system 1 that can accurately grasp the motions of the left foot and the right foot even if the number of sensors is one.

歩行動作や走行動作においては、前記使用者の進行方向と上下方向にともに直交する方向が生じる。したがって、本実施形態よれば、センサーが1つであっても精度よく左足及び右足の運動を把握できる運動解析装置を実現できる。   In the walking motion and the running motion, a direction perpendicular to the user's traveling direction and the vertical direction is generated. Therefore, according to the present embodiment, it is possible to realize a motion analysis apparatus that can accurately grasp the motions of the left foot and the right foot even with a single sensor.

また、本適実施形態によれば、走行タイミング(例えば、1歩のタイミング)とセンサーの検出結果とに基づいて判定処理を行えるので、精度よく左足及び右足の運動を把握できる運動解析装置2及び運動解析システム1を実現できる。   Further, according to the present preferred embodiment, since the determination process can be performed based on the running timing (for example, the timing of one step) and the detection result of the sensor, the motion analysis device 2 that can accurately grasp the motion of the left foot and the right foot and The motion analysis system 1 can be realized.

また、本実施形態によれば、使用者の運動の左右バランスに関する情報を使用者に提供することができる運動解析装置2及び運動解析システム1を実現できる。   Moreover, according to this embodiment, the motion analysis apparatus 2 and the motion analysis system 1 which can provide a user with the information regarding the left-right balance of a user's exercise | movement are realizable.

また、本実施形態によれば、使用者の運動の左右バランスに関する情報を分かりやすく使用者に提供することができる運動解析装置2及び運動解析システム1を実現できる。   Moreover, according to this embodiment, the motion analysis apparatus 2 and the motion analysis system 1 which can provide a user with the information regarding the right and left balance of the user's motion in an easy-to-understand manner can be realized.

また、本実施形態によれば、使用者の運動の左右バランスが崩れている場合に使用者等に通知することができる運動解析装置2及び運動解析システム1を実現できる。   Further, according to the present embodiment, it is possible to realize the motion analysis device 2 and the motion analysis system 1 that can notify the user or the like when the right and left balance of the motion of the user is broken.

2.変形例
本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。以下、変形例について説明する。なお、上記実施形態と同一の構成については同一の符号を付して再度の説明を省略する。
2. The present invention is not limited to this embodiment, and various modifications can be made within the scope of the present invention. Hereinafter, modified examples will be described. In addition, about the structure same as the said embodiment, the same code | symbol is attached | subjected and repeated description is abbreviate | omitted.

2−1.センサー
上記の実施形態では、加速度センサー12と角速度センサー14が慣性計測ユニット10として一体化された運動解析装置2に内蔵されているが、加速度センサー12と角速度センサー14は一体化されていなくてもよい。あるいは、加速度センサー12と角速度センサー14とが運動解析装置2に内蔵されずに、使用者に直接装着されてもよい。いずれの場合でも、例えば、いずれか一方のセンサー座標系を上記の実施形態のbフレームとして、他方のセンサー座標系を当該bフレームに変換し、上記の実施形態を適用すればよい。
2-1. Sensor In the above embodiment, the acceleration sensor 12 and the angular velocity sensor 14 are built in the motion analysis apparatus 2 integrated as the inertial measurement unit 10, but the acceleration sensor 12 and the angular velocity sensor 14 are not integrated. Good. Alternatively, the acceleration sensor 12 and the angular velocity sensor 14 may be directly worn by the user without being built in the motion analysis device 2. In either case, for example, any one of the sensor coordinate systems may be used as the b frame of the above embodiment, the other sensor coordinate system may be converted into the b frame, and the above embodiment may be applied.

また、上記の実施形態では、センサー(運動解析装置2(IMU10))の使用者への装着部位を腰として説明したが、腰以外の部位に装着することとしてもよい。好適な装着部位は使用者の体幹(四肢以外の部位)である。しかしながら、体幹に限らず、腕以外の例えば使用者の頭や足に装着することとしてもよい。また、センサーは1つに限らず、追加のセンサーを体の別の部位に装着することとしてもよい。例えば、腰と足、腰と腕にセンサーを装着してもよい。   Moreover, in said embodiment, although the mounting | wearing site | part to the user of the sensor (motion analysis apparatus 2 (IMU10)) was demonstrated as a waist, it is good also as mounting | wearing on parts other than a waist | hip | lumbar. A suitable wearing part is a user's trunk (parts other than limbs). However, it is not limited to the trunk and may be worn on the user's head or feet other than the arms. Further, the number of sensors is not limited to one, and an additional sensor may be attached to another part of the body. For example, sensors may be attached to the waist and legs and the waist and arms.

2−2.慣性航法演算
上記の実施形態では、積分処理部220がeフレームの速度、位置、姿勢角及び距離を算出し、座標変換部250がこれをmフレームの速度、位置、姿勢角及び距離に座標変換しているが、積分処理部220がmフレームの速度、位置、姿勢角及び距離を算出してもよい。この場合、運動解析部24は、積分処理部220が算出したmフレームの速度、位置、姿勢角及び距離を用いて運動解析処理を行えばよいので、座標変換部250による速度、位置、姿勢角及び距離の座標変換が不要になる。また、誤差推定部230はmフレームの速度、位置及び姿勢角を用いて拡張カルマンフィルターによる誤差推定を行ってもよい。
2-2. Inertial navigation calculation In the above embodiment, the integration processing unit 220 calculates the speed, position, posture angle, and distance of the e frame, and the coordinate conversion unit 250 converts the coordinate into the speed, position, posture angle, and distance of the m frame. However, the integration processing unit 220 may calculate the speed, position, posture angle, and distance of m frames. In this case, the motion analysis unit 24 may perform the motion analysis process using the m-frame speed, position, posture angle, and distance calculated by the integration processing unit 220. Therefore, the speed, position, posture angle by the coordinate conversion unit 250 is sufficient. In addition, the coordinate conversion of distance and distance becomes unnecessary. Further, the error estimation unit 230 may perform error estimation using an extended Kalman filter using the speed, position, and attitude angle of m frames.

また、上記の実施形態では、慣性航法演算部22は、GPS衛星からの信号を用いて慣性航法演算の一部を行っているが、GPS以外の全地球航法衛星システム(GNSS:Global Navigation Satellite System)の測位用衛星やGNSS以外の測位用衛星からの信号を用いてもよい。例えば、WAAS(Wide Area Augmentation System)、QZSS(Quasi Zenith Satellite System)、GLONASS(GLObal NAvigation Satellite System)、GALILEO、BeiDou(BeiDou Navigation Satellite System)といった衛星測位システムのうち1つ、あるいは2つ以上を利用してもよい。また、屋内測位システム(IMES:Indoor Messaging System)等を利用してもよい。   In the above embodiment, the inertial navigation calculation unit 22 performs a part of the inertial navigation calculation using a signal from a GPS satellite. However, a global navigation satellite system (GNSS) other than GPS is used. ) And positioning satellites other than GNSS may be used. For example, one or more satellite positioning systems such as WAAS (Wide Area Augmentation System), QZSS (Quasi Zenith Satellite System), GLONASS (GLObal NAvigation Satellite System), GALILEO, and BeiDou (BeiDou Navigation Satellite System) are used. May be. Further, an indoor positioning system (IMES: Indoor Messaging System) or the like may be used.

また、上記の実施形態では、走行検出部244は、使用者の上下動の加速度(z軸加速度)が閾値以上で極大値となるタイミングで走行周期を検出しているが、これに限らず、例えば、上下動の加速度(z軸加速度)が正から負に変化するタイミング(又は負から正に変化するタイミング)で走行周期を検出してもよい。あるいは、走行検出部244は、上下動の加速度(z軸加速度)を積分して上下動の速度(z軸速度)を算出し、算出した上下動の速度(z軸速度)を用いて走行周期を検出してもよい。この場合、走行検出部244は、例えば、当該速度が、極大値と極小値の中央値付近の閾値を値の増加によって、あるいは値の減少によってクロスするタイミングで走行周期を検出してもよい。また、例えば、走行検出部244は、x軸、y軸、z軸の合成加速度を算出し、算出した合成加速度を用いて走行周期を検出してもよい。この場合、走行検出部244は、例えば、当該合成加速度が、極大値と極小値の中央値付近の閾値を値の増加によって、あるいは値の減少によってクロスするタイミングで走行周期を検出してもよい。   In the above embodiment, the travel detection unit 244 detects the travel cycle at the timing when the acceleration of the user's vertical movement (z-axis acceleration) is equal to or greater than the threshold value, but is not limited thereto. For example, the traveling cycle may be detected at a timing at which the vertical movement acceleration (z-axis acceleration) changes from positive to negative (or timing from negative to positive). Alternatively, the travel detection unit 244 calculates the vertical movement speed (z-axis speed) by integrating the vertical movement acceleration (z-axis acceleration), and uses the calculated vertical movement speed (z-axis speed) to calculate the travel cycle. May be detected. In this case, for example, the travel detection unit 244 may detect the travel cycle at a timing when the speed crosses the threshold value near the median value between the maximum value and the minimum value by increasing the value or by decreasing the value. Further, for example, the travel detection unit 244 may calculate a combined acceleration of the x-axis, the y-axis, and the z-axis, and detect the travel cycle using the calculated combined acceleration. In this case, for example, the travel detection unit 244 may detect the travel cycle at a timing when the resultant acceleration crosses the threshold value near the median value between the maximum value and the minimum value by increasing the value or by decreasing the value. .

また、上記の実施形態では、誤差推定部230は、速度、姿勢角、加速度、角速度及び位置を状態変数とし、拡張カルマンフィルターを用いてこれらの誤差を推定しているが、速度、姿勢角、加速度、角速度及び位置の一部を状態変数として、その誤差を推定してもよい。あるいは、誤差推定部230は、速度、姿勢角、加速度、角速度及び位置以外のもの(例えば、移動距離)を状態変数として、その誤差を推定してもよい。   Further, in the above embodiment, the error estimation unit 230 uses speed, posture angle, acceleration, angular velocity, and position as state variables and estimates these errors using an extended Kalman filter. The error may be estimated using a part of acceleration, angular velocity, and position as state variables. Alternatively, the error estimating unit 230 may estimate the error using a state variable (for example, a moving distance) other than the speed, the posture angle, the acceleration, the angular velocity, and the position as a state variable.

また、上記の実施形態では、誤差推定部230による誤差の推定に拡張カルマンフィルターを用いているが、パーティクルフィルターやH∞(Hインフィニティー)フィルター等の他の推定手段に代えてもよい。   In the above-described embodiment, the extended Kalman filter is used for error estimation by the error estimation unit 230, but other estimation means such as a particle filter or an H∞ (H infinity) filter may be used.

2−3.運動解析処理
上記の実施形態では、運動解析装置2が運動解析情報(運動指標)の生成処理を行っているが、運動解析装置2は慣性計測ユニット10の計測データあるいは慣性航法演算の演算結果(演算データ)をサーバー5に送信し、サーバー5が当該計測データあるいは当該演算データを用いて、運動解析情報(運動指標)の生成処理を行い(運動解析装置として機能し)、データベースに記憶させてもよい。
2-3. Motion Analysis Processing In the above embodiment, the motion analysis device 2 performs motion analysis information (motion index) generation processing, but the motion analysis device 2 uses the measurement data of the inertial measurement unit 10 or the calculation result of the inertial navigation calculation ( (Calculation data) is transmitted to the server 5, and the server 5 uses the measurement data or the calculation data to generate motion analysis information (motion index) (functions as a motion analysis device) and stores it in the database. Also good.

また、例えば、運動解析装置2は、使用者の生体情報を用いて運動解析情報(運動指標)を生成してもよい。生体情報としては、例えば、皮膚温度、中心部温度、酸素消費量、拍動間変異、心拍数、脈拍数、呼吸数、皮膚温度、中心部体温、熱流、電気皮膚反応、筋電図(EMG)、脳電図(EEG)、眼電図(EOG)、血圧、酸素消費量、活動、拍動間変異、電気皮膚反応などが考えられる。運動解析装置2が生体情報を測定する装置を備えていてもよいし、測定装置が測定した生体情報を運動解析装置2が受信してもよい。例えば、使用者が腕時計型の脈拍計を装着し、あるいは、ハートレーセンサーをベルトで胸に巻き付けて走行し、運動解析装置2が、当該脈拍計あるいは当該ハートレーセンサーの計測値を用いて、使用者の走行中の心拍数を算出してもよい。   Further, for example, the motion analysis device 2 may generate motion analysis information (motion index) using the user's biological information. Examples of biological information include skin temperature, center temperature, oxygen consumption, mutation between beats, heart rate, pulse rate, respiratory rate, skin temperature, center body temperature, heat flow, electric skin reaction, electromyogram (EMG) ), Electroencephalogram (EEG), electrooculogram (EOG), blood pressure, oxygen consumption, activity, beat-to-beat variation, electric skin reaction, and the like. The motion analysis device 2 may include a device that measures biological information, or the motion analysis device 2 may receive biological information measured by the measurement device. For example, the user wears a wristwatch-type pulsometer or runs with the Hartley sensor wrapped around the chest with a belt, and the motion analyzer 2 uses the measured value of the pulsometer or the Hartley sensor to You may calculate the heart rate while driving.

また、上記実施形態では、運動解析情報に含まれる各運動指標は、使用者の技術力に関
する指標であるが、運動解析情報は持久力に関する運動指標を含んでもよい。例えば、運動解析情報は、持久力に関する運動指標として、(心拍数−安静時心拍数)÷(最大心拍数−安静時心拍数)×100で計算される予備心拍数(HRR:Heart Rate Reserved)を含んでもよい。例えば、各選手が走行を行う毎に報知装置3を操作して心拍数、最大心拍数、安静時心拍数を入力し、あるいは、心拍計を装着して走行し、運動解析装置2が報知装置3あるいは心拍計から心拍数、最大心拍数、安静時心拍数の値を取得して予備心拍数(HRR)の値を計算してもよい。
Moreover, in the said embodiment, although each exercise | movement index contained in exercise | movement analysis information is a parameter | index regarding a user's technical ability, exercise | movement analysis information may also contain the exercise | movement index regarding endurance. For example, the exercise analysis information is a heart rate reserved (HRR) calculated as (heart rate−resting heart rate) ÷ (maximum heart rate−resting heart rate) × 100 as an exercise index related to endurance. May be included. For example, each time each athlete runs, the notification device 3 is operated to input a heart rate, a maximum heart rate, and a resting heart rate, or the device is run with a heart rate monitor, and the motion analysis device 2 notifies the notification device. 3 or the heart rate, maximum heart rate, and resting heart rate values may be obtained from a heart rate monitor to calculate a reserve heart rate (HRR) value.

また、上記実施形態では、人の走行における運動解析を対象としているが、これに限らず、動物や歩行ロボット等の移動体の歩行や走行における運動解析にも同様に適用することができる。また、走行に限らず、登山、トレイルラン、スキー(クロスカントリーやスキージャンプも含む)、スノーボード、水泳、自転車の走行、スケート、ゴルフ、テニス、野球、リハビリテーション等の多種多様な運動に適用することができる。一例としてスキーに適用する場合、例えば、スキー板に対する加圧時の上下方向加速度のばらつきから綺麗にカービングできたかスキー板がずれたかを判定してもよいし、スキー板に対する加圧時及び抜重時の上下方向加速度の変化の軌跡から右足と左足との差や滑りの能力を判定してもよい。あるいは、ヨー方向の角速度の変化の軌跡がどの程度サイン波に近いかを解析し、使用者がスキー板に乗れているかどうかを判断してもよいし、ロール方向の角速度の変化の軌跡がどの程度サイン波に近いかを解析し、スムーズな滑りができているかどうかを判断してもよい。   Further, in the above-described embodiment, motion analysis in human travel is targeted, but the present invention is not limited to this, and can be similarly applied to motion analysis in walking and travel of moving objects such as animals and walking robots. In addition to running, apply to a wide variety of exercises such as mountain climbing, trail running, skiing (including cross country and ski jumping), snowboarding, swimming, cycling, skating, golf, tennis, baseball, rehabilitation, etc. Can do. As an example, when applied to skis, for example, it may be determined whether the car has been carved cleanly or the skis have shifted from the variation in vertical acceleration when the skis are pressed. The difference between the right foot and the left foot and the slipping ability may be determined from the trajectory of the vertical acceleration change. Alternatively, it is possible to analyze how close the locus of change in angular velocity in the yaw direction is to a sine wave and determine whether the user is on the ski, or which is the locus of change in angular velocity in the roll direction. You may analyze whether it is close to a sine wave, and determine whether smooth slipping has been achieved.

2−4.報知処理
上記の実施形態では、報知装置3は、基準値よりも悪い運動指標が存在する場合に、音や振動により使用者に報知しているが、基準値よりも良い運動指標が存在する場合に、音や振動により使用者に報知してもよい。
2-4. Notification Process In the above embodiment, the notification device 3 notifies the user by sound or vibration when there is an exercise index worse than the reference value, but there is an exercise index better than the reference value. In addition, the user may be notified by sound or vibration.

また、上記の実施形態では、報知装置3が各運動指標の値と基準値との比較処理を行っているが、運動解析装置2が、この比較処理を行い、比較結果に応じて報知装置3の音や振動の出力や表示を制御してもよい、
また、上記の実施形態では、報知装置3は、腕時計型の機器であるが、これに限らず、使用者に装着される腕時計型以外の携帯機器(ヘッドマウントディスプレイ(HMD)や使用者の腰に装着した機器(運動解析装置2でもよい)等)や装着型でない携帯機器(スマートフォン等)でもよい。報知装置3がヘッドマウントディスプレイ(HMD)である場合、その表示部は腕時計型の報知装置3の表示部よりも十分に大きく視認性がよいため、使用者が見ても走行の妨げになりにくいので、例えば、使用者の現在までの走行推移の情報を表示してもよいし、タイム(使用者が設定したタイム、自己記録、有名人の記録、世界記録等)に基づいて作成した仮想ランナーが走行する映像を表示してもよい。
Moreover, in said embodiment, although the alerting | reporting apparatus 3 has performed the comparison process of the value of each exercise | movement index and a reference value, the exercise | movement analysis apparatus 2 performs this comparison process, and according to the comparison result, the alerting | reporting apparatus 3 You may control the output and display of sound and vibration of
Further, in the above embodiment, the notification device 3 is a wristwatch type device, but is not limited to this, and is not limited to the wristwatch type portable device (head mounted display (HMD) or user's waist). Or a portable device (such as a smartphone) that is not wearable. When the notification device 3 is a head-mounted display (HMD), the display portion is sufficiently larger than the display portion of the wristwatch-type notification device 3 and has good visibility. So, for example, you may display information on the running history of the user up to now, or a virtual runner created based on the time (time set by the user, self-record, celebrity record, world record, etc.) A traveling image may be displayed.

2−5.分析処理
上記の実施形態では、情報分析装置4が分析処理を行っているが、サーバー5が分析処理を行い(情報分析装置として機能し)、サーバー5がネットワークを介して表示装置に分析情報を送信してもよい。
2-5. Analysis Processing In the above embodiment, the information analysis device 4 performs the analysis processing, but the server 5 performs the analysis processing (functions as an information analysis device), and the server 5 sends the analysis information to the display device via the network. You may send it.

また、上記の実施形態では、使用者の走行データ(運動解析情報)は、サーバー5のデータベースに記憶されるが、情報分析装置4の記憶部430に構築されたデータベースに記憶されてもよい。すなわち、サーバー5は無くてもよい。   In the above embodiment, the user's travel data (motion analysis information) is stored in the database of the server 5, but may be stored in a database constructed in the storage unit 430 of the information analysis device 4. That is, the server 5 may not be provided.

2−6.その他
例えば、運動解析装置2又は報知装置3は、入力情報又は解析情報から使用者の得点を計算して、走行中又は走行後に報知しても良い。例えば、各運動指標の数値を複数段階(
例えば5段階又は10段階)に区分し、各段階に対して得点を定めておけばよい。また、例えば、運動解析装置2又は報知装置3は、成績の良かった運動指標の種類や数に応じて得点を付与し、あるいは、総合得点を計算し、表示してもよい。
2-6. Others For example, the motion analysis device 2 or the notification device 3 may calculate the user's score from the input information or the analysis information, and notify the user during or after traveling. For example, the numerical value of each exercise index can be
For example, it may be divided into 5 stages or 10 stages), and a score may be determined for each stage. In addition, for example, the motion analysis device 2 or the notification device 3 may assign a score according to the type and number of motion indices that have obtained good results, or may calculate and display a total score.

また、上記の実施形態では、GPSユニット50は運動解析装置2に設けられているが、報知装置3に設けられていてもよい。この場合、報知装置3の処理部120がGPSユニット50からGPSデータを受け取って通信部140を介して運動解析装置2に送信し、運動解析装置2の処理部20が通信部40を介してGPSデータを受信し、受信したGPSデータをGPSデータテーブル320に付加すればよい。   In the above embodiment, the GPS unit 50 is provided in the motion analysis device 2, but may be provided in the notification device 3. In this case, the processing unit 120 of the notification device 3 receives GPS data from the GPS unit 50 and transmits it to the motion analysis device 2 via the communication unit 140, and the processing unit 20 of the motion analysis device 2 performs GPS via the communication unit 40. Data may be received and the received GPS data may be added to the GPS data table 320.

また、上記の実施形態では、運動解析装置2と報知装置3が別体となっているが、運動解析装置2と報知装置3が一体化された運動解析装置であってもよい。   In the above embodiment, the motion analysis device 2 and the notification device 3 are separate bodies, but the motion analysis device 2 and the notification device 3 may be integrated.

また、上記の実施形態では、運動解析装置2が使用者に装着されているが、これに限らず、慣性計測ユニット(慣性センサー)やGPSユニットを使用者の胴体等に装着し、慣性計測ユニット(慣性センサー)やGPSユニットはそれぞれ検出結果をスマートフォン等の携帯情報機器やパーソナルコンピューター等の設置型の情報機器、あるいは、ネットワークを介してサーバーに送信し、これらの機器が受信した検出結果を用いて使用者の運動を解析してもよい。あるいは、使用者の胴体等に装着された慣性計測ユニット(慣性センサー)やGPSユニットが検出結果をメモリーカード等の記録媒体に記録し、当該記録媒体をスマートフォンやパーソナルコンピューター等の情報機器が当該記録媒体から検出結果を読み出して運動解析処理を行ってもよい。   In the above embodiment, the motion analysis apparatus 2 is mounted on the user. However, the present invention is not limited to this, and an inertial measurement unit (inertial sensor) or a GPS unit is mounted on the user's torso or the like. (Inertial sensor) and GPS unit send detection results to mobile information devices such as smartphones, stationary information devices such as personal computers, or servers via a network, and use the detection results received by these devices The user's movement may be analyzed. Alternatively, an inertial measurement unit (inertial sensor) or GPS unit attached to the user's torso or the like records the detection result on a recording medium such as a memory card, and the information medium such as a smartphone or personal computer records the recording medium. The motion analysis process may be performed by reading the detection result from the medium.

上述した各実施形態及び各変形例は一例であって、これらに限定されるわけではない。例えば、各実施形態及び各変形例を適宜組み合わせることも可能である。   Each embodiment and each modification mentioned above are examples, and are not necessarily limited to these. For example, it is possible to appropriately combine each embodiment and each modification.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. In addition, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

1…運動解析システム、2…運動解析装置、3…報知装置、4…情報分析装置、5…サーバー、10…慣性計測ユニット(IMU)、12…加速度センサー、14…角速度センサー、16…信号処理部、20…処理部、22…慣性航法演算部、24…運動解析部、30…記憶部、40…通信部、50…GPSユニット、110…出力部、120…処理部、130…記憶部、140…通信部、150…操作部、160…計時部、170…表示部、180…音出力部、190…振動部、210…バイアス除去部、220…積分処理部、230…誤差推定部、240…走行処理部、241…演算部、242…取得部、243…左右判定部、244…走行検出部、245…歩幅算出部、246…ピッチ算出部、250…座標変換部、300…運動解析プログラム、302…慣性航法演算プログラム、304…運動解析情報生成プログラム、310…センシングデータテーブル、320…GPSデータテーブル、330…地磁気データテーブル、340…算出データテーブル、350…運動解析情報、351…入力情報、352…基本情報、353…第1解析情報、354…第2解析情報、355…左右差率、420…処理部、422…運動解析情報取得部、424…分析情報生成部、430…記憶部、432…分析プログラム、440…通信部、450…操作部、460…通信部、470…表示部、480…音出力部 DESCRIPTION OF SYMBOLS 1 ... Motion analysis system, 2 ... Motion analysis apparatus, 3 ... Notification apparatus, 4 ... Information analysis apparatus, 5 ... Server, 10 ... Inertial measurement unit (IMU), 12 ... Acceleration sensor, 14 ... Angular velocity sensor, 16 ... Signal processing , 20 ... processing unit, 22 ... inertial navigation calculation unit, 24 ... motion analysis unit, 30 ... storage unit, 40 ... communication unit, 50 ... GPS unit, 110 ... output unit, 120 ... processing unit, 130 ... storage unit, 140: Communication unit, 150: Operation unit, 160: Timing unit, 170 ... Display unit, 180 ... Sound output unit, 190 ... Vibration unit, 210 ... Bias removal unit, 220 ... Integration processing unit, 230 ... Error estimation unit, 240 ... travel processing unit, 241 ... calculation unit, 242 ... acquisition unit, 243 ... left / right determination unit, 244 ... travel detection unit, 245 ... step length calculation unit, 246 ... pitch calculation unit, 250 ... coordinate conversion unit, 300 ... motion analysis 302, inertial navigation calculation program, 304 ... motion analysis information generation program, 310 ... sensing data table, 320 ... GPS data table, 330 ... geomagnetic data table, 340 ... calculation data table, 350 ... motion analysis information, 351 ... input Information, 352 ... Basic information, 353 ... First analysis information, 354 ... Second analysis information, 355 ... Left / right difference ratio, 420 ... Processing unit, 422 ... Motion analysis information acquisition unit, 424 ... Analysis information generation unit, 430 ... Memory , 432 ... analysis program, 440 ... communication unit, 450 ... operation unit, 460 ... communication unit, 470 ... display unit, 480 ... sound output unit

Claims (13)

使用者に取り付けられ、前記使用者の運動に関する情報を検出するセンサーから検出結果を取得する取得部と、
前記検出結果に基づいて、前記使用者の右足接地期間を含む第1期間と、前記使用者の左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定部と、
を含む、運動解析装置。
An acquisition unit that is attached to a user and acquires a detection result from a sensor that detects information about the user's movement;
Based on the detection result, a left / right determination unit that performs a determination process for determining which period is a first period that includes the user's right foot contact period or a second period that includes the user's left foot contact period When,
Including a motion analysis device.
請求項1に記載の運動解析装置において、
前記センサーは、角度及び角速度の少なくとも一方を検出する慣性センサーである、運動解析装置。
The motion analysis apparatus according to claim 1,
The motion analysis device is an inertial sensor that detects at least one of an angle and an angular velocity.
請求項1又は2に記載の運動解析装置において、
前記左右判定部は、前記使用者のヨー方向の角速度に基づいて、前記判定処理を行う、運動解析装置。
The motion analysis apparatus according to claim 1 or 2,
The left / right determination unit is a motion analysis device that performs the determination process based on an angular velocity in the yaw direction of the user.
請求項1又は2に記載の運動解析装置において、
前記左右判定部は、前記使用者の進行方向と上下方向にともに直交する方向の加速度に基づいて、前記判定処理を行う、運動解析装置。
The motion analysis apparatus according to claim 1 or 2,
The left / right determination unit is a motion analysis apparatus that performs the determination process based on acceleration in a direction orthogonal to both the user's traveling direction and the vertical direction.
請求項1又は2に記載の運動解析装置において、
前記左右判定部は、前記使用者のヨー方向の角度に基づいて、前記判定処理を行う、運動解析装置。
The motion analysis apparatus according to claim 1 or 2,
The left / right determination unit is a motion analysis apparatus that performs the determination process based on an angle in the yaw direction of the user.
請求項1ないし5のいずれか1項に記載の運動解析装置において、
前記使用者の走行タイミングを検出する走行検出部をさらに含み、
前記左右判定部は、前記走行タイミングに基づいて前記判定処理を行う、運動解析装置。
In the kinematic analysis device according to any one of claims 1 to 5,
It further includes a travel detection unit that detects the travel timing of the user,
The left-right determination unit is a motion analysis device that performs the determination process based on the travel timing.
請求項1ないし6のいずれか1項に記載の運動解析装置において、
前記使用者の運動に関する指標を算出する算出部をさらに含み、
前記算出部は、前記第1期間における前記指標と、前記第2期間における前記指標とを分けて算出する、運動解析装置。
The motion analysis apparatus according to any one of claims 1 to 6,
A calculation unit for calculating an index related to the user's movement;
The calculation unit is a motion analysis device that calculates the index in the first period and the index in the second period separately.
請求項7に記載の運動解析装置において、
前記算出部は、前記第1期間における前記指標と、前記第2期間における前記指標との差分を算出する、運動解析装置。
The motion analysis apparatus according to claim 7,
The calculation unit is a motion analysis device that calculates a difference between the index in the first period and the index in the second period.
請求項8に記載の運動解析装置において、
前記指標は、真下着地、推進効率、脚の流れ、走行ピッチ、着地衝撃の少なくとも1つである、運動解析装置。
The motion analysis apparatus according to claim 8,
The motion analysis apparatus, wherein the index is at least one of true landing, propulsion efficiency, leg flow, travel pitch, and landing impact.
請求項8又は9に記載の運動解析装置において、
前記差分が基準値以上である場合に、前記差分に関する情報である差分情報を出力する出力部をさらに含む、運動解析装置。
The motion analysis apparatus according to claim 8 or 9,
The motion analysis apparatus further includes an output unit that outputs difference information that is information relating to the difference when the difference is equal to or greater than a reference value.
請求項10に記載の運動解析装置と、
前記運動解析装置が出力する前記差分情報を出力する報知装置と、
を含む、運動解析システム。
A motion analysis apparatus according to claim 10;
A notification device that outputs the difference information output by the motion analysis device;
Including motion analysis system.
使用者に取り付けられ、前記使用者の運動に関する情報を検出するセンサーから検出結果を取得する取得工程と、
前記検出結果に基づいて、前記使用者の右足接地期間を含む第1期間と、前記使用者の左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定工程と、
を含む、運動解析方法。
An acquisition step of acquiring a detection result from a sensor that is attached to the user and detects information related to the user's movement;
Left and right determination step of performing determination processing for determining which period is a first period including the user's right foot contact period and a second period including the user's left foot contact period based on the detection result When,
A motion analysis method.
使用者に取り付けられ、前記使用者の運動に関する情報を検出するセンサーからの検出結果を取得する取得部と、
前記検出結果に基づいて、前記使用者の右足接地期間を含む第1期間と、前記使用者の左足接地期間を含む第2期間のいずれの期間であるかを判定する判定処理を行う左右判定部と、
してコンピューターを機能させる、運動解析プログラム。
An acquisition unit that is attached to a user and acquires a detection result from a sensor that detects information about the user's movement;
Based on the detection result, a left / right determination unit that performs a determination process for determining which period is a first period that includes the user's right foot contact period or a second period that includes the user's left foot contact period When,
A motion analysis program that makes a computer function.
JP2014157205A 2014-07-31 2014-07-31 Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program Withdrawn JP2016032611A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014157205A JP2016032611A (en) 2014-07-31 2014-07-31 Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program
US14/811,730 US20160029954A1 (en) 2014-07-31 2015-07-28 Exercise analysis apparatus, exercise analysis system, exercise analysis method, and exercise analysis program
CN201510461445.4A CN105311815A (en) 2014-07-31 2015-07-30 Exercise analysis apparatus, exercise analysis system, and exercise analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014157205A JP2016032611A (en) 2014-07-31 2014-07-31 Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program

Publications (1)

Publication Number Publication Date
JP2016032611A true JP2016032611A (en) 2016-03-10

Family

ID=55178773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014157205A Withdrawn JP2016032611A (en) 2014-07-31 2014-07-31 Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program

Country Status (3)

Country Link
US (1) US20160029954A1 (en)
JP (1) JP2016032611A (en)
CN (1) CN105311815A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018099399A (en) * 2016-12-21 2018-06-28 正展 富島 Sliding evaluation system, sliding evaluation terminal, program for sliding evaluation terminal, and sliding evaluation method
JP2019005320A (en) * 2017-06-27 2019-01-17 株式会社アコーズ Pedometer

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016034481A (en) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 Information analysis device, exercise analysis system, information analysis method, analysis program, image generation device, image generation method, image generation program, information display device, information display system, information display program, and information display method
JP6565369B2 (en) * 2015-06-22 2019-08-28 カシオ計算機株式会社 Exercise support device, exercise support method, and exercise support program
TWI711395B (en) * 2018-07-17 2020-12-01 長庚大學 Walking assist device
JP6871708B2 (en) * 2016-10-06 2021-05-12 りか 高木 Methods, systems, programs, and computer devices for identifying the causative site of compensatory movements, and methods and systems for eliminating compensatory movements.
JP6508174B2 (en) * 2016-11-29 2019-05-08 カシオ計算機株式会社 Running analysis device, running analysis method and running analysis program
JP6834553B2 (en) * 2017-02-09 2021-02-24 セイコーエプソン株式会社 Motion analysis system, motion analysis device, motion analysis program and motion analysis method
JP6805885B2 (en) * 2017-02-28 2020-12-23 富士通株式会社 Information processing device, access control method, and access control program
JP6610626B2 (en) * 2017-08-03 2019-11-27 カシオ計算機株式会社 Activity status analysis device, activity status analysis method and program
US20190058397A1 (en) * 2017-08-15 2019-02-21 Texas Instruments Incorporated Harmonic modulation for charge balance of multi-level power converters
US20210236021A1 (en) * 2018-05-04 2021-08-05 Baylor College Of Medicine Detecting frailty and foot at risk using lower extremity motor performance screening
JP6946241B2 (en) * 2018-07-11 2021-10-06 株式会社東芝 Electronic devices, systems and physical condition estimation methods
US11571142B2 (en) * 2018-07-18 2023-02-07 American International Group, Inc. Fall detection and identification by using data from human condition safety tags
US11373452B2 (en) * 2018-08-07 2022-06-28 Georgetown University Multidimensional analysis of gait in rodent
CN110833420A (en) * 2018-08-15 2020-02-25 财团法人工业技术研究院 Motion state evaluation method
WO2020087364A1 (en) * 2018-10-31 2020-05-07 华为技术有限公司 Method and device for evaluating exercise index
CN111110247B (en) * 2020-01-13 2023-05-26 广东高驰运动科技股份有限公司 Method and device for monitoring motion data index
CN116637352A (en) * 2020-03-31 2023-08-25 荣耀终端有限公司 Running gesture detection method and wearable device
CN112957711A (en) 2021-02-02 2021-06-15 广东高驰运动科技有限公司 Wearable device and control method thereof
CN113156155B (en) * 2021-03-25 2024-04-05 无锡博智芯科技有限公司 Speed measuring method, system, medium and equipment of high-precision wearable equipment
CN114011045A (en) * 2021-11-04 2022-02-08 深圳市云蜂智能有限公司 Fitness action counting method based on wearable equipment and wearable equipment
CN114353789B (en) * 2021-12-21 2023-11-10 北京冰锋科技有限责任公司 UWB and IMU fused data acquisition and analysis method, system and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248969A (en) * 2011-05-25 2012-12-13 Fujitsu Ltd Electronic apparatus and tilt balance calculation program
JP2014124448A (en) * 2012-12-27 2014-07-07 Casio Comput Co Ltd Exercise information display system, exercise information display method, and exercise information display program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8085153B2 (en) * 2001-08-08 2011-12-27 O'connor Gerard Activity monitoring device
JP5790914B2 (en) * 2011-01-11 2015-10-07 セイコーエプソン株式会社 Deformation amount calculation device and deformation amount calculation method
JP5915148B2 (en) * 2011-12-16 2016-05-11 セイコーエプソン株式会社 Motion analysis method and motion analysis apparatus
WO2014049913A1 (en) * 2012-09-25 2014-04-03 テルモ株式会社 Load-distribution measurement system, and information processing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248969A (en) * 2011-05-25 2012-12-13 Fujitsu Ltd Electronic apparatus and tilt balance calculation program
JP2014124448A (en) * 2012-12-27 2014-07-07 Casio Comput Co Ltd Exercise information display system, exercise information display method, and exercise information display program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018099399A (en) * 2016-12-21 2018-06-28 正展 富島 Sliding evaluation system, sliding evaluation terminal, program for sliding evaluation terminal, and sliding evaluation method
JP2019005320A (en) * 2017-06-27 2019-01-17 株式会社アコーズ Pedometer

Also Published As

Publication number Publication date
US20160029954A1 (en) 2016-02-04
CN105311815A (en) 2016-02-10

Similar Documents

Publication Publication Date Title
JP2016032611A (en) Exercise analysis device, exercise analysis system, exercise analysis method and exercise analysis program
JP6596945B2 (en) Motion analysis method, motion analysis apparatus, motion analysis system, and motion analysis program
JP2016032610A (en) Exercise analysis system, exercise analysis device, exercise analysis program and exercise analysis method
JP6834553B2 (en) Motion analysis system, motion analysis device, motion analysis program and motion analysis method
US10032069B2 (en) Exercise analysis apparatus, exercise analysis method, exercise analysis program, and exercise analysis system
JP2016034480A (en) Notification device, exercise analysis system, notification method, notification program, exercise support method, and exercise support device
JP2016034481A (en) Information analysis device, exercise analysis system, information analysis method, analysis program, image generation device, image generation method, image generation program, information display device, information display system, information display program, and information display method
WO2015146046A1 (en) Correlation coefficient correction method, motion analysis method, correlation coefficient correction device, and program
US20180203030A1 (en) Foot exercise motion analysis device during moving exercise
WO2015146048A1 (en) Error estimation method, motion analysis method, error estimation device, and program
WO2015146047A1 (en) Reference-value generation method, motion analysis method, reference-value generation device, and program
JP6446941B2 (en) Kinematic analysis apparatus, method, and program
US20160030806A1 (en) Exercise ability evaluation method, exercise ability evaluation apparatus, exercise ability calculation method, and exercise ability calculation apparatus
JP2018068396A (en) Motion analysis device, motion analysis system, and motion analysis method
JP2015190850A (en) Error estimation method, kinematic analysis method, error estimation device, and program
JP2018143537A (en) Motion analysis device, motion analysis system, motion analysis method, and motion analysis program
JP2015188605A (en) Error estimation method, motion analysis method, error estimation device, and program
JP2015184158A (en) Error estimation method, motion analysis method, error estimation device, and program
JP2016032525A (en) Exercise ability evaluation method, exercise ability evaluation apparatus, exercise ability evaluation system, and program
JP2018143536A (en) Motion analysis device, motion analysis system, motion analysis method, motion analysis program and display method
US20230240559A1 (en) Information processing method, recording medium, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180720