JP2016034481A - 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法 - Google Patents

情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法 Download PDF

Info

Publication number
JP2016034481A
JP2016034481A JP2015115212A JP2015115212A JP2016034481A JP 2016034481 A JP2016034481 A JP 2016034481A JP 2015115212 A JP2015115212 A JP 2015115212A JP 2015115212 A JP2015115212 A JP 2015115212A JP 2016034481 A JP2016034481 A JP 2016034481A
Authority
JP
Japan
Prior art keywords
information
user
analysis
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015115212A
Other languages
English (en)
Inventor
俊一 水落
Shunichi Mizuochi
俊一 水落
内田 周志
Chikashi Uchida
周志 内田
憲 渡辺
Ken Watanabe
憲 渡辺
彰展 佐藤
Akinobu Sato
彰展 佐藤
大輔 杉谷
Daisuke Sugitani
大輔 杉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015115212A priority Critical patent/JP2016034481A/ja
Priority to US14/814,488 priority patent/US20160029943A1/en
Priority to CN201510464399.3A priority patent/CN105320278A/zh
Publication of JP2016034481A publication Critical patent/JP2016034481A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/221Ergometry, e.g. by using bicycle type apparatus
    • A61B5/222Ergometry, e.g. by using bicycle type apparatus combined with detection or measurement of physiological parameters, e.g. heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/10Athletes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6823Trunk, e.g., chest, back, abdomen, hip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)

Abstract

【課題】複数のユーザーの運動能力を比較可能な情報を提示することが可能な情報分析装置、運動解析システム、情報分析方法及び分析プログラムを提供すること。【解決手段】複数のユーザーの運動の解析結果の情報である複数の運動解析情報を取得する運動解析情報取得部と、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成する分析情報生成部と、を含む、情報分析装置。【選択図】図21

Description

本発明は、情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法に関する。
特許文献1には、レースの参加者の運動データ(タイム、走行距離など)を測定し、測定した運動データを年齢や性別などでソートしてランキング表示させることが可能なシステムが記載されている。このシステムによれば、各参加者は、自分の結果を同じ年齢や性別の他の参加者の結果と比較することができる。
また、特許文献2には、多数の方位計測ユニットが埋め込まれたスーツをユーザーが着用し、各方位計測ユニットの計測データを用いて、人の動作を高精度に追跡可能なシステムが記載されている。このシステムで得られる情報を用いれば、例えば、ユーザーの運動を表す3次元画像を高精度に描画することが期待できる。
また、歩行動作や走行動作においては、適切なフォームでステップを踏むことが重要である。ユーザーが自身のフォームを確認できるように、運動を指標化する装置が開発されている。
例えば、特許文献3には、走者のストライドの生体力学的パラメーターを分析するための装置が開示されている。
特表2011−516210号公報 特開2008−289866号公報 特表2013−537436公報
しかしながら、特許文献1に記載のシステムでは、各参加者は、タイムや走行距離などの結果を他の参加者と比較することはできるものの、タイムや走行距離の結果をもたらした運動能力を他の参加者と直接的に比較することはできない。そのため、参加者(ユーザー)は、成績を向上させたり怪我を予防したりするために何をすべきかなどについて有益な情報が得られない。また、特許文献1に記載のシステムでは、参加者(ユーザー)は、自分や他の参加者のタイムや走行距離を見て、次回のレースのタイムや走行距離の目標を設定することは可能であるが、走行能力に関係する各種の指標に関する情報は提示されないので、走行能力に合った各指標の目標値を設定することもできない。
また、特許文献2に記載のシステムでは、多数の方位計測ユニット(センサー)が必要であるため、全てのセンサーの位置の相対関係を正確に把握して全てのセンサーの計測時刻を正確に同期させなければ、正確な追跡を行うことができない。すなわち、センサーの数が多いほど、ユーザーの様々な部位の動きをより正確に追跡できる可能性があるが、センサー間で同期をとることが難しくなるため、必ずしも十分な追跡精度が得られるとは限
らない。また、ユーザーの運動を表す画像を見て運動能力を評価するような目的では、運動能力に密接に関連する部位の状態は正確に再現させたいが、それ以外の部位の状態は必ずしも正確に再現する必要はない場合もあり、多数のセンサーを必要とするシステムは不要なコスト増加を招く。
また、走行路の傾斜の状態などの走行環境や、走行速度によってフォームは異なるのが通常である。特許文献3では、異なるフォームの指標も同一の指標として取り扱ってしまう可能性があるので、指標としての正確性や有用性に問題が生じる場合があった。
本発明は、以上のような問題点に鑑みてなされたものであり、本発明のいくつかの態様によれば、複数のユーザーの運動能力を比較可能な情報を提示することが可能な情報分析装置、運動解析システム、情報分析方法及び分析プログラムを提供することができる。また、本発明のいくつかの態様によれば、ユーザーが運動能力に関係する指標値を適切に設定することが可能な情報分析装置、運動解析システム、情報分析方法及び分析プログラムを提供することができる。
また、本発明のいくつかの態様によれば、少ない数のセンサーの検出結果から得られる情報を用いて、ユーザーの走行状態を精度よく再現する画像情報を生成可能な画像生成装置、運動解析システム、画像生成方法及び画像生成プログラムを提供することができる。また、本発明のいくつかの態様によれば、少ない数のセンサーの検出結果から得られる情報を用いて、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成可能な画像生成装置、運動解析システム、画像生成方法及び画像生成プログラムを提供することができる。
また、本発明のいくつかの態様によれば、ユーザーの走行に関する指標を正確に把握できる、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法等を提供することができる。
本発明は前述の課題の少なくとも一部を解決するためになされたものであり、以下の態様または適用例として実現することが可能である。
[適用例1]
本適用例に係る情報分析装置は、複数のユーザーの運動の解析結果の情報である複数の運動解析情報を取得する運動解析情報取得部と、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成する分析情報生成部と、を含む。
運動能力は、例えば、技術力であってもよいし、持久力であってもよい。
複数の運動解析情報の各々は、複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果であってもよく、例えば、1つの運動解析装置が生成したものでもよいし、複数の運動解析装置が生成したものでもよい。
本適用例に係る情報分析装置によれば、複数のユーザーの運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
[適用例2]
上記適用例に係る情報分析装置において、前記分析情報生成部は、前記複数のユーザーが前記運動を実施した毎に前記複数のユーザーの運動能力を比較可能な前記分析情報を生
成してもよい。
運動を実施した毎とは、例えば、日単位、月単位、ユーザーが決めた単位であってもよい。
本適用例に係る情報分析装置によれば、各ユーザーは、提示される分析情報により、他のユーザーとの運動能力の差の推移を認識することができる。
[適用例3]
上記適用例に係る情報分析装置において、前記複数のユーザーは、複数のグループに分類され、前記分析情報生成部は、前記複数のユーザーの運動能力を前記グループごとに比較可能な前記分析情報を生成してもよい。
本適用例に係る情報分析装置によれば、各ユーザーは、提示される分析情報により、自分と同じグループに属する他のユーザーと運動能力を比較することができる。
[適用例4]
上記適用例に係る情報分析装置において、前記複数の運動解析情報の各々は、前記複数のユーザーの各々の運動能力に関係する指標の値を含み、前記分析情報生成部は、前記複数のユーザーの前記指標の値を用いて、前記複数のユーザーに含まれる第1のユーザーの運動能力を相対的に評価可能な前記分析情報を生成してもよい。
本適用例に係る情報分析装置によれば、第1のユーザーは、提示される分析情報により、複数のユーザーの中での自分の運動能力を相対評価することができる。
[適用例5]
上記適用例に係る情報分析装置において、前記複数の運動解析情報の各々は、前記複数のユーザーの各々の運動能力に関係する指標の値を含み、前記情報分析装置は、前記複数のユーザーに含まれる第1のユーザーの前記指標の目標値を取得する目標値取得部を含み、前記分析情報生成部は、前記第1のユーザーの前記指標の値と前記目標値とを比較可能な前記分析情報を生成してもよい。
本適用例に係る情報分析装置によれば、第1のユーザーは、情報分析装置が提示する分析情報を見ながら、自身の運動能力に合わせて各指標の目標値を適切に設定することができる。また、第1のユーザーは、提示される分析情報により、自分の運動能力と目標との差を認識することができる。
[適用例6]
上記適用例に係る情報分析装置において、前記指標は、接地時間、ストライド、エネルギー、真下着地率、推進効率、脚の流れ、着地時ブレーキ量、着地衝撃の少なくとも1つであってもよい。
[適用例7]
上記適用例に係る情報分析装置において、前記運動能力は、技術力または持久力であってもよい。
[適用例8]
本適用例に係る運動解析システムは、慣性センサーの検出結果を用いてユーザーの運動を解析し、解析結果の情報である運動解析情報を生成する運動解析装置と、上記のいずれかの情報分析装置と、を含む。
本適用例に係る運動解析システムによれば、慣性センサーの検出結果を用いて複数のユーザーの運動を精度よく解析した結果の複数の運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。従って、各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
[適用例9]
上記適用例に係る運動解析システムは、前記複数のユーザーに含まれる第1のユーザーの運動中に運動状態に関する情報を報知する報知装置を含み、前記情報分析装置は、前記目標値を前記報知装置に送信し、前記運動解析装置は、前記第1のユーザーの運動中に前記指標の値を前記報知装置に送信し、前記報知装置は、前記目標値及び前記指標の値を受信して前記指標の値を前記目標値と比較し、比較結果に応じて前記運動状態に関する情報を報知してもよい。
本適用例に係る運動解析システムによれば、第1のユーザーは、運動中の指標値と過去の運動の分析情報に基づく適切な目標値との差を意識しながら、運動することができる。
[適用例10]
上記適用例に係る運動解析システムにおいて、前記報知装置は、前記運動状態に関する情報を音又は振動によって報知してもよい。
音や振動による報知は運動状態に与える影響が小さいので、本適用例に係る運動解析システムによれば、第1のユーザーは、運動を妨げられることなく、運動状態を認識することができる。
[適用例11]
本適用例に係る情報分析方法は、複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果である複数の運動解析情報を取得することと、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成することと、を含む。
本適用例に係る情報分析方法によれば、慣性センサーの検出結果を用いて複数のユーザーの運動を精度よく解析した結果の複数の運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。従って、各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
[適用例12]
本適用例に係る分析プログラムは、複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果である複数の運動解析情報を取得することと、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成することと、をコンピューターに実行させる。
本適用例に係る分析プログラムによれば、慣性センサーの検出結果を用いて複数のユーザーの運動を精度よく解析した結果の複数の運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。従って、各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
[適用例13]
本適用例に係る画像生成装置は、慣性センサーの検出結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得する運動解析情報取得部と、前記ユーザーの走行
を表すユーザーオブジェクトの画像データに前記運動解析情報を関連付けた画像情報を生成する画像情報生成部と、を含む。
慣性センサーは、装着されたユーザーの部位の細かい動きを検出可能であるため、少ない数(例えば1つ)の慣性センサーの検出結果を用いて、走行時におけるユーザーの運動解析情報を精度よく生成することができる。従って、本適用例に係る画像生成装置によれば、少ない数のセンサーの検出結果から得られるユーザーの運動解析情報を用いることで、例えば、ユーザーの走行状態を精度よく再現する画像情報を生成することができる。
[適用例14]
上記適用例に係る画像生成装置において、前記運動解析情報は、前記ユーザーの運動能力に関する少なくとも1つの指標の値を含んでもよい。
運動能力は、例えば、技術力であってもよいし、持久力であってもよい。
[適用例15]
上記適用例に係る画像生成装置において、前記画像情報生成部は、前記運動解析情報を用いて、前記ユーザーの運動能力に関する少なくとも1つの指標の値を算出してもよい。
これらの本適用例に係る画像生成装置によれば、ユーザーの運動能力に関する少なくとも1つの指標の値を用いて、例えば、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。従って、ユーザーは、当該画像情報により、例えば、全身の動きは分からなくても最も知りたい部位の状態を視覚的に明確に知ることができる。
[適用例16]
上記適用例に係る画像生成装置において、前記運動解析情報は、前記ユーザーの姿勢角の情報を含み、前記画像情報生成部は、前記指標の値と前記姿勢角の情報とを用いて、前記画像情報を生成してもよい。
本適用例に係る運動解析装置によれば、姿勢角の情報を用いることでより多くの部位の状態を精度よく再現する画像情報を生成することができる。
[適用例17]
上記適用例に係る画像生成装置において、前記画像情報生成部は、前記画像データと比較するための比較用画像データを生成し、前記画像データと前記比較用画像データとを含む前記画像情報を生成してもよい。
本適用例に係る画像生成装置によれば、ユーザーは、自身の運動状態を比較対象の運動状態と容易に比較することができ、自身の運動能力を客観的に評価することができる。
[適用例18]
上記適用例に係る画像生成装置において、前記画像データは、前記ユーザーの運動の特徴点における運動状態を表す画像データであってもよい。
ユーザーの運動の特徴点の情報は運動解析情報に含まれていてもよいし、画像情報生成部が運動解析情報を用いてユーザーの運動の特徴点を検出してもよい。
本適用例に係る画像生成装置によれば、運動能力の評価に特に重要な特徴点において、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができ
る。
[適用例19]
上記適用例に係る画像生成装置において、前記特徴点は、前記ユーザーの足が着地した時、立脚中期の時又は蹴り出す時であってもよい。
本適用例に係る画像生成装置によれば、走行能力等の評価に特に重要な着地、立脚中期、蹴り出しのタイミングにおいて、走行能力等に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
[適用例20]
上記適用例に係る画像生成装置において、前記画像情報生成部は、前記ユーザーの運動の複数種類の特徴点における運動状態をそれぞれ表す複数の前記画像データを含む前記画像情報を生成してもよい。
本適用例に係る画像生成装置によれば、運動能力の評価に特に重要な複数種類の特徴点において、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
[適用例21]
上記適用例に係る画像生成装置において、前記複数種類の前記特徴点の少なくとも1つは、前記ユーザーの足が着地した時、立脚中期の時又は蹴り出す時であってもよい。
[適用例22]
上記適用例に係る画像生成装置において、前記画像情報は、前記複数の前記画像データが時間軸上又は空間軸上に並べて配置されていてもよい。
本適用例に係る画像生成装置によれば、運動能力に密接に関連する部位の複数種類の特徴点における複数の状態間の時間又は位置の関係も再現する画像情報を生成することができる。
[適用例23]
上記適用例に係る画像生成装置において、前記画像情報生成部は、前記複数の前記画像データを時間軸上又は空間軸上で補完する複数の補完用画像データを生成し、前記複数の前記画像データと前記複数の補完用画像データとを有する動画データを含む前記画像情報を生成してもよい。
本適用例に係る画像生成装置によれば、運動能力に密接に関連する部位の連続的な動きを精度よく再現する画像情報を生成することができる。
[適用例24]
上記適用例に係る画像生成装置において、前記慣性センサーは、前記ユーザーの胴体に装着されてもよい。
本適用例に係る画像生成装置によれば、1つの慣性センサーの検出結果から得られる情報を用いて、多くの種類の運動において運動能力に密接に関連する胴体の状態を精度よく再現する画像情報を生成することができる。また、胴体の状態から脚や腕などのその他の部位の状態も推定することができるので、本適用例に係る画像生成装置によれば、1つの慣性センサーの検出結果から得られる情報を用いて、多くの部位の状態を精度よく再現する画像情報を生成することができる。
[適用例25]
本適用例に係る運動解析システムは、上記のいずれかの画像生成装置と、前記運動解析情報を生成する運動解析装置と、を含む。
[適用例26]
本適用例に係る画像生成方法は、慣性センサーの検出結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得することと、前記ユーザーの走行を表すユーザーオブジェクトの画像データに前記運動解析情報を関連付けた画像情報を生成することと、を含む。
本適用例に係る画像生成方法によれば、ユーザーの細かい動きも検出可能な慣性センサーの検出結果を用いて精度よく生成される運動解析情報を用いることで、例えば、ユーザーの走行状態を精度よく再現する画像情報を生成することができる。
[適用例27]
本適用例に係る画像生成プログラムは、慣性センサーの検出結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得することと、前記ユーザーの走行を表すユーザーオブジェクトの画像データに前記運動解析情報を関連付けた画像情報を生成することと、をコンピューターに実行させる。
本適用例に係る画像生成プログラムによれば、ユーザーの細かい動きも検出可能な慣性センサーの検出結果を用いて精度よく生成される運動解析情報を用いることで、例えば、ユーザーの走行状態を精度よく再現する画像情報を生成することができる。
[適用例28]
本適用例に係る情報表示装置は、ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性センサーの検出結果を用いて算出された前記ユーザーの走行に関する指標とを関連付けて表示する表示部を含む。
本適用例に係る情報表示装置によれば、フォームに影響を与えやすい走行速度や走行環境とユーザーの走行に関する指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示装置を実現できる。
[適用例29]
上記適用例に係る情報表示装置において、前記走行環境は、走行路の傾斜の状態であってもよい。
本適用例に係る情報表示装置によれば、フォームに影響を与えやすい走行路の傾斜の状態を走行状態として採用することによって、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示装置を実現できる。
[適用例30]
上記適用例に係る情報表示装置において、前記指標は、真下着地、推進効率、脚の流れ、走行ピッチ、着地衝撃のいずれか1つであってもよい。
本適用例に係る情報表示装置によれば、運動の改善に有用な情報をユーザーに提供することができる。
[適用例31]
本適用例に係る情報表示システムは、慣性センサーの検出結果を用いて、ユーザーの走行に関する指標を算出する算出部と、前記ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、前記指標とを関連付けて表示する表示部と、を含む。
本適用例に係る情報表示システムによれば、フォームに影響を与えやすい走行速度や走行環境とユーザーの走行に関する指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示システムを実現できる。
[適用例32]
上記適用例に係る情報表示システムは、前記走行速度および前記走行環境の少なくとも一方を計測する判定部をさらに含んでもよい。
本適用例によれば、判定部がユーザーの走行速度および走行環境の少なくとも一方を計測するので、ユーザーによる入力操作を減らすことができる情報表示システムを実現できる。
[適用例33]
本適用例に係る情報表示プログラムは、ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性センサーの検出結果を用いて算出された前記ユーザーの走行に関する指標とを関連付けて表示することをコンピューターに実行させる。
本適用例に係る情報表示プログラムによれば、フォームに影響を与えやすい走行速度や走行環境とユーザーの走行に関する指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示プログラムを実現できる。
[適用例34]
本適用例に係る情報表示方法は、ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性センサーの検出結果を用いて算出された前記ユーザーの走行に関する指標とを関連付けて表示することを含む。
本適用例に係る情報表示方法によれば、フォームに影響を与えやすい走行速度や走行環境とユーザーの走行に関する指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示方法を実現できる。
第1実施形態の運動解析システムの構成例を示す図。 第1実施形態の運動解析システムの概要についての説明図。 第1実施形態における運動解析装置の構成例を示す機能ブロック図。 センシングデータテーブルの構成例を示す図。 GPSデータテーブルの構成例を示す図。 地磁気データテーブルの構成例を示す図。 算出データテーブルの構成例を示す図。 第1実施形態における運動解析装置の処理部の構成例を示す機能ブロック図。 慣性航法演算部の構成例を示す機能ブロック図。 ユーザーの走行時の姿勢についての説明図。 ユーザーの走行時のヨー角についての説明図。 ユーザーの走行時の3軸加速度の一例を示す図。 第1実施形態における運動解析部の構成例を示す機能ブロック図。 運動解析処理の手順の一例を示すフローチャート図。 慣性航法演算処理の手順の一例を示すフローチャート図。 走行検出処理の手順の一例を示すフローチャート図。 第1実施形態における運動解析情報生成処理の手順の一例を示すフローチャート図。 報知装置の構成例を示す機能ブロック図。 報知装置の表示部に表示される情報の一例を示す図。 第1実施形態における報知処理の手順の一例を示すフローチャート図。 情報分析装置の構成例を示す機能ブロック図。 分析処理の手順の一例を示すフローチャート図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 情報分析装置の表示部に表示される画面の一例を示す図。 第2実施形態の運動解析システムの構成例を示す図。 画像生成装置の構成例を示す機能ブロック図。 着地時の画像データ(ユーザーオブジェクト)の一例を示す図。 着地時の比較用画像データ(比較用オブジェクト)の一例を示す図。 立脚中期の画像データ(ユーザーオブジェクト)の一例を示す図。 立脚中期の比較用画像データ(比較用オブジェクト)の一例を示す図。 蹴り出し時の画像データ(ユーザーオブジェクト)の一例を示す図。 蹴り出し時の比較用画像データ(比較用オブジェクト)の一例を示す図。 画像生成装置の表示部に表示される画像の一例を示す図。 画像生成装置の表示部に表示される画像の他の一例を示す図。 画像生成装置の表示部に表示される画像の他の一例を示す図。 画像生成処理の手順の一例を示すフローチャート図。 モード1の画像生成・表示処理の手順の一例を示すフローチャート図。 モード2の画像生成・表示処理の手順の一例を示すフローチャート図。 モード3の画像生成・表示処理の手順の一例を示すフローチャート図。 モード4の画像生成・表示処理の手順の一例を示すフローチャート図。 着地時の画像データ生成処理の手順の一例を示すフローチャート図。 立脚中期の画像データ生成処理の手順の一例を示すフローチャート図。 蹴り出し時の画像データ生成処理の手順の一例を示すフローチャート図。 第3実施形態の情報表示システムの構成例を示す図。 第3実施形態における運動解析装置の構成例を示す機能ブロック図。 第3実施形態における運動解析装置の処理部の構成例を示す機能ブロック図。 第3実施形態における運動解析部の構成例を示す機能ブロック図。 走行結果情報及び運動解析情報のデータテーブルの構成例を示す図。 第3実施形態における運動解析情報生成処理の手順の一例を示すフローチャート図。 報知装置の構成例を示す機能ブロック図。 第3実施形態における報知処理の手順の一例を示すフローチャート図。 情報表示装置の構成例を示す機能ブロック図である。 情報表示装置の処理部が行う表示処理の手順の一例を示すフローチャート図である。 情報表示装置の表示部に表示される運動解析情報の一例を示す図である。
本実施の形態の運動解析システムは、慣性センサーの検出結果を用いてユーザーの運動を解析し、解析結果の情報である運動解析情報を生成する運動解析装置と、情報分析装置と、を含み、前記情報分析装置は、複数のユーザーの運動の解析結果の情報である複数の運動解析情報を取得する運動解析情報取得部と、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成する分析情報生成部と、を含む。
運動能力は、例えば、技術力であってもよいし、持久力であってもよい。
複数の運動解析情報の各々は、1つの運動解析装置が生成したものでもよいし、複数の運動解析装置が生成したものでもよい。
本実施の形態の運動解析システムによれば、慣性センサーは、ユーザーの細かい動きも検出可能であるため、運動解析装置は、慣性センサーの検出結果を用いてユーザーの運動を精度よく解析することができる。従って、本実施の形態の運動解析システムによれば、情報分析装置は、複数のユーザーの運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
本実施の形態の運動解析システムにおいて、前記分析情報生成部は、前記複数のユーザーが前記運動を実施した毎に前記複数のユーザーの運動能力を比較可能な前記分析情報を生成してもよい。
運動を実施した毎とは、例えば、日単位、月単位、ユーザーが決めた単位であってもよい。
本実施の形態の運動解析システムによれば、各ユーザーは、提示される分析情報により、他のユーザーとの運動能力の差の推移を認識することができる。
本実施の形態の運動解析システムにおいて、前記複数のユーザーは、複数のグループに分類され、前記分析情報生成部は、前記複数のユーザーの運動能力を前記グループごとに比較可能な前記分析情報を生成してもよい。
本実施の形態の運動解析システムによれば、各ユーザーは、提示される分析情報により、自分と同じグループに属する他のユーザーと運動能力を比較することができる。
本実施の形態の運動解析システムにおいて、前記複数の運動解析情報の各々は、前記複数のユーザーの各々の運動能力に関係する指標の値を含み、前記分析情報生成部は、前記複数のユーザーの前記指標の値を用いて、前記複数のユーザーに含まれる第1のユーザー
の運動能力を相対的に評価可能な前記分析情報を生成してもよい。
本実施の形態の運動解析システムによれば、第1のユーザーは、提示される分析情報により、複数のユーザーの中での自分の運動能力を相対評価することができる。
本実施の形態の運動解析システムにおいて、前記複数の運動解析情報の各々は、前記複数のユーザーの各々の運動能力に関係する指標の値を含み、前記情報分析装置は、前記複数のユーザーに含まれる第1のユーザーの前記指標の目標値を取得する目標値取得部を含み、前記分析情報生成部は、前記第1のユーザーの前記指標の値と前記目標値とを比較可能な前記分析情報を生成してもよい。
本実施の形態の運動解析システムによれば、第1のユーザーは、情報分析装置が提示する分析情報を見ながら、自身の運動能力に合わせて各指標の目標値を適切に設定することができる。また、第1のユーザーは、提示される分析情報により、自分の運動能力と目標との差を認識することができる。
本実施の形態の運動解析システムは、前記第1のユーザーの運動中に運動状態に関する情報を報知する報知装置を含み、前記情報分析装置は、前記目標値を前記報知装置に送信し、前記運動解析装置は、前記第1のユーザーの運動中に前記指標の値を前記報知装置に送信し、前記報知装置は、前記目標値及び前記指標の値を受信して前記指標の値を前記目標値と比較し、比較結果に応じて前記運動状態に関する情報を報知してもよい。
本実施の形態の運動解析システムによれば、第1のユーザーは、運動中の指標値と過去の運動の分析情報に基づく適切な目標値との差を意識しながら、運動することができる。
本実施の形態の運動解析システムにおいて、前記報知装置は、前記運動状態に関する情報を音又は振動によって報知してもよい。
音や振動による報知は運動状態に与える影響が小さいので、本実施の形態の運動解析システムによれば、第1のユーザーは、運動を妨げられることなく、運動状態を認識することができる。
本実施の形態の運動解析システムにおいて、前記運動能力は、技術力または持久力であってもよい。
本実施の形態の運動解析システムにおいて、前記指標は、接地時間、ストライド、エネルギー、真下着地率、推進効率、脚の流れ、着地時ブレーキ量、着地衝撃の少なくとも1つであってもよい。
本実施の形態の情報分析装置は、複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果である複数の運動解析情報を取得する運動解析情報取得部と、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成する分析情報生成部と、を含む。
本実施の形態の情報分析装置によれば、慣性センサーの検出結果を用いて複数のユーザーの運動を精度よく解析した結果の複数の運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。従って、各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
本実施の形態の情報分析方法は、複数のユーザーの運動を慣性センサーの検出結果を用
いて解析した結果である複数の運動解析情報を取得することと、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成することと、を含む。
本実施の形態の情報分析方法によれば、慣性センサーの検出結果を用いて複数のユーザーの運動を精度よく解析した結果の複数の運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。従って、各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
本実施の形態のプログラムは、複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果である複数の運動解析情報を取得することと、前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成することと、をコンピューターに実行させる。
本実施の形態のプログラムによれば、慣性センサーの検出結果を用いて複数のユーザーの運動を精度よく解析した結果の複数の運動解析情報を用いて、複数のユーザーの運動能力を比較可能な分析情報を生成し、提示することができる。従って、各ユーザーは、提示される分析情報により、他のユーザーと運動能力を比較することができる。
本実施の形態の画像生成装置は、慣性センサーの検出結果を用いてユーザーの運動を解析して得られる前記ユーザーの運動能力に関係する指標の値を用いて、前記ユーザーの運動状態を表す画像データを含む画像情報を生成する画像情報生成部を含む。
運動能力は、例えば、技術力であってもよいし、持久力であってもよい。
慣性センサーは、装着されたユーザーの部位の細かい動きを検出可能であるため、少ない数(例えば1つ)の慣性センサーの検出結果を用いて、ユーザーの運動能力に関係する指標の値を精度よく算出することができる。従って、本実施の形態の画像生成装置によれば、少ない数のセンサーの検出結果から得られるユーザーの運動能力に関係する指標の値を用いることで、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。従って、ユーザーは、当該画像情報により、全身の動きは分からなくても最も知りたい部位の状態を視覚的に明確に知ることができる。
本実施の形態の画像生成装置は、前記慣性センサーの検出結果を用いて前記ユーザーの運動を解析した結果の情報である運動解析情報を取得する運動解析情報取得部を含み、前記画像情報生成部は、前記運動解析情報を用いて、前記画像情報を生成してもよい。
本実施の形態の画像生成装置において、前記運動解析情報は、少なくとも1つの前記指標の値を含んでもよい。
本実施の形態の画像生成装置において、前記画像情報生成部は、前記運動解析情報を用いて、少なくとも1つの前記指標の値を算出してもよい。
本実施の形態の画像生成装置において、前記運動解析情報は、前記ユーザーの姿勢角の情報を含み、前記画像情報生成部は、前記指標の値と前記姿勢角の情報とを用いて、前記画像情報を生成してもよい。
本実施の形態の運動解析装置によれば、姿勢角の情報を用いることでより多くの部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態の画像生成装置において、前記画像情報生成部は、前記画像データと比較するための比較用画像データを生成し、前記画像データと前記比較用画像データとを含む前記画像情報を生成してもよい。
本実施の形態の画像生成装置によれば、ユーザーは、自身の運動状態を比較対象の運動状態と容易に比較することができ、自身の運動能力を客観的に評価することができる。
本実施の形態の画像生成装置において、前記画像データは、前記ユーザーの運動の特徴点における運動状態を表す画像データであってもよい。
ユーザーの運動の特徴点の情報は運動解析情報に含まれていてもよいし、画像情報生成部が運動解析情報を用いてユーザーの運動の特徴点を検出してもよい。
本実施の形態の画像生成装置によれば、運動能力の評価に特に重要な特徴点において、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態の画像生成装置において、前記特徴点は、前記ユーザーの足が着地した時、立脚中期の時又は蹴り出す時であってもよい。
本実施の形態の画像生成装置によれば、走行能力等の評価に特に重要な着地、立脚中期、蹴り出しのタイミングにおいて、走行能力等に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態の画像生成装置において、前記画像情報生成部は、前記ユーザーの運動の複数種類の特徴点における運動状態をそれぞれ表す複数の画像データを含む前記画像情報を生成してもよい。
本実施の形態の画像生成装置によれば、運動能力の評価に特に重要な複数種類の特徴点において、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態の画像生成装置において、前記複数種類の前記特徴点の少なくとも1つは、前記ユーザーの足が着地した時、立脚中期の時又は蹴り出す時であってもよい。
本実施の形態の画像生成装置において、前記画像情報は、前記複数の画像データが時間軸上又は空間軸上に並べて配置されていてもよい。
本実施の形態の画像生成装置によれば、運動能力に密接に関連する部位の複数種類の特徴点における複数の状態間の時間又は位置の関係も再現する画像情報を生成することができる。
本実施の形態の画像生成装置において、前記画像情報生成部は、前記複数の画像データを時間軸上又は空間軸上で補完する複数の補完用画像データを生成し、前記複数の画像データと前記複数の補完用画像データとを有する動画データを含む前記画像情報を生成してもよい。
本実施の形態の画像生成装置によれば、運動能力に密接に関連する部位の連続的な動きを精度よく再現する画像情報を生成することができる。
本実施の形態の画像生成装置において、前記慣性センサーは、前記ユーザーの胴体に装着されてもよい。
本実施の形態の画像生成装置によれば、1つの慣性センサーの検出結果から得られる情報を用いて、多くの種類の運動において運動能力に密接に関連する胴体の状態を精度よく再現する画像情報を生成することができる。また、胴体の状態から脚や腕などのその他の部位の状態も推定することができるので、本実施の形態の画像生成装置によれば、1つの慣性センサーの検出結果から得られる情報を用いて、多くの部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態の運動解析システムは、上記のいずれかの画像生成装置と、前記指標の値を算出する運動解析装置と、を含む。
本実施の形態の画像生成方法は、慣性センサーの検出結果を用いてユーザーの運動を解析して得られる前記ユーザーの運動能力に関係する指標の値を用いて、前記ユーザーの運動状態を表す画像データを含む画像情報を生成すること、を含む。
本実施の形態の画像生成方法によれば、ユーザーの細かい動きも検出可能な慣性センサーの検出結果を用いて精度よく算出される運動能力に関係する指標の値を用いることで、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態のプログラムは、慣性センサーの検出結果を用いてユーザーの運動を解析して得られる前記ユーザーの運動能力に関係する指標の値を用いて、前記ユーザーの運動状態を表す画像データを含む画像情報を生成すること、をコンピューターに実行させる。
本実施の形態のプログラムによれば、ユーザーの細かい動きも検出可能な慣性センサーの検出結果を用いて精度よく算出される運動能力に関係する指標の値を用いることで、運動能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。
本実施の形態の情報表示システムは、使用者に装着される慣性センサーの出力に基づいて、前記使用者の運動に関する指標を算出する算出部と、前記使用者の走行状態に関する情報である走行状態情報と、前記指標とを関連付けて表示する表示部と、を含む、情報表示システムである。
本実施の形態の情報表示システムによれば、走行状態情報と指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、使用者の運動に関する指標を正確に把握できる情報表示システムを実現できる。
実施の形態の情報表示システムにおいて、前記走行状態を計測する判定部をさらに含んでもよい。
本実施の形態の情報表示システムによれば、判定部が走行状態を計測するので、使用者による入力操作を減らすことができる情報表示システムを実現できる。
実施の形態の情報表示システムにおいて、前記走行状態は、走行速度及び走行環境の少なくとも一方であってもよい。
実施の形態の情報表示システムにおいて、前記走行環境は、走行路の傾斜の状態であってもよい。
実施の形態の情報表示システムによれば、フォームに影響を与えやすい走行速度や走行路の傾斜の状態を走行状態として採用することによって、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、使用者の運動に関する指標を正確に把握できる情報表示システムを実現できる。
実施の形態の情報表示システムにおいて、前記指標は、真下着地、推進効率、脚の流れ、走行ピッチ、着地衝撃のいずれか1つであってもよい。
実施の形態の情報表示システムによれば、運動の改善に有用な情報を使用者に提供することができる。
本実施の形態の情報表示装置は、使用者に装着される慣性センサーの出力に基づいて、前記使用者の運動に関する指標を算出する算出部と、前記使用者の走行状態に関する情報である走行状態情報と、前記指標とを関連付けて表示する表示部と、を含む、情報表示装置である。
本実施の形態の情報表示装置によれば、走行状態情報と指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、使用者の運動に関する指標を正確に把握できる情報表示装置を実現できる。
本実施の形態の情報表示プログラムは、使用者に装着される慣性センサーの出力に基づいて、前記使用者の運動に関する指標を算出する算出部と、前記使用者の走行状態に関する情報である走行状態情報と、前記指標とを関連付けて表示する表示部と、してコンピューターを機能させる、情報表示プログラムである。
本実施の形態の情報表示プログラムによれば、走行状態情報と指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、使用者の運動に関する指標を正確に把握できる情報表示プログラムを実現できる。
本実施の形態の情報表示方法は、使用者に装着される慣性センサーの出力に基づいて、前記使用者の運動に関する指標を算出する算出工程と、前記使用者の走行状態に関する情報である走行状態情報と、前記指標とを関連付けて表示する表示工程と、を含む、情報表示方法である。
本実施の形態の情報表示方法によれば、走行状態情報と指標とを関連付けて表示するので、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、使用者の運動に関する指標を正確に把握できる情報表示方法を実現できる。
以下、本発明の好適な実施形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。
1.第1実施形態
1−1.運動解析システムの構成
以下では、ユーザーの走行(歩行も含む)における運動を解析する運動解析システムを例に挙げて説明するが、第1実施形態の運動解析システムは、走行以外の運動を解析する運動解析システムにも、同様に適用することができる。図1は、第1実施形態の運動解析システム1の構成例を示す図である。図1に示すように、第1実施形態の運動解析システム1は、運動解析装置2、報知装置3及び情報分析装置4を含んで構成されている。運動解析装置2は、ユーザーの走行中の運動を解析する装置であり、報知装置3は、ユーザーの走行中の運動の状態や走行結果の情報をユーザーに通知する装置である。情報分析装置4は、ユーザーの走行終了後に走行結果を分析して提示する装置である。本実施形態では、図2に示すように、運動解析装置2は、慣性計測ユニット(IMU:Inertial Measurement Unit)10を内蔵し、ユーザーが静止している状態で、慣性計測ユニット(IMU)10の1つの検出軸(以下ではz軸とする)が重力加速度方向(鉛直下向き)とほぼ一致するように、ユーザーの胴体部分(例えば、右腰、左腰、又は腰の中央部)に装着される。また、報知装置3は、リスト型(腕時計型)の携帯情報機器であり、ユーザーの手首等に装着される。ただし、報知装置3は、ヘッドマウントディスプレイ(HMD:Head Mount Display)やスマートフォン等の携帯情報機器であってもよい。
ユーザーは、走行開始時に報知装置3を操作して運動解析装置2による計測(後述する慣性航法演算処理及び運動解析処理)の開始を指示し、走行終了時に報知装置3を操作して運動解析装置2による計測の終了を指示する。報知装置3は、ユーザーの操作に応じて、計測の開始や終了を指示するコマンドを運動解析装置2に送信する。
運動解析装置2は、計測開始のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を開始し、計測結果を用いて、ユーザーの走行能力(運動能力の一例)に関係する指標である各種の運動指標の値を計算し、ユーザーの走行運動の解析結果の情報として、各種の運動指標の値を含む運動解析情報を生成する。運動解析装置2は、生成した運動解析情報を用いて、ユーザーの走行中に出力する情報(走行中出力情報)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行中出力情報を受信し、走行中出力情報に含まれる各種の運動指標の値を事前に設定された各目標値と比較し、主として音や振動により各運動指標の良し悪しをユーザーに報知する。これにより、ユーザーは、各運動指標の良し悪しを認識しながら走行することができる。
また、運動解析装置2は、計測終了のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を終了し、ユーザーの走行結果の情報(走行結果情報:走行距離、走行速度)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行結果情報を受信し、走行結果の情報を文字や画像としてユーザーに報知する。これにより、ユーザーは、走行終了後すぐに走行結果の情報を認識することができる。もしくは、報知装置3は、走行中出力情報をもとに走行結果情報を生成し、文字や画像としてユーザーに報知してもよい。
なお、運動解析装置2と報知装置3との間のデータ通信は、無線通信でもよいし、有線通信でもよい。
また、図1に示すように、本実施形態では、運動解析システム1は、インターネットやLAN(Local Area Network)などのネットワークに接続されたサーバー5を含んで構成されている。情報分析装置4は、例えば、パーソナルコンピューターやスマートフォン等の情報機器であり、ネットワークを介してサーバー5とデータ通信が可能である。情報分析装置4は、運動解析装置2からユーザーの過去の走行における運動解析情報を取得し、ネットワークを介してサーバー5に送信する。ただし、情報分析装置4とは異なる装置が運動解析装置2から運動解析情報を取得してサーバー5に送信してもよいし、運動解析装置2が運動解析情報をサーバー5に直接送信してもよい。サーバー5は、この運動解析情
報を受信して記憶部(不図示)に構築されているデータベースに保存する。本実施形態では、複数のユーザーが同一の又は異なる運動解析装置2を装着して走行を行い、各ユーザーの運動解析情報がサーバー5のデータベースに保存される。
情報分析装置4は、ネットワークを介してサーバー5のデータベースから複数のユーザーの運動解析情報を取得して当該複数のユーザーの走行能力を比較可能な分析情報を生成し、当該分析情報を表示部(図1では不図示)に表示させる。情報分析装置4の表示部に表示された分析情報から、特定のユーザーの走行能力を他のユーザーと比較して相対的に評価することや各運動指標の目標値を適切に設定することが可能になる。ユーザーが各運動指標の目標値を設定した場合、情報分析装置4は、各運動指標の目標値の設定情報を報知装置3に送信する。報知装置3は、情報分析装置4から各運動指標の目標値の設定情報を受信し、前述した各運動指標の値との比較に用いられる各目標値を更新する。
運動解析システム1は、運動解析装置2と報知装置3と情報分析装置4とが別に設けられたり、運動解析装置2と報知装置3が一体で情報分析装置4が別に設けられたり、報知装置3と情報分析装置4が一体で運動解析装置2が別に設けられたり、運動解析装置2と情報分析装置4が一体で報知装置3が別に設けられたり、運動解析装置2と報知装置3と情報分析装置4が一体であってもよい。運動解析装置2と報知装置3と情報分析装置4はどのような組み合わせであってもよい。
1−2.座標系
以下の説明において必要となる座標系を定義する。
・eフレーム(Earth Centerd Earth Fixed Frame):地球の中心を原点とし、自転軸に平行にz軸をとった右手系の三次元直交座標
・nフレーム(Navigation Frame):移動体(ユーザー)を原点とし、x軸を北、y軸を東、z軸を重力方向とした三次元直交座標系
・bフレーム(Body Frame):センサー(慣性計測ユニット(IMU)10)を基準とする三次元直交座標系
・mフレーム(Moving Frame):移動体(ユーザー)を原点とし、移動体(ユーザー)の進行方向をx軸とした右手系の三次元直交座標系
1−3.運動解析装置
1−3−1.運動解析装置の構成
図3は、第1実施形態における運動解析装置2の構成例を示す機能ブロック図である。図3に示すように、運動解析装置2は、慣性計測ユニット(IMU)10、処理部20、記憶部30、通信部40、GPS(Global Positioning System)ユニット50及び地磁気センサー60を含んで構成されている。ただし、本実施形態の運動解析装置2は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
慣性計測ユニット10(慣性センサーの一例)は、加速度センサー12、角速度センサー14及び信号処理部16を含んで構成されている。
加速度センサー12は、互いに交差する(理想的には直交する)3軸方向の各々の加速度を検出し、検出した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。
角速度センサー14は、互いに交差する(理想的には直交する)3軸方向の各々の角速度を検出し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。
信号処理部16は、加速度センサー12及び角速度センサー14から、それぞれ加速度データと角速度データを受け取って時刻情報を付して不図示の記憶部に記憶し、記憶した加速度データ、角速度データ及び時刻情報を所定のフォーマットに合わせたセンシングデータを生成し、処理部20に出力する。
加速度センサー12及び角速度センサー14は、それぞれ3軸が、慣性計測ユニット10を基準とするセンサー座標系(bフレーム)の3軸と一致するように取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、信号処理部16は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをセンサー座標系(bフレーム)のデータに変換する処理を行う。なお、信号処理部16の代わりに後述する処理部20が当該変換処理を行ってもよい。
さらに、信号処理部16は、加速度センサー12及び角速度センサー14の温度補正処理を行ってもよい。なお、信号処理部16の代わりに後述する処理部20が当該温度補正処理を行ってもよいし、加速度センサー12及び角速度センサー14に温度補正の機能が組み込まれていてもよい。
加速度センサー12と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、信号処理部16が、加速度センサー12の出力信号と角速度センサー14の出力信号をそれぞれA/D変換してセンシングデータを生成すればよい。
GPSユニット50は、測位用衛星の一種であるGPS衛星から送信されるGPS衛星信号を受信し、当該GPS衛星信号を利用して測位計算を行ってnフレームにおけるユーザーの位置及び速度(大きさと向きを含むベクトル)を算出し、これらに時刻情報や測位精度情報を付したGPSデータを処理部20に出力する。なお、GPSを利用して、位置や速度を算出する方法や時刻情報を生成する方法については公知であるため、詳細な説明を省略する。
地磁気センサー60は、互いに交差する(理想的には直交する)3軸方向の各々の地磁気を検出し、検出した3軸地磁気の大きさ及び向きに応じたデジタル信号(地磁気データ)を出力する。ただし、地磁気センサー60は、アナログ信号を出力するものであってもよく、この場合は、処理部20が、地磁気センサー60の出力信号をA/D変換して地磁気データを生成してもよい。
通信部40は、報知装置3の通信部140(図18参照)や情報分析装置4の通信部440(図21参照)との間でデータ通信を行うものであり、報知装置3の通信部140から送信されたコマンド(計測開始/計測終了のコマンド等)を受信して処理部20に送る処理、処理部20が生成した走行中出力情報や走行結果情報を受け取って報知装置3の通信部140に送信する処理、情報分析装置4の通信部440から運動解析情報の送信要求コマンドを受信して処理部20に送り、当該運動解析情報を処理部20から受け取って情報分析装置4の通信部440に送信する処理等を行う。
処理部20は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等により構成され、記憶部30(記録媒体)に記憶されている各種プログラムに従って、各種の演算処理や制御処理を行う。特に、処理部20は、通信部40を介して報知装置3から計測開始のコマンドを受け取ると、計測終了のコマンドを受け取るまで、慣性計測ユニット10、GPSユニット50及び地磁気センサー60からそれぞれセンシングデータ、GPSデータ及び地磁気データを受け取り、これらのデータを用いてユーザーの速度や位置、胴体の姿
勢角等を算出する。また、処理部20は、算出したこれらの情報を用いて各種の演算処理を行ってユーザーの運動を解析して後述する各種の運動解析情報を生成し、記憶部30に記憶させる。また、処理部20は、生成した運動解析情報を用いて走行中出力情報や走行結果情報を生成し、通信部40に送る処理を行う。
また、処理部20は、通信部40を介して情報分析装置4から運動解析情報の送信要求コマンド受け取ると、送信要求コマンドで指定された運動解析情報を記憶部30から読み出して通信部40を介して情報分析装置4の通信部440に送る処理を行う。
記憶部30は、例えば、ROM(Read Only Memory)やフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部20の作業領域となるRAM(Random Access Memory)等により構成される。記憶部30(いずれかの記録媒体)には、処理部20によって読み出され、運動解析処理(図14参照)を実行するための運動解析プログラム300が記憶されている。運動解析プログラム300は、慣性航法演算処理(図15参照)を実行するための慣性航法演算プログラム302、運動解析情報生成処理(図17参照)を実行するための運動解析情報生成プログラム304をサブルーチンとして含む。
また、記憶部30には、センシングデータテーブル310、GPSデータテーブル320、地磁気データテーブル330、算出データテーブル340及び運動解析情報350等が記憶される。
センシングデータテーブル310は、処理部20が慣性計測ユニット10から受け取ったセンシングデータ(慣性計測ユニット10の検出結果)を時系列に記憶するデータテーブルである。図4は、センシングデータテーブル310の構成例を示す図である。図4に示すように、センシングデータテーブル310は、慣性計測ユニット10の検出時刻311、加速度センサー12により検出された加速度312及び角速度センサー14により検出された角速度313が対応付けられたセンシングデータが時系列に並べられて構成される。処理部20は、計測を開始すると、サンプリング周期Δt(例えば、20msまたは10ms)の経過毎に、センシングデータテーブル310に新たなセンシングデータを付加する。さらに、処理部20は、拡張カルマンフィルターを用いた誤差推定(後述)により推定された加速度バイアス及び角速度バイアスを用いて加速度及び角速度を補正し、補正後の加速度及び角速度を上書きしてセンシングデータテーブル310を更新する。
GPSデータテーブル320は、処理部20がGPSユニット50から受け取ったGPSデータ(GPSユニット(GPSセンサー)50の検出結果)を時系列に記憶するデータテーブルである。図5は、GPSデータテーブル320の構成例を示す図である。図5に示すように、GPSデータテーブル320は、GPSユニット50が測位計算を行った時刻321、測位計算により算出した位置322、測位計算により算出した速度323、測位精度(DOP(Dilution of Precision))324、受信したGPS衛星信号の信号強度325等が対応付けられたGPSデータが時系列に並べられて構成される。処理部20は、計測を開始すると、GPSデータを取得する毎に(例えば1秒毎に、センシングデータの取得タイミングとは非同期に)、新たなGPSデータを付加してGPSデータテーブル320を更新する。
地磁気データテーブル330は、処理部20が地磁気センサー60から受け取った地磁気データ(地磁気センサーの検出結果)を時系列に記憶するデータテーブルである。図6は、地磁気データテーブル330の構成例を示す図である。図6に示すように、地磁気データテーブル330は、地磁気センサー60の検出時刻331と地磁気センサー60により検出された地磁気332とが対応付けられた地磁気データが時系列に並べられて構成さ
れる。処理部20は、計測を開始すると、サンプリング周期Δt(例えば、10ms)の経過毎に、地磁気データテーブル330に新たな地磁気データを付加する。
算出データテーブル340は、処理部20がセンシングデータを用いて算出した速度、位置及び姿勢角を時系列に記憶するデータテーブルである。図7は、算出データテーブル340の構成例を示す図である。図7に示すように、算出データテーブル340は、処理部20が計算した時刻341、速度342、位置343及び姿勢角344が対応付けられた算出データが時系列に並べられて構成される。処理部20は、計測を開始すると、新たにセンシングデータを取得する毎に、すなわち、サンプリング周期Δtの経過毎に、速度、位置及び姿勢角を算出し、算出データテーブル340に新たな算出データを付加する。さらに、処理部20は、拡張カルマンフィルターを用いた誤差推定により推定された速度誤差、位置誤差及び姿勢角誤差を用いて、速度、位置及び姿勢角を補正し、補正後の速度、位置及び姿勢角を上書きして算出データテーブル340を更新する。
運動解析情報350は、ユーザーの運動に関する各種情報であり、処理部20が生成した、入力情報351の各項目、基本情報352の各項目、第1解析情報353の各項目、第2解析情報354の各項目、左右差率355の各項目等を含む。これら各種の情報の詳細については後述する。
1−3−2.処理部の機能構成
図8は、第1実施形態における運動解析装置2の処理部20の構成例を示す機能ブロック図である。本実施形態では、処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、慣性航法演算部22及び運動解析部24として機能する。ただし、処理部20は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている運動解析プログラム300を受信して実行してもよい。
慣性航法演算部22は、センシングデータ(慣性計測ユニット10の検出結果)、GPSデータ(GPSユニット50の検出結果)及び地磁気データ(地磁気センサー60の検出結果)を用いて、慣性航法演算を行い、加速度、角速度、速度、位置、姿勢角、距離、ストライド及び走行ピッチを算出し、これらの算出結果を含む演算データを出力する。慣性航法演算部22が出力する演算データは時刻順に記憶部30に記憶される。慣性航法演算部22の詳細については後述する。
運動解析部24は、慣性航法演算部22が出力する演算データ(記憶部30に記憶されている演算データ)を用いて、ユーザーの走行中の運動を解析し、解析結果の情報である運動解析情報(後述する、入力情報、基本情報、第1解析情報、第2解析情報、左右差率等)を生成する。運動解析部24が生成した運動解析情報は、ユーザーの走行中に、時刻順に記憶部30に記憶される。
また、運動解析部24は、生成した運動解析情報を用いて、ユーザーの走行中(具体的には慣性計測ユニット10が計測を開始してから終了するまでの間)に出力する情報である走行中出力情報を生成する。運動解析部24が生成した走行中出力情報は、通信部40を介して報知装置3に送信される。
また、運動解析部24は、走行中に生成した運動解析情報を用いて、ユーザーの走行終了時(具体的には慣性計測ユニット10の計測終了時)に、走行結果の情報である走行結果情報を生成する。運動解析部24が生成した走行結果情報は、通信部40を介して報知装置3に送信される。
1−3−3.慣性航法演算部の機能構成
図9は、慣性航法演算部22の構成例を示す機能ブロック図である。本実施形態では、慣性航法演算部22は、バイアス除去部210、積分処理部220、誤差推定部230、走行処理部240及び座標変換部250を含む。ただし、本実施形態の慣性航法演算部22は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
バイアス除去部210は、新たに取得したセンシングデータに含まれる3軸加速度及び3軸角速度から、それぞれ、誤差推定部230が推定した加速度バイアスb及び角速度バイアスbωを減算し、3軸加速度及び3軸角速度を補正する処理を行う。なお、計測開始直後の初期状態では加速度バイアスb及び角速度バイアスbωの推定値が存在しないため、バイアス除去部210は、ユーザーの初期状態は静止状態であるものとして、慣性計測ユニットからのセンシングデータを用いて、初期バイアスを計算する。
積分処理部220は、バイアス除去部210が補正した加速度及び角速度からeフレームの速度v、位置p及び姿勢角(ロール角φbe、ピッチ角θbe、ヨー角ψbe)を算出する処理を行う。具体的には、積分処理部220は、まず、ユーザーの初期状態は静止状態であるものとして、初期速度をゼロとし、あるいは、GPSデータに含まれる速度から初期速度を算出し、さらに、GPSデータに含まれる位置から初期位置を算出する。また、積分処理部220は、バイアス除去部210が補正したbフレームの3軸加速度から重力加速度の向きを特定してロール角φbeとピッチ角θbeの初期値を算出するとともに、GPSデータに含まれる速度からヨー角ψbeの初期値を算出し、eフレームの初期姿勢角とする。GPSデータが得られない場合はヨー角ψbeの初期値を例えばゼロとする。そして、積分処理部220は、算出した初期姿勢角から式(1)で表されるbフレームからeフレームへの座標変換行列(回転行列)C の初期値を算出する。
その後は、積分処理部220は、バイアス除去部210が補正した3軸角速度を積算(回転演算)して座標変換行列C を算出し、式(2)より姿勢角を算出する。
また、積分処理部220は、座標変換行列C を用いて、バイアス除去部210が補正したbフレームの3軸加速度をeフレームの3軸加速度に変換し、重力加速度成分を除去して積算することでeフレームの速度vを算出する。また、積分処理部220は、eフレームの速度vを積算してeフレームの位置pを算出する。
また、積分処理部220は、誤差推定部230が推定した速度誤差δv、位置誤差δp及び姿勢角誤差εを用いて、速度v、位置p及び姿勢角を補正する処理及び補
正した速度vを積分して距離を計算する処理も行う。
さらに、積分処理部220は、bフレームからmフレームへの座標変換行列C 、eフレームからmフレームへの座標変換行列C 及びeフレームからnフレームへの座標変換行列C も算出する。これらの座標変換行列は座標変換情報として後述する座標変換部250の座標変換処理に用いられる。
誤差推定部230は、積分処理部220が算出した速度・位置、姿勢角、バイアス除去部210が補正した加速度や角速度、GPSデータ、地磁気データ等を用いて、ユーザーの状態を表す指標の誤差を推定する。本実施形態では、誤差推定部230は、拡張カルマンフィルターを用いて、速度、姿勢角、加速度、角速度及び位置の誤差を推定する。すなわち、誤差推定部230は、積分処理部220が算出した速度vの誤差(速度誤差)δv、積分処理部220が算出した姿勢角の誤差(姿勢角誤差)ε、加速度バイアスb、角速度バイアスbω及び積分処理部220が算出した位置pの誤差(位置誤差)δpを拡張カルマンフィルターの状態変数とし、状態ベクトルXを式(3)のように定義する。
誤差推定部230は、拡張カルマンフィルターの予測式を用いて、状態ベクトルXに含まれる状態変数を予測する。拡張カルマンフィルターの予測式は、式(4)のように表される。式(4)において、行列Φは、前回の状態ベクトルXと今回の状態ベクトルXを関連付ける行列であり、その要素の一部は姿勢角や位置等を反映しながら時々刻々変化するように設計される。また、Qはプロセスノイズを表す行列であり、その各要素はあらかじめ適切な値に設定される。また、Pは状態変数の誤差共分散行列である。
また、誤差推定部230は、拡張カルマンフィルターの更新式を用いて、予測した状態変数を更新(補正)する。拡張カルマンフィルターの更新式は、式(5)のように表される。Z及びHはそれぞれ観測ベクトル及び観測行列であり、更新式(5)は、実際の観測ベクトルZと状態ベクトルXから予測されるベクトルHXとの差を用いて、状態ベクトルXを補正することを表している。Rは、観測誤差の共分散行列であり、あらかじめ決められた一定値であってもよいし、動的に変更してもよい。Kはカルマンゲインであり、Rが小さいほどKが大きくなる。式(5)より、Kが大きい(Rが小さい)ほど、状態ベクトルXの補正量が大きくなり、その分、Pが小さくなる。
誤差推定の方法(状態ベクトルXの推定方法)としては、例えば、以下のようなものが挙げられる。
姿勢角誤差に基づく補正による誤差推定方法:
図10は、運動解析装置2を右腰に装着したユーザーが走行動作(直進)をする場合のユーザーの移動を俯瞰した図である。また、図11は、ユーザーが走行動作(直進)をする場合に慣性計測ユニット10の検出結果から算出したヨー角(方位角)の一例を示す図であり、横軸は時間、縦軸はヨー角(方位角)である。
ユーザーの走行動作に伴い、ユーザーに対する慣性計測ユニット10の姿勢が随時変化する。ユーザーが左足を踏み出した状態では、図10中の(1)や(3)に示すように、慣性計測ユニット10は進行方向(mフレームのx軸)に対して左側に傾いた姿勢となる。それに対して、ユーザーが右足を踏み出した状態では、図10中の(2)や(4)に示すように、慣性計測ユニット10は進行方向(mフレームのx軸)に対して右側に傾いた姿勢となる。つまり、慣性計測ユニット10の姿勢は、ユーザーの走行動作に伴い、左右1歩ずつの2歩毎に周期的に変化することになる。図11では、例えば、右足を踏み出した状態でヨー角が極大となり(図11中の○)、左足を踏み出した状態でヨー角が極小となっている(図11中の●)。そこで、前回(2歩前)の姿勢角と今回の姿勢角は等しく、かつ、前回の姿勢角は真の姿勢であるものとして誤差を推定することができる。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、姿勢角誤差εと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
角速度バイアスに基づく補正による誤差推定方法:
前回(2歩前)の姿勢角と今回の姿勢角は等しいが、前回の姿勢角は真の姿勢である必要はないものとして誤差を推定する方法である。この方法では、式(5)の観測ベクトルZは積分処理部220が算出した前回の姿勢角及び今回の姿勢角から算出される角速度バイアスであり、更新式(5)により、角速度バイアスbωと観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
方位角誤差に基づく補正による誤差推定方法:
前回(2歩前)のヨー角(方位角)と今回のヨー角(方位角)は等しく、かつ、前回のヨー角(方位角)は真のヨー角(方位角)であるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した前回のヨー角と今回のヨー角の差であり、更新式(5)により、方位角誤差ε と観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
停止に基づく補正による誤差推定方法:
停止時は速度がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度vとゼロとの差であり、更新式(5)により、速度誤差δvに基づいて状態ベクトルXを補正し、誤差を推定する。
静止に基づく補正による誤差推定方法:
静止時は速度がゼロであり、かつ、姿勢変化がゼロであるものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度vの誤差及び積分処理部220が算出した前回の姿勢角と今回の姿勢角との差であり、更新式(5)により、速度誤差δv及び姿勢角誤差εに基づいて状態ベクトルXを補正し、誤差を推定する。
GPSの観測値に基づく補正による誤差推定方法:
積分処理部220が算出した速度v、位置pあるいはヨー角ψbeとGPSデータから算出される速度、位置あるいは方位角(eフレームに変換後の速度、位置、方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出した速度、位置あるいはヨー角とGPSデータから算出される速度、位置速度あるいは方位角との差であり、更新式(5)により、速度誤差δv、位置誤差δpあるいは方位角誤差ε と観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
地磁気センサーの観測値に基づく補正による誤差推定方法:
積分処理部220が算出したヨー角ψbeと地磁気センサーから算出される方位角(eフレームに変換後の方位角)は等しいものとして誤差を推定する方法である。この方法では、観測ベクトルZは積分処理部220が算出したヨー角と地磁気データから算出される方位角との差であり、更新式(5)により、方位角誤差ε と観測値との差に基づいて状態ベクトルXを補正し、誤差を推定する。
図9に戻り、走行処理部240は、走行検出部242、歩幅算出部244及びピッチ算出部246を含む。走行検出部242は、慣性計測ユニット10の検出結果(具体的には、バイアス除去部210が補正したセンシングデータ)を用いて、ユーザーの走行周期(走行タイミング)を検出する処理を行う。図10及び図11で説明したように、ユーザーの走行時にはユーザーの姿勢が周期的に(2歩(左右1歩ずつ)毎に)変化するため、慣性計測ユニット10が検出する加速度も周期的に変化する。図12は、ユーザーの走行時に慣性計測ユニット10が検出した3軸加速度の一例を示す図である。図12において、横軸は時間であり、縦軸は加速度値である。図12に示すように、3軸加速度は周期的に変化しており、特にz軸(重力方向の軸)加速度は、周期性をもって規則的に変化していることがわかる。このz軸加速度は、ユーザーの上下動の加速度を反映しており、z軸加速度が所定の閾値以上の極大値となる時から次に閾値以上の極大値となるまでの期間が1歩の期間に相当する。
そこで、本実施形態では、走行検出部242は、慣性計測ユニット10が検出するz軸加速度(ユーザーの上下動の加速度に相当する)が所定の閾値以上の極大値となる毎に、走行周期を検出する。すなわち、走行検出部242は、z軸加速度が所定の閾値以上の極大値となる毎に、走行周期を検出したことを示すタイミング信号を出力する。実際には、慣性計測ユニット10が検出する3軸加速度には高周波のノイズ成分が含まれるため、走行検出部242は、ローパスフィルターを通過させてノイズが除去されたz軸加速度を用いて走行周期を検出する。
また、走行検出部242は、検出した走行周期が左右いずれの走行周期かを判定し、左右いずれの走行周期かを示す左右足フラグ(例えば、右足の時にオン、左足の時にオフ)を出力する。例えば、図11に示したように、右足を踏み出した状態ではヨー角が極大となり(図11中の○)、左足を踏み出した状態ではヨー角が極小となる(図11中の●)ので、走行検出部242は、積分処理部220が算出する姿勢角(特にヨー角)を用いて
、左右いずれの走行周期かを判定することができる。また、図10に示したように、ユーザーの頭上から見て、慣性計測ユニット10は、ユーザーが左足を踏み出した状態(図10中の(1)や(3)の状態)から右足を踏み出した状態(図10中の(2)や(4)の状態)に至るまでに時計まわりに回転し、逆に、右足を踏み出した状態から左足を踏み出した状態に至るまでに反時計まわりに回転する。従って、例えば、走行検出部242は、z軸角速度の極性から左右いずれの走行周期かを判定することもできる。この場合、実際には、慣性計測ユニット10が検出する3軸角速度には高周波のノイズ成分が含まれるため、走行検出部242は、ローパスフィルターを通過させてノイズが除去されたz軸角速度を用いて左右いずれの走行周期かを判定する。
歩幅算出部244は、走行検出部242が出力する走行周期のタイミング信号及び左右足フラグと、積分処理部220が算出する速度あるいは位置とを用いて、左右毎の歩幅を算出し、左右毎のストライドとして出力する処理を行う。すなわち、歩幅算出部244は、走行周期の開始から次の走行周期の開始までの期間、サンプリング周期Δt毎に速度を積分して(あるいは、走行周期の開始時の位置と次の走行周期の開始時の位置との差を計算して)歩幅を算出し、当該歩幅をストライドとして出力する。
ピッチ算出部246は、走行検出部242が出力する走行周期のタイミング信号を用いて、1分間の歩数を算出し、走行ピッチとして出力する処理を行う。すなわち、ピッチ算出部246は、例えば、走行周期の逆数をとって1秒当たりの歩数を計算し、これに60を掛けて1分間の歩数(走行ピッチ)を算出する。
座標変換部250は、積分処理部220が算出したbフレームからmフレームへの座標変換情報(座標変換行列C )を用いて、バイアス除去部210が補正したbフレームの3軸加速度及び3軸角速度をそれぞれmフレームの3軸加速度及び3軸角速度に変換する座標変換処理を行う。また、座標変換部250は、積分処理部220が算出したeフレームからmフレームへの座標変換情報(座標変換行列C )を用いて、積分処理部220が算出したeフレームの3軸方向の速度、3軸回りの姿勢角及び3軸方向の距離をそれぞれmフレームの3軸方向の速度、3軸回りの姿勢角及び3軸方向の距離に変換する座標変換処理を行う。また、座標変換部250は、積分処理部220が算出したeフレームからnフレームへの座標変換情報(座標変換行列C )を用いて、積分処理部220が算出したeフレームの位置をnフレームの位置に変換する座標変換処理を行う。
そして、慣性航法演算部22は、座標変換部250が座標変換した後の加速度、角速度、速度、位置、姿勢角及び距離、走行処理部240が算出したストライド、走行ピッチ及び左右足フラグの各情報を含む演算データを出力する(記憶部30に記憶する)。
1−3−4.運動解析部の機能構成
図13は、第1実施形態における運動解析部24の構成例を示す機能ブロック図である。本実施形態では、運動解析部24は、特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272、第1解析情報生成部274、第2解析情報生成部276及び左右差率算出部278及び出力情報生成部280を含む。ただし、本実施形態の運動解析部24は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
特徴点検出部260は、演算データを用いて、ユーザーの走行運動における特徴点を検出する処理を行う。ユーザーの走行運動における特徴点は、例えば、着地(足裏の一部が地面に着いた時、足の裏全体が地面に着いた時、足のかかとから着いてつま先が離れる間の任意の時点、足のつま先から着いてかかとが離れる間の任意の時点、足の裏全体が着いている間など、適宜設定して良い)、踏込(足に最も体重がかかっている状態)、離地(
蹴り出しともいう、地面から足の裏の一部が離れた時、足の裏全体が地面から離れた時、足のかかとから着いてつま先が離れる間の任意の時点、足のつま先から着いてから離れる間の任意の時点など、適宜設定してよい)等である。具体的には、特徴点検出部260は、演算データに含まれる左右足フラグを用いて、右足の走行周期における特徴点と左足の走行周期における特徴点とを別々に検出する。例えば、特徴点検出部260は、上下方向加速度(加速度センサーのz軸の検出値)が正値から負値に変化するタイミングで着地を検出し、着地の後、上下方向加速度が負の方向にピークとなった以降に進行方向加速度がピークになる時点で踏込を検出し、上下方向加速度が負値から正値に変化した時点で離地(蹴り出し)を検出することができる。
接地時間・衝撃時間算出部262は、演算データを用いて、特徴点検出部260が特徴点を検出したタイミングを基準として、接地時間及び衝撃時間の各値を算出する処理を行う。具体的には、接地時間・衝撃時間算出部262は、演算データに含まれる左右足フラグから現在の演算データが右足の走行周期と左足の走行周期のいずれの演算データであるかを判定し、特徴点検出部260が特徴点を検出した時点を基準として、接地時間及び衝撃時間の各値を、右足の走行周期と左足の走行周期に分けて算出する。接地時間及び衝撃時間の定義及び算出方法等の詳細については後述する。
基本情報生成部272は、演算データに含まれる加速度、速度、位置、ストライド、走行ピッチの情報を用いて、ユーザーの運動に関する基本情報を生成する処理を行う。ここで、基本情報は、走行ピッチ、ストライド、走行速度、標高、走行距離及び走行時間(ラップタイム)の各項目を含む。具体的には、基本情報生成部272は、演算データに含まれる走行ピッチ及びストライドをそれぞれ基本情報の走行ピッチ及びストライドとして出力する。また、基本情報生成部272は、演算データに含まれる加速度、速度、位置、走行ピッチ及びストライドの一部又は全部を用いて、走行速度、標高、走行距離、走行時間(ラップタイム)の現在の値や走行中の平均値等を算出する。
第1解析情報生成部274は、入力情報を用いて、特徴点検出部260が特徴点を検出したタイミングを基準としてユーザーの運動を解析し、第1解析情報を生成する処理を行う。
ここで、入力情報は、進行方向加速度、進行方向速度、進行方向距離、上下方向加速度、上下方向速度、上下方向距離、左右方向加速度、左右方向速度、左右方向距離、姿勢角(ロール角、ピッチ角、ヨー角)、角速度(ロール方向、ピッチ方向、ヨー方向)、走行ピッチ、ストライド、接地時間、衝撃時間及び体重の各項目を含む。体重はユーザーによって入力され、接地時間及び衝撃時間は接地時間・衝撃時間算出部262が算出し、その他の項目は演算データに含まれる。
また、第1解析情報は、着地時ブレーキ量(着地時ブレーキ量1、着地時ブレーキ量2)、真下着地率(真下着地率1、真下着地率2、真下着地率3)、推進力(推進力1、推進力2)、推進効率(推進効率1、推進効率2、推進効率3、推進効率4)、エネルギー消費量、着地衝撃、ランニング能力、前傾角、タイミング一致度及び脚の流れの各項目を含む。第1解析情報の各項目は、ユーザーの走行状態(運動状態の一例)を表す項目である。第1解析情報の各項目の定義及び計算方法の詳細については後述する。
また、第1解析情報生成部274は、第1解析情報の各項目の値を、ユーザーの体の左右にわけて算出する。具体的には、第1解析情報生成部274は、特徴点検出部260が右足の走行周期における特徴点を検出したか左足の走行周期における特徴点を検出したかに応じて、第1解析情報に含まれる各項目を、右足の走行周期と左足の走行周期に分けて算出する。また、第1解析情報生成部274は、第1解析情報に含まれる各項目について
、左右の平均値あるいは合計値も算出する。
第2解析情報生成部276は、第1解析情報生成部274が生成した第1解析情報を用いて、第2解析情報を生成する処理を行う。ここで、第2解析情報は、エネルギー損失、エネルギー効率及び体への負担の各項目を含む。第2解析情報の各項目の定義及び計算方法の詳細については後述する。第2解析情報生成部276は、第2解析情報の各項目の値を、右足の走行周期と左足の走行周期に分けて算出する。また、第2解析情報生成部276は、第2解析情報に含まれる各項目について、左右の平均値あるいは合計値も算出する。
左右差率算出部278は、入力情報に含まれる走行ピッチ、ストライド、接地時間及び衝撃時間、第1解析情報の全ての項目及び第2解析情報の全ての項目について、それぞれ右足の走行周期における値と左足の走行周期における値とを用いて、ユーザーの体の左右のバランスを示す指標である左右差率を算出する処理を行う。左右差率の定義及び計算方法の詳細については後述する。
出力情報生成部280は、基本情報、入力情報、第1解析情報、第2解析情報、左右差率等を用いて、ユーザーの走行中に出力する情報である走行中出力情報を生成する処理を行う。入力情報に含まれる「走行ピッチ」、「ストライド」、「接地時間」及び「衝撃時間」、第1解析情報のすべての項目、第2解析情報のすべての項目、及び、左右差率は、ユーザーの走行技術の評価に用いられる運動指標であり、走行中出力情報は、これらの運動指標の一部又は全部の値の情報を含む。走行中出力情報に含まれる運動指標は、予め決められていてもよいし、ユーザーが報知装置3を操作して選択可能にしても良い。また、走行中出力情報は、基本情報に含まれる走行速度、標高、走行距離及び走行時間(ラップタイム)の一部又は全部を含んでもよい。
また、出力情報生成部280は、基本情報、入力情報、第1解析情報、第2解析情報、左右差率等を用いて、ユーザーの走行結果の情報である走行結果情報を生成する。例えば、出力情報生成部280は、ユーザーの走行中(慣性計測ユニット10の計測中)における各運動指標の平均値の情報等を含む走行結果情報を生成してもよい。また、走行結果情報は、走行速度、標高、走行距離及び走行時間(ラップタイム)の一部又は全部を含んでもよい。
出力情報生成部280は、通信部40を介して、ユーザーの走行中に、走行中出力情報を報知装置3に送信し、ユーザーの走行終了時に、走行結果情報を報知装置3に送信する。
1−3−5.入力情報
以下に、入力情報の各項目の詳細について説明する。
[進行方向加速度、上下方向加速度、左右方向加速度]
「進行方向」とはユーザーの進行方向(mフレームのx軸方向)であり、「上下方向」とは鉛直方向(mフレームのz軸方向)であり、「左右方向」とは進行方向と上下方向にともに直交する方向(mフレームのy軸方向)である。進行方向加速度、上下方向加速度及び左右方向加速度は、それぞれ、mフレームのx軸方向の加速度、z軸方向の加速度及びy軸方向の加速度であり、座標変換部250により算出される。
[進行方向速度、上下方向速度、左右方向速度]
進行方向速度、上下方向速度及び左右方向速度は、それぞれ、mフレームのx軸方向の速度、z軸方向の速度及びy軸方向の速度であり、座標変換部250により算出される。
あるいは、進行方向加速度、上下方向加速度及び左右方向加速度をそれぞれ積分することにより、進行方向速度、上下方向速度及び左右方向速度をそれぞれ算出することもできる。
[角速度(ロール方向、ピッチ方向、ヨー方向)]
ロール方向の角速度、ピッチ方向の角速度及びヨー方向の角速度は、それぞれ、mフレームのx軸回りの角速度、y軸回りの角速度及びz軸回りの角速度であり、座標変換部250により算出される。
[姿勢角(ロール角、ピッチ角、ヨー角)]
ロール角、ピッチ角及びヨー角は、それぞれ、座標変換部250が出力するmフレームのx軸回りの姿勢角、y軸回りの姿勢角及びz軸回りの姿勢角であり、座標変換部250により算出される。あるいは、ロール方向の角速度、ピッチ方向の角速度及びヨー方向の角速度を積分(回転演算)することにより、ロール角、ピッチ角及びヨー角を算出することもできる。
[進行方向距離、上下方向距離、左右方向距離]
進行方向距離、上下方向距離及び左右方向距離は、それぞれ、所望の位置(例えば、ユーザーの走行開始直前の位置)からの、mフレームのx軸方向の移動距離、z軸方向の移動距離及びy軸方向の移動距離であり、座標変換部250により算出される。
[走行ピッチ]
走行ピッチは、1分間あたりの歩数として定義される運動指標であり、ピッチ算出部246により算出される。あるいは、1分間の進行方向距離をストライドで除算することにより、走行ピッチを算出することもできる。
[ストライド]
ストライドは、1歩の歩幅として定義される運動指標であり、歩幅算出部244により算出される。あるいは、1分間の進行方向距離を走行ピッチで除算することにより、ストライドを算出することもできる。
[接地時間]
接地時間は、着地から離地(蹴り出し)までにかかった時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。離地(蹴り出し)とは、つま先が地面から離れる時である。なお、接地時間は、走行スピードと相関が高いため、第1解析情報のランニング能力として使用することもできる。
[衝撃時間]
衝撃時間は、着地により発生する衝撃が体にかかっている時間として定義される運動指標であり、接地時間・衝撃時間算出部262により算出される。衝撃時間=(1歩中の進行方向加速度が最小となる時刻−着地の時刻)で計算できる。
[体重]
体重は、ユーザーの体重であり、走行前にユーザーが操作部150(図18参照)を操作することによりその数値が入力される。
1−3−6.第1解析情報
以下に、第1解析情報生成部274により算出される第1解析情報の各項目の詳細について説明する。
[着地時ブレーキ量1]
着地時ブレーキ量1は、着地により低下した速度量として定義される運動指標であり、着地時ブレーキ量1=(着地前の進行方向速度−着地後の進行方向最低速度)で計算できる。着地により進行方向の速度は低下し、1歩の中で着地後の進行方向速度の最下点が進行方向最低速度である。
[着地時ブレーキ量2]
着地時ブレーキ量2は、着地により発生した進行方向マイナスの最低加速度量として定義される運動指標であり、1歩における着地後の進行方向最低加速度と一致する。1歩の中で着地後の進行方向加速度の最下点が進行方向最低加速度である。
[真下着地率1]
真下着地率1は、体の真下で着地できているかを表現する運動指標である。体の真下で着地できるようになると、着地時のブレーキ量が少なくなり効率的な走りができるようになる。通常ブレーキ量は速度に応じて大きくなるため、ブレーキ量だけでは指標として不十分であるが、真下着地率1は率で表せる指標であるため、真下着地率1によれば速度が変わっても同じ評価ができる。着地時の進行方向加速度(マイナスの加速度)と上下方向加速度を用いて、α=arctan(着地時の進行方向加速度/着地時の上下方向加速度)とすると、真下着地率1=cosα×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度α’を算出し、真下着地率1={1−|(α’−α)/α’|}×100(%)で計算することもできる。
[真下着地率2]
真下着地率2は、体の真下で着地できているかを着地時の速度低下度合で表現する運動指標であり、真下着地率2=(着地後の進行方向最低速度/着地直前の進行方向速度)×100(%)で計算される。
[真下着地率3]
真下着地率3は、体の真下で着地できているかを着地から体の真下に足が来るまでの距離又は時間で表現する運動指標である。真下着地率3=(体の真下に足が来る時の進行方向距離−着地時の進行方向距離)、あるいは、真下着地率3=(体の真下に足が来る時の時刻−着地時の時刻)で計算できる。着地(上下方向加速度が正値から負値に変化する点)の後、上下方向加速度が負の方向にピークとなるタイミングがあり、このタイミングを体の真下に足が来るタイミング(時刻)と判定することができる。
なお、これ以外にも、真下着地率3=arctan(着地から体の真下に足が来るまでの距離/腰の高さ)と定義してもよい。あるいは、真下着地率3=(1−着地から体の真下に足が来るまでの距離/着地から蹴り上げまでに移動した距離)×100(%)(足が接地している間に移動した距離の中で着地から体の真下に足が来るまでの距離が占める割合)として定義してもよい。あるいは、真下着地率3=(1−着地から体の真下に足が来るまでの時間/着地から蹴り上げまでに移動した時間)×100(%)(足が接地している間に移動した時間の中で着地から体の真下に足が来るまでの時間が占める割合)と定義してもよい。
[推進力1]
推進力1は、地面を蹴ることにより進行方向へ増加した速度量として定義される運動指標であり、推進力1=(蹴り出し後の進行方向最高速度−蹴り出し前の進行方向最低速度)で計算できる。
[推進力2]
推進力2は、蹴り出しにより発生した進行方向プラスの最大加速度として定義される運動指標であり、1歩における蹴り出し後の進行方向最大加速度と一致する。
[推進効率1]
推進効率1は、蹴り出しの力が効率よく推進力になっているかを表す運動指標である。無駄な上下動、無駄な左右動がなくなると効率のよい走りができるようになる。通常上下動、左右動は速度に応じて大きくなるため、上下動、左右動だけでは運動指標として不十分であるが、推進効率力1は率で表せる運動指標であるため、推進効率力1によれば速度が変わっても同じ評価ができる。推進効率力1は、上下方向と左右方向についてそれぞれ計算される。蹴り出し時の上下方向加速度と進行方向加速度を用いて、γ=arctan(蹴り出し時の上下方向加速度/蹴り出し時の進行方向加速度)とすると、上下方向の推進効率1=cosγ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度γ’を算出し、上下方向の推進効率1={1−|(γ’−γ)/γ’|}×100(%)で計算することもできる。同様に、蹴り出し時の左右方向加速度と進行方向加速度を用いて、δ=arctan(蹴り出し時の左右方向加速度/蹴り出し時の進行方向加速度)とすると、左右方向の推進効率1=cosδ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度δ’を算出し、左右方向の推進効率1={1−|(δ’−δ)/δ’|}×100(%)で計算することもできる。
なお、これ以外にも、γをarctan(蹴り出し時の上下方向の速度/蹴り出し時の進行方向の速度)に置き換えて上下方向の推進効率1を算出することもできる。同様に、δをarctan(蹴り出し時の左右方向の速度/蹴り出し時の進行方向の速度)に置き換えて左右方向の推進効率1を算出することもできる。
[推進効率2]
推進効率2は、蹴り出しの力が効率よく推進力になっているかを踏込時の加速度の角度を用いて表す運動指標である。上下方向の推進効率2は、踏込時の上下方向加速度と進行方向加速度を用いて、ξ=arctan(踏込時の上下方向加速度/踏込時の進行方向加速度)とすると、上下方向の推進効率2=cosξ×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度ξ’を算出し、上下方向の推進効率2={1−|(ξ’−ξ)/ξ’|}×100(%)で計算することもできる。同様に、踏込時の左右方向加速度と進行方向加速度を用いて、η=arctan(踏込時の左右方向加速度/踏込時の進行方向加速度)とすると、左右方向の推進効率2=cosη×100(%)で計算できる。あるいは、走行の速い複数人のデータを用いて理想的な角度η’を算出し、左右方向の推進効率2={1−|(η’−η)/η’|}×100(%)で計算することもできる。
なお、これ以外にも、ξをarctan(踏込時の上下方向の速度/踏込時の進行方向の速度)に置き換えて上下方向の推進効率2を算出することもできる。同様に、ηをarctan(踏込時の左右方向の速度/踏込時の進行方向の速度)に置き換えて左右方向の推進効率2を算出することもできる。
[推進効率3]
推進効率3は、蹴り出しの力が効率よく推進力になっているかを飛び出しの角度を用いて表す運動指標である。1歩における上下方向の最高到達点(上下方向距離の振幅の1/2)をH、蹴り出しから着地までの進行方向距離をXとすると、推進効率3は、式(6)で計算できる。
[推進効率4]
推進効率4は、蹴り出しの力が効率よく推進力になっているかを、1歩の中で発生した全エネルギーに対する進行方向に進むために使われたエネルギーの比率で表す運動指標であり、推進効率4=(進行方向に進むために使用したエネルギー/1歩に使用したエネルギー)×100(%)で計算される。このエネルギーは、位置エネルギーと運動エネルギーの和である。
[エネルギー消費量]
エネルギー消費量は、1歩進むのに消費するエネルギー量として定義される運動指標であり、1歩進むのに消費するエネルギー量を走行期間積算したものも表す。エネルギー消費量=(上下方向のエネルギー消費量+進行方向のエネルギー消費量+左右方向のエネルギー消費量)で計算される。ここで、上下方向のエネルギー消費量=(体重×重力×上下方向距離)で計算される。また、進行方向のエネルギー消費量=[体重×{(蹴り出し後の進行方向最高速度)−(着地後の進行方向最低速度)}/2]で計算される。また、左右方向のエネルギー消費量=[体重×{(蹴り出し後の左右方向最高速度)−(着地後の左右方向最低速度)}/2]で計算される。
[着地衝撃]
着地衝撃は、着地によりどれくらいの衝撃が体にかかっているかを表す運動指標であり、着地衝撃=(上下方向の衝撃力+進行方向の衝撃力+左右方向の衝撃力)で計算される。ここで、上下方向の衝撃力=(体重×着地時の上下方向速度/衝撃時間)で計算される。また、進行方向の衝撃力={体重×(着地前の進行方向速度−着地後の進行方向最低速度)/衝撃時間}で計算される。また、左右方向の衝撃力={体重×(着地前の左右方向速度−着地後の左右方向最低速度)/衝撃時間}で計算される。
[ランニング能力]
ランニング能力は、ユーザーのランニングの力を表す運動指標である。例えば、ストライドと接地時間との比と、ランニングの記録(タイム)との間には相関関係があることが知られており(「100m走レース中の接地時間、離地時間について」、Journal of Research and Development for Future Athletics.3(1):1-4, 2004.)、ランニング能力=(ストライド/接地時間)で計算される。
[前傾角]
前傾角は、ユーザーの胴体が地面に対してどの程度傾いているかを表す運動指標である。ユーザーが地面に対して垂直に立っている状態の時の前傾角を0度とし、前かがみの時の前傾角は正の値であり、のけぞっている場合の前傾角は負の値である。前傾角は、mフレームのピッチ角を上記の様な仕様となるように変換することで得られる。運動解析装置2(慣性計測ユニット10)をユーザーに装着した時に、既に傾きがある可能性があるので、静止時を左の図の0度と仮定し、そこからの変化量で前傾角を計算してもよい。
[タイミング一致度]
タイミング一致度は、ユーザーの特徴点のタイミングが良いタイミングにどれだけ近いかを表す運動指標である。例えば、腰回転のタイミングが蹴り出しのタイミングにどれだ
け近いかを表す運動指標が考えられる。脚が流れている走り方では、片脚を着いた時に逆脚はまだ身体の後ろに残っているので、蹴り出し後に腰の回転タイミングが来る場合は脚が流れている走り方と判断できる。腰の回転タイミングが蹴り出しのタイミングとほぼ一致していれば良い走り方と言える。一方、腰の回転タイミングが蹴り出しのタイミングよりも遅れている場合は、脚が流れている走り方と言える。
[脚の流れ]
脚の流れは、蹴りだした脚が次に着地した時点でその脚がどの程度後方にあるかを表す運動指標である。脚の流れは、例えば、着地時の後ろ脚の大腿骨の角度として計算される。例えば、脚の流れと相関のある指標を計算し、この指標から着地時の後ろ脚の大腿骨の角度を、予め求められた相関式を用いて推定することができる。
脚の流れと相関のある指標は、例えば、(腰がヨー方向に最大限に回った時の時間−着地時の時間)で計算される。「腰がヨー方向に最大限に回った時」とは、次の1歩の動作の開始時である。着地から次の動作までの時間が長い場合、脚を引き戻すのに時間がかかっていると言え、脚が流れている現象が発生している。
あるいは、脚の流れと相関のある指標は、(腰がヨー方向に最大限に回った時のヨー角−着地時のヨー角)で計算される。着地から次の動作までにヨー角の変化が大きい場合、着地後に脚を引き戻す動作があり、それがヨー角の変化に現れる。そのため、脚が流れている現象が発生している。
あるいは、着地時のピッチ角を脚の流れと相関のある指標としてもよい。脚が後方に高くある場合、体(腰)が前傾する。そのため、腰につけたセンサーのピッチ角が大きくなる。着地時にピッチ角が大きい時は脚が流れている現象が発生している。
1−3−7.第2解析情報
以下に、第2解析情報生成部276により算出される第2解析情報の各項目の詳細について説明する。
[エネルギー損失]
エネルギー損失は、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を表す運動指標であり、1歩進むのに消費するエネルギー量の中で無駄に使われたエネルギー量を走行期間積算したものも表す。エネルギー損失={エネルギー消費量×(100−真下着地率)×(100−推進効率)}で計算される。ここで、真下着地率は真下着地率1〜3のいずれかであり、推進効率は推進効率1〜4のいずれかである。
[エネルギー効率]
エネルギー効率は、1歩進むのに消費したエネルギーが進行方向へ進むエネルギーに効率よく使われているかを表す運動指標であり、それを走行期間積算したものも表す。エネルギー効率={(エネルギー消費量−エネルギー損失)/エネルギー消費量}で計算される。
[体への負担]
体への負担は、着地衝撃を累積し、体にどれくらいの衝撃がたまっているかを表す運動指標である。怪我は衝撃の蓄積により起こるので、体への負担を評価することにより、怪我のしやすさも判断できる。体への負担=(右脚の負担+左脚の負担)で計算される。右脚の負担は、右脚の着地衝撃を積算することで計算できる。左脚の負担は、左脚の着地衝撃を積算することで計算できる。ここで、積算は走行中の積算と過去からの積算の両方を行う。
1−3−8.左右差率(左右バランス)
左右差率は、走行ピッチ、ストライド、接地時間、衝撃時間、第1解析情報の各項目及び第2解析情報の各項目について、体の左右でどれくらい差がみられるかを表す運動指標であり、左脚が右脚に対してどれくらい違うかを表すものとする。左右差率=(左脚の数値/右脚の数値×100)(%)で計算され、数値は、走行ピッチ、ストライド、接地時間、衝撃時間、ブレーキ量、推進力、真下着地率、推進効率、速度、加速度、移動距離、前傾角、脚の流れ、腰の回転角、腰の回転角速度、左右への傾き量、衝撃時間、ランニング能力、エネルギー消費量、エネルギー損失、エネルギー効率、着地衝撃、体への負担の各数値である。また、左右差率は、各数値の平均値や分散も含む。
1−3−9.処理の手順
図14は、処理部20が行う運動解析処理の手順の一例を示すフローチャート図である。処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、例えば図14のフローチャートの手順で運動解析処理を実行する。
図14に示すように、処理部20は、計測開始のコマンドを受信するまで待機し(S10のN)、計測開始のコマンドを受信した場合(S10のY)、まず、ユーザーが静止しているものとして、慣性計測ユニット10が計測したセンシングデータ、及び、GPSデータを用いて、初期姿勢、初期位置、初期バイアスを計算する(S20)。
次に、処理部20は、慣性計測ユニット10からセンシングデータを取得し、取得したセンシングデータをセンシングデータテーブル310に付加する(S30)。
次に、処理部20は、慣性航法演算処理を行い、各種の情報を含む演算データを生成する(S40)。この慣性航法演算処理の手順の一例は後述する。
次に、処理部20は、S40で生成した演算データを用いて運動解析情報生成処理を行って運動解析情報を生成する(S50)。この運動解析情報生成処理の手順の一例は後述する。
次に、処理部20は、S40で生成した運動解析情報を用いて走行中出力情報を生成して報知装置3に送信する(S60)。
そして、処理部20は、計測終了のコマンドを受信するまで(S70のN及びS80のN)、前回センシングデータを取得してからサンプリング周期Δtが経過する毎に(S70のY)、S30以降の処理を繰り返す。
処理部20は、計測終了のコマンドを受信すると(S80のY)、S50で生成した運動解析情報を用いて走行結果情報を生成して報知装置3に送信し(S90)、運動解析処理を終了する。
図15は、慣性航法演算処理(図14のS40の処理)の手順の一例を示すフローチャート図である。処理部20(慣性航法演算部22)は、記憶部30に記憶されている慣性航法演算プログラム302を実行することにより、例えば図15のフローチャートの手順で慣性航法演算処理を実行する。
図15に示すように、まず、処理部20は、図14のS20で算出した初期バイアスを用いて(後述のS150で加速度バイアスb及び角速度バイアスbωを推定した後は、加速度バイアスb及び角速度バイアスbωを用いて)、図14のS30で取得したセン
シングデータに含まれる加速度と角速度からバイアスを除去して補正し、補正した加速度と角速度によりセンシングデータテーブル310を更新する(S100)。
次に、処理部20は、S100で補正したセンシングデータを積分して速度、位置及び姿勢角を計算し、計算した速度、位置及び姿勢角を含む算出データを算出データテーブル340に付加する(S110)。
次に、処理部20は、走行検出処理を行う(S120)。この走行検出処理の手順の一例は後述する。
次に、処理部20は、走行検出処理(S120)により走行周期を検出した場合(S130のY)、走行ピッチ及びストライドを計算する(S140)。また、処理部20は、走行周期を検出しなかった場合は(S130のN)、S140の処理を行わない。
次に、処理部20は、誤差推定処理を行い、速度誤差δv、姿勢角誤差ε、加速度バイアスb、角速度バイアスbω及び位置誤差δpを推定する(S150)。
次に、処理部20は、S150で推定した速度誤差δv、姿勢角誤差ε及び位置誤差δpを用いて、速度、位置及び姿勢角をそれぞれ補正し、補正した速度、位置及び姿勢角により算出データテーブル340を更新する(S160)。また、処理部20は、S160で補正した速度を積分し、eフレームの距離を計算する(S170)。
次に、処理部20は、センシングデータテーブル310に記憶されているセンシングデータ(bフレームの加速度及び角速度)、算出データテーブル340に記憶されている算出データ(eフレームの速度、位置及び姿勢角)及びS170で算出したeフレームの距離を、それぞれ、mフレームの加速度、角速度、速度、位置、姿勢角及び距離に座標変換する(S180)。
そして、処理部20は、S180で座標変換した後のmフレームの加速度、角速度、速度、位置、姿勢角及び距離、S140で算出したストライド及び走行ピッチを含む演算データを生成する(S190)。処理部20は、図14のS30でセンシングデータを取得する毎に、この慣性航法演算処理(S100〜S190の処理)を行う。
図16は、走行検出処理(図15のS120の処理)の手順の一例を示すフローチャート図である。処理部20(走行検出部242)は、例えば図16のフローチャートの手順で走行検出処理を実行する。
図16に示すように、処理部20は、図15のS100で補正した加速度に含まれるz軸加速度をローパスフィルター処理し(S200)、ノイズを除去する。
次に、処理部20は、S200でローパスフィルター処理したz軸加速度が閾値以上かつ極大値の場合(S210のY)、このタイミングで走行周期を検出する(S220)。
次に、処理部20は、S220で検出した走行周期が左右いずれの走行周期かを判定して左右足フラグを設定し(S230)、走行検出処理を終了する。処理部20は、z軸加速度が閾値未満か極大値でなければ(S210のN)、S220以降の処理を行わずに走行検出処理を終了する。
図17は、第1実施形態における運動解析情報生成処理(図14のS50の処理)の手順の一例を示すフローチャート図である。処理部20(運動解析部24)は、記憶部30
に記憶されている運動解析情報生成プログラム304を実行することにより、例えば図17のフローチャートの手順で運動解析情報生成処理を実行する。
図17に示すように、まず、処理部20は、図14のS40の慣性航法演算処理で生成した演算データを用いて、基本情報の各項目を算出する(S300)。
次に、処理部20は、演算データを用いて、ユーザーの走行運動における特徴点(着地、踏込、離地等)の検出処理を行う(S310)。
処理部20は、S310の処理で特徴点を検出した場合(S320のY)、特徴点を検出したタイミングに基づき、接地時間及び衝撃時間を算出する(S330)。また、処理部20は、演算データの一部及びS330で生成した接地時間及び衝撃時間を入力情報として、特徴点を検出したタイミングに基づき、第1解析情報の一部の項目(算出に特徴点の情報が必要な項目)を算出する(S340)。処理部20は、S310の処理で特徴点を検出しなかった場合は(S320のN)、S330及びS340の処理を行わない。
次に、処理部20は、入力情報を用いて、第1解析情報の他の項目(算出に特徴点の情報が不要な項目)を算出する(S350)。
次に、処理部20は、第1解析情報を用いて、第2解析情報の各項目を算出する(S360)。
次に、処理部20は、入力情報の各項目、第1解析情報の各項目及び第2解析情報の各項目に対して左右差率を算出する(S370)。
処理部20は、S300〜S370で算出した各情報に現在の計測時刻を付加して記憶部30に記憶し(S380)、運動解析情報生成処理を終了する。
1−4.報知装置
1−4−1.報知装置の構成
図18は、報知装置3の構成例を示す機能ブロック図である。図18に示すように、報知装置3は、処理部120、記憶部130、通信部140、操作部150、計時部160、表示部170、音出力部180及び振動部190を含んで構成されている。ただし、本実施形態の報知装置3は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
記憶部130は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部120の作業領域となるRAM等により構成される。
通信部140は、運動解析装置2の通信部40(図3参照)や情報分析装置4の通信部440(図21参照)との間でデータ通信を行うものであり、処理部120から操作データに応じたコマンド(計測開始/計測終了のコマンド等)を受け取って運動解析装置2の通信部40に送信する処理、運動解析装置2の通信部40から送信された走行中出力情報や走行結果情報を受信して処理部120に送る処理、情報分析装置4の通信部440から送信された各運動指標の目標値の情報を受信して処理部120に送る処理等を行う。
操作部150は、ユーザーからの操作データ(計測開始/計測終了の操作データ、表示内容の選択等の操作データ等)を取得し、処理部120に送る処理を行う。操作部150は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
計時部160は、年、月、日、時、分、秒等の時刻情報を生成する処理を行う。計時部160は、例えば、リアルタイムクロック(RTC:Real Time Clock)ICなどで実現
される。
表示部170は、処理部120から送られてきた画像データやテキストデータを、文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部170は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ、EPD(Electrophoretic Display)等のディスプレイで実現され、タッチパネル型ディスプレイであってもよい。なお、1つのタッチパネル型ディスプレイで操作部150と表示部170の機能を実現するようにしてもよい。
音出力部180は、処理部120から送られてきた音データを、音声やブザー音等の音として出力するものである。音出力部180は、例えば、スピーカーやブザーなどで実現される。
振動部190は、処理部120から送られてきた振動データに応じて振動する。この振動が報知装置3に伝わり、報知装置3を装着したユーザーが振動を感じることができる。振動部190は、例えば、振動モーターなどで実現される。
処理部120は、例えば、CPU、DSP、ASIC等により構成され、記憶部130(記録媒体)に記憶されているプログラムを実行することにより、各種の演算処理や制御処理を行う。例えば、処理部120は、操作部150から受け取った操作データに応じた各種処理(計測開始/計測終了のコマンドを通信部140に送る処理や操作データに応じた表示処理や音出力処理等)、通信部140から走行中出力情報を受け取り、運動解析情報に応じたテキストデータや画像データを生成して表示部170に送る処理、運動解析情報に応じた音データを生成して音出力部180に送る処理、運動解析情報に応じた振動データを生成して振動部190に送る処理を行う。また、処理部120は、計時部160から受け取った時刻情報に応じた時刻画像データを生成して表示部170に送る処理等を行う。
また、本実施形態では、処理部120は、例えば、ユーザーの走行前に(計測開始コマンドを送信する前に)、通信部140を介して、情報分析装置4から送信された各運動指標の目標値の情報を取得して設定する。また、処理部120は、操作部150から受け取った操作データに基づき、各運動指標の目標値を設定してもよい。そして、処理部120は、走行中出力情報に含まれる各運動指標の値を各目標値と比較し、比較結果に応じて、ユーザーの走行における運動状態に関する情報を生成し、音出力部180や振動部190を介してユーザーに報知する。
例えば、ユーザーが、情報分析装置4あるいは操作部150を操作して、自分の過去の走行における各運動指標の値を基準に目標値を設定してもよいし、同じ走行チームに所属する他のメンバーの各運動指標の平均値などを基準に目標値を設定してもよいし、憧れのランナーや目標とするランナーの各運動指標の値を目標値に設定してもよいし、目標のタイムをクリアした他のユーザーの各運動指標の値を目標値に設定してもよい。
目標値と比較する運動指標は、走行中出力情報に含まれるすべての運動指標であってもよいし、予め決められた特定の運動指標のみであってもよいし、ユーザーが操作部150等を操作して選択可能にしてもよい。
処理部120は、例えば、目標値よりも悪い運動指標があれば音や振動により報知する
とともに、目標値よりも悪い運動指標の値を表示部170に表示させる。処理部120は、目標値よりも悪い運動指標の種類に応じて異なる種類の音や振動を発生させてもよいし、運動指標毎に目標値よりも悪い程度によって音や振動の種類を変えてもよい。目標値よりも悪い運動指標が複数存在する場合、処理部120は、最も悪い運動指標に応じた種類の音や振動を発生させるとともに、例えば、図19(A)に示すように、目標値よりも悪いすべての運動指標の値と目標値の情報を表示部170に表示させてもよい。
ユーザーは、表示部170に表示される情報を見なくても、音や振動の種類から、どの運動指標が最も悪く、どの程度悪いのかを把握しながら走行を継続することができる。さらに、ユーザーは、表示部170に表示される情報を見れば、目標値よりも悪いすべての運動指標の値と当該目標値との差を正確に認識することもできる。
また、音や振動を発生させる対象の運動指標は、ユーザーが操作部150等を操作して、目標値と比較する運動指標の中から選択可能にしてもよい。この場合も、例えば、目標値よりも悪いすべての運動指標の値と目標値の情報を表示部170に表示させてもよい。
また、ユーザーが操作部150を介して報知周期の設定(例えば、1分毎に5秒間音や振動を発生させる等の設定)を行い、処理部120が設定された報知周期に応じてユーザーに報知してもよい。
また、本実施形態では、処理部120は、通信部140を介して、運動解析装置2から送信された走行結果情報を取得し、表示部170に走行結果情報を表示する。例えば、図19(B)に示すように、処理部120は、走行結果情報に含まれる、ユーザーの走行中における各運動指標の平均値を表示部170に表示する。ユーザーは、走行終了後(計測終了操作を行った後)に、表示部170を見れば、各運動指標の良し悪しをすぐに認識することができる。
1−4−2.処理の手順
図20は、第1実施形態における処理部120が行う報知処理の手順の一例を示すフローチャート図である。処理部120は、記憶部130に記憶されているプログラムを実行することにより、例えば図20のフローチャートの手順で報知処理を実行する。
図20に示すように、処理部120は、まず、通信部140を介して、情報分析装置4から各運動指標の目標値を取得する(S400)。
次に、処理部120は、操作部150から計測開始の操作データを取得するまで待機し(S410のN)、計測開始の操作データを取得した場合(S410のY)、通信部140を介して、計測開始のコマンドを運動解析装置2に送信する(S420)。
次に、処理部120は、操作部150から計測終了の操作データを取得するまでは(S470のN)、通信部140を介して、運動解析装置2から走行中出力情報を取得する毎に(S430のY)、取得した走行中出力情報に含まれる各運動指標の値をS400で取得した各目標値と比較する(S440)。
目標値よりも悪い運動指標が存在する場合(S450のY)、処理部120は、目標値よりも悪い運動指標の情報を生成し、音出力部180、振動部190及び表示部170を介して音、振動、文字等によりユーザーに報知する(S460)。
一方、目標値よりも悪い運動指標が存在しない場合(S450のN)、処理部120は、S460の処理を行わない。
そして、処理部120は、操作部150から計測終了の操作データを取得すると(S470のY)、通信部140を介して、運動解析装置2から走行結果情報を取得して表示部170に表示させ(S480)、報知処理を終了する。
このように、ユーザーは、S450で報知される情報に基づき、走行状態を認識しながら走行することができる。また、ユーザーは、S480で表示される情報に基づき、走行終了後、直ちに走行結果を認識することができる。
1−5.情報分析装置
1−5−1.情報分析装置の構成
図21は、情報分析装置4の構成例を示す機能ブロック図である。図21に示すように、情報分析装置4は、処理部420、記憶部430、通信部440、操作部450、通信部460、表示部470及び音出力部480を含んで構成されている。ただし、本実施形態の情報分析装置4は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
通信部440は、運動解析装置2の通信部40(図3参照)や報知装置3の通信部140(図18参照)との間でデータ通信を行うものであり、操作データに応じて指定された運動解析情報(登録対象の走行データに含まれる運動解析情報)の送信を要求する送信要求コマンドを処理部420から受け取って運動解析装置2の通信部40に送信し、当該運動解析情報を運動解析装置2の通信部40から受信して処理部420に送る処理、処理部420から各運動指標の目標値の情報を受け取って報知装置3の通信部140に送信する処理等を行う。
通信部460は、サーバー5との間でデータ通信を行うものであり、処理部420から登録対象の走行データを受け取ってサーバー5に送信する処理(走行データの登録処理)、ユーザーの登録、編集、削除、グループの登録、編集、削除、走行データの編集、削除、入れ替え等の操作データに応じた管理情報を処理部420から受け取ってサーバー5に送信する処理等を行う。
操作部450は、ユーザーからの操作データ(ユーザーの登録、編集、削除、グループの登録、編集、削除、走行データの登録、編集、削除、入れ替え等の操作データ、分析対象のユーザーを選択する操作データ、各運動指標の目標値を設定する操作データ等)を取得し、処理部420に送る処理を行う。操作部450は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
表示部470は、処理部420から送られてきた画像データやテキストデータを、文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部470は、例えば、LCD、有機ELディスプレイ、EPD等のディスプレイで実現され、タッチパネル型ディスプレイであってもよい。なお、1つのタッチパネル型ディスプレイで操作部450と表示部470の機能を実現するようにしてもよい。
音出力部480は、処理部420から送られてきた音データを、音声やブザー音等の音として出力するものである。音出力部480は、例えば、スピーカーやブザーなどで実現される。
記憶部430は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部420の作業領域となるRAM等により構成される。記憶部430(いずれかの記録媒体)には、処理部420によって
読み出され、分析処理(図22参照)を実行するための分析プログラム432が記憶されている。
処理部420は、例えば、CPU、DSP、ASIC等により構成され、記憶部430(記録媒体)に記憶されている各種プログラムを実行することにより、各種の演算処理や制御処理を行う。例えば、処理部420は、操作部450から受け取った操作データに応じて指定された運動解析情報の送信を要求する送信要求コマンドを、通信部440を介して運動解析装置2に送信し、通信部440を介して当該運動解析情報を運動解析装置2から受信する処理や、操作部450から受け取った操作データに応じて、運動解析装置2から受信した運動解析情報を含む走行データ(登録対象の走行データ)を生成し、通信部460を介してサーバー5に送信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じた管理情報を、通信部460を介してサーバー5に送信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じて選択された分析対象の走行データの送信要求を、通信部460を介してサーバー5に送信し、通信部460を介してサーバー5から当該分析対象の走行データを受信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じて選択された分析対象の複数のユーザーの走行データを分析して分析結果の情報である分析情報を生成し、テキストデータや画像データ、音データ等として表示部470や音出力部480に送る処理を行う。また、処理部420は、操作部450から受け取った操作データに応じて設定された各運動指標の目標値を記憶部430に記憶させる処理や、記憶部430から各運動指標の目標値を読み出して報知装置3に送信する処理を行う。
特に、本実施形態では、処理部420は、記憶部430に記憶されている分析プログラム432を実行することにより、運動解析情報取得部422、分析情報生成部424及び目標値取得部426として機能する。ただし、処理部420は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている分析プログラム432を受信して実行してもよい。
運動解析情報取得部422は、サーバー5のデータベースから(あるいは運動解析装置2から)、分析対象の複数のユーザーの運動の解析結果の情報である複数の運動解析情報を取得する処理を行う。運動解析情報取得部422が取得した複数の運動解析情報は記憶部430に記憶される。この複数の運動解析情報の各々は、同一の運動解析装置2が生成したものであってもよいし、複数の異なる運動解析装置2のいずれかが生成したものであってもよい。本実施形態では、運動解析情報取得部422が取得する複数の運動解析情報の各々は、複数のユーザーの各々の各種の運動指標(例えば、上述した各種の運動指標)の値を含む。
分析情報生成部424は、運動解析情報取得部422が取得した複数の運動解析情報を用いて、分析対象の複数のユーザーの走行能力を比較可能な分析情報を生成する処理を行う。分析情報生成部424は、例えば、操作部450から受け取った操作データにおいて選択された分析対象の複数のユーザーの運動解析情報を用いて分析情報を生成してもよいし、操作部450から受け取った操作データにおいて選択された期間における分析対象の複数のユーザーの運動解析情報を用いて分析情報を生成してもよい。
本実施形態では、分析情報生成部424は、操作部450から受け取った操作データに応じて全体分析モードと個人分析モードのいずれかを選択し、選択した各分析モードにおいて複数のユーザーの走行能力を比較可能な分析情報を生成する。
分析情報生成部424は、全体分析モードにおいて、分析対象の複数のユーザーが走行を実施した日付毎に当該複数のユーザーの走行能力を比較可能な分析情報を生成してもよ
い。例えば、5人のユーザーが7月1日、7月8日、7月15日に3回走行した場合、5人のユーザーの走行能力を7月1日、7月8日、7月15日のそれぞれで比較可能な分析情報を生成してもよい。
また、分析対象の複数のユーザーは複数のグループに分類され、分析情報生成部424は、全体分析モードにおいて、当該複数のユーザーの走行能力をグループごとに比較可能な分析情報を生成してもよい。例えば、5人のユーザー1〜5が、ユーザー1,3,5はグループ1に、ユーザー2,4はグループ2に分類されている場合、分析情報生成部424は、グループ1に属する3人のユーザー1,3,5の走行能力を比較可能な分析情報やグループ2に属する2人のユーザー2,4の走行能力を比較可能な分析情報を生成してもよい。
また、分析情報生成部424は、個人分析モードにおいて、分析対象の複数のユーザーの運動指標の値を用いて、当該複数のユーザーに含まれる任意のユーザー(第1のユーザーの一例)の走行能力を相対的に評価可能な分析情報を生成してもよい。この任意のユーザーは、例えば、操作部450から受け取った操作データにおいて選択されたユーザーであってもよい。例えば、分析情報生成部424は、分析対象の複数のユーザーの運動指標値のうち、最も高い指標値を10、最も低い指標値を0として、任意のユーザーの運動指標値を0〜10の値に変換し、変換した運動指標値の情報を含む分析情報を生成してもよいし、分析対象の複数のユーザーの運動指標値を用いて任意のユーザーの運動指標値の偏差値を計算し、当該偏差値の情報を含む分析情報を生成してもよい。
目標値取得部426は、分析対象の複数のユーザーに含まれる任意のユーザー(例えば、操作データにおいて選択されたユーザー)の各種の運動指標の目標値を取得する処理を行う。この目標値は記憶部430に記憶され、分析情報生成部424は、個人分析モードにおいて、記憶部430に記憶された情報を用いて、当該任意のユーザーの各種の運動指標の値とそれぞれの目標値とを比較可能な分析情報を生成する。
処理部420は、分析情報生成部424により生成した分析情報を用いて、テキスト、画像などの表示データや音声等の音データを生成し、表示部470や音出力部480に出力する。これにより、表示部470や音出力部480から分析対象の複数のユーザーの分析結果が提示される。
また、処理部420は、ユーザーが運動解析装置2を装着して走行する前に、目標値取得部426が取得し、記憶部430に記憶された当該ユーザーの各運動指標の目標値を、通信部440を介して報知装置3に送信する処理を行う。前述したように、報知装置3は、この各運動指標の目標値を受信し、さらに、運動解析装置2から各運動指標の値(走行中出力情報に含まれる)を受信して、各運動指標の値をそれぞれの目標値と比較し、比較結果に応じて走行中の当該ユーザーの運動状態に関する情報を音又は振動によって(さらにテキストや画像によって)報知する。
1−5−2.処理の手順
図22は、情報分析装置4の処理部420が行う分析処理の手順の一例を示すフローチャート図である。情報分析装置4(コンピューターの一例)の処理部420は、記憶部430に記憶されている分析プログラム432を実行することにより、例えば図22のフローチャートの手順で分析処理を実行する。
まず、処理部420は、全体分析モードを選択する操作データ又は個人分析モードを選択する操作データを取得するまで待機する(S500のNかつS514のN)。
処理部420は、全体分析モードを選択する操作データを取得した場合(S500のY)、分析対象を指定する操作データを取得するまで待機し(S502のN)、分析対象を指定する操作データを取得した場合(S502のY)、当該操作データにおいて指定された複数のユーザーの指定された期間における運動解析情報(具体的には、走行データ)を、通信部460を介してサーバー5のデータベースから取得し、記憶部430に記憶させる(S504)。
次に、処理部420は、S504で取得した複数の運動解析情報(走行データ)を用いて、分析対象の複数のユーザーの走行能力を比較可能な分析情報を生成し、表示部270に表示させる(S506)。
次に、処理部420は、分析対象を変更する操作データ、個人分析モードを選択する操作データ、分析終了の操作データのいずれも取得しなければ(S508のNかつS510のNかつS512のN)、S506の処理を行う。
処理部420は、分析対象を変更する操作データを取得した場合は(S508のY)、S504及びS506の処理を再び行い、分析終了の操作データを取得した場合は(S512のY)、分析処理を終了する。
また、処理部420は、個人分析モードを選択する操作データを取得した場合(S510のY又はS514のY)、分析対象を指定する操作データを取得するまで待機し(S516のN)、分析対象を指定する操作データを取得した場合(S516のY)、当該操作データにおいて指定された複数のユーザーの指定された期間における運動解析情報(具体的には、走行データ)を、通信部460を介してサーバー5のデータベースから取得し、記憶部430に記憶させる(S518)。
次に、処理部420は、操作部450から取得した操作データに応じてユーザーを選択し、S518で取得した複数の運動解析情報を用いて、選択したユーザーの走行能力を相対的に評価可能な分析情報を生成し、表示部470に表示させる(S520)。
次に、処理部420は、S520で選択したユーザーに対して各運動指標の目標値を設定する操作データを取得した場合(S522のY)、操作データにおいて設定された各運動指標の目標値を取得し、記憶部430に記憶させる(S524)。
次に、処理部420は、分析対象を変更する操作データ、全体分析モードを選択する操作データ、分析終了の操作データのいずれも取得しなければ(S526のNかつS528のNかつS530のN)、S520の処理を行う。
処理部420は、分析対象を変更する操作データを取得した場合は(S526のY)、S518及びS520の処理を再び行い、分析終了の操作データを取得した場合は(S530のY)、分析処理を終了する。
また、処理部420は、全体分析モードを選択する操作データを取得した場合(S528のY)、S502以降の処理を再び行う。
1−5−3.分析処理の具体例
以下に、監督やコーチ等の管理者がチームに所属する複数の選手(上述の「複数のユーザー」の一例)の走行を管理・分析し、また、各選手が自分の走行を分析することが可能なアプリケーションを例に挙げて、処理部420による分析処理を具体的に説明する。図23〜図33は、処理部20が当該アプリケーションを実現する分析プログラム432を
実行することで表示部470に表示される画面の一例を示す図である。この例では、「管理」、「成績表」、「選手能力」、「個人詳細」、「練習日記」の5つのタブ画面が選択可能になっており、図23は、管理タブ画面の一例を示す図である。図23に示すように、管理タブ画面500は、「選手登録」、「選手編集」、「選手削除」とそれぞれ表示された選手管理のための3つのリンク、「グループ登録」、「グループ編集」、「グループ削除」とそれぞれ表示されたグループ管理のための3つのリンク、「データ登録」、「データ編集」、「データ削除」、「データ入れ替え」とそれぞれ表示された走行データ管理のための4つのリンク、「パスワード変更」と表示された管理パスワード変更のためのリンク、「終了」と表示された分析を終了するためのボタンを含む。管理者は、あらかじめ登録されたパスワードを入力した後に当該管理タブ画面500上の各種の操作が可能となる。
管理者が、「選手登録」リンクを選択した場合、処理部420は、顔写真、氏名、生年月日、身長、体重、性別などの入力画面を表示する。管理者が、入力画面から選手の情報を入力すると、処理部420は、入力された情報をサーバー5に送信し、当該選手の情報がチームのメンバーの情報としてデータベースに登録される。
管理者が、「選手編集」リンクを選択した場合、処理部420は、選手の氏名の選択画面を表示し、管理者が選手の氏名を選択すると、選択された選手の登録済みの顔写真、氏名、生年月日、身長、体重、性別などの情報を含む編集画面を表示する。管理者が、編集画面から選手の情報を修正すると、処理部420は、修正された情報をサーバー5に送信し、登録済みの当該選手の情報が修正される。
管理者が、「選手削除」リンクを選択した場合、処理部420は、選手の氏名の選択画面を表示し、管理者が選手の氏名を選択すると、選択された選手の氏名の情報をサーバー5に送信し、登録済みの当該選手の情報が削除される。
管理者が、「グループ登録」リンクを選択した場合、処理部420は、グループ名の入力画面を表示し、管理者が、入力画面からグループ名を入力すると、処理部420は、登録済みの選手の氏名のリストを表示する。管理者が、リストから選手の氏名を選択すると、処理部420は、入力されたグループ名と選択された選手の氏名の情報をサーバー5に送信し、当該選択されたすべての選手が当該選択されたグループに登録される。なお、各選手は複数のグループに所属することができる。例えば、「1年」、「2年」、「3年」、「4年」、「1軍」、「2軍」、「3軍」の7つのグループが存在する場合、各選手は「1年」、「2年」、「3年」、「4年」のいずれか1つのグループに所属し、かつ、「1軍」、「2軍」、「3軍」のいずれか1つのグループに所属することができる。
管理者が、「グループ編集」リンクを選択した場合、処理部420は、グループ名の選択画面を表示し、管理者がグループ名を選択すると、選択されたグループに属さない選手の氏名のリストと当該グループに所属する選手の氏名のリストを表示する。管理者が、一方のリストから選手の氏名を選択して他方のリストに移動させると、処理部420は、選択されたグループ名、移動された選手の氏名及び移動の方向(グループに追加するか削除するか)の情報をサーバー5に送信し、選択されたグループに登録される選手を更新する。
管理者が、「グループ削除」リンクを選択した場合、処理部420は、グループ名の選択画面を表示し、管理者がグループ名を選択すると、選択されたグループ名の情報をサーバー5に送信し、登録済みのグループの情報(登録された選手との関連付け)が削除される。
管理者が、「走行データ登録」リンクを選択した場合、処理部420は、運動解析情報のファイル名の選択画面を表示し、管理者が、選択画面から運動解析情報のファイル名を選択すると、処理部420は、選択された運動解析情報のファイル名(走行データ名)、当該運動解析情報に含まれる走行日、選手の氏名、距離、タイムなどが自動表示された表示欄、コース名、天候、気温、備考の入力欄、公式大会(レース)のチェックボックスなどを含む入力画面が表示される。備考の入力欄は、例えば、練習内容や気になったこと等の入力用に設けられている。管理者が、入力画面から入力欄の各情報を入力し、必要であれば表示欄の一部の情報(例えば、距離やタイム)を編集すると、処理部420は、選択された運動解析情報を運動解析装置2から取得し、当該運動解析情報、入力画面の表示欄の各情報、入力欄の各情報及びチェックボックスのオン/オフの情報を含む走行データがサーバー5に送信し、当該走行データがデータベースに登録される。
管理者が、「走行データ編集」リンクを選択した場合、処理部420は、選手の氏名と走行データ名の選択画面を表示し、管理者が選手の氏名と走行データ名を選択すると、選択された走行データの走行データ名、走行日、選手の氏名、コース名、距離、タイム、天候、気温、備考の表示欄、公式大会(レース)のチェックボックスなどを含む編集画面を表示する。管理者が、編集画面からコース名、距離、タイム、天候、気温、備考、チェックボックスのいずれかを編集すると、処理部420は、修正された情報をサーバー5に送信し、登録済みの当該走行データの情報が修正される。
管理者が、「走行データ削除」リンクを選択した場合、処理部420は、走行データ名の選択画面を表示し、管理者が走行データ名を選択すると、選択された走行データ名の情報をサーバー5に送信し、登録済みの当該走行データが削除される。
管理者が、「走行データ入れ替え」リンクを選択した場合、処理部420は、走行データの入れ替え画面を表示し、管理者が入れ替える走行データ名を選択すると、入れ替える走行データ名の情報をサーバー5に送信し、登録済みの走行データが入れ替え後の走行データで上書きされる。
管理者が、「パスワード変更」リンクを選択した場合、処理部420は、旧パスワードと新パスワードの入力画面を表示し、管理者が急パスワードと新パスワードを入力すると、入力された旧パスワードと新パスワードの情報をサーバー5に送信し、旧パスワードが登録済みのパスワードと一致すれば新パスワードに更新される。
図24は、成績表タブ画面の一例を示す図である。成績タブ画面は、上述した全体分析モードにおける分析情報の表示画面に相当する。図24に示すように、成績表タブ画面510は、横軸を技術指標、縦軸を持久力指標とし、選択された月の選択されたグループに所属するすべての選手の日毎の走行における技術指標値及び持久力指標値がプロットされた散布図を含む。管理者が、成績表タブ画面510において、月とグループを選択すると、処理部420は、選択されたグループに所属する全選手が選択された月に実施したすべての走行における運動解析情報(各運動指標の値)と持久力指標値をサーバー5のデータベースから取得する。そして、処理部420は、所定の運動指標の値を用いて各選手の技術指標値を日毎に計算し、横軸を技術指標、縦軸を持久力指標とする散布図を生成する。
技術指標は、選手の技術力を表す指標であり、例えば、技術指標=ストライド/接地時間/1歩の仕事量で計算される。選手の体重をm、mフレームでの3軸加速度をaとすると力FはF=maであり、仕事量は、力Fとmフレームでの3軸速度vとの内積F.vを積分する式(7)で計算される。これを1歩分積分することで1歩の仕事量が計算される。
また、持久力指標は、例えば、予備心拍数(HRR:Heart Rate Reserved)であり、(心拍数−安静時心拍数)÷(最大心拍数−安静時心拍数)×100で計算される。この持久力指標の値は、何らかの方法でサーバー5のデータベースに走行データの一部として登録させておく。例えば、持久力指標値は、運動解析装置2の運動解析情報に含まれる運動指標値の1つであるものとし、上述した走行データ登録により、データベースに登録されるようにしてもよい。具体的な方法としては、例えば、各選手が走行を行う毎に報知装置3を操作して心拍数、最大心拍数、安静時心拍数を入力し、あるいは、心拍計を装着して走行し、運動解析装置2が報知装置3あるいは心拍計から心拍数、最大心拍数、安静時心拍数の値を取得して持久力指標値を計算し、当該持久力指標値を運動解析情報に含まれる運動指標値の1つとする。
図24の例では、2014年5月に走行を実施した各日付におけるチーム全体の選手の技術指標値及び持久力指標値のプロットがそれぞれ1つの楕円で囲まれ、さらに、日付毎に同じグループに属する選手の技術指標値及び持久力指標値のプロットが1つの楕円で囲まれている。また、選手ごとあるいはグループ毎に色分けしてプロットしてもよい。また、表示する単位は、例えば、日毎、月毎、年毎とし、複数の単位を同時に表示可能としてもよい。
管理者は、成績表タブ画面510において、チームの選手全員の能力の変化を見ることでチーム力が全体で上がっているかどうかを確認することができる。また、選手の成長の変化を一覧で表示し、チーム全体の能力把握を行えるようにする。
図25は、選手能力タブ画面の一例を示す図である。選手能力タブ画面は、上述した全体分析モードにおける分析情報の表示画面に相当する。図25に示すように、選手能力タブ画面520は、選択されたグループに所属するすべての選手の選択された期間に実施したすべての走行における所定の項目の平均値が記載された表を含む。管理者が、選手能力タブ画面520において、期間とグループを選択すると、処理部420は、選択されたグループに所属する全選手が選択された期間に実施したすべての走行における運動解析情報(各運動指標の値)と持久力指標値をサーバー5のデータベースから取得する。そして、処理部420は、各選手の各運動指標の平均値や持久力指標の平均値などを計算し、さらに所定の運動指標の平均値を用いて各選手の技術指標値の平均値を計算し、表を生成する。
図25の例では、チーム全体の選手の氏名、2014年5月5日〜5月15日に実施したすべての走行における、走速度、能力項目(例えば、技術指標、持久力指標)、技術項目(例えば、接地時間、ストライド、エネルギー)、要素項目(例えば、真下着地(真下着地率3)、推進効率、脚の流れ、着地時ブレーキ量)の各平均値が表示されている。また、特に良い数値や悪い数値を色分けして表示してもよいし、走行時間が短くて信頼性が低い場合にはグレー表示にしてもよい。また、最近の改善傾向を矢印やアイコンで表示してもよい。また、各項目をクリックすると良い順に表示される様な並べ替え機能を持たせてもよい。また、速度によって各選手の走り方が変わることを考慮し、「低速(例えば、0〜2m/sec)」、「中速(例えば、2〜5m/sec)」及び「高速(例えば、5〜10m/sec)」における各項目の平均値を表示可能としてもよいし、走路状況によって各選手の走り方が変わることを考慮し、「登り(例えば、高度差が+0.5m/se
c以上)」及び「下り(例えば、高度差が−0.5m/sec以上)」における各項目の平均値を表示可能としてもよい。
管理者は、選手能力タブ画面520により、各選手が技術と持久力のいずれに強みや弱みがあるのかが一目でわかり、さらに、各選手がどの技術項目に強みや弱みがあるのか、技術項目を構成するどの要素項目に強みや弱みがあるのかといった詳細な分析を行うこともできる。これにより、管理者は、各選手に合ったトレーニングを取り入れることができる。例えば、接地時間を短くするための各要素(真下着地、推進効率、脚の流れ、着地時ブレーキ量)が数値化されているため、練習すべき項目が明確になる。また、管理者は、選手の改善傾向が把握し、練習の妥当性を確認することもできる。
図25の例では、表の左端に比較チェックボックスが設けられており、管理者が当該比較チェックボックスにチェックを入れて選手能力比較ボタンを押すと選手能力比較画面が表示され、選ばれた選手の中で走行能力の比較可能になる。
図26は、選手能力比較画面の一例を示す図である。選手能力比較画面は、上述した全体分析モードにおける分析情報の表示画面に相当する。図26に示すように、選手能力比較画面530は、選択された選手の選択された項目の値を「平均」、「低速(0〜2m/s)」、「中速(2〜5m/s)」、「高速(5〜10m/s)」、「登り」、「下り」についてプロットしたグラフを含む。管理者が、選手能力比較画面530において、項目を選択すると、処理部420は、選択された各選手の選択された項目について、選択された期間における全走行の平均値、全走行の登りの平均値、全走行の下りの平均値、各走行の低速から高速の間の一定速度毎の平均値を計算し、これらをプロットして散布図を生成する。
図26の例では、選手A,C,Fの技術指標について、2014年5月5日〜5月15日に実施した全走行における平均値、全走行における登りの平均値、全走行における下りの平均値、各走行における速度が2m/s〜10m/sの間の一定速度毎の平均値がシーケンシャルにプロットされている。また、選手A,C,Fの各々について、2m/s〜10m/sの間の技術指標値について最小二乗法などにより生成された近似曲線と、全走行における平均値、全走行における登りの平均値、全走行における下りの平均値の各プロットが結ばれた折れ線グラフが表示されている。また、選手ごとに色分けして表示してもよい。また、複数の項目の間の相関関係を把握しやすくするために、このようなグラフを、項目を変えて複数同時に表示可能としてもよい。
管理者は、選手能力比較画面530により、選択した選手間で、選択した項目について、全平均値、各速度での平均値、登りでの平均値、下りでの平均値を同時に比較することで、各選手の強み弱みをはっきりさせることができる。また、各速度での平均値がシーケンシャルに表示されるので、管理者は、選択した項目について各選手が弱い速度などを発見することもできる。
図27〜図32は、個人詳細タブ画面の一例を示す図である。個人詳細タブ画面は、上述した個人分析モードにおける分析情報の表示画面に相当する。図27は、個人詳細タブ画面の1ページ目の画面である能力レベル画面の一例を示す図である。図27に示すように、能力レベル画面540は、選択された選手の選択された期間の走行における能力項目及び技術項目を選択されたグループ内で相対評価したレーダーチャートと、選択された選手の選択された期間の走行における要素項目を選択されたグループ内で相対評価したレーダーチャートとを含む。管理者あるいは選手が、能力レベル画面540において、選手、期間、グループを選択すると、処理部420は、選択されたグループに所属する全選手が選択された期間に実施したすべての走行における運動解析情報(各運動指標の値)と持久
力指標値をサーバー5のデータベースから取得する。そして、処理部420は、各選手の各運動指標の平均値や持久力指標の平均値などを計算し、各項目の値(各指標値)について選択されたグループ内での最高値を10、最低値を0として、選択された選手の値を相対評価した値に変換し、2つのレーダーチャートを生成する。
図27の例では、選択された選手Bの画像、チーム全体の選手が2014年5月5日〜5月15日に実施したすべての走行における能力項目(例えば、技術指標、持久力指標)、技術項目(例えば、接地時間、ストライド、エネルギー)、要素項目(例えば、真下着地、推進効率、脚の流れ、着地時ブレーキ量、着地衝撃)の各指標値に基づいて選手Bの各指標値が相対評価された2つのレーダーチャートが表示されている。レーダーチャートで示される各指標値は、「平均」、「低速」、「中速」、「高速」、「登り」、「下り」のいずれかを選択可能である。また、選手Bは「2年」のグループに属し、かつ、「1軍」のグループに属するため、グループとして「全体」、「2年」、「1軍」のいずれかを選択可能になっている。
能力レベル画面540では、各指標の目標値の設定が可能となっており、図27の例では、2つのレーダーチャートにおいて、中心に近い方の線分541,542(例えば、黒色の線分)は5つの指標の値を示す5つのポイントを結び、その外側の線分543,544(例えば、赤色の線分)は当該5つの指標の目標値を示す5つのポイントを結んでいる。左側の能力項目及び技術項目のレーダーチャートでは、技術指標、接地時間、エネルギーの目標値が現在値よりも高く設定され、右側の要素項目のレーダーチャートでは、推進効率を除く4つの指標の目標値が現在値よりも高く設定されている。各指標値を示すポイントを手のマークのカーソル545で掴んでコピーして移動させる(ドラッグする)ことで各指標の目標値の設定が変更可能である。
管理者あるいは選手が、能力レベル画面540において、各指標の目標値を設定すると、処理部420は、設定された各指標の目標値の情報を取得して記憶部430に記憶させる。上述したように、この目標値は、報知装置3に送信され、報知装置3において走行中出力情報に含まれる各指標値と比較される。
各選手は、能力レベル画面540により、チーム内(グループ内)での自分のたち位置やどの項目を注力して向上すべきかを把握することができる。また、各選手は、能力レベル画面により、他の選手との差を見ながら、監督やコーチと一緒に目標を設定することができる。
図28は、個人詳細タブ画面の2ページ目の画面である能力推移画面の一例を示す図である。図28に示すように、能力推移画面550は、能力レベル画面540(個人詳細タブ画面の1ページ目の画面)で選択された選手(選手B)の選択された期間(2014年5月5日〜5月15日)の走行における、選択された指標の時系列グラフを含む。この時系列グラフの横軸は時間(日付)であり、縦軸は選択された指標の値である。管理者あるいは選手が、能力推移画面550において、指標を選択すると、処理部420は、上述のように、選択された選手の選択された指標の値を日付ごとに相対評価した値に変換し、時系列グラフを生成する。
図28の例では、選択された選手Bの、「平均」、「低速」、「中速」、「高速」、「登り」、「下り」の各々における接地時間のチーム内での相対評価値を時系列に示す5つの折れ線グラフが並べて表示されている。ただし、表示するグラフを選択可能にしてもよい。また、目標値の時系列グラフ551(例えば、赤色の太線)を表示してもよい。また、公式大会(レース)の日付の上などに、その日の走行が公式大会(レース)であったことを示すマーク552(人が走行する様子を模したマークなど)を付してもよい。また、
日付にカーソルを当てると、練習日記のメモ(後述)が表示されるようにしてもよい。また、指標値毎のグラフを複数同時に表示可能としてもよい。
各選手は、能力推移画面550により、練習による改善度の傾向を把握することができる。また、各選手は、練習メモと時系列グラフを同時に見ることで、効果のあった練習や自分の中で意識したことが正しかったかどうかを判断することができる。
図29は、個人詳細タブ画面の3ページ目の画面である走行推移画面の一例を示す図である。図29に示すように、走行推移画面560は、能力レベル画面(個人詳細タブ画面の1ページ目の画面)で選択された選手(選手B)の選択された日付の走行における、走行結果の情報561、走行軌跡を示す画像562、走行結果に含まれる一部の要素の値をスタートからゴールまで時系列に表示する第1グラフ563、走行結果に含まれる一部の要素の値をわかりやすく表示する第2グラフ564、練習日記のメモの情報565等を含む。管理者あるいは選手が、走行推移画面560において、日付を選択すると、処理部420は、選択された選手の選択された日付における走行データを用いて、走行結果の情報561、走行軌跡の画像562、第1グラフ563、第2グラフ564を作成し、さらに、当該走行データに対応づけて登録されている練習日記のメモの情報565をサーバー5のデータベースから取得する。
図29の例では、選択された選手Bの、2014年5月5日の走行結果の情報561、2014年5月5日の走行軌跡を示す画像562、「速度」、「ブレーキ量」、「ピッチ」、「スライド」の各要素の値を時系列に表示する第1グラフ563、真下着地を示す第2グラフ564、2014年5月5日の練習日記のメモの情報565が表示されている。第2グラフ564は、選手Bの体の真下を円の中心とし、進行方向を右方向として、走行中のすべての着地位置をプロットすることで、真下着地をわかりやすく示すグラフとなっている。
選択された日付の走行が公式大会(レース)であれば、走行結果の日付の横に公式大会(レース)であったことを示すマーク568(人が走行する様子を模したマークなど)を付してもよい。また、走行軌跡を示す画像562の中に、カーソルでドラッグして移動可能な現在位置を示すマーク566(例えば、▽マーク)を表示し、当該マーク566と連動させて走行結果の情報561の各要素の値を変更させてもよい。また、第1グラフ563の中に、カーソルでドラッグして移動可能な現在時刻を示すスライドバー567を表示し、スライドバー567の位置と連動させて走行結果の情報561の各要素の値を変更させてもよい。この走行軌跡を示す画像562の中のマーク566と第1グラフ563の中のスライドバー567の一方が移動すると他方の位置を連動して変更させてもよい。また、走行結果の情報561の要素名をカーソルでドラッグして第1グラフ563や第2グラフ564の表示領域にドロップし、あるいは、第1グラフ563や第2グラフ564の中の要素を削除する等して、第1グラフ563や第2グラフ564の表示対象を選択可能にしてもよい。また、第1グラフ563において、「登り」や「下り」の期間が分かるようにしてもよい。また、複数の選手の走行推移画面560を同時に表示可能にしてもよい。
各選手は、走行推移画面560により、自分の走行の分析を行うことができる。例えば、各選手は、後半に速度が遅くなる原因等を要素から把握することができる。
図30は、個人詳細タブ画面の4ページ目の画面である左右差画面の一例を示す図である。図30に示すように、左右差画面570は、能力レベル画面540(個人詳細タブ画面の1ページ目の画面)で選択された選手(選手B)の選択された期間(2014年5月5日〜5月15日)の走行における技術指標及び技術項目の各指標値を選択されたグループ内で左右別に相対評価したレーダーチャートと、当該選択された選手の当該選択された
期間の走行における要素項目の各指標値を選択されたグループ内で左右別に相対評価したレーダーチャートとを含む。
図30の例では、技術指標の左右の値、技術項目(例えば、接地時間、ストライド、エネルギー)、要素項目(例えば、真下着地、推進効率、脚の流れ、着地時ブレーキ量、着地衝撃)の各指標の左右の値に基づいて選手Bの各指標の左右の値を表す2つのレーダーチャートが表示されている。この2つのレーダーチャートにおいて、各指標の左足の値を示すプロットを結ぶ線分571,572(例えば、緑色の線分)と各指標の右足の値を示すプロットを結ぶ線分573,574(例えば、赤色の線分)は色分けされている。各指標名の表示位置にカーソルを持っていくと左足の値と右足の値が同時に表示されるようにしてもよい。また、これらのレーダーチャートにおいて、能力レベル画面540のレーダーチャートと同様に、各指標の左右の値の目標値をそれぞれ設定可能にしてもよい。
各選手は、左右差画面570により、各指標について左右の違いが何%あるかを把握し、練習やトレーニングに活用することができる。また、各選手は、怪我予防の観点で左右差を無くすことを目指すことができる。
図31は、個人詳細タブ画面の5ページ目の画面である左右差推移画面の一例を示す図である。図31に示すように、左右差推移画面580は、能力レベル画面540(個人詳細タブ画面の1ページ目の画面)で選択された選手(選手B)の選択された期間(2014年5月5日〜5月15日)の走行における、選択された指標の左右差の時系列グラフを含む。この左右差推移画面580は、選択された指標の左右差の時系列グラフが表示される以外は、能力推移画面550(図28参照)と同様であるので、説明を省略する。
各選手は、左右差推移画面580により、練習による左右差改善度の傾向を把握することができる。また、各選手は、練習メモと時系列グラフを同時に見ることで、効果のあった練習や自分の中で意識したことが正しかったかどうかを判断することができる。また、各選手は、左右差の急激な変化が無いかを確認し、怪我を予防することができる。
図32は、個人詳細タブ画面の6ページ目の画面である走行左右差推移画面の一例を示す図である。図32に示すように、走行左右差推移画面590は、能力レベル画面540(個人詳細タブ画面の1ページ目の画面)で選択された選手(選手B)の選択された日付の走行における、各指標の左右差の値が含まれる走行結果の情報591、走行軌跡を示す画像592、走行結果に含まれる一部の要素の左右差の値をスタートからゴールまで時系列に表示する第1グラフ593、走行結果に含まれる一部の要素の左右の値をわかりやすく表示する第2グラフ594、練習日記のメモの情報595等を含む。
図32の例では、選択された選手Bの、2014年5月5日の走行結果の情報591(各指標の左右差の値が含まれる)、2014年5月5日の走行軌跡を示す画像592、「速度」、「ブレーキ量」、「ピッチ」、「スライド」の各要素の左右差の値を時系列に表示する第1グラフ593、真下着地を左右で色分けして示す第2グラフ594、2014年5月5日の練習日記のメモの情報595が表示されている。走行左右差推移画面590のその他の構成は、走行推移画面560(図29参照)と同様であるので、説明を省略する。
各選手は、走行左右差推移画面590により、自分の走行の分析を行うことができる。例えば、各選手は、後半に左右差が大きくなるので注意して練習することができる。また、各選手は、左右差の急激な変化が無いかを確認し、怪我を予防することができる。
図33は、練習日記タブ画面の一例を示す図である。図33に示すように、練習日記タ
ブ画面600は、選択された選手の選択された月における走行結果の概要(日付毎の走行距離やタイム)等が記載されたカレンダーを含む。管理者あるいは選手は、カレンダーの日付をクリックすると、その日の練習日記のメモがあれば表示され、また、練習日記のメモを作成・編集することができる。また、カレンダーには、走行が公式大会(レース)であったことを示すマーク601(人が走行する様子を模したマークなど)が表示されてもよい。また、管理者あるいは選手が練習日記の日付をクリックする事で、その日付が選択された走行推移画面560(図29参照)に移るようにしてもよい。
管理者あるいは選手が、練習日記タブ画面600において、選手と月を選択すると、処理部420は、選択された選手の選択された月におけるすべての走行データの走行日、距離、タイム、天候、公式大会(レース)か否か等の情報をサーバー5のデータベースから取得し、さらに、当該走行データに対応づけて登録されている練習日記のメモの情報をサーバー5のデータベースから取得する。そして、処理部420は、取得した走行データの各情報を用いてカレンダーを作成し、練習日記のメモの情報をカレンダーの日付とリンクさせる。
管理者や選手は、練習日記タブ画面600により、練習内容を把握することができる。また、管理者や選手は、練習日記タブ画面600により、練習内容や練習の中で意識したことなどをメモしておき、能力項目、技術項目、要素項目の変化に効果が表れているか否かを他の画面で確認することができる。
1−6.効果
第1実施形態によれば、慣性計測ユニット10は、3軸の加速度センサー12と3軸の角速度センサー14によりユーザーの胴体の細かい動きも検出可能であるため、運動解析装置2は、ユーザーの走行中に、慣性計測ユニット10の検出結果を用いて、走行運動を精度よく解析することができる。従って、第1実施形態によれば、情報分析装置4は、1つ又は複数の運動解析装置2が生成した複数のユーザーの運動解析情報を用いて、複数のユーザーの走行能力を比較可能な分析情報を生成し、提示することができる。各ユーザーは、提示される分析情報により、他のユーザーと走行能力を比較することができる。
また、第1実施形態によれば、情報分析装置4は、全体分析モードにおいて、分析対象の複数のユーザーが走行を実施した日付毎に当該複数のユーザーの走行能力を比較可能な分析情報を生成するので、各ユーザーは、提示される分析情報により、他のユーザーとの走行能力の差の推移を認識することができる。
また、第1実施形態によれば、情報分析装置4は、全体分析モードにおいて、分析対象の複数のユーザーの走行能力をグループごとに比較可能な分析情報を生成するので、各ユーザーは、提示される分析情報により、自分と同じグループに属する他のユーザーと走行能力を比較することができる。
また、第1実施形態によれば、情報分析装置4は、個人分析モードにおいて、分析対象の複数のユーザーの運動指標の値を用いて、当該複数のユーザーに含まれる任意のユーザーの運動指標の値を相対的に評価可能な分析情報を生成するので、任意のユーザーは、提示される分析情報により、複数のユーザーの中での自分の走行能力を相対評価することができる。また、ユーザーは、相対評価された運動指標の値を見ながら、自身の運動能力に合わせて各指標の目標値を適切に設定することができる。
また、第1実施形態によれば、情報分析装置4は、個人分析モードにおいて、任意のユーザーの各種の運動指標の値とそれぞれの目標値とを比較可能な分析情報を生成するので、任意のユーザーは、提示される分析情報により、自分の走行能力と目標との差を認識す
ることができる。
また、第1実施形態によれば、報知装置3は、ユーザーが走行中の各運動指標の値と過去の走行の分析情報に基づいて設定された目標値とを比較して比較結果をユーザーに音や振動により報知するので、ユーザーは、走行を妨げられることなく、各運動指標の良し悪しをリアルタイムに認識することができる。従って、例えば、ユーザーは、目標値を達成するために試行錯誤しながら走行し、あるいは、疲れた時に問題となる運動指標を意識しながら走行することができる。
1.第2実施形態
第2実施形態において、第1実施形態と同様の構成には同じ符号を付してその説明を省略又は簡略し、第1実施形態と異なる内容について詳細に説明する。
2−1.運動解析システムの構成
以下では、ユーザーの走行(歩行も含む)における運動を解析する運動解析システムを例に挙げて説明するが、第2実施形態の運動解析システムは、走行以外の運動を解析する運動解析システムにも、同様に適用することができる。図34は、第2実施形態の運動解析システム1の構成例を示す図である。図34に示すように、第2実施形態の運動解析システム1は、運動解析装置2、報知装置3及び画像生成装置4Aを含んで構成されている。第1実施形態と同様、運動解析装置2は、ユーザーの走行中の運動を解析する装置であり、報知装置3は、ユーザーの走行中の運動の状態や走行結果の情報をユーザーに通知する装置である。画像生成装置4Aは、運動解析装置2の解析結果の情報を用いてユーザーの走行状態(運動状態の一例)に関する画像情報を生成する装置であり、ユーザーの走行終了後に走行結果を分析して提示する情報分析装置とも言える。第2実施形態でも、第1実施形態と同様、図2に示したように、運動解析装置2は、慣性計測ユニット(IMU)10を内蔵し、ユーザーが静止している状態で、慣性計測ユニット(IMU)10の1つの検出軸(以下ではz軸とする)が重力加速度方向(鉛直下向き)とほぼ一致するように、ユーザーの胴体部分(例えば、右腰、左腰、又は腰の中央部)に装着される。また、第1実施形態と同様、報知装置3は、リスト型(腕時計型)の携帯情報機器であり、ユーザーの手首等に装着される。ただし、報知装置3は、ヘッドマウントディスプレイ(HMD)やスマートフォン等の携帯情報機器であってもよい。
第1実施形態と同様、ユーザーは、走行開始時に報知装置3を操作して運動解析装置2による計測(慣性航法演算処理及び運動解析処理)の開始を指示し、走行終了時に報知装置3を操作して運動解析装置2による計測の終了を指示する。報知装置3は、ユーザーの操作に応じて、計測の開始や終了を指示するコマンドを運動解析装置2に送信する。
第1実施形態と同様、運動解析装置2は、計測開始のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を開始し、計測結果を用いて、ユーザーの走行能力(運動能力の一例)に関係する指標である各種の運動指標の値を計算し、ユーザーの走行運動の解析結果の情報として、各種の運動指標の値を含む運動解析情報を生成する。運動解析装置2は、生成した運動解析情報を用いて、ユーザーの走行中に出力する情報(走行中出力情報)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行中出力情報を受信し、走行中出力情報に含まれる各種の運動指標の値を事前に設定された各目標値と比較し、主として音や振動により各運動指標の良し悪しをユーザーに報知する。これにより、ユーザーは、各運動指標の良し悪しを認識しながら走行することができる。
また、第1実施形態と同様、運動解析装置2は、計測終了のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を終了し、ユーザーの走行結果の情報(走行結果情報:走行距離、走行速度)を生成し、報知装置3に送信する。報知装置3は、運動解
析装置2から走行結果情報を受信し、走行結果の情報を文字や画像としてユーザーに報知する。これにより、ユーザーは、走行終了後すぐに走行結果の情報を認識することができる。もしくは、報知装置3は、走行中出力情報をもとに走行結果情報を生成し、文字や画像としてユーザーに報知してもよい。
なお、運動解析装置2と報知装置3との間のデータ通信は、無線通信でもよいし、有線通信でもよい。
また、図34に示すように、第2実施形態でも、第1実施形態と同様に、運動解析システム1は、インターネットやLANなどのネットワークに接続されたサーバー5を含んで構成されている。画像生成装置4Aは、例えば、パーソナルコンピューターやスマートフォン等の情報機器であり、ネットワークを介してサーバー5とデータ通信が可能である。画像生成装置4Aは、運動解析装置2からユーザーの過去の走行における運動解析情報を取得し、ネットワークを介してサーバー5に送信する。ただし、画像生成装置4Aとは異なる装置が運動解析装置2から運動解析情報を取得してサーバー5に送信してもよいし、運動解析装置2が運動解析情報をサーバー5に直接送信してもよい。サーバー5は、この運動解析情報を受信して記憶部(不図示)に構築されているデータベースに保存する。
画像生成装置4Aは、慣性計測ユニット(IMU)10の計測結果(慣性センサーの検出結果の一例)を用いて生成された、走行時におけるユーザーの運動解析情報を取得し、ユーザーの走行を表すユーザーオブジェクトの画像データに、取得した運動解析情報を関連付けた画像情報を生成する。具体的には、画像生成装置4Aは、ネットワークを介してサーバー5のデータベースからユーザーの運動解析情報を取得し、取得した運動解析情報に含まれる各種の運動指標の値を用いて、ユーザーの走行状態に関する画像情報を生成し、画像情報を表示部(図34では不図示)に表示させる。画像生成装置4Aの表示部に表示された画像情報から、ユーザーの走行能力を評価することが可能になる。
運動解析システム1は、運動解析装置2と報知装置3と画像生成装置4Aとが別に設けられたり、運動解析装置2と報知装置3が一体で画像生成装置4Aが別に設けられたり、報知装置3と画像生成装置4Aが一体で運動解析装置2が別に設けられたり、運動解析装置2と画像生成装置4Aが一体で報知装置3が別に設けられたり、運動解析装置2と報知装置3と画像生成装置4Aが一体であってもよい。運動解析装置2と報知装置3と画像生成装置4Aはどのような組み合わせであってもよい。
2−2.座標系
以下の説明において必要となる座標系を、第1実施形態の「1−2.座標系」と同様に定義する。
2−3.運動解析装置
2−3−1.運動解析装置の構成
第2実施形態における運動解析装置2の構成例は、第1実施形態(図3)と同様であるため、その図示を省略する。第2実施形態における運動解析装置2において、慣性計測ユニット(IMU)10、記憶部30、GPSユニット50及び地磁気センサー60の各機能は第1実施形態と同様であるため、その説明を省略する。
通信部40は、報知装置3の通信部140(図18参照)や画像生成装置4Aの通信部440(図35参照)との間でデータ通信を行うものであり、報知装置3の通信部140から送信されたコマンド(計測開始/計測終了のコマンド等)を受信して処理部20に送る処理、処理部20が生成した走行中出力情報や走行結果情報を受け取って報知装置3の通信部140に送信する処理、画像生成装置4Aの通信部440から運動解析情報の送信
要求コマンドを受信して処理部20に送り、当該運動解析情報を処理部20から受け取って画像生成装置4Aの通信部440に送信する処理等を行う。
処理部20は、例えば、CPU、DSP、ASIC等により構成され、記憶部30(記録媒体)に記憶されている各種プログラムに従って、第1実施形態と同様に、各種の演算処理や制御処理を行う。
また、処理部20は、通信部40を介して画像生成装置4Aから運動解析情報の送信要求コマンド受け取ると、送信要求コマンドで指定された運動解析情報を記憶部30から読み出して通信部40を介して画像生成装置4Aの通信部440に送る処理を行う。
2−3−2.処理部の機能構成
第2実施形態における運動解析装置2の処理部20の構成例は、第1実施形態(図8)と同様であるため、その図示を省略する。第2実施形態でも、第1実施形態と同様、処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、慣性航法演算部22及び運動解析部24として機能する。慣性航法演算部22及び運動解析部24の各機能は、第1実施形態と同様であるため、その説明を省略する。
2−3−3.慣性航法演算部の機能構成
第2実施形態における慣性航法演算部22の構成例は、第1実施形態(図9)と同様であるため、その図示を省略する。第2実施形態でも、第1実施形態と同様に、慣性航法演算部22は、バイアス除去部210、積分処理部220、誤差推定部230、走行処理部240及び座標変換部250を含み、これらの各機能は第1実施形態と同様であるため、その説明を省略する。
2−3−4.運動解析部の機能構成
第2実施形態における運動解析部24の構成例は、第1実施形態(図13)と同様であるため、その図示を省略する。第2実施形態でも、第1実施形態と同様に、運動解析部24は、特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272、第1解析情報生成部274、第2解析情報生成部276及び左右差率算出部278及び出力情報生成部280を含み、これらの各機能は、第1実施形態と同様であるため、その説明を省略する。
2−3−5.入力情報
入力情報の各項目の詳細については、第1実施形態の「1−3−5.入力情報」で説明したため、ここでは説明を省略する。
2−3−6.第1解析情報
第1解析情報生成部274により算出される第1解析情報の各項目の詳細については、第1実施形態の「1−3−6.第1解析情報」で説明したため、ここでは説明を省略する。
2−3−7.第2解析情報
第2解析情報生成部276により算出される第2解析情報の各項目の詳細については、第1実施形態の「1−3−7.第2解析情報」で説明したため、ここでは説明を省略する。
2−3−8.左右差率(左右バランス)
左右差率算出部278により算出される左右差率の詳細については、第1実施形態の「1−3−8.左右差率(左右バランス)」で説明したため、ここでは説明を省略する。
2−3−9.処理の手順
第2実施形態における処理部20が行う運動解析処理の手順の一例を示すフローチャートは、第1実施形態(図14)と同様であるため、その図示及び説明を省略する。
また、第2実施形態における慣性航法演算処理(図14のS40の処理)の手順の一例を示すフローチャートも、第1実施形態(図15)と同様であるため、その図示及び説明を省略する。
また、第2実施形態における走行検出処理(図15のS120の処理)の手順の一例を示すフローチャートも、第1実施形態(図16)と同様であるため、その図示及び説明を省略する。
また、第2実施形態における運動解析情報生成処理(図14のS50の処理)の手順の一例を示すフローチャートも、第1実施形態(図17)と同様であるため、その図示及び説明を省略する。
2−4.報知装置
2−4−1.報知装置の構成
第2実施形態における報知装置3の構成例は、第1実施形態(図18)と同様であるため、その図示を省略する。第2実施形態における報知装置3において、記憶部130、操作部150、計時部160、表示部170、音出力部180及び振動部190の各機能は第1実施形態と同様であるため、その説明を省略する。
通信部140は、運動解析装置2の通信部40(図3参照)との間でデータ通信を行うものであり、処理部120から操作データに応じたコマンド(計測開始/計測終了のコマンド等)を受け取って運動解析装置2の通信部40に送信する処理、運動解析装置2の通信部40から送信された走行中出力情報や走行結果情報を受信して処理部120に送る処理等を行う。
処理部120は、例えば、CPU、DSP、ASIC等により構成され、記憶部130(記録媒体)に記憶されているプログラムを実行することにより、第1実施形態と同様に、各種の演算処理や制御処理を行う。
また、第2実施形態では、処理部120は、例えば、ユーザーの走行前に(計測開始コマンドを送信する前に)、操作部150から受け取った操作データに基づき、各運動指標の目標値を設定する。そして、処理部120は、第1実施形態と同様、走行中出力情報に含まれる各運動指標の値を各目標値と比較し、比較結果に応じて、ユーザーの走行における運動状態に関する情報を生成し、音出力部180や振動部190を介してユーザーに報知する。
2−4−2.処理の手順
第2実施形態における処理部120が行う報知処理の手順の一例を示すフローチャートは、第1実施形態(図20)と同様であるため、その図示及び説明を省略する。なお、本実施形態では、図20のS400において、処理部120は、操作部150からの操作データに基づき、各運動指標の目標値を取得すればよい。
2−5.画像生成装置
2−5−1.画像生成装置の構成
図35は、画像生成装置4Aの構成例を示す機能ブロック図である。図35に示すよう
に、画像生成装置4Aは、第1実施形態における運動解析装置2と同様、処理部420、記憶部430、通信部440、操作部450、通信部460、表示部470及び音出力部480を含んで構成されている。ただし、本実施形態の画像生成装置4Aは、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。表示部470及び音出力部480の各機能は、第1実施形態と同様であるため、その説明を省略する。
通信部440は、運動解析装置2の通信部40(図3参照)との間でデータ通信を行うものであり、操作データに応じて指定された運動解析情報(登録対象の走行データに含まれる運動解析情報)の送信を要求する送信要求コマンドを処理部420から受け取って運動解析装置2の通信部40に送信し、当該運動解析情報を運動解析装置2の通信部40から受信して処理部420に送る処理等を行う。
通信部460は、サーバー5との間でデータ通信を行うものであり、処理部420から登録対象の走行データを受け取ってサーバー5に送信する処理(走行データの登録処理)、ユーザーの登録、編集、削除、走行データの編集、削除、入れ替え等の操作データに応じた管理情報を処理部420から受け取ってサーバー5に送信する処理等を行う。
操作部450は、ユーザーからの操作データ(ユーザーの登録、編集、削除、走行データの登録、編集、削除、入れ替え等の操作データ、分析対象のユーザーを選択する操作データ等)を取得し、処理部420に送る処理を行う。操作部450は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
記憶部430は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部420の作業領域となるRAM等により構成される。記憶部430(いずれかの記録媒体)には、処理部420によって読み出され、画像生成処理(図44参照)を実行するための画像生成プログラム434が記憶されている。
処理部420は、例えば、CPU、DSP、ASIC等により構成され、記憶部430(記録媒体)に記憶されている各種プログラムを実行することにより、第1実施形態と同様の各種の演算処理や制御処理を行う。
特に、本実施形態では、処理部420は、記憶部430に記憶されている画像生成プログラム434を実行することにより、運動解析情報取得部422及び画像情報生成部428として機能する。ただし、処理部420は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている画像生成プログラム434を受信して実行してもよい。
運動解析情報取得部422は、慣性計測ユニット(IMU)10の計測結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得する処理を行う。例えば、運動解析情報取得部422は、サーバー5のデータベースから(あるいは運動解析装置2から)、分析対象のユーザーの運動の解析結果の情報である運動解析情報(運動解析装置2が生成した運動解析情報)を取得してもよい。運動解析情報取得部422が取得した運動解析情報は記憶部430に記憶される。本実施形態では、運動解析情報取得部422が取得する運動解析情報は、各種の運動指標の値を含む。
画像情報生成部428は、ユーザーの走行を表すユーザーオブジェクトの画像データに、運動解析情報取得部422が取得した運動解析情報を関連付けた画像情報を生成する処理を行う。例えば、画像情報生成部428は、運動解析情報取得部422が取得した運動解析情報を用いて、分析対象のユーザーの走行状態を表す画像データを含む画像情報を生
成してもよい。画像情報生成部428は、例えば、操作部450から受け取った操作データにおいて選択された分析対象のユーザーの選択された走行データに含まれる運動解析情報を用いて画像情報を生成してもよい。この画像情報は、2次元の画像データを含んでもよいし、3次元の画像データを含んでもよい。
画像情報生成部428は、運動解析情報取得部422が取得した運動解析情報に含まれる少なくとも1つの運動指標の値を用いて、ユーザーの走行状態を表す画像データを生成してもよい。また、画像情報生成部428は、運動解析情報取得部422が取得した運動解析情報を用いて、少なくとも1つの運動指標の値を算出し、算出した運動指標の値を用いて、ユーザーの走行状態を表す画像データを生成してもよい。
また、画像情報生成部428は、運動解析情報取得部422が取得した運動解析情報に含まれる各種の運動指標の値と姿勢角(ロール角、ピッチ角、ヨー角)の情報とを用いて、画像情報を生成してもよい。
また、画像情報生成部428は、ユーザーの走行状態を表す画像データと比較するための比較用画像データを生成し、ユーザーの走行状態を表す画像データと比較用画像データとを含む画像情報を生成してもよい。画像情報生成部428は、例えば、分析対象のユーザーの他の走行データ(運動解析情報)に含まれる各種の運動指標の値や他のユーザーの走行データ(運動解析情報)に含まれる各種の運動指標の値を用いて、比較用画像データを生成してもよいし、各種の運動指標の理想値を用いて比較用画像データを生成してもよい。
また、画像情報生成部428は、運動解析情報取得部422が取得した運動解析情報を用いて、ユーザーの運動の特徴点における走行状態を表す画像データを含む画像情報を生成してもよい。
また、画像情報生成部428は、運動解析情報取得部422が取得した運動解析情報を用いて、ユーザーの運動の複数種類の特徴点における走行状態をそれぞれ表す複数の画像データを含む前記画像情報を生成してもよい。例えば、画像情報生成部428は、この複数の画像データが時間軸上又は空間軸上に並べて配置されている画像情報を生成してもよい。さらに、画像情報生成部428は、この複数の画像データを時間軸上又は空間軸上で補完する複数の補完用画像データを生成し、当該複数の画像データと当該複数の補完用画像データとを有する動画データを含む画像情報を生成してもよい。
本実施形態では、画像情報生成部428は、操作部450を操作して選択可能な4つのモードで画像情報を生成する。
モード1は、分析対象のユーザーの足が着地した時、立脚中期の時及び蹴り出す時(離地する時)を3種類の特徴点として、当該3種類の特徴点における当該ユーザーの走行を表す静止画(ユーザーの走行状態を模したユーザーオブジェクトの画像)を順番に繰り返し表示し、あるいは、ユーザーオブジェクトが動画として再生するモードである。静止画と動画のいずれを表示させるかは、操作部450を操作して選択可能とする。
モード2は、分析対象のユーザーの各種の運動指標毎に、上記3種類の特徴点におけるユーザーオブジェクトの画像のいずれかと比較用オブジェクトの画像とを重ねて表示するモードである。
モード3は、上記3種類の特徴点におけるユーザーオブジェクトの画像と上記3種類の特徴点における比較用オブジェクトの画像を時間軸上に並べて時間ベースの連続写真のよ
うに表示し、あるいは、ユーザーオブジェクトと比較用オブジェクトが時間軸上を移動する動画を再生するモードである。時間ベースの連続写真と動画のいずれを表示させるかは、操作部450を操作して選択可能とする。
モード4は、上記3種類の特徴点におけるユーザーオブジェクトの画像と上記3種類の特徴点における比較用オブジェクトの画像を空間軸上に並べ位置ベースの連続写真のように表示し、あるいは、ユーザーオブジェクトと比較用オブジェクトが空間軸上を移動する動画を再生するモードである。位置ベースの連続写真と動画のいずれを表示させるかは、操作部450を操作して選択可能とする。
モード1〜モード4において、画像情報生成部428は、上記3種類の特徴点における走行状態をそれぞれ表す3種類のユーザーオブジェクトの画像データ(着地時の画像データ、立脚中期の画像データ、蹴り出し時の画像データ)を時系列に繰り返し生成する。
そして、モード1では、画像情報生成部428は、生成したユーザーオブジェクトの画像データを表示部470に表示させる。あるいは、画像情報生成部428は、任意の連続する2種類の特徴点における2種類のユーザーオブジェクトの形状から、線形補完などにより、当該2種類の特徴点の間の任意の時間におけるユーザーオブジェクトの形状を推定して当該ユーザーオブジェクトの画像データを生成し、動画を再生する。
また、モード2〜4では、画像情報生成部428は、さらに、上記3種類の特徴点における3種類の比較用オブジェクトの画像データ(着地時の画像データ、立脚中期の画像データ、蹴り出し時の画像データ)を時系列に繰り返し生成する。
そして、モード2では、画像情報生成部428は、各種の運動指標毎に、3種類のいずれかのユーザーオブジェクトと比較用オブジェクトを重ねた画像データを生成し、表示部470に表示させる。
また、モード3では、画像情報生成部428は、上記3種類のユーザーオブジェクトを時間軸上の上記3種類の特徴点の時間差に応じた場所に配置し、上記3種類の比較用オブジェクトを当該時間軸上の上記3種類の特徴点の時間差に応じた場所に配置した画像データ(時間ベースの連続写真)を生成し、表示部470に表示させる。あるいは、画像情報生成部428は、任意の連続する2種類の特徴点の間の任意の時間におけるユーザーオブジェクトの画像データと比較用オブジェクトの画像データを生成し、ユーザーオブジェクトと比較用オブジェクトが時間軸上を移動する動画を再生する。
また、モード4では、画像情報生成部428は、上記3種類のユーザーオブジェクトを進行方向軸上の上記3種類の特徴点における進行方向距離の差に応じた場所に配置し、上記3種類の比較用オブジェクトを当該進行方向軸上の上記3種類の特徴点における進行方向距離の差に応じた場所に配置した画像データ(位置ベースの連続写真)を生成し、表示部470に表示させる。あるいは、画像情報生成部428は、任意の連続する2種類の特徴点の間の任意の進行方向距離におけるユーザーオブジェクトの画像データと比較用オブジェクトの画像データを生成し、ユーザーオブジェクトと比較用オブジェクトが進行方向軸上を移動する動画を再生する。
2−5−2.着地時の画像データの生成方法
画像情報生成部428は、例えば、分析対象のユーザーの着地時の姿勢角(ロール角、ピッチ角、ヨー角)と運動指標である真下着地(真下着地率3)の値とを用いて、着地時の走行状態を表す画像データを生成することができる。この姿勢角や真下着地の値は、運動解析情報取得部422が取得した運動解析情報に含まれている。
画像情報生成部428は、例えば、運動解析情報に含まれる上下方向加速度が正値から負値に変化するタイミングで着地を検出し、運動解析情報から着地時の姿勢角と真下着地の値を選択する。画像情報生成部428は、運動解析情報に含まれる左右足フラグを用いて、検出した着地が右足の着地か左足の着地かを識別することができる。
そして、画像情報生成部428は、着地時の姿勢角(ロール角、ピッチ角、ヨー角)から、ユーザーの胴体の傾きを決定する。また、画像情報生成部428は、真下着地の値から、重心から着地足までの距離を決定する。また、画像情報生成部428は、着地時のヨー角から、引き脚(後ろ脚)の位置を決定する。さらに、画像情報生成部428は、これらの決定した情報に合うように、頭と腕の位置や角度を決定する。
図36(A)、図36(B)及び図36(C)は、分析対象のユーザーの右足着地時の走行状態を表す画像データの一例であり、それぞれ、分析対象のユーザーを右側面、背面、上面から見たイメージの画像データを示している。図36(A)、図36(B)及び図36(C)の例では、着地時のロール角、ピッチ角、ヨー角がそれぞれ3度、0度、20度であり、真下着地が30cmである。
また、画像情報生成部428は、比較対象のユーザーの着地時の姿勢角(ロール角、ピッチ角、ヨー角)と真下着地(真下着地率3)の値とを用いて、あるいはこれらの理想値を用いて、分析対象のユーザーの画像データと同様に比較用の画像データを生成する。
図37(A)、図37(B)及び図37(C)は、図36(A)、図36(B)及び図36(C)に示した分析対象のユーザーの画像データとの比較用の画像データの一例であり、それぞれ、比較対象のユーザーを右側面、背面、上面から見たイメージの画像データを示している。図37(A)、図37(B)及び図37(C)の例では、着地時のロール角、ピッチ角、ヨー角がそれぞれ0度、5度、0度であり、真下着地が10cmである。
なお、図36(A)、図36(B)及び図36(C)や図37(A)、図37(B)及び図37(C)は、3次元の画像データであるが、画像情報生成部428は、例えば、図36(A)や図37(A)の2次元画像データのみを生成してもよい。
2−5−3.立脚中期の画像データの生成方法
画像情報生成部428は、例えば、分析対象のユーザーの立脚中期の姿勢角(ロール角、ピッチ角、ヨー角)と運動指標である腰の落ちの値とを用いて、着地時の走行状態を表す画像データを生成することができる。この姿勢角の値は、運動解析情報取得部422が取得した運動解析情報に含まれているが、腰の落ちの値は当該運動解析情報に含まれていない。腰の落ちは、着地時の腰の高さと立脚中期の腰の高さとの差として計算される運動指標であり、画像情報生成部428は、運動解析情報に含まれる上下方向距離の値を用いて腰の落ちの値を計算することができる。
画像情報生成部428は、着地を検出するとともに、例えば、運動解析情報に含まれる上下方向加速度が最大となるタイミングで立脚中期を検出し、運動解析情報から着地時の姿勢角及び上下方向距離、立脚中期の上下方向距離を選択する。画像情報生成部428は、着地時の上下方向距離と立脚中期の上下方向距離との差を計算し、腰の落ちの値とする。
そして、画像情報生成部428は、立脚中期の姿勢角(ロール角、ピッチ角、ヨー角)から、ユーザーの胴体の傾きを決定する。また、画像情報生成部428は、腰の落ちの値から、膝の曲げ具合や重心の下がり具合を決定する。また、画像情報生成部428は、着
地時のヨー角から、引き脚(後ろ脚)の位置を決定する。さらに、画像情報生成部428は、これらの決定した情報に合うように、頭と腕の位置や角度を決定する。
図38(A)、図38(B)及び図38(C)は、分析対象のユーザーの右足が接地している時の立脚中期の走行状態を表す画像データの一例であり、それぞれ、分析対象のユーザーを右側面、背面、上面から見たイメージの画像データを示している。図38(A)、図38(B)及び図38(C)の例では、着地時のロール角、ピッチ角、ヨー角がそれぞれ3度、0度、0度であり、腰の落ちが10cmである。
また、画像情報生成部428は、比較対象のユーザーの立脚中期の姿勢角(ロール角、ピッチ角、ヨー角)と腰の落ちの値とを用いて、あるいはこれらの理想値を用いて、分析対象のユーザーの画像データと同様に比較用の画像データを生成する。
図39(A)、図39(B)及び図39(C)は、図38(A)、図38(B)及び図38(C)に示した分析対象のユーザーの画像データとの比較用の画像データの一例であり、それぞれ、比較対象のユーザーを右側面、背面、上面から見たイメージの画像データを示している。図39(A)、図39(B)及び図39(C)の例では、着地時のロール角、ピッチ角、ヨー角がそれぞれ0度、5度、0度であり、腰の落ちが5cmである。
なお、図38(A)、図38(B)及び図38(C)や図39(A)、図39(B)及び図39(C)は、3次元の画像データであるが、画像情報生成部428は、例えば、図38(A)や図39(A)の2次元画像データのみを生成してもよい。
2−5−4.蹴り出し時の画像データの生成方法
画像情報生成部428は、例えば、分析対象のユーザーの蹴り出し時の姿勢角(ロール角、ピッチ角、ヨー角)と運動指標である推進効率(推進効率3)の値とを用いて、蹴り出し時の走行状態を表す画像データを生成することができる。この姿勢角や推進効率の値は、運動解析情報取得部422が取得した運動解析情報に含まれている。
画像情報生成部428は、例えば、運動解析情報に含まれる上下方向加速度が負値から正値に変化するタイミングで蹴り出しを検出し、運動解析情報から蹴り出し時の姿勢角と推進効率の値を選択する。
そして、画像情報生成部428は、蹴り出し時の姿勢角(ロール角、ピッチ角、ヨー角)から、ユーザーの胴体の傾きを決定する。また、画像情報生成部428は、推進効率の値から、蹴り出し脚の角度を決定する。また、画像情報生成部428は、蹴り出し時のヨー角から、前脚の位置を決定する。さらに、画像情報生成部428は、これらの決定した情報に合うように、頭と腕の位置や角度を決定する。
図40(A)、図40(B)及び図40(C)は、分析対象のユーザーの右足蹴り出し時の走行状態を表す画像データの一例であり、それぞれ、分析対象のユーザーを右側面、背面、上面から見たイメージの画像データを示している。図40(A)、図40(B)及び図40(C)の例では、着地時のロール角、ピッチ角、ヨー角がそれぞれ3度、0度、−10度であり、推進効率が20度、20cmである。
また、画像情報生成部428は、比較対象のユーザーの蹴り出し時の姿勢角(ロール角、ピッチ角、ヨー角)と推進効率の値とを用いて、あるいはこれらの理想値を用いて、分析対象のユーザーの画像データと同様に比較用の画像データを生成する。
図41(A)、図41(B)及び図41(C)は、図40(A)、図40(B)及び図
40(C)に示した分析対象のユーザーの画像データとの比較用の画像データの一例であり、それぞれ、比較対象のユーザーを右側面、背面、上面から見たイメージの画像データを示している。図41(A)、図41(B)及び図41(C)の例では、蹴り出し時のロール角、ピッチ角、ヨー角がそれぞれ0度、5度、−20度であり、推進効率が10度、40cmである。
なお、図40(A)、図40(B)及び図40(C)や図41(A)、図41(B)及び図41(C)は、3次元の画像データであるが、画像情報生成部428は、例えば、図40(A)や図41(A)の2次元画像データのみを生成してもよい。
2−5−5.画像表示例
モード1では、例えば、側面から見た、着地時のユーザーオブジェクト(図36(A))、立脚中期のユーザーオブジェクト(図38(A))、蹴り出し時のユーザーオブジェクト(図40(A))の画像が同じ場所でコマ送りされて順番に繰り返し表示される。また、操作部450の操作により、ユーザーオブジェクトを背面から見た時のコマ送り画像(図36(B),図38(B),図40(B))やユーザーオブジェクトを上面から見た時のコマ送り画像(図36(C),図38(C),図40(C))、あるいは、ユーザーオブジェクトを3次元空間上の任意の方向から見た時のコマ送り画像の表示に変更される。着地時、立脚中期、蹴り出し時の各ユーザーオブジェクトの形状は、分析対象のユーザーの運動解析情報のデータに応じて時々刻々変化する。あるいは、モード1では、これらのコマ送りの画像の間が補完され、ユーザーオブジェクトが走行しているような動画が表示される。
モード2では、図42に示すように、真下着地、腰の落ち、推進効率、前傾角(ピッチ角)、左右のぶれ(ロール角)、脚の流れの6つの運動指標に対して、ユーザーオブジェクトと比較用オブジェクトが重なり、数値がわかりやすく表記された画像が表示される。図42では、灰色のオブジェクトがユーザーオブジェクトであり、白抜きのオブジェクトが比較用オブジェクトである。真下着地及び脚の流れにおけるユーザーオブジェクト及び比較用オブジェクトとしては、例えば、側面から見た着地時のユーザーオブジェクト(図36(A))及び比較用オブジェクト(図37(A))が使用される。腰の落ちにおけるユーザーオブジェクト及び比較用オブジェクトとしては、例えば、側面から見た立脚中期のユーザーオブジェクト(図38(A))及び比較用オブジェクト(図39(A))が使用される。推進効率におけるユーザーオブジェクト及び比較用オブジェクトとしては、例えば、側面から見た蹴り出し時のユーザーオブジェクト(図40(A))及び比較用オブジェクト(図41(A))が使用される。前傾角(ピッチ角)におけるユーザーオブジェクト及び比較用オブジェクトとしては、例えば、側面から見た、着地時のユーザーオブジェクト(図36(A))及び比較用オブジェクト(図37(A))、立脚中期のユーザーオブジェクト(図38(A))及び比較用オブジェクト(図39(A))、蹴り出し時のユーザーオブジェクト(図40(A))及び比較用オブジェクト(図41(A))が順番に繰り返し使用される。左右のぶれ(ロール角)におけるユーザーオブジェクト及び比較用オブジェクトとしては、例えば、背面から見た、着地時のユーザーオブジェクト(図36(B))及び比較用オブジェクト(図37(B))、立脚中期のユーザーオブジェクト(図38(B))及び比較用オブジェクト(図39(B))、蹴り出し時のユーザーオブジェクト(図40(B))及び比較用オブジェクト(図41(B))が順番に繰り返し使用される。各ユーザーオブジェクトの形状は、分析対象のユーザーの運動解析情報のデータに応じて時々刻々変化する。各比較用オブジェクトは、各種の運動指標の理想値から生成された場合はその形状は変化しないが、比較対象のユーザーの運動解析情報を用いて生成された場合は、当該運動解析情報のデータに応じて、その形状が時々刻々変化する。
モード3では、図43に示すように、例えば、側面から見た、着地時のユーザーオブジ
ェクト(図36(A))及び比較用オブジェクト(図37(A))、立脚中期のユーザーオブジェクト(図38(A))及び比較用オブジェクト(図39(A))、蹴り出し時のユーザーオブジェクト(図40(A))及び比較用オブジェクト(図41(A))の各画像が時間軸上に並べられた時間ベースの連続写真の画像が表示される。図43では、灰色のオブジェクトがユーザーオブジェクトであり、白抜きのオブジェクトが比較用オブジェクトであり、右足着地時のユーザーオブジェクト及び比較用オブジェクトが時間軸上の0秒の位置に配置されている。そして、立脚中期、蹴り出し時、左足着地時等の各ユーザーオブジェクト及び各比較用オブジェクトは、それぞれ、右足着地からかかった時間に応じた時間軸上の位置に配置されている。各ユーザーオブジェクトの形状や時間軸上の位置は、分析対象のユーザーの運動解析情報のデータに応じて時々刻々変化する。各比較用オブジェクトは、各種の運動指標の理想値から生成された場合はその形状や時間軸上の位置は変化しないが、比較対象のユーザーの運動解析情報を用いて生成された場合は、当該運動解析情報のデータに応じて、その形状や時間軸上の位置が時々刻々変化する。あるいは、モード3では、ユーザーオブジェクトと比較用オブジェクトが時間軸上を移動する動画が表示される。
モード4では、図44に示すように、例えば、側面から見た、着地時のユーザーオブジェクト(図36(A))及び比較用オブジェクト(図37(A))、立脚中期のユーザーオブジェクト(図38(A))及び比較用オブジェクト(図39(A))、蹴り出し時のユーザーオブジェクト(図40(A))及び比較用オブジェクト(図41(A))の各画像が進行方向軸上に並べられた位置ベースの連続写真の画像が表示される。図44では、灰色のオブジェクトがユーザーオブジェクトであり、白抜きのオブジェクトが比較用オブジェクトであり、右足着地時のユーザーオブジェクト及び比較用オブジェクトが進行方向軸上の0cmの位置に配置されている。そして、立脚中期、蹴り出し時、左足着地時等の各ユーザーオブジェクト及び各比較用オブジェクトは、それぞれ、右足着地から進行方向に移動した距離に応じた進行方向軸上の位置に配置されている。各ユーザーオブジェクトの形状や進行方向軸上の位置は、分析対象のユーザーの運動解析情報のデータに応じて時々刻々変化する。各比較用オブジェクトは、各種の運動指標の理想値から生成された場合はその形状や進行方向軸上の位置は変化しないが、比較対象のユーザーの運動解析情報を用いて生成された場合は、当該運動解析情報のデータに応じて、その形状や進行方向軸上の位置が時々刻々変化する。あるいは、モード4では、ユーザーオブジェクトと比較用オブジェクトが進行方向軸上を移動する動画が表示される。
2−5−6.処理の手順
図45は、画像生成装置4Aの処理部420が行う画像生成処理の手順の一例を示すフローチャート図である。画像生成装置4A(コンピューターの一例)の処理部420は、記憶部430に記憶されている画像生成プログラム434を実行することにより、例えば図45のフローチャートの手順で画像生成処理を実行する。
まず、処理部420は、分析対象を指定する操作データを取得するまで待機し(S500のN)、分析対象を指定する操作データを取得した場合(S500のY)、当該操作データにおいて指定されたユーザー(分析対象のユーザー)の指定された走行における運動解析情報(具体的には、走行データ)を、通信部460を介してサーバー5のデータベースから取得し、記憶部430に記憶させる(S502)。
次に、処理部420は、比較用の運動解析情報(例えば、比較対象のユーザーの走行データ)を、通信部460を介してサーバー5のデータベースから取得し、記憶部430に記憶させる(S504)。処理部420は、予め決まっている各運動指標の理想値を用いて比較用の画像データを生成する場合は、このS504の処理は行わなくてもよい。
次に、処理部420は、S502で取得した運動解析情報(走行データ)及びS504で取得した運動解析情報(走行データ)の各々から、次の時刻(最初の時刻)のデータ(ユーザーデータ及び比較用データ)を選択する(S506)。
そして、モード1が選択されている場合(S508のY)、処理部420は、モード1の画像生成・表示処理を行う(S510)。このモード1の画像生成・表示処理の手順の一例は後述する。
また、モード2が選択されている場合(S508のNかつS512のY)、処理部420は、モード2の画像生成・表示処理を行う(S514)。このモード2の画像生成・表示処理の手順の一例は後述する。
また、モード3が選択されている場合(S512のNかつS516のY)、処理部420は、モード3の画像生成・表示処理を行う(S518)。このモード3の画像生成・表示処理の手順の一例は後述する。
また、モード4が選択されている場合(S516のN)、処理部420は、モード4の画像生成・表示処理を行う(S520)。このモード4の画像生成・表示処理の手順の一例は後述する。
そして、処理部420は、画像生成終了の操作データを取得しなければ(S522のN)、S502で取得した運動解析情報及びS504で取得した運動解析情報の各々から、次の時刻のデータを選択し(S506)、選択されたモードに応じて再びS510,S514,S518,S520のいずれか1つの処理を行う。また、処理部420は、画像生成終了の操作データを取得した場合は(S522のY)、画像生成処理を終了する。
図46は、モード1の画像生成・表示処理(図45のS510の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図46のフローチャートの手順でモード1の画像生成・表示処理を実行する。
まず、処理部420は、図45のS506で選択したユーザーデータ(例えば、上下方向加速度の値)を用いて特徴点(着地、立脚中期、蹴り出し)の検出処理を行い(S600)、着地を検出した場合は(S601のY)、着地時の画像データ(着地時のユーザーオブジェクト)を生成する(S602)。
また、処理部420は、立脚中期を検出した場合は(S601のNかつS603のY)、立脚中期の画像データ(立脚中期のユーザーオブジェクト)を生成する(S604)。
また、処理部420は、蹴り出しを検出した場合は(S603のNかつS605のY)、蹴り出しの画像データ(蹴り出し時のユーザーオブジェクト)を生成する(S606)。
また、処理部420は、着地、立脚中期、蹴り出しのいずれも検出しなかった場合は(S605のN)、動画再生が選択されていれば(S607のY)、補完用の画像データ(補完用のユーザーオブジェクト)を生成し(S608)、動画再生が選択されていなければ(S607のN)、S608の処理を行わない。
そして、処理部420は、S602,S604,S606,S608で生成した画像データ(ユーザーオブジェクト)に対応する画像を表示部470に表示させ(S610)、当該時刻におけるモード1の画像生成・表示処理を終了する。なお、処理部420は、S
602,S604,S606,S608のいずれでも画像データを生成しなかった場合は、S610において現在の画像を継続して表示部470に表示させ、当該時刻におけるモード1の画像生成・表示処理を終了する。
図47は、モード2の画像生成・表示処理(図45のS514の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図47のフローチャートの手順でモード2の画像生成・表示処理を実行する。
まず、処理部420は、第1モードの画像生成・表示処理(図46)のS600〜S606と同様の処理を行い、着地、立脚中期又は蹴り出しを検出した場合は、その画像データ(ユーザーオブジェクト)を生成する(S620〜S626)。
次に、処理部420は、図45のS506で選択した比較用データ(例えば、上下方向加速度の値)を用いて特徴点(着地、立脚中期、蹴り出し)の検出処理を行い(S630)、着地を検出した場合は(S631のY)、着地時の比較用画像データ(着地時の比較用オブジェクト)を生成する(S632)。
また、処理部420は、立脚中期を検出した場合は(S631のNかつS633のY)、立脚中期の比較用画像データ(立脚中期の比較用オブジェクト)を生成する(S634)。
また、処理部420は、蹴り出しを検出した場合は(S633のNかつS635のY)、蹴り出しの比較用画像データ(蹴り出し時の比較用オブジェクト)を生成する(S636)。
そして、処理部420は、S622,S624,S626で生成した画像データ(ユーザーオブジェクト)やS632,S634,S636で生成した画像データ(比較用オブジェクト)を用いて、運動指標毎にユーザーオブジェクトと比較用オブジェクトを比較する画像データを生成し、当該画像データに対応する画像を表示部470に表示させ(S637)、当該時刻におけるモード2の画像生成・表示処理を終了する。なお、処理部420は、S622,S624,S626,S632,S634,S636のいずれでも画像データを生成しなかった場合は、S637において現在の画像を継続して表示部470に表示させ、当該時刻におけるモード2の画像生成・表示処理を終了する。
図48は、モード3の画像生成・表示処理(図45のS518の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図48のフローチャートの手順でモード3の画像生成・表示処理を実行する。
まず、処理部420は、第1モードの画像生成・表示処理(図46)のS600〜S608と同様の処理を行い、着地、立脚中期又は蹴り出しを検出した場合は、その画像データ(ユーザーオブジェクト)を生成し、いずれも検出しなかった場合は、動画再生が選択されていれば補完用の画像データ(ユーザーオブジェクト)を生成する(S640〜S648)。
次に、処理部420は、第2モードの画像生成・表示処理(図47)のS630〜S636と同様の処理を行い、着地、立脚中期又は蹴り出しを検出した場合は、その比較用画像データ(比較用オブジェクト)を生成する(S650〜S656)。
また、処理部420は、着地、立脚中期、蹴り出しのいずれも検出しなかった場合は(S655のN)、動画再生が選択されていれば(S657のY)、補完用の比較用画像デ
ータ(補完用の比較用オブジェクト)を生成し(S658)、動画再生が選択されていなければ(S657のN)、S658の処理を行わない。
そして、処理部420は、S642,S644,S646,S648で生成した画像データ(ユーザーオブジェクト)やS652,S654,S656,S658で生成した画像データ(比較用オブジェクト)を用いて、時間ベースの画像データを生成し、当該時間ベースの画像データに対応する画像を表示部470に表示させ(S659)、当該時刻におけるモード3の画像生成・表示処理を終了する。なお、処理部420は、S642,S644,S646,S648,652,S654,S656,S658のいずれでも画像データを生成しなかった場合は、S659において現在の画像を継続して表示部470に表示させ、当該時刻におけるモード3の画像生成・表示処理を終了する。
図49は、モード4の画像生成・表示処理(図45のS522の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図49のフローチャートの手順でモード4の画像生成・表示処理を実行する。
まず、処理部420は、第3モードの画像生成・表示処理(図48)のS640〜S648と同様の処理を行い、着地、立脚中期又は蹴り出しを検出した場合は、その画像データ(ユーザーオブジェクト)を生成し、いずれも検出しなかった場合は、動画再生が選択されていれば補完用の画像データ(ユーザーオブジェクト)を生成する(S660〜S668)。
次に、処理部420は、第3モードの画像生成・表示処理(図48)のS650〜S658と同様の処理を行い、着地、立脚中期又は蹴り出しを検出した場合は、その比較用画像データ(比較用オブジェクト)を生成し、いずれも検出しなかった場合は、動画再生が選択されていれば補完用の比較用画像データ(比較用オブジェクト)を生成する(S670〜S678)。
そして、処理部420は、S662,S664,S666,S668で生成した画像データ(ユーザーオブジェクト)やS672,S674,S676,S678で生成した画像データ(比較用オブジェクト)を用いて、位置ベースの画像データを生成し、当該位置ベースの画像データに対応する画像を表示部470に表示させ(S679)、当該時刻におけるモード4の画像生成・表示処理を終了する。なお、処理部420は、S662,S664,S666,S668,672,S674,S676,S678のいずれでも画像データを生成しなかった場合は、S679において現在の画像を継続して表示部470に表示させ、当該時刻におけるモード4の画像生成・表示処理を終了する。
図50は、着地時の画像データ(ユーザーオブジェクト又は比較用オブジェクト)の生成処理(図46のS602の処理、図47のS622及びS632の処理、図48のS642及びS652の処理、図49のS662及びS662の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図50のフローチャートの手順で着地時の画像データの生成処理を実行する。
まず、処理部420は、着地時のロール角、ピッチ角、ヨー角の情報を用いて、オブジェクト(ユーザーオブジェクト又は比較用オブジェクト)の胴体のロール角、ピッチ角、ヨー角を決定する(S700)。
次に、処理部420は、真下着地の情報を用いて、オブジェクトの重心から着地足までの距離を決定する(S702)。
次に、処理部420は、着地時のヨー角の情報を用いて、オブジェクトの引き脚(後ろ脚)の位置を決定する(S704)。
次に、処理部420は、S700,S702,S704で決定した情報と合うように、オブジェクトの頭と腕の位置や角度を決定する(S706)。
最後に、処理部420は、S700,S702,S704,S706で決定した情報を用いて、着地時の画像データ(ユーザーオブジェクト又は比較用オブジェクト)を生成し(S708)、着地時の画像データの生成処理を終了する。
図51は、立脚中期の画像データ(ユーザーオブジェクト又は比較用オブジェクト)の生成処理(図46のS604の処理、図47のS624及びS634の処理、図48のS644及びS654の処理、図49のS664及びS664の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図51のフローチャートの手順で立脚中期の画像データの生成処理を実行する。
まず、処理部420は、立脚中期のロール角、ピッチ角、ヨー角の情報を用いて、オブジェクト(ユーザーオブジェクト又は比較用オブジェクト)の胴体のロール角、ピッチ角、ヨー角を決定する(S720)。
次に、処理部420は、立脚中期の腰の落ちを計算し、腰の落ちの情報を用いて、オブジェクトの膝の曲げ具合、重心の下がり具合を決定する(S722)。
次に、処理部420は、立脚中期のヨー角の情報を用いて、オブジェクトの引き脚(後ろ脚)の位置を決定する(S724)。
次に、処理部420は、S720,S722,S724で決定した情報と合うように、オブジェクトの頭と腕の位置や角度を決定する(S726)。
最後に、処理部420は、S720,S722,S724,S726で決定した情報を用いて、立脚中期の画像データ(ユーザーオブジェクト又は比較用オブジェクト)を生成し(S728)、立脚中期の画像データの生成処理を終了する。
図52は、蹴り出し時の画像データ(ユーザーオブジェクト又は比較用オブジェクト)の生成処理(図46のS606の処理、図47のS626及びS636の処理、図48のS646及びS656の処理、図49のS666及びS666の処理)の手順の一例を示すフローチャート図である。処理部20(画像情報生成部428)は、例えば図52のフローチャートの手順で蹴り出し時の画像データの生成処理を実行する。
まず、処理部420は、蹴り出し時のロール角、ピッチ角、ヨー角の情報を用いて、オブジェクト(ユーザーオブジェクト又は比較用オブジェクト)の胴体のロール角、ピッチ角、ヨー角を決定する(S740)。
次に、処理部420は、蹴り出し時のヨー角、推進効率の情報を用いて、オブジェクトの蹴り出し脚の角度を決定する(S742)。
次に、処理部420は、蹴り出しのヨー角の情報を用いて、オブジェクトの前脚の位置を決定する(S744)。
次に、処理部420は、S740,S742,S744で決定した情報と合うように、
オブジェクトの頭と腕の位置や角度を決定する(S746)。
最後に、処理部420は、S740,S742,S744,S746で決定した情報を用いて、蹴り出し時の画像データ(ユーザーオブジェクト又は比較用オブジェクト)を生成し(S748)、蹴り出し時の画像データの生成処理を終了する。
2−6.効果
第2実施形態によれば、慣性計測ユニット10は、3軸の加速度センサー12と3軸の角速度センサー14によりユーザーの細かい動きを検出可能であるため、運動解析装置2は、ユーザーの走行中に、慣性計測ユニット10の検出結果を用いて慣性航法演算を行い、当該慣性航法演算の結果を用いて、走行能力に関係する各種の運動指標の値を精度よく計算することができる。従って、画像生成装置4Aは、運動解析装置2が算出した各種の運動指標の値を用いることで、走行能力に密接に関連する部位の状態を精度よく再現する画像情報を生成することができる。従って、ユーザーは、当該画像情報により、全身の動きは正確に分からなくても、最も知りたい部位の状態を視覚的に明確に知ることができる。
特に、第2実施形態では、運動解析装置2(慣性計測ユニット10)は、ユーザーの胴体部分(腰等)に装着されるので、画像生成装置4Aは、走行能力に密接に関連する胴体の状態を精度よく再現するとともに、胴体の状態から脚の状態も精度よく再現する画像情報を生成することができる。
また、第2実施形態によれば、画像生成装置4Aは、モード1では、着地、立脚中期、蹴り出しの3つの特徴点におけるユーザーオブジェクトを順番に繰り返して表示するので、ユーザーは接地中の走行状態を詳しく知ることができる。
また、第2実施形態によれば、画像生成装置4Aは、モード2では、走行能力に密接に関係する各種の運動指標に対して、ユーザーオブジェクトと比較用オブジェクトを重ねて表示するので、ユーザーは、比較が容易であり、自身の走行能力を客観的に評価することができる。
また、第2実施形態によれば、画像生成装置4Aは、モード3では、着地、立脚中期、蹴り出しの3つの特徴点におけるユーザーオブジェクトと比較用オブジェクトを時間軸上に並べて表示するので、ユーザーは、特徴点毎の走行状態の比較も時間差の比較も容易であり、自身の走行能力をより正確に評価することができる。
また、第2実施形態によれば、画像生成装置4Aは、モード4では、着地、立脚中期、蹴り出しの3つの特徴点におけるユーザーオブジェクトと比較用オブジェクトを進行方向軸上に並べて表示するので、ユーザーは、特徴点毎の走行状態の比較も移動距離の比較も容易であり、自身の走行能力をより正確に評価することができる。
3.第3実施形態
第3実施形態において、第1実施形態又は第2実施形態と同様の構成には同じ符号を付してその説明を省略又は簡略し、第1実施形態及び第2実施形態と異なる内容について詳細に説明する。
3−1.情報表示システムの構成
以下では、ユーザーの走行(歩行も含む)における運動を解析する情報表示システムを例に挙げて説明するが、第3実施形態の情報表示システムは、走行以外の運動を解析する情報表示システムにも、同様に適用することができる。図53は、第3実施形態の情報表
示システム1Bの構成例を示す図である。図53に示すように、第3実施形態の情報表示システム1Bは、運動解析装置2、報知装置3及び情報表示装置4Bを含んで構成されている。第1実施形態や第2実施形態と同様、運動解析装置2は、ユーザーの走行中の運動を解析する装置であり、報知装置3は、ユーザーに走行中の運動の状態や走行結果の情報をユーザーに通知する装置である。情報表示装置4Bは、ユーザーの走行終了後に走行結果を分析して提示する装置である。第3実施形態でも、第1実施形態や第2実施形態と同様、図2に示したように、運動解析装置2は、慣性計測ユニット(IMU)10を内蔵し、ユーザーが静止している状態で、慣性計測ユニット(IMU)10の1つの検出軸(以下ではz軸とする)が重力加速度方向(鉛直下向き)とほぼ一致するように、ユーザーの胴体部分(例えば、右腰、左腰、又は腰の中央部)に装着される。また、報知装置3は、リスト型(腕時計型)の携帯情報機器であり、ユーザーの手首等に装着される。ただし、報知装置3は、ヘッドマウントディスプレイ(HMD)やスマートフォン等の携帯情報機器であってもよい。
第1実施形態や第2実施形態と同様、ユーザーは、走行開始時に報知装置3を操作して運動解析装置2による計測(慣性航法演算処理及び運動解析処理)の開始を指示し、走行終了時に報知装置3を操作して運動解析装置2による計測の終了を指示する。報知装置3は、ユーザーの操作に応じて、計測の開始や終了を指示するコマンドを運動解析装置2に送信する。
第1実施形態や第2実施形態と同様、運動解析装置2は、計測開始のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を開始し、計測結果を用いて、ユーザーの走行能力(運動能力の一例)に関係する指標である各種の運動指標の値を計算し、ユーザーの走行運動の解析結果の情報として、各種の運動指標の値を含む運動解析情報を生成する。運動解析装置2は、生成した運動解析情報を用いて、ユーザーの走行中に出力する情報(走行中出力情報)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行中出力情報を受信し、走行中出力情報に含まれる各種の運動指標の値を事前に設定された各基準値と比較し、主として音や振動により各運動指標の良し悪しをユーザーに報知する。これにより、ユーザーは、各運動指標の良し悪しを認識しながら走行することができる。
また、第1実施形態や第2実施形態と同様、運動解析装置2は、計測終了のコマンドを受信すると、慣性計測ユニット(IMU)10による計測を終了し、ユーザーの走行結果の情報(走行結果情報:走行距離、走行速度)を生成し、報知装置3に送信する。報知装置3は、運動解析装置2から走行結果情報を受信し、走行結果の情報を文字や画像としてユーザーに報知する。これにより、ユーザーは、走行終了後すぐに走行結果の情報を認識することができる。
なお、運動解析装置2と報知装置3との間のデータ通信は、無線通信でもよいし、有線通信でもよい。
また、図53に示すように、第3実施形態でも、第1実施形態や第2実施形態と同様に、情報表示システム1Bは、インターネットやLANなどのネットワークに接続されたサーバー5を含んで構成されている。情報表示装置4Bは、例えば、パーソナルコンピューターやスマートフォン等の情報機器であり、ネットワークを介してサーバー5とデータ通信が可能である。情報表示装置4Bは、運動解析装置2からユーザーの過去の走行における運動解析情報を取得し、ネットワークを介してサーバー5に送信する。ただし、情報表示装置4Bとは異なる装置が運動解析装置2から運動解析情報を取得してサーバー5に送信してもよいし、運動解析装置2が運動解析情報をサーバー5に直接送信してもよい。サーバー5は、この運動解析情報を受信して記憶部(不図示)に構築されているデータベー
スに保存する。本実施形態では、複数のユーザーが同一の又は異なる運動解析装置2を装着して走行を行い、各ユーザーの運動解析情報がサーバー5のデータベースに保存される。
情報表示装置4Bは、ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性計測ユニット(IMU)10の計測結果(慣性センサーの検出結果)を用いて算出された当該ユーザーの走行に関する指標とを関連付けて表示する。具体的には、情報表示装置4Bは、ネットワークを介してサーバー5のデータベースからユーザーの運動解析情報を取得し、取得した運動解析情報に含まれる走行状態情報と各種の運動指標の値とを用いて、走行状態情報とユーザーの走行に関する指標とを関連付けて表示部(図53では不図示)に表示する。
情報表示システム1Bは、運動解析装置2と報知装置3と情報表示装置4Bとが別に設けられたり、運動解析装置2と報知装置3が一体で情報表示装置4Bが別に設けられたり、報知装置3と情報表示装置4Bが一体で運動解析装置2が別に設けられたり、運動解析装置2と情報表示装置4Bが一体で報知装置3が別に設けられたり、運動解析装置2と報知装置3と情報表示装置4Bが一体であってもよい。運動解析装置2と報知装置3と情報表示装置4Bはどのような組み合わせであってもよい。
3−2.座標系
以下の説明において必要となる座標系を、第1実施形態の「1−2.座標系」と同様に定義する。
3−3.運動解析装置
3−3−1.運動解析装置の構成
図54は、第3実施形態における運動解析装置2の構成例を示す機能ブロック図である。図54に示すように、第3実施形態における運動解析装置2は、第1実施形態と同様に、慣性計測ユニット(IMU)10、処理部20、記憶部30、通信部40、GPSユニット50及び地磁気センサー60を含んで構成されている。ただし、本実施形態の運動解析装置2は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。慣性計測ユニット(IMU)10、GPSユニット50及び地磁気センサー60の各機能は、第1実施形態と同様であるため、その説明を省略する。
通信部40は、報知装置3の通信部140(図59参照)や情報表示装置4Bの通信部440(図61参照)との間でデータ通信を行うものであり、報知装置3の通信部140から送信されたコマンド(計測開始/計測終了のコマンド等)を受信して処理部20に送る処理、処理部20が生成した走行中出力情報や走行結果情報を受け取って報知装置3の通信部140に送信する処理、情報表示装置4Bの通信部440から運動解析情報の送信要求コマンドを受信して処理部20に送り、当該運動解析情報を処理部20から受け取って情報表示装置4Bの通信部440に送信する処理等を行う。
処理部20は、例えば、CPU、DSP、ASIC等により構成され、記憶部30(記録媒体)に記憶されている各種プログラムに従って、第1実施形態と同様に、各種の演算処理や制御処理を行う。
また、処理部20は、通信部40を介して情報表示装置4Bから運動解析情報の送信要求コマンド受け取ると、送信要求コマンドで指定された運動解析情報を記憶部30から読み出して通信部40を介して情報表示装置4Bの通信部440に送る処理を行う。
記憶部30は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカード
等のプログラムやデータを記憶する記録媒体や、処理部20の作業領域となるRAM等により構成される。記憶部30(いずれかの記録媒体)には、処理部20によって読み出され、運動解析処理(図14参照)を実行するための運動解析プログラム300が記憶されている。運動解析プログラム300は、慣性航法演算処理(図15参照)を実行するための慣性航法演算プログラム302、運動解析情報生成処理(図58参照)を実行するための運動解析情報生成プログラム304をサブルーチンとして含む。
また、第1実施形態と同様、記憶部30には、センシングデータテーブル310、GPSデータテーブル320、地磁気データテーブル330、算出データテーブル340及び運動解析情報350等が記憶される。センシングデータテーブル310、GPSデータテーブル320、地磁気データテーブル330及び算出データテーブル340の構成は第1実施形態(図4〜図7)と同様であるため、その図示及び説明を省略する。
運動解析情報350は、ユーザーの運動に関する各種情報であり、処理部20が生成した、入力情報351の各項目、基本情報352の各項目、第1解析情報353の各項目、第2解析情報354の各項目、左右差率355、走行状態情報356の各項目等を含む。
3−3−2.処理部の機能構成
図55は、第3実施形態における運動解析装置2の処理部20の構成例を示す機能ブロック図である。第3実施形態でも、第1実施形態と同様、処理部20は、記憶部30に記憶されている運動解析プログラム300を実行することにより、慣性航法演算部22及び運動解析部24として機能する。ただし、処理部20は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている運動解析プログラム300を受信して実行してもよい。
第1実施形態と同様、慣性航法演算部22は、センシングデータ(慣性計測ユニット10の検出結果)、GPSデータ(GPSユニット50の検出結果)及び地磁気データ(地磁気センサー60の検出結果)を用いて、慣性航法演算を行い、加速度、角速度、速度、位置、姿勢角、距離、ストライド及び走行ピッチを算出し、これらの算出結果を含む演算データを出力する。慣性航法演算部22が出力する演算データは時刻順に記憶部30に記憶される。
運動解析部24は、慣性航法演算部22が出力する演算データ(記憶部30に記憶されている演算データ)を用いて、ユーザーの走行中の運動を解析し、解析結果の情報である運度解析情報(入力情報、基本情報、第1解析情報、第2解析情報、左右差率、走行状態情報等)を生成する。運動解析部24が生成した運動解析情報は、ユーザーの走行中に、時刻順に記憶部30に記憶される。
また、運動解析部24は、生成した運動解析情報を用いて、ユーザーの走行中(具体的には慣性計測ユニット10が計測を開始してから終了するまでの間)に出力する情報である走行中出力情報を生成する。運動解析部24が生成した走行中出力情報は、通信部40を介して報知装置3に送信される。
また、運動解析部24は、走行中に生成した運動解析情報を用いて、ユーザーの走行終了時(具体的には慣性計測ユニット10の計測終了時)に、走行結果の情報である走行結果情報を生成する。運動解析部24が生成した走行結果情報は、通信部40を介して報知装置3に送信される。
3−3−3.慣性航法演算部の機能構成
第3実施形態における慣性航法演算部22の構成例は、第1実施形態(図9)と同様で
あるため、その図示を省略する。第3実施形態でも、第1実施形態と同様に、慣性航法演算部22は、バイアス除去部210、積分処理部220、誤差推定部230、走行処理部240及び座標変換部250を含み、これらの各機能は第1実施形態と同様であるため、その説明を省略する。
3−3−4.運動解析部の機能構成
図56は、第3実施形態における運動解析部24の構成例を示す機能ブロック図である。第3実施形態では、運動解析部24は、特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272、算出部291、左右差率算出部278、判定部279及び出力情報生成部280を含む。ただし、本実施形態の運動解析部24は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。特徴点検出部260、接地時間・衝撃時間算出部262、基本情報生成部272及び左右差率算出部278の各機能は、第1実施形態と同様であるため、その説明を省略する。
算出部291は、慣性計測ユニット10の計測結果(慣性センサーの検出結果の一例)を用いて、ユーザーの走行に関する指標を算出する。図56に示される例では、算出部291は、第1解析情報生成部274及び第2解析情報生成部276を含んで構成されている。第1解析情報生成部274及び第2解析情報生成部276の各機能は、第1実施形態と同様であるため、その説明を省略する。
判定部279は、ユーザーの走行状態を計測する。走行状態は、走行速度及び走行環境の少なくとも一方であってもよい。走行環境は、走行路の傾斜の状態、走行路のカーブの状態、天候、気温などであってもよい。本実施形態においては、走行状態として、走行速度と走行路の傾斜の状態を採用している。例えば、判定部279は、慣性航法演算部22が出力する演算データに基づいて、走行速度を「高速」、「中速」、「低速」のいずれであるかを判定してもよい。また例えば、判定部279は、慣性航法演算部22が出力する演算データに基づいて、走行路の傾斜の状態を「登り」、「ほぼ平坦」、「下り」のいずれであるかを判定してもよい。判定部279は、例えば、演算データに含まれる姿勢角(ピッチ角)のデータに基づいて走行路の傾斜の状態を判定してもよい。判定部279は、ユーザーの走行状態に関する情報である走行状態情報を出力情報生成部280に出力する。
出力情報生成部280は、基本情報、入力情報、第1解析情報、第2解析情報、左右差率、走行状態情報等を用いて、ユーザーの走行中に出力する情報である走行中出力情報を生成する処理を行う。また、出力情報生成部280は、上述の運動指標と、走行状態情報とを関連付けて走行中出力情報を生成する。
また、出力情報生成部280は、基本情報、入力情報、第1解析情報、第2解析情報、左右差率、走行状態情報等を用いて、ユーザーの走行結果の情報である走行結果情報を生成する。また、出力情報生成部280は、上述の運動指標と、走行状態情報とを関連付けて走行結果情報を生成する。
また、出力情報生成部280は、通信部40を介して、ユーザーの走行中に、走行中出力情報を報知装置3に送信し、ユーザーの走行終了時に、走行結果情報を報知装置3及び情報表示装置4Bに送信する。また、出力情報生成部280は、情報表示装置4Bに、基本情報、入力情報、第1解析情報、第2解析情報、左右差率、走行状態情報等それぞれの運動解析情報を送信してもよい。
図57は、走行結果情報及び運動解析情報のデータテーブルの構成例を示す図である。図57に示すように、走行結果情報及び運動解析情報のデータテーブルは、時刻、走行状
態情報(走行速度及び走行路の傾斜)及び指標(推進効率1など)が対応付けられて時系列に並べられて構成される。
3−3−5.入力情報
入力情報の各項目の詳細については、第1実施形態の「1−3−5.入力情報」で説明したため、ここでは説明を省略する。
3−3−6.第1解析情報
第1解析情報生成部274により算出される第1解析情報の各項目の詳細については、第1実施形態の「1−3−6.第1解析情報」で説明したため、ここでは説明を省略する。第1解析情報の各項目は、ユーザーの走行状態(運動状態の一例)を表す項目である。
3−3−7.第2解析情報
第2解析情報生成部276により算出される第2解析情報の各項目の詳細については、第1実施形態の「1−3−7.第2解析情報」で説明したため、ここでは説明を省略する。
3−3−8.左右差率(左右バランス)
左右差率算出部278により算出される左右差率の詳細については、第1実施形態の「1−3−8.左右差率(左右バランス)」で説明したため、ここでは説明を省略する。
3−3−9.処理の手順
図14は、第3実施形態における処理部20が行う運動解析処理の手順の一例を示すフローチャートは、第1実施形態(図14)と同様であるため、その図示及び説明を省略する。なお、第3実施形態において、処理部20が実行する運動解析プログラム300は、本発明に係る情報表示プログラムの一部であってもよい。また、運動解析処理の一部は、本発明に係る情報表示方法の算出工程(慣性センサーの検出結果を用いて、ユーザーの走行に関する指標を算出する工程)又は判定工程(ユーザーの走行速度および前記走行環境の少なくとも一方を計測する工程)に相当する。
また、第3実施形態における慣性航法演算処理(図14のS40の処理)の手順の一例を示すフローチャートも、第1実施形態(図15)と同様であるため、その図示及び説明を省略する。
また、第3実施形態における走行検出処理(図15のS120の処理)の手順の一例を示すフローチャートも、第1実施形態(図16)と同様であるため、その図示及び説明を省略する。
図58は、第3実施形態における運動解析情報生成処理(図14のS50の処理)の手順の一例を示すフローチャート図である。処理部20(運動解析部24)は、記憶部30に記憶されている運動解析情報生成プログラム304を実行することにより、例えば図58のフローチャートの手順で運動解析情報生成処理を実行する。
図58に示される運動解析方法は、慣性計測ユニット10の計測結果、ユーザーの走行に関する指標を算出する算出工程(S350、S360)を含む。
図58に示すように、まず、処理部20は、第1実施形態(図17)と同様に、S300〜S370の処理を行う。
次に処理部20は、走行状態情報を生成する(S380)。
次に、処理部20は、S300〜S380で算出した各情報に現在の計測時刻と走行状態情報を付加して記憶部30に記憶(S390)し、運動解析情報生成処理を終了する。
3−4.報知装置
3−4−1.報知装置の構成
図59は、第2実施形態における報知装置3の構成例を示す機能ブロック図である。図59に示すように、報知装置3は、出力部110、処理部120、記憶部130、通信部140、操作部150及び計時部160を含んで構成されている。ただし、本実施形態の報知装置3は、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。記憶部130、操作部150及び計時部160の各機能は、第1実施形態と同様であるため、その説明を省略する。
通信部140は、運動解析装置2の通信部40(図54参照)との間でデータ通信を行うものであり、処理部120から操作データに応じたコマンド(計測開始/計測終了のコマンド等)を受け取って運動解析装置2の通信部40に送信する処理、運動解析装置2の通信部40から送信された走行中出力情報や走行結果情報を受信して処理部120に送る処理等を行う。
出力部110は、処理部120から送られる種々の情報を出力する。図59に示される例では、出力部110は、表示部170、音出力部180及び振動部190を含んで構成されている。表示部170、音出力部180及び振動部190の各機能は、第1実施形態と同様であるため、その説明を省略する。
処理部120は、例えば、CPU、DSP、ASIC等により構成され、記憶部130(記録媒体)に記憶されているプログラムを実行することにより、各種の演算処理や制御処理を行う。例えば、処理部120は、操作部150から受け取った操作データに応じた各種処理(計測開始/計測終了のコマンドを通信部140に送る処理や操作データに応じた表示処理や音出力処理等)、通信部140から走行中出力情報を受け取り、運動解析情報に応じたテキストデータや画像データを生成して表示部170に送る処理、運動解析情報に応じた音データを生成して音出力部180に送る処理、運動解析情報に応じた振動データを生成して振動部190に送る処理を行う。また、処理部120は、計時部160から受け取った時刻情報に応じた時刻画像データを生成して表示部170に送る処理等を行う。
処理部120は、例えば、基準値よりも悪い運動指標があれば音や振動により報知するとともに、基準値よりも悪い運動指標の値を表示部170に表示させる。処理部120は、基準値よりも悪い運動指標の種類に応じて異なる種類の音や振動を発生させてもよいし、運動指標毎に基準値よりも悪い程度によって音や振動の種類を変えてもよい。基準値よりも悪い運動指標が複数存在する場合、処理部120は、最も悪い運動指標に応じた種類の音や振動を発生させるとともに、例えば、図19(A)に示すように、基準値よりも悪いすべての運動指標の値と基準値の情報を表示部170に表示させてもよい。
基準値と比較する運動指標は、走行中出力情報に含まれるすべての運動指標であってもよいし、予め決められた特定の運動指標のみであってもよいし、ユーザーが操作部150等を操作して選択可能にしてもよい。
ユーザーは、表示部170に表示される情報を見なくても、音や振動の種類から、どの技術仕様が最も悪く、どの程度悪いのかを把握しながら走行を継続することができる。さらに、ユーザーは、表示部170に表示される情報を見れば、基準値よりも悪いすべての
運動指標の値と当該基準値との差を正確に認識することもできる。
また、音や振動を発生させる対象の運動指標は、ユーザーが操作部150等を操作して、基準値と比較する運動指標の中から選択可能にしてもよい。この場合も、例えば、基準値よりも悪いすべての運動指標の値と基準値の情報を表示部170に表示させてもよい。
また、ユーザーが操作部150を介して報知周期の設定(例えば、1分毎に5秒間音や振動を発生させる等の設定)を行い、処理部120が設定された報知周期に応じてユーザーに報知してもよい。
また、本実施形態では、処理部120は、通信部140を介して、運動解析装置2から送信された走行結果情報を取得し、表示部170に走行結果情報を表示する。例えば、図19(B)に示すように、処理部120は、走行結果情報に含まれる、ユーザーの走行中における各運動指標の平均値を表示部170に表示する。ユーザーは、走行終了後(計測終了操作を行った後)に、表示部170を見れば、各運動指標の良し悪しをすぐに認識することができる。
3−4−2.処理の手順
図60は、第3実施形態における処理部120が行う報知処理の手順の一例を示すフローチャート図である。処理部120は、記憶部130に記憶されているプログラムを実行することにより、例えば図60のフローチャートの手順で報知処理を実行する。
図60に示すように、処理部120は、まず、処理部120は、操作部150から計測開始の操作データを取得するまで待機し(S410のN)、計測開始の操作データを取得した場合(S410のY)、通信部140を介して、計測開始のコマンドを運動解析装置2に送信する(S420)。
次に、処理部120は、操作部150から計測終了の操作データを取得するまでは(S470のN)、通信部140を介して、運動解析装置2から走行中出力情報を取得する毎に(S430のY)、取得した走行中出力情報に含まれる各運動指標の値をS400で取得した各基準値と比較する(S440)。
基準値よりも悪い運動指標が存在する場合(S450のY)、処理部120は、基準値よりも悪い運動指標の情報を生成し、音出力部180、振動部190及び表示部170を介して音、振動、文字等によりユーザーに報知する(S460)。
一方、基準値よりも悪い運動指標が存在しない場合(S450のN)、処理部120は、S460の処理を行わない。
そして、処理部120は、操作部150から計測終了の操作データを取得すると(S470のY)、通信部140を介して、運動解析装置2から走行結果情報を取得して表示部170に表示させて(S480)、報知処理を終了する。
このように、ユーザーは、S450で報知される情報に基づき、走行状態を認識しながら走行することができる。また、ユーザーは、S480で表示される情報に基づき、走行終了後、直ちに走行結果を認識することができる。
3−5−1.情報表示装置の構成
図61は、情報表示装置4Bの構成例を示す機能ブロック図である。図61に示すように、情報表示装置4Bは、第1実施形態における運動解析装置2と同様、処理部420、
記憶部430、通信部440、操作部450、通信部460、表示部470及び音出力部480を含んで構成されている。ただし、本実施形態の情報表示装置4Bは、これらの構成要素の一部を削除又は変更し、あるいは、他の構成要素を追加した構成であってもよい。
通信部440は、運動解析装置2の通信部40(図54参照)や報知装置3の通信部140(図59参照)との間でデータ通信を行うものであり、操作データに応じて指定された運動解析情報(登録対象の走行データに含まれる運動解析情報)の送信を要求する送信要求コマンドを処理部420から受け取って運動解析装置2の通信部40に送信し、当該運動解析情報を運動解析装置2の通信部40から受信して処理部420に送る処理等を行う。
通信部460は、サーバー5との間でデータ通信を行うものであり、処理部420から登録対象の走行データを受け取ってサーバー5に送信する処理(走行データの登録処理)、走行データの編集、削除、入れ替え等の操作データに応じた管理情報を処理部420から受け取ってサーバー5に送信する処理等を行う。
操作部450は、ユーザーからの操作データ(走行データの登録、編集、削除、入れ替え等の操作データ等)を取得し、処理部420に送る処理を行う。操作部450は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
表示部470は、処理部420から送られてきた画像データやテキストデータを、文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部470は、例えば、LCD、有機ELディスプレイ、EPD等のディスプレイで実現され、タッチパネル型ディスプレイであってもよい。なお、1つのタッチパネル型ディスプレイで操作部450と表示部470の機能を実現するようにしてもよい。本実施形態における表示部470は、ユーザーの走行状態(ユーザーの走行速度および走行環境の少なくとも一方)に関する情報である走行状態情報と、ユーザーの走行に関する指標とを関連付けて表示する。
音出力部480は、処理部420から送られてきた音データを、音声やブザー音等の音として出力するものである。音出力部480は、例えば、スピーカーやブザーなどで実現される。
記憶部430は、例えば、ROMやフラッシュROM、ハードディスクやメモリーカード等のプログラムやデータを記憶する記録媒体や、処理部420の作業領域となるRAM等により構成される。記憶部430(いずれかの記録媒体)には、処理部420によって読み出され、表示処理(図62参照)を実行するための表示プログラム436が記憶されている。
処理部420は、例えば、CPU、DSP、ASIC等により構成され、記憶部430(記録媒体)に記憶されている各種プログラムを実行することにより、各種の演算処理や制御処理を行う。例えば、処理部420は、操作部450から受け取った操作データに応じて指定された運動解析情報の送信を要求する送信要求コマンドを、通信部440を介して運動解析装置2に送信し、通信部440を介して当該運動解析情報を運動解析装置2から受信する処理や、操作部450から受け取った操作データに応じて、運動解析装置2から受信した運動解析情報を含む走行データを生成し、通信部460を介してサーバー5に送信する処理を行う。また、処理部420は、操作部450から受け取った操作データに応じた管理情報を、通信部460を介してサーバー5に送信する処理を行う。
特に、本実施形態では、処理部420は、記憶部430に記憶されている表示プログラム436を実行することにより、運動解析情報取得部422及び表示制御部429として機能する。ただし、処理部420は、ネットワーク等を介して、任意の記憶装置(記録媒体)に記憶されている表示プログラム436を受信して実行してもよい。
運動解析情報取得部422は、サーバー5のデータベースから(あるいは運動解析装置2から)、分析対象のユーザーの運動の解析結果の情報である運動解析情報を取得する処理を行う。運動解析情報取得部422が取得した運動解析情報は記憶部430に記憶される。この運動解析情報は、同一の運動解析装置2が生成したものであってもよいし、複数の異なる運動解析装置2のいずれかが生成したものであってもよい。運動解析情報取得部422が取得する複数の運動解析情報は、ユーザーの各種の運動指標(例えば、上述した各種の運動指標)と走行状態情報とが関連付けられて構成されている。
表示制御部429は、運動解析情報取得部422が取得した運動解析情報に基づいて、表示部470を制御する表示処理を行う。
3−5−2.処理の手順
図62は、処理部420が行う表示処理の手順の一例を示すフローチャート図である。処理部420は、記憶部430に記憶されている表示プログラム436を実行することにより、例えば図62のフローチャートの手順で表示処理を実行する。表示プログラム436は、本発明に係る情報表示プログラムの一部であってもよい。また、表示処理の一部は、本発明に係る情報表示方法の表示工程(ユーザーの走行状態(走行速度および走行環境の少なくとも一方)に関する情報である走行状態情報と、ユーザーの走行に関する指標とを関連付けて表示する)に相当する。
まず、処理部420は、運動解析情報を取得する(S500)。本実施形態においては、処理部420の運動解析情報取得部422が、通信部440を介して運動解析情報を取得する。
次に、処理部420は、運動解析情報を表示する(S510)。本実施形態においては、処理部420の運動解析情報取得部422が取得した運動能力情報に基づいて、処理部420の表示制御部429が運動解析情報を表示する。
これらの処理によって、表示部470は、ユーザーの走行状態(走行速度および走行環境の少なくとも一方)に関する情報である走行状態情報と、ユーザーの走行に関する指標とを関連付けて表示する。
図63は、表示部470に表示される運動解析情報の一例を示す図である。図63の例では、表示部470に表示される運動解析情報は、2人のユーザー(ユーザーA及びユーザーB)の分析対象の期間の走行における1つの運動指標(例えば、上述の推進効率1)を、相対評価した棒グラフを含む。図63の横軸は走行状態、縦軸は指標の相対評価値である。
図63の例では、各ユーザーの得意な走行状態や不得意な走行状態が分かる。例えば、ユーザーAは走行状態が登りである場合が不得意であることが分かる。したがって、ユーザーAは、登りの指標を重点的に改善することで、全体の走行タイムが短縮される可能性が高いことが分かる。これによって、効率的なトレーニングが可能となる。
3−6.効果
第3実施形態によれば、走行状態情報と指標とを関連付けて表示するので、主として走
行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示システム1Bを実現できる。
また、第3実施形態によれば、判定部279が走行状態を判定するので、ユーザーによる入力操作を減らすことができる情報表示システム1Bを実現できる。
また、第3実施形態によれば、フォームに影響を与えやすい走行速度や走行路の傾斜の状態を走行状態として採用することによって、主として走行状態の違いに起因する異なるフォームの指標を分けて表示することができる。したがって、ユーザーの走行に関する指標を正確に把握できる情報表示システム1Bを実現できる。
4.変形例
本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。以下、変形例について説明する。なお、上記実施形態と同一の構成については同一の符号を付して再度の説明を省略する。
4−1.センサー
上記の各実施形態では、加速度センサー12と角速度センサー14が慣性計測ユニット10として一体化されて運動解析装置2に内蔵されているが、加速度センサー12と角速度センサー14は一体化されていなくてもよい。あるいは、加速度センサー12と角速度センサー14とが運動解析装置2に内蔵されずに、ユーザーに直接装着されてもよい。いずれの場合でも、例えば、いずれか一方のセンサー座標系を上記の実施形態のbフレームとして、他方のセンサー座標系を当該bフレームに変換し、上記の実施形態を適用すればよい。
また、上記の各実施形態では、センサー(運動解析装置2(IMU10))のユーザーへの装着部位を腰として説明したが、腰以外の部位に装着することとしてもよい。好適な装着部位はユーザーの体幹(四肢以外の部位)である。しかしながら、体幹に限らず、腕以外の例えばユーザーの頭や足に装着することとしてもよい。また、センサーは1つに限らず、追加のセンサーを体の別の部位に装着することとしてもよい。例えば、腰と足、腰と腕にセンサーを装着してもよい。
4−2.慣性航法演算
上記の各実施形態では、積分処理部220がeフレームの速度、位置、姿勢角及び距離を算出し、座標変換部250がこれをmフレームの速度、位置、姿勢角及び距離に座標変換しているが、積分処理部220がmフレームの速度、位置、姿勢角及び距離を算出してもよい。この場合、運動解析部24は、積分処理部220が算出したmフレームの速度、位置、姿勢角及び距離を用いて運動解析処理を行えばよいので、座標変換部250による速度、位置、姿勢角及び距離の座標変換が不要になる。また、誤差推定部230はmフレームの速度、位置及び姿勢角を用いて拡張カルマンフィルターによる誤差推定を行ってもよい。
また、上記の各実施形態では、慣性航法演算部22は、GPS衛星からの信号を用いて慣性航法演算の一部を行っているが、GPS以外の全地球航法衛星システム(GNSS:Global Navigation Satellite System)の測位用衛星やGNSS以外の測位用衛星からの信号を用いてもよい。例えば、WAAS(Wide Area Augmentation System)、QZSS(Quasi Zenith Satellite System)、GLONASS(GLObal NAvigation Satellite System)、GALILEO、BeiDou(BeiDou Navigation Satellite System)といった衛星測位システムのうち1つ、あるいは2つ以上を利用してもよい。また、屋内測位
システム(IMES:Indoor Messaging System)等を利用してもよい。
また、上記の各実施形態では、走行検出部242は、ユーザーの上下動の加速度(z軸加速度)が閾値以上で極大値となるタイミングで走行周期を検出しているが、これに限らず、例えば、上下動の加速度(z軸加速度)が正から負に変化するタイミング(又は負から正に変化するタイミング)で走行周期を検出してもよい。あるいは、走行検出部242は、上下動の加速度(z軸加速度)を積分して上下動の速度(z軸速度)を算出し、算出した上下動の速度(z軸速度)を用いて走行周期を検出してもよい。この場合、走行検出部242は、例えば、当該速度が、極大値と極小値の中央値付近の閾値を値の増加によって、あるいは値の減少によってクロスするタイミングで走行周期を検出してもよい。また、例えば、走行検出部242は、x軸、y軸、z軸の合成加速度を算出し、算出した合成加速度を用いて走行周期を検出してもよい。この場合、走行検出部242は、例えば、当該合成加速度が、極大値と極小値の中央値付近の閾値を値の増加によって、あるいは値の減少によってクロスするタイミングで走行周期を検出してもよい。
また、上記の各実施形態では、誤差推定部230は、速度、姿勢角、加速度、角速度及び位置を状態変数とし、拡張カルマンフィルターを用いてこれらの誤差を推定しているが、速度、姿勢角、加速度、角速度及び位置の一部を状態変数として、その誤差を推定してもよい。あるいは、誤差推定部230は、速度、姿勢角、加速度、角速度及び位置以外のもの(例えば、移動距離)を状態変数として、その誤差を推定してもよい。
また、上記の各実施形態では、誤差推定部230による誤差の推定に拡張カルマンフィルターを用いているが、パーティクルフィルターやH∞(Hインフィニティー)フィルター等の他の推定手段に代えてもよい。
4−3.運動解析処理
上記の各実施形態では、運動解析装置2が運動解析情報(運動指標)の生成処理を行っているが、運動解析装置2は慣性計測ユニット10の計測データあるいは慣性航法演算の演算結果(演算データ)をサーバー5に送信し、サーバー5が当該計測データあるいは当該演算データを用いて、運動解析情報(運動指標)の生成処理を行い(運動解析装置として機能し)、データベースに記憶させてもよい。
また、例えば、運動解析装置2は、ユーザーの生体情報を用いて運動解析情報(運動指標)を生成してもよい。生体情報としては、例えば、皮膚温度、中心部温度、酸素消費量、拍動間変異、心拍数、脈拍数、呼吸数、皮膚温度、中心部体温、熱流、電気皮膚反応、筋電図(EMG)、脳電図(EEG)、眼電図(EOG)、血圧、酸素消費量、活動、拍動間変異、電気皮膚反応などが考えられる。運動解析装置2が生体情報を測定する装置を備えていてもよいし、測定装置が測定した生体情報を運動解析装置2が受信してもよい。例えば、ユーザーが腕時計型の脈拍計を装着し、あるいは、ハートレーセンサーをベルトで胸に巻き付けて走行し、運動解析装置2が、当該脈拍計あるいは当該ハートレーセンサーの計測値を用いて、ユーザーの走行中の心拍数を算出してもよい。
また、上記各実施形態では、運動解析情報に含まれる各運動指標は、ユーザーの技術力に関する指標であるが、運動解析情報は持久力に関する運動指標を含んでもよい。例えば、運動解析情報は、持久力に関する運動指標として、(心拍数−安静時心拍数)÷(最大心拍数−安静時心拍数)×100で計算される予備心拍数(HRR:Heart Rate Reserved)を含んでもよい。例えば、各選手が走行を行う毎に報知装置3を操作して心拍数、最大心拍数、安静時心拍数を入力し、あるいは、心拍計を装着して走行し、運動解析装置2が報知装置3あるいは心拍計から心拍数、最大心拍数、安静時心拍数の値を取得して予備心拍数(HRR)の値を計算してもよい。
また、上記各実施形態では、人の走行における運動解析を対象としているが、これに限らず、動物や歩行ロボット等の移動体の歩行や走行における運動解析にも同様に適用することができる。また、走行に限らず、登山、トレイルラン、スキー(クロスカントリーやスキージャンプも含む)、スノーボード、水泳、自転車の走行、スケート、ゴルフ、テニス、野球、リハビリテーション等の多種多様な運動に適用することができる。一例としてスキーに適用する場合、例えば、スキー板に対する加圧時の上下方向加速度のばらつきから綺麗にカービングできたかスキー板がずれたかを判定してもよいし、スキー板に対する加圧時及び抜重時の上下方向加速度の変化の軌跡から右足と左足との差や滑りの能力を判定してもよい。あるいは、ヨー方向の角速度の変化の軌跡がどの程度サイン波に近いかを解析し、ユーザーがスキー板に乗れているかどうかを判断してもよいし、ロール方向の角速度の変化の軌跡がどの程度サイン波に近いかを解析し、スムーズな滑りができているかどうかを判断してもよい。
4−4.報知処理
上記の各実施形態では、報知装置3は、目標値あるいは基準値よりも悪い運動指標が存在する場合に、音や振動によりユーザーに報知しているが、目標値あるいは基準値よりも良い運動指標が存在する場合に、音や振動によりユーザーに報知してもよい。
また、上記の各実施形態では、報知装置3が各運動指標の値と目標値あるいは基準値との比較処理を行っているが、運動解析装置2が、この比較処理を行い、比較結果に応じて報知装置3の音や振動の出力や表示を制御してもよい。
また、上記の各実施形態では、報知装置3は、腕時計型の機器であるが、これに限らず、ユーザーに装着される腕時計型以外の携帯機器(ヘッドマウントディスプレイ(HMD)やユーザーの腰に装着した機器(運動解析装置2でもよい)等)や装着型でない携帯機器(スマートフォン等)でもよい。報知装置3がヘッドマウントディスプレイ(HMD)である場合、その表示部は腕時計型の報知装置3の表示部よりも十分に大きく視認性がよいため、ユーザーが見ても走行の妨げになりにくいので、例えば、ユーザーの現在までの走行推移の情報(図29に示したような情報)を表示してもよいし、タイム(ユーザーが設定したタイム、自己記録、有名人の記録、世界記録等)に基づいて作成した仮想ランナーが走行する映像を表示してもよい。
4−5.その他
上記の第1実施形態では、情報分析装置4が分析処理を行っているが、サーバー5が分析処理を行い(情報分析装置として機能し)、サーバー5がネットワークを介して表示装置に分析情報を送信してもよい。
また、上記の第2実施形態では、画像生成装置4Aが画像生成処理を行っているが、サーバー5が画像生成処理を行い(画像生成装置として機能し)、サーバー5がネットワークを介して表示装置に画像情報を送信してもよい。あるいは、運動解析装置2が、画像生成処理を行い(画像生成装置として機能し)、報知装置3又は任意の表示装置に画像情報を送信してもよい。あるいは、報知装置3が画像生成処理を行い(画像生成装置として機能し)、生成した画像情報を表示部170に表示させてもよい。画像生成装置4Aあるいは画像生成装置として機能する運動解析装置2や報知装置3は、ユーザーの走行終了後(計測終了後)に画像処理を行ってもよい。あるいは、画像生成装置4A又は画像生成装置として機能する運動解析装置2や報知装置3が、ユーザーの走行中に画像生成処理を行い、生成された画像がユーザーの走行中にリアルタイムに表示されてもよい。
また、上記の第2実施形態では、画像生成装置4Aの処理部420(画像情報生成部4
28)は、1歩毎に画像データを生成して表示を更新しているが、これに限られず、例えば、任意の間隔(例えば10分)毎に、特徴点別に各運動指標の平均値を計算し、計算結果の各運動指標の平均値を用いて、各画像データを生成してもよい。あるいは、画像生成装置4Aの処理部420(画像情報生成部428)は、ユーザーが走行を開始してから終了するまで(計測開始から計測終了まで)の間、特徴点別に各運動指標の平均値を計算し、計算結果の各運動指標の平均値を用いて、各画像データを生成してもよい。
また、上記の第2実施形態では、画像生成装置4Aの処理部420(画像情報生成部428)は、立脚中期の画像データの生成において、運動解析情報に含まれる上下方向距離の値を用いて、運動指標である腰の落ちの値を計算しているが、運動解析装置2の処理部20(運動解析部24)が運動指標の一つとして腰の落ちの値も含む運動解析情報を生成してもよい。
また、上記の第2実施形態では、画像生成装置4Aの処理部420(画像情報生成部428)が、運動解析情報を用いてユーザーの運動の特徴点を検出しているが、運動解析装置2の処理部20が画像生成処理に必要な特徴点を検出し、検出した特徴点の情報を含む運動解析情報を生成してもよい。例えば、運動解析装置2の処理部20は、特徴点を検出した時刻のデータに特徴点の種類毎に異なる検出フラグを付加することにより、特徴点の情報を含む運動解析情報を生成してもよい。そして、画像生成装置4Aの処理部420(画像情報生成部428)は当該運動情報に含まれる特徴点の情報を用いて、画像生成処理を行ってもよい。
また、上記の各実施形態では、ユーザーの走行データ(運動解析情報)は、サーバー5のデータベースに記憶されるが、情報分析装置4、画像生成装置4Aあるいは情報表示装置4Bの記憶部430に構築されたデータベースに記憶されてもよい。すなわち、サーバー5は無くてもよい。
例えば、運動解析装置2又は報知装置3は、入力情報又は解析情報からユーザーの得点を計算して、走行中または走行後に報知しても良い。例えば、各運動指標の数値を複数段階(例えば5段階または10段階)に区分し、各段階に対して得点を定めておけばよい。また、例えば、運動解析装置2又は報知装置3は、成績の良かった運動指標の種類や数に応じて得点を付与し、あるいは、総合得点を計算し、表示してもよい。
また、上記の各実施形態では、GPSユニット50は運動解析装置2に設けられているが、報知装置3に設けられていてもよい。この場合、報知装置3の処理部120がGPSユニット50からGPSデータを受け取って通信部140を介して運動解析装置2に送信し、運動解析装置2の処理部20が通信部40を介してGPSデータを受信し、受信したGPSデータをGPSデータテーブル320に付加すればよい。
また、上記の各実施形態では、運動解析装置2と報知装置3が別体となっているが、運動解析装置2と報知装置3が一体化された運動解析装置であってもよい。
また、上記の第3実施形態では、運動解析装置2と情報表示装置4Bが別体となっているが、運動解析装置2と情報表示装置4Bが一体化された情報表示装置であってもよい。
また、上記の各実施形態では、運動解析装置2がユーザーに装着されているが、これに限らず、慣性計測ユニット(慣性センサー)やGPSユニットをユーザーの胴体等に装着し、慣性計測ユニット(慣性センサー)やGPSユニットはそれぞれ検出結果をスマートフォン等の携帯情報機器やパーソナルコンピューター等の設置型の情報機器、あるいは、ネットワークを介してサーバーに送信し、これらの機器が受信した検出結果を用いてユー
ザーの運動を解析してもよい。あるいは、ユーザーの胴体等に装着された慣性計測ユニット(慣性センサー)やGPSユニットが検出結果をメモリーカード等の記録媒体に記録し、当該記録媒体をスマートフォンやパーソナルコンピューター等の情報機器が当該記録媒体から検出結果を読み出して運動解析処理を行ってもよい。
上述した各実施形態および各変形例は一例であって、これらに限定されるわけではない。例えば、各実施形態および各変形例を適宜組み合わせることも可能である。
本発明は、実施の形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施の形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施の形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施の形態で説明した構成に公知技術を付加した構成を含む。
1 運動解析システム、1B 情報表示システム、2 運動解析装置、3 報知装置、4
情報分析装置、4A 画像生成装置、4B 情報表示装置、5 サーバー、10 慣性計測ユニット(IMU)、12 加速度センサー、14 角速度センサー、16 信号処理部、20 処理部、22 慣性航法演算部、24 運動解析部、30 記憶部、40 通信部、50 GPSユニット、60 地磁気センサー、110 出力部、120 処理部、130 記憶部、140 通信部、150 操作部、160 計時部、170 表示部、180 音出力部、190 振動部、210 バイアス除去部、220 積分処理部、230 誤差推定部、240 走行処理部、242 走行検出部、244 歩幅算出部、246 ピッチ算出部、250 座標変換部、260 特徴点検出部、262 接地時間・衝撃時間算出部、272 基本情報生成部、274 第1解析情報生成部、276 第2解析情報生成部、278 左右差率算出部、279 判定部、280 出力情報生成部、282 取得部、291 算出部、300 運動解析プログラム、302 慣性航法演算プログラム、304 運動解析情報生成プログラム、310 センシングデータテーブル、320 GPSデータテーブル、330 地磁気データテーブル、340 算出データテーブル、350 運動解析情報、351 入力情報、352 基本情報、353 第1解析情報、354 第2解析情報、355 左右差率、356 走行状態情報、420 処理部、422 運動解析情報取得部、424 分析情報生成部、426 目標値取得部、428 画像情報生成部、429 表示制御部、430 記憶部、432 分析プログラム、434 画像生成プログラム、436 表示プログラム、440 通信部、450 操作部、460 通信部、470 表示部、480 音出力部

Claims (34)

  1. 複数のユーザーの運動の解析結果の情報である複数の運動解析情報を取得する運動解析情報取得部と、
    前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成する分析情報生成部と、を含む、情報分析装置。
  2. 前記分析情報生成部は、
    前記複数のユーザーが前記運動を実施した毎に前記複数のユーザーの運動能力を比較可能な前記分析情報を生成する、請求項1に記載の情報分析装置。
  3. 前記複数のユーザーは、複数のグループに分類され、
    前記分析情報生成部は、
    前記複数のユーザーの運動能力を前記グループごとに比較可能な前記分析情報を生成する、請求項1又は2に記載の情報分析装置。
  4. 前記複数の運動解析情報の各々は、前記複数のユーザーの各々の運動能力に関係する指標の値を含み、
    前記分析情報生成部は、
    前記複数のユーザーの前記指標の値を用いて、前記複数のユーザーに含まれる第1のユーザーの運動能力を相対的に評価可能な前記分析情報を生成する、請求項1乃至3のいずれか一項に記載の情報分析装置。
  5. 前記複数の運動解析情報の各々は、前記複数のユーザーの各々の運動能力に関係する指標の値を含み、
    前記情報分析装置は、
    前記複数のユーザーに含まれる第1のユーザーの前記指標の目標値を取得する目標値取得部を含み、
    前記分析情報生成部は、
    前記第1のユーザーの前記指標の値と前記目標値とを比較可能な前記分析情報を生成する、請求項1乃至4のいずれか一項に記載の情報分析装置。
  6. 前記指標は、接地時間、ストライド、エネルギー、真下着地率、推進効率、脚の流れ、着地時ブレーキ量、着地衝撃の少なくとも1つである、請求項4又は5のいずれか一項に記載の情報分析装置。
  7. 前記運動能力は、技術力または持久力である、請求項1乃至6のいずれか一項に記載の情報分析装置。
  8. 慣性センサーの検出結果を用いてユーザーの運動を解析し、解析結果の情報である運動解析情報を生成する運動解析装置と、
    請求項5に記載の情報分析装置と、を含む、運動解析システム。
  9. 前記複数のユーザーに含まれる第1のユーザーの運動中に運動状態に関する情報を報知する報知装置を含み、
    前記情報分析装置は、
    前記目標値を前記報知装置に送信し、
    前記運動解析装置は、
    前記第1のユーザーの運動中に前記指標の値を前記報知装置に送信し、
    前記報知装置は、
    前記目標値及び前記指標の値を受信して前記指標の値を前記目標値と比較し、比較結果に応じて前記運動状態に関する情報を報知する、請求項8に記載の運動解析システム。
  10. 前記報知装置は、
    前記運動状態に関する情報を音又は振動によって報知する、請求項9に記載の運動解析システム。
  11. 複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果である複数の運動解析情報を取得することと、
    前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成することと、を含む、情報分析方法。
  12. 複数のユーザーの運動を慣性センサーの検出結果を用いて解析した結果である複数の運動解析情報を取得することと、
    前記複数の運動解析情報を用いて、前記複数のユーザーの運動能力を比較可能な分析情報を生成することと、をコンピューターに実行させる、分析プログラム。
  13. 慣性センサーの検出結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得する運動解析情報取得部と、
    前記ユーザーの走行を表すユーザーオブジェクトの画像データに前記運動解析情報を関連付けた画像情報を生成する画像情報生成部と、を含む、画像生成装置。
  14. 前記運動解析情報は、前記ユーザーの運動能力に関する少なくとも1つの指標の値を含む、請求項13に記載の画像生成装置。
  15. 前記画像情報生成部は、
    前記運動解析情報を用いて、前記ユーザーの運動能力に関する少なくとも1つの指標の値を算出する、請求項13に記載の画像生成装置。
  16. 前記運動解析情報は、前記ユーザーの姿勢角の情報を含み、
    前記画像情報生成部は、
    前記指標の値と前記姿勢角の情報とを用いて、前記画像情報を生成する、請求項14又は15に記載の画像生成装置。
  17. 前記画像情報生成部は、
    前記画像データと比較するための比較用画像データを生成し、前記画像データと前記比較用画像データとを含む前記画像情報を生成する、請求項13乃至16のいずれか一項に記載の画像生成装置。
  18. 前記画像データは、前記ユーザーの運動の特徴点における運動状態を表す画像データである、請求項13乃至17のいずれか一項に記載の画像生成装置。
  19. 前記特徴点は、
    前記ユーザーの足が着地した時、立脚中期の時又は蹴り出す時である、請求項18に記載の画像生成装置。
  20. 前記画像情報生成部は、
    前記ユーザーの運動の複数種類の特徴点における運動状態をそれぞれ表す複数の前記画像データを含む前記画像情報を生成する、請求項13乃至17のいずれか一項に記載の画像生成装置。
  21. 前記複数種類の前記特徴点の少なくとも1つは、
    前記ユーザーの足が着地した時、立脚中期の時又は蹴り出す時である、請求項20に記載の画像生成装置。
  22. 前記画像情報は、前記複数の前記画像データが時間軸上又は空間軸上に並べて配置されている、請求項20又は21に記載の画像生成装置。
  23. 前記画像情報生成部は、
    前記複数の前記画像データを時間軸上又は空間軸上で補完する複数の補完用画像データを生成し、前記複数の前記画像データと前記複数の補完用画像データとを有する動画データを含む前記画像情報を生成する、請求項22に記載の画像生成装置。
  24. 前記慣性センサーは、前記ユーザーの胴体に装着される、請求項13乃至23のいずれか一項に記載の画像生成装置。
  25. 請求項13乃至24のいずれか一項に記載の画像生成装置と、前記運動解析情報を生成する運動解析装置と、を含む、運動解析システム。
  26. 慣性センサーの検出結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得することと、
    前記ユーザーの走行を表すユーザーオブジェクトの画像データに前記運動解析情報を関連付けた画像情報を生成することと、を含む、画像生成方法。
  27. 慣性センサーの検出結果を用いて生成された、走行時におけるユーザーの運動解析情報を取得することと、
    前記ユーザーの走行を表すユーザーオブジェクトの画像データに前記運動解析情報を関連付けた画像情報を生成することと、をコンピューターに実行させる、画像生成プログラム。
  28. ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性センサーの検出結果を用いて算出された前記ユーザーの走行に関する指標とを関連付けて表示する表示部を含む、情報表示装置。
  29. 前記走行環境は、走行路の傾斜の状態である、請求項28に記載の情報表示装置。
  30. 前記指標は、真下着地、推進効率、脚の流れ、走行ピッチ、着地衝撃のいずれか1つである、請求項28又は29に記載の情報表示装置。
  31. 慣性センサーの検出結果を用いて、ユーザーの走行に関する指標を算出する算出部と、
    前記ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、前記指標とを関連付けて表示する表示部と、を含む、情報表示システム。
  32. 前記走行速度および前記走行環境の少なくとも一方を計測する判定部をさらに含む、請求項31に記載の情報表示システム。
  33. ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性センサーの検出結果を用いて算出された前記ユーザーの走行に関する指標とを関連付けて表示することをコンピューターに実行させる、情報表示プログラム。
  34. ユーザーの走行速度および走行環境の少なくとも一方に関する情報である走行状態情報と、慣性センサーの検出結果を用いて算出された前記ユーザーの走行に関する指標とを関連付けて表示することを含む、情報表示方法。
JP2015115212A 2014-07-31 2015-06-05 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法 Pending JP2016034481A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015115212A JP2016034481A (ja) 2014-07-31 2015-06-05 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法
US14/814,488 US20160029943A1 (en) 2014-07-31 2015-07-30 Information analysis device, exercise analysis system, information analysis method, analysis program, image generation device, image generation method, image generation program, information display device, information display system, information display program, and information display method
CN201510464399.3A CN105320278A (zh) 2014-07-31 2015-07-31 信息分析装置、运动解析系统、信息显示系统及显示方法

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2014157209 2014-07-31
JP2014157206 2014-07-31
JP2014157206 2014-07-31
JP2014157209 2014-07-31
JP2014157210 2014-07-31
JP2014157210 2014-07-31
JP2015115212A JP2016034481A (ja) 2014-07-31 2015-06-05 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法

Publications (1)

Publication Number Publication Date
JP2016034481A true JP2016034481A (ja) 2016-03-17

Family

ID=55178770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015115212A Pending JP2016034481A (ja) 2014-07-31 2015-06-05 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法

Country Status (3)

Country Link
US (1) US20160029943A1 (ja)
JP (1) JP2016034481A (ja)
CN (1) CN105320278A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019084113A (ja) * 2017-11-08 2019-06-06 カシオ計算機株式会社 走行データの表現方法、走行データ表示装置及び走行データ表示プログラム
JP2019531772A (ja) * 2016-08-09 2019-11-07 ビフレクス インコーポレイテッド 運動認識方法および装置
JP2020103653A (ja) * 2018-12-27 2020-07-09 パナソニックIpマネジメント株式会社 運動補助プログラムおよびこれを備える運動補助システム
WO2022085070A1 (ja) * 2020-10-20 2022-04-28 株式会社アシックス 運動分析装置、運動分析方法および運動分析プログラム
KR102489919B1 (ko) * 2022-06-03 2023-01-18 주식회사 원지랩스 보행 분석 방법 및 시스템

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101698578B1 (ko) * 2009-07-31 2017-01-20 코닌클리케 필립스 엔.브이. 트레이닝 프로그램을 대상에 제공하기 위한 방법 및 시스템
KR102336601B1 (ko) * 2015-08-11 2021-12-07 삼성전자주식회사 사용자의 활동 정보를 검출하기 위한 방법 및 그 전자 장치
WO2017064972A1 (ja) * 2015-10-14 2017-04-20 アルプス電気株式会社 ウェアラブル装置とその姿勢測定方法及びプログラム
FR3046475B1 (fr) * 2016-01-04 2018-01-12 Laoviland Experience Procede d'assistance a la manipulation d'au moins n variables de traitement graphique d'images
WO2017150599A1 (ja) * 2016-03-01 2017-09-08 株式会社ナカハラプリンテックス カレンダー
US20170301258A1 (en) * 2016-04-15 2017-10-19 Palo Alto Research Center Incorporated System and method to create, monitor, and adapt individualized multidimensional health programs
CN109313929A (zh) * 2016-04-15 2019-02-05 皇家飞利浦有限公司 注释与临床决策支持应用相关联的数据点
US11092441B2 (en) * 2016-06-02 2021-08-17 Bigmotion Technologies Inc. Systems and methods for walking speed estimation
CN107545229A (zh) * 2016-06-29 2018-01-05 卡西欧计算机株式会社 运动评价装置、运动评价方法以及记录介质
CN106123911A (zh) * 2016-08-06 2016-11-16 深圳市爱康伟达智能医疗科技有限公司 一种基于加速传感器和角速度传感器的记步方法
CN106799036B (zh) * 2017-02-24 2020-01-31 山东动之美实业有限公司 一种体能训练智能监测系统
CN109716802B (zh) * 2017-03-07 2021-01-29 华为技术有限公司 一种数据传输方法及装置
CN106932802A (zh) * 2017-03-17 2017-07-07 安科智慧城市技术(中国)有限公司 一种基于扩展卡尔曼粒子滤波的导航方法及系统
US10588517B2 (en) 2017-05-19 2020-03-17 Stmicroelectronics, Inc. Method for generating a personalized classifier for human motion activities of a mobile or wearable device user with unsupervised learning
US20200367789A1 (en) * 2018-01-05 2020-11-26 Interaxon Inc Wearable computing apparatus with movement sensors and methods therefor
CN108939505B (zh) * 2018-04-27 2019-12-10 玉环凯凌机械集团股份有限公司 跨栏比赛违规识别方法
CN108619701B (zh) * 2018-04-27 2019-12-10 玉环方济科技咨询有限公司 跨栏比赛违规识别系统
WO2019213399A1 (en) * 2018-05-04 2019-11-07 Baylor College Of Medicine Detecting frailty and foot at risk using lower extremity motor performance screening
JP2019213627A (ja) * 2018-06-11 2019-12-19 オリンパス株式会社 内視鏡装置、機能制限方法、及び機能制限プログラム
JP7262937B2 (ja) * 2018-06-29 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN109147905A (zh) * 2018-10-29 2019-01-04 天津市汇诚智慧体育科技有限公司 一种基于大数据的全人群智能步道系统
JP7205201B2 (ja) * 2018-12-05 2023-01-17 富士通株式会社 表示方法、表示プログラムおよび情報処理装置
CN110274582B (zh) * 2019-06-11 2021-04-09 长安大学 一种道路曲线识别方法
CN111182483B (zh) * 2019-12-16 2022-07-05 紫光展讯通信(惠州)有限公司 终端及其呼叫限制补充业务重置密码的方法和系统
FR3107589B1 (fr) * 2020-02-21 2022-03-18 Commissariat Energie Atomique Procédé de détermination de la position et de l’orientation d’un véhicule.
CN111450510A (zh) * 2020-03-30 2020-07-28 王顺正 跑步技术科技评估系统
CN111513723A (zh) * 2020-04-21 2020-08-11 咪咕互动娱乐有限公司 运动姿态监测方法、调整方法、装置和终端
CN112587903A (zh) * 2020-11-30 2021-04-02 珠海大横琴科技发展有限公司 一种基于深度学习的短跑运动员起跑训练方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060058155A1 (en) * 2004-09-13 2006-03-16 Harish Kumar System and a method for providing an environment for organizing interactive x events for users of exercise apparatus
US8066514B2 (en) * 2005-04-06 2011-11-29 Mark Anthony Clarke Automated processing of training data
US20070219059A1 (en) * 2006-03-17 2007-09-20 Schwartz Mark H Method and system for continuous monitoring and training of exercise
US20080146968A1 (en) * 2006-12-14 2008-06-19 Masuo Hanawaka Gait analysis system
ITBO20070701A1 (it) * 2007-10-19 2009-04-20 Technogym Spa Dispositivo per l'analisi ed il monitoraggio dell'attivita' fisica di un utente.
CN102015037A (zh) * 2008-04-09 2011-04-13 耐克国际有限公司 用于运动表现赛跑的系统和方法
EP2411101A4 (en) * 2009-03-27 2016-03-30 Infomotion Sports Technologies Inc MONITORING PHYSICAL TRAINING EVENTS
US20120184823A1 (en) * 2011-01-14 2012-07-19 Cycling & Health Tech Industry R & D Center Integrated health and entertainment management system for smart handheld device
US9011293B2 (en) * 2011-01-26 2015-04-21 Flow-Motion Research And Development Ltd. Method and system for monitoring and feed-backing on execution of physical exercise routines
JP5984002B2 (ja) * 2012-08-29 2016-09-06 カシオ計算機株式会社 運動支援装置、運動支援方法及び運動支援プログラム
US9171201B2 (en) * 2013-05-30 2015-10-27 Atlas Wearables, Inc. Portable computing device and analyses of personal data captured therefrom
JP6596945B2 (ja) * 2014-07-31 2019-10-30 セイコーエプソン株式会社 運動解析方法、運動解析装置、運動解析システム及び運動解析プログラム
JP2016034482A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 運動解析装置、運動解析方法、運動解析プログラム及び運動解析システム
JP2016032611A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 運動解析装置、運動解析システム、運動解析方法及び運動解析プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019531772A (ja) * 2016-08-09 2019-11-07 ビフレクス インコーポレイテッド 運動認識方法および装置
JP2019084113A (ja) * 2017-11-08 2019-06-06 カシオ計算機株式会社 走行データの表現方法、走行データ表示装置及び走行データ表示プログラム
JP7031234B2 (ja) 2017-11-08 2022-03-08 カシオ計算機株式会社 走行データ表示方法、走行データ表示装置及び走行データ表示プログラム
JP2020103653A (ja) * 2018-12-27 2020-07-09 パナソニックIpマネジメント株式会社 運動補助プログラムおよびこれを備える運動補助システム
WO2022085070A1 (ja) * 2020-10-20 2022-04-28 株式会社アシックス 運動分析装置、運動分析方法および運動分析プログラム
KR102489919B1 (ko) * 2022-06-03 2023-01-18 주식회사 원지랩스 보행 분석 방법 및 시스템

Also Published As

Publication number Publication date
CN105320278A (zh) 2016-02-10
US20160029943A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
JP2016034481A (ja) 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法
JP6834553B2 (ja) 運動解析システム、運動解析装置、運動解析プログラム及び運動解析方法
US10032069B2 (en) Exercise analysis apparatus, exercise analysis method, exercise analysis program, and exercise analysis system
US11568977B2 (en) Systems and methods for time-based athletic activity measurement and display
Rana et al. Wearable sensors for real-time kinematics analysis in sports: A review
US10740599B2 (en) Notification device, exercise analysis system, notification method, notification program, exercise support method, and exercise support device
JP6596945B2 (ja) 運動解析方法、運動解析装置、運動解析システム及び運動解析プログラム
JP2016032611A (ja) 運動解析装置、運動解析システム、運動解析方法及び運動解析プログラム
JP2016032610A (ja) 運動解析システム、運動解析装置、運動解析プログラム及び運動解析方法
CN104126185A (zh) 疲劳指数及其用途
JP6446941B2 (ja) 運動解析装置、方法、およびプログラム
JP2018143537A (ja) 運動解析装置、運動解析システム、運動解析方法及び運動解析プログラム
JP2018143536A (ja) 運動解析装置、運動解析システム、運動解析方法、運動解析プログラム及び表示方法
US20240216760A1 (en) Practice support apparatus, practice support method, and practice support program
EP4394788A1 (en) Practice support apparatus, practice support method, and practice support program
KR20230033588A (ko) 운동 부하 정보를 제공하는 방법