JPWO2018179664A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2018179664A1
JPWO2018179664A1 JP2019508590A JP2019508590A JPWO2018179664A1 JP WO2018179664 A1 JPWO2018179664 A1 JP WO2018179664A1 JP 2019508590 A JP2019508590 A JP 2019508590A JP 2019508590 A JP2019508590 A JP 2019508590A JP WO2018179664 A1 JPWO2018179664 A1 JP WO2018179664A1
Authority
JP
Japan
Prior art keywords
user
running
information
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019508590A
Other languages
English (en)
Other versions
JP7020479B2 (ja
Inventor
直也 佐塚
直也 佐塚
脇田 能宏
能宏 脇田
一之 彼末
一之 彼末
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018179664A1 publication Critical patent/JPWO2018179664A1/ja
Application granted granted Critical
Publication of JP7020479B2 publication Critical patent/JP7020479B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/0028Training appliances or apparatus for special sports for running, jogging or speed-walking
    • A63B69/0035Training appliances or apparatus for special sports for running, jogging or speed-walking on the spot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0655Tactile feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0658Position or arrangement of display
    • A63B2071/0661Position or arrangement of display arranged on the user
    • A63B2071/0666Position or arrangement of display arranged on the user worn on the head or face, e.g. combined with goggles or glasses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B2071/0675Input for modifying training controls during workout
    • A63B2071/0677Input by image recognition, e.g. video signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/40Acceleration
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/836Sensors arranged on the body of the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

【課題】ユーザに対して走歩行状態をリアルタイムにフィードバックすることが可能であり、且つ、容易に利用可能な新規且つ改良された情報処理装置を提供する。【解決手段】走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得するセンシング情報取得部と、前記センシング情報から前記ユーザの足の接地状態を推定する推定部と、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する通知部と、を備える情報処理装置を提供する。【選択図】図12

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、健康維持、体力づくり、ダイエットやリフレッシュのために、スポーツを日常的に行う人が増えている。特に、ランニングは他のスポーツに比べて気軽に行うことができることから、ランニングに親しむ人の増加が著しい。ところが、ランニングを楽しむ人々の多くは、専門家から「走り方」の指導を受ける機会を得ることが難しく、自己流の「走り方」でランニングを行っている。
また、ランナーにウエアラブル端末を装着し、走行のピッチやストライド等をセンシングして、これらのセンシング情報をランナーにフォードバックしたり、センシング情報に基づいてランナーにアドバイスを行ったりするシステムが提案されている。このような例としては、下記特許文献1に開示された情報処理装置を挙げることができる。
特開2016−214499号公報
ランニングにおける「走り方」の重要な要素の1つに、ランニングフォームがある。ランニングフォームとは、走行中のランナーの姿勢、足の運び、腕の振り等の総称である。このランニングフォームの良し悪し、すなわち、ランニングフォームの状態を把握し、把握に基づいて適切な指導やトレーニング方法をランナーが得ることができれば、当該ランナーは好適なランニングフォームを体得することができる。しかしながら、ランニングフォームの状態の把握は、走行中のランナーの画像を確認することにより行われることから、当該ランナーが自身のランニングフォームの状態をリアルタイムで把握することは難しい。さらに、このような画像を得るためには、第三者に撮影を依頼するか、専用の撮影システムの準備が必要であることから、アスリートではない一般の人々にとっては、自身の走行中画像を得ることが難しい。従って、画像を利用することなく、ランナーのランニングフォームの状態を、ランナー自身にリアルタイムにフィードバックすることができる方法が求められていた。
そこで、本開示では、ユーザに対して走歩行状態をリアルタイムにフィードバックすることが可能であり、且つ、容易に利用可能な新規且つ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得するセンシング情報取得部と、前記センシング情報から前記ユーザの足の接地状態を推定する推定部と、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する通知部と、を備える情報処理装置が提供される。
また、本開示によれば、走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得することと、前記センシング情報から前記ユーザの足の接地状態を推定することと、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知することと、を含む、情報処理方法が提供される。
さらに、本開示によれば、走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得する機能と、前記センシング情報から前記ユーザの足の接地状態を推定する機能と、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する機能と、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザに対して走歩行状態をリアルタイムにフィードバックすることが可能であり、且つ、容易に利用可能な情報処理装置、情報処理方法及びプログラムを提供することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
ランニングフォームの一例を説明する説明図である。 本開示の第1の実施形態に係る情報処理システム1の構成例を説明する説明図である。 同実施形態に係るウエアラブルデバイス20の構成を示すブロック図である。 同実施形態に係るウエアラブルデバイス20の外観の一例を示す説明図である。 同実施形態に係るウエアラブルデバイス20の外観の他の一例を示す説明図である。 同実施形態に係るウエアラブルデバイス20の装着状態を説明する図である。 同実施形態に係るサーバ30の構成を示すブロック図である。 同実施形態に係る機械学習の一例を説明するための説明図である。 同実施形態に係る推定部330の動作の一例を説明するための説明図である。 同実施形態に係る判定部332の動作の一例を説明するための説明図である。 同実施形態に係るユーザ端末70の構成を示すブロック図である。 同実施形態に係る情報処理方法の一例を説明するシーケンス図である。 第1の実施形態に係る実施例1の変形例の表示画面の一例を説明する説明図である。 同実施形態に係る実施例2の表示画面の一例を説明する説明図である。 同実施形態に係る実施例2の変形例の表示画面の一例を説明する説明図(その1)である。 同実施形態に係る実施例2の変形例の表示画面の一例を説明する説明図(その2)である。 同実施形態に係る実施例3に係る表示画面の一例を説明する説明図である。 本開示の第2の実施形態に係る情報処理方法の一例を説明するフロー図である。 同実施形態に係る情報選択部334の動作の一例を説明するための説明図である。 同実施形態に係る表示画面の一例を説明する説明図である。 本開示の一実施形態に係る情報処理装置900のハードウェア構成の一例を示したブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.本開示に係る実施形態を創作するに至るまでの経緯
1.1.本開示に係る実施形態を創作するに至る背景
1.2.本開示に係る実施形態を創作するに至る経緯
2.第1の実施形態
2.1.第1の実施形態に係る情報処理システム1の概要
2.2.第1の実施形態に係るウエアラブルデバイス20の構成
2.3.第1の実施形態に係るサーバ30の構成
2.4.第1の実施形態に係るユーザ端末70の構成
2.5.第1の実施形態に係る情報処理方法
3.第1の実施形態に係る実施例
3.1.実施例1
3.2.実施例2
3.3.実施例3
4.第2の実施形態
4.1.第2の実施形態に係るサーバ30の構成
4.2.第2の実施形態に係る情報処理方法
5.まとめ
6.ハードウェア構成について
7.補足
<<1.本開示に係る実施形態を創作するに至るまでの経緯>>
<1.1.本開示に係る実施形態を創作するに至る背景>
まず、本開示に係る実施形態を説明する前に、本発明者らが本開示に係る実施形態を創作するに至る背景について説明する。先に説明したように、ランニング等のスポーツを楽しむ人の多くは、専門家からランニングフォーム等の「走り方」のアドバイスを受ける機会を得ることは難しく、自己流の「走り方」でランニングを行っていることが多い。また、一般的に、人が「走り方」を自然と体得するのは、2〜3歳程度の幼少期であり、その後、成長に応じて様々なスポーツ等の経験を積む中で大人としての「走り方」を体得していく。このような成長の過程においても、学校等の授業を通じて専門的に「走り方」の指導を受ける機会はそれほど多いものではない。
また、例えば、長距離、短距離等の走行距離、平地、山地、砂地等の走行路の状況、スポーツの種類に応じて、それぞれ好適な「走り方」が存在する。従って、アスリートに限らず、スポーツを親しむ一般の人であっても、好適な「走り方」を体得することができれば、「楽に」つまり「楽しく」走れるようになり、加えて、走行中の怪我を減らすことにもつながる。そして、好適な「走り方」の体得を容易に行うことができれば、人々がよりいっそうスポーツを楽しむ機会が増え、さらには、日頃スポーツに親しんでいない人々においてもスポーツを楽しもうとするモチベーションが高まることが期待できる。さらには、スポーツを楽しむ機会が増えれば、人々の健康をより増強することにもつながる。
ところで、先に説明したように、「走り方」の重要な要素の1つに、走行中のランナーの姿勢、脚の運び、腕の振り等のランニングフォームがある。従って、ランナーが、ランニングフォームの良し悪しを把握し、当該把握に基づく適切な指導やトレーニング方法を得ることができれば、好適なランニングフォームを体得することができる。そして、自己流の「走り方」に係るランニングフォームを改善することは、長年身についたランニングフォームを改造することになるため、ランナーにとっては大きなチャレンジともなるが、「楽しく」走るためには非常に効果的なことである。また、好適なランニングフォームへの改善は、走行後にランナー自身がランニングフォームの状態を把握し改善策の検討を行うよりも、走行中のランナー自身がリアルタイムにランニングフォームの状態を把握し改善を行なうほうが、効果的に実施することができる。
しかしながら、ランニングフォームの把握は、通常、走行中のランナーの画像の確認により行われることから、ランナーが自身のランニングフォームの状態をリアルタイムで把握することはできなかった。従って、走行後に、ランナー自身の走行画像を確認し、自身のランニングフォームの改善策を検討することとなり、ランナーだけでランニングフォームの改善を効果的に行うことは難しい。また、ランニングフォームの把握は、指導者による経験に基づいた指導をランナーが受けることにより行うこともできる。しかしながら、指導者の経験に基づいたランニングフォームの状態の伝達は、感覚的なものであるため、ランナーが自身のランニングフォームを把握するには難しいこともある。
また、このような画像を得るためには、専用の撮影システムの準備が必要である場合があり、アスリートではない一般の人々にとっては、このようなシステムを準備することが難しい。さらに、画像からランナーのランニングフォームを把握して、走行中の当該ランナーに対してリアルタイムに伝達、指導を行うような第三者を配置することも考えられるが、アスリート以外は、このような第三者を確保することが難しい場合もある。加えて、配置した第三者がスポーツを専門的に学んでいる人物でない場合には、的確に、ランナーに対して伝達、指導を行うことは難しい。さらには、第三者として、専門的な指導者を確保することができたとしても、ランニングフォームの状態の伝達や改善の指導は、感覚的なものであり、具体性に乏しいこともあって、ランナーが第三者の指導内容を理解して実践するには難しいこともある。また、ランニングフォームのうち、ランナーの足裏の接地等については、ランナーをフォースプレート上で走行させることにより、把握することができる。しかしながら、フォースプレートをランナーの走行の距離にあわせて長距離設置することは困難であることから、ランナーが、フォースプレートを使って、実際の長距離走における自身の足裏の接地状態を把握することは難しい。
すなわち、アスリート以外の一般の人々にとっては、好適なランニングフォームを体得することが難しい状況にある。さらに、指導者による指導についても、客観的な指導方法が確立されていないことから、改善できる点が多くある。そこで、このような状況を踏まえて、本発明者らは、ランナーに対してランニングフォームの状態をリアルタイムにフィードバックすることができるシステムを実現しようと、鋭意検討を続けてきた。このようなシステムを構築することができれば、一般の人々であっても容易に好適なランニングフォームを体得することができ、例えば、学校の授業等や日常生活で行うジョギング等を通じて、好適な「走り方」を容易に身につけることができる。
<1.2.本開示に係る実施形態を創作するに至る経緯>
ところで、本発明者らが、ジョギングやマラソン等の長距離走におけるランニングフォームについて鋭意検討を行ったところ、ランニングフォームの良し悪しは、以下の2つの指標と相関性が高いことを知得した。そのうちの1つの指標は、走行中の足の接地状態であり、もう1つの指標は足の筋肉の弾性特性である。以下に、図1を参照して、本発明者らが知得した2つの指標について説明する。図1は、ランニングフォームの一例を説明する説明図であって、走行する人物の身体姿勢を模式的に示しており、理解のために、走行する人物の手足、体幹等を線で表現している。
走行中の足の接地状態とは、走行に係る各ステップにおいて足裏がどのように地面に接触しているかのことであり、主に、最初に接地する足裏の部位の位置により、その状態を判断することができる。より具体的には、接地状態には、踵から接地する状態、足裏全体から接地する状態、及び、つま先から接地する状態の主に3つのタイプがある。なお、一般的なランナーは、長距離の走行において、踵からの接地、又は、足裏全体からの接地を行っていることが多く、一流の長距離走選手の多くが、つま先からの接地を行っているといわれている。以下では、一般的なランナーの接地状態である、踵からの接地と、足裏全体からの接地とについて説明する。
図1の左図に示すように、踵からの接地では、ランナーの身体の重心よりも前方においてランナーは着地していることとなる。特に、ランナーがより自身の身体の前方にて着地しようとすると、自然と踵からの接地を行うこととなる。このような接地状態では、ランナーの身体の重心よりも前方において着地していることから、着地した足の足裏から太ももに延びる足の軸が後方に向かって傾き、当該足には、前方から後方に向かう力がかかることとなる。従って、当該ランナーは、着地のたびにブレーキがかかった状態となり、次のステップにおいて足を前方にスムーズに踏み出すことができない。さらに、踵からの接地においては、前方に着地した際の足の傾斜から、当該足の筋肉に負担がかかりやすく、長距離を走行しようとする場合には不利になる。また、踵が接地してから地面を蹴り出し、足裏が地面を離れるまでの接地時間も、後述する足裏全体からの接地に比べて長くなり、接地時間に応じて、足の筋肉が働く時間も長くなることから、足の筋肉への負担がより増加する。従って、ランニング等の長距離の走行においては、踵からの接地は好ましい接地状態とは言えない。
一方、図1の右図に示すように、足裏全体からの接地では、ランナーの身体の重心の下方においてランナーは着地していることとなる。このような足裏全体からの接地では、着地した足の足裏から太ももに延びる足の軸が地面に対して垂直に近い状態に延びており、当該ランナーは、着地のたびにブレーキがかかるような状態とはならない。従って、当該ランナーは、次のステップにおいて足を前方にスムーズに踏み出すことができる。さらに、着地した足の上にランナーの身体の重心が位置する状態であることから、地面から受ける衝撃を足だけでなくランナーの身体全体で吸収することができ、足の筋肉への負担を低減することができる。加えて、足裏全体からの接地では、自然と走行中のランナーの身体の重心の上下動も少なくなることから、地面から受ける衝撃も少なくなり、当該ランナーの身体への負担をも低減することができる。また、踵が接地してから地面を蹴り出し、足裏が地面を離れるまでの接地時間も、踵からの接地に比べて短くなることからも、足の筋肉への負担をより低減することができる。従って、ランニング等の長距離の走行においては、足裏全体からの接地は好ましい接地状態であると言える。
すなわち、ジョギングやマラソン等の長距離走においては、踵からの接地する接地状態に比べて、足裏全体から接地する接地状態のほうが好適なランニングフォームであると言える。このように、ランニングフォームの良し悪しは、走行中の足の接地状態と相関性があり、走行中の足の接地状態を把握することにより、ランニングフォームの状態を判別することが可能となる。なお、上述の接地状態は、走行中のランナーの画像を分析したり、走行中のランナーの下にフォースプレート等を設置し、フォースプレートから得られる測定結果を分析したりすることにより、直接的に把握することができる。しかしながら、先に説明したように、ランナーの走行画像を撮影する撮影システムやフォースプレートを長距離設置することは困難であることから、ランナーが直接的に接地状態を把握することは難しく、従って、接地状態を推定する推定技術が重要となる。
次に、足の筋肉の弾性特性(筋弾性特性)について説明する。ランニング等の身体運動は、下腿(ふくらはぎ)の筋肉及びアキレス腱等の筋腱複合体を伸張し、短縮するサイクル運動を行うことにより行われる。より具体的には、ランニングの場合、着地の瞬間に足の筋腱複合体が伸ばされ、当該筋腱複合体に弾性エネルギーが蓄積される。次に、接地した足がランナーの身体の後方に蹴り出される瞬間に筋腱複合体が収縮し、蓄積された弾性エネルギーが一気に放出される。ランナーは、この放出された弾性エネルギーを活用して地面を蹴ることにより、ランニングにおける推進力の一部を作り出しているのである。従って、上記弾性エネルギーを効率よく蓄積し、蓄積した弾性エネルギーを効率よく蹴り出す際に活用することができれば、効率よく高い推進力を得て走行することができると言える。言い換えると、足の筋肉の弾性特性(筋弾性特性)を効率よく利用することにより、ランニング・エコノミーを高めることができると言える。なお、上述した弾性エネルギーは、走行中のランナーの下にフォースプレート等を設置し、フォースプレートから得られる圧力を分析することにより、直接的に把握することができる。
なお、一般的には、走運動において上述のように足の筋肉の弾性特性を効率よく利用するために、一流のランナーの多くは、足の筋腱複合体の伸張−短縮サイクル(stretch−shorter cycle: SSC)を有効に利用している。
すなわち、短距離、長距離を問わず、走運動おいては、弾性エネルギーを効率よく蓄積、放出することができるランニングフォームが好適なランニングフォームであると言える。従って、足の筋肉の弾性特性の利用を把握することにより、ランニングフォームの良し悪しを判別することが可能となる。
さらに、本発明者らが検討を続けたところ、上述したランニングフォームの状態と相関性のある2つの指標である接地状態及び足の筋弾性特性は、慣性計測ユニット(inertial measurement unit)から得られるセンシング情報から推定することができることが分かった。詳細には、慣性計測ユニットとは、運動によって生じする3軸加速度、3軸角速度等を検出する装置であり、加速度センサ、ジャイロセンサ等を含み、モーションセンサとして身体の一部等に装着することがウエアラブルデバイスとして用いることができる。近年、このような身体に装着可能な慣性計測ユニットの普及が進んでおり、容易に入手可能になっていることから、一般の人であっても、慣性計測ユニットを気軽に用いることができる。さらに、身体に装着可能であることから、ランナーの走行を妨げることなく、ランナーの走行場所等についても限定することがないことも、慣性計測ユニットの利点である。そして、このような慣性計測ユニットは、ランナーの身体に装着されて、走行中のランナーの動きにより生じたセンシング情報を取得する。本発明者らの検討によれば、この取得されたセンシング情報を機械学習等により得られたデータベースを用いて解析することにより、上記2つの指標を推定することが可能であることが明らかになった。
そこで、本発明者らは、上記知得を一着眼点にすることにより、画像を用いずとも、ランナーがリアルタイムにランニングフォームの状態を把握することが可能であると考え、本開示の実施形態を創作するに至った。すなわち、以下に説明する本開示の実施形態によれば、画像を用いないことから、走行中のランナーに対してランニングフォームの状態をリアルタイムにフィードバックすることが可能であり、且つ、容易に利用可能なシステムを提供することができる。より具体的には、本開示の実施形態においては、ランナーの身体に装着されたウエアラブルセンサにより取得したセンシング情報に基づき、上述した足の接地状態及び足の筋肉の弾性特性の2つの指標を推定する。さらに、本実施形態においては、推定結果に基づいて、ランナーのランニングフォームの状態を判定する。以下、このような本開示の実施形態に係る構成及び情報処理方法を順次詳細に説明する。
なお、以下の説明においては、以下に説明する本開示の実施形態に係るウエアラブルデバイス20を装着して走行するランナーをユーザと呼ぶ。また、以下の説明においては、本開示の実施形態に係る情報処理システム1を利用する利用者であって、上記ユーザ以外の者を第三者(他のユーザ)と呼ぶ。
<<2.第1の実施形態>>
<2.1.第1の実施形態に係る情報処理システム1の概要>
次に、本開示の実施形態に係る構成を説明する。まずは、本開示の実施形態に係る構成について、図2を参照して説明する。図2は、本実施形態に係る情報処理システム1の構成例を説明する説明図である。
図2に示すように、本実施形態に係る情報処理システム1は、ウエアラブルデバイス20、サーバ30、及びユーザ端末70を含み、これらは互いにネットワーク98を介して通信可能に接続される。詳細には、ウエアラブルデバイス20、サーバ30、及びユーザ端末70は、図示しない基地局等(例えば、携帯電話機の基地局、無線LANのアクセスポイント等)を介してネットワーク98に接続される。なお、ネットワーク98で用いられる通信方式は、有線又は無線を問わず任意の方式を適用することができるが、走行中のユーザにウエアラブルデバイス20が装着されることから、ユーザの走行を妨げることがないように、無線通信を用いることが好ましい。また、本実施形態においては、サーバ30がユーザやユーザ以外の第三者に安定して本実施形態によって情報を提供することができるよう、安定した動作を維持することができる通信方式を適用することが望ましい。
ウエアラブルデバイス20は、走行中のユーザの身体の一部に装着可能なデバイス、もしくは、ユーザの身体に挿入されたインプラントデバイスであることができる。より具体的には、ウエアラブルデバイス20は、HMD(Head Mounted Display)型、イヤーデバイス型、アンクレット型、腕輪型、首輪型、アイウエア型、パッド型、バッチ型、衣服型等の各種の方式のウエアラブルデバイスを採用することができる。さらに、ウエアラブルデバイス20は、走行中のユーザのランニングフォームの状態を判定するために用いられるセンシング情報を取得するために1つ又は複数のセンサを内蔵する。なお、ウエアラブルデバイス20の詳細については後述する。
サーバ30は、例えば、コンピュータ等により構成される。サーバ30は、例えば、本実施形態によってサービスを提供するサービス提供者が保有し、各ユーザ又は各第三者に対してサービスを提供する。具体的には、サーバ30は、ユーザのランニングフォームの状態を把握し、ユーザに対する、ランニングフォームの状態の通知や、ランニングフォームの改善方法といったアドバイスの通知等のサービスを提供する。なお、サーバ30の詳細については後述する。
ユーザ端末70は、ユーザ、もしくは、ユーザ以外の第三者にサーバ30からの情報等を通知するための端末である。例えば、ユーザ端末70は、タブレット、スマートフォン、携帯電話、ラップトップ型PC(Personal Computer)、ノート型PC、HMD等のデバイスであることができる。
なお、図2においては、本実施形態に係る情報処理システム1は、1つのウエアラブルデバイス20及びユーザ端末70を含むものとして示されているが、本実施形態においてはこれに限定されるものではない。例えば、本実施形態に係る情報処理システム1は、複数のウエアラブルデバイス20及びユーザ端末70を含んでもよい。さらに、実施形態に係る情報処理システム1は、例えば、ウエアラブルデバイス20からサーバ30へセンシング情報を送信する際の中継装置のような他の通信装置等を含んでもよい。
<2.2.第1の実施形態に係るウエアラブルデバイス20の構成>
次に、本開示の実施形態に係るウエアラブルデバイス20の構成について、図3から図6を参照して説明する。図3は、本実施形態に係るウエアラブルデバイス20の構成を示すブロック図である。図4及び図5は、同実施形態に係るウエアラブルデバイス20の外観の一例を示す説明図である。さらに、図6は、本実施形態に係るウエアラブルデバイス20の装着状態を説明する図である。
ウエアラブルデバイス20は、図3に示すように、センサ部200と、主制御部210と、通信部220と、提示部230とを主に有する。以下に、ウエアラブルデバイス20の各機能部の詳細について説明する。
(センサ部200)
センサ部200は、ユーザの身体に装着されたウエアラブルデバイス20に設けられ、ユーザの走行動作を検出するセンサである。センサ部200は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ等の1つ又は複数のセンサデバイスにより実現され、ユーザの動作に伴って発生する加速度や角速度等の変化を検出し、検出された変化を示す1つ又は複数のセンシング情報を生成する。センサ部200によって得られた1つ又は複数のセンシング情報は、後述する主制御部210に出力される。また、センサ部200は、GPS(Global Positioning System)受信機、心拍センサ、気圧センサ、温度センサ、及び、湿度センサ等の他の各種センサを含んでもよい。
(主制御部210)
主制御部210は、ウエアラブルデバイス20内に設けられ、ウエアラブルデバイス20の各ブロックを制御することができる。当該主制御部210は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のハードウェアにより実現される。また、当該主制御部210は、データ取得部212、処理部214、及び出力制御部216として機能することもできる。以下に、本実施形態に係る主制御部210のこれら機能の詳細について説明する。
データ取得部212は、センサ部200を制御して、センサ部200から出力されたセンシング情報を取得し、取得したセンシング情報を処理部214へ出力する。また、データ取得部212は、正確な時刻を把握する時計機構(図示省略)を内蔵し、センシング情報に、当該センシング情報を取得した時刻を紐づけて処理部214へ出力してもよい。処理部214は、データ取得部212から出力されたセンシング情報を、ネットワーク98を介して送信可能な所定の形式に変換し、出力制御部216に出力する。さらに、出力制御部216は、処理部214から出力された所定の形式のセンシング情報を、後述する通信部220を制御して、サーバ30へ送信する。
(通信部220)
通信部220は、ウエアラブルデバイス20内に設けられ、サーバ30等の外部装置との間で情報の送受信を行うことができる。言い換えると、通信部220は、データの送受信を行う機能を有する通信インタフェースと言える。また、当該通信部220は、後述するサーバ30との間でデータの送受信を行うことにより、例えば、ウエアラブルデバイス20の提示部230として機能するデバイスの種類をサーバ30へ通知することもできる。なお、通信部220は、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
(提示部230)
提示部230は、ユーザに対して情報を提示するためのデバイスであり、例えば、ユーザに向けて、画像、音声、光、又は、振動等により各種の情報を出力する。提示部230は、ディスプレイ(画像表示装置)、スピーカ(音声出力装置)、イヤフォン(音声出力装置)、発光素子、振動モジュール(振動装置)等により実現される。さらに、提示部230は、映像出力端子、音声出力端子等により実現されてもよい。
また、ウエアラブルデバイス20は、図示しない入力部を有していてもよい。当該入力部は、ウエアラブルデバイス20へのデータ、コマンドの入力を受け付ける機能を有する。より具体的には、当該入力部は、タッチパネル、ボタン、スイッチ、キー、キーボード、マイクロフォン、画像センサ等により実現される。
また、本実施形態においては、センサ部200の機能と、提示部230の機能とを分けて、異なる2つのウエアラブルデバイス20としてもよい。このようにすることで、センサ部200の機能を有するウエアラブルデバイス20の構成をコンパクトにすることができることから、当該ウエアラブルデバイス20のユーザの身体の様々な部位への装着が可能となる。
先に説明したように、ウエアラブルデバイス20は、HMD型、イヤーデバイス型、アンクレット型、腕輪型、首輪型、アイウエア型、パッド型、バッチ型、衣服型等の各種の方式のウエアラブルデバイスを採用することができる。図4に、ウエアラブルデバイス20の外観の一例を示す。図4に示すウエアラブルデバイス20aは、ネックバンド型のウエアラブルデバイスである。当該ウエアラブルデバイス20aは、左右の本体部22L及び22Rと、これら本体部22L、22Rを接続するネックバンド24とを主に有する。本体部22L、22Rは、例えば、図3のセンサ部200、主制御部210、通信部220、及び提示部230のうちの少なくとも一部を内蔵する。また、本体部22L、22Rには、提示部230として機能するイヤフォン(図示省略)が内蔵され、ユーザは当該イヤフォンを両耳に装着することにより、音声情報等を聞くことができる。
さらに、図5に、ウエアラブルデバイス20の外観の一例を示す。図5に示すウエアラブルデバイス20bは、アイウエア型のウエアラブルデバイスである。当該ウエアラブルデバイス20bは、左右の本体部100L、100Rと、ディスプレイ102と、レンズ104と、本体部100L、100Rを接続するネックバンド106とを有する。本体部100L、100Rには、例えば、図3のセンサ部200、主制御部210、通信部220、及び提示部230のうちの少なくとも一部が内蔵される。また、ディスプレイ102は、有機EL(Electro Luminescence)ディスプレイ等からなる。従って、ユーザは、ウエアラブルデバイス20bを装着した状態で、レンズ104を介して周囲の見ることができ、片方の目で、ディスプレイ102に表示される画面も見ることができる。
また、ウエアラブルデバイス20は、図6に示すように、ユーザの頭部、首、腰、手首、足首等の様々な部位に1つ又は複数装着される。また、ウエアラブルデバイス20は、ユーザのランニングシューズ等に装着又は埋め込まれていてもよい。さらに、図6においては、ユーザの腰部には、ベルト状のウエアラブルデバイス20が装着されているが、腰部に装着するウエアラブルデバイス20はこのような形状に限定されるものではない。例えば、ウエアラブルデバイス20は、ベルトに引っ掛けることができる万歩計(登録商標)のような形状のデバイスであってもよい。より具体的には、ウエアラブルデバイス20は、ランニングフォームの状態を把握するための様々なセンシング情報を取得するために、ユーザの腰、股関節に近い大腿部、膝関節、足首等に設けられる。また、本実施形態においては、走行中のユーザの走行を妨げることなく装着可能な部位にウエアラブルデバイス20を装着すればよく、装着位置については限定されるものではない。しかしながら、精度良く、ランニングフォームの状態を把握するための様々なセンシング情報を取得するためには、ウエアラブルデバイス20は、ユーザの身体の重心に近い腰等に装着されることが好ましい。
<2.3.第1の実施形態に係るサーバ30の構成>
次に、本開示の実施形態に係るサーバ30の構成について、図7から図10を参照して説明する。図7は、本実施形態に係るサーバ30の構成を示すブロック図である。図8は、本実施形態に係る機械学習の一例を説明するための説明図である。図9は、本実施形態に係る推定部330の動作の一例を説明するための説明図である。さらに、図10は、本実施形態に係る判定部332の動作の一例を説明するための説明図である。
先に説明したように、サーバ30は、例えば、コンピュータ等により構成される。図7に示すように、サーバ30は、入力部300と、出力部310と、主制御部320と、通信部340と、記憶部350と、画像取得部(撮像情報取得部)360とを主に有する。以下に、サーバ30の各機能部の詳細について説明する。
(入力部300)
入力部300は、サーバ30へのデータ、コマンドの入力を受け付ける。より具体的には、当該入力部300は、タッチパネル、キーボード等により実現される。
(出力部310)
出力部310は、例えば、ディスプレイ、スピーカ、映像出力端子、音声出力端子等により構成され、画像又は音声等により各種の情報を出力する。
(主制御部320)
主制御部320は、サーバ30内に設けられ、サーバ30の各ブロックを制御することができる。当該主制御部320は、例えば、CPU、ROM、RAM等のハードウェアにより実現される。また、当該主制御部320は、データ取得部(センシング情報取得部)322、処理部324、及び出力制御部326として機能することもできる。以下に、本実施形態に係る主制御部320のこれら機能の詳細について説明する。
データ取得部322は、ウエアラブルデバイス20から送信されたセンシング情報を取得し、取得したセンシング情報を処理部324へ出力する。
処理部324は、データ取得部322から出力されたセンシング情報を処理し、センシング情報からユーザの足の接地状態等を推定する。さらに、処理部324は、推定した接地状態等に基づき、ユーザのランニングフォームの状態(走行状態)を判定する。詳細には、処理部324は、上述したこれら機能を実現するために、推定部330、判定部332、及び情報選択部(通知部)334として機能する。以下に、本実施形態に係る処理部324のこれら機能の詳細について説明する。
推定部330は、ウエアラブルデバイス20から送信されたセンシング情報に基づいて、所定のアルゴリズムを適用することにより、ユーザの足の接地状態や筋肉の弾性特性(筋弾性特性)を推定する。そして、推定部330は、接地状態や筋弾性特性の推定結果を後述する判定部332、情報選択部334及び記憶部350に出力する。
より具体的には、例えば、以下のような機械学習によって得られたDB610(図8 参照)を利用して、推定部330は接地状態や筋弾性特性を推定する。
まず、DB610を構築するための情報を取得するために、ランナーは、その身体の一部に上述のウエアラブルデバイス20を装着し、フォースプレート上を走行する。この際、ウエアラブルデバイス20は、走行中のランナーの動作により生じる各種センシング情報を取得する。同時に、フォースプレートは、走行中のユーザの体幹に対する相対的なユーザの足の接地位置、接地した足裏の部位、足裏の接地により印加される圧力、接地時間等を測定する。加えて、走行中のランナーの画像を撮影し、画像から、当該ユーザの体幹の傾き、足の接地状態等の情報を取得してもよい。なお、上記ランナーは、実際にウエアラブルデバイス20を利用するユーザであってもよく、もしくは、DB610を構築するための情報を取得するためのランナーとして、当該ユーザ以外の人物であってもよい。上記ランナーをユーザとした場合には、推定部330によって推定される接地状態等の推定精度を高めることができる。一方、上記ランナーを当該ユーザ以外の人物とした場合には、ユーザ自身がDB610を構築するための情報を取得するために測定を行うことが不要となることから、ユーザが気軽に本実施形態に係る情報処理システム1を利用することができる。また、当該ランナーについては、その属性情報等(例えば、性別、年齢、身長、体重等の情報)を予め取得しておくものとする。
そして、例えば、サーバ30、もしくは、図示しない他の情報処理装置に、上述のように取得したセンシング情報及び測定結果等を入力し、サーバ30の処理部324等が有する学習器600に機械学習を行わせる。詳細には、図8に示すように、サーバ30又は他の情報処理装置には、サポートベクターレグレッションやディープニューラルネットワーク等の教師付き学習器600が備わっているものとする。学習器600にウエアラブルデバイス20から取得されたセンシング情報とフォースプレート等を用いて取得した測定結果(接地状態及び筋弾性特性)とがそれぞれ教師信号及び入力信号として入力され、当該学習器600は、所定の規則に従ってこれら情報の間の関係について機械学習を行う。そして、当該学習器600は、複数の教師信号及び入力信号の対が入力され、これら入力に対して機械学習を行うことにより、センシング情報と接地状態等との関係を示す関係情報を格納したデータベース(DB)610を構築する。この際、上述した属性情報等は、入力対象をグルーピングする際の情報や、測定結果を解析するための情報として、学習器600に入力されてもよい。また、本実施形態においては、学習器600は、半教師付き学習器や弱教師付き学習器を用いてもよい。
さらに、図9に示すように、推定部330は、上記学習器600の機械学習で得たDB610に基づいて、新たにウエアラブルデバイス20から取得したユーザのセンシング情報から、接地状態及び筋弾性特性を推定することができる。このようにすることで、本実施形態においては、撮影装置やフォースプレート等を用いることなく、ウエアラブルデバイス20からのセンシング情報によって、接地状態及び筋弾性特性を推定することができる。さらに、先に説明したように、これら接地状態及び筋弾性特性は、ランニングフォームの状態と高い相関性を有する指標であることから、これら指標を用いることにより、ランニングフォームの状態を判定することが可能である。
なお、推定部330における推定方法は、上述した機械学習を利用した方法に限定されるものではなく、本実施形態においては、他の推定方法を用いてもよい。本実施形態においては、例えば、センシング情報のうちの1つと、接地状態、すなわち、最初に接地される足裏の部位の位置とが極めて相関性が高い場合には、これら相関関係を示す数式に対して当該センシング情報を入力することにより、接地状態を算出してもよい。
判定部332は、推定部330の推定結果に基づいて、ユーザのランニングフォームの状態に対する判定を行う。本実施形態では、画像ではなく、推定部330によって推定された指標を用いてランニングフォームの状態の把握を行うことから、走行中のユーザを撮影する第三者がいなくても、ランニングフォームの状態をリアルタイムにユーザにフィードバックすることができる。そして、判定部332は、ユーザにフィードバックするために、判定結果を後述する情報選択部334及び記憶部350等に出力する。
例えば、判定部332は、図10に示すように、推定部330によって推定された2つの指標(接地状態、筋弾性特性)をXY座標上に仮想的にプロットする。図10においては、プロットされた指標はマーカ800として示されている。詳細には、図10のXY座標軸上においては、筋弾性特性を示す軸がX軸として示されており、X軸の図中左側から右側に向かって、走行において利用された弾性エネルギーが高いこととなる。また、図10のXY座標軸上においては、接地状態を示す軸がY軸として示されており、Y軸の図中下側から上側に向かって、走行に係るステップにおいて最初に接地する足裏の部位の位置が、前側から後側に移動することとなる。すなわち、Y軸の図中下側にマーカが示されている場合には、つま先から接地する接地状態にあることを意味し、Y軸の図中上側にマーカが示されている場合には、踵から接地する接地状態にあることを意味する。さらには、Y軸の図中の中央、言い換えるとX軸上周辺にマーカが示されている場合には、足裏全体から接地する接地状態にあることを意味している。判定部332は、このようなXY座標軸上に、推定部330により推定された接地状態及び筋弾性特性をプロットする。さらに、図10に示すように、XY座標軸上には所定の領域802が図示されている。当該領域802は、好ましいランニングフォームの状態といえる範囲を示している。すなわち、当該領域802においては、接地状態について好適な状態とみなせる範囲にあり、且つ、筋弾性特性についても好適な状態とみなせる範囲にあると言える。従って、判定部332がプロットしたマーカ800の座標が、上記領域802内に位置していれば、ユーザのランニングフォームの状態は良好であると言える。
また、プロットしたマーカ800の座標が上記領域802内に位置していない場合には、判定部332は、マーカ800から、上述の領域802までの仮想的な距離を算出する。さらに、判定部332は、算出した距離を所定の値を用いて正規化することにより、ランニングフォームの良し悪しに係る評価を示す評価点を取得することができる。このようにして得られた評価点は、ユーザによって、自身のランニングフォームの良し悪しを容易に把握することが可能である。より具体的には、プロットしたマーカの座標が上記領域802内に位置している場合には、良好なランニングフォームであるとして、例えば100点等の満点の評価点が算出されるようにする。この場合、プロットしたマーカ800の座標が上記領域802内に位置していない場合には、100点満点に対する相対的な値として評価点が示されることから、ユーザは身のランニングフォームの良し悪しを容易に把握することができる。
なお、判定部332における判定方法は、上述した方法に限定されるものではなく、本実施形態においては、他の方法を用いてもよい。本実施形態においては、判定部332は、推定された指標(接地状態及び筋弾性特性)に対して統計的な処理を行うことにより、ランニングフォームの状態を判定してもよい。
また、上述の説明においては、判定部332は、接地状態及び筋弾性特性を用いてユーザのランニングフォームの状態を判定しているものとして説明したが、本実施形態はこれに限定されるものではない。例えば、判定部332は、接地状態及び筋弾性特性のいずれか一方を用いて判定を行ってもよい。また、接地時間等を取得することができる場合には、ランニングフォームの状態と相関性を持つ第3の指標として接地時間を用いてもよい。この場合、判定部332は、XYZ座標軸上に、接地状態、筋弾性特性及び接地時間をプロットし、上述の同様に判定を行ってもよい。このように、判定部332で用いる指標の数を増やすことにより、より精度よくユーザのランニングフォームの状態を判定することができる。
情報選択部334は、後述する通信部340から得られたウエアラブルデバイス20からの情報に基づき、ウエアラブルデバイス20の有する提示部230の種類に応じて、ウエアラブルデバイス20へ送信する通信データを選択する。そして、情報選択部334は、選択したデータを後述する出力制御部326に出力する。例えば、ウエアラブルデバイス20の提示部230がディスプレイである場合には、情報選択部334は、上記ディスプレイに対して、推定部330の推定結果及び判定部332の判定結果等に対応する所定の画像を表示させるように制御するためのデータを選択する。また、提示部230がイヤフォンであった場合には、情報選択部334は、上記イヤフォンに対して、推定結果及び判定結果等に対応する所定の音声を出力させるように制御するためのデータを選択する。さらに、提示部230が振動モジュールであった場合には、情報選択部334は、上記振動モジュールに対して、推定結果及び判定結果等に対応する所定の振動パターンに従って振動させるように制御するためのデータを選択する。
出力制御部326は、処理部312から出力されたデータを、後述する通信部340を制御して、ウエアラブルデバイス20やユーザ端末70に送信する。
(通信部340)
通信部340は、サーバ30内に設けられ、ウエアラブルデバイス20やユーザ端末70等の外部装置との間で情報の送受信を行うことができる。さらに、通信部340は、ウエアラブルデバイス20との間でデータの送受信を行うことにより、ウエアラブルデバイス20の提示部230として機能するデバイスの種類を検知することもできる。なお、通信部340は、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
(記憶部350)
記憶部350は、サーバ30内に設けられ、上述した主制御部320が各種処理を実行するためのプログラム、情報等や、処理によって得た情報を格納する。なお、記憶部350は、例えば、ハードディスク(Hard Disk:HD)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)等により実現される。
(画像取得部360)
画像取得部360は、サーバ30内に設けられ、ビデオカメラ等の撮像装置(図示省略)からユーザの走行中の画像データを取得する。上記撮像装置は、有線通信、又は、無線通信を介して、画像データをサーバ30へ送信することができる。なお、本実施形態においては、当該画像取得部360で取得されたユーザの走行中の画像データは、上述したような推定部330の推定に用いられることを前提とはしていない。例えば、後述する実施例で説明するように、画像データは、付随的な情報として、ユーザ又はユーザ以外の第三者に提供される。従って、本実施形態においては、当該画像取得部360は、サーバ30内に設けられていなくてもよい。
<2.4.第1の実施形態に係るユーザ端末70の構成>
次に、本開示の実施形態に係るユーザ端末70の構成について、図11を参照して説明する。図11は、本実施形態に係るユーザ端末70の構成を示すブロック図である。先に説明したように、ユーザ端末70は、タブレット、スマートフォン、携帯電話、ラップトップ型PC、ノート型PC、HMD等のデバイスである。図11に示すように、ユーザ端末70は、入力部700と、出力部710と、主制御部720と、通信部730と、記憶部740とを主に有する。以下に、ユーザ端末70の各機能部の詳細について説明する。
(入力部700)
入力部700は、ユーザ端末70へのデータ、コマンドの入力を受け付ける。より具体的には、当該入力部700は、タッチパネル、キーボード等により実現される。
(出力部710)
出力部710は、例えば、ディスプレイ、スピーカ、映像出力端子、音声出力端子等により構成され、画像又は音声等により各種の情報を出力する。
(主制御部720)
主制御部720は、ユーザ端末70内に設けられ、ユーザ端末70の各ブロックを制御することができる。当該主制御部720は、例えば、CPU、ROM、RAM等のハードウェアにより実現される。
(通信部730)
通信部730は、サーバ30等の外部装置との間で情報の送受信を行うことができる。なお、通信部730は、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
(記憶部740)
記憶部740は、ユーザ端末70内に設けられ、上述した主制御部720が各種処理を実行するためのプログラム等や、処理によって得た情報を格納する。なお、記憶部740は、例えば、HDなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリ等により実現される。
<2.5.第1の実施形態に係る情報処理方法>
以上、本実施形態に係る情報処理システム1、及び当該情報処理システム1に含まれる、ウエアラブルデバイス20、サーバ30、及びユーザ端末70の構成について詳細に説明した。次に、本実施形態に係る情報処理方法について説明する。当該情報処理方法の大まかな流れとしては、上記情報処理システム1は、走行するユーザの身体に装着された1つ又は複数のウエアラブルデバイス20から1つ又は複数のセンシング情報を取得し、取得したセンシング情報から接地状態及び筋弾性特性を推定する。さらに、上記情報処理システム1は、推定されたこれら指標から、当該ユーザのランニングフォームの状態を判定し、判定結果等を当該ユーザ又は当該ユーザ以外の第三者に提示する。以下に、本実施形態における情報処理方法について、図12を参照して説明する。図12は、本実施形態に係る情報処理方法の一例を説明するシーケンス図である。図12に示すように、本実施形態に係る情報処理方法には、ステップS101からステップS111までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。
(ステップS101)
ウエアラブルデバイス20は、ユーザの走行前に、当該ユーザの身体の一部に予め装着される。当該ユーザが走行を開始すると、ウエアラブルデバイス20のセンサ部200は、ユーザの動作に伴って発生する加速度や角速度等の変化を検出し、検出されたこれらの変化を示す1つ又は複数のセンシング情報を生成する。さらに、ウエアラブルデバイス20は、生成したセンシング情報をサーバ30へ送信する。
(ステップS103)
サーバ30は、ウエアラブルデバイス20からのセンシング情報を取得する。サーバ30は、当該センシング情報に基づいて、所定のアルゴリズムを適用することにより、ユーザの足の接地状態や筋弾性特性を推定する。
(ステップS105)
サーバ30は、上述のステップS103で得られた推定結果に基づいて、ユーザのランニングフォーム状態に対する判定を行う。
(ステップS107)
サーバ30は、上述のステップS103で得られた判定結果をユーザの装着するウエアラブルデバイス20や、ユーザ又は第三者が有するユーザ端末70に対して送信する。なお、この際に、サーバ30は、判定結果だけでなく、推定結果、推定結果の履歴等の他の情報を併せて送信してもよい。
(ステップS109)
ウエアラブルデバイス20は、受信した情報に基づき、ユーザに向けてランニングフォーム状態に対する判定結果等を提示する。例えば、ウエアラブルデバイス20は、ユーザに向けて、画像、音声、光、又は、振動等により判定結果等を提示する。
(ステップS111)
ユーザ端末70は、受信した情報に基づき、ユーザ又は第三者に向けてランニングフォーム状態に対する判定結果等を提示する。例えば、ユーザ端末70は、第三者に向けて、画像、又は音声により判定結果等を提示する。
以上のように、第1の実施形態においては、推定部330は、機械学習で得たDB610に基づいて、ウエアラブルデバイス20から取得したセンシング情報から、接地状態及び筋弾性特性を推定することができる。このようにすることで、撮影装置やフォースプレート等の特別な装置を用いることなく、ランニングフォームの状態と高い相関性を有する2つの指標である接地状態及び筋弾性特性を推定することができる。さらに、本実施形態においては、画像ではなく、推定部330によって推定された指標を用いてランニングフォームの状態の把握を行う。従って、本実施形態によれば、走行中のユーザを撮影する第三者がいなくても、ランニングフォームの状態をリアルタイムに当該ユーザにフィードバックすることができる。すなわち、本実施形態によれば、ユーザに対してランニングフォームの状態をリアルタイムにフィードバックすることが可能であり、且つ、容易に利用可能なシステムを提供することができる。
なお、上述の説明においては、判定部332は、接地状態及び筋弾性特性を用いてユーザのランニングフォームの状態を判定しているものとして説明したが、本実施形態はこれに限定されるものではない。例えば、判定部332は、接地状態及び筋弾性特性のいずれか一方を用いて判定を行ってもよい。また、接地時間等を取得することができる場合には、ランニングフォームの状態と相関性を持つ第3の指標として接地時間を用いて判定を行ってもよい。
<<3.第1の実施形態に係る実施例>>
以上、第1の実施形態における情報処理方法の詳細について説明した。次に、具体的な実施例を示しながら、第1の実施形態に係る情報処理の例についてより具体的に説明する。以下においては、各実施例における、ユーザ又は第三者にランニングフォームの状態を提示する方法に着目して説明する。なお、以下に示す実施例は、第1の実施形態に係る情報処理のあくまでも一例であって、第1の実施形態に係る情報処理が下記の例に限定されるものではない。
<3.1.実施例1>
まずは、走行中のユーザ自身に対して、当該ユーザに対して自身のランニングフォームの状態をリアルタイムでフィードバックすることができる実施例1について説明する。
まず、本実施例においては、ユーザは、自身の身体の一部に上述したウエアラブルデバイス20を装着し、走行を行う。先に説明したようにウエアラブルデバイス20は、走行中の当該ユーザの動きに応じてセンシング情報を生成し、サーバ30へ送信する。サーバ30は、受信したセンシング情報に基づき、当該ユーザの接地状態及び筋弾性特性を推定する。さらに、サーバ30は、推定した接地状態及び筋弾性特性に基づき、当該ユーザのランニングフォームの状態に対する判定を行い、かかる判定に応じた制御情報をウエアラブルデバイス20に送信する。
さらに、ウエアラブルデバイス20は、当該ウエアラブルデバイス20の提示部230として機能するデバイスの種類に応じて、様々な形式で当該ユーザに向けて上記判定をフィードバックする。より具体的には、ウエアラブルデバイス20にイヤフォンが内蔵されている場合には、ランニングフォームの判定に応じた異なる音を出力する。すなわち、ウエアラブルデバイス20は、ランニングフォームが良好であると判定された場合には(例えば、上述の評価点が60点以上とされた場合)、第1の音声を出力し、ランニングフォームが悪いと判定された場合には(例えば、上述の評価点が60点未満とされた場合)、第1の音声とは異なる第2の音声を出力する。もしくは、ウエアラブルデバイス20は、ランニングフォームが良好であると判定された場合にのみ、所定の音を、ユーザの走行ステップに合わせて出力してもよい。例えば、ステップごとに、各ステップに対する判定に応じて、所定の音が出力されたり、出力されなかったりする。また、ウエアラブルデバイス20がランプ等の発光素子を備えている場合には、ウエアラブルデバイス20は、所定のパターンで発光、もしくは、所定の色による発光を行うことにより、当該ユーザにランニングフォームの判定のフィードバックを行ってもよい。もしくは、ウエアラブルデバイス20に振動デバイスが備えられている場合には、ウエアラブルデバイス20、所定のパターンの振動を行うことにより、当該ユーザにランニングフォームの判定のフィードバックを行ってもよい。
また、ウエアラブルデバイス20がアイウエア型のディスプレイ102を有するデバイスであった場合には、ランニングフォームの判定を示す画像を表示してもよい。例えば、実施例1の変形例に係る表示画面の一例を説明する説明図である図13に示すように、ウエアラブルデバイス20の提示部230であるディスプレイには、画面80が表示される。当該画面80の上側には、ユーザのランニングフォームの判定結果としてランニングフォームの評価点(例えば、図13中では、評価点として70点と表示されている。)が示されている。当該評価点は、良好なランニングフォームの状態の場合を100点満点とした場合の、ユーザのランニングフォームに対する評価点である。さらに、当該画面80の下側には、上述した図10と同様に、接地状態及び筋弾性特性に係るXY座標軸が示されており、当該XY座標軸上に、推定部330により推定された接地状態及び筋弾性特性が、マーカ800として示されている。すなわち、マーカ800の座標は、当該ユーザの接地状態及び筋弾性特性をリアルタイムで示している。さらに、当該XY座標軸には、図10と同様に、好ましいランニングフォームの範囲を示す領域802が示されている。従って、ユーザが当該画面80を視認することにより、当該ユーザは、自身の現在のランニングフォームが良好なランニングフォームに対してどのような関係にあるかを把握することができ、自身のランニングフォームの改善に活用する。さらに、ウエアラブルデバイス20がアイウエア型のディスプレイ102を有するデバイスであった場合には、人物が走行する姿を持つ人型アイコン860(図20 参照)を表示してもよい。当該人型アイコン860は、走行中のユーザの状態を示し、より具体的には、例えば、ユーザの体が前方に傾斜している場合には前方に傾斜した姿勢で走行する人の姿を持つ。このような人型アイコン860を視認することにより、ユーザ又は第三者は、ランニングフォームの状態をさらに直感的に把握することができ、自身のランニングフォームの改善に活用することができる。
以上のように、実施例1によれば、走行中のユーザに対してリアルタイムにユーザ自身のランニングフォームの状態をフォードバックすることができる。従って、アスリートだけでなく、ジョギング等を楽しむ一般の人々も、自身のランニングフォームの状態をリアルタイムに把握し、当該把握を自身のランニングフォームの改善に活用することができる。また、ユーザ自身のみでランニングフォームの状態を把握することができることから、ユーザのランニングフォーム等を確認する第三者の存在も必要なく、ユーザは気軽に本実施形態に係る情報処理システム1を利用することができる。さらに、実施例1においては、評価点、XY座標軸上の表示等、直感的に理解できるような形式でランニングフォームの状態の情報をユーザに提示することから、子供等であっても自身のランニングフォームの状態を容易に理解することができる。
<3.2.実施例2>
次に、ユーザ以外の第三者、例えば、ユーザを指導する指導者等に対して、ユーザのランニングフォームの状態をリアルタイムに提供する実施例2について説明する。なお、ここで第三者とは、専門的なランニング等のスポーツに関する知識を有する専門家に限定されるものではなく、ユーザに当該ユーザのランニングフォームの状態を伝達したり、簡単なアドバイスを行ったりする一般の人も含むものとする。また、本実施例においては、第三者がディスプレイを有するユーザ端末70を用いることを前提としている。このような場合、多くの情報を当該ディスプレイに表示しても視認可能であることから、実施例1と異なり、ランニングフォームの状態に関する他の情報等をさらに表示させることができ、例えば、ランニングフォームの変化の履歴等を表示することができる。
実施例2の具体的な内容を、図14を参照して説明する。図14は、実施例2に係る表示画面の一例を説明する説明図である。ユーザ端末70の出力部710であるディスプレイには、図14に示す画面82が表示される。当該画面82は、上述した図10と同様に、接地状態及び筋弾性特性に係るXY座標軸が示されており、当該XY座標軸上に、推定部330により推定された接地状態及び筋弾性特性が、マーカ800及び曲線804によって示されている。詳細には、円形状のマーカ800は最新のランニングフォームの状態に係る指標を示し、曲線804は、ランニングフォームの状態に係る指標の過去の変化を示す。従って、当該画面82によれば、第三者は、曲線804の軌跡の座標及び形状により、ユーザのランニングフォームの状態がどのように変化しているのかを直感的に把握することができる。例えば、ユーザが長距離走行することにより、ランニングフォームの乱れ等(疲れ等によりランニングフォームが崩れてきている)が生じた場合には、第三者は、画面82に示される曲線804により、ランニングフォームに乱れが生じたことを直感的に把握することができる。
さらに、本実施例においては、ユーザに対して指導を行った際に第三者がユーザ端末70に対して入力操作を行うことにより、上記指導を行ったタイミングでの指標を示すことができる。より具体的には、画面82においては、指導を行ったタイミングでの指標は、X字形状のマーカ806によって示されている。このように、本実施例によれば、指導を行ったタイミングでの指標も示されることから、ユーザが、第三者から指導を受けた時点からのランニングフォームの状態の変化を直感的に把握することができ、当該指導の効果の検証を容易に行うことができる。
さらに、実施例2の変形例を、図15を参照して説明する。図15は、実施例2の変形例に係る表示画面の一例を説明する説明図であって、出力部710に表示される画面84を示す。当該画面84には、上述した図14と同様に、接地状態及び筋弾性特性に係るXY座標軸が示されており、当該XY座標軸上に示された接地状態及び筋弾性特性の履歴に対応する2種類のマーカ800a、800bが示されている。詳細には、円形状のマーカ800aが右足ランニングフォームの状態に係るステップごとの指標を示し、矩形状のマーカ800bが左足のランニングフォームに係るステップごとの指標を示す。また、当該画面84においては、過去の履歴に係る指標のマーカ800a、800bは、図中白抜きで示されているに対して、最新の指標を示すマーカ800a、800bは、図中塗りつぶされて示されている。
このように、本実施例においては、右足と左足とを分けて表示することにより、第三者は、ユーザの各足の状態の傾向をそれぞれ直感的に把握することができる。より具体的には、当該画面84においては、右足の指標を示すマーカ800aは一定の範囲に密集して示されているにもかかわらず、左足の指標を示すマーカ800bは、マーカ800aに比べて広範囲に示されている。このことから、第三者は、ユーザの走行中の左足の状態が不安定であることを直感的に把握することができる。すなわち、本実施例によれば、指標の履歴情報や、左右の足毎の指標を分けて示すことにより、第三者は、ユーザのランニングフォームの状態の傾向を直感的に把握することができる。従って、第三者は、ユーザのランニングフォームの状態の傾向を正確に把握して、当該把握に基づく的確な指導を当該ユーザに与えることができる。
なお、上述した判定部332は、推定された複数の指標に対して統計処理を行うことにより、ユーザのランニングフォームの状態に対する判定を行ってもよい。例えば、判定部332は、統計処理により得られた指標の分布範囲を所定の値を比較することにより、ランニングフォームの状態に対する判定を行ってもよい。上述の統計処理により得られた値は、ランニングフォームの状態等を解析する際の基準点として用いることができ、また、ユーザや指導者の理解のための客観的な指標としても用いることができる。また、図14及び図15においては、接地状態及び筋弾性特性の2つの指標がXY座標軸上に表示されているが、本実施形態においてはこれに限定されるものではなく、例えば、接地時間等の指標を追加してXYZの3つの座標軸上に表示してもよい。
さらなる、実施例2の変形例を、図16を参照して説明する。図16は、実施例2の変形例に係る表示画面の一例を説明する説明図であって、出力部710に表示される画面86を示す。当該画面86は、走行時間に対する、当該ユーザの推定された接地状態及び筋弾性特性の経時変化を表示する。詳細には、画面86において、1番上に位置する段に、右足の接地状態の経時変化808Rが示され、上から2番目に位置する段に、左足の接地状態の経時変化808Lが示される。各足の接地状態の経時変化808L、808Rは、ステップに合わせて矩形波状に示され、下側に突出している部分が、該当する足の足裏が接地している状態を示す。接地状態の経時変化808R、808Lの縦軸は、各ステップにおいて最初に接地する足裏の部位の位置が当該足裏の中央から離れている量を示し、下方に行くにしたがって最初に接地する足裏の部位の位置が当該足裏の中央に近づくこととなる。従って、経時変化808L、808Rにおいては、下側に突出している部分が下側に突出する量が大きいほど、各ステップにおいて最初に接地する足裏の部位の位置が当該足裏の中央に近づき、良好な接地状態に近づいていることを意味する。さらに、画面86には、経時変化808L、808Rとともに、好ましい接地状態である領域802も併せて表示されている。従って、第三者は、経時変化808L、808Rの下側に突出した分が、この領域802に含まれていれば、好ましい接地状態にあることを直感的に把握することができる。
また、当該画面86において、上から2番目に位置する段に、右足の筋弾性特性の経時変化810Rが示され、上から2番目に位置する段に、左足の筋弾性特性の経時変化810Lが示される。各足の筋弾性特性の経時変化810L、810Rは、ステップに合わせて矩形波状に示され、上側に突出している部分が、該当する足の足裏が接地している状態を示す。筋弾性特性の経時変化810R、810Lの縦軸は、各ステップにおける筋弾性特性の大きさを示し、上方に行くにしたがって各ステップにおける筋弾性特性の大きさは大きくなる。従って、経時変化810L、810Rにおいては、上側に突出している部分が上側に突出する量が大きいほど、筋弾性特性の大きさは大きくなり、良好な筋弾性特性に近づくこととなる。さらに、画面86には、経時変化810L、810Rとともに、好ましい接地状態である領域802も併せて表示されている。従って、経時変化810L、810Rの上側に突出した分が、この領域802に含まれていれば、第三者は、好ましい接地状態にあることを直感的に把握することができる。
なお、上述の説明においては、第三者に対してユーザのランニングフォームの状態がリアルタイムで提示されるものとして説明したが、本実施例においてはこれに限定されるものではなく、走行後のユーザに提示されてもよい。この場合、ユーザは、自己の走行に関する履歴を容易に把握することができることから、自身の走行の内容を検討し、検討内容を自身のランニングフォームの改善に活用することができる。
<3.3.実施例3>
上述の実施例2では、1回の走行における指標の履歴情報をユーザ又は第三者に提示していたが、本実施形態は、これに限定されるものではない。例えば、本実施形態においては、1つの継続した走行中における履歴ではなく、数日、数か月にわたるユーザのランニングフォームの状態に係る指標の履歴情報をユーザ又は第三者に提示してもよい。このように、長期間にわたるランニングフォームに係る指標の変化を提示することにより、ユーザ又は第三者は、長期間にわたるトレーニングの効果の検証を行うことができ、当該検証をさらなるランニングフォームの改善に活用することができる。以下にこのような実施例について説明する。
実施例3の具体的な内容を、図17を参照して説明する。図17は、本実施形態に係る実施例3に係る表示画面の一例を説明する説明図であって、出力部710に表示される画面88を示す。当該画面88は、例えば、数日間、数か月に亘る長期間のトレーニング期間における、当該ユーザの推定された接地状態及び筋弾性特性の経時変化、及び走行状態の判定としての得点の経時変化を示す。詳細には、画面88において2番目に位置する段に、ユーザのランニングフォームに対する評価点の経時変化820が示され、上から3番目に位置する段に、接地状態の経時変化822が示され、一番下に位置する段には、筋弾性特性の経時変化が示されている。なお、各日の評価点、接地状態及び筋弾特性は、該当する日におけるそれぞれの平均値等を用いるものとする。また、経時変化820においては、図中上方に推移するほど、評価点が上昇したことを示す。さらに、経時変化822においては、図中下方に推移するほど、接地状態が改善したことを示し、経時変化804においては、図中上方に推移するほど、筋弾性特性が改善したことを示す。加えて、画面88には、図16と同様に、接地状態及び筋弾性特性の経時変化822、824とともに、好ましい接地状態及び筋弾性特性である領域802も併せて表示されている。また、画面88には、ユーザが第三者による指導を受けた日には、X字形状のマーカ826によって示されている。
より具体的には、画面88によれば、ユーザは、トレーニングを開始した当初は、経時変化820が示すように、自身のランニングフォームの評価点は低い。さらに、接地状態及び筋弾性特性についても、当初は、経時変化822、824が領域802に入っていないことから、良好な接地状態及び筋弾性特性ではなかったことがわかる。さらに、画面88によれば、ユーザはトレーニングを継続し、第三者からの複数回の指導を受けることにより、経時変化820が示す評価点が上昇していることがわかる。また、画面88によれば、経時変化822が領域802に含まれるようになっていることから、接地状態についても改善されてきていることがわかる。しかしながら、画面88によれば、筋弾性特性については、接地状態とは異なり、指導を複数回受けても経時変化824が領域802に含まれていないことから、あまり改善されていないことがわかる。
このように、実施例3によれば、数日、数か月に亘るユーザの評価点及び指標の経時変化を、容易に把握することができる形式で、ユーザ又は第三者に提示することができる。グラフや統計処理により得られた数値は、直観的にも客観的にも把握できることができることから、ユーザ又は第三者は、実施例3において掲示された情報を、トレーニングの効果の検証や、ランニングフォームの改善策の検討に容易に活用することができる。
また、画面88の一番上に位置する段には、ユーザの走行中の画像828を示してもよい。当該画像828は、サーバ30の画像取得部360によって、走行中のユーザの姿を撮像した撮像装置(図示省略)から取得される。なお、当該画像828は、該当日のユーザの走行状態を示す代表的な静止画像であってもよく、もしくは、各画像828に対して操作を行うことにより、該当日のユーザのトレーニング中の動画像の表示が開始されるようになっていてもよい。本実施例においては、走行中のユーザの画像828を、評価点等の経時変化とともに表示することにより、ユーザ又は第三者は、必要に応じて当該画像を参照し、ユーザのランニングフォームの改善策等の検証を容易に行うことができる。
なお、本実施例に係る表示画面は、図17に示される画面88に限定されるものではない。本実施例においては、例えば、評価点の数値自体を表示したり、該当日のトレーニングにて走行した走行距離の値を表示したりしてもよく、さらに指導を行った人物を特定するための情報を表示してもよい。また、本実施例においては、指導の内容、具体的には、「走行時のユーザの体幹の傾きを垂直に近づけるような指導を行った」、「走行中のユーザの視線がユーザの前方5mになるように意識するように指導を行った」等の情報を併せて表示してもよい。さらに、本実施例においては、指導内容は、接地状態又は筋弾性特性のいずれかに特化して指導を行った等の情報であってもよい。さらに、本実施例においては、ユーザ又は第三者により入力されたユーザの目標についての情報を併せて表示してもよい。ユーザ又は第三者は、表示された目標の内容を見ることで、ユーザが目標を達成することができたか否かを確認することができる。このような情報を併せて表示することにより、指導内容及びトレーニングの検討をより深めることができる。このようにユーザのトレーニングにおける指導内容の情報等を提示することは、ユーザ自身のみで自主的にトレーニングを行う際に特に有用な情報をユーザに提供することになることから、より効果的なトレーニングの実践につなげることができる。なお、上述したような情報は、例えば、ユーザに対して指導を行った際に第三者がユーザ端末70に対して入力操作を行うことによりサーバ30に入力され、上述のように画面表示されることによりユーザ又は第三者に提供される。
<<4.第2の実施形態>>
先に説明したように、専門的な知識を有していない一般の人々は、現状のユーザのランニングフォームを把握し、把握したランニングフォームに応じて、ランニングフォームを改善するための適切なアドバイスを当該ユーザに与えることが難しい。そこで、本実施形態においては、第1の実施形態と同様に推定された接地状態及び筋弾性特性を利用して、ユーザ、又は、非専門家である第三者に対して、適切なアドバイスを提供することができる第2の実施形態を説明する。
<4.1.第2の実施形態に係るサーバ30の構成>
なお、本実施形態においては、情報処理システム1、ウエアラブルデバイス20、及びユーザ端末70の構成は、第1の実施形態と共通であり、第1の実施形態のこれら構成の説明を参照し得る。従って、ここでは、情報処理システム1、ウエアラブルデバイス20、及びユーザ端末70の構成の説明を省略し、サーバ30について説明する。
また、本実施形態に係るサーバ30についても、図7に示される第1の実施形態に係るサーバ30のブロック図と同様の構成を持つ。しかしながら、本実施形態においては、情報選択部334に動作については第1の実施形態と異なる。従って、ここでは、第1の実施形態と共通する機能部についての説明を省略し、情報選択部334についてのみ説明する。
情報選択部334は、推定部330の推定結果に応じて、ユーザ、又は、ユーザ以外の第三者に提供されるアドバイスを記憶部350に格納されている情報から選択する。そして、情報選択部334は、選択したアドバイスを出力制御部326に出力する。なお、情報選択部334の動作の詳細については、以下に説明する。
<4.2.第2の実施形態に係る情報処理方法>
次に、第2の実施形態に係る情報処理方法、すなわち、情報選択部334の動作の一例について、図18から図20を参照して説明する。図18は、本実施形態に係る情報処理方法の一例を説明するフロー図である。図19は、本実施形態に係る情報選択部334の動作の一例を説明するための説明図である。さらに、図20は、本実施形態に係る表示画面の一例を説明する説明図である。図18に示すように、本実施形態に係る情報処理方法には、ステップS201からステップS207までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。
(ステップS201)
情報選択部334は、図12の第1の実施形態のステップS103において推定部330により推定されたユーザの接地状態及び筋弾性特性を取得する。
(ステップS203)
情報選択部334は、上述のステップS203で取得した推定結果に基づいて、ユーザのランニングフォームの状態が属するグループを選択する。
以下に、図19を参照して、情報選択部334によるグループの選択の方法について説明する。図19には、上述した図10と同様に、接地状態及び筋弾性特性に係るXY座標軸が示されている。さらに、図19に示すように、当該XY座標軸上においては、複数の領域840a〜e、xが設定されている。各領域840a〜e、xは、接地状態及び筋弾性特性に基づいて、ランニングフォームの状態が類似する傾向を持っていると判断することができるグループa〜e、xとしてみなすことができる範囲として設定されている。例えば、領域840xに対応するグループxは、接地状態及び筋弾性特性ともに良好な範囲にあり、好ましいランニングフォームの状態であると推定されるグループである。一方、領域840aに対応するグループaは、接地状態については踵からの接地するような状態にあり、且つ、筋弾性特性も低い状態にあることから、好ましいランニングフォームの状態にないと推定されるグループである。先に説明したように、接地状態及び筋弾性特性は、ランニングフォームの状態と相関性を持つことから、接地状態及び筋弾性特性を用いることで、ランニングフォームの状態を区分することができる。
そして、情報選択部334は、推定部330によって推定された2つの指標(接地状態、筋弾性特性)を図19のXY座標軸上にプロットし、プロットされたマーカ830を含む領域に対応するグループをユーザのランニングフォームの状態の属するグループとして選択する。例えば、図19に示される例では、マーカ830が領域840aに含まれていることから、情報選択部334は、ユーザのランニングフォームの状態の属するグループとしてグループaを選択する。
(ステップS205)
次に、情報選択部334は、上述のステップS203での選択結果に基づいて、ユーザ又は第三者に提供されるアドバイスを選択する。
詳細には、上述したように接地状態及び筋弾性特性によって区分された各グループ内においては、ランニングフォームの状態に共通する傾向を持つことから、好ましいランニングフォームに導くための指導方法についても、共通する傾向を持つと考えられる。例えば、グループAに属するランナーには「背筋を伸ばす」との指導が効果的であり、グループBに属するランナーには「背筋を伸ばす」との指導が効果的ではない。すなわち、ランニングフォームの状態の傾向に応じて、グループごとに適切なランニングフォームへ導くための指導が存在する。そこで、本実施形態においては、記憶部350は、各グループに紐づけて、各グループに属するランナーに効果的であった具体的な指導方法を予め格納する。また、格納される指導方法は、専門的な知識を有する指導者の教示により構築してもよく、もしくは、本実施形態に係る情報処理システム1を稼働する中で取得された上方によって構築してもよい。このように、情報選択部334は、推定部330の推定結果に基づいて、ユーザのランニングフォームの状態の属するグループを選択し、選択したグループに紐づけられた指導方法をアドバイスとして記憶部350から選択する。
(ステップS207)
情報選択部334は、取得したアドバイスを出力制御部326に出力する。
より具体的には、ステップS207で選択された指導方法は、図20に示すような画面90によって、ユーザ又は第三者に提示される。図20は、本実施形態に係る表示画面の一例を説明する説明図であって、出力部710に表示される画面90を示す。当該画面90には、上述した図13と同様に、当該画面90の左上側にはユーザのランニングフォームの評価点が示され、左下側のウインドウ92には、上述した図10と同様に、接地状態及び筋弾性特性がマーカ800としてXY座標軸が示されている。
さらに、図20に示されるように、図中右上側のウインドウ94には、ステップS205で選択されたアドバイスが指導ポイント850して示されている。具体的には、図20には、指導ポイント850として、「背筋を伸ばす」、「左肩を下げる(左右バランス)」、「前方の見る」の3つのアドバイスが示されている。ユーザは表示された指導ポイント850に基づいてトレーニングを行うことができ、第三者は、表示された指導ポイント850のうちから必要と判断されるものを選択してユーザに伝達することにより、適切なアドバイスをユーザに対して行うことができる。
加えて、当該ウインドウ94には、人物が走行する姿を持つ人型アイコン860が示されている。当該人型アイコン860は、先に説明したように、走行中のユーザの状態を示すような形状を持つ。さらに、人型アイコン860の部分を指し示す矢印等を表示させることにより、ユーザが走行中に注意しなくてはならない身体の部位を明示している。このような人型アイコン860を用いることにより、ユーザ又は第三者は、ランニングフォームの状態や、注意しなくてはならないポイントを直感的に把握することができる。なお、人型アイコン860の表示については、情報選択部334が、ステップS205で選択されたアドバイスに対応するアイコンを選択することにより、実現することができる。
さらに、当該画面90には、図中下側に示すウインドウ96には、ユーザの走行時の天候、気温、風速、風向き等の気象状態もアイコンや数値により示されている。このように、本実施形態においては、走行中のユーザの周囲環境等、総合的な情報も画面表示することが好ましい。ユーザ又は第三者は、このような総合的な情報に基づき、ユーザのランニングフォーム等を検討することができる。なお、気象状態に関する情報等は、例えば、ユーザ又は第三者がユーザ端末70に対して入力操作を行うことにより取得してもよく、もしくは、ウエアラブルデバイス20に内蔵された温度センサ、気圧センサ等を用いて取得されてもよい。または、気象予報会社等のデータベース(図示省略)からネットワーク98を介して取得してもよい。
以上のように、本実施形態においては、第1の実施形態と同様に推定された接地状態及び筋弾性特性を利用して、ユーザのランニングフォームの状態の属するグループを選択し、選択したグループに応じたアドバイスをユーザ等に提示することができる。従って、本実施形態によれば、専門家でなくても、ユーザのランニングフォームの状態に応じた適切なアドバイスを取得することができる。なお、本実施形態で提供される指導方法の情報は、第1の実施形態を活用して効果が高いと判断された指導方法の情報をサーバ30に蓄積することにより構築されてもよい。また、上記アドバイスの情報は、第1の実施形態に得られた指標の変化と、各指導方法との相関とを示す統計情報を用いて、構築されてもよい。このように構築された情報は、ユーザのランニングフォームの改善に活用されるだけでなく、指導者の指導スキルの向上にも活用することができる。
なお、本実施形態においては、情報選択部334における指導方法の選択は、上述した方法に限定されるものではなく、他の方法を用いてもよい。
<<5.まとめ>>
以上説明したように、上述した本開示の実施形態によれば、ユーザに対してランニングフォームの状態をリアルタイムにフィードバックすることが可能であり、且つ、容易に利用可能なシステムを提供することができる。その結果、ユーザ又は第三者は、リアルタイムにユーザのランニングフォームの状態を把握することができることから、ユーザのランニングフォームの検討等を効果的に行うことができる。
上述においては、走歩行の一例としてのジョギング、ランニング等の長距離の走行に対して、本開示の実施形態を適用した例を用いて説明しているが、本開示の実施形態は、このような長距離走行への適用に限定されるものではない。例えば、本実施形態は、走歩行の1つとして、トラック競技等の短距離走に対して適用してもよく、もしくは、山地等を長距離歩行するトレッキング等の歩行に対して適用してもよい。さらには、本実施形態は、スピードスケートやクロスカントリースキー等の他のスポーツに適用してもよい。この場合、適用する走歩行の内容、スポーツの種類等に応じて、走歩行状態等を把握するための指標を変えることとなり、さらに、走歩行状態等の良し悪しの判断も変えることとなる。
また、上述の実施形態においては、本実施形態に係るウエアラブルデバイス20にサーバ30の機能を担わせることにより、ウエアラブルデバイス20をスタンドアローン型の装置としてもよい。このような場合には、上述した学習器600の機能は、他の情報処理装置において実施し、他の情報処理装置における機械学習によりセンシング情報と接地状態等との関係を示す関係情報を格納したDB610をウエアラブルデバイス20に格納させる。このようにすることで、ウエアラブルデバイス20で行われる処理機能を低減し、ウエアラブルデバイス20をコンパクトな形状にすることができることから、スタンドアローン型のウエアラブルデバイス20であっても、様々なユーザの身体の部位に装着することが可能となる。
<<6. ハードウェア構成について>>
図21は、本実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。図21では、情報処理装置900は、上述のサーバ30のハードウェア構成の一例を示している。
情報処理装置900は、例えば、CPU950と、ROM952と、RAM954と、記録媒体956と、入出力インタフェース958と、操作入力デバイス960とを有する。さらに、情報処理装置900は、表示デバイス962と、通信インタフェース968と、センサ980とを有する。また、情報処理装置900は、例えば、データの伝送路としてのバス970で各構成要素間を接続する。
(CPU950)
CPU950は、例えば、CPU等の演算回路で構成される、1または2以上のプロセッサや、各種処理回路等で構成され、情報処理装置900全体を制御する制御部(図示省略)や、ユーザの接地状態を推定し、ユーザの走行状態の判定等を行う処理部324として機能する。
(ROM952及びRAM954)
ROM952は、CPU950が使用するプログラムや演算パラメータ等の制御用データ等を記憶する。RAM954は、例えば、CPU950により実行されるプログラム等を一時的に記憶する。ROM952及びRAM954は、情報処理装置900において、例えば、上述の記憶部350の機能を果たす。
(記録媒体956)
記録媒体956は、上述の記憶部350として機能し、例えば、本実施形態に係る情報処理方法に係るデータや、各種アプリケーション等様々なデータを記憶する。ここで、記録媒体956としては、例えば、ハードディスク等の磁気記録媒体や、フラッシュメモリ等の不揮発性メモリが挙げられる。また、記録媒体956は、情報処理装置900から着脱可能であってもよい。
(入出力インタフェース958、操作入力デバイス960及び表示デバイス962)
入出力インタフェース958は、例えば、操作入力デバイス960や、表示デバイス962等を接続する。入出力インタフェース958としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路等が挙げられる。
操作入力デバイス960は、入力部300として機能し、例えば、情報処理装置900に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。操作入力デバイス960としては、例えば、ボタンや、方向キー、ジョグダイヤル等の回転型セレクター、タッチパネル、あるいは、これらの組み合わせ等が挙げられる。
表示デバイス962は、出力部310として機能し、例えば、情報処理装置900上に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。表示デバイス962としては、例えば、液晶ディスプレイや有機ELディスプレイ(Organic Electro-Luminescence Display)等が挙げられる。
なお、入出力インタフェース958が、情報処理装置900の外部の操作入力デバイス(例えば、キーボードやマウス等)や外部の表示デバイス等の、外部デバイスと接続することも可能であることは、言うまでもない。
(通信インタフェース968)
通信インタフェース968は、通信部340として機能する情報処理装置900が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、サーバ等の外部装置と、無線または有線で通信を行うための通信部(図示省略)として機能する。ここで、通信インタフェース968としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)等が挙げられる。
以上、情報処理装置900のハードウェア構成の一例を示した。なお、情報処理装置900のハードウェア構成は、図21に示す構成に限られない。詳細には、上記の各構成要素は、汎用的な部材を用いて構成してもよいし、各構成要素の機能に特化したハードウェアにより構成してもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
例えば、情報処理装置900は、接続されている外部の通信デバイスを介して外部装置等と通信を行う場合や、スタンドアローンで処理を行う構成である場合には、通信インタフェース968を備えていなくてもよい。また、通信インタフェース968は、複数の通信方式によって、1または2以上の外部装置と通信を行うことが可能な構成を有していてもよい。また、情報処理装置900は、例えば、記録媒体956や、操作入力デバイス960、表示デバイス962等を備えない構成をとることも可能である。
また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。
<<7.補足>>
なお、先に説明した本開示の実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
また、上述した各実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法で処理されていてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得するセンシング情報取得部と、前記センシング情報から前記ユーザの足の接地状態を推定する推定部と、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する通知部と、を備える情報処理装置。
(2)前記推定部は、前記接地状態の推定として、前記ユーザの走歩行に係る各ステップにおいて、最初に接地する足裏の部位の位置を推定する、上記(1)に記載の情報処理装置。
(3)前記センシング情報と前記接地状態との関係を示す関係情報を格納する記憶部をさらに備え、前記推定部は、前記記憶部に予め格納された前記関係情報を利用して、前記接地状態を推定する、上記(1)又は(2)に記載の情報処理装置。
(4)前記関係情報を機械学習する学習器をさらに備える、上記(3)に記載の情報処理装置。
(5)前記推定部は、前記センシング情報から前記ユーザの足の筋弾性特性を推定する、上記(1)に記載の情報処理装置。
(6)前記推定部は、前記筋弾性特性の推定として、前記ユーザの走歩行に係る各ステップにおいて、前記ユーザの足の筋肉において得られた弾性エネルギーを推定する、上記(5)に記載の情報処理装置。
(7)前記センシング情報と前記筋弾性特性との関係を示す関係情報を格納する記憶部をさらに備え、前記推定部は、前記記憶部に予め格納された前記関係情報を利用して、前記筋弾性特性を推定する、上記(5)又は(6)に記載の情報処理装置。
(8)前記センシング情報には、前記ユーザに装着された加速度センサ、又は、ジャイロセンサから得られたセンシング情報が含まれる、上記(1)〜(7)のいずれか1つに記載の情報処理装置。
(9)前記推定された接地状態に基づいて、前記ユーザの走歩行状態に対して判定を行う判定部をさらに備える、上記(1)〜(8)のいずれか1つに記載の情報処理装置。
(10)前記判定部は、前記センシング情報から得られた、前記ユーザの走歩行に係る各ステップにおける前記ユーザの足裏の接地時間に基づいて、前記ユーザの走歩行状態に対して判定を行う、上記(9)に記載の情報処理装置。
(11)前記通知部は、前記判定部による判定結果を通知する、上記(9)又は(10)に記載の情報処理装置。
(12)前記通知部は、走歩行中の前記ユーザに対して、前記ユーザの走歩行状態に係る情報をリアルタイムで通知する、上記(1)〜(11)のいずれか1つに記載の情報処理装置。
(13)前記通知部は、前記ユーザの身体に装着された音声出力装置に対して音声を出力させる制御、前記ユーザの身体に装着された振動装置に対して振動させる制御、及び、前記ユーザの身体に装着された表示装置に画像表示させる制御のうちの少なくとも1つの制御を行うことにより前記通知を行う、上記(12)に記載の情報処理装置。
(14)前記通知部は、前記ユーザ以外の他のユーザに対して、前記ユーザの走歩行状態に係る情報をリアルタイムで通知する、上記(1)〜(13)のいずれか1つに記載の情報処理装置。
(15)前記通知部は、前記他のユーザの有する端末に対して画像表示させる制御を行うことにより、前記他のユーザに対する通知を行う、上記(14)に記載の情報処理装置。
(16)前記通知部は、前記推定された接地状態に基づいて選択された、前記ユーザに対する前記走歩行状態を改善するためのアドバイスを通知する、上記(1)〜(15)のいずれか1つに記載の情報処理装置。
(17)前記通知部は、前記推定された接地状態に基づいて、前記走歩行状態に対応するグループを選択し、選択された前記グループに紐づけられた前記アドバイスを通知する、上記(16)に記載の情報処理装置。
(18)前記走歩行するユーザを撮像する撮像装置からの撮像情報を取得する撮像情報取得部をさらに備え、前記通知部は前記撮像情報を通知する、上記(1)〜(17)のいずれか1つに記載の情報処理装置。
(19)走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得することと、前記センシング情報から前記ユーザの足の接地状態を推定することと、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知することと、を含む、情報処理方法。
(20)走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得する機能と、前記センシング情報から前記ユーザの足の接地状態を推定する機能と、推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する機能と、をコンピュータに実現させるためのプログラム。
1 情報処理システム
20、20a、20b ウエアラブルデバイス
24、106 ネックバンド
22L、22R、100L、100R 本体部
30 サーバ
70 ユーザ端末
80、82、84、86、88、90 画面
92、94、96 ウインドウ
98 ネットワーク
102 ディスプレイ
104 レンズ
200 センサ部
210、320、720 主制御部
212、322 データ取得部
214、324 処理部
216、326 出力制御部
220、340、730 通信部
230 提示部
300、700 入力部
310、710 出力部
330 推定部
332 判定部
334 情報選択部
350、740 記憶部
360 画像取得部
600 学習器
610 DB
800、800a、800b、806、826、830 マーカ
802、840a、840b、840c、840d、840d、840e、840x 領域
804 曲線
808L、808R、810L、810R、820、822、824 経時変化
828 画像
850 指導ポイント
860 アイコン
950 CPU
952 ROM
954 RAM
956 記録媒体
958 入出力インタフェース
960 操作入力デバイス
962 表示デバイス
964 音声出力デバイス
966 音声入力デバイス
968 通信インタフェース
970 バス

Claims (20)

  1. 走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得するセンシング情報取得部と、
    前記センシング情報から前記ユーザの足の接地状態を推定する推定部と、
    推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する通知部と、
    を備える情報処理装置。
  2. 前記推定部は、前記接地状態の推定として、前記ユーザの走歩行に係る各ステップにおいて、最初に接地する足裏の部位の位置を推定する、請求項1に記載の情報処理装置。
  3. 前記センシング情報と前記接地状態との関係を示す関係情報を格納する記憶部をさらに備え、
    前記推定部は、前記記憶部に予め格納された前記関係情報を利用して、前記接地状態を推定する、
    請求項1に記載の情報処理装置。
  4. 前記関係情報を機械学習する学習器をさらに備える、請求項3に記載の情報処理装置。
  5. 前記推定部は、前記センシング情報から前記ユーザの足の筋弾性特性を推定する、請求項1に記載の情報処理装置。
  6. 前記推定部は、前記筋弾性特性の推定として、前記ユーザの走歩行に係る各ステップにおいて、前記ユーザの足の筋肉において得られた弾性エネルギーを推定する、請求項5に記載の情報処理装置。
  7. 前記センシング情報と前記筋弾性特性との関係を示す関係情報を格納する記憶部をさらに備え、
    前記推定部は、前記記憶部に予め格納された前記関係情報を利用して、前記筋弾性特性を推定する、
    請求項5に記載の情報処理装置。
  8. 前記センシング情報には、前記ユーザに装着された加速度センサ、又は、ジャイロセンサから得られたセンシング情報が含まれる、請求項1に記載の情報処理装置。
  9. 前記推定された接地状態に基づいて、前記ユーザの走歩行状態に対して判定を行う判定部をさらに備える、請求項1に記載の情報処理装置。
  10. 前記判定部は、前記センシング情報から得られた、前記ユーザの走歩行に係る各ステップにおける前記ユーザの足裏の接地時間に基づいて、前記ユーザの走歩行状態に対して判定を行う、請求項9に記載の情報処理装置。
  11. 前記通知部は、前記判定部による判定結果を通知する、請求項9に記載の情報処理装置。
  12. 前記通知部は、走歩行中の前記ユーザに対して、前記ユーザの走歩行状態に係る情報をリアルタイムで通知する、請求項1に記載の情報処理装置。
  13. 前記通知部は、前記ユーザの身体に装着された音声出力装置に対して音声を出力させる制御、前記ユーザの身体に装着された振動装置に対して振動させる制御、及び、前記ユーザの身体に装着された表示装置に画像表示させる制御のうちの少なくとも1つの制御を行うことにより前記通知を行う、請求項12に記載の情報処理装置。
  14. 前記通知部は、前記ユーザ以外の他のユーザに対して、前記ユーザの走歩行状態に係る情報をリアルタイムで通知する、請求項1に記載の情報処理装置。
  15. 前記通知部は、前記他のユーザの有する端末に対して画像表示させる制御を行うことにより、前記他のユーザに対する通知を行う、請求項14に記載の情報処理装置。
  16. 前記通知部は、前記推定された接地状態に基づいて選択された、前記ユーザに対する前記走歩行状態を改善するためのアドバイスを通知する、請求項1に記載の情報処理装置。
  17. 前記通知部は、前記推定された接地状態に基づいて、前記走歩行状態に対応するグループを選択し、選択された前記グループに紐づけられた前記アドバイスを通知する、請求項16に記載の情報処理装置。
  18. 前記走歩行するユーザを撮像する撮像装置からの撮像情報を取得する撮像情報取得部をさらに備え、
    前記通知部は前記撮像情報を通知する、請求項1に記載の情報処理装置。
  19. 走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得することと、
    前記センシング情報から前記ユーザの足の接地状態を推定することと、
    推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知することと、
    を含む、情報処理方法。
  20. 走歩行するユーザの身体に装着された1つ又は複数のセンサからセンシング情報を取得する機能と、
    前記センシング情報から前記ユーザの足の接地状態を推定する機能と、
    推定された前記接地状態に基づいて、前記ユーザの走歩行状態に係る情報を通知する機能と、
    をコンピュータに実現させるためのプログラム。
JP2019508590A 2017-03-28 2018-01-05 情報処理装置、情報処理方法及びプログラム Active JP7020479B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017062660 2017-03-28
JP2017062660 2017-03-28
PCT/JP2018/000102 WO2018179664A1 (ja) 2017-03-28 2018-01-05 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018179664A1 true JPWO2018179664A1 (ja) 2020-02-13
JP7020479B2 JP7020479B2 (ja) 2022-02-16

Family

ID=63674661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508590A Active JP7020479B2 (ja) 2017-03-28 2018-01-05 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20200001159A1 (ja)
JP (1) JP7020479B2 (ja)
CN (1) CN110337316B (ja)
WO (1) WO2018179664A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022051173A (ja) * 2020-09-18 2022-03-31 株式会社日立製作所 運動評価装置および運動評価システム
EP4282497A1 (en) * 2021-01-21 2023-11-29 Sony Group Corporation Information processing method, information processing system, information terminal, and computer program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002306628A (ja) * 2001-04-17 2002-10-22 Hitachi Ltd 歩行機能検査装置
JP2007236663A (ja) * 2006-03-09 2007-09-20 Shigeki Toyama 筋疲労の評価方法、筋疲労度評価装置、および、使用者の生理学的状況をリアルタイムで反映する運動支援システム
JP2009000391A (ja) * 2007-06-23 2009-01-08 Tanita Corp 歩行評価システム、歩行計、歩行評価プログラムおよび記録媒体
JP2009254788A (ja) * 2008-03-28 2009-11-05 Alcare Co Ltd 筋肉評価装置、筋肉の性能及び/又はトレーニングメニューの判定方法
CN102247151A (zh) * 2011-04-25 2011-11-23 中国科学院合肥物质科学研究院 一种肌肉张力传感器及肌肉张力检测方法
TW201315515A (zh) * 2011-08-09 2013-04-16 Tno 跑步方式之回饋方法及系統
US8460001B1 (en) * 2011-04-14 2013-06-11 Thomas C. Chuang Athletic performance monitoring with overstride detection
CN106470738A (zh) * 2014-06-25 2017-03-01 雀巢产品技术援助有限公司 用于提高肌肉力量的训练系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI427558B (zh) * 2010-12-06 2014-02-21 Ind Tech Res Inst 遮蔽骨架之位置估算系統、遮蔽骨架之位置估算方法及遮蔽骨架之重建方法
JP6152763B2 (ja) * 2013-09-19 2017-06-28 カシオ計算機株式会社 運動支援装置及び運動支援方法、運動支援プログラム
JP2016034482A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 運動解析装置、運動解析方法、運動解析プログラム及び運動解析システム
KR20160075118A (ko) * 2014-12-19 2016-06-29 한국산업기술대학교산학협력단 보행 재활 로봇의 무게 중심 추정 시스템 및 방법
US10157488B2 (en) * 2015-09-21 2018-12-18 TuringSense Inc. System and method for capturing and analyzing motions
EP3257437A1 (en) * 2016-06-13 2017-12-20 Friedrich-Alexander-Universität Erlangen-Nürnberg Method and system for analyzing human gait

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002306628A (ja) * 2001-04-17 2002-10-22 Hitachi Ltd 歩行機能検査装置
JP2007236663A (ja) * 2006-03-09 2007-09-20 Shigeki Toyama 筋疲労の評価方法、筋疲労度評価装置、および、使用者の生理学的状況をリアルタイムで反映する運動支援システム
JP2009000391A (ja) * 2007-06-23 2009-01-08 Tanita Corp 歩行評価システム、歩行計、歩行評価プログラムおよび記録媒体
JP2009254788A (ja) * 2008-03-28 2009-11-05 Alcare Co Ltd 筋肉評価装置、筋肉の性能及び/又はトレーニングメニューの判定方法
US8460001B1 (en) * 2011-04-14 2013-06-11 Thomas C. Chuang Athletic performance monitoring with overstride detection
CN102247151A (zh) * 2011-04-25 2011-11-23 中国科学院合肥物质科学研究院 一种肌肉张力传感器及肌肉张力检测方法
TW201315515A (zh) * 2011-08-09 2013-04-16 Tno 跑步方式之回饋方法及系統
JP2014528752A (ja) * 2011-08-09 2014-10-30 ネーデルランツェ・オルガニザーティ・フォール・トゥーヘパストナトゥールウェテンシャッペレイク・オンダーズーク・テーエヌオー ランニングスタイルについてフィードバックするための方法及びシステム
CN106470738A (zh) * 2014-06-25 2017-03-01 雀巢产品技术援助有限公司 用于提高肌肉力量的训练系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Altra IQ 2016年履いてみたいシューズその1 〜シューズアドバイザー日記〜", [ONLINE], JPN6018006813, 21 January 2016 (2016-01-21), ISSN: 0004631231 *

Also Published As

Publication number Publication date
WO2018179664A1 (ja) 2018-10-04
CN110337316A (zh) 2019-10-15
US20200001159A1 (en) 2020-01-02
CN110337316B (zh) 2022-03-22
JP7020479B2 (ja) 2022-02-16

Similar Documents

Publication Publication Date Title
KR101687252B1 (ko) 맞춤형 개인 트레이닝 관리 시스템 및 방법
US10026335B2 (en) Activity recognition with activity reminders
JP6273364B2 (ja) エネルギー消費装置
JP5465285B2 (ja) スポーツ用電子トレーニングシステム及びトレーニングフィードバックを提供する方法
JP5744074B2 (ja) スポーツ用ボールを有するスポーツ用電子トレーニングシステム及びそのアプリケーション
JP2018138167A (ja) セッションとグループ
JP6539263B2 (ja) 目標動機付けを提供するように構成されたフィットネス装置
CN111228752B (zh) 用于自动配置传感器的方法、电子设备和记录介质
JP2013078593A (ja) 電子ゲーム機能を有するスポーツ用電子トレーニングシステム及びそのアプリケーション
CN104126184A (zh) 用于包括训练计划的自动个人训练的方法和系统
CN107205661B (zh) 使用来自多个设备的数据进行能量消耗计算
US20220266091A1 (en) Integrated sports training
JP7020479B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN113457106B (zh) 一种跑步姿态检测方法与穿戴设备
US11839466B2 (en) Biofeedback for altering gait
KR20210002425A (ko) 오토코칭정보 제공방법 및 시스템
KR20220170414A (ko) 가상운동기 및 가상운동시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151