JP2009213782A - 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム - Google Patents
運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2009213782A JP2009213782A JP2008063137A JP2008063137A JP2009213782A JP 2009213782 A JP2009213782 A JP 2009213782A JP 2008063137 A JP2008063137 A JP 2008063137A JP 2008063137 A JP2008063137 A JP 2008063137A JP 2009213782 A JP2009213782 A JP 2009213782A
- Authority
- JP
- Japan
- Prior art keywords
- exercise
- movement
- image
- moving image
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】ユーザの運動能力及びユーザの動きの個性に適した映像コンテンツを提供させることができる運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラムを提供する。
【解決手段】運動支援装置1の端末制御装置は、ユーザを撮影するカメラを利用した第1撮影部13及び第2撮影部14から取得した撮影画像から、ユーザの体の各部位に相当する領域を判別し、判別した領域の撮影画像における位置に基づいてユーザの体の各部位が第1表示部11に表示させている見本の運動動作に対応して追従できているか否かを判断し、追従できていない場合には見本の運動動作の運動レベルを下げる、表示速度を下げるなど、判断結果に応じて表示する内容を選択する。
【選択図】図1
【解決手段】運動支援装置1の端末制御装置は、ユーザを撮影するカメラを利用した第1撮影部13及び第2撮影部14から取得した撮影画像から、ユーザの体の各部位に相当する領域を判別し、判別した領域の撮影画像における位置に基づいてユーザの体の各部位が第1表示部11に表示させている見本の運動動作に対応して追従できているか否かを判断し、追従できていない場合には見本の運動動作の運動レベルを下げる、表示速度を下げるなど、判断結果に応じて表示する内容を選択する。
【選択図】図1
Description
本発明は、運動動作の見本の動画像を表示部に表示することにより、ユーザ(被支援者)の運動を支援することができる運動支援装置に関する。特に、ユーザの運動能力及びユーザの動きの個性に適した映像コンテンツを提供させることができる運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラムに関する。
書籍、放送、ビデオ等の各種メディアを利用し、ユーザは見本となる動画像コンテンツを視聴しながら健康増進を目的とした運動を行なう場合がある。この場合、ユーザは好みの時間及び場所で運動することが可能である一方、当該動画像コンテンツを参照することによって行なう運動メニューは画一的となる。したがってユーザは個々の能力及び目的に適した運動を行なうことができるとは限らない。このため、継続的な運動が重要であるにも拘らず運動メニューが個々の能力に合わず、ユーザにとって継続が困難となる可能性が高い。
これに対し特許文献1及び2には、ユーザ個々の条件に応じた運動を可能とするシステムが提案されている。
特許文献1に開示されているトレーニング管理システムは、ホスト装置とユーザが利用するトレーニング装置とにより構成されており、トレーニング装置から送信されたユーザ特定情報に基づいてホスト装置がトレーニングメニューを作成し、作成したトレーニングメニューに従った負荷設定情報をトレーニング装置へ送信する。トレーニング装置は、ホスト装置から送信された負荷設置情報を受信し、負荷設定情報に基づいて負荷を変化させてユーザ夫々に適した負荷のトレーニングをさせることを可能とする。
特許文献2に開示されている運動支援システムは、センタ装置とユーザが使用するユーザ端末装置とユーザに装着されるセンサとにより構成されており、ユーザの運動目的及び個人データに基づいてセンタ装置からユーザに適したコンテンツがユーザ端末装置へ送信され、ユーザ端末装置はこれをを受信してユーザに適したコンテンツを用いて運動を支援する。更にユーザが運動を行なっている間に、ユーザ端末装置はセンサによって検出されたバイタル情報に基づきユーザの運動量を算出し、算出した運動量が目標値の範囲内であるか否かを判断する。ユーザ端末装置は、運動量が範囲外であると判断した場合にはコンテンツの変更要求をセンタ装置へ送信し、ユーザの運動量にリアルタイムに対応して適切なコンテンツを用いることを可能とする。
特開2000−51390号公報
特開2006−255028号公報
ストレッチ運動、体操又はダンスのような所謂フィットネス運動の場合には、ユーザが正しい動作をトレースできてこそ運動の効果が発揮される。特許文献1及び2に開示されている技術により、ユーザの個人設定情報又はリアルタイムなユーザの運動量に合わせて運動の負荷を変更させることができるのでユーザは適切な量の運動を行なうことができるとしても、正しい動作で運動ができているどうかは判断されない。
本発明は斯かる事情に鑑みてなされたものであり、被運動支援者であるユーザを撮影してユーザの動きを特定し、見本の運動動作に追従して正しい動作で運動ができているかに応じて運動動作の見本として表示する内容を選択することを可能とし、ユーザの実際の運動能力及び動きの個性に適した映像コンテンツの提供を可能とする運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラムを提供することを目的とする。
また、本発明の他の目的は、ユーザが正しい動きで運動しているか否かに応じて文字情報及び/又は画像を追加表示させてユーザが正しい動きで運動することができるように支援することができる運動支援装置を提供することにある。
第1発明に係る運動支援装置は、運動動作の見本を示す動画像を表示部に表示する見本表示手段を備える運動支援装置において、被写体を撮影した撮影画像を時系列的に取得する画像取得手段と、該画像取得手段が取得した撮影画像における被写体の一部又は全部に相当する領域を判別する判別手段と、複数の撮影画像に亘って前記判別手段が判別した領域の撮影画像中における位置から特定される被写体の動きが、前記見本表示手段により表示している動画像の見本の運動動作に対応しているか否かを判断する判断手段と、該判断手段による判断に応じて前記見本表示手段が表示する内容を変化させる手段とを備えることを特徴とする。
第2発明に係る運動支援装置は、運動動作の見本を示す動画像における複数の所定のシーンに対応づけ、前記動画像を表示する場合に撮影画像中の被写体に相当する領域が位置すべき所定の領域が規定されており、前記判断手段は、各時点で取得される複数の撮影画像から前記判別手段が判別した領域と、前記所定の領域とが合致するか否かを判断する手段を備え、合致すると判断した場合に対応していると判断するようにしてあることを特徴とする。
第3発明に係る運動支援装置は、前記判別手段は、撮影画像における被写体に相当する領域を前記被写体の部位毎に判別するようにしてあり、前記判断手段は、前記判別手段が判別した領域夫々の撮影画像中における位置から被写体の部位の動きが見本の運動動作に対応しているか否かを前記判断手段により判断するようにしてあることを特徴とする。
第4発明に係る運動支援装置は、前記判断手段が対応していないと判断した場合、表示している動画像が示す運動動作よりもテンポが遅い又は速い運動動作の見本を示す動画像へ変更するようにしてあることを特徴とする。
第5発明に係る運動支援装置は、前記判断手段が対応していないと判断した場合、動画像の表示速度を上昇又は下降させるようにしてあることを特徴とする。
第6発明に係る運動支援装置は、前記判断手段が対応していないと判断した場合、動きが対応していないと判断された被写体の部位の運動量が小さい運動動作を示す動画像へ変更するようにしてあることを特徴とする。
第7発明に係る運動支援装置は、前記判断手段が対応していると判断した場合、動きが対応していると判断された被写体の部位の運動量が大きい運動動作を示す動画像へ変更するようにしてあることを特徴とする。
第8発明に係る運動支援装置は、前記判断手段が対応していないと判断した場合、運動動作を支援する文字情報及び/又は画像を更に表示させるようにしてあることを特徴とする。
第9発明に係る運動支援システムは、動画像を表示する表示部を備える端末装置と、該端末装置に接続され、前記端末装置へ動画像を送信する中央装置とを含み、前記端末装置は、前記中央装置から送信される運動動作の見本を示す動画像を受信し、表示部に表示させることにより被支援者の運動を支援する運動支援システムにおいて、前記端末装置は、前記被支援者を撮影した撮影画像を出力する撮影装置と接続され、該撮影装置から出力される撮影画像を時系列的に取得する画像取得手段と、該画像取得手段が取得した撮影画像における前記被支援者の一部又は全部に相当する領域を判別する判別手段と、複数の撮影画像に亘って前記判別手段が判別した領域の撮影画像中における位置から特定される前記被支援者の動きが、前記表示部に表示させている動画像の見本の運動動作に対応しているか否かを判断する判断手段と、該判断手段による判断に応じて前記表示部に表示させる動画像を選択する手段と、選択した動画像の送信を要求する送信要求を前記中央装置へ送信する手段とを備え、前記中央装置は、端末装置から送信要求を受信した場合、受信した送信要求に基づいて動画像を送信する手段を備えることを特徴とする。
第10発明に係る運動支援方法は、運動動作の見本を示す動画像を表示部に表示することにより被支援者の運動を支援する運動支援方法において、前記被支援者を撮影した撮影画像を時系列的に取得し、取得した撮影画像における前記被支援者の一部又は全部に相当する領域を判別し、複数の撮影画像に亘って判別した領域の撮影画像中における位置から特定される被支援者の動きが、表示部に表示している動画像の見本の運動動作に対応しているか否かを判断し、該判断に応じて表示部に表示する内容を変化させることを特徴とする。
第11発明に係るコンピュータプログラムは、コンピュータに、運動動作の見本を示す動画像を表示部に表示させることにより被支援者の運動を支援させるコンピュータプログラムにおいて、被写体を撮影した撮影画像を時系列的に取得した撮影画像における被写体の一部又は全部に相当する領域を判別する判別手段、複数の撮影画像に亘って前記判別手段が判別した領域の撮影画像中における位置から特定される前記被写体の動きが、表示部に表示させている動画像の見本の運動動作に対応しているか否かを判断する判断手段、及び、該判断手段による判断に応じて表示部に表示する内容を変化させる手段として機能させることを特徴とする。
第12発明に係るコンピュータプログラムは、コンピュータに、運動動作の見本を示す動画像を表示部に表示させることにより被支援者の運動を支援させるコンピュータプログラムにおいて、被写体を撮影した撮影画像を時系列的に取得した撮影画像における被写体の一部又は全部に相当する領域を判別する判別手段、前記動画像における複数の所定のシーンに対応づけられ、前記動画像を表示する場合に撮影画像中の被写体に相当する領域が位置すべき所定の領域を規定する規定情報に基づき、前記判別手段が判別した領域が前記規定情報により規定される所定の領域と合致するか否かを判定する判定手段、複数の撮影画像に対する前記判定手段による判定結果の内、合致すると判定された結果が所定の割合以上であるか否かを判断する判断手段、及び、該判断手段による判断に応じて表示部に表示する内容を変化させる手段として機能させることを特徴とする。
第1発明、第9発明、第10発明及び第11発明では、被運動支援者を被写体とする撮影画像が時系列的に取得され、撮影画像における被写体の一部又は全部に相当する領域が判別される。複数の撮影画像に亘って判別される被写体に相当する領域の撮影画像中における位置から被写体の動きが特定される。そして、特定された被写体の動きが表示部に表示されている動画像の見本の運動動作に対応しているか否かの判断に応じて表示内容が変化する。これにより、被運動支援者の運動能力及び動きの個性に適した見本の動画像が表示され、被運動支援者は見本の運動動作に追従できて正しい動作で運動することができる。
第2発明及び第12発明では、見本の運動動作を示す動画像に含まれる複数の所定のシーンについて、所定のシーンが表示されている場合に取得される撮影画像に写るべき被写体に相当する領域が所定の領域として規定されている。撮影されて判別された被写体に相当する領域が規定されている所定の領域と所定範囲で合致するか否かに基づいて、動画像が示す運動動作の見本に被運動支援者の動きが対応できているかが判断される。
第3発明では、撮影された撮影画像から被写体の各部位に相当する領域が夫々判別され、各領域毎に被写体の部位の動きが見本の運動動作に対応しているか否かが判断される。即ち、被運動支援者の体の部位毎に動きが見本の運動動作に対応しているか否かが判断される。
第4発明では、被写体である被運動支援者の動きが見本の運動動作に対応していないと判断された場合、よりテンポが遅い又は速い運動動作の見本を示す動画像へ変更される。これにより、被運動支援者の運動能力に合わせた見本の運動動作を示す動画像が表示される。被運動支援者の動きが遅くて対応できていない場合はテンポが遅い運動動作の見本を表示するように変更され、被運動支援者の動きが早過ぎて対応できていない場合はテンポの速い運動動作の見本を表示するように変更される。
第5発明では、被写体である被運動支援者の動きが見本の運動動作に対応していないと判断された場合、表示している動画像の表示速度が下げられる。なお、逆に、見本の運動動作に対応していると判断された場合に、表示速度が上げられるように変更されてもよい。これにより、被運動支援者の運動能力に合わせて見本の動画像が表示される。
第6発明では、第3発明により被写体、即ち被運動支援者の体の部位毎に、見本の運動動作に対応しているか否かが判断され、該判断に応じて動画像が選択されるに際し、対応していない部位の運動動作の運動量が小さくなる。これにより、被運動支援者の運動能力及び動きの個性に適した見本の動画像が提供される。
第7発明では、第3発明により被写体、即ち被運動支援者の体の部分毎に、見本の運動動作に対応しているか否かが判断され、該判断に応じて動画像を変更するに際し、対応している部分の運動動作の運動量は大きくなる。これにより、被運動支援者の運動能力及び動きの個性に適した見本の動画像が提供される。
第8発明では、被写体である被運動支援者の動きが見本の運動動作に対応していないと判断された場合、運動動作を支援する文字情報及び/又は画像が更に表示され、被運動支援者は正しい動作をしていないこと、及びその部分を認識することが可能となり、自身に適した見本の運動動作を正しくトレースして効果的に運動することができる。
本発明による場合、被運動支援者の動きが運動動作の見本を示す動画像に対して正しい動きをしているか否かを判断し、判断に応じて動画像が選択されるので、被運動支援者が正しい動きができていない場合に例えば、他の適した動画像が選択される。これにより、被運動支援者が正しい動作でトレースして運動を行なうことができるような、被運動支援者の実際の運動能力及び個性に適した映像コンテンツを提供することができる。
以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
(実施の形態1)
図1は、実施の形態1における運動支援装置を用いた運動支援システムの構成を示す模式図である。図2は、実施の形態1における運動支援システムを構成する運動支援装置及びサーバ装置の内部構成を示すブロック図である。図中の1は、運動動作の見本を示す動画像を表示してユーザの運動を支援する運動支援装置であり、図中の2は運動支援装置1で表示する映像コンテンツを配信するサーバ装置である。運動支援装置1とサーバ装置2とは、インターネット及びLAN(Local Area Network)等で構成されるネットワークNを介して接続されている。サーバ装置2は、運動支援装置1からの送信要求を受け付けて映像コンテンツデータベース3から映像コンテンツを取得し、取得した映像コンテンツをネットワークNを介して運動支援装置1へ送信する。運動支援装置1は、サーバ装置2から受信した映像コンテンツに含まれる動画像及び音声を夫々出力する。このように、ユーザがフィットネス運動をする際の見本として視聴する映像コンテンツがサーバ装置2から運動支援装置1へ配信される運動支援システムが実現される。
図1は、実施の形態1における運動支援装置を用いた運動支援システムの構成を示す模式図である。図2は、実施の形態1における運動支援システムを構成する運動支援装置及びサーバ装置の内部構成を示すブロック図である。図中の1は、運動動作の見本を示す動画像を表示してユーザの運動を支援する運動支援装置であり、図中の2は運動支援装置1で表示する映像コンテンツを配信するサーバ装置である。運動支援装置1とサーバ装置2とは、インターネット及びLAN(Local Area Network)等で構成されるネットワークNを介して接続されている。サーバ装置2は、運動支援装置1からの送信要求を受け付けて映像コンテンツデータベース3から映像コンテンツを取得し、取得した映像コンテンツをネットワークNを介して運動支援装置1へ送信する。運動支援装置1は、サーバ装置2から受信した映像コンテンツに含まれる動画像及び音声を夫々出力する。このように、ユーザがフィットネス運動をする際の見本として視聴する映像コンテンツがサーバ装置2から運動支援装置1へ配信される運動支援システムが実現される。
運動支援装置1は、サーバ装置2への映像コンテンツの送信要求、映像コンテンツの受信、及び後述の第1表示部11、音声出力部12、第2表示部15等への動画像及び音声の出力を制御する端末制御装置10と、液晶ディスプレイ又はプラズマディスプレイ等のディスプレイを利用した第1表示部11と、スピーカを利用した音声出力部12と、被運動支援者であるユーザを被写体として動画を撮影するCCD(Charge Coupled Device)カメラを利用した第1撮影部13及び第2撮影部14と、第1表示部11同様にディスプレイを利用した第2表示部15で構成される。
端末制御装置10は、運動支援装置1の筐体16内部に設置されたコンピュータ装置であり(図1では図示せず)、第1表示部11、第2表示部12、第1撮影部13、第2撮影部13及び音声出力部15と接続されている。
第1表示部11は筐体16の正面上部にディスプレイ部分を露出させて設置されている。音声出力部12は、筐体16の正面の左右側部夫々に2つのスピーカを露出させて設置されている。第1撮影部13及び第2撮影部14は、筐体16の正面中央部であって第1表示部11下方に設置されている。第1撮影部13は上方に向けて設置されており、運動支援装置1の筐体16の正面に立つユーザの上半身を撮影できるようにカメラレンズの向きが設定されている。第2撮影部14は下方に向けて設置されており、ユーザの下半身特に両足を撮影できるようにカメラレンズの向きが設定されている。第2表示部15は筐体16の正面下部にディスプレイ部分を露出させて設置されている。
端末制御装置10は、CPU(Central Processing Unit)を利用した制御部100と、ハードディスクを利用した記憶部101と、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の揮発性メモリを利用した一時記憶領域102と、ネットワークコントローラを利用した通信部103と、画像信号を出力する第1画像出力部104と、音声信号を出力する音声出力部105と、画像信号を受け付けて画像を取得する第1画像取得部106及び第2画像取得部107と、画像信号を出力する第2画像出力部108と、リモートコントローラ(図示せず)からの信号を受け付ける操作受付部109と、DVD(Digital Versatile Disk)、CD−ROM等の記憶媒体111,112からデータを読み取る補助記憶部110とを備える。
制御部100は、記憶部101に記憶されている制御プログラム10Pを読み出して実行することにより各構成部の制御及び演算処理を行なう。記憶部101には、制御プログラム10Pの他に制御部100が用いる情報が記憶される。そして一時記憶領域102には、制御部100による処理によって発生した情報が一時的に記憶される。
通信部103は、ネットワークNを介した端末制御装置10とサーバ装置2との通信を実現する。制御部100は、通信部103によりサーバ装置2へ映像コンテンツの送信要求を送信し、通信部103によりサーバ装置2により送信される映像コンテンツを受信する。
第1画像出力部104は第1表示部11に接続されており、見本の運動動作を示す映像コンテンツの動画像に対応する画像信号を第1表示部11へ出力する。制御部100は、サーバ装置2から通信部103により受信した映像コンテンツに含まれる動画像を抽出して第1画像出力部104に入力する。第1画像出力部104は、入力された動画像を構成する複数フレームの画像を示す画像信号を第1表示部11へ出力する。これにより、映像コンテンツが示す見本の運動動作が第1表示部11に表示され、ユーザは見本の運動動作を観ながら真似ることによってフィットネス運動を行なうことができる。なお、制御部100は、映像コンテンツと共にサーバ装置2から送信される、又は自身が作成する文字情報及び/又は他の画像を共に表示させるための信号を、映像コンテンツから抽出される動画像の画像信号に重畳させて第1画像出力部104から出力させる機能を有する。
音声出力部105は音声出力部12に接続されており、見本となる映像コンテンツの音声に対応する音声信号を出力する。制御部100は、サーバ装置2から通信部103により受信した映像コンテンツに含まれる音声を抽出し、第1画像出力部104に入力する処理と同期させて音声出力部105へ音声を入力する。音声出力部105は、入力された音声の音声信号をスピーカ等の音声出力部12へ出力する。これにより、音声出力部12からは、見本となる映像コンテンツが示す運動動作に同期されるアドバイス等の音声が出力され、ユーザは聴覚により見本の運動動作を確認しながらフィットネス運動を行なうことができる。制御部100は、映像コンテンツから抽出される音声の音声信号に重畳させて、アドバイス等の音声信号を音声出力部105から出力させる機能を有する。
第1画像取得部106及び第2画像取得部107は夫々、第1撮影部13及び第2撮影部14に接続されており、第1撮影部13及び第2撮影部14から継続的に出力される動画の画像信号から一定のレートで画像を取得する。例えば第1撮影部13及び第2撮影部14は、1秒間に30(29.97)フレームのレートで撮影した動画像の各フレーム画像を出力する。そして第1画像取得部106及び第2画像取得部107も、入力される各フレーム画像を1秒間に30(29.97)フレームのレートで取得する。第1画像取得部106及び第2画像取得部107は1秒間に15フレームのレートで取得する構成としてもよい。制御部100は、第1画像取得部106及び第2画像取得部107により取得した画像のいずれか一方又は両方を第2画像出力部108へ入力すると共に、取得した画像に基づき、ユーザの動きが第1表示部11で表示される見本の運動動作に対応できているか否かを判断する。当該判断処理についての詳細は後述する。
第2画像出力部108は第2表示部15に接続されており、ユーザの動きを捉えた動画像に対応する画像信号を第2表示部15へ出力する。制御部100は、第1画像取得部106及び第2画像取得部107のいずれか一方又は両方により一定のレートで取得した画像の画像信号を順次第2表示部15へ出力する。これにより、第2表示部15にはユーザの動きをとらえた動画像がリアルタイムに表示され、ユーザは自身の動きを確認しながらフィットネス運動を行なうことができる。なお、制御部100は、第1画像取得部106及び第2画像取得部107の両方により取得した画像の画像信号を出力する場合、いずれかの画像のサイズを小さくし一方の画像に重畳させた画像を作成して出力する。制御部100は、第1画像取得部106及び第2画像取得部107から取得した画像を時分割により順に出力するようにしてもよいし、通信部103により受信して出力している映像コンテンツに対応するスケジュールを記憶部101に予め記憶しておき、スケジュールに従って第1画像取得部106及び第2画像取得部107から取得したいずれかの画像の画像信号を第2画像出力部108により出力させるようにしてもよい。
操作受付部109は、電源ボタン、カーソルキー、確定ボタン、再生ボタン、停止ボタン等の各種ボタン又はスイッチ等が配設されたリモートコントローラ(図示せず)からの信号を受け付ける。操作受付部109は、リモートコントローラからの信号を受け付けた場合、受け付けた信号が表わすいずれのボタン又はスイッチが押されたかを示す情報を制御部100へ通知することによりユーザによる操作を検知する機能を有する。また、操作受付部109は、ユーザが装着するヘッドセットのマイクロフォンにより取得された音声信号を受け付けて音声認識処理を行なう機能を有し、ユーザによって入力される「再生」、「停止」等のキーワードを認識してユーザによる操作を検知するように構成されてもよい。
記憶部101に記憶されている制御プログラム10Pは、制御部100が補助記憶部110により記憶媒体111から読み出して記憶部101に記憶したものであってもよい。更に、制御部100が抽出する動画像の元の映像コンテンツは、サーバ装置2から送信される映像コンテンツのみならず、制御部100が補助記憶部110により記憶媒体112から読み出された映像コンテンツでもよい。
サーバ装置2はサーバコンピュータ装置で構成されており、CPUを利用した制御部20と、ハードディスクを利用した記憶部21と、DRAM、SRAM等を利用した一時記憶領域22と、ネットワークコントローラを利用した通信部23と、映像コンテンツデータベース3とのインタフェースであるコンテンツ取得部24とを備える。
制御部20は、記憶部21に記憶されている図示しない制御プログラムを読み出して実行することにより各構成部の制御及び演算処理を行なう。
記憶部21には、運動支援システムを利用する各ユーザ個々の名前、性別、年齢、身長、体重、運動履歴等を含む個人情報がデータベース化されて記憶されている。なお、制御部20は各ユーザの個人情報を記憶する際、ユーザを一意に特定するためのID(Identifier Data)を付与するようにしてある。一時記憶領域22には制御部20による処理によって発生した情報が一時的に記憶される。
通信部23は、ネットワークNを介したサーバ装置2と端末制御装置10との通信を実現する。制御部20は通信部23により、端末制御装置10からの映像コンテンツの送信要求を受信し、取得した映像コンテンツを端末制御装置10へ送信する。
コンテンツ取得部24は、映像コンテンツデータベース3が記憶されている記憶装置と接続されている。制御部20はコンテンツ取得部24により適宜映像コンテンツを取得する。
このように構成される運動支援システムにおいて、映像コンテンツの表示が運動支援装置1で開始され、ユーザが動画像を観ながらフィットネス運動を行なっている間にユーザに適した映像コンテンツが適宜提供される処理について説明する。
まず、ユーザが運動支援装置1の利用を開始する場合の端末制御装置10の制御部100による処理について説明する。
運動支援装置1の第1表示部11には、端末制御装置10の制御部100が出力した画像信号に基づき、映像コンテンツを選択するためのメニュー画面が表示されている。なお、ユーザが自分の名前を入力して運動支援システムにログインすることにより、ユーザのIDに基づきユーザが継続して行っているフィットネス運動のメニューが表示されるようにしてもよい。メニュー画面には「エアロビクス」、「ヨガ」、「ダイエット用メニュー」等の運動メニューが表示され、リモートコントローラのボタンの操作により選択が可能に構成されている。端末制御装置10の制御部100は、操作受付部109により「確定ボタン」が押下されたことが検知された場合にメニュー画面で選択されている運動メニューを特定する。制御部100は、特定した運動メニューに応じた映像コンテンツの送信要求をサーバ装置2へ送信する。なお、このとき制御部100はユーザの名前又は各ユーザの個人情報に付与されるIDを共に送信するようにしてもよい。
端末制御装置10の制御部100は上述のように、特定した運動メニューに応じた映像コンテンツの送信要求をサーバ装置2へ送信する。詳細には、端末制御装置10の記憶部101には運動メニューに応じた映像コンテンツの組み合わせが記憶してあり、制御部100は、特定した運動メニューに対応する組み合わせに応じて、映像コンテンツの送信要求をサーバ装置2へ送信する。
図3は、実施の形態1における端末制御装置10の記憶部101に記憶されている運動メニュー毎の映像コンテンツの組み合わせの一例を示す説明図である。図3の説明図には、ユーザによって選択された運動メニューが「エアロビクス」である場合、制御部100は「ウォーミングアップ」、「第1サーキット」〜「第4サーキット」、「ストレッチ」夫々に6つの映像コンテンツが対応していることが示されている。
「ウォーミングアップ」のセッションでは、数字が小さいほど難易度が低い5段階の運動レベルの内、運動レベル「3」に対応したウォーミングアップが5分程度なされるべく、映像コンテンツ「W1」が対応している。図3に示す例では、「エアロビクス」が選択された場合、デフォルトで運動レベル「3」に設定されているが、ユーザのIDを含む個人情報に対応付けられている運動履歴に基づき運動レベルが決定されて設定されるようにしてもよい。
そして、「第1サーキット」〜「第4サーキット」のセッションでは、「ステップ1」から「ステップ5」まで夫々30秒の期間に分けてエアロビクスの運動がなされるべく、映像コンテンツ「A11」,「A12」,…,「A15」が対応している。図3に示す例では、「第1サーキット」〜「第4サーキット」のセッションでも初期的に運動レベルは「3」に設定されている。
「ストレッチ」のセッションでは、「ストレッチ1」から「ストレッチ4」までに加えて「深呼吸」が夫々所定の期間行なわれるべく、映像コンテンツ「S11」,「S12」,…,「S14」及び「B1」が対応している。図3に示す例では、「ストレッチ」のセッションでも初期的に運動レベルは「3」に設定されている。
端末制御装置10の制御部100は、選択された運動メニューに応じて各セッションの運動内容毎に、送信を要求する映像コンテンツを選択して送信要求をサーバ装置2へ送信する。制御部100は後述するように各運動内容の期間においてユーザの動きが見本の動作に対応しているか否かを判断し、判断結果に応じて映像コンテンツを選択して送信要求を送信する。
サーバ装置2の制御部20は、通信部23により映像コンテンツの送信要求を受信した場合、これを受け付けて送信要求に含まれる映像コンテンツの識別情報に基づきコンテンツ取得部24によって映像コンテンツデータベース3から送信要求に係る映像コンテンツを取得する。制御部20は、取得した映像コンテンツを送信要求の送信元の端末制御装置10へ通信部23により送信する。なお制御部20は、端末制御装置10から受け付けた映像コンテンツの送信要求と共にユーザの名前又はIDが送信された場合、記憶部21に記憶してある個人情報から、前記名前又はIDに紐づく個人情報を読み出し、端末制御装置10へ送信する。また制御部20は、記憶部21の個人情報のデータベースを参照し、名前又はIDで特定されるユーザの運動履歴に映像コンテンツの識別情報を記憶するようにしてもよい。また、ユーザ毎に運動開始時刻を記録するようにしてもよい。
そして、運動支援装置1の端末制御装置10は、サーバ装置2から送信される映像コンテンツを通信部103により受信し、上述のように第1表示部11に動画像が表示され、音声出力部12から同期された音声が出力されるように処理を行なう。
次に、運動支援装置1を構成する端末制御装置10の制御部100により、ユーザの動きが見本の運動動作に対応できているか否かを判断し、ユーザの運動能力及び動きの個性に適した映像コンテンツが提供される処理について説明する。
まず端末制御装置10の制御部100は、映像コンテンツを選択するためのメニュー画面を第1表示部11へ表示させるべく画像信号を出力している場合、第1画像取得部106及び第2画像取得部107により取得される画像を取得し、ユーザを良好に撮影できるように第1撮影部13及び第2撮影部14を調整する。詳細には、制御部100は、第1画像取得部106及び第2画像取得部107により取得される撮影画像から特定の色の領域を識別する。ユーザは、本発明に係る運動支援システムを利用する際には両手首及び両足首に夫々の部位に応じた色のバンド、例えば右手首には赤色、左手首には青色、右足首には緑色、左足首には黄色のバンドを装着する。各部位を区別する必要がない場合には全て同色でもよい。制御部100は、第1画像取得部106及び第2画像取得部107により取得した撮影画像から識別した特定の色の領域が画角の内の所定の範囲内に収まるか否かを判断し、所定の範囲内に収まるように第1撮影部13及び第2撮影部14の左右上下の向き及びワイド/テレのズームを調整させるべく制御信号を送信する。ピント調整は第1撮影部13及び第2撮影部14自身で行なわれる。これにより、以後の処理において第1撮影部13及び第2撮影部14によって得られる撮影画像からユーザの両手足に相当する領域を良好に判別することが可能となる。なお、制御部100は、上述のように特定の色を撮影画像から判別して更にユーザの体の各部位を判別するのでなく、第1画像取得部106及び第2画像取得部107により取得される撮影画像から人物像を認識し、部位を特定する機能を有していてもよい。この場合、ユーザはバンドを装着しなくてよい。
そして端末制御装置10の制御部100は、サーバ装置2から受信した映像コンテンツを第1表示部11により表示させている間、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できているか否かを判断する。
制御部100は、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できているか否かを以下のように判断する。まず、制御部100は、映像コンテンツを表示させている期間中の各所定のシーンにおけるユーザの動きがOKか否かを判定する。具体的には、制御部100は、第1画像取得部106及び第2画像取得部107により取得される撮影画像内のユーザの体の各部位に相当する領域が、規定されている領域に位置しているか否かにより、OKか否かを判定する。映像コンテンツには各所定シーンにおける撮影画像に対してユーザの体の各部位に相当する領域が位置すべき領域が規定されている。
図4は、実施の形態1における端末制御装置10の制御部100が用いる規定情報の内容例を示す説明図である。図4の説明図に示す例は、運動メニュー「エアロビクス」が選択された場合に、運動内容「ステップ1」でサーバ装置2から送信される映像コンテンツ「A11」に対して規定されている情報である。
図4の説明図に示すように規定情報は、映像コンテンツの開始からの経過時間により所定のシーンを識別するようにしてあり、各所定のシーンにおいてユーザの体の各部位に相当する領域が位置すべき領域を示す情報を含む。図4の説明図の内容例では、ユーザの体の各部位に相当する領域が位置すべき領域を示す情報は、第1画像取得部106により取得される撮影画像を水平方向及び垂直方向に3×3分割した各領域を識別する情報で示し、第2画像取得部107により取得される撮影画像を水平方向に3分割した各領域を識別する情報で示している。なお各部位に相当する領域が位置すべき領域を、撮影画像内における座標、例えば撮影画像内における矩形範囲の始点及び終点を示す座標により示してもよい。
図4の説明図の内容例では、映像コンテンツ「A11」の表示が開始されてからt1秒後には、第1画像取得部106により取得した撮影画像内のユーザの右手に相当する領域が正面左上の領域内に位置しているべきことを示し、左手に相当する領域は正面右上の領域に位置すべきであることを示している。同様に映像コンテンツ「A11」の表示が開始されてからt1秒後には、第1画像取得部107により取得した撮影画像内のユーザの右足に相当する領域が正面左の領域に位置すべきであり、左足に相当する領域は正面右の領域に位置すべきであることを示している。
図4に示した規定情報は、端末制御装置10の記憶部101に予め記憶されているか、又は映像コンテンツと共にサーバ装置2により管理され、サーバ装置2から端末制御装置10へ送信される。
図5は、実施の形態1における端末制御装置10の制御部100による判定処理の概要を示す説明図である。図5の説明図は横軸に時間の経過を示し、制御部100が受信した映像コンテンツ「A11」の表示を開始してからt1、t2、t3秒が夫々経過した時点で、第1画像取得部106及び第2画像取得部107により夫々取得される撮影画像を示している。上段の各撮影画像はユーザの上半身を撮影する第1撮影部13により撮影され、第1画像取得部106により取得される撮影画像であり、下段の各撮影画像はユーザの下半身(両足)を撮影する第2撮影部14により撮影され、第2画像取得部107により取得される撮影画像である。なお、各撮影画像ではユーザが両手足の手首及び足首に装着しているバンドの撮影画像中の領域を黒塗りで示している。
また図5の説明図では、各撮影画像に対してユーザの両手足の領域が位置すべきとして規定されている領域をハッチングにより示している。図5の説明図の例では規定情報は、第1画像取得部107により取得される撮影画像を水平方向及び垂直方向夫々を3つに分けて破線で示すように3×3分割した領域のいずれかを識別する情報により規定されている。規定情報は更に、第2画像取得部107により取得された撮影画像を水平方向に破線で示すように3分割した領域のいずれかを示す情報により規定されている。
そして図5の説明図では、制御部100による判定結果が示されている。具体的には、判定結果がOKである場合を丸印で示し、判定結果がNGである場合を×印で示している。
例えば、図4の説明図に示したように、映像コンテンツ「A11」に対応する規定情報では、開始からt1秒が経過した時点におけるユーザの右手に相当する領域は第1画像取得部106により取得される撮影画像内の正面左上の領域に位置すべきであり、ユーザの左手に相当する領域は撮影画像内の正面右上の領域に位置すべきと規定されている。更に、ユーザの右足に相当する領域は第2画像取得部107により取得される撮影画像内の正面左の領域に位置すべきであり、ユーザの左足に相当する領域は撮影画像内の正面右の領域に位置すべきと規定されている。
これに対し、図5の説明図の例では、映像コンテンツの開始からt1秒が経過した時点で第1画像取得部106により取得された撮影画像内で判別されるユーザの右手首のバンドの領域は、制御部100により撮影画像内の正面左上の領域に位置すると識別され、規定情報と合致すると判断される。したがって、制御部100により映像コンテンツの開始からt1秒後におけるユーザの右手の動きはOKと判定される。同様に、制御部100によりユーザの左手の動きはOKと判定される。また、第2画像取得部107により取得された撮影画像内で判別されるユーザの右足首のバンドの領域が、制御部100により撮影画像内の左の領域に位置すると識別されて規定情報と合致すると判断され、制御部100により映像コンテンツの開始からt1秒後におけるユーザの右足の動きはOKと判定される。同様にして、制御部100により映像コンテンツの開始からt1秒後におけるユーザの左足の動きはOKと判定される。
また、映像コンテンツの開始からt2秒が経過した時点では、ユーザの右手に相当する領域は第1画像取得部106により取得される撮影画像内の正面左下の領域に位置すべきであり、左手に相当する領域は撮影画像内の正面右下の領域に位置すべきであると規定されている。更に、ユーザの右足に相当する領域は第2画像取得部107により取得される撮影画像内の正面左の領域に、ユーザの左足に相当する領域は撮影画像内の正面右の領域に位置すべきと規定されている。
これに対し、図5の説明図の例では、映像コンテンツの開始からt2秒が経過した時点では、第1画像取得部106により取得される撮影画像内で判別されるユーザの両手首のバンドの領域の位置と、規定情報が示す領域とに基づき、t2秒が経過した時点におけるユーザの右手の動きはNGと判定され、左手の動きはOKと判定される。また、第2画像取得部107により取得される撮影画像内で判別されるユーザの両足首のバンドの領域の位置と、規定情報が示す領域とに基づき、制御部100により映像コンテンツの開始からt2秒後における足の動きは両足ともOKと判定される。
映像コンテンツの開始からt3秒が経過して時点では、ユーザの右手に相当する領域は第1画像取得部106により取得される撮影画像内の正面左中の領域に位置すべきであり、左手に相当する領域は撮影画像内の正面右中の領域に位置すべきであると規定されている。更に、ユーザの両足に相当するか各領域は第2画像取得部107により取得される撮影画像内の中央の領域に位置すべきと規定されている。
これに対し、図5の説明図の例では、映像コンテンツの開始からt3秒が経過した時点では、第1画像取得部106により取得される撮影画像内で判別されるユーザの両手首のバンドの領域の位置と、規定情報が示す領域とに基づき、t3秒が経過した時点におけるユーザの両手の動きはOKと判定される。また、第2画像取得部107により取得される撮影画像内で判別されるユーザの両足首のバンドの領域の位置と、規定情報が示す領域とに基づき、制御部100により映像コンテンツの開始からt3秒後における右足の動きはOKと判定されるが、左足の動きはNGと判定される。
端末制御装置10の制御部100は図5の説明図に示したように、映像コンテンツに対応する各所定のシーンに対応するユーザの動きがOKか否かを判定し、判定結果を一時的に記憶しておく。そして、制御部100は、所定期間が経過した時点、即ち運動内容の区切りが終了した時点における判定結果に基づき、所定期間中におけるユーザの動きは第1表示部11に表示させている映像コンテンツが示す見本の運動動作に対応できているか否かを判断する。そして制御部100は、判断結果に応じて映像コンテンツを選択して送信要求を送信する。
次に、端末制御装置10の制御部100による判断処理及び映像コンテンツの選択処理をフローチャートを参照して説明する。図6及び図7は、実施の形態1における端末制御装置10の制御部100による処理手順の一例を示すフローチャートである。
制御部100は、映像コンテンツを受信して第1画像出力部104及び音声出力部105による画像信号及び音声信号の出力を開始すると、現在、映像コンテンツに対応付けられている所定のシーンに対応する時点であるか否かを判断する(ステップS101)。所定のシーンは、映像コンテンツに応じて規定されている。所定のシーンの情報は映像コンテンツと共にサーバ装置2から共に送信されるようにしてもよいし、端末制御装置10の記憶部101に映像コンテンツの識別情報に関連付けられて記憶されていてもよい。
制御部100は、所定のシーンに対応する時点でないと判断した場合(S101:NO)、処理をステップS101へ戻す。制御部100は、所定のシーンに対応する時点であると判断した場合(S101:YES)、第1画像取得部106及び第2画像取得部107により撮影画像を取得する(ステップS102)。制御部100は、取得した撮影画像から特定の色の領域を判別することによりユーザの両手足に相当する領域を判別し(ステップS103)、判別された領域の撮影画像内における位置を識別する(ステップS104)。このとき制御部100は、撮影画像から複数の特定の色の領域を、色毎に区別して判別するようにしておく。
制御部100は、映像コンテンツに対し図4に示したように規定されている情報を取得し(ステップS105)、ステップS104で識別された位置は、規定されている位置と合致するか否かを判断する(ステップS106)。制御部100は、ステップS106において合致すると判断した場合(S106:YES)、撮影画像から判別された領域に相当するユーザの両手足の内のいずれかの動きをOKと判定し(ステップS107)、処理を次に進める。一方、制御部100はステップS106において合致しないと判断した場合(S106:NO)、撮影画像から判別された領域に相当するユーザの両手足の内のいずれかの動きをNGと判定し(ステップS108)、処理を次に進める。
次に制御部100は、判定結果を一時記憶領域に記憶しておく(ステップS109)。なお、制御部100は、特定の色毎に区別してユーザの体の両手足首に相当する領域を判別しているので、各色に相当するユーザの体の部位毎に判定結果を区別して記憶してくようにしてもよい。例えば、現在判別されたユーザの右手首に相当する領域から判定されるOK又はNGの結果を記憶しておく。部位毎に区別して記憶しておくことにより、後述するステップS112の処理において、ユーザの動きが見本動作に対応できているか否かを体の部位毎に判断することが可能となる。
そして制御部100は、ステップS103で判別された全ての領域の位置について規定されている位置と合致するかの判定を行なったか否かを判断する(ステップS110)。制御部100は、全ての領域の位置について判定を行なっていないと判断した場合(S110:NO)、処理をステップS106へ戻し、他の領域の位置について判断する。
制御部100は、全ての領域の位置について判定を行なったと判断した場合(S110:YES)、所定期間が経過したか否かを判断する(ステップS111)。所定期間は、各セッション中の運動内容に対応して区切られている期間である。制御部100は、所定期間が経過していないと判断した場合(S111:NO)、処理をステップS101へ戻し、次の所定のシーンに対応する時点となるまで待機する。
制御部100は、所定期間が経過したと判断した場合(S111:YES)、一時記憶領域に記憶されている所定期間中におけるOK又はNGの判定結果を参照し、全ての判定結果に対してOKと判定された割合が所定の割合以上であるか否かを判断する(ステップS112)。制御部100は、所定の割合以上であると判断した場合(S112:YES)、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できていると判断し、同じ運動レベルに相当する次の映像コンテンツの送信要求をサーバ装置2へ送信し(ステップS115)、処理を終了する。
制御部100は、所定の割合未満であると判断した場合(S112:NO)、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できていないと判断し、アドバイスを示す音声、文字情報及び画像が第1表示部11に表示され、音声出力部12から出力されるよう、第1画像出力部104及び音声出力部105により画像信号及び音声信号を出力する(ステップS113)。制御部100は、音声、文字情報及び画像の内のいずれか1つ又は2つが表示又は出力されるように処理する構成としてもよい。
そして制御部100は、所定の割合未満であると判断した場合(S112:NO)、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できていないと判断し、画像及び音声を出力した後(S113)、次の運動動作の期間では運動レベルを下げた映像コンテンツを表示させるべく選択し(ステップS114)、選択した映像コンテンツの送信要求をサーバ装置2へ送信し(S115)、処理を終了する。
制御部100は、図6及び図7のフローチャートに示した処理手順を、選択された運動メニューのセッションの運動内容毎に行なう。
なお制御部100は、図6及び図7のフローチャートに示したステップS115の処理手順で次の映像コンテンツの送信要求を送信する前に、所定期間中にユーザによって消費されたカロリーを推定算出してもよい。制御部100は、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できているか否かに関わらず消費カロリーを算出する。具体的には制御部100は、サーバ装置2へユーザの名前又はIDを送信することによりユーザの個人情報をサーバ装置2から受信しているので、個人情報に含まれる年齢、性別、身長、体重のいずれか一又は複数の情報と、OKと判定された割合とからカロリーを算出することが可能である。例えば、各映像コンテンツの運動レベルに応じて標準消費カロリーが予め関連付けられており、制御部100は表示させていた映像コンテンツの標準消費カロリーを基準として、身長、体重等の個人情報の値を元に前記基準から増減させて消費カロリーを求め、更に動きがOKと判定された割合を掛けることにより消費カロリーを算出する。そして制御部100は、算出した消費カロリーを表わす音声、文字情報又は画像を第1表示部11及び音声出力部12から出力されるように画像信号及び音声信号を出力する。これにより、ユーザは正しくない動きで運動して目標となるカロリーを消費できていないことを認識することができ、次の運動動作では見本の運動動作を正しくトレースするように意識して効果的な運動を行なうことができる。
次に、図6及び図7のフローチャートに示した端末制御装置10の制御部100による判断結果に応じて映像コンテンツが選択される処理について具体例を挙げて説明する。
図8は、実施の形態1における端末制御装置10の制御部100により映像コンテンツが選択される過程の一例を示す説明図である。図8の説明図は横軸に時間の経過を示し、時間の経過に応じて切り替わるセッション名及び運動内容、並びに選択される映像コンテンツの識別情報を示す。また、図8の説明図の下部には各運動内容の期間において、ユーザの両手足に相当する領域の位置が規定情報と合致してOKと判定された割合を示す。なお、図8の説明図に示す内容例では、端末制御装置10の制御部100は、OKと判定された割合が60%未満であると判断した場合に運動レベルを下げた映像コンテンツを選択するようにしてある。
図8の説明図に示す内容例では、ユーザにより運動メニュー「エアロビクス」が選択され、デフォルトとして端末制御装置10の制御部100によって図3の説明図に示した組み合わせの映像コンテンツが選択される。したがって最初の「ウォーミングアップ」のセッションでは運動レベル「3」に対応した映像コンテンツ「W1」が選択されてサーバ装置2から送信され、第1表示部11により表示される。しかしながら、「ウォーミングアップ」のセッションの300秒の間における各所定のシーンでの判定結果の内、OKと判定された割合は55%である。したがって、端末制御装置10の制御部100は、OKと判定された割合が60%未満であり、ユーザの動きは映像コンテンツ「W1」が示す見本の運動動作に対応できていないと判断する。端末制御装置10の制御部100は、次の「第1サーキット」のセッションにおける運動内容「ステップ1」では、運動レベルを「3」から「2」へ下げた映像コンテンツ「A11」を選択し、当該映像コンテンツの送信要求をサーバ装置2へ送信する。
なお、このとき図6及び図7のフローチャートに示したように制御部100は、音声出力部12から「もっとテンポを上げましょう」、「右手をもっと伸ばしましょう」等のアドバイスを出力させる。各部位毎に判定結果を記憶しておき、特定の部位の動きが特に対応できていないと判断する処理が可能な場合、制御部100は対応できていないと判断される特定の部位を注目させるべく、第1画像出力部104により出力する画像信号を加工し、第1表示部11に表示させる際に特定の部位をアップにして表示させるようにしてもよいし、又は特定の部位にマークがされるようにしてもよい。また、第2表示部15に表示されるユーザを撮影した撮影画像中の特定の部位にマークがされるように第2画像出力部108により出力する動画像の画像信号を加工するようにしてもよい。
次の「第1サーキット」のセッションにおける1つめの運動内容「ステップ1」では、運動レベル「2」に対応した映像コンテンツ「A11」が第1表示部11により表示される。運動内容「ステップ1」の期間30秒間における各所定のシーンでの判定結果の内、OKと判定された割合は65%であるのでユーザの動きは映像コンテンツ「A11」が示す見本の運動動作に対応できていると判断され、次の「ステップ2」における映像コンテンツの運動レベルも「2」に維持される。しかしながら、運動内容「ステップ2」の期間30秒間における各所定のシーンでの判定結果の内、OKと判定された割合は55%であるのでユーザの動きは映像コンテンツ「A12」が示す見本の運動動作に対応できていないと判断され、次の「ステップ3」における映像コンテンツの運動レベルは「1」に下げられる。
このように、第1表示部11に表示される映像コンテンツは、ユーザの動きが見本の運動動作に対応できているか否かの判断に応じて選択される。ユーザが見本の運動動作に対応して動くことができない場合は、より遅いテンポ、低いスピード等の運動レベルを下げた映像コンテンツに変更される。なお、ユーザが見本の運動動作に対応して動くことができない場合、ユーザの動きが見本の運動動作に対して速いか又は遅いかを判定するようにし、速い場合にはテンポを速くする又は表示スピードを上げることも可能である。これにより、ユーザは正しい動作をトレースすることができるようになり効果的に運動を行なうことができる。
また、ユーザの動きが見本の運動動作に対応していないと判断された場合、第1表示部11にアドバイスに相当する文字情報及び/又はマーク等の画像が表示され、音声出力部12によりアドバイスの音声が出力される。また、第2表示部15にユーザを撮影した撮影画像に重畳されて文字情報及び/又はマーク等の画像が表示される。これにより、ユーザは自分の正しくない動きを認識することが可能となり、見本の運動動作を正しくトレースするように運動することができ、効果的な運動を行なうことができる。
(変形例)
実施の形態1では、ユーザの動きが見本の動作に対応できていないと判断した場合には他の運動レベルの映像コンテンツを選択した。しかしながら制御部100は、ユーザの動きが見本の動作に対応できていないと判断した場合、他の映像コンテンツを選択することなく、第1表示部11における動画像の表示速度を下げる構成としてもよい。
実施の形態1では、ユーザの動きが見本の動作に対応できていないと判断した場合には他の運動レベルの映像コンテンツを選択した。しかしながら制御部100は、ユーザの動きが見本の動作に対応できていないと判断した場合、他の映像コンテンツを選択することなく、第1表示部11における動画像の表示速度を下げる構成としてもよい。
図9及び図10は、実施の形態1の変形例における端末制御装置1の制御部100による処理手順の一例を示すフローチャートである。なお、図9及び図10のフローチャートに示す処理手順の内、図6及び図7のフローチャートに示した処理手順と共通する処理については、同一のステップ番号を付して詳細な説明を省略する。
制御部100は、所定期間が経過したと判断し(S111:YES)、所定期間中の全ての判定結果に対してOKと判定された割合が所定の割合未満であると判断し(S112:NO)、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できていないと判断した場合、第1画像出力部104及び音声出力部105によりアドバイスの画像及び音声を出力し(S113)、第1表示部11に表示される動画像の表示速度を下げる(ステップS116)。そして制御部100は、次の映像コンテンツの送信要求を送信し(S115)、処理を終了する。
ステップS116において表示速度を下げるに際し、同期されて音声出力部12により出力される音声も同様に出力速度を下げてもよいし、音声は停止させるようにしてもよい。詳細には、制御部100の処理により映像コンテンツから動画像を抽出して第1画像出力部104に入力する際に、一定の割合で、同じフレームの画像を複数回挿入するか、又は第1画像出力部104による画像信号のフレームレート及び第1表示部11における表示レートをいずれも一定の割合で低下させることにより実現する。
図11は、実施の形態1の変形例における端末制御装置10の制御部100により表示速度が変更される過程の一例を示す説明図である。図11の説明図は横軸に時間の経過を示し、時間の経過に応じて切り替わるセッション名及び運動内容、並びに表示速度の変化を示す。また、図11の説明図の下部には各運動内容の期間において、ユーザの両手足に相当する領域の位置が規定情報と合致してOKと判定された割合を示す。なお、図11の説明図に示す内容例では、端末制御装置10の制御部100は、OKと判定された割合が60%未満であると判断した場合に表示速度を下げるようにしてある。
図11の説明図に示す内容例では、ユーザにより運動メニュー「エアロビクス」が選択され、デフォルトとして端末制御装置10の制御部100によって図3の説明図に示した組み合わせの映像コンテンツが選択される。「ウォーミングアップ」のセッションでは運動レベル「3」に対応した映像コンテンツ「W1」が選択されてサーバ装置2から送信され、第1表示部11により表示される。しかしながら、「ウォーミングアップ」のセッションの300秒の間における各所定のシーンでの判定結果は、OKと判定された割合が55%である。したがって、端末制御装置10の制御部100は、OKと判定された割合が60%未満であり、ユーザの動きは映像コンテンツ「W1」が示す見本の運動動作に対応できていないと判断する。端末制御装置10の制御部100は、次の「第1サーキット」のセッションにおける運動内容「ステップ1」では、表示速度を最初の95%の速度に下げ、次の映像コンテンツ「A11」を選択して当該映像コンテンツの送信要求をサーバ装置2へ送信する。
次の「第1サーキット」のセッションにおける1つめの運動内容「ステップ1」では、第1表示部11における表示速度が最初の95%に下げられた状態で映像コンテンツ「A11」が表示される。運動内容「ステップ1」の期間30秒間における各所定のシーンでの判定結果は、OKと判定された割合が65%であるのでユーザの動きは映像コンテンツ「A11」が示す見本の運動動作に対応できていると判断され、表示速度は最初の95%に維持される。しかしながら、運動内容「ステップ2」の期間30秒間における各所定のタイミングでの判定結果は、OKと判定された割合が55%であるのでユーザの動きは映像コンテンツ「A12」が示す見本の運動動作に対応できていないと判断され、次の「ステップ3」では表示速度が最初の90%に下げられる。
このように、第1表示部11における映像コンテンツの表示速度が、ユーザの動きが見本の運動動作に対応できているか否かの判断に応じて変更される。ユーザが見本の運動動作に対応して動くことができていない場合は、表示速度を下げてより遅いテンポ、スピードで映像コンテンツが表示され、ユーザは正しい動作をトレースすることができるようになり効果的に運動を行なうことができる。
(実施の形態2)
実施の形態2では、ユーザの動きが見本の運動動作に対応できていないと判断した場合に運動レベルを下げた映像コンテンツを選択して表示させる一方で、ユーザの動きが見本の運動動作に対応できていると判断した場合には、運動レベルを上げた映像コンテンツを選択して表示させるようにする。更に実施の形態2では、ユーザの動きが見本の運動動作に対応できているか否かをユーザの体の部位毎に判断し、部分的に運動レベルを上げ下げする。
実施の形態2では、ユーザの動きが見本の運動動作に対応できていないと判断した場合に運動レベルを下げた映像コンテンツを選択して表示させる一方で、ユーザの動きが見本の運動動作に対応できていると判断した場合には、運動レベルを上げた映像コンテンツを選択して表示させるようにする。更に実施の形態2では、ユーザの動きが見本の運動動作に対応できているか否かをユーザの体の部位毎に判断し、部分的に運動レベルを上げ下げする。
実施の形態2における運動支援システムの構成は、端末制御装置10の制御部100による処理の詳細以外は、実施の形態1における構成と同様である。そこで、実施の形態2における運動支援システムの構成の内の実施の形態1における構成と共通する構成については、実施の形態1と同一の符号を付して詳細な説明を省略し、以下、端末制御装置10の制御部100による処理の詳細について説明する。
なお、映像コンテンツデータベース3に記憶されている映像コンテンツは、運動レベルが対応付けられているのみならず、ユーザの体の部位毎に運動レベルが分けられている。例えば、上半身の動きの運動レベルが高い映像コンテンツ、又は下半身の動きの運動レベルが高い映像コンテンツが、夫々の運動レベルにより識別されて記憶されている。また、上半身の動きの運動レベルが低い映像コンテンツ、下半身の動きの運動レベルが低い映像コンテンツも識別されて記憶されている。
図12及び図13は、実施の形態2における端末制御装置10の制御部100による処理手順の一例を示すフローチャートである。なお、図12及び図13のフローチャートに示す処理手順の内、図6及び図7のフローチャートに示した処理手順と共通する処理については、同一のステップ番号を付して詳細な説明を省略する。
制御部100は、ステップS106,S107及びS108において、ステップS104で識別された両手足に相当する領域の位置が、規定されている位置と合致するか否かを判断することによって体の部位、即ち右手、左手、右足及び左足毎に所定のシーンに対応する時点における動きがOKかNGかを判定する。そして制御部100は、判定結果を部位毎に区別して記憶しておく(ステップS201)。
そして制御部100は、所定期間が経過したと判断した場合(S111:YES)、各部位毎に、所定期間中の全ての判定結果に対してOKと判定された割合が所定の第1の割合以上であるか否かを判断する(ステップS202)。制御部100は、いずれかの部位、即ち右手、左手、右足及び左足のいずれかについてOKと判定された割合が所定の第1の割合以上であると判断した場合(S202:YES)、ユーザの動きが映像コンテンツが示す見本の運動動作に十分に対応できていると判断し、対応する部位の運動レベルを上げた映像コンテンツを次に表示させるべく選択する(ステップS203)。
なお具体的には、制御部100は、右手又は左手についてOKと判定された割合が第1の割合以上であると判断した場合(S202:YES)、上半身の運動レベルを上げた映像コンテンツを表示させるべく選択する(S203)。また、制御部100は、右足又は左足についてOKと判定された割合が第1の割合以上であると判断した場合(S202:YES)、下半身の運動レベルを上げた映像コンテンツを表示させるべく選択する(S203)。
なおこのとき制御部100は、運動レベルを上げることを示す音声、文字情報及び画像が出力されるよう、第1画像出力部104、音声出力部105及び第2画像出力部108により画像信号及び音声信号を出力するようにしてもよい。この場合も、音声、文字情報及び画像の内のいずれか1つ又は2つが表示又は出力されるように処理するようにしてもよい。例えば、制御部100は音声出力部12から「テンポを上げます」、「難しくなります」等のメッセージを出力させる。
そして、制御部100は、ステップS203で選択した映像コンテンツの送信要求をサーバ装置2へ送信し(S115)、処理を終了する。
制御部100は、いずれの部位についてもOKと判定された割合が所定の第1の割合未満であると判断した場合(S202:NO)、部位毎に、OKと判定された割合が所定の第1の割合よりも低い第2の割合未満であるか否かを判断する(ステップS204)。
制御部100は、いずれの部位についてもOKと判定された割合が所定の第1の割合未満であって所定の第2の割合以上であると判断した場合(S204:NO)、ユーザの動きが映像コンテンツが示す見本の運動動作に適度に対応できていると判断し、表示されている映像コンテンツはユーザに適しているので同じ運動レベルに相当する次の映像コンテンツの送信要求をサーバ装置2へ送信し(S115)、処理を終了する。
制御部100は、いずれかの部位についてOKと判定された割合が所定の第2の割合未満であると判断した場合(S204:YES)、ユーザの動きが映像コンテンツが示す見本の運動動作に対応できていないと判断し、対応する部位の動きについてアドバイスを示す音声、文字情報及び画像が第1表示部11から表示され、音声出力部12から出力されるよう、第1画像出力部104及び音声出力部105により画像信号及び音声信号を出力する(S113)。そして制御部100は、次の運動動作の期間では対応する部位の運動レベルを下げた映像コンテンツを表示させるべく選択し(ステップS205)、選択した映像コンテンツの送信要求をサーバ装置2へ送信し(S115)、処理を終了する。
なお、ステップS113の処理では、制御部100は体の部位毎に区別してOK又はNGの判定結果を記憶しているので、NGの判定結果が特に多い体の部位の動きについて、対応できていない旨のアドバイスを示す音声、文字情報及び画像が第1表示部11及び音声出力部12から出力されるようにする。例えば、左手に相当する領域に対するNGの判定結果が他よりも多く、OKと判定された割合が第2の割合未満と判断された場合には「左手をもっと上げましょう」等の文字情報及び音声又はいずれか一方を表示又は出力させる。また、制御部100は、動きが対応できていない部位を示す画像を、ユーザを被写体として撮影している撮影画像を表示している第2表示部15への画像信号に重畳して出力するようにしてもよい。即ち、右手首に相当する領域に対するNGの判定結果が他よりも多く、OKと判定された割合が第2の割合未満と判断された場合には、第2画像出力部108により出力する画像信号を、星、三角等のマークがユーザの右手周辺に重畳されて表示されるように加工して出力する。更に、制御部100は、第1画像出力部104及び第2画像出力部108から画像信号を夫々第1表示部11及び第2表示部15へ入力するに際し、夫々NG判定の多い部位に相当する領域をアップにした画像信号を入力するようにしてもよい。これらの構成により、ユーザは自身の体の動きの内のいずれの部位の動きが正しくないかを認識することができ、その部位を意識しながら以後運動することができる。したがって、運動の効果が上がることが期待できる。
制御部100は、図12及び図13のフローチャートに示した処理手順を、選択された運動メニューのセッションの運動内容毎に行なう。
図14は、実施の形態2における端末制御装置10の制御部100により映像コンテンツが選択される過程の一例を示す説明図である。図14の説明図は横軸に時間の経過を示し、時間の経過に応じて切り替わるセッション名及び運動内容、並びに選択される映像コンテンツの識別情報を示す。また、図14の説明図の下部には各運動内容の期間において、ユーザの両手足に相当する領域の位置が規定情報と合致してOKと判定された割合を示す。なお、図14の説明図に示す内容例では、端末制御装置10の制御部100は、いずれかの部位の動きについてOKと判定された割合が80%以上であると判断した場合、対応する部位の運動レベルを上げた映像コンテンツを選択するようにしてある。そして、いずれかの部位の動きについてOKと判定された割合が60%未満であると判断した場合、対応する部位の運動レベルを下げた映像コンテンツを選択するようにしてある。
図14の説明図に示す内容例では実施の形態1における図8の説明図の内容例同様に、、ユーザにより運動メニュー「エアロビクス」が選択されている。最初の「ウォーミングアップ」のセッションでは運動レベル「3」に対応した映像コンテンツ「W1」が選択されてサーバ装置2から送信され、第1表示部11により表示される。そして「ウォーミングアップ」のセッションの300秒の間における各所定のシーンでの各部位についての判定結果は、右手が60%、左手が55%、右足が70%、左足が70%の割合でOKと判定されている。したがって、端末制御装置10の制御部100は、左手についてOKと判定された割合が60%未満であり、ユーザの左手の動きは映像コンテンツ「W1」が示す見本の運動動作に対応できていないと判断する。そこで端末制御装置10の制御部100は、次の「第1サーキット」のセッションにおける運動内容「ステップ1」では、上半身の運動レベルを「3」から「2」へ下げた映像コンテンツを表示させるべく、映像コンテンツ「A11(上:2)」を選択し、当該映像コンテンツの送信要求をサーバ装置2へ送信する。
次の「第1サーキット」のセッションにおける1つめの運動内容「ステップ1」では、上半身の運動レベルが「2」に下げられた映像コンテンツ「A11(上:2)」が第1表示部11により表示される。運動内容「ステップ1」の期間30秒間における各所定のシーンでの各部位についての判定結果は、右手が70%、左手が75%、右足が70%、左足が70%の割合でOKと判定されている。したがって、制御部100はユーザの動きは映像コンテンツ「A11(上:2)」が示す見本の運動動作に適度に対応できていると判断し、次の「ステップ2」では上半身の運動レベルが「2」に維持される。
そして運動内容「ステップ2」の期間30秒間における各所定のシーンでの判定結果は、右手が75%、左手が75%、右足が80%、左足が75%の割合でOKと判定されている。右足についてOKと判定された割合は80%であり、ユーザの右手の動きは映像コンテンツ「A12(上:2)」が示す見本の運動動作に十分に対応できていると制御部100により判断される。そして、次の「ステップ3」では、下半身の運動レベルが「4」に上げられる。
更に、運動内容「ステップ3」の期間30秒間における各所定のシーンでの判定結果は、右手が75%、左手が80%、右足が65%、左足が70%の割合でOKと判定されている。左手についてOKと判定された割合は80%であり、ユーザの左手の動きは映像コンテンツ「A13(上:2、下:4)」が示す見本の運動動作に十分に対応できていると制御部100により判断される。そして、次の「ステップ4」では、上半身の運動レベルが「3」に戻される。
このように、第1表示部11に表示される映像コンテンツは、ユーザの動きが見本の運動動作に対応できているか否かの判断に応じて運動レベルが適宜上げ下げされて選択される。ユーザが見本の運動動作に対応して動くことができない場合は、より遅いテンポ、スピードの運動レベルを下げた映像コンテンツに変更され、ユーザは正しい動作をトレースすることができるようになり効果的に運動を行なうことができる。そして更に、ユーザが見本の運動動作に十分に対応して動くことができる場合は、ユーザにとっては易しい動きである可能性があるので、より速いテンポ、スピードの運動レベルを上げた映像コンテンツに変更され、ユーザの運動能力及び個性に適した映像コンテンツを提供して運動を支援することができる。
そして実施の形態2では、ユーザの動きが見本の運動動作に対応できているか否かの判断に応じた運動レベルの上げ下げを、ユーザの体の各部位について対応できているか否かの判断に応じて区別して行なう構成とした。これにより、ユーザの体の部位毎の運動能力及び動きの個性に適した見本の運動動作を示す映像コンテンツが提供され、ユーザは自身に適した正しい動作で運動を行なうことができる。
また、実施の形態2における運動支援装置では、各部位毎に動きが見本の運動動作に対応できているか否かを判断したので、各部位毎にアドバイスの音声、文字情報及び画像を表示及び出力する構成とした。これにより、ユーザは自分の動作の内のいずれの部位の動きが不十分であるのかを認識して、より正しく動かそうと意識しながら運動を行なうことができ、運動の効果が上がることが期待される。
なお、実施の形態1及び2では、映像コンテンツデータベース3は、サーバ装置2とは別の記憶装置内に設けられており、制御部20がコンテンツ取得部24を介して映像コンテンツデータベース3から映像コンテンツを取得することが可能な構成とした。しかしながら、記憶部21内に映像コンテンツデータベース3が設けられていてもよく、この場合インタフェースであるコンテンツ取得部24は不要である。
なお、制御部100による判断処理において第2画像取得部107により取得される撮影画像の分割は、水平方向の3分割に限らず3×3分割として足の前後の動きに対してOK又はNGを判定するようにしてもよい。なお、撮影画像の分割は3×3分割に限らないことは勿論である。
1 運動支援装置
10 端末制御装置
100 制御部
101 記憶部
10P 制御プログラム
104 第1画像出力部
105 音声出力部
106 第1画像取得部
107 第2画像取得部
108 第2画像出力部
11 第1表示部
12 音声出力部
13 第1撮影部
14 第2撮影部
15 第2表示部
2 サーバ装置(中央装置)
3 映像コンテンツデータベース
10 端末制御装置
100 制御部
101 記憶部
10P 制御プログラム
104 第1画像出力部
105 音声出力部
106 第1画像取得部
107 第2画像取得部
108 第2画像出力部
11 第1表示部
12 音声出力部
13 第1撮影部
14 第2撮影部
15 第2表示部
2 サーバ装置(中央装置)
3 映像コンテンツデータベース
Claims (12)
- 運動動作の見本を示す動画像を表示部に表示する見本表示手段を備える運動支援装置において、
被写体を撮影した撮影画像を時系列的に取得する画像取得手段と、
該画像取得手段が取得した撮影画像における被写体の一部又は全部に相当する領域を判別する判別手段と、
複数の撮影画像に亘って前記判別手段が判別した領域の撮影画像中における位置から特定される被写体の動きが、前記見本表示手段により表示している動画像の見本の運動動作に対応しているか否かを判断する判断手段と、
該判断手段による判断に応じて前記見本表示手段が表示する内容を変化させる手段と
を備えることを特徴とする運動支援装置。 - 運動動作の見本を示す動画像における複数の所定のシーンに対応づけ、前記動画像を表示する場合に撮影画像中の被写体に相当する領域が位置すべき所定の領域が規定されており、
前記判断手段は、
各時点で取得される複数の撮影画像から前記判別手段が判別した領域と、前記所定の領域とが合致するか否かを判断する手段を備え、
合致すると判断した場合に対応していると判断するようにしてあること
を特徴とする請求項1に記載の運動支援装置。 - 前記判別手段は、撮影画像における被写体に相当する領域を前記被写体の部位毎に判別するようにしてあり、
前記判断手段は、
前記判別手段が判別した領域夫々の撮影画像中における位置から被写体の部位の動きが見本の運動動作に対応しているか否かを前記判断手段により判断するようにしてあること
を特徴とする請求項1又は2に記載の運動支援装置。 - 前記判断手段が対応していないと判断した場合、表示している動画像が示す運動動作よりもテンポが遅い又は速い運動動作の見本を示す動画像へ変更するようにしてあること
を特徴とする請求項1乃至3のいずれか1つに記載の運動支援装置。 - 前記判断手段が対応していないと判断した場合、動画像の表示速度を上昇又は下降させるようにしてあること
を特徴とする請求項1乃至3のいずれか1つに記載の運動支援装置。 - 前記判断手段が対応していないと判断した場合、動きが対応していないと判断された被写体の部位の運動量が小さい運動動作を示す動画像へ変更するようにしてあること
を特徴とする請求項3に記載の運動支援装置。 - 前記判断手段が対応していると判断した場合、動きが対応していると判断された被写体の部位の運動量が大きい運動動作を示す動画像へ変更するようにしてあること
を特徴とする請求項3に記載の運動支援装置。 - 前記判断手段が対応していないと判断した場合、運動動作を支援する文字情報及び/又は画像を更に表示させるようにしてあること
を特徴とする請求項1乃至7のいずれか1つに記載の運動支援装置。 - 動画像を表示する表示部を備える端末装置と、該端末装置に接続され、前記端末装置へ動画像を送信する中央装置とを含み、前記端末装置は、前記中央装置から送信される運動動作の見本を示す動画像を受信し、表示部に表示させることにより被支援者の運動を支援する運動支援システムにおいて、
前記端末装置は、
前記被支援者を撮影した撮影画像を出力する撮影装置と接続され、
該撮影装置から出力される撮影画像を時系列的に取得する画像取得手段と、
該画像取得手段が取得した撮影画像における前記被支援者の一部又は全部に相当する領域を判別する判別手段と、
複数の撮影画像に亘って前記判別手段が判別した領域の撮影画像中における位置から特定される前記被支援者の動きが、前記表示部に表示させている動画像の見本の運動動作に対応しているか否かを判断する判断手段と、
該判断手段による判断に応じて前記表示部に表示させる動画像を選択する手段と、
選択した動画像の送信を要求する送信要求を前記中央装置へ送信する手段と
を備え、
前記中央装置は、端末装置から送信要求を受信した場合、受信した送信要求に基づいて動画像を送信する手段を備えること
を特徴とする運動支援システム。 - 運動動作の見本を示す動画像を表示部に表示することにより被支援者の運動を支援する運動支援方法において、
前記被支援者を撮影した撮影画像を時系列的に取得し、
取得した撮影画像における前記被支援者の一部又は全部に相当する領域を判別し、
複数の撮影画像に亘って判別した領域の撮影画像中における位置から特定される被支援者の動きが、表示部に表示している動画像の見本の運動動作に対応しているか否かを判断し、
該判断に応じて表示部に表示する内容を変化させる
ことを特徴とする運動支援方法。 - コンピュータに、運動動作の見本を示す動画像を表示部に表示させることにより被支援者の運動を支援させるコンピュータプログラムにおいて、
被写体を撮影した撮影画像を時系列的に取得した撮影画像における被写体の一部又は全部に相当する領域を判別する判別手段、
複数の撮影画像に亘って前記判別手段が判別した領域の撮影画像中における位置から特定される前記被写体の動きが、表示部に表示させている動画像の見本の運動動作に対応しているか否かを判断する判断手段、及び、
該判断手段による判断に応じて表示部に表示する内容を変化させる手段
として機能させることを特徴とするコンピュータプログラム。 - コンピュータに、運動動作の見本を示す動画像を表示部に表示させることにより被支援者の運動を支援させるコンピュータプログラムにおいて、
被写体を撮影した撮影画像を時系列的に取得した撮影画像における被写体の一部又は全部に相当する領域を判別する判別手段、
前記動画像における複数の所定のシーンに対応づけられ、前記動画像を表示する場合に撮影画像中の被写体に相当する領域が位置すべき所定の領域を規定する規定情報に基づき、前記判別手段が判別した領域が前記規定情報により規定される所定の領域と合致するか否かを判定する判定手段、
複数の撮影画像に対する前記判定手段による判定結果の内、合致すると判定された結果が所定の割合以上であるか否かを判断する判断手段、及び、
該判断手段による判断に応じて表示部に表示する内容を変化させる手段
として機能させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008063137A JP2009213782A (ja) | 2008-03-12 | 2008-03-12 | 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008063137A JP2009213782A (ja) | 2008-03-12 | 2008-03-12 | 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009213782A true JP2009213782A (ja) | 2009-09-24 |
Family
ID=41186299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008063137A Pending JP2009213782A (ja) | 2008-03-12 | 2008-03-12 | 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009213782A (ja) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012065943A (ja) * | 2010-09-27 | 2012-04-05 | Brother Industries Ltd | 運動支援装置、運動支援方法およびプログラム |
JP2012065778A (ja) * | 2010-09-22 | 2012-04-05 | Brother Industries Ltd | 運動支援装置、運動支援方法およびプログラム |
WO2012115384A2 (ko) * | 2011-02-25 | 2012-08-30 | 디게이트 주식회사 | 네츄럴 인터렉션 기반 건강 및 재활 기능성 게임시스템 |
WO2013065461A1 (ja) * | 2011-11-04 | 2013-05-10 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、詳細提示方法、情報記録媒体、および、プログラム |
CN103127691A (zh) * | 2011-12-01 | 2013-06-05 | 佳能株式会社 | 视频生成装置及方法 |
WO2014104463A1 (ko) * | 2012-12-24 | 2014-07-03 | 디게이트 주식회사 | 네츄럴 인터렉션 기반의 건강 및 재활 장치 |
KR101446653B1 (ko) * | 2012-12-24 | 2014-10-07 | 디게이트 주식회사 | 네츄럴 인터렉션 기반의 건강 및 재활 게임 장치 및 방법 |
WO2014162787A1 (ja) * | 2013-04-02 | 2014-10-09 | Necソリューションイノベータ株式会社 | 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置 |
JP2015146980A (ja) * | 2014-02-07 | 2015-08-20 | セイコーエプソン株式会社 | 運動支援システム、運動支援装置及び運動支援方法 |
JP2015219881A (ja) * | 2014-05-21 | 2015-12-07 | アルカディア・システムズ株式会社 | 運動支援システム、運動者側装置及びクラウドサーバ |
US9223936B2 (en) | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
US9283429B2 (en) | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
JP2016087420A (ja) * | 2014-11-04 | 2016-05-23 | 国立大学法人宇都宮大学 | 協調運動評価装置 |
US9358426B2 (en) | 2010-11-05 | 2016-06-07 | Nike, Inc. | Method and system for automated personal training |
US9457256B2 (en) | 2010-11-05 | 2016-10-04 | Nike, Inc. | Method and system for automated personal training that includes training programs |
KR101738589B1 (ko) * | 2016-02-04 | 2017-06-09 | 강원대학교산학협력단 | 영상인식을 이용한 스트레칭 가이드 시스템 |
US9811639B2 (en) | 2011-11-07 | 2017-11-07 | Nike, Inc. | User interface and fitness meters for remote joint workout session |
JP2017217267A (ja) * | 2016-06-08 | 2017-12-14 | パラマウントベッド株式会社 | リハビリテーション支援制御装置及びコンピュータプログラム |
JP2017217275A (ja) * | 2016-06-08 | 2017-12-14 | パラマウントベッド株式会社 | リハビリテーション支援制御装置及びコンピュータプログラム |
US9852271B2 (en) | 2010-12-13 | 2017-12-26 | Nike, Inc. | Processing data of a user performing an athletic activity to estimate energy expenditure |
US9977874B2 (en) | 2011-11-07 | 2018-05-22 | Nike, Inc. | User interface for remote joint workout session |
JP6339730B1 (ja) * | 2017-08-28 | 2018-06-06 | 株式会社FiNC | 動画コンテンツの提示方法およびプログラム |
JP2018149008A (ja) * | 2017-03-10 | 2018-09-27 | セイコーエプソン株式会社 | リハビリに使用可能な訓練装置及びリハビリに使用可能な訓練装置用のコンピュータープログラム |
JP2019005243A (ja) * | 2017-06-26 | 2019-01-17 | セイコーエプソン株式会社 | 訓練装置、訓練システム、プログラム、制御装置 |
US10188930B2 (en) | 2012-06-04 | 2019-01-29 | Nike, Inc. | Combinatory score having a fitness sub-score and an athleticism sub-score |
JP2019150533A (ja) * | 2018-03-06 | 2019-09-12 | 株式会社 Mtg | 運動制御システム |
US10420982B2 (en) | 2010-12-13 | 2019-09-24 | Nike, Inc. | Fitness training system with energy expenditure calculation that uses a form factor |
WO2019188076A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20190374148A1 (en) * | 2018-06-08 | 2019-12-12 | International Business Machines Corporation | Physiological stress of a user of a virtual reality environment |
JP2020048867A (ja) * | 2018-09-27 | 2020-04-02 | Kddi株式会社 | トレーニング支援方法および装置 |
JP2020195573A (ja) * | 2019-06-03 | 2020-12-10 | Kddi株式会社 | トレーニング評価装置、方法およびプログラム |
WO2021261529A1 (ja) * | 2020-06-23 | 2021-12-30 | 株式会社Sportip | 身体運動支援システム |
WO2024085095A1 (ja) * | 2022-10-21 | 2024-04-25 | ソニーグループ株式会社 | 情報処理方法、情報処理装置、及び、コンピュータ読み取り可能な非一時的記憶媒体 |
JP7530536B1 (ja) | 2023-12-22 | 2024-08-07 | 株式会社カーブスジャパン | 映像出力システム、映像出力方法、及びプログラム |
-
2008
- 2008-03-12 JP JP2008063137A patent/JP2009213782A/ja active Pending
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012065778A (ja) * | 2010-09-22 | 2012-04-05 | Brother Industries Ltd | 運動支援装置、運動支援方法およびプログラム |
JP2012065943A (ja) * | 2010-09-27 | 2012-04-05 | Brother Industries Ltd | 運動支援装置、運動支援方法およびプログラム |
US11915814B2 (en) | 2010-11-05 | 2024-02-27 | Nike, Inc. | Method and system for automated personal training |
US9283429B2 (en) | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
US9358426B2 (en) | 2010-11-05 | 2016-06-07 | Nike, Inc. | Method and system for automated personal training |
US9919186B2 (en) | 2010-11-05 | 2018-03-20 | Nike, Inc. | Method and system for automated personal training |
US11710549B2 (en) | 2010-11-05 | 2023-07-25 | Nike, Inc. | User interface for remote joint workout session |
US11094410B2 (en) | 2010-11-05 | 2021-08-17 | Nike, Inc. | Method and system for automated personal training |
US9457256B2 (en) | 2010-11-05 | 2016-10-04 | Nike, Inc. | Method and system for automated personal training that includes training programs |
US10583328B2 (en) | 2010-11-05 | 2020-03-10 | Nike, Inc. | Method and system for automated personal training |
US9223936B2 (en) | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
US9852271B2 (en) | 2010-12-13 | 2017-12-26 | Nike, Inc. | Processing data of a user performing an athletic activity to estimate energy expenditure |
US10420982B2 (en) | 2010-12-13 | 2019-09-24 | Nike, Inc. | Fitness training system with energy expenditure calculation that uses a form factor |
KR101234006B1 (ko) * | 2011-02-25 | 2013-02-18 | 디게이트 주식회사 | 네츄럴 인터렉션 기반 건강 및 재활 기능성 게임시스템 |
WO2012115384A3 (ko) * | 2011-02-25 | 2012-12-20 | 디게이트 주식회사 | 네츄럴 인터렉션 기반 건강 및 재활 기능성 게임시스템 |
WO2012115384A2 (ko) * | 2011-02-25 | 2012-08-30 | 디게이트 주식회사 | 네츄럴 인터렉션 기반 건강 및 재활 기능성 게임시스템 |
JP2013116311A (ja) * | 2011-11-04 | 2013-06-13 | Konami Digital Entertainment Co Ltd | ゲーム装置、詳細提示方法、および、プログラム |
WO2013065461A1 (ja) * | 2011-11-04 | 2013-05-10 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、詳細提示方法、情報記録媒体、および、プログラム |
US10825561B2 (en) | 2011-11-07 | 2020-11-03 | Nike, Inc. | User interface for remote joint workout session |
US9811639B2 (en) | 2011-11-07 | 2017-11-07 | Nike, Inc. | User interface and fitness meters for remote joint workout session |
US9977874B2 (en) | 2011-11-07 | 2018-05-22 | Nike, Inc. | User interface for remote joint workout session |
CN103127691A (zh) * | 2011-12-01 | 2013-06-05 | 佳能株式会社 | 视频生成装置及方法 |
US9374522B2 (en) | 2011-12-01 | 2016-06-21 | Canon Kabushiki Kaisha | Video generating apparatus and method |
JP2013111449A (ja) * | 2011-12-01 | 2013-06-10 | Canon Inc | 映像生成装置、映像生成方法及びプログラム |
US10188930B2 (en) | 2012-06-04 | 2019-01-29 | Nike, Inc. | Combinatory score having a fitness sub-score and an athleticism sub-score |
WO2014104463A1 (ko) * | 2012-12-24 | 2014-07-03 | 디게이트 주식회사 | 네츄럴 인터렉션 기반의 건강 및 재활 장치 |
KR101446653B1 (ko) * | 2012-12-24 | 2014-10-07 | 디게이트 주식회사 | 네츄럴 인터렉션 기반의 건강 및 재활 게임 장치 및 방법 |
CN105228708B (zh) * | 2013-04-02 | 2017-08-29 | 日本电气方案创新株式会社 | 身体动作评分装置、舞蹈评分装置、卡拉ok装置以及游戏装置 |
CN105228708A (zh) * | 2013-04-02 | 2016-01-06 | 日本电气方案创新株式会社 | 身体动作评分装置、舞蹈评分装置、卡拉ok装置以及游戏装置 |
WO2014162787A1 (ja) * | 2013-04-02 | 2014-10-09 | Necソリューションイノベータ株式会社 | 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置 |
US10803762B2 (en) | 2013-04-02 | 2020-10-13 | Nec Solution Innovators, Ltd | Body-motion assessment device, dance assessment device, karaoke device, and game device |
JP2015146980A (ja) * | 2014-02-07 | 2015-08-20 | セイコーエプソン株式会社 | 運動支援システム、運動支援装置及び運動支援方法 |
JP2015219881A (ja) * | 2014-05-21 | 2015-12-07 | アルカディア・システムズ株式会社 | 運動支援システム、運動者側装置及びクラウドサーバ |
JP2016087420A (ja) * | 2014-11-04 | 2016-05-23 | 国立大学法人宇都宮大学 | 協調運動評価装置 |
KR101738589B1 (ko) * | 2016-02-04 | 2017-06-09 | 강원대학교산학협력단 | 영상인식을 이용한 스트레칭 가이드 시스템 |
JP2017217275A (ja) * | 2016-06-08 | 2017-12-14 | パラマウントベッド株式会社 | リハビリテーション支援制御装置及びコンピュータプログラム |
JP2017217267A (ja) * | 2016-06-08 | 2017-12-14 | パラマウントベッド株式会社 | リハビリテーション支援制御装置及びコンピュータプログラム |
JP2018149008A (ja) * | 2017-03-10 | 2018-09-27 | セイコーエプソン株式会社 | リハビリに使用可能な訓練装置及びリハビリに使用可能な訓練装置用のコンピュータープログラム |
JP2019005243A (ja) * | 2017-06-26 | 2019-01-17 | セイコーエプソン株式会社 | 訓練装置、訓練システム、プログラム、制御装置 |
JP2019041319A (ja) * | 2017-08-28 | 2019-03-14 | 株式会社FiNC Technologies | 動画コンテンツの提示方法およびプログラム |
JP6339730B1 (ja) * | 2017-08-28 | 2018-06-06 | 株式会社FiNC | 動画コンテンツの提示方法およびプログラム |
JP2019150533A (ja) * | 2018-03-06 | 2019-09-12 | 株式会社 Mtg | 運動制御システム |
JP7178786B2 (ja) | 2018-03-06 | 2022-11-28 | 株式会社 Mtg | 運動制御システム |
WO2019188076A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11315599B2 (en) | 2018-03-30 | 2022-04-26 | Sony Corporation | Information processing device and information processing method |
US20190374148A1 (en) * | 2018-06-08 | 2019-12-12 | International Business Machines Corporation | Physiological stress of a user of a virtual reality environment |
JP2021526679A (ja) * | 2018-06-08 | 2021-10-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 仮想現実環境のユーザの生理的ストレス |
JP7185986B2 (ja) | 2018-06-08 | 2022-12-08 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想現実環境のユーザの生理的ストレス |
US11903712B2 (en) * | 2018-06-08 | 2024-02-20 | International Business Machines Corporation | Physiological stress of a user of a virtual reality environment |
JP2020048867A (ja) * | 2018-09-27 | 2020-04-02 | Kddi株式会社 | トレーニング支援方法および装置 |
JP7007330B2 (ja) | 2019-06-03 | 2022-01-24 | Kddi株式会社 | トレーニング評価装置、方法およびプログラム |
JP2020195573A (ja) * | 2019-06-03 | 2020-12-10 | Kddi株式会社 | トレーニング評価装置、方法およびプログラム |
WO2021261529A1 (ja) * | 2020-06-23 | 2021-12-30 | 株式会社Sportip | 身体運動支援システム |
WO2024085095A1 (ja) * | 2022-10-21 | 2024-04-25 | ソニーグループ株式会社 | 情報処理方法、情報処理装置、及び、コンピュータ読み取り可能な非一時的記憶媒体 |
JP7530536B1 (ja) | 2023-12-22 | 2024-08-07 | 株式会社カーブスジャパン | 映像出力システム、映像出力方法、及びプログラム |
JP7549179B1 (ja) | 2023-12-22 | 2024-09-10 | 株式会社カーブスジャパン | 映像出力システム、映像出力方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009213782A (ja) | 運動支援装置、運動支援システム、運動支援方法及びコンピュータプログラム | |
US8371989B2 (en) | User-participating type fitness lecture system and fitness training method using the same | |
JP5321060B2 (ja) | 表示制御装置、表示システム、およびテレビジョンセット | |
US11951377B2 (en) | Leaderboard with irregularity flags in an exercise machine system | |
US9761013B2 (en) | Information notification apparatus that notifies information of motion of a subject | |
CN109284402B (zh) | 一种信息推荐方法、装置及存储介质 | |
KR102093647B1 (ko) | 카메라를 구비하는 장치의 이미지 촬영장치 및 방법 | |
US20190118066A1 (en) | Method and apparatus for providing interactive fitness equipment via a cloud-based networking | |
CN107341351A (zh) | 智能健身方法、装置及系统 | |
CN113655935B (zh) | 一种用户确定方法、电子设备和计算机可读存储介质 | |
KR102356685B1 (ko) | 온라인 그룹을 기반으로 하는 홈 트레이닝 제공 시스템 및 그 방법 | |
JP2013066696A (ja) | 画像処理システム及び画像処理方法 | |
JP2011019627A (ja) | トレーニングマシン、方法、および、プログラム | |
JP2007289515A (ja) | 運動支援装置とそのプログラム | |
JP6180011B2 (ja) | 動作評価支援装置、動作評価支援システム、動作評価支援方法及びプログラム | |
JP5060974B2 (ja) | カラーマーカーを用いたコンテンツ提供方法およびそれを実行するためのシステム | |
JP5970890B2 (ja) | 運動回数計測装置、運動回数計測方法およびプログラム | |
JP5049819B2 (ja) | 運動支援装置及びコンピュータプログラム | |
JP7301521B2 (ja) | 画像処理装置 | |
JP7282519B2 (ja) | 画像処理装置または画像処理サーバー | |
JP7344560B2 (ja) | トレーニング機器の制御方法 | |
CA3202853A1 (en) | Exercise apparatus with integrated immersive display | |
KR101092183B1 (ko) | 사이버 러닝머신 시스템 | |
CN113534943A (zh) | 一种健身场地的判断方法及设备 | |
WO2023176567A1 (ja) | 運動支援システム |