JP2006320424A - 動作教示装置とその方法 - Google Patents

動作教示装置とその方法 Download PDF

Info

Publication number
JP2006320424A
JP2006320424A JP2005144626A JP2005144626A JP2006320424A JP 2006320424 A JP2006320424 A JP 2006320424A JP 2005144626 A JP2005144626 A JP 2005144626A JP 2005144626 A JP2005144626 A JP 2005144626A JP 2006320424 A JP2006320424 A JP 2006320424A
Authority
JP
Japan
Prior art keywords
unit
user
motion
robot
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005144626A
Other languages
English (en)
Inventor
Kazuyoshi Yoshino
和芳 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tama TLO Co Ltd
Original Assignee
Tama TLO Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tama TLO Co Ltd filed Critical Tama TLO Co Ltd
Priority to JP2005144626A priority Critical patent/JP2006320424A/ja
Publication of JP2006320424A publication Critical patent/JP2006320424A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】リハビリテーションの運動等において模範的な動作を効果的に利用者に教示することができる動作教示装置とその方法を提供する。
【解決手段】ロボット20によって利用者20に模範動作が提示され、この模範動作に対応する利用者20の動作がカメラ31,32の撮影画像に基づいて認識される。そして、認識された利用者10の動作とロボット20が提示した模範動作との差異が検出され、この差異を補正するためのアドバイスが音声としてスピーカ40から出力される。そのため、利用者10は、間違った動作をしたときに音声のアドバイスに従ってそれを正すことが可能となり、ビデオなどで一方的に動作が提示される場合に比べて、より効果的に模範動作を学習することができる。
【選択図】 図1

Description

本発明は、例えばリハビリテーションのための運動や、電子機器の操作、スポーツ、などにおいて、利用者に模範的な身体の動作を教示する動作教示装置とその方法に関するものである。
医療技術の発達によって平均寿命が伸びた一方で子供の数が年々減少していることから、社会の高齢化が急速に進んでいる。そのため、高齢者を支援する仕組みや環境の整備が急務になっている。
非特許文献1には、カメラで撮影した利用者の映像をコンピュータに取り込んで画像処理を行うことにより利用者のジェスチャを推定し、この推定したジェスチャに応じてゲーム機を操作する技術が記載されている。これにより、指先が不自由であったり、電子機器の操作に不慣れであるためゲーム機のコントローラを思うように操作できない高齢者であっても、負担を感じることなくゲームを楽しむことが可能になる。
また、非特許文献2には、ロボットが利用者にキーボードの入力操作を教示するシステムが記載されている。このシステムでは、マイクロフォンに入力される利用者の音声をコンピュータに取り込んで音声認識処理を行うことにより、入力された音声を単語として認識する。そして、認識した単語に対応するキーの位置を指差すように、キーボードの横に配置された小型のロボットを制御する。これにより、利用者はロボットから何度でも気軽にキーボードの操作を教わることができるため、電子機器の操作に不慣れな高齢者でも自分のペースで着実にキー操作を習得することができる。
今井、他2名,「ステレオカメラを利用した家庭用ゲーム機のジェスチャ操作」,「第19回リハ工学カンファレンス 講演論文集」,2004年8月25日,p.191−192 吉野、他1名,「高齢者のためのパソコンキー入力操作の学習支援システム」,「第19回リハ工学カンファレンス 講演論文集」,2004年8月25日,p.201−202
ところで、慢性的な疾患を患っている人の割合は、一般に年齢が高くなるほどが多くなる傾向がある。こうした疾患からの回復を図り、健康を維持・増進させるためには、リハビリテーションとして適切な運動を行うことが効果的である。しかしながら、従来このようなリハビリテーションとしての運動は、専門の施設においてインストラクタの指示の元で行われており、高齢者が家庭内で個人的に行うことが困難であるという問題がある。
また、リハビリテーションに限らず、例えばスポーツにおいて技能の向上を図るためのトレーニングを行う際に、正しいフォームを指導してくれるインストラクタがいない場合には、インストラクタの代わりにビデオなどを見て学習する必要がある。ところがこのような個人的なトレーニングでは、情報を一方的に受け取るのみであり、実際に行った動作が適切であるかについてはトレーニングを行う者が自分で把握しなくてはならない。そのため、インストラクタの指示を受けてトレーニングを行う場合に比べて学習効果が劣るという問題がある。
本発明はかかる事情に鑑みてなされたものであり、その目的は、リハビリテーションの運動等において模範的な動作を効果的に利用者に教示することができる動作教示装置とその方法を提供することにある。
本発明の第1の観点に係る動作教示装置は、利用者に模範的な動作を提示する動作提示部と、上記動作提示部が提示した動作に対応する上記利用者の動作を認識する動作認識部と、上記動作提示部が提示した動作と上記動作認識部が認識した動作との差異を検出する検出部と、上記検出部が検出した差異を補正するためのアドバイスに関する情報を提供する情報提供部とを有する。
好適には、上記動作提示部は、上記検出部の検出結果に応じて、同一の動作を繰り返し提示する。
上記動作教示装置は、上記利用者のバイタルサインを測定するバイタルサイン測定部を有しても良い。この場合、上記動作提示部は、提示可能な複数の動作の中から、上記バイタルサイン測定部の測定結果に応じた動作を選択して提示しても良い。また、上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記バイタルサイン測定部の測定結果に応じた情報を選択して提供しても良い。
上記動作教示装置は、上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有しても良い。この場合、上記動作提示部は、提示可能な複数の動作の中から、上記評価部の評価結果に応じた動作を選択して提示しても良い。また、上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記評価部の評価結果に応じた情報を選択して提供しても良い。
上記動作教示装置は、上記利用者の音声を認識する音声認識部を有しても良い。この場合、上記動作提示部は、上記音声認識部により認識された上記利用者の音声に応じて、動作の提示の開始、動作の提示の終了、及び、提示可能な複数の動作の中からの上記利用者に提示する動作の選択の少なくとも1つを行っても良い。
また、上記動作提示部は、模範的な動作を実演するロボット、模範的な動作の映像を表示する映像表示部、及び、模範的な動作を教示する音声を出力する音声出力部の少なくとも1つを含んでも良い。
本発明の第2の観点に係る動作教示方法は、ロボット、映像表示部、及び、音声出力部の少なくとも1つが、利用者に模範的な動作を提示する第1の工程と、上記第1の工程において提示した動作に対応する上記利用者の動作を、少なくとも2つの位置から撮影部によって撮影し、当該撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する第2の工程と、上記第2の工程において取得した3次元位置情報に基づいて、上記第1の工程において提示した動作と上記撮影部が撮影した上記利用者の動作との差異を検出する第3の工程と、上記第3の工程において検出された差異を補正するためのアドバイスに関する情報を提供する第4の工程とを有する。
本発明によれば、提示された動作とこれに合わせて利用者が行った実際の動作との差異が検出され、この差異を補正するためのアドバイスが利用者に提供されるため、一方的に動作が提示される場合に比べて、模範的な動作を効果的に利用者に教示することができる。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る動作教示装置の構成の一例を示す図である。
図1に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、制御部100とを有する。
また、制御部100は、ロボット制御部101と、動作認識処理部102と、検出部103と、音声出力部104とを有する。
なお、図1に示す動作教示装置の各構成要素と本発明の各構成要素との対応関係は次の通りである。
ロボット20及びロボット制御部101を含むユニットは、本発明の動作提示部の一実施形態である。
カメラ31,32及び動作認識処理部102を含むユニットは、本発明の動作認識部の一実施形態である。
スピーカ40及び音声出力部104を含むユニットは、本発明の情報提供部の一実施形態である。
ロボット20は、利用者10に模範的な動作(模範動作)を提示するための装置であり、人体に模して形成された各部位(手、足、首など)をロボット制御部101の制御に従って動かす。
カメラ31,32は、各々異なる位置から利用者10の映像を撮影し、その映像信号を制御部100に出力する。
スピーカ40は、音声出力部104から出力される音声信号に応じた音声を出力する。
制御部100は、動作教示装置の全体動作に関わる種々の処理、制御を行う。すなわち、制御部100は、ロボット20を制御して模範動作を実演させ、この実演に合わせて行われる利用者10の動作をカメラ31,32によって撮影する。そして、撮影した動作に基づいて利用者10の所定の身体部位の3次元的位置情報を取得し、この位置情報とロボット20に実演させた模範動作との差異を補正するためのアドバイスを音声としてスピーカ40から出力する。
図2は、制御部100の構成の一例を示す図である。
制御部100は、例えば図2に示すように、入力部110と、表示部111と、インターフェース部112と、記憶装置113と、RAM114と、ROM115と、コンピュータ116とを有する。
入力部110は、例えばキーボードやマウスなど、利用者の操作に応じた情報を入力するための機器である。
表示部111は、例えば液晶ディスプレイやCRTディスプレイなどの表示機器を含み、コンピュータ116から供給される映像信号に基づいて画像を表示する。
インターフェース部112は、コンピュータ116の入出力装置とロボット20やカメラ31,32、スピーカ40などの外部機器との間で信号をやりとりする。すなわち、ロボット20への制御信号の出力や、カメラ31,32からの映像信号の取り込み、スピーカ40への音声信号の出力などを行う。
記憶装置113は、例えばハードディスク装置や光磁気ディスク装置など、比較的容量の大きなデータの記憶が可能な装置であり、コンピュータ116のオペレーティングシステムやアプリケーションプログラム、各種のデータを記憶する。例えば、ロボット20の制御データや、スピーカ40において出力するアドバイス用音声のデータなどを記憶する。
RAM114は、コンピュータ116の処理過程において一時的に記憶する必要があるデータやコンピュータ116のプログラムコードなどを記憶する。
ROM115は、コンピュータ116において利用される定数データや起動用プログラムなどを記憶する。
コンピュータ116は、ROM115や記憶装置113に格納されるプログラムに従って、各種の処理を実行する。次に述べる機能ブロック(ロボット制御部101、動作認識処理部102、検出部103、音声出力部104など)の処理は、コンピュータ116によって実現される。
ロボット制御部101は、記憶装置113に格納される制御データに基づいてロボット20を制御し、模範動作を実演させる。
模範動作は、例えば一連の複数の動作によって構成されており、記憶装置113はこの一連の動作(以降、動作パターンと呼ぶ)をロボット20に実演させるための制御データを格納する。ロボット制御部101は、記憶装置113に格納される制御データに基づいて、動作パターンを構成する各々の動作をロボット20に順番に実演させる。
ただし、後述する検出部103において、動作認識処理部102が認識した利用者10の動作とロボット20の模範動作との間に一定以上の差異が検出された場合、ロボット制御部101は、この模範動作をロボット20に繰り返し実演させる。
また、ロボット制御部101は、複数の動作パターンの実演が可能な制御データが記憶装置113に格納されている場合、例えば表示部111に動作パターンを選択するためのメニュー画面を表示して、その選択を利用者10に促す。利用者10が入力部110の操作によって動作パターンを選択すると、ロボット制御部101は、当該選択された動作パターンをロボット20に実演させる。
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間(例えばロボット20の実演中や実演後の所定の期間)において、カメラ31,32が撮影した利用者10の動作を認識する処理を行う。すなわち、この期間に2つのカメラ(31,32)で撮影された利用者10の動作に基づいて、利用者10の所定の身体部位の3次元位置情報を取得する。
例えば、動作認識処理部102は、2つのカメラ(31,32)の一方で撮影された画像と、利用者10がいない状態で予め撮影された背景の画像とに基づいて、RRF(radial reach filter)などの画像処理技術により、撮影画像から利用者10の画像を抽出する。
次いで、動作認識処理部102は、例えば画素の輝度分布などに基づいて、一方のカメラで撮影された画像の各部分が他方のカメラで撮影された画像のどの部分に対応しているかを特定する。そして、対応する2つの部分の画面上における位置と、カメラ31,32の設置位置、撮影の方向などの情報に基づいて、この2つの部分が共通に写し出している実際の被写体の3次元位置を算出する。
更に、動作認識処理部102は、各画像の形状や面積などに基づいて、画像のどの部分が利用者10のどの身体部位(頭、手、足など)に相当するかを推定する。
以上の処理により、動作認識処理部102は、利用者10の所定の身体部位の3次元位置に関する情報を取得する。
検出部103は、動作認識処理部102が認識した利用者10の動作と、ロボット制御部101がロボット20に実演させた模範動作との差異を検出する。
検出部103は、例えば、動作認識処理部102が算出した所定の身体部位の位置が、利用者10に提示した模範動作において要求される位置に対してどの方向へどの程度離れているかを検出する。
また、位置の差異だけでなく、例えば動作認識処理部102が算出した所定の身体部位の移動速度や加速度、当該身体部位が単位時間あたりに所定の距離を超えて移動する回数や周期など、当該身体部位の動作を表す様々な特性値を算出し、この特性値が模範動作において要求される値に対して大きいか小さいか、どの程度離れているかを検出しても良い。
音声出力部104は、検出部103において検出された差異を補正するためのアドバイス用音声データを記憶装置113から読み出し、その音声をスピーカ40から出力する。
例えば、利用者10の右腕の位置が模範動作に比べて下がっていると検出部103において検出された場合、音声出力部104は、「右腕をもう少し上へ伸ばしてください」といった内容の音声データを記憶装置113から読み出し、その音声をスピーカ40から出力する。
ここで、上述した構成を有する図1に示す動作教示装置の動作について、図3に示すフローチャートを参照して説明する。
ステップST100:
ロボット制御部101は、入力部110に入力される利用者10の指示に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
ステップST105(第1の工程):
ロボット制御部101は、ステップST100で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
ステップST110(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、カメラ31,32で撮影される利用者10の画像に基づいて、利用者10の所定の身体部位の3次元位置情報を取得する。
ステップST115(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101がロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
ステップST120,ST125,ST130:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101は、ステップST105に戻って、再度同じ模範動作をロボット20に実演させる。そしてこの実演を行うとき、音声出力部104は、検出部103の検出結果に応じたアドバイス用音声データを記憶装置113から読み出してスピーカ40から出力する(ステップST125、第4の工程)。
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101は、現在の動作パターンにおける次の動作を選択し(ST130)、この模範動作をステップST105以降の処理でロボット20に実演させる。
以上説明したように、図1に示す動作教示装置によれば、ロボット20によって利用者10に模範動作が提示され、この模範動作に対応する利用者10の動作がカメラ31,32の撮影画像に基づいて認識される。そして、認識された利用者10の動作とロボット20が提示した模範動作との差異が検出され、この差異を補正するためのアドバイスが音声としてスピーカ40から出力される。
そのため、利用者10は、間違った動作をしたときに音声のアドバイスに従ってそれを正すことが可能となり、ビデオなどで一方的に動作が提示される場合に比べて、より効果的に模範動作を学習することができる。
また、本実施形態によって模範的な正しい動作を学習することにより、運動の効果を最大限に得ることができる。例えばリハビリテーションの運動に本実施形態を適用した場合には、利用者の身体機能の回復や健康の維持・増進に著しい効果が得られる。スポーツのトレーニングに本実施形態を適用した場合には、利用者の技能の向上に大きく貢献することができる。
専門のインストラクタの指導を受けてリハビリテーションやトレーニングを行う場合、時間的な制約などから自らのペースに合わせて動作の学習を行うことが難しい。特に、体力の低下などによって学習のペースが遅くなっている高齢者は、時間をかけて学習を行う必要があるため、限られた時間しか占有できないインストラクタによる指導は高齢者にとって体力的若しくは心理的な負担になる場合がある。
本実施形態に係る動作教示装置によれば、時間や場所の制約を受けることなく、自分のペースで気軽に動作の学習を行うことができるため、高齢者や障害者のリハビリテーションに最適な環境を提供することができる。
また、一方的に情報が与えられる従来の方法では、内容が単調になりがちであり、すぐに飽きてしまう問題がある。これに対し、本実施形態に係る動作教示装置によれば、利用者の動作に応じてアドバイスが提供されるため、学習の面白みが増し、利用者の意欲を高めることができる。
しかも、家庭内で気軽に学習を行うことができるため、施設に通ってリハビリテーションやトレーニングを受ける場合に比べて、学習の反復・継続性を高めることができる。
更に、ロボット20の3次元的な動きによって動作を提示するため、利用者は動作を容易に理解することができる。これにより、利用者に正しい動作を身に付けさせることができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態に係る動作教示装置では、利用者のバイタルサインに応じて、提示する動作の内容やアドバイスの内容が変更される。
図4は、本発明の第2の実施形態に係る動作教示装置の構成の一例を示す図である。
図4に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、バイタルサイン測定器50と、制御部100Aとを有する。制御部100Aは、ロボット制御部101Aと、動作認識処理部102と、検出部103と、音声出力部104Aと、測定処理部105とを有する。
図1と図4の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
バイタルサイン測定器50は、例えば心拍、血圧、酸素飽和度、呼吸数、体温、発汗、脳波など、利用者10の生命活動に関わる兆候を測定する。
測定処理部105は、バイタルサイン測定器50の測定結果を取り込み、これをロボット制御部101A及び音声出力部104Aに渡す。測定処理部105は、バイタルサイン測定器50の測定結果を時間的に平均化しても良い。
なお、バイタルサイン測定器50及び測定処理部105を含むユニットは、本発明のバイタルサイン測定部の一実施形態である。
ロボット制御部101Aは、提示可能な複数の動作の中からバイタルサイン測定器50の測定結果に応じて選択した動作をロボット20に実演させる。例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、現在の動作パターンや別の動作パターンの中からより疲労度の小さい動作を選択してロボット20に実演させる。
その他の動作についてはロボット制御部101と同じである。
音声出力部104Aは、検出部103が検出した差異を補正するための複数のアドバイス用音声のうち、バイタルサイン測定器50の測定結果に応じて選択した音声をスピーカ40から出力する。例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、身体的な負荷が比較的小さくなるようにアドバイスの音声を選択する。
その他の動作については音声出力部104と同じである。
ここで、上述した構成を有する図4に示す動作教示装置の動作について、図5に示すフローチャートを参照して説明する。
ステップST200:
測定処理部105がバイタルサイン測定器50の測定結果を取り込む。
ステップST205:
ロボット制御部101Aは、入力部110に入力される利用者10の指示、若しくはステップST200で取り込まれたバイタルサイン測定器50の測定結果に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
ステップST210(第1の工程):
ロボット制御部101Aは、ステップST205で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
ステップST215(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
ステップST220(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Aがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
ステップST225:
測定処理部105がバイタルサイン測定器50の測定結果を取り込む。
ステップST230,ST235,ST240:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Aは、ステップST210に戻って、再度同じ模範動作をロボット20に実演させる。
そしてこの実演を行う際、音声出力部104Aは、検出部103の検出結果に加えてバイタルサイン測定器50の測定結果を考慮したアドバイス用音声をスピーカ40から出力する(ステップST235,第4の工程)。
例えば、バイタルサインの測定結果によって利用者10の疲労度が一定以上に高まっていることが推定される場合、身体的な負荷が小さくなるようにアドバイスの音声を選択する。
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101Aは、バイタルサイン測定器50の測定結果を考慮して次の動作を選択し(ST240)、この選択した模範動作をステップST210以降の処理でロボット20に実演させる。
例えば、バイタルサイン測定器50の測定結果から利用者10の体調が通常の状態にあると推定される場合、ロボット制御部101Aは、現在の動作パターンにおける次の動作を通常通り選択する。これに対し、バイタルサイン測定器50の測定結果から利用者10が一定以上疲労していると推定される場合、ロボット制御部101Aは、現在の動作パターン若しくは別の動作パターンに含まれる、より負荷の軽い動作を選択する。
なお、ロボット制御部101Aは、バイタルサイン測定器50の測定結果に応じて、同一の動作の繰り返しを行うか否か決定しても良い。例えば、検出部103において検出された上記差異が一定以上の場合でも、バイタルサイン測定器50の測定結果によって利用者10が一定以上疲労していることが推測される場合には、同一の動作の繰り返しを避けてステップST240に進んでも良い。
以上説明したように、本実施形態に係る動作教示装置によれば、利用者10のバイタルサインの測定結果に応じて、練習する動作の内容やアドバイスの内容を適応的に変化させることができる。そのため、特に病気を患っている高齢者など、利用者の体調に不安がある場合でも、無理な負荷を避けて適度な運動を行うことが可能になる。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
第3の実施形態に係る動作教示装置では、利用者の身体能力に応じて、提示する動作やアドバイスの内容が変更される。
図6は、本発明の第3の実施形態に係る動作教示装置の構成の一例を示す図である。
図6に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、制御部100Bとを有する。制御部100Bは、ロボット制御部101Bと、動作認識処理部102と、検出部103と、音声出力部104Bと、評価部106とを有する。
図1と図6の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
評価部106は、検出部103の検出結果に応じて利用者10の身体能力を評価する。例えば、検出部103において検出される動作の差異に、動作ごとの難易度に応じた重みを付けて平均化し、その平均値に応じて利用者10の身体能力をランク付けする。
また、ロボット制御部101Bによって同一の動作の提示が繰り返される数をカウントし、この数が少ないほど身体能力の評価が高くなるように上記のランクを調節しても良い。
ロボット制御部101Bは、提示可能な複数の動作の中から評価部106の評価結果に応じて選択した動作をロボット20に実演させる。例えば、評価部106の評価が高くなった場合、現在の動作パターンや別の動作パターンの中からより難易度の高い動作を選択してロボット20に実演させる。
その他の動作についてはロボット制御部101と同じである。
音声出力部104Bは、検出部103が検出した差異を補正するための複数のアドバイス用音声のうち、評価部106の評価結果に応じて選択した音声をスピーカ40から出力する。例えば、評価部106の評価が高くなるほど、検出部103において検出される差異がより小さくなるように(すなわち、より正確な動作を要求するように)アドバイスの音声を選択する。
その他の動作については音声出力部104と同じである。
ここで、上述した構成を有する図6に示す動作教示装置の動作について、図7に示すフローチャートを参照して説明する。
ステップST300:
ロボット制御部101Bは、入力部110に入力される利用者10の指示に従って、複数の動作パターンの中から実演を行う動作パターンを選択する。
ステップST305(第1の工程):
ロボット制御部101Bは、ステップST300で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
ステップST310(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
ステップST315(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Bがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
ステップST320:
評価部106が、検出部103の検出結果に応じて利用者10の身体能力を評価する。
ステップST325,ST330,ST335:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Bは、ステップST305に戻って、再度同じ模範動作をロボット20に実演させる。
そしてこの実演を行う際、音声出力部104Bは、検出部103の検出結果に加えて評価部106の評価結果を考慮したアドバイス用音声をスピーカ40から出力する(ステップST330、第4の工程)。
例えば、評価部106の評価が高くなるほど、より正確な動作を要求するようにアドバイスの音声を選択する。
他方、検出部103において検出された上記差異が一定以上でない場合、ロボット制御部101Bは、評価部106の評価結果を考慮して次の動作を選択し(ST335)、この模範動作をステップST305以降の処理でロボット20に実演させる。
例えば、評価部106の評価結果が前回の動作時の評価と変わらない場合、ロボット制御部101Bは、現在の動作パターンにおける次の動作を通常通り選択する。これに対し、評価部106の評価結果が前回の動作時よりも高くなった場合、ロボット制御部101Bは、現在の動作パターン若しくは別の動作パターンに含まれる、より難易度の高い動作を選択する。
なお、ロボット制御部101Bは、評価部106の評価結果に応じて、同一の動作の繰り返しを行うか否か決定しても良い。例えば、検出部103において一定以上の上記差異が検出されていない場合でも、評価部106の評価結果から利用者10の身体能力がある程度高いと推測される場合には同一の動作を繰り返すようにして、より模範的な動作を利用者10に要求しても良い。
以上説明したように、本実施形態に係る動作教示装置によれば、利用者10の身体能力の評価結果に応じて、練習する動作の内容やアドバイスの内容を適応的に変化させることができる。これにより、利用者10の身体能力に応じた適切な動作を選択することができるため、動作の学習の効果(健康の増進や技能向上)を更に高めることができる。
<第4の実施形態>
次に、本発明の第4の実施形態について説明する。
第4の実施形態に係る動作教示装置では、利用者の音声によって動作の提示の開始や終了などが制御可能になる。
図8は、本発明の第4の実施形態に係る動作教示装置の構成の一例を示す図である。
図8に示す動作教示装置は、ロボット20と、カメラ31,32と、スピーカ40と、マイクロフォン60と、制御部100Cとを有する。制御部100Cは、ロボット制御部101Cと、動作認識処理部102と、検出部103と、音声出力部104と、音声認識処理部107とを有する。
図1と図8の同一符号は同一の構成要素を示すため、以下では図1に示す動作教示装置と異なる構成要素についてのみ説明する。
マイクロフォン60は、利用者10が発する音声を入力して音声信号に変換する。
音声認識処理部107は、マイクロフォン60から出力される音声信号に基づいて、利用者10の音声を文字や単語として認識する処理を行う。
ロボット制御部101Cは、音声認識処理部107において認識された利用者10の音声に応じて、ロボット20による動作の提示の開始や終了を行う。また、利用者10に提示可能な複数の動作パターンの中から実際に提示する動作パターンを、上記認識された音声に応じて選択する。
例えば、音声認識処理部107が「開始!」という利用者10の音声を認識したとき、ロボット制御部101Cはロボット20による動作の実演を開始し、実演の途中で「終了!」という利用者10の音声が認識されたとき、ロボット20の実演を終了する。
また、「1」「2」「3」という名称が与えられた3つの動作パターンの提示が可能な場合において、音声認識処理部107が「1を開始!」という利用者10の音声を認識したとき、ロボット制御部101Cは「1」の動作パターンの提示を選択して、その動作の提示を開始する。
ロボット制御部101Cのその他の動作についてはロボット制御部101と同じである。
ここで、上述した構成を有する図8に示す動作教示装置の動作について、図9に示すフローチャートを参照して説明する。
ステップST400:
ロボット制御部101Cは、音声認識処理部107において動作の開始を要求する利用者10の音声が認識されるまで、ロボット20の実演開始を保留する。
ステップST405:
例えば「1を開始!」という音声を音声認識処理部107が認識すると、ロボット制御部101Cは、この音声に従って「1」という名称が与えられた動作パターンを選択する。
ステップST410(第1の工程):
ロボット制御部101Cは、ステップST405で選択した動作パターンにおける最初の模範動作をロボット20に実演させる。
ステップST415(第2の工程):
動作認識処理部102は、ロボット20の実演に合わせて利用者10が動作を行う所定の期間において、利用者10の所定の身体部位の3次元位置情報を取得する。
ステップST420(第3の工程):
検出部103は、動作認識処理部102が取得した3次元位置情報に基づいて、ロボット制御部101Cがロボット20に実演させた模範動作と利用者10の動作との差異を検出する。
ステップST425:
ロボット20の実演中又はその後において動作の終了を要求する利用者10の音声(例えば「終了!」)を音声認識処理部107が認識した場合、ロボット制御部101Cはロボット20の実演を終了する。そのような音声を音声認識処理部が認識しなかった場合は、ステップST430に移る。
ステップST430,ST435,ST440:
検出部103において、ロボット20の模範動作と利用者10の動作との間に一定以上の差異が検出された場合、ロボット制御部101Cは、ステップST410に戻って、再度同じ模範動作をロボット20に実演させる。そしてこの実演を行うとき、音声出力部104は、検出部103の検出結果に応じたアドバイス用音声データを記憶装置113から読み出してスピーカ40から出力する(ステップST435、第4の工程)。
他方、検出部103において検出された上記差異が一定以上になっていない場合、ロボット制御部101は、現在の動作パターンにおける次の動作を選択し(ST440)、この模範動作をステップST410以降の処理でロボット20に実演させる。
以上説明したように、本実施形態に係る動作教示装置によれば、ロボット20による模範動作の実演の開始や終了、動作パターンの選択を、利用者の音声によって容易に行うことができる。これにより、面倒な操作を覚えることなく非常に簡単に装置を利用することができる。また、高齢者や体の不自由な人でも一人で気軽にリハビリテーションの運動を学習することが可能になるため、装置の稼動率が向上し、利用者の健康増進を図ることができる。
以上、本発明の幾つかの実施形態について説明したが、本発明は上記の形態に限定されるものではなく、種々の改変が可能である。
例えば、上述した実施形態では、ロボットによって模範動作を提示する例が挙げられているが、本発明はこれに限定されない。例えば、コンピュータグラフィックス等の映像技術によって人物や生き物、アニメーションキャラクタなどを表示装置に映し出すことにより、2次元や3次元の映像で模範動作を提示しても良い。
また、目の不自由な人を対象とする場合などにおいては、音声によって動作を教示しても良い。
更には、これらの幾つかの提示手段を組み合わせて利用者に動作を提示しても良い。
このように、本発明によれば、動作提示部に様々な装置を適用することができるため、利用者のニーズに合わせてハードウェア構成をフレキシブルに選択することができる。
上述した実施形態では、カメラで撮影した映像によって利用者の動作を認識しているが、本発明はこれに限定されない。例えば利用者に装着した加速度センサや傾斜センサ、方位センサ、光学センサなどとカメラを併用して使用者の動作を認識しても良いし、これらのセンサのみで使用者の動作を認識しても良い。
上述した実施形態では、音声によって利用者にアドバイスを提供する例が示されているが、本発明はこれに限定されない。例えばテレビモニターなどをで映像によりアドバイスを提供しても良いし、光(ランプの点滅など)や、機械的振動や、電気的刺激などによってアドバイスを提供しても良い。
動作の提示とアドバイスの提供には、同一のハードウェアを使用しても良い。
例えば、動作の提示とアドバイスの提供を映像で行う場合には、両者の映像を同一のテレビモニターに表示させても良い。動作の提示とアドバイスの提供を音声で行う場合には、両者の音声を同一のスピーカから出力しても良い。
本実施形態の各構成要素は、有線通信はもちろんのこと、無線通信によっても接続可能である。例えば、バイタルサイン測定器は、無線通信によって制御部に測定結果を伝送しても良い。これにより、利用者は余計な配線に邪魔されることなく動作の学習に専念することができる。
また、本発明の各構成要素は、インターネットなどのネットワーク経由で接続することも可能である。例えば図1の例において、制御部100を構成するコンピュータ機器と、ロボット20、カメラ31,32、スピーカ40などの機器をネットワーク経由で接続することも可能である。これにより、コンピュータ機器を配置できない場所でも本装置を利用することが可能になる。
第1の実施形態に係る動作教示装置の構成の一例を示す図である。 制御部の構成の一例を示す図である。 図1に示す動作教示装置の動作を説明するためのフローチャートである。 第2の実施形態に係る動作教示装置の構成の一例を示す図である。 図4に示す動作教示装置の動作を説明するためのフローチャートである。 第3の実施形態に係る動作教示装置の構成の一例を示す図である。 図6に示す動作教示装置の動作を説明するためのフローチャートである。 第3の実施形態に係る動作教示装置の構成の一例を示す図である。 図8に示す動作教示装置の動作を説明するためのフローチャートである。
符号の説明
10…利用者、20…ロボット、31,32…カメラ、40…スピーカ、50…バイタルサイン測定器、60…マイクロフォン、100,100A,100B,100C…制御部、101,101A,101B,101C…ロボット制御部、102…動作認識処理部、103…検出部、104,104A,104B…音声出力部、105…測定処理部、106…評価部、107…音声認識処理部

Claims (11)

  1. 利用者に模範的な動作を提示する動作提示部と、
    上記動作提示部が提示した動作に対応する上記利用者の動作を認識する動作認識部と、
    上記動作提示部が提示した動作と上記動作認識部が認識した動作との差異を検出する検出部と、
    上記検出部が検出した差異を補正するためのアドバイスに関する情報を提供する情報提供部と
    を有する動作教示装置。
  2. 上記動作提示部は、上記検出部の検出結果に応じて、同一の動作を繰り返し提示する、
    請求項1に記載の動作教示装置。
  3. 上記利用者のバイタルサインを測定するバイタルサイン測定部を有し、
    上記動作提示部は、提示可能な複数の動作の中から、上記バイタルサイン測定部の測定結果に応じた動作を選択して提示する、
    請求項1又は2に記載の動作教示装置。
  4. 上記利用者のバイタルサインを測定するバイタルサイン測定部を有し、
    上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記バイタルサイン測定部の測定結果に応じた情報を選択して提供する、
    請求項1又は2に記載の動作教示装置。
  5. 上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有し、
    上記動作提示部は、提示可能な複数の動作の中から、上記評価部の評価結果に応じた動作を選択して提示する、
    請求項1又は2に記載の動作教示装置。
  6. 上記検出部の検出結果に応じて、上記利用者の身体能力を評価する評価部を有し、
    上記情報提供部は、上記検出部が検出した差異を補正するためのアドバイスに関する複数の情報のうち、上記評価部の評価結果に応じた情報を選択して提供する、
    請求項1又は2に記載の動作教示装置。
  7. 上記利用者の音声を認識する音声認識部を有し、
    上記動作提示部は、上記音声認識部により認識された上記利用者の音声に応じて、
    動作の提示の開始、
    動作の提示の終了、及び、
    提示可能な複数の動作の中からの上記利用者に提示する動作の選択
    の少なくとも1つを行う、
    請求項1又は2に記載の動作教示装置。
  8. 上記動作提示部は、
    模範的な動作を実演するロボット、
    模範的な動作の映像を表示する映像表示部、及び、
    模範的な動作を教示する音声を出力する音声出力部
    の少なくとも1つを含む、
    請求項1乃至7の何れか一に記載の動作教示装置。
  9. 上記動作認識部は、
    少なくとも2つの位置から上記利用者を撮影する撮影部と、
    上記撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する位置情報取得部と
    を含む、
    請求項1乃至7の何れか一に記載の動作教示装置。
  10. 上記情報提供部は、映像、音、光、振動、電気刺激の少なくとも1つを利用して上記アドバイスに関する情報を提供する、
    請求項1乃至7の何れか一に記載の動作教示装置。
  11. ロボット、映像表示部、及び、音声出力部の少なくとも1つが、利用者に模範的な動作を提示する第1の工程と、
    上記第1の工程において提示した動作に対応する上記利用者の動作を、少なくとも2つの位置から撮影部によって撮影し、当該撮影部が撮影した上記利用者の動作に基づいて、上記利用者の所定の身体部位の3次元位置情報を取得する第2の工程と、
    上記第2の工程において取得した3次元位置情報に基づいて、上記第1の工程において提示した動作と上記撮影部が撮影した上記利用者の動作との差異を検出する第3の工程と、
    上記第3の工程において検出された差異を補正するためのアドバイスに関する情報を提供する第4の工程と
    を有する動作教示方法。
JP2005144626A 2005-05-17 2005-05-17 動作教示装置とその方法 Pending JP2006320424A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005144626A JP2006320424A (ja) 2005-05-17 2005-05-17 動作教示装置とその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005144626A JP2006320424A (ja) 2005-05-17 2005-05-17 動作教示装置とその方法

Publications (1)

Publication Number Publication Date
JP2006320424A true JP2006320424A (ja) 2006-11-30

Family

ID=37540529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005144626A Pending JP2006320424A (ja) 2005-05-17 2005-05-17 動作教示装置とその方法

Country Status (1)

Country Link
JP (1) JP2006320424A (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008168133A (ja) * 2007-01-12 2008-07-24 Internatl Business Mach Corp <Ibm> ユーザの身体運動の範囲を追跡するための方法、システム、およびプログラム
JP2009247836A (ja) * 2008-04-11 2009-10-29 Konami Sports & Life Co Ltd 運動管理装置、運動管理方法、運動管理プログラム、及び運動管理システム
JP2010036025A (ja) * 2008-07-11 2010-02-18 Tokyo Univ Of Science 不確実性下における人間の行動を判別する方法及びその装置
WO2013055024A1 (ko) * 2011-10-12 2013-04-18 한국과학기술연구원 로봇을 이용한 인지 능력 훈련 장치 및 그 방법
WO2013059828A1 (en) * 2011-10-20 2013-04-25 Jay Shiro Tashiro System and method for assessing an individual's physical and psychosocial abilities
JP2013090758A (ja) * 2011-10-25 2013-05-16 Vstone Kk 運動促進ロボット
US8789440B2 (en) 2011-09-14 2014-07-29 Korea Institute Of Science And Technology Manipulator with weight compensation mechanism and face robot using the same
KR101447563B1 (ko) * 2013-04-05 2014-10-08 한국과학기술연구원 물리객체 기반의 인지능력 평가 시스템 및 방법
WO2015037089A1 (ja) * 2013-09-11 2015-03-19 日立コンシューマエレクトロニクス株式会社 脳機能障害評価方法、脳機能障害評価装置およびそのプログラム
US9223936B2 (en) 2010-11-24 2015-12-29 Nike, Inc. Fatigue indices and uses thereof
US9283429B2 (en) 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
US9358426B2 (en) 2010-11-05 2016-06-07 Nike, Inc. Method and system for automated personal training
US9457256B2 (en) 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
JPWO2016002885A1 (ja) * 2014-07-03 2017-04-27 帝人ファーマ株式会社 リハビリテーション支援装置及びリハビリテーション支援装置の制御プログラム
US9811639B2 (en) 2011-11-07 2017-11-07 Nike, Inc. User interface and fitness meters for remote joint workout session
US9852271B2 (en) 2010-12-13 2017-12-26 Nike, Inc. Processing data of a user performing an athletic activity to estimate energy expenditure
US9977874B2 (en) 2011-11-07 2018-05-22 Nike, Inc. User interface for remote joint workout session
US10188930B2 (en) 2012-06-04 2019-01-29 Nike, Inc. Combinatory score having a fitness sub-score and an athleticism sub-score
KR20190011759A (ko) * 2016-06-03 2019-02-07 웨스트 & 베르그 아이티 컨설팅 아베 움직임 훈련 보조물
US10420982B2 (en) 2010-12-13 2019-09-24 Nike, Inc. Fitness training system with energy expenditure calculation that uses a form factor
WO2022070297A1 (ja) * 2020-09-30 2022-04-07 日本電気株式会社 リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及び記録媒体
KR20220055225A (ko) * 2020-10-26 2022-05-03 재단법인차세대융합기술연구원 3차원 모델링을 통한 홈 트레이닝 모니터링 방법 및 이를 실행하는 서버
KR102630799B1 (ko) * 2023-07-26 2024-01-29 주식회사 에이아이태권도 인공지능을 이용한 음성 인식 기반 태권도 동작 평가방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728580U (ja) * 1993-11-12 1995-05-30 ベースゴルフ株式会社 ゴルフ練習教示用具
JPH08266698A (ja) * 1995-03-31 1996-10-15 Nippon Koden Corp 運動能力評価装置および運動実践支援装置
JPH0956697A (ja) * 1995-08-21 1997-03-04 Matsushita Electric Ind Co Ltd リハビリテーション支援装置
JP2000037490A (ja) * 1998-07-24 2000-02-08 Konami Co Ltd ダンスゲーム装置
JP2005111178A (ja) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd 動作トレーニング表示システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728580U (ja) * 1993-11-12 1995-05-30 ベースゴルフ株式会社 ゴルフ練習教示用具
JPH08266698A (ja) * 1995-03-31 1996-10-15 Nippon Koden Corp 運動能力評価装置および運動実践支援装置
JPH0956697A (ja) * 1995-08-21 1997-03-04 Matsushita Electric Ind Co Ltd リハビリテーション支援装置
JP2000037490A (ja) * 1998-07-24 2000-02-08 Konami Co Ltd ダンスゲーム装置
JP2005111178A (ja) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd 動作トレーニング表示システム

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008168133A (ja) * 2007-01-12 2008-07-24 Internatl Business Mach Corp <Ibm> ユーザの身体運動の範囲を追跡するための方法、システム、およびプログラム
JP2009247836A (ja) * 2008-04-11 2009-10-29 Konami Sports & Life Co Ltd 運動管理装置、運動管理方法、運動管理プログラム、及び運動管理システム
JP2010036025A (ja) * 2008-07-11 2010-02-18 Tokyo Univ Of Science 不確実性下における人間の行動を判別する方法及びその装置
US10583328B2 (en) 2010-11-05 2020-03-10 Nike, Inc. Method and system for automated personal training
US11094410B2 (en) 2010-11-05 2021-08-17 Nike, Inc. Method and system for automated personal training
US11915814B2 (en) 2010-11-05 2024-02-27 Nike, Inc. Method and system for automated personal training
US11710549B2 (en) 2010-11-05 2023-07-25 Nike, Inc. User interface for remote joint workout session
US9919186B2 (en) 2010-11-05 2018-03-20 Nike, Inc. Method and system for automated personal training
US9283429B2 (en) 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
US9358426B2 (en) 2010-11-05 2016-06-07 Nike, Inc. Method and system for automated personal training
US9457256B2 (en) 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
US9223936B2 (en) 2010-11-24 2015-12-29 Nike, Inc. Fatigue indices and uses thereof
US9852271B2 (en) 2010-12-13 2017-12-26 Nike, Inc. Processing data of a user performing an athletic activity to estimate energy expenditure
US10420982B2 (en) 2010-12-13 2019-09-24 Nike, Inc. Fitness training system with energy expenditure calculation that uses a form factor
US8789440B2 (en) 2011-09-14 2014-07-29 Korea Institute Of Science And Technology Manipulator with weight compensation mechanism and face robot using the same
EP2767967A4 (en) * 2011-10-12 2015-08-12 Korea Inst Sci & Tech APPARATUS FOR ENABLING RECONNAISSANCE CAPACITY USING A ROBOT AND ASSOCIATED METHOD
KR101317383B1 (ko) * 2011-10-12 2013-10-11 한국과학기술연구원 로봇을 이용한 인지 능력 훈련 장치 및 그 방법
WO2013055024A1 (ko) * 2011-10-12 2013-04-18 한국과학기술연구원 로봇을 이용한 인지 능력 훈련 장치 및 그 방법
WO2013059828A1 (en) * 2011-10-20 2013-04-25 Jay Shiro Tashiro System and method for assessing an individual's physical and psychosocial abilities
JP2013090758A (ja) * 2011-10-25 2013-05-16 Vstone Kk 運動促進ロボット
US9977874B2 (en) 2011-11-07 2018-05-22 Nike, Inc. User interface for remote joint workout session
US9811639B2 (en) 2011-11-07 2017-11-07 Nike, Inc. User interface and fitness meters for remote joint workout session
US10825561B2 (en) 2011-11-07 2020-11-03 Nike, Inc. User interface for remote joint workout session
US10188930B2 (en) 2012-06-04 2019-01-29 Nike, Inc. Combinatory score having a fitness sub-score and an athleticism sub-score
KR101447563B1 (ko) * 2013-04-05 2014-10-08 한국과학기술연구원 물리객체 기반의 인지능력 평가 시스템 및 방법
WO2015037089A1 (ja) * 2013-09-11 2015-03-19 日立コンシューマエレクトロニクス株式会社 脳機能障害評価方法、脳機能障害評価装置およびそのプログラム
US10478114B2 (en) 2013-09-11 2019-11-19 Maxell, Ltd. Brain dysfunction assessment method, brain dysfunction assessment device, and program thereof
JPWO2015037089A1 (ja) * 2013-09-11 2017-03-02 日立マクセル株式会社 脳機能障害評価方法、脳機能障害評価装置およびそのプログラム
US10417931B2 (en) 2014-07-03 2019-09-17 Teijin Pharma Limited Rehabilitation assistance device and program for controlling rehabilitation assistance device
JPWO2016002885A1 (ja) * 2014-07-03 2017-04-27 帝人ファーマ株式会社 リハビリテーション支援装置及びリハビリテーション支援装置の制御プログラム
KR102424637B1 (ko) 2016-06-03 2022-07-25 웨스트 & 베르그 홀딩 아베 움직임 훈련 보조물
US11348478B2 (en) 2016-06-03 2022-05-31 West & Bergh Holding Ab Motion training aid
KR20220103818A (ko) * 2016-06-03 2022-07-22 웨스트 & 베르그 홀딩 아베 움직임 훈련 보조물
JP2021166760A (ja) * 2016-06-03 2021-10-21 ウエスト アンド ベルグ ホールディング アーベー 運動訓練補助具
JP7232874B2 (ja) 2016-06-03 2023-03-03 ウエスト アンド ベルグ ホールディング アーベー 運動訓練補助具
JP2019517338A (ja) * 2016-06-03 2019-06-24 ウエスト アンド ベルグ ホールディング アーベー 運動訓練補助具
KR102605331B1 (ko) 2016-06-03 2023-11-22 웨스트 & 베르그 홀딩 아베 움직임 훈련 보조물
KR20190011759A (ko) * 2016-06-03 2019-02-07 웨스트 & 베르그 아이티 컨설팅 아베 움직임 훈련 보조물
WO2022070297A1 (ja) * 2020-09-30 2022-04-07 日本電気株式会社 リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及び記録媒体
KR20220055225A (ko) * 2020-10-26 2022-05-03 재단법인차세대융합기술연구원 3차원 모델링을 통한 홈 트레이닝 모니터링 방법 및 이를 실행하는 서버
KR102423421B1 (ko) * 2020-10-26 2022-07-21 재단법인 차세대융합기술연구원 3차원 모델링을 통한 홈 트레이닝 모니터링 방법 및 이를 실행하는 서버
KR102630799B1 (ko) * 2023-07-26 2024-01-29 주식회사 에이아이태권도 인공지능을 이용한 음성 인식 기반 태권도 동작 평가방법 및 장치

Similar Documents

Publication Publication Date Title
JP2006320424A (ja) 動作教示装置とその方法
US8758020B2 (en) Periodic evaluation and telerehabilitation systems and methods
JP4594157B2 (ja) 運動支援システムとその利用者端末装置及び運動支援プログラム
JP2011110215A (ja) リハビリテーション用システム、プログラム、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
EP2203896B1 (en) Method and system for selecting the viewing configuration of a rendered figure
US20070190506A1 (en) Online interactive multimedia system and the transmission method thereof
JPH09120464A (ja) リハビリテーション支援装置
US20220028296A1 (en) Information processing apparatus, information processing method, and computer program
JP2013066696A (ja) 画像処理システム及び画像処理方法
Li et al. Development of exergame-based virtual trainer for physical therapy using kinect
US11682157B2 (en) Motion-based online interactive platform
JP2011152333A (ja) 身体技能習得支援装置および身体技能習得支援方法
KR20170140705A (ko) 연상카드 맞추기 게임을 이용한 인지능력 재활훈련 시스템 및 그 방법
EP2482935B1 (en) System for supporting a user to do exercises
US20210322824A1 (en) Systems and methods for gestural detection and control in immersive and interactive flume swimming pools
JP2009095404A (ja) 動画表示システム、動画表示方法、およびコンピュータプログラム
JP2019024579A (ja) リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
Fitzgerald et al. Usability evaluation of e-motion: a virtual rehabilitation system designed to demonstrate, instruct and monitor a therapeutic exercise programme
KR101053467B1 (ko) 시뮬레이션 모션 데이터를 이용한 스마트 모션 슈트의 움직임 제어 시스템 및 방법
KR20210066046A (ko) IoT 센서를 이용한 운동 지원 장치
JP2019024580A (ja) リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
KR20090058803A (ko) 비디오운동 강습방법
WO2023026529A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
WO2023176567A1 (ja) 運動支援システム
US20240135617A1 (en) Online interactive platform with motion detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080516

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110201