JP2017217268A - リハビリテーション支援制御装置及びコンピュータプログラム - Google Patents
リハビリテーション支援制御装置及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2017217268A JP2017217268A JP2016114823A JP2016114823A JP2017217268A JP 2017217268 A JP2017217268 A JP 2017217268A JP 2016114823 A JP2016114823 A JP 2016114823A JP 2016114823 A JP2016114823 A JP 2016114823A JP 2017217268 A JP2017217268 A JP 2017217268A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- target
- rehabilitation
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004590 computer program Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 174
- 238000011156 evaluation Methods 0.000 claims description 60
- 230000009471 action Effects 0.000 abstract description 17
- 210000002683 foot Anatomy 0.000 description 126
- 238000003860 storage Methods 0.000 description 51
- 238000000034 method Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 19
- 239000003550 marker Substances 0.000 description 16
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 10
- 210000003423 ankle Anatomy 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
- A61H1/02—Stretching or bending or torsioning apparatus for exercising
Landscapes
- Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Rehabilitation Tools (AREA)
Abstract
Description
センサ100は、例えば、画像センサ、赤外線センサ、レーザセンサ、サーモセンサなど、対象者EPにマーカを装着することなく対象者EPの動きが検出できるセンサである。本実施形態では、このようなセンサの例として、センサ100に、距離センサと画像センサを組み込んだKinect(登録商標)を用いた場合を例に説明を行う。
センサ100は、例えば、画像センサ(不図示)を備える。前記画像センサは、(1)自らの正面方向をリアルタイムに撮像し、連続した複数枚の2次元画像(フレーム画像)を取得する動画カメラとしての機能と、(2)センサ100から、前記2次元画像(フレーム画像)内の各位置に対応する実際の位置までの距離の情報(距離情報を表示した画像)を取得する距離センサ(デプスセンサ)としての機能と、を有している。前記距離センサが有する機能により、対象者EPを撮像した画像と、当該画像に撮像された対象者EPの体の各部位の3次元空間における座標情報である距離画像情報とを取得する。センサ100が検出する3次元空間とは、図1に示すXYZ直交座標系によって示される空間である。
対象者EPの体の各部位とは、対象者EPの動作を認識するために検出することが求められる体の部位である。具体的には、対象者EPの体の各部位とは、例えば、対象者EPの頭、肩、腕、手、腰、足及び各関節部等の位置である。
センサ100は、検出した結果を示す情報(以下「検出結果情報」という。)をリハビリテーション支援制御装置300に出力する。検出結果情報とは、例えば、対象者EPの体の一部の位置情報である。
なお、センサ100は、対象者EPにマーカを装着し、そのマーカの検出により対象者EPを検出するセンサであっても構わない。
入力部31は、外部からの情報を入力するインタフェースである。例えば、入力部31は、センサ100から検出結果を示す情報(検出結果情報)を取得する。
出力部32は、制御部34によって生成された画像を出力装置200に対して出力するインタフェースである。
より具体的には、例えば出力装置200がキャリブレーション用のマーカ画像を、画像面(画像の出力領域900)の四隅など、複数箇所に投影する。リハビリテーション支援制御装置300は、出力装置200の座標系における座標を既知である。
モニタ画面に表示されている画像は、センサ100が撮像した画像なので、操作者が指定した位置をセンサ100の座標系における座標で取得し得る。リハビリテーション支援制御装置300(制御部34)は、この座標と、出力装置200の座標系における出力領域900の四隅の座標とに基づいて、キャリブレーション情報を取得する。なお、高さ方向の座標として、フロアの座標を用いる。
あるいは、理学療法士等が、例えばコーンなど物理的なマーカを画像面の四隅位置に置くようにしてもよい。この場合、センサ100は、置かれたマーカを検出し、各マーカの座標を出力する。
検出履歴情報記憶部333は、認識部341が認識した対象者EPの体の一部に関する位置情報(検出結果情報)の履歴を記憶する。例えば、歩行のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの足の位置の検出結果情報の履歴を記憶する。また、手の移動のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの手の位置の検出結果情報の履歴を記憶する。
プログラム情報記憶部335は、リハビリテーション支援プログラムを記憶する。
例えば、歩行のリハビリテーションの場合、表示制御部342が出力装置200を制御して、上記のように対象者EPの足の位置の履歴画像、及び、対象者EPが足を動かす目標位置を示す目標画像うちのいずれか一方又は両方を表示させるようにしてもよい。また、手の移動のリハビリテーションの場合、表示制御部342が出力装置200を制御して、上記のように対象者EPの手の位置の履歴画像、及び、対象者EPが手を動かす目標位置を示す目標画像のうちいずれか一方又は両方を表示させるようにしてもよい。
対象者EPの体の一部の位置に応じた位置は、対象者EPの体の一部の実際の位置であってもよいし、実際の位置に応じて定められた目標位置であってもよい。対象者EPの体の一部の実際の位置は、対象者EPの体の一部の現在の位置であってもよいし、過去の位置(履歴の位置)であってもよい。
表示制御部342が、認識部341が認識した対象者EPの体の一部の実際の形状を出力装置200に表示させるようにしてもよい。あるいは、記憶部33が体の一部の形状を示す画像を予め記憶しておき、表示制御部342が、当該画像を記憶部33から読み出して出力装置200に表示させるようにしてもよい。
記録部344は、検出結果情報を検出履歴情報記憶部333に書き込んで記録する。
認識部341が対象者EPの足の位置の動きを認識する場合、目標決定部345が、対象者EPの足が動いた間隔を歩幅として検出するようにしてもよい。あるいは、認識部341が、対象者EPが床面に足をついた位置を認識する場合、目標決定部345が、対象者EPが床面に足をついた位置から次に足をついた位置までの間隔を歩幅として検出するようにしてもよい。
さらに、例えば歩行のリハビリテーションの場合、目標決定部345が、移動目標位置を面積のある範囲にて床面上に決定し、認識部341が、対象者EPの足の位置を、対象者EPの足の形状の範囲にて認識するようにしてもよい。そして、評価部346が、移動目標位置として決定されている範囲と、対象者EPの足の位置として検出された範囲との重なりの有無を判定するようにしてもよい。
手用表示パラメータ設定部348は、手を動かすリハビリテーションにおいて、手用表示パラメータを設定する。手用表示パラメータは、対象者EPが手を動かすときの目標画像の表示に用いられるパラメータである。
外乱用表示パラメータ設定部349は、外乱用表示パラメータを設定する。外乱用表示パラメータは、リハビリテーションの対象者EPが足または手を所定の目標画像まで移動させるときに、対象者EPが足または手を目標画像まで移動させる妨げとなる外乱の表示に用いられるパラメータである。または、外乱用表示パラメータは、リハビリテーションの対象者EPが足または手を回避目標となる目標画像から回避させるときに、対象者EPが足または手を目標画像から回避させる妨げとなる外乱の表示に用いられるパラメータである。
図3は、対象者EPがテーブルT(第一動作領域)上で手の移動のリハビリテーションを行っている様子を示している。出力装置200は、テーブルTに目標画像M1を投影している。対象者EPは、出力装置200が出力領域900に出力する目標画像M1に基づいて、手の移動に関するリハビリテーションを行う。
センサ100は、対象者EPが検出範囲800内において手を移動する際の対象者EPの体の一部の位置を検出し、検出結果情報を所定の時間毎にリハビリテーション支援制御装置300に出力する。
センサ100は、対象者EPの手の移動が行われる領域を検出し、リハビリテーション支援制御装置300の入力部31が、その検出結果情報を取得する。認識部341は、入力部31が取得した検出結果情報に基づいて、検出結果情報が示す対象物を認識する。動作領域判定部343は、認識部341による認識結果に基づいて、対象者EPがリハビリテーションを行う動作領域を判定する。
また、上記の例のうち、Kinect(登録商標)が提供する関節の位置情報による判定を、Kinect(登録商標)の距離センサによる検出結果情報に基づいて行ってもよい。
また、本実施形態において、出力装置200によるテーブルTへの目標画像の出力は必須ではない。例えば、対象者EPは、作業療法士による手の移動を誘導する音声に合わせて、テーブルT上で手の移動のリハビリテーションを行ってもよい。
図5は、対象者EPがフロアFL(第二動作領域)上で歩行動作のリハビリテーションを行っている様子を示している。出力装置200は、フロアFLに目標画像M2〜M5を投影している。対象者EPは、出力装置200が出力領域900に出力する目標画像M2〜M5に基づいて、歩行動作のリハビリテーションを行う。例えば、対象者EPは、目標画像M2〜M5に示されるスタート位置から目標位置まで歩行するリハビリテーションを行う。センサ100は、対象者EPが検出範囲800内において対象者EPの足の位置を検出し、検出結果情報を所定の時間毎にリハビリテーション支援制御装置300に出力する。
図6は、リハビリテーション支援システム1における画像の表示の、もう1つの例を示す図である。図6では、リハビリテーション支援システム1を用いて歩行のリハビリテーションを行う場合の画像の例を示している。図6の例では、出力装置の画像の投影によって、床上の投影面(出力領域900)に画像が表示されている。具体的には、目標位置の履歴を示す目標画像M211〜M214と、対象者EPの足の位置の履歴画像M221〜M223と、対象者EPの現在の足の位置を示す画像M231と、次の目標位置を示す目標画像M241とが、それぞれ足の形の画像で示されている。
なお、図4を参照して説明したのと同様、出力装置200が表示する画像は、足の形の画像に限らない。例えば、出力装置200が、右足の目標位置を赤丸で表示し、左足の目標位置を青丸で表示するなど、足の形の画像に代えて丸印を表示するようにしてもよい。また上記の実施形態とは逆に、左右の足の目標画像を片方ずつ表示するのではなく、常に先行して左右の足の目標画像を共に表示するようにしてもよい。また現在の足の位置画像と過去の足の位置の履歴画像で異なる表示とすることも可能である。例えば現在の足の位置画像は円、方形などの図形で表示し、過去の左右の足の履歴画像は「足あと」の図形で表示してもよい。
また、本実施形態において、出力装置200によるフロアFLへの目標画像の出力は必須ではない。例えば、対象者EPは、例えば、理学療法士による歩行動作の指示に合わせて、フロアFL上で歩行動作を行ってもよい。
図7は、リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。
まず、理学療法士又は作業療法士がこれから行おうとするリハビリテーション内容に応じて、対象者EPがリハビリテーションを行う環境にリハビリテーション支援システム1を移動させる。また、脚部310の高さを適切に調節する。次に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取る。例えば、テーブル上での腕のリハビリテーションを行う場合であれば、対象者EPは椅子に座ってテーブル上に手を置く姿勢を取る。また、例えば、歩行動作のリハビリテーションを行う場合、対象者EPは起立した姿勢を取る。対象者EPがこれらの姿勢を取ると、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力する。操作部35は、その準備開始指示情報を取得する(ステップS10)。なお、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力した後に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取っても良い。
外乱用表示パラメータは、例えば、図12で示したように、リハビリテーション支援制御装置300が、対象者EPが横断歩道を歩行するときに、リハビリテーションの対象者EPが足を所定の目標画像まで移動させる妨げとなる自動車の形状をした外乱を画像として映し出すために用いられるパラメータである。
目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションとは、例えば、図8に示すように、リハビリテーション支援制御装置300が、対象者EPが手を動かすときの手の移動目標となるリンゴの形状をした目標画像を映し出し、対象者EPが目標画像の位置に手を移動させるリハビリテーションである。
例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、作業療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。外乱用表示パラメータ設定部349は、目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300に入力された情報に応じて、外乱用表示パラメータを設定する。
手の外乱用表示パラメータは、例えば、図9に示すように、リハビリテーション支援制御装置300が、対象者EPが選択したキャラクターである目標画像の位置に手を動かすときに、手の移動の妨げとなる選択してはいけないキャラクターである外乱を画像として映し出すために用いられるパラメータである。
図13は、リハビリテーション支援制御装置300による対象者EPの認識処理の一例を示すフローチャートである。
リハビリテーションを行う対象者EPが検出範囲800に入ってリハビリテーションを開始する。また、理学療法士等は、対象者EPの氏名、性別、身長等と共に、リハビリーション開始指示情報をリハビリテーション支援制御装置300に入力する。すると、操作部35がリハビリテーション開始指示情報を取得する(ステップS20)。次に、表示制御部342は、動作領域に応じた目標画像を生成する。例えば、動作領域がフロアFLの場合、表示制御部342は、足型を表示した目標画像を生成する。また、目標決定部345は、その目標画像を表示する位置の座標情報を計算する。目標画像を表示する位置は、ステップS18で設定した足用表示パラメータに応じて変化させてもよい。また、動作領域がテーブルの場合、表示制御部342は、対象者EPが手でタッチする対象となるターゲットを表示した目標画像を生成する。また、目標決定部345は、その表示位置の座標情報を計算する。出力部32は、これらの情報(目標画像と表示位置)を取得し、出力装置200に出力指示を行う。出力装置200は、出力部32の指示に従って、表示制御部342が生成した目標画像を出力領域900に表示する(ステップS21)。このように、出力装置200が動作領域に目標画像を表示すると、対象者EPは、その表示位置に検出対象部位に関連する体の部位を移動させる動作を行う。例えば、足型の目標画像が表示された場合、対象者EPは、足型が表示された位置に足を移動させる。また、例えば、テーブル上にターゲットの目標画像が表示された場合、対象者EPは、目標画像が表示された位置に手を移動させ、テーブルにタッチする。
センサ100は、対象者EPの動作を検出し続け、リハビリテーション支援制御装置300へ出力する。リハビリテーション支援制御装置300では、入力部31が検出結果情報を取得し(ステップS22)、検出結果情報を、制御部34へ出力する。
次に、制御部34は、検出処理を終了するかどうかを判定する(ステップS25)。例えば、理学療法士等がリハビリテーション終了指示情報を入力した場合、制御部34は、操作部35を介してその情報を取得し、検出処理を終了すると判定する。また、対象者EPが検出範囲800の外に出てしまった場合や対象者EPの手が検出範囲800の外に出てしまった場合、あるいは、予め設定されたリハビリテーションの実施時間が経過した場合にも、制御部34は、検出処理を終了すると判定する。
終了しないと判定した場合(ステップS25;No)、ステップS21からの処理を繰り返す。
終了すると判定した場合(ステップS25;Yes)、制御部34は、目標画像の生成処理や検出対象部位のデータを記録する処理を終了する。なお、表示制御部342は、検出履歴情報記憶部333に記録された対象者EPの検出対象部位のデータ(検出対象情報)から、今回のリハビリテーションにおける対象者EPの動作結果(例えば、検出対象部位が動いた軌跡)を表示する画像を生成し、出力装置200がこの画像を表示してもよい。
図14は、リハビリテーション支援システム1を用いたリハビリテーションにおけるパラメータ設定の一例を示すフローチャートである。
まず、リハビリテーションの実施前に理学療法士等が、対象者EPについてのパラメータ(足用表示パラメータ等)を設定する(ステップS30)。具体的には、理学療法士等が、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照して、各種パラメータをリハビリテーション支援制御装置300に入力する。次に理学療法士等が、リハビリテーション支援制御装置300に準備開始指示情報を入力し、リハビリテーションを実施する(ステップS31)。上記のとおり、リハビリテーション支援制御装置300の動作領域判定部343は、動作領域を判定して検出対象部位の設定を行う。動作領域がフロアFLの場合、足用表示パラメータ設定部347が、ステップS30で入力された足用表示パラメータの設定を行う。また、外乱用表示パラメータ設定部349が、ステップS30で入力された足の外乱用表示パラメータの設定を行う。一方、動作領域がテーブルTの場合、手用表示パラメータ設定部348が、ステップS30で入力された手用表示パラメータを設定し、外乱用表示パラメータ設定部349が、ステップS30で入力された手の外乱用表示パラメータの設定を行う。足用表示パラメータ設定部347等によるパラメータの設定が終了すると、表示制御部342が、動作領域に応じて目標画像等を生成し、出力装置200がそれらの画像を表示する。対象者EPは、表示された目標画像に基づいてリハビリテーションを行う。予め定められた一連のリハビリテーション・プログラムが終了すると、表示制御部342が、リハビリテーション結果を含む画像を生成し、出力装置200がリハビリテーション結果を表示する(ステップS32)。リハビリテーション結果とは、例えば、評価部346によるリハビリテーション・プログラムを通した評価結果の実績値である。リハビリテーション結果は、例えば、目標画像の全表示数に対して評価部346が目標位置到達と評価した回数の割合として表示されてもよい。
パラメータ設定の見直しが必要と判断した場合(ステップS34;Yes)、理学療法士等は、新しいパラメータを検討する(ステップS35)。例えば、今回のリハビリテーション結果が良好だった場合、理学療法士等は、より難易度の高い動作を要求するようなパラメータを検討する。あるいは、今回のリハビリテーション結果が良好ではなかった場合、理学療法士等は、難易度の低い動作を要求するようなパラメータを検討する。パラメータを検討し終えると、理学療法士等は、その新しいパラメータを設定し(ステップS30)、ステップS31からの処理を繰り返す。本実施形態のリハビリテーション支援システム1によれば、パラメータを任意に設定することができるので、対象者EPは、体調や能力に応じたリハビリテーションを実施することができる。なお上記の説明においては、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照してパラメータ入力・設定を実行したが、出力装置200から出力されたパラメータ設定画面を参照して、フロアやテーブル上に表示された設定画面上で各種パラメータ入力・設定を実行してもよい。
図15は、リハビリテーション支援システム1が、対象者EPの体の一部の高さを表示した例を示す図である。図15は、机上で手の移動に関するリハビリテーションが行われる場合の例を示している。出力装置200は表示制御部342の制御に従って、対象者EPの右手の現在の位置を示す画像M311aと、左手の現在の位置を示す画像M311bと、右手の目標位置を示す画像M321aとを机上の投影面(出力領域900)に表示(投影)している。
対象者EPは、画像M311aを移動させて画像M321aに重ねるように、右手の水平方向の位置を変化させる。また、対象者EPは、画像M311aの大きさを画像M321aの大きさに合せるように、右手の垂直方向の位置を変化させる。
このように、図15の例では、手の水平方向の動きだけでなく垂直方向の動きも含めたリハビリテーションが行われている。
例えば、上述した図12では、外乱として登場する自動車の画像を避けながら目標画像(目標位置を示す画像)に従って歩行するリハビリテーションの例を示している。図12の例では、出力装置200は、例えば、予め定められたタイミングで予め定められた位置に自動車の画像を表示するなど、対象者EPの体の一部の位置(図12の例では足の位置)に依存しない位置に自動車の画像を表示する。
あるいは、出力装置200が、例えば予め定められた位置に評価部346による評価結果を表示するなど、目標位置、対象者EPの体の一部の現在の位置のいずれとも異なる位置に、評価部346による評価結果を表示するようにしてもよい。
このように、表示制御部342が、出力装置200を制御して動作領域に画像を表示させることで、対象者EPが、画像の位置を実際の位置に対応付ける必要無しに、画像が示す位置を把握することができる。この点で、対象者EPは、より直感的に位置を把握できる。
また、表示制御部342が、出力装置200を制御して動作領域に画像を表示させることで、対象者EPが、対象者EP自らのリハビリテーションに関する画像であると認識する可能性を高めることができる。
例えば、リハビリテーション支援システム1を用いたリハビリテーションでは、対象者EPの手又は足などの部位の実際の位置、又は、対象者EPが過去に手又は足などの部位を移動させた実際の目標位置に、対象者EPの動作に対する評価を表示することができる。これにより、対象者EPが、対象者EP自らの動作に対する評価であると認識する可能性を高めることができる。
このように、表示制御部342が、出力装置200を制御して対象者EPの体の一部の現在の位置を表示させることで、対象者EPは、対象者EP自らの体の一部の位置と、出力装置200による表示(出力領域900)とが対応付けられていることを理解し易くなる。これにより、対象者EPが、対象者EP自らの体の一部の位置と、目標位置との位置関係を把握し易くなる。対象者EPは、この位置関係を把握することで、リハビリテーションのための動作(対象者EP自らの体の一部を目標位置へ移動させる動作)を行えることができる。
このように、表示制御部342が、出力装置200を制御して対象者EPの体の一部が実際にあった位置に履歴を表示させることで、対象者EPが、対象者EP自らの体の一部の位置の履歴であると認識する可能性を高めることができる。
また、目標位置の履歴を示す目標画像に対する対象者EPの一部の位置の履歴画像の位置のずれの大きさによって、目標に対する対象者EPの動きのずれの度合いが示されている。対象者EPは、目標位置の履歴を示す目標画像と対象者EPの体の一部の位置の履歴画像とのずれを見ることで、目標に対する対象者EP自らの動きのずれの度合いを把握することができる。
目標決定部345は、対象者EPの体の一部の位置に基づいて対象者EPの体の一部の目標位置を決定することで、対象者EPの体の一部の現在位置が前回の目標位置からずれている場合でも、対象者EPの体の一部の現在位置から到達可能な範囲に到達目標を設定できる。
また、表示制御部342が、出力装置200を制御して実際の目標位置に画像を表示させることで、対象者EPは、比較的容易に目標位置を把握することができる。また、対象者EPは、体の一部が目標位置に到達したことを比較的容易に認識することができる。
また、リハビリテーション支援システム1を用いたリハビリテーションでは、実際に手又は足などの部位を動かす目標位置に画像を表示することができる。これにより、対象者EPが、対象者EP自らに示された目標位置であると認識する可能性を高めることができる。
また、実際に手又は足などの部位を動かす目標位置に目標画像を表示することで、対象者EPは、手又は足などの部位をどこへ移動させればよいかを比較的容易に認識することができ、リハビリテーションのための動作を行うことができる。
また、実際に手又は足などの部位を動かす目標位置に目標画像を表示することで、対象者EPは、手又は足などの部位が目標位置に到達したことを比較的容易に認識できる。具体的には、対象者EPは、手又は足などの部位がある位置に目標画像が表示されていることを実際に見て確認することで、手又は足などの部位が目標位置に到達したことを認識できる。
対象者EPは、この評価結果の表示を参照することで、自らが行った動作に対する評価(例えば、目標位置への到達又は不到達)を知ることができ、動作の改善に役立てることができる。例えば、表示制御部342が、リアルタイムで出力装置200を制御して評価結果を表示させることで、対象者EPは、動作を行うごとに評価結果を確認することができる。評価が低い場合、対象者EPは、次の動作では評価が高くなるように動作の改善を図ることができる。
これにより、対象者EPは、対象者EP自らが行った行為に対する評価結果の表示であることを、比較的容易に把握することができる。
このように、目標決定部345が対象者EPの体の部位の移動量を算出して目標位置を決定することで、対象者EPの体の一部の実際の移動量に応じた適切な目標位置を設定することができる。
例えば、動作領域判定部343が、動作領域がテーブル(机上面又は机上)であると判定して検出対象部位を手首に決定した場合、表示制御部342は、記憶部33が記憶している画像のうち手の形状の画像を選択して出力装置200に表示させる。また、動作領域判定部343が、動作領域がフロア(床面又は床上)であると判定して検出対象部位を足首に決定した場合、表示制御部342は、記憶部33が記憶している画像のうち足の形状の画像を選択して出力装置200に表示させる。
このように、表示制御部342が出力装置200を制御して体の一部の形状を示す画像を表示させることで、対象者EPは自らの体の一部に関連する画像であることを直感的に認識することができる。従って、対象者EPが、リハビリテーションに関連する画像であることを認識する可能性を高めることができる。
対象者EPの前方の表示画面に対象者EPの画像が表示される従来のリハビリテーションでは、対象者EPの画像が表示されている位置が対象者EPの実際の位置とは異なる。このため、対象者EPが、対象者EPの画像を対象者EP自らの画像と認識できないことがある。更には、対象者EPの画像がいわゆるミラーリングによって左右逆に表示されることで、対象者EPが、対象者EPの画像を対象者EP自らの画像と認識できない可能性が高くなる。
対象者EPが、対象者EPの画像を対象者EP自らの画像と認識できないことで、対象者EPの動作に対する評価が表示画面に表示された場合に、対象者EP自らの動作に対する評価であると認識することができない可能性がある。また、目標画像(目標位置を示す画像)が表示画面に表示された場合も、対象者EPは、対象者EP自らに示された目標画像であることを認識できない可能性がある。
図16は、リハビリテーション支援システム1のシステム構成の変形例を示す斜視図である。
リハビリテーション支援制御装置300は、複数の装置に機能を分けて実装されてもよい。例えば、入力部31及び認識部341は画像認識装置として他の装置に実装されてもよい。例えば、認識部341はセンサ100に設けられてもよい。
また、出力装置200は、画像投影装置に代えて、画像を表示する画像表示装置を用いて構成されてもよい。この場合、図16に示すように出力装置200は、上述の説明において画像投影装置が映像を投影した面(投影面)に相当する面に表示面を有したディスプレイ装置として構成される。画像表示装置の具体例として、液晶ディスプレイ装置、有機EL(Electro Luminescence)ディスプレイ装置、タッチパネル式ディスプレイ装置等がある。例えば、テーブルの表面にディスプレイ装置を組み込んで、このディスプレイ装置の表示画面に対象者EPがタッチするマークを表示するようにしてもよい。この場合も、リハビリテーション支援制御装置300(制御部34)は、例えば、ディスプレイ装置に表示されたマーカ画像を目印にしてキャリブレーションを実施する。
Claims (8)
- 対象者を検出した結果を示す検出結果情報を取得する入力部と、
前記検出結果情報のうち、前記対象者のリハビリテーション動作が行われる動作領域に対応する前記対象者の体の一部に関する検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、
前記動作領域に画像を表示する出力装置を制御して、前記対象者の体の一部の位置に応じた位置に前記画像を表示させる表示制御部と、
を備えるリハビリテーション支援制御装置。 - 前記表示制御部は、前記対象者の体の一部の現在の位置を示す画像を前記出力装置に表示させる、請求項1に記載のリハビリテーション支援制御装置。
- 前記表示制御部は、前記対象者の体の一部の位置の履歴を示す画像を前記出力装置に表示させる、請求項1または請求項2に記載のリハビリテーション支援制御装置。
- 前記対象者の体の一部の位置に基づいて前記対象者の体の一部の目標位置を決定する目標決定部を更に備え、
前記表示制御部は、前記目標位置に画像を表示するように前記出力装置を制御する、請求項1から3のいずれか一項に記載のリハビリテーション支援制御装置。 - 前記対象者の体の一部の位置と前記目標位置との相対的な位置関係を評価する評価部をさらに備え、
前記表示制御部は、前記評価部による評価結果を前記出力装置に表示させる、請求項4に記載のリハビリテーション支援制御装置。 - 前記表示制御部は、前記対象者の体の一部の位置、及び、前記目標位置のうち少なくともいずれか一方に、前記評価部による評価結果を表示させる、請求項5に記載のリハビリテーション支援制御装置。
- 前記対象者が行うリハビリテーションの内容に応じた動作領域が、所定の第一動作領域及び所定の第二動作領域のうちの何れであるかを判定する動作領域判定部をさらに備え、
前記認識部は、前記動作領域判定部の判定結果に基づいて前記第一動作領域又は前記第二動作領域に関連する前記体の一部の位置の動きを認識する、請求項1から請求項6のいずれか1項に記載のリハビリテーション支援制御装置。 - 対象者を検出した結果を示す検出結果情報を取得する入力部と、
前記検出結果情報のうち、前記対象者のリハビリテーション動作が行われる動作領域に対応する前記対象者の体の一部に関する検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、
前記動作領域に表示を行う出力装置を制御して、前記対象者の体の一部の位置に応じた位置に画像を表示させる表示制御部と、
を備えるリハビリテーション支援制御装置としてコンピュータを機能させるためのコンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016114823A JP6377674B2 (ja) | 2016-06-08 | 2016-06-08 | リハビリテーション支援制御装置及びコンピュータプログラム |
CN201780014732.8A CN109219426B (zh) | 2016-06-08 | 2017-06-06 | 康复训练辅助控制装置以及计算机能够读取的记录介质 |
PCT/JP2017/020949 WO2017213124A1 (ja) | 2016-06-08 | 2017-06-06 | リハビリテーション支援制御装置及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016114823A JP6377674B2 (ja) | 2016-06-08 | 2016-06-08 | リハビリテーション支援制御装置及びコンピュータプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018137942A Division JP6706649B2 (ja) | 2018-07-23 | 2018-07-23 | リハビリテーション支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017217268A true JP2017217268A (ja) | 2017-12-14 |
JP6377674B2 JP6377674B2 (ja) | 2018-08-22 |
Family
ID=60577928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016114823A Active JP6377674B2 (ja) | 2016-06-08 | 2016-06-08 | リハビリテーション支援制御装置及びコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6377674B2 (ja) |
CN (1) | CN109219426B (ja) |
WO (1) | WO2017213124A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018161529A (ja) * | 2018-07-23 | 2018-10-18 | パラマウントベッド株式会社 | リハビリテーション支援装置 |
WO2020013021A1 (ja) * | 2018-07-13 | 2020-01-16 | 株式会社ニコン | 検出装置、処理装置、検出方法、及び処理プログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109999427A (zh) * | 2019-05-06 | 2019-07-12 | 上海机器人产业技术研究院有限公司 | 一种基于移动平台的上肢康复训练机器人 |
JP6714285B1 (ja) * | 2019-07-31 | 2020-06-24 | 株式会社mediVR | リハビリテーション支援装置及びリハビリテーション支援方法 |
JP2022024766A (ja) * | 2020-07-28 | 2022-02-09 | トヨタ自動車株式会社 | 訓練システム、訓練方法およびプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011110215A (ja) * | 2009-11-26 | 2011-06-09 | Toyota Motor Kyushu Inc | リハビリテーション用システム、プログラム、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2012022496A (ja) * | 2010-07-14 | 2012-02-02 | Sd Associates Inc | 画像認識によるコンピューター操作システム |
JP2013172897A (ja) * | 2012-02-27 | 2013-09-05 | Univ Of Tsukuba | 表示装置型リハビリテーション支援装置及びリハビリテーション支援装置の制御方法 |
JP2013206373A (ja) * | 2012-03-29 | 2013-10-07 | Hitachi Solutions Ltd | インタラクティブ表示装置 |
JP2014102183A (ja) * | 2012-11-21 | 2014-06-05 | Ricoh Co Ltd | 画像処理装置および画像処理システム |
US20150196803A1 (en) * | 2011-01-26 | 2015-07-16 | Flow-Motion Research And Development Ltd. | Method and system for monitoring and feed-backing on execution of physical exercise routines |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3200592B2 (ja) * | 1999-01-14 | 2001-08-20 | 株式会社エイ・ティ・アール知能映像通信研究所 | 歩行感覚生成装置 |
JP4581087B2 (ja) * | 2005-01-31 | 2010-11-17 | 国立大学法人九州工業大学 | 歩行訓練支援装置 |
CN101952818B (zh) * | 2007-09-14 | 2016-05-25 | 智慧投资控股81有限责任公司 | 基于姿态的用户交互的处理 |
US20130171601A1 (en) * | 2010-09-22 | 2013-07-04 | Panasonic Corporation | Exercise assisting system |
US9746927B2 (en) * | 2010-09-30 | 2017-08-29 | France Telecom | User interface system and method of operation thereof |
CN102074018B (zh) * | 2010-12-22 | 2013-03-20 | Tcl集团股份有限公司 | 一种基于深度信息的轮廓跟踪方法 |
JP5628092B2 (ja) * | 2011-05-25 | 2014-11-19 | 富士フイルム株式会社 | 画像処理装置、放射線画像撮影システム、画像処理プログラム、及び画像処理装置の作動方法 |
DE102012209359A1 (de) * | 2012-06-04 | 2013-12-05 | Zebris Medical Gmbh | Anordnung und Verfahren zum Training des Ganges |
JP2014094022A (ja) * | 2012-11-07 | 2014-05-22 | Panasonic Corp | 画像表示プログラム、電子装置、マッサージ装置、およびマッサージシステム |
-
2016
- 2016-06-08 JP JP2016114823A patent/JP6377674B2/ja active Active
-
2017
- 2017-06-06 CN CN201780014732.8A patent/CN109219426B/zh active Active
- 2017-06-06 WO PCT/JP2017/020949 patent/WO2017213124A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011110215A (ja) * | 2009-11-26 | 2011-06-09 | Toyota Motor Kyushu Inc | リハビリテーション用システム、プログラム、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2012022496A (ja) * | 2010-07-14 | 2012-02-02 | Sd Associates Inc | 画像認識によるコンピューター操作システム |
US20150196803A1 (en) * | 2011-01-26 | 2015-07-16 | Flow-Motion Research And Development Ltd. | Method and system for monitoring and feed-backing on execution of physical exercise routines |
JP2013172897A (ja) * | 2012-02-27 | 2013-09-05 | Univ Of Tsukuba | 表示装置型リハビリテーション支援装置及びリハビリテーション支援装置の制御方法 |
JP2013206373A (ja) * | 2012-03-29 | 2013-10-07 | Hitachi Solutions Ltd | インタラクティブ表示装置 |
JP2014102183A (ja) * | 2012-11-21 | 2014-06-05 | Ricoh Co Ltd | 画像処理装置および画像処理システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020013021A1 (ja) * | 2018-07-13 | 2020-01-16 | 株式会社ニコン | 検出装置、処理装置、検出方法、及び処理プログラム |
JPWO2020013021A1 (ja) * | 2018-07-13 | 2021-08-02 | 株式会社ニコン | 検出装置、処理装置、検出方法、及び処理プログラム |
JP7200994B2 (ja) | 2018-07-13 | 2023-01-10 | 株式会社ニコン | 処理装置、検出装置、処理方法、及び処理プログラム |
JP2018161529A (ja) * | 2018-07-23 | 2018-10-18 | パラマウントベッド株式会社 | リハビリテーション支援装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2017213124A1 (ja) | 2017-12-14 |
JP6377674B2 (ja) | 2018-08-22 |
CN109219426B (zh) | 2020-11-13 |
CN109219426A (zh) | 2019-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017213124A1 (ja) | リハビリテーション支援制御装置及びコンピュータプログラム | |
US20150140534A1 (en) | Apparatus and method for gait training | |
CN111093782A (zh) | 评分方法、评分程序以及评分装置 | |
KR101645693B1 (ko) | 가상 격자무늬를 이용한 골프 퍼팅 시뮬레이션 장치 및 방법 | |
US11027195B2 (en) | Information processing apparatus, information processing method, and program | |
US10646138B2 (en) | Systems and methods for assessing ergonomics utilizing visual sensing | |
JP2015176253A (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
KR20170010157A (ko) | 인터랙티브 운동프로그램을 통한 사용자의 운동동작 유도 방법 및 그 장치 | |
US20140258192A1 (en) | Apparatus for training recognition capability using robot and method for same | |
JP6694333B2 (ja) | リハビリテーション支援制御装置及びコンピュータプログラム | |
KR20130030117A (ko) | 실시간 캐릭터 애니메이션에서의 발 미끄러짐 제거를 위한 캐릭터 영상 처리 장치 및 방법 | |
JP2018050989A (ja) | リハビリテーション支援装置 | |
KR20160076488A (ko) | 근골격계 질환의 발생가능성의 판단 장치 및 방법 | |
JP6623122B2 (ja) | リハビリテーション支援制御装置及びコンピュータプログラム | |
JP6744139B2 (ja) | リハビリテーション支援制御装置及びコンピュータプログラム | |
JP6706649B2 (ja) | リハビリテーション支援装置 | |
JP6310255B2 (ja) | オプションを提示するための方法及び装置 | |
JP6441417B2 (ja) | リハビリテーション支援システム及びコンピュータプログラム | |
JP2016077346A (ja) | 運動支援システム、運動支援方法、及び運動支援プログラム | |
US20040059264A1 (en) | Footprint analyzer | |
JP6625486B2 (ja) | リハビリテーション支援制御装置及びコンピュータプログラム | |
JP6430441B2 (ja) | リハビリテーション支援システム及びコンピュータプログラム | |
JP6694491B2 (ja) | リハビリテーション支援システム及びコンピュータプログラム | |
Bakar et al. | Computer vision-based hand deviation exercise for rehabilitation | |
JP2017217276A (ja) | リハビリテーション支援制御装置及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6377674 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |