JP7262763B2 - リハビリ支援装置、及びプログラム - Google Patents

リハビリ支援装置、及びプログラム Download PDF

Info

Publication number
JP7262763B2
JP7262763B2 JP2019118957A JP2019118957A JP7262763B2 JP 7262763 B2 JP7262763 B2 JP 7262763B2 JP 2019118957 A JP2019118957 A JP 2019118957A JP 2019118957 A JP2019118957 A JP 2019118957A JP 7262763 B2 JP7262763 B2 JP 7262763B2
Authority
JP
Japan
Prior art keywords
subject
image
virtual model
support device
rehabilitation support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019118957A
Other languages
English (en)
Other versions
JP2021003379A (ja
Inventor
尚伸 高平
秀一 佐々木
晃司 津田
献人 田中
幸一 近藤
香苗 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitasato Institute
Original Assignee
Kitasato Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitasato Institute filed Critical Kitasato Institute
Priority to JP2019118957A priority Critical patent/JP7262763B2/ja
Publication of JP2021003379A publication Critical patent/JP2021003379A/ja
Application granted granted Critical
Publication of JP7262763B2 publication Critical patent/JP7262763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Description

本発明は、リハビリ支援装置、及びプログラムに関する。
被験者のリハビリを支援するための装置として、例えば特許文献1には、空間認識能力の検査を的確に行うことができる高次脳機能検査用の三次元表示装置が記載されている。この高次脳機能検査用の三次元表示装置は、被験者履歴、TMT履歴、BIT履歴および高次脳機能検査プログラム情報を記録する記録部と、三次元表示部(ヘッドマウントディスプレイ)と、三次元表示部の表示を制御する制御部と、を含む。このような構成によれば、制御部により被験者のカルテ履歴情報および高次脳機能検査の検査履歴情報に基づいて、高次脳機能検査プログラム情報が選定される。すなわち、被験者の病状に最適な高次脳機能検査プログラム情報を選定することができる。
特開2019-010441号公報
しかしながら、幻肢痛治療や麻痺治療の観点から、より治療効果の高い装置の開発が望まれている。
本発明は、このような課題に鑑みてなされたものであって、幻肢痛治療や麻痺治療において治療効果の高いリハビリ支援装置、及びプログラムを提供する。
本発明の第1の態様によれば、リハビリ支援装置は、対象者の視界に仮想モデルの映像を重畳表示する表示手段と、前記対象者の手足の形および姿勢を検出可能な検出センサと、仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算する演算部と、を備える。前記演算部は、前記検出センサによる前記対象者の一方側の手足の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の手足を模した前記仮想モデルの形および姿勢に適用する。
本発明の第2の態様によれば、第1の態様に係るリハビリ支援装置は、撮影手段をさらに備える。前記演算部は、前記撮影手段によって得られた映像に含まれる第1マーカーの、前記仮想空間における位置を特定するとともに、当該第1マーカーの前記仮想空間における位置を、前記仮想モデルの映像の位置に適用する。
本発明の第3の態様によれば、第2の態様に係るリハビリ支援装置において、前記演算部は、前記撮影手段によって得られた映像に含まれる第2マーカーの、前記仮想空間における移動量を演算して記録する。
本発明の第4の態様によれば、第1から第3のいずれか一の態様に係るリハビリ支援装置において、前記演算部は、前記仮想モデルの大きさまたは色に関する設定の変更を受け付ける。
本発明の第5の態様によれば、第1から第4のいずれか一の態様に係るリハビリ支援装置において、前記演算部は、設定に応じて、前記仮想モデルの透過映像を重畳表示させる。
本発明の第6の態様によれば、リハビリ支援装置のコンピュータを機能させるプログラムは、対象者の視界に仮想モデルの映像を重畳表示する表示手段と、前記対象者の手足の形および姿勢を検出可能な検出センサと、を備えるリハビリ支援装置のコンピュータに、仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算するステップを実行させる。前記仮想モデルの映像を演算するステップは、さらに、前記検出センサによる前記対象者の一方側の手足の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の手足を模した前記仮想モデルの形および姿勢に適用するステップを含む。
本発明に係るリハビリ支援装置によれば、幻肢痛治療及び麻痺治療の観点から、より治療効果の高い装置を提供することができる。
第1の実施形態に係るリハビリ支援装置の全体構成を示す図である。 第1の実施形態に係るリハビリ支援装置の機能構成を示す図である。 第1の実施形態に係るリハビリ支援装置の処理フローの一例を示す図である。 第1の実施形態に係るリハビリ支援装置を介して対象者から見える視界のイメージ図である。 第1の実施形態に係る演算部による処理を説明するためのイメージ図である。 第1の実施形態に係る演算部によるミラーリングの処理を説明するためのイメージ図である。 第2の実施形態に係るリハビリ支援装置の全体構成を示す図である。 第2の実施形態に係るリハビリ支援装置の処理フローの一例を示す図である。 第2の実施形態に係るリハビリ支援装置を介して対象者から見える視界のイメージ図である。 少なくとも一つの実施形態に係るリハビリ支援装置のハードウェア構成の一例を示す図である。
<第1の実施形態>
以下、本発明の第1の実施形態に係るリハビリ支援装置について、図1~図6を参照しながら説明する。
(リハビリ支援装置の全体構成)
図1は、第1の実施形態に係るリハビリ支援装置の全体構成を示す図である。
図1に示すように、リハビリ支援装置1は、いわゆるヘッドマウント型の装置であって、幻肢痛の患者(以下、対象者Aと記載)の頭部に装着されて用いられる。本実施形態においては、対象者Aは、例えば左上腕部a2の先(左前腕部)を欠損した患者であって、当該左前腕部に係る幻肢痛を患っている。なお、対象者Aの左前腕部a2の欠損端にはマーカーM1(第1マーカー)が付されている。
(リハビリ支援装置の機能構成)
図2は、第1の実施形態に係るリハビリ支援装置の機能構成を示す図である。
図2に示すように、リハビリ支援装置1は、演算部10と、プロジェクタ11と、レンズ12と、深度センサ13と、CCDカメラ14と、IMU15とを備えている。
演算部10は、リハビリ支援装置1の動作全体の制御および処理を司る。
プロジェクタ11は、仮想モデルの映像Pをレンズ12に投影させる投影装置である。
レンズ12は、透過型のゴーグルである。レンズ12には、プロジェクタ11によって投影された仮想モデルの映像Pが表示される。対象者Aは、レンズ12を通じて現実の空間を視認することができ、さらに、その視界に重畳表示された仮想モデルの映像Pを視認することができる。
プロジェクタ11およびレンズ12は、対象者Aの視界に仮想モデルの映像Pを重畳表示する表示手段の一態様である。
深度センサ13は、対象者Aの手の形(握っているか、開いているか、など)および姿勢を検出可能な検出センサである。深度センサ13は、対象者Aの右前腕部a1(欠損していない方の前腕部)の形および姿勢を検出する。右前腕部a1の形および姿勢の検出手法は、既知のジェスチャ認識技術などが適用される。
CCDカメラ14は、リハビリ支援装置1周辺の映像を取得する撮影手段である。演算部10は、撮影手段によって取得された映像からマーカーM1の画像を抽出する。そして、演算部10は、当該画像上の位置に基づいて、マーカーM1の仮想空間における位置を特定する。
IMU15は、リハビリ支援装置1(即ち、対象者Aの頭部)の位置、姿勢を検出する三次元加速度センサである。演算部10は、IMU15によって得られるリハビリ支援装置1の位置、姿勢に基づいて、対象者Aの視野の方位を特定する。
リハビリ支援装置1の記録媒体16には、仮想モデルVが記憶される。仮想モデルVは、対象者Aの欠損部位(左前腕部)を模した仮想モデルである。仮想モデルVの大きさや色は、設定により適宜変更可能とされる。
(リハビリ支援装置の処理フロー)
図3は、第1の実施形態に係るリハビリ支援装置の処理フローの一例を示す図である。
図4は、第1の実施形態に係るリハビリ支援装置を介して対象者から見える視界のイメージ図である。
図5は、第1の実施形態に係る演算部による処理を説明するためのイメージ図である。
図6は、第1の実施形態に係る演算部によるミラーリングの処理を説明するためのイメージ図である。
図3~6を参照しながら、第1の実施形態に係るリハビリ支援装置1の演算部10が実行する処理フローについて詳しく説明する。
まず、演算部10は、仮想モデルVの大きさ、色を設定する(ステップS01)。具体的には、演算部10は、仮想モデルVの模擬対象となる対象者Aの身体の部位、即ち、対象者Aの右前腕部a1の大きさ(長さ、太さ)および色(皮膚の色)を取得して、仮想モデルVに適用する。なお、大きさおよび色の設定は、対象者Aがキーボードなどの入力装置(不図示)から手入力するようにしてもよいし、CCDカメラ14および深度センサ13の検出結果に基づいて演算部10が自動的に大きさおよび色を特定して入力するようにしてもよい。また、演算部10は、過去に当該対象者Aに関する設定が登録済みである場合、登録済みの設定を読み出すようにしてもよい。この仮想モデルVの設定は、対象者Aの個人情報(識別番号、氏名など)と対応付けて記録媒体16に記録される。
次に、演算部10は、IMU15を通じて、対象者Aの視野の方位を特定する(ステップS02)。
次に、演算部10は、模擬対象である右前腕部a1の形、姿勢を検出する(ステップS03)。具体的には、演算部10は、深度センサ13を通じて、仮想空間における右前腕部a1の各部位(手首、指の関節など)の位置を三次元座標情報(x、y、z)で取得する。
次に、演算部10は、マーカーM1の位置を検出する(ステップS04)。具体的には、演算部10は、CCDカメラ14を通じて、仮想空間におけるマーカーM1の位置を三次元座標情報(x、y、z)で取得する。
次に、演算部10は、仮想モデルの映像Pを演算する(ステップS05)。また、演算部10は、プロジェクタ11を通じて、演算した仮想モデルの映像Pを投影する(ステップS06)。そうすると、対象者Aは、図4に示すように、レンズ12を通じて、現実の視界に重畳された仮想モデルの映像Pを視認することができる。
なお、本実施形態に係る演算部10は、拡張現実(Augmented Reality)もしくは複合現実(Mixed Reality)と呼ばれる技術を用いて仮想モデルの映像Pの投影を行う。具体的には、図5に示すように、演算部10はステップS05において、深度センサ13による対象者Aの右前腕部a1の形および姿勢の検出結果をミラーリングして、対象者Aの他方側の腕(欠損した左前腕部)を模した仮想モデルVの形および姿勢に適用した映像Pを演算する。このとき、演算部10は、取得した右前腕部a1の各部位の位置を左右反転して、仮想モデルVの対応する各部位に適用する。また、演算部10は、CCDカメラ14により検出したマーカーM1の位置と、IMU15により特定された対象者Aの視野の方位とに基づいて、仮想空間内における仮想モデルの映像Pの大きさおよび表示位置(三次元座標)を演算する。
演算部10は、プロジェクタ11を通じて、右前腕部a1の形および姿勢をミラーリングした仮想モデルの映像Pを投影する(ステップS06)。このとき、演算部10は、仮想空間におけるマーカーM1の位置に合わせて仮想モデルの映像Pが表示されるように、仮想モデルの映像Pの表示座標についてもプロジェクタ11に指示する。仮想空間の三次元座標は、対象者Aがレンズ12を通じて見る現実の視界の三次元座標に対応している。このため、図4および図5に示すように、仮想モデルの映像Pは、レンズを通した視界において、マーカーM1の位置に沿うように表示されることとなる。
また、演算部10は、プロジェクタ11を通じて、対象者Aにトレーニングの指示(手の形、姿勢などの指示)を行うための映像を更に投影するようにしてもよい。この映像は、対象者Aの視界内における右前腕部a1および仮想モデルVと重ならない位置に投影される。
次に、演算部10は、対象者Aのトレーニングが終了したか判定する(ステップS07)。例えば、対象者Aのトレーニングとして、所定回数、右前腕部a1に指定した動作を行わせることが設定されているとする。この場合、演算部10は、深度センサ13により、右前腕部a1が指定された動作を行った動作回数をカウントし、動作回数が所定回数に満たない場合は、トレーニングが終了していないと判定する(ステップS07:NO)。この場合、演算部10は、ステップS02に戻り、一連の処理を繰り返す。
演算部10は、ステップS02~S06の処理を繰り返し、対象者Aの右前腕部a1の動きをミラーリングして演算した仮想モデルVを、プロジェクタ11を通じて投影する。これにより、対象者Aは、図6に示すように、レンズ12を通した視界内において、右前腕部a1の動きに合わせて仮想モデルの映像Pが動く様子を視認することができる。
また、演算部10は、動作回数が所定回数以上となった場合、トレーニングが終了したと判定する(ステップS07:YES)。そうすると、演算部10は、プロジェクタ11を通じて対象者Aのトレーニングデータを表示する(ステップS08)。トレーニングデータには、対象者Aに指定した動作と、実際の右前腕部a1の動作などが含まれる。また、このトレーニングデータは、対象者Aの個人情報と対応付けて記録媒体16に記録される。
以上で、演算部10の一連の処理が完了する。
(作用、効果)
以上に説明した構成によれば、第1の実施形態に係るリハビリ支援装置1は、対象者Aの右前腕部a1の形および姿勢をミラーリングして、対象者Aのレンズを通した視界に重畳表示させるべき仮想モデルの映像Pを演算して表示することができる。したがって、対象者Aは、現実の視界(現実の背景、および対象者Aの右前腕部a1)に重畳して、仮想モデルの映像Pを視認することができる。
仮想現実(Virtual Reality)の技術を用いた場合は、背景、右前腕部、および左前腕部の全てが映像で表示されることとなる。このため、対象者は、映像を見ていることを意識してしまい、現実感が薄らぐ可能性がある。
しかしながら、第1の実施形態に係るリハビリ支援装置1は、上記したように拡張現実もしくは複合現実の技術を用いることで、対象者Aから見える位置、大きさ、動きなどを、現実の右前腕部a1にあわせてよりリアルに再現した仮想モデルの映像Pを演算することができる。このようにすることで、リハビリ支援装置1は、対象者Aに対し、あたかも現実の視界に左前腕部が存在し、自らの意思で動かしているような錯覚を強く起こさせることができる。これにより、幻肢痛治療の効果を向上させることができる。
また、第1の実施形態に係るリハビリ支援装置1によれば、演算部10は、CCDカメラ14によって得られた映像に含まれるマーカーM1の仮想空間における位置を特定し、仮想モデルの映像Pの位置に適用する。このようにすることで、リハビリ支援装置1は、仮想モデルの映像Pを、マーカーM1が付された対象者Aの左前腕部a2の位置に一致させて、対象者Aに自身の腕であるように見せることができる。
また、第1の実施形態に係るリハビリ支援装置1によれば、演算部10は、仮想モデルVの大きさまたは色に関する設定の変更を受け付ける。これにより、リハビリ支援装置1は、より違和感の少ない仮想モデルの映像Pを演算することができる。
<第2の実施形態>
次に、第2の実施形態に係るリハビリ支援装置について、図7~図9を参照しながら説明する。
(リハビリ支援装置の全体構成)
図7は、第2の実施形態に係るリハビリ支援装置の全体構成を示す図である。
図7に示すように、本実施形態に係るリハビリ支援装置1は、運動麻痺を有する患者である対象者Aの頭部に装着されて用いられる。本実施形態においては、対象者Aは、例えば左上腕部a2の先(左前腕部)に運動麻痺を有する患者である。対象者Aは、リハビリ支援装置1を用いて、健常な右前腕部a1と、麻痺のある左前腕部a2とを同じように動かす(例えば、手指を曲げ伸ばしする)トレーニングを行う。
なお、対象者Aの左前腕部a2には、マーカーM1(第1マーカー)、およびマーカーM2(第2マーカー)が付されている。第1マーカーM1は、麻痺の生じている部位の開始位置(例えば、手首)に付され、第2マーカーM2は、トレーニングを行う際に動作すべき部位(例えば、手指など)に付される。なお、対象者Aには、複数の第2マーカーM2が付されていてもよい。例えば、手指を動かすトレーニングを行う場合は、第2マーカーは各指の先端部に一つずつ付されてもよい。
また、リハビリ支援装置1は、第1の実施形態に係る幻肢痛の治療を行うモードと、本実施形態に係る麻痺患者のトレーニングを行うモードとを、設定により切り替えることが可能である。演算部10は、幻肢痛の治療を行うモードが設定されている場合、不透過の(皮膚の色の設定に合わせたテクスチャが適用された)仮想モデルの映像Pを演算する。一方、麻痺患者のトレーニングを行うモードが設定されている場合、仮想モデルの映像Pを重畳表示した際に、対象者Aの左前腕部a2も同時に視認可能となるように、演算部10は仮想モデルの透過映像P(半透明の映像、またはワイヤーフレーム映像など)を演算する。即ち、リハビリ支援装置1の演算部10は、設定により、仮想モデルの不透過映像または透過映像のいずれを演算、重畳表示させるかを切り替えることができる。
(リハビリ支援装置の処理フロー)
図8は、第2の実施形態に係るリハビリ支援装置の処理フローの一例を示す図である。
図9は、第2の実施形態に係るリハビリ支援装置を介して対象者から見える視界のイメージ図である。
図8に示す処理フローは、第1の実施形態(図3)と比較して、ステップS11~S12の処理を含むことで相違する。
リハビリ支援装置1の演算部10は、第1の実施形態と同様に、ステップS02~06の処理を実行する。そうすると、図9に示すように、レンズ12を通した視界において、対象者Aは健常な右前腕部a1の動きをミラーリングした仮想モデルの映像Pを視認することができる。本実施形態では、この仮想モデルの透過映像Pは、リハビリにおける稼働目標位置を表す。
仮想モデルの透過映像Pが表示されると、演算部10は、第2マーカーM2の位置を検出する(ステップS11)。具体的には、演算部10は、CCDカメラ14を通じて、仮想空間における第2マーカーM2の位置を三次元座標情報(x、y、z)で取得する。
次に、演算部10は、第2マーカーM2の位置の経時的変化に基づいて、第2マーカーM2の移動量を演算する(ステップS12)。第2マーカーM2の移動量は、対象者Aの左前腕部a2の実際の稼働範囲を表す。また、演算部10は、演算した移動量と、仮想モデルの透過映像Pで示される稼働目標位置とを対応付けて記録媒体16に記録する。
また、演算部10は、対象者Aのトレーニングが終了していない場合(ステップS07:NO)、ステップS02~S06、およびS11~12の処理を繰り返す。一方、演算部10は、対象者Aのトレーニングが終了した場合(ステップS07:YES)、プロジェクタ11を通じて対象者Aのトレーニングデータを表示する(ステップS08)。トレーニングデータには、対象者Aの左前腕部a2の稼働目標位置、実際の稼働範囲(移動量)などが含まれる。
(作用、効果)
以上に説明した構成によれば、第2の実施形態に係るリハビリ支援装置1は、対象者Aン付された第2マーカーM2の移動量を演算して記憶することにより、健常な右前腕部a1に対し、麻痺のある左前腕部a2をどの程度動かすことが出来たかを計測、記録することができる。これにより、対象者Aは、トレーニングの効果を直感的に理解することができる。
また、リハビリ支援装置1は、麻痺患者のトレーニングモードが設定されている場合、仮想モデルの透過映像Pを演算、重畳表示させる。これにより、対象者Aは、稼働目標位置を表す仮想モデルの透過映像Pと、左前腕部a2の実際の動作とを同時に視認することができる。
(リハビリ支援装置のハードウェア構成)
図10は、少なくとも一つの実施形態に係るリハビリ支援装置のハードウェア構成の一例を示す図である。
以下、図10を参照しながら、リハビリ支援装置1のハードウェア構成の一例について説明する。
図10に示すように、コンピュータ900は、CPU901、主記憶装置902、補助記憶装置903、インタフェース904を備える。
上述の実施形態に係るリハビリ支援装置1は、コンピュータ900に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置903に記憶されている。CPU901は、プログラムを補助記憶装置903から読み出して主記憶装置902に展開し、当該プログラムに従って上記処理を実行する。また、CPU901は、プログラムに従って、リハビリ支援装置1が各種処理に用いる記憶領域を主記憶装置902に確保する。また、CPU901は、プログラムに従って、処理中のデータを記憶する記憶領域を補助記憶装置903に確保する。
補助記憶装置903の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。補助記憶装置903は、コンピュータ900のバスに直接接続された内部メディアであってもよいし、インタフェース904または通信回線を介してコンピュータ900に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ900に配信される場合、配信を受けたコンピュータ900が当該プログラムを主記憶装置902に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、補助記憶装置903は、一時的でない有形の記憶媒体である。
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。
更に、当該プログラムは、前述した機能を補助記憶装置903に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、上述の実施形態において、リハビリ支援装置1は、仮想モデルVにより前腕の欠損部位または麻痺部位を模擬する例について説明したが、これに限られることはない。他の実施形態では、リハビリ支援装置1は、仮想モデルVにより上肢(前腕部、上腕部、手指部など)、または下肢(下腿部、大腿部、足指部など)の一部または全体を模擬するようにしてもよい。
1 リハビリ支援装置
10 演算部
11 表示手段
11 プロジェクタ
12 レンズ
13 深度センサ
13 検出センサ
14 CCDカメラ
16 記録媒体
M1 マーカー(第1マーカー)
M2 マーカー(第2マーカー)

Claims (4)

  1. 対象者の視界に仮想モデルの映像を重畳表示する表示手段と、
    前記対象者の手または足である身体の部位の形および姿勢を検出可能な検出センサと、
    仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算する演算部と、
    撮影手段と、
    を備え、
    前記演算部は、
    前記検出センサによる前記対象者の一方側の身体の部位の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の身体の部位を模した前記仮想モデルの形および姿勢に適用し、
    前記撮影手段によって得られた映像に含まれる第1マーカーの、前記仮想空間における位置を特定するとともに、当該第1マーカーの前記仮想空間における位置を、前記仮想モデルの映像の位置に適用し、
    さらに、前記撮影手段によって得られた映像に含まれる第2マーカーの、前記仮想空間における移動量を演算して記録する、
    リハビリ支援装置。
  2. 前記演算部は、
    前記仮想モデルの大きさまたは色に関する設定の変更を受け付ける
    請求項1に記載のリハビリ支援装置。
  3. 前記演算部は、
    設定に応じて、前記仮想モデルの透過映像を重畳表示させる
    請求項1または請求項2に記載のリハビリ支援装置。
  4. 対象者の視界に仮想モデルの映像を重畳表示する表示手段と、
    前記対象者の手足の形および姿勢を検出可能な検出センサと、
    撮影手段と、
    を備えるリハビリ支援装置のコンピュータに、
    仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算するステップを実行させるプログラムであって、
    前記仮想モデルの映像を演算するステップは、さらに、前記検出センサによる前記対象者の一方側の手足の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の手足を模した前記仮想モデルの形および姿勢に適用するステップを含み、
    前記撮影手段によって得られた映像に含まれる第1マーカーの、前記仮想空間における位置を特定するとともに、当該第1マーカーの前記仮想空間における位置を、前記仮想モデルの映像の位置に適用するステップと、
    前記撮影手段によって得られた映像に含まれる第2マーカーの、前記仮想空間における移動量を演算して記録するステップと、
    をさらに含む、プログラム。
JP2019118957A 2019-06-26 2019-06-26 リハビリ支援装置、及びプログラム Active JP7262763B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118957A JP7262763B2 (ja) 2019-06-26 2019-06-26 リハビリ支援装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118957A JP7262763B2 (ja) 2019-06-26 2019-06-26 リハビリ支援装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021003379A JP2021003379A (ja) 2021-01-14
JP7262763B2 true JP7262763B2 (ja) 2023-04-24

Family

ID=74098142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118957A Active JP7262763B2 (ja) 2019-06-26 2019-06-26 リハビリ支援装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7262763B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI800163B (zh) * 2021-12-16 2023-04-21 許紓琬 智慧互動式擴增實境之手部精細動作復健系統

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298430A (ja) 2003-03-31 2004-10-28 Toshiba Corp 疼痛治療支援装置及び仮想空間に幻肢画像を動画的に表示する方法
JP2017018519A (ja) 2015-07-15 2017-01-26 セイコーエプソン株式会社 表示装置およびコンピュータープログラム
JP2018191964A (ja) 2017-05-16 2018-12-06 株式会社Kids 神経障害性の疼痛治療支援システム及び疼痛治療支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298430A (ja) 2003-03-31 2004-10-28 Toshiba Corp 疼痛治療支援装置及び仮想空間に幻肢画像を動画的に表示する方法
JP2017018519A (ja) 2015-07-15 2017-01-26 セイコーエプソン株式会社 表示装置およびコンピュータープログラム
JP2018191964A (ja) 2017-05-16 2018-12-06 株式会社Kids 神経障害性の疼痛治療支援システム及び疼痛治療支援方法

Also Published As

Publication number Publication date
JP2021003379A (ja) 2021-01-14

Similar Documents

Publication Publication Date Title
US10929656B2 (en) Method and system of hand segmentation and overlay using depth data
US11730543B2 (en) Sensory enhanced environments for injection aid and social training
JP7262937B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
US8520027B2 (en) Method and system of see-through console overlay
CN111091732B (zh) 一种基于ar技术的心肺复苏指导器及指导方法
KR20210011425A (ko) 이미지 처리 방법 및 디바이스, 이미지 장치, 및 저장 매체
JP5414380B2 (ja) 画像処理方法及び画像処理装置
Khademi et al. Comparing “pick and place” task in spatial augmented reality versus non-immersive virtual reality for rehabilitation setting
JP4025230B2 (ja) 疼痛治療支援装置及び仮想空間に幻肢画像を動画的に表示する方法
US20140371634A1 (en) Method and apparatus for tracking hand and/or wrist rotation of a user performing exercise
JP4129527B2 (ja) 仮想手術シミュレーションシステム
JP7262763B2 (ja) リハビリ支援装置、及びプログラム
JP7379302B2 (ja) 姿勢評価プログラム、姿勢評価装置、姿勢評価方法、及び姿勢評価システム。
KR102483387B1 (ko) 손가락 재활 훈련을 위한 증강현실 콘텐츠 제공 방법 및 손가락 재활 훈련 시스템
Rudolph et al. TechnoSapiens: merging humans with technology in augmented reality
KR102446922B1 (ko) Vr/ar 기반의 가상 이식을 이용한 재활 치료 장치
US10692401B2 (en) Devices and methods for interactive augmented reality
TWI644285B (zh) Acupuncture visualization Chinese medicine system and method thereof by using AR technology
Saito et al. The method of reducing phantom limb pain using optical see-through head mounted display
KR102499113B1 (ko) Vr/ar 기반의 가상 이식을 이용한 재활 장치
Tanaka et al. Creating Method for Real-Time CG Animation of Cooperative Motion of Both Hands for Mirror Box Therapy Support System
JP7486603B2 (ja) 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム
EP4303824A1 (en) System and method for monitoring a body pose of a user
KR102635074B1 (ko) Vr/ar 신체 영상 기반의 객체 잡기 훈련을 제공하는 재활 hmd 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7262763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150