JP6586688B2 - 介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置 - Google Patents

介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置 Download PDF

Info

Publication number
JP6586688B2
JP6586688B2 JP2015030679A JP2015030679A JP6586688B2 JP 6586688 B2 JP6586688 B2 JP 6586688B2 JP 2015030679 A JP2015030679 A JP 2015030679A JP 2015030679 A JP2015030679 A JP 2015030679A JP 6586688 B2 JP6586688 B2 JP 6586688B2
Authority
JP
Japan
Prior art keywords
care
model
information
caregiver
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015030679A
Other languages
English (en)
Other versions
JP2016151750A (ja
Inventor
一彦 寺嶋
寺嶋  一彦
ズミトリー ティエティエルコブ
ズミトリー ティエティエルコブ
雄貴 中川
雄貴 中川
亮 三枝
亮 三枝
明日人 荒尾
明日人 荒尾
ゴンチャレンコ イゴール
ゴンチャレンコ イゴール
薫之 鈴木
薫之 鈴木
慶 青木
慶 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyohashi University of Technology NUC
Original Assignee
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyohashi University of Technology NUC filed Critical Toyohashi University of Technology NUC
Priority to JP2015030679A priority Critical patent/JP6586688B2/ja
Publication of JP2016151750A publication Critical patent/JP2016151750A/ja
Application granted granted Critical
Publication of JP6586688B2 publication Critical patent/JP6586688B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)

Description

本発明は、要介護者または要介助者(以下、まとめて「被介護者」と称する)に対する介護または介助(以下、まとめて「介護」と称する)の訓練に使用するバーチャルリアリティシステムと、このシステムを利用した介護ロボット等の評価装置に関するものである。
近年、バーチャルリアリティシステムの分野においては、コンピュータ・グラフィックス(以下、「CG」と称する)技術により、三次元の仮想空間または仮想現実をCGモデルとして作成し、これらのCGモデルを映像化することにより、仮想空間または仮想現実の映像の中で体験することを可能にしている。この種の技術を用いることにより、各種のシミュレータが開発されているのが現状である。例えば、運転操作のシミュレータとしては、実機を模擬した装置のうち、可動部分と非可動部分とに区分し、可動部分については現実の装置を使用し、非可動部分についてCG化する構成とするものがある(特許文献1参照)。この装置は、操作者の運転技能を向上させるためのものであるが、操作の結果が可動部分の映像として映像化されるものであり、力覚提示を受けるものではなく、介護分野において、被介護者の体位を変化させるような訓練には不向きであった。
他方、力覚提示を受けるものとして、仮想対象物を含む仮想作業空間を、視覚的、および触覚的または力覚的に作業者に提供する仮想空間提供手段が構成されたシミュレータが開発されている(特許文献2参照)。この技術によれば、作業者(訓練者)は、仮想空間内において入出力デバイスを介して力覚提示を受けるものであり、入力に対する触覚的な情報を得る程度のものであり、介護分野における移乗介護のように、大重量を支えるような訓練には採用し得なかった。
また、要介護者のためのバーチャルリアリティシステム技術としては、リハビリテーション装置(特許文献3参照)や、運動機能訓練装置(特許文献4参照)なども開発されている。これらの技術は、リハビリ訓練のためにコンピュータ制御された負荷部材によって力覚提示されるものであり、訓練者の意欲を増大させるためにCG映像が提供されるものであった。
特開2000−112334号公報 特開2002−333823号公報 特開平9−313552号公報 特開2012−35022号公報 特開2011−218105号公報
上述のように、CG映像の提供と、力覚提示とを受ける訓練用シミュレータやリハビリ装置は開発されているものの、介護訓練(特に要介護者の体位の変更や移乗などの訓練)に使用できるものではなかった。また、介護訓練として、要介護者を抱きかかえる際の体感を得るための発明としては、現実の人形を使用するものがあった(特許文献5参照)。この技術は、人形を介して体重と同様の負荷を作用させるものであり、人形の重量を体感することができるとしても、介護現場における要介護者に対する種々の介護または介助の訓練までをも可能にするものではなかった。また、介護現場には、介護ロボットや介護装置が導入されつつあるが、それらの介護ロボット等が被介護者に対して適切な介護がなされているかを評価するものは存在しなかった。
本発明は、上記諸点にかんがみてなされたものであって、その目的とするところは、介護訓練者による介護のための訓練を可能にする介護訓練用バーチャルリアリティシステムを提供するとともに、介護ロボット等の作動状態を評価し得る装置を提供することである。
そこで、介護訓練用バーチャルリアリティシステムにかかる本発明は、被介護者に対する介護訓練者による介護の状態を仮想的に体験するための介護訓練用バーチャルリアリティシステムであって、被介護者の情報が記録される被介護者情報記録部と、この被介護者情報記録部の情報により三次元による被介護者の人体CGモデルを被介護者CGモデルとして作成する被介護者CGモデル作成部と、介護訓練者の運動状態に関する情報を取得する訓練者情報取得手段と、この訓練者情報取得手段によって取得される訓練者の運動状態の情報から、三次元による介護訓練者の全身または一部の人体CGモデルを訓練者CGモデルとして作成する訓練者CGモデル作成部と、前記被介護者CGモデルと訓練者CGモデルとを重畳的に表示する表示部と、前記表示部に表示される被介護者CGモデルと訓練者CGモデルとの相対的な位置関係を計算する計算部と、介護訓練者に装着され、介護訓練者に所定の負荷を付与するための力覚デバイスと、前記計算部によって計算された被介護者CGモデルと訓練者CGモデルとの相対的な位置関係に基づき、接触情報を前記力覚デバイスに提示する力覚提示手段とを備えるものである。
上記構成によれば、本システムの基本的な構成は、被介護者CGモデルおよび訓練者CGモデルが重畳的に表示部に表示され、表示部に表示される両CGモデルの相対的な位置関係に基づき、仮想的に介護の現場が再現されるものである。さらに、介護訓練者の運動状態は、訓練者情報取得手段によりリアルタイムに取得され、被介護者に装着される力覚デバイスによって、被介護者から受ける接触情報を負荷として受けることができるものである。そして、被介護者CGモデルと訓練者CGモデルの相対的な位置関係、および被介護者および介護訓練者の姿勢や体重等に基づいて、介護訓練者が受けることが想定される負荷が、力覚デバイスによって現実の負荷として与えられるものである。従って、介護訓練者は、表示部に表示される被介護者CGモデルと、訓練者自身の全体または一部が重畳的に表示される訓練者CGモデルとを観察しながら、被介護者を介護するための行動を実践し、その行動に応じて、訓練者が受ける荷重を体験することができる。例えば、寝返りをさせる場合の力の入れ具合や、抱き上げた際の重量感を得ながら、腰、腕、肩などに受ける荷重を体験することができるのである。
上記構成の発明においては、前記力覚デバイスとして、介護者訓練者の足部と腹部との間に懸架され、腰部に負荷を与える第1の負荷装置と、手首部分から肩部までの範囲内に配置され、肘関節部に負荷を与える第2の負荷装置とを備えるような構成とすることができる。
この場合には、足部と腹部との間に懸架された第1の負荷装置により、介護の際に下半身が受ける荷重を感じることができ、また、肘関節に負荷を与える第2の負荷装置により、同様に、肘関節周辺に受ける荷重を感じさせることができるものである。
また、さらに、前記力覚デバイスとして、胸部と肩部との間に配置され、肩部の回転方向または前傾方向に負荷を与える第3の負荷装置を備えるような構成とする場合には、前述の下半身および肘関節周辺に加えて、上半身の捩り方向(肩の回転方向)や肩を前傾させるような現実の負荷を感じさせることができる。
そして、前記構成の力覚提示手段は、前記人体CGモデルに予め与えられた重量情報に基づき、前記各負荷装置の負荷量を計算するとともに、限界負荷量を超える負荷を算出した場合に負荷装置の作動を停止させるような構成としてもよい。
この場合には、被介護者の体重により介護訓練者が受ける負荷の程度が異なる場合であっても、そのような被介護者の介護において、現実に受ける負荷の程度を感じさせることができる。そして、被介護者の体重が大きく、また介護訓練者の運動状態によっては、介護訓練者の一部に荷重が集中するような場合があるため、著しく大きい負荷が生じる場合は、その負荷を停止させることにより、介護訓練者の健康状態を担保することができるものとなる。
他方、前記各構成における訓練者情報取得手段としては、前記介護訓練者の姿勢を少なくとも1個所から撮影する撮影手段と、この撮影手段により撮影された介護訓練者の特定部位の変位に基づいて、介護訓練者の運動状態を計測する計測部とを備える構成とすることができる。
このような構成とすれば、介護訓練者から離れた場所において介護訓練者の運動状態を計測することができる。
さらに、前記構成に加えて、前記力覚提示手段により提示される接触情報を定量的または定性的な数値として記憶する記憶部と、介護訓練者に対する現実の接触情報と前記定量的または定性的な数値とを比較したときの結果を評価として算出する第2の計算部と、この計算結果に基づく評価の内容を記録する評価記録部と、前記評価の内容を介護訓練者に報知する報知手段とを備える構成としてもよい。
このような第2の計算部により算出される定量的または定性的な数値に基づいて評価されることにより、介護訓練者の介護状態を数値的に把握することが可能となる。ここで、接触情報の定量的または定性的な数値とは、介護訓練者の行動により、被介護者がどのように体位を変更し、または移動したか、また、被介護者のうち力が集中した部位があるのかなどを数値化し、その負担の程度を評価の対象とするものである。例えば、被介護者の体位の状態から、限られた部位に介護訓練者の力が集中している場合には、当該部位に痛みが生じる程度か否かを算出することにより、介護訓練者の介護が適当なものであるかを評価するのである。なお、報知手段を備えることにより、被介護者の状態を介護訓練者に報知させることができる。
前記における報知手段としては、前記被介護者情報記録部に予め記録される声情報を音声として介護訓練者に覚知させるものとすることができる。
このような構成により、介護訓練者の行動が被介護者にとってどのような状態であるのかを、被介護者の音声的な情報によって聴覚を介して提示させることができる。当該声情報が場面に応じた数種類用意されていれば、その場面ごとに、被介護者に対する介護の状態を報知することができる。例えば、介護訓練者の行動によって被介護者が痛い、苦しいなどのマイナス情報を得ることで、介護動作の修正ができ、逆に、好ましい介護の場合は、快適であるなどのプラス情報を得ることで、介護動作が好適であることの確認も可能となる。
また、前記における報知手段としては、前記評価記録部に記録される評価に応じて、被介護者CGモデルの動作を表示することによって覚知させるとともに、前記力覚提示手段により該被介護者モデルの動作に応じた負荷を介護訓練者に与えることによって覚知させるものとすることができる。
このような場合には、介護訓練者の行動により被介護者の姿勢・体位がどのように変化するかを被介護者CGモデルによって表示でき、介護訓練者は、視覚を通じて介護動作の状態を確認することができる。これと同時に、介護訓練者に対する力覚的な提示を受けることにより、被介護者の姿勢・体位による負荷の変化を体験することが可能となる。さらに前述の音情報による覚知を併せる構成としてもよい。
ところで、前記構成における被介護者CGモデルは、前記被介護者情報記録部に記録される被介護者の体重、性別、体型、障害の部位および程度、外傷による可動の範囲および程度、身体部位ごとの質量、ならびに各関節の可動域の情報の群から少なくとも1種以上の情報を有する人体CGモデルであることが好ましい。
この場合、体重等の情報を有することにより、体重別に介護訓練者の行動が被介護者に与える作用が変化することとなり、体重等の異なる被介護者ごとに介護のための行動を変化させるべき訓練を可能とする。障害の部位や程度によって、被介護者がとり得る体位も変化するため、介護が要求される被介護者の特性に応じた介護訓練を行うことができる。
前記構成に加えて、さらに、介護訓練者に装着され、該介護訓練者の生理的な情報を取得するセンサと、このセンサにより測定される介護訓練者の生理的情報を記録する記録部とを備える構成としてもよい。
この場合には、介護訓練者の生理的情報をセンシングすることにより、介護訓練者が受ける負担の程度を客観的な数値として測定することができる。生理的情報を測定するための装置としては、例えば、脳波計、筋電位計、血流計、血圧計または心拍計などがあり、介護訓練者の心拍数や筋肉の状態などを総合的に検出して、負担の程度を判断する材料とすることができる。これは、初心者に限らず、慣れた介護担当者においても、その負担の程度を計測することができ、介護現場の状況を把握するための資料とすることができる。
上記各構成については、さらに、模範的な介護動作を行う教師の動作情報を記録する教師情報記録部と、この教師情報記録部に記録される動作情報により三次元による教師の人体CGモデルを教師CGモデルとして作成する教師CGモデル作成部とを備え、前記教師CGモデルは、前記表示部に重畳的に表示し、または前記訓練者CGモデルとの比較を可能な状態で記録されるものとすることができる。
このような構成の場合には、模範的な介護動作を手本として当該動作を真似た訓練が可能となる。このとき、教師の動作情報は、特定の(熟練した)介護専門家の動作を参考に作成されるものであってもよいが、複数の介護専門家または介護職員の動作状態から、共通または平均的な動作を総合して作成してもよい。
そこで、前記教師の動作情報は、予め作成され、または前記訓練者情報取得手段により取得されるものとする。
この場合、予め作成される動作情報により、画一的な教師CGモデルが表示されることから、複数の介護訓練者に対して画一的な訓練を可能にする。また、訓練者情報取得手段により取得される動作情報が利用される場合には、介護訓練中に、インストラクタとして参加する介護専門家等が現実に介護動作を行う状況を教師CGモデルとして表示させることができるので、現実のインストラクタの動作と、CG化された動作の双方を確認することができる。さらに、表示部に表示される被介護者CGモデルの体格・性別等に応じて異なる動作が必要な場合には、その都度インストラクタが介護動作を変更し、介護訓練者に提供することができる。なお、訓練者情報取得手段によって動作情報が取得される場合には、介護訓練者の運動状態に関する情報とともに同時に取得することも可能である。
また、教師CGモデルを作成する場合には、前記計算部により、さらに、前記訓練者CGモデルと前記教師CGモデルとを合成しつつ両CGモデルの相対的な位置関係を計算するものとし、前記力覚提示手段により、前記介護訓練者に装着される前記力覚デバイスに対し、両CGモデルの差違を補正するための負荷を提示するものとして構成することができる。
このような構成では、模範的な介護動作と介護訓練者の運動状態とが異なる場合に、その差違を補正するような力覚提示がなされることとなり、介護訓練者の運動状態を最適な状態へ誘導させることができる。なお、力覚デバイスによる力覚提示は、被介護者から受けるものと重畳させてもよく、また、差違補正のための力覚のみを提示するものでもよい。
また、上記とは異なり、教師CGモデルを作成する場合の計算部は、前記被介護者CGモデルと前記教師CGモデルとの相対的な位置関係を計算するものとし、前記力覚提示手段は、前記介護訓練者に装着される前記力覚デバイスに対し、計算部によって計算された被介護者CGモデルと教師者CGモデルとの相対的な位置関係に基づく接触情報を提示するものとして構成してもよい。
この場合には、模範的な介護動作を行った際に被介護者から受ける接触情報が、介護訓練者の力覚デバイスに提示されることから、介護専門家等が行う模範的な介護動作による感覚を介護訓練者に感じさせることができる。従って、介護訓練者が独自に行った介護動作と、介護専門家等が行った介護動作とで、被介護者から受ける重量等の感覚がでれだけ異なるか、どの程度の負担が軽減するのか等の感覚の相違を得ることが可能となる。
他方、介護ロボットまたは介護装置の評価装置にかかる本発明は、前述した構成のいずれかにおいて記載した介護用バーチャルリアリティシステムを使用するものであって、前記訓練者情報取得手段は、介護ロボットまたは介護装置の作動状態に関する情報を取得する装置作動情報取得手段であり、前記訓練者CGモデル作成部は、前記装置作動情報取得手段によって取得される介護ロボットまたは介護装置の作動状態の情報から、三次元による介護ロボットまたは介護装置の全体または一部のCGモデルを装置CGモデルとして作成する装置CGモデル作成部であることを特徴とする。
上記構成によれば、介護ロボットまたは介護装置(以下、まとめて「介護ロボット等」と称する)が被介護者に対して介護を補助する際、現実にどのような介護状態であるのかを、仮想空間上で評価することができる。特に、介護ロボット等に対し負荷を与えた場合、当該介護ロボット等が当該負荷に耐え得るものであるか否か、また、被介護者に苦痛を与えていないか否かを評価することができる。そして、介護ロボット等が被介護者に対し適切な介護補助を行うために、必要となる作動の条件などを検出し、製造または改良すべき問題点の発見に寄与させることができる。なお、力覚デバイスを構成する負荷装置は、介護訓練者の足部、腹部、手首部分、肩部、胸部などに装着される構成としているが、これを介護ロボット等に使用する場合は、前記各部位に該当する部分に装着されるものである。
介護訓練用バーチャルリアリティシステムにかかる本発明によれば、介護訓練者による介護のための訓練を可能にすることができる。また、介護ロボット等の評価装置にかかる本発明によれば、介護ロボット等の作動状態を評価し、介護に必要な作動をさせるロボット開発を可能にする。
介護訓練用バーチャルリアリティシステムにかかる実施形態の概略を示す説明図である。 介護者に装着される力覚デバイス(肘関節デバイス)の一例を示す説明図である。 介護者に装着される力覚デバイス(重量デバイス)の一例を示す説明図である。 介護者に装着される力覚デバイス(重量デバイス)による負荷の状態を示す説明図である。 介護訓練用バーチャルリアリティシステムにかかる実施形態に使用されるソフトウエアの構成図である。 介護訓練用バーチャルリアリティシステムにかかる実施形態に使用される被介護者の人体CGモデルの一例を示す説明図である。 介護訓練用バーチャルリアリティシステムにかかる実施形態に使用される介護訓練者の人体CGモデルの一例を示す説明図である。 介護者に装着される力覚デバイスの他の例を示す説明図である。
以下、本発明の実施の形態を図面に基づいて説明する。図1は、介護訓練用バーチャルリアリティシステムにかかる実施形態の概略を示す説明図である。この図に示されるように、本実施形態は、介護訓練者THの運動状態に関する情報を取得するための映像取得部1と、この映像取得部1で取得される映像から、運動状態に関する情報を算出する第1の計算機(クライアントPC)PCaと、この計算機PCaによって算出された情報に基づき、介護訓練者の人体CGモデルを作成し、また、予め被介護者の人体CGモデルが記録されている第2の計算機(サーバPC)PCbと、この第2の計算機PCbから出力されるデータに基づき画像表示するための表示装置2と、第2の計算機PCbから出力される力覚データにより作動するモータドライバ3とを備えている。第2の計算機PCbは、周辺機器とともに介護訓練現場に設置される場合もあれば、サーバコンピュータとして、遠隔地に設置される場合があり得る。第1の計算機PCaからのデータの入力、表示装置2およびモータドライバ3へのデータ出力は、電気通信回線(インターネット回線等)を利用して伝送される構成としてもよい。なお、第1および第2の計算機PCa,PCbは、いずれも、演算のためのCPU、データを記録するHDD、入力操作部、メモリ等の記憶装置を備えており、各種のデータを処理することができるものである。
映像取得部1は、いわゆる光学式モーションキャプチャを使用することができ、例えば、複数のCCDカメラ等による撮影装置11,12,13,14,15により、介護訓練者の動きを連続的に撮影するとともに、これらの映像が映像入力部10に入力されるものである。映像入力部10には入力用のハブが介在され、各撮影装置11〜15により撮影された映像が各点ごとに区分して入力されている。各撮影装置11〜15は位置が固定された定点撮影とされ、複数点から得られる情報により三次元情報として処理され得るものとなっている。なお、予め基本的な三次元情報を作成することによって、少なくとも1台の撮影装置によって定点撮影されることにより、所望の三次元情報を取得することも可能である。また、撮影される介護訓練者には、ターゲットTGが装着される場合があり、撮影装置11〜15によって撮影される映像からターゲットの変位の情報を利用することも可能である。
第1の計算機PCaは、介護訓練者の動きを撮影した映像を処理するものであり、その映像から介護訓練者の運動状態が計算される(計測部として機能する)。特に、ターゲットTGの変位(移動方向および移動距離)を検出することにより、介護訓練者の運動状態の全体が計算されるものであり、前記映像取得部1とともにいわゆる光学的モーションキャプチャシステムとして運動状態をデジタル信号に変換するものである。従って、映像取得部1および第1の計算機PCaにより、介護訓練者の運動状態に関するデジタル情報を取得するものであることから、これらが訓練者情報取得手段として機能するものである。なお、この第1の計算機PCaによって取得される介護訓練者の運動状態に関するデータは、第2の計算機PCbに入力されるものである。
第2の計算機PCbは、第1の計算機PCaから送出されるデータに基づいて、介護訓練者の人体CGモデルを作成するものであり、訓練者CGモデル作成部として機能するものである。また、この第2の計算機PCbには、予め作成された被介護者の人体CGモデルが記録されている。記録される被介護者の人体CGモデルは、訓練対象となる被介護者に関する情報から作成されるものであり、この被介護者の関する情報は第2の計算機PCaに内蔵されるHHD等の記録装置(被介護者情報記録部)に記録されており、これらの情報に基づいて、当該計算機PCbによって作成される。つまり第2の計算機PCbが被介護者CGモデル作成部として機能するものである。
また、この第2の計算機PCbは、被介護者CGモデルと訓練者CGモデルを、表示装置2に表示するためのデータを作製し、表示装置2には、両者のCGモデルが重畳的に表示されるようになっている。二者のCGモデルが重畳的に表示されることから、両者のCGモデルの相対的な位置関係(各部位の距離等)は、第2の計算機PCbによって計算され、その情報は記憶されている。つまり、第2の計算機PCbは計算部としても機能する。
従って、撮影装置11〜15によって撮影される介護訓練者が移動すれば、訓練者CGモデルも移動し、被介護者CGモデルとの相対的な位置関係は変化することとなる。そして、その相対的な位置関係により、仮想的な介護訓練者に接触することが可能となる。そこで、介護訓練者は、表示装置2に表示される自身のCGモデルと、被介護者CGモデルとの状態を観察しながら、仮想的な被介護者を介護するための動作を行うのである。そして、仮想空間上において、被介護者に対し介護訓練者が介護動作をするとき、被介護者から受ける負荷に相当する荷重が、第2の計算機PCbによって演算され、電圧値のデータとしてモータドライバ3へ出力されるのである。
他方、介護訓練者には、予めモータを有する力覚デバイス(詳細は後述する)としてのハプティックインターフェースが装着されており、モータドライバ3から出力される出力値に応じてモータが駆動し、そのモータの駆動状体に応じて、介護訓練者に対して負荷を与えるようになっている。すなわち、本実施形態ではモータドライバ3が力覚提示手段として機能しているのである。このモータドライバ3は、力覚デバイス(ハプティックインターフェース)を構成するモータに対し電流値を制御しつつ出力するものである。出力される電流の値に応じてモータのトルクが変化し、それに対応する負荷を介護訓練者に与えるのである。
このように、介護訓練者は、自身の介護動作を行う際の運動状態がリアルタイムに映像処理され、CG画像化されることにより、被介護者のCG画像を観察しながら、自身の動作を変化させることができる。被介護者CGモデルとの接触により得られる感覚は、力覚デバイスによって荷重として付与されるため、介護動作による現実に近似する重量感を得ることができるのである。
ここで、力覚デバイスの一例について説明する。図2は肘関節に対する力覚デバイスを例示し、図3は腰に受ける重量を作用させる力覚デバイスの例示である。まず、図2(a)に示すように、肘関節に対する力覚デバイス(負荷装置)5は、介護訓練者の上腕部UAと前腕部FAとのリンク機構51,52が装着され、さらに、肩SHの近傍から手首RWの間には紐状の操作帯53が懸架されている。リンク機構51,52は、リンク節50によって回動可能な状態で連結され、各先端51a,52aが装着部54,55によって上腕部UAおよび前腕部FAにそれぞれ固定されるものである。また、操作帯53は、前記リンク機構51,52のリンク節50を外方から肘ELへ向けて押圧する状態で懸架され、かつ、肩SHの側に設けられたモータ内蔵型の巻回部56によって巻回可能になっている。なお、巻回部56は装着部57によって肩SHの近傍に固定され、操作帯56の他端は手首RWに装着する装着部58に固定されている。なお、リンク機構51,52、操作帯53および巻回部56が固定される装着部54,55,57,58は、それぞれ帯状に形成され、両端を面ファスナ等で接続することにより環状にすることができるものであり、リンク機構51,52の各先端に集中する押圧力を適当に分散させるため、皮革等の硬い素材によって設けられている。
上記構成により、図2(b)に示すように、巻回部56に内蔵されるモータが作動することにより、操作帯53が巻回されてリンク節50を肘ELの方向へ押圧し、リンク機構51,52の両先端51a,52aの幅が拡張するように強制されるのである。これにより、肘関節が伸ばされるような荷重が付与されるのである。なお、巻回部56にはモータにより制御された所定のトルクが作用するため、腕の筋肉により人為的に肘関節を反対方向へ曲げることにより、当該負荷との間で均衡させることができる。従って、反対方向へ強い力で抵抗すれば負荷を超えて肘関節を伸ばすことも可能である。その他、操作帯53をバネまたはゴム材等の弾性部材によって構成し、付与される負荷が弾性力によって作用させてもよい。
また、腰に与える重量感等の力覚提示は、図3に示すように、足部と胴部との間に設けることで実現可能である。すなわち、図3に示すように、この力覚デバイスは、足部FTに装着される靴型の装着部6と胴部TRに装着される装着部7と、両装着部6,7の間に懸架される紐状の二本の操作帯8,9とで構成されるものである。操作帯8,9は、介護訓練者THの前方と後方に分かれて各一本装着されるものであり、その各上端8a,9aは、それぞれ胴部TRの装着部7に固定されている。靴型の装着部6には、介護訓練者THの足部FTの爪先TOの側と、踵HLの側とに、それぞれ巻回ドラム61,62が設けられ、この巻回ドラム61,62は、それぞれモータM1,M2によって回転駆動されるものである。従って、このモータM1,M2が作動することにより、両操作帯8,9を巻回し、胴部TRを下向きに誘導することができるようになっている。なお、これらの力覚提示デバイスは、左右両方に対称な状態で装着されるものである。
そこで、各モータM1,M2を作動させた状態を図4に示す。まず、図4(a)に示すように、前方の操作帯8のみを巻回した場合には、胴部TRの前側のみが下向きに引っ張られることとなり、介護訓練者THは、前傾状態となるような力覚が提示されることとなる。この状態は、介護訓練者THが前方へ引っ張られている状態、または被介護者に対し腕で上方向へ持ち上げるような動作をしている状態などで生じる。この前傾の程度は、介護訓練者THの行動状態によって作用し、モータM1が、その程度に相当するトルクを生じさせているものである。
また、図4(b)は、後方の操作帯9のみが巻回された状態である。この場合は、介護訓練者THの後ろ側のみが下向きに引っ張られる状態となり、介護訓練者THが反り返るような状態を力覚提示するものである。このような介護訓練者THが反り返る状態とは、介護訓練者THが胴部TRを押された状態、または、バランスを崩して重心が後ろ寄りになった状態などがあり得る。
さらに、図4(c)に示すように、両方の操作帯8,9が同時に巻回される場合には、介護訓練者THの胴部TRの全体が下向きに引っ張られる状態となる。これは、例えば被介護者を抱き上げた場合などで生じ得る。このとき、当該重量に相当する荷重が両操作帯8,9を介して胴部TRに作用するため、腰を落とした状態によって、その重量に耐える動作を介護訓練者に強いるものとなる。
このように、操作帯8,9による荷重の作用により、介護訓練者THが介護動作の際に受けるであろう荷重を再現し得るような力覚を提示することができるのである。さらに、これらの操作帯等の方向や負荷方向等を調整することにより、あらゆる場面で受けるであろう負荷を介護訓練者THに力覚提示することができる。例えば、肩部と胸部との間に設置することにより、肩の回転方向への負荷や、上半身に対する前傾方向の負荷を体験することも可能となる。これらは、個々に異なる身体部位に対する負荷を与える負荷装置であるが、全体として力覚デバイスとして、力覚提示の対象となるものである。そして、このような複数の負荷装置によって所定の負荷を受けることにより、仮想空間内における介護訓練でありながら、現実の介護の際の状況を感じることができるのである。なお、力覚モジュールに対する力覚提示は、前記第2の計算機PCbによって計算された負荷量を、モータ駆動のための制御電流に変換して出力されるものであるが、介護訓練者の負担等を考慮して、予め限界負荷量を設定し、これを超える負荷量の出力を制限するように構成することができる。このとき、限界負荷量を超過したことが認識できるように、力覚デバイスの一部または全部の作動を停止させる(機能を中止させる)ように構成してもよい。また、力覚デバイスは、前述のような強力な負荷に限定されるものではなく、摩擦等の接触状態(接触情報)を提示する装置などを負荷することができ、掌や甲または胸部に被介護者が触れる感覚を与えるようにしてもよい。
次に、上述のような仮想空間における現実の負荷を体験させるためのデータ処理のための装置について概略説明する。図5は、第2の計算機PCbの構成の概略を示す図である。この図に示されるように、第2の計算機PCbの処理装置には、記憶部100、処理部200および付加処理部300などが構成されている。
記憶部100は、3Dモデル情報101およびテクスチャー情報(感覚情報)102などが記録されている。3Dモデル情報101には、被介護者に関する外形上の特徴がデータ化され、また、性別、体型、障害の部位および程度、各関節等の可動域、外傷等による可動限界など、被介護者CGモデルの作製に必要な基礎的情報が全て記録されている。また、テクスチャー情報102には、一般的な感覚情報のほかに、被介護者の身体部位ごとの質量などが含まれている。記録部100に記録される被介護者の3Dモデルや感覚情報は処理部200に出力され、処理部200によって被介護者のCGモデルが作成される。
処理部200は、コントロール部201,レンダリング処理部202,物理演算エンジン203などで構成され、コントロール部201が、データの入出力指令、演算指令、記憶指令、記録指令などを行い、データ処理の全体をコントロールしている。記録部100から入力される3Dモデル情報等101,102は、レンダリング処理部202により、レンダリング処理がなされ、被介護者3Dモデルが作製される。また、物理演算エンジン203により、被介護者の身体部位ごとの位置や全体姿勢・体位等による物理現象が演算処理される。これらの情報は、付加処理部300の処理を経由し、最終的にはハードウエア(力覚デバイス、表示部)に出力される。
付加処理部300は、処理部200による処理後のデータ等を記録する記録モジュール301と、処理後の3Dモデルの相互間における相対的な位置関係および質感情報を制御するコリジョン/ダイナミック処理部302などで構成されている。さらに、インターフェースを介して入力されるデータの読み取りを行うためのデータ読取部303が構成されている。付加処理部300に入力される外部情報(介護訓練者情報等)は、処理部200に入力され、訓練者CGモデルが作製され、付加処理部300に入力される。なお、付加処理部300に対する外部装置の取得情報は、ネットワークを介して入力され、またはモーションキャプチャシステムから直接入力されるものである。モーションキャプチャシステムとしては、例えば、Kinect(登録商標)SDKなどがある。
付加処理部300の記録部301は、では、処理部200のレンダリング処理部202で作製される被介護者3Dモデルおよび訓練者3Dモデルを記録モジュール301に記録する。コリジョン/ダイナミック処理部302は、これらの3Dモデルの情報から相対的な位置関係を計算し、また、感覚情報を作製する計算部として機能する。この感覚情報としては、介護訓練者に対する荷重の大きさ、場所、方向、向きなどである。ここで作製される感覚情報は、ハードウエアに出力され、前述の力覚デバイスにより、介護訓練者に対して力覚提示されることとなる。相対的な位置関係が計算された状態の両CGモデルは、外部ディスプレイ(表示部)に重畳的に表示されることとなる。また、付加処理装置300により、両CGモデルの相対的な位置関係がリアルタイムで算出するような処理がされ、CGモデル化された両者の状態がコントロールされるとともに、表示部に表示される被介護者の3Dモデルの状態を変化させるように処理している。
ここで、前記処理によって作製される被介護者CGモデルの一例を図6に示し、訓練者CGモデルの一例を図7に示す。これらのCGモデルの例に示されるように、予め用意される人体モデルを使用し、被介護者については全体を特定部位ごとに区分し(図6の白線部分参照)、各部位ごとの大きさ、長さ等に応じてレンダリング処理される。他方、介護訓練者については、例えば、上半身のみについて特定部位に区分され(図7の白線部分参照)各部位の状態がレンダリング処理されるものである。このように、被介護者および介護訓練者のそれぞれについて、各部位ごとのレンダリング処理が完成した状態で、その姿勢・体位の情報とともにCG化され、表示画面に映像として表示される。介護訓練者については、上半身でなく全身についてCG化してもよいが、この例示では、上半身(特に腕)の動作を人体CGモデルとして表現している。これは、介護訓練の状態を表示部から映像で把握するためには、全体のCG画像よりも上半身(特に両腕周辺)の画像を表示することが見やすいためである。なお、介護訓練者の情報は、前述のように、全身の運動状態に関する情報が取得されているため、CGモデルとして表示されていない部分についてもデータ化されており、これらを総合的に処理されたうえで上半身のみがCGモデル化されるのである。
このように、被介護者および介護訓練者の双方を人体CGモデルで表示することにより、表示装置に表示される映像を参照しつつ、介護動作を行うことができ、その状態から介護訓練者が自身で判断する動作を行うことができる。
なお、人体CGモデルは、三次元に作成されているため、3D表示が可能な3Dモニタを使用することによって、三次元の仮想空間を観察することができる。また、表示装置としては、ヘッドマウントを使用することも可能である。
以上のように、本実施形態により、介護訓練者は、仮想空間内において被介護者を介護することにより、介護のための練習を行うことができると同時に、介護の際に受ける荷重を現実に得ることができることから、仮想空間上でありながらリアルな介護訓練を行うことができる。
このような装置を使用することにより、介護現場において、現実の被介護者を介護するよりも前に介護による荷重の状態を体験できることとなる。つまり、被介護者に対する扱い方や、介護者自身の身体(筋肉)の使用方法を体得できることとなる。これは、介護現場における実践による体験では、失敗は許されないことも多いが、そのような失敗を予め体験することで、介護現場での再発を防止することに資するものである。
また、介護未経験者に対し、介護の負担を経験させることができ、介護者が日常的に受ける負担の程度を体験的に知ることも可能となる。さらに、介護の方法によっては、被介護者が受ける負担もCGモデル上で確認できることから、それぞれ異なる立場の負担を共有させるために利用することもできる。
本発明の実施形態は上記のとおりであるが、本発明が上記実施形態に限定されるものではない。従って、上記実施形態に他の機能を追加することは可能である。例えば、介護者が被介護者の介護を現実に行った場合に得られる接触の状態(接触情報)を予め定量的また定性的な数値として記憶部100(図5)に記録しておき、CGモデルを使用した訓練時における力覚提示手段により提示される接触情報を定量的または定性的な数値に変換し、これを記憶モジュール301(図5)に記憶させ、現実の接触情報を読み出しながら訓練時の接触情報とを比較することによって、介護状態を評価するように各情報を処理するように構成してもよい。このときの評価は、負荷処理部300に評価処理部(第2の計算部)を設けることによって処理させることができる。そして、この評価の内容は、介護訓練者に覚知できる方法で報知することにより、介護訓練者が画像の上では判断でき難い介護状態を把握することができる。この場合の報知の方法としては、被介護者に関する情報に含まれる声情報を記憶部100から読み取り、ハードウエアとしてのスピーカから出力するものがあり得る。また、評価に応じて被介護者CGモデルの姿勢・体位などを変化させ、画像として表示する場合、その姿勢・体位等の変化に応じて、さらに力覚部デバイスを介して負荷を与える場合などもあり得る。
また、例えば、介護訓練者に対し、生理的情報をセンシングするセンサを装着することにより、介護時における介護者の生理的な情報を得ることができる。この生理的な情報のセンシングには、例えば、脳波計、筋電位計、血流計、血圧計または心拍計などがあり、介護訓練者の心拍数や筋肉の状態などを総合的に検出することも可能である。これらの情報は、介護動作全般において取得され、記録されることにより、介護全体を評価する際に使用することができる。
上記とは逆に、被介護者の情報を検出するように、無理な姿勢等に基づいて被介護者が受ける苦痛を検出する機能を持たせてもよい。この場合には、介護訓練者の強引な介護を発見することとなり、被介護者にやさしい介護を実現させることができる。
さらに、模範的な介護動作を行う教師の動作情報を予め取得し、これを記憶部100(図5)に記録させており、この教師の動作情報に基づく人体CGモデル(教師CGモデル)としてレンダリング処理を行い、表示部に重畳的に表示してもよい。この場合、教師の動作情報を記録するために、記録部100には教師情報記録部がさらに構成されることとなる。このように教師CGモデルが映像として表示部に表示されることにより、介護訓練者の運動状態との比較が可能となり、介護の基本的な動作を真似ながら体得することが可能となる。なお、教師の動作情報は、予め取得する場合のほか、介護訓練者と同様に、モーションキャプチャシステムを介して取得するものであってもよい。この場合、教師の動作情報は、付加処理部300の記録モジュール301に記録させることができ(図5)、モーションキャプチャシステムは、介護訓練者とともに、同じものを使用することができる。また、異なる場所で同種のモーションキャプチャシステムによって取得した情報を伝送させて、付加処理部300で合成処理させてもよい。
このように、教師CGモデルを作製する場合には、コリジョン/ダイナミック処理部302により、介護訓練者CGモデルとの相対的な位置関係が計算されることにより、両者の異なる動作を検出することが可能となる。この場合、力覚デバイスに対する力覚提示は、両者の差違を補正する(修正する)ような動作方向へ負荷を与えるようにしてもよい。これにより、介護訓練者は適正な運動状態に誘導され、介護動作が矯正されることとなる。
また、教師CGモデルおよび被介護者CGモデルを表示部に重畳的に表示させることにより、CG画面上における適正な運動状態を視覚的に得られることができるのであり、その際に、教師CGモデルにより得られる荷重の状態(接触情報)を介護訓練者に作用させてもよい。すなわち、被介護CGモデルモデルと教師CGモデルとの相対的な位置関係をコリジョン/ダイナミック処理部302により計算させ、力覚を提示させる際に、その力覚を介護訓練者に提示するのである。このような場合には、模範的な介護動作を行った際に被介護者から受ける接触情報が、介護訓練者の力覚デバイスに提示されることから、模範的な介護動作によって受ける負荷や感覚を介護訓練者が得ることになるのである。その負担の程度を介護訓練者が知ることにより、自身の介護動作の場合との感覚的な比較を可能にするものである。
なお、介護訓練者に代えて介護ロボット等が介護する状態を前述のシステムによって作動させることも可能である。この場合には、介護の体験という目的ではなく、介護ロボット等が正常に作動するか否かを評価し、また、当該介護ロボット等による介護によって被介護者に苦痛を生じさせていないか否かを評価することを目的として使用することとなる。この場合においても、介護ロボット等が本来的に作動すべき状態を教師CGモデルとして作製することができ、評価対象とされる介護ロボット等のCGモデルと教師CGモデルとを比較することにより、定量的または定性的な数値によって評価することが可能となる。
また、力覚デバイス(負荷装置)は、前記に限定されるものではなく、そのほかに、介護訓練者の他の関節に対する負荷を与えるものを使用することができる。例えば、図8に示すような肩関節の向き等に対する負荷を与えるものを使用してもよい。肩関節に対しては、この図に示されるように、胴部TRの上方と下方とに懸架された操作帯81,82をモータ内蔵の巻回部83,84が巻回することによって、胸部または肩胛骨周辺部と腹部との間に負荷を与え、胴部TRのみに対する前傾方向または反り返り方向の状態を強制させることができる。これは、肩関節全体を前方または後方へ移動させるものである。さらには、胴部TRの上方と両肩部SH1,SH2との間に操作帯91,92を懸架し、これをモータ内蔵の巻回部93,94によって巻回させることにより、肩部SH1,SH2に対し個別に負荷を作用させることができる。同種の負荷装置を介護訓練者THの前面および後面に装着し、異なる負荷を与えることにより、肩部SH1,SH2の向き(回転方向)に対する力覚を提示し得ることとなる。
1 撮影装置
2 表示装置
3 モータドライバ
4 ハプティックインターフェース
11,12,13,14,15 撮影装置(カメラ)
5 力覚デバイス(負荷装置)
6,7 装着部
8,9 操作帯
8a,9a 操作帯の上端
50 リンク節
51,52 リンク機構
51a,52a リンク先端
53 操作帯
54,55 装着部
56 巻回部
57,58 装着部
61,62 巻回ドラム
81,82,91,92 操作帯
83,84,93,94 巻回部
100 記録部
101 3Dモデル情報
102 テクスチャー情報
200 処理部
201 コントロール部
202 レンダリング処理部
203 物理演算エンジン
300 負荷処理部
301 記録モジュール
302 コリジョン/ダイナミック処理部
303 データ読取部
M1,M2 モータ
TH 介護訓練者
TG ターゲット
PCa 第1の計算機
PCb 第2の計算機

Claims (15)

  1. 被介護者に対する介護訓練者による介護の状態を仮想的に体験するための介護訓練用バーチャルリアリティシステムであって、
    被介護者の情報が記録される被介護者情報記録部と、
    この被介護者情報記録部の情報により三次元による被介護者の人体CGモデルを被介護者CGモデルとして作成する被介護者CGモデル作成部と、
    介護訓練者の運動状態に関する情報を取得する訓練者情報取得手段と、
    この訓練者情報取得手段によって取得される訓練者の運動状態の情報から、三次元による介護訓練者の全身または一部の人体CGモデルを訓練者CGモデルとして作成する訓練者CGモデル作成部と、
    前記被介護者CGモデルと訓練者CGモデルとを重畳的に表示する表示部と、
    前記表示部に表示される被介護者CGモデルと訓練者CGモデルとの相対的な位置関係を計算する計算部と、
    介護訓練者に装着され、介護訓練者に所定の負荷を付与するための力覚デバイスと、
    前記計算部によって計算された被介護者CGモデルと訓練者CGモデルとの相対的な位置関係に基づき、接触情報を前記力覚デバイスに提示する力覚提示手段と
    を備えることを特徴とする介護訓練用バーチャルリアリティシステム。
  2. 前記力覚デバイスは、介護者訓練者の足部と腹部との間に懸架され、腰部に負荷を与える第1の負荷装置と、手首部分から肩部までの範囲内に配置され、肘関節部に負荷を与える第2の負荷装置とを備えるものである請求項1に記載の介護訓練用バーチャルリアリティシステム。
  3. 前記力覚デバイスは、さらに、胸部と肩部との間に配置され、肩部の回転方向または前傾方向に負荷を与える第3の負荷装置を備えるものである請求項2に記載の介護訓練用バーチャルリアリティシステム。
  4. 前記力覚提示手段は、前記人体CGモデルに予め与えられた重量情報に基づき、前記各負荷装置の負荷量を計算するとともに、限界負荷量を超える負荷を算出した場合に負荷装置の作動を停止させるものである請求項2または3に記載の介護訓練用バーチャルリアリティシステム。
  5. 前記訓練者情報取得手段は、前記介護訓練者の姿勢を少なくとも1個所から撮影する撮影手段と、この撮影手段により撮影された介護訓練者の特定部位の変位に基づいて、介護訓練者の運動状態を計測する計測部とを備えるものである請求項1ないし4に記載の介護訓練用バーチャルリアリティシステム。
  6. さらに、前記力覚提示手段により提示される接触情報を定量的または定性的な数値として記憶する記憶部と、介護訓練者に対する現実の接触情報と前記定量的または定性的な数値とを比較したときの結果を評価として算出する第2の計算部と、この計算結果に基づく評価の内容を記録する評価記録部と、前記評価の内容を介護訓練者に報知する報知手段とを備えている請求項1ないし5のいずれかに記載の介護訓練用バーチャルリアリティシステム。
  7. 前記報知手段は、前記被介護者情報記録部に予め記録される声情報を音声として介護訓練者に覚知させるものである請求項6に記載の介護訓練用バーチャルリアリティシステム。
  8. 前記報知手段は、前記評価記録部に記録される評価に応じて、被介護者CGモデルの動作を表示することによって覚知させるとともに、前記力覚提示手段により該被介護者モデルの動作に応じた負荷を介護訓練者に与えることによって覚知させるものである請求項6に記載の介護訓練用バーチャルリアリティシステム。
  9. 前記被介護者CGモデルは、前記被介護者情報記録部に記録される被介護者の体重、性別、体型、障害の部位および程度、外傷による可動の範囲および程度、身体部位ごとの質量、ならびに各関節の可動域の情報の群から少なくとも1種以上の情報を有する人体CGモデルである請求項1ないし8のいずれかに記載の介護訓練用バーチャルリアリティシステム。
  10. さらに、介護訓練者に装着され、該介護訓練者の生理的な情報を取得するセンサと、このセンサにより測定される介護訓練者の生理的情報を記録する記録部とを備える請求項1ないし9のいずれかに記載の介護訓練用バーチャルリアリティシステム。
  11. さらに、模範的な介護動作を行う教師の動作情報を記録する教師情報記録部と、この教師情報記録部に記録される動作情報により三次元による教師の人体CGモデルを教師CGモデルとして作成する教師CGモデル作成部とを備え、前記教師CGモデルは、前記表示部に重畳的に表示し、または前記訓練者CGモデルとの比較を可能な状態で記録されるものである請求項1ないし10のいずれかに記載の介護訓練用バーチャルリアリティシステム。
  12. 前記教師の動作情報は、予め作成され、または前記訓練者情報取得手段により取得されるものである請求項11に記載の介護訓練用バーチャルリアリティシステム。
  13. 前記計算部は、さらに、前記訓練者CGモデルと前記教師CGモデルとを合成しつつ両CGモデルの相対的な位置関係を計算するものであり、前記力覚提示手段は、前記介護訓練者に装着される前記力覚デバイスに対し、両CGモデルの差違を補正するための負荷を提示するものである請求項11または12に記載の介護訓練用バーチャルリアリティシステム。
  14. 前記計算部は、前記被介護者CGモデルと前記教師CGモデルとの相対的な位置関係を計算するものであり、前記力覚提示手段は、前記介護訓練者に装着される前記力覚デバイスに対し、計算部によって計算された被介護者CGモデルと教師者CGモデルとの相対的な位置関係に基づく接触情報を提示するものである請求項11または12に記載の介護訓練用バーチャルリアリティシステム。
  15. 前記介護訓練者に代わる介護ロボットまたは介護装置による介護状態を評価するための装置であって、請求項1に記載の介護訓練用バーチャルリアリティシステムを使用する介護ロボットまたは介護装置の評価装置であり、
    前記訓練者情報取得手段は、介護ロボットまたは介護装置の作動状態に関する情報を取得する装置作動情報取得手段であり、
    前記訓練者CGモデル作成部は、前記装置作動情報取得手段によって取得される介護ロボットまたは介護装置の作動状態の情報から、三次元による介護ロボットまたは介護装置の全体または一部のCGモデルを装置CGモデルとして作成する装置CGモデル作成部であり、
    前記表示部は、前記被介護者CGモデルと前記装置CGモデルとを重畳的に表示するものであり、
    前記計算部は、前記表示部に表示される被介護者CGモデルと前記装置CGモデルとの相対的な位置関係を計算するものであり、
    前記力覚デバイスは、前記介護ロボットまたは介護装置に装着され、該介護ロボットまたは介護装置に所定の負荷を付与するものであり、
    さらに、前記介護ロボットまたは介護装置が本来的に作動すべき情報を記録する教師情報記録部と、この教師情報記録部に記録される作動情報を教師CGモデルとして作成する教師CGモデル作成部と、前記装置CGモデルと前記教師CGモデルとを定量的または定性的な数値によって比較したときの結果を評価として算出する第2の計算部と、この計算結果に基づく評価の内容を記録する評価記録部とを備える
    ことを特徴とする介護ロボットまたは介護装置の評価装置。
JP2015030679A 2015-02-19 2015-02-19 介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置 Active JP6586688B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015030679A JP6586688B2 (ja) 2015-02-19 2015-02-19 介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015030679A JP6586688B2 (ja) 2015-02-19 2015-02-19 介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置

Publications (2)

Publication Number Publication Date
JP2016151750A JP2016151750A (ja) 2016-08-22
JP6586688B2 true JP6586688B2 (ja) 2019-10-09

Family

ID=56696480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015030679A Active JP6586688B2 (ja) 2015-02-19 2015-02-19 介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置

Country Status (1)

Country Link
JP (1) JP6586688B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110720909B (zh) * 2018-07-17 2023-04-18 广州科安康复科技有限公司 基于肌电生物反馈的腰腹部核心肌群整体康复训练系统及其应用
JP2020173326A (ja) * 2019-04-10 2020-10-22 新日本建工株式会社 現場作業教育システム
CN117690541B (zh) * 2024-02-01 2024-04-30 深圳大学总医院 一种护理记录系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2852880B2 (ja) * 1995-03-10 1999-02-03 川崎重工業株式会社 教育装置
JP4403474B2 (ja) * 1999-12-09 2010-01-27 ソニー株式会社 触覚提示機構及びこれを用いた力触覚提示装置
JP4328441B2 (ja) * 2000-01-14 2009-09-09 パナソニック電工株式会社 情報提供システム
JP2004178222A (ja) * 2002-11-26 2004-06-24 Matsushita Electric Works Ltd 組立性評価方法及びそれを用いた組立性評価支援装置
JP3802483B2 (ja) * 2002-12-26 2006-07-26 大日本印刷株式会社 書道学習支援システム、コンピュータ、プログラム、及び記録媒体
JP2004348095A (ja) * 2003-03-26 2004-12-09 National Institute Of Advanced Industrial & Technology トレーニングシステム
US20080009771A1 (en) * 2006-03-29 2008-01-10 Joel Perry Exoskeleton
JP2009113184A (ja) * 2007-11-09 2009-05-28 Nagoya Institute Of Technology 受動的力覚フィードバック装置および受動的力覚フィードバックシステム
JP5238626B2 (ja) * 2008-06-27 2013-07-17 学校法人東京工芸大学 感覚提示装置

Also Published As

Publication number Publication date
JP2016151750A (ja) 2016-08-22

Similar Documents

Publication Publication Date Title
US20210272376A1 (en) Virtual or augmented reality rehabilitation
US11521107B2 (en) Learning system, rehabilitation support system, method, program, and trained model
US20170136296A1 (en) System and method for physical rehabilitation and motion training
JP5016687B2 (ja) 人体における筋力と関節モーメントとをリアルタイムでインタラクティブに視覚化する方法
Lee et al. A wearable device for real-time motion error detection and vibrotactile instructional cuing
US8696450B2 (en) Methods for analyzing and providing feedback for improved power generation in a golf swing
TWI396572B (zh) 健身系統
EP2180926B1 (en) System and method for displaying selected information to a person undertaking exercises
JP5575652B2 (ja) レンダリングされた像の表示設定を選択するための方法及びシステム
US11521511B2 (en) Processing system, walking training system, processing method, and program
US20200401214A1 (en) Systems for monitoring and assessing performance in virtual or augmented reality
JP6586688B2 (ja) 介護訓練用バーチャルリアリティシステムおよび介護ロボットまたは介護装置の評価装置
JP2013013667A (ja) 運動能力検査装置
JP7122090B2 (ja) 熟練動作教示システム
Lin et al. Development and validation of robot patient equipped with an inertial measurement unit and angular position sensors to evaluate transfer skills of nurses
US20190125220A1 (en) Systems, devices, and methods for determining an overall motion and flexibility envelope
Bauer et al. Interactive visualization of muscle activity during limb movements: Towards enhanced anatomy learning
US20190117129A1 (en) Systems, devices, and methods for determining an overall strength envelope
WO2021032970A1 (en) Joint motion capture
JP5544651B2 (ja) 筋骨格系機構システム
US11210966B2 (en) Rehabilitation support system, rehabilitation support method, and rehabilitation support program
TWI580404B (zh) 肌肉張力感測方法及系統
WO2011056152A1 (en) Device for exercising the musculoskeletal and nervous system
Dunaj et al. Human-robot communication in rehabilitation devices
KR20240047282A (ko) 운동 프로그램을 제공하는 전자 장치 및 웨어러블 장치, 이들의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6586688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250