JP7448943B2 - Rehabilitation support device, method and program - Google Patents

Rehabilitation support device, method and program Download PDF

Info

Publication number
JP7448943B2
JP7448943B2 JP2020077242A JP2020077242A JP7448943B2 JP 7448943 B2 JP7448943 B2 JP 7448943B2 JP 2020077242 A JP2020077242 A JP 2020077242A JP 2020077242 A JP2020077242 A JP 2020077242A JP 7448943 B2 JP7448943 B2 JP 7448943B2
Authority
JP
Japan
Prior art keywords
user
rehabilitation
head
target object
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020077242A
Other languages
Japanese (ja)
Other versions
JP2021060957A5 (en
JP2021060957A (en
Inventor
正彦 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medivr Inc
Original Assignee
Medivr Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019184295A external-priority patent/JP6710845B1/en
Application filed by Medivr Inc filed Critical Medivr Inc
Priority to JP2020077242A priority Critical patent/JP7448943B2/en
Publication of JP2021060957A publication Critical patent/JP2021060957A/en
Publication of JP2021060957A5 publication Critical patent/JP2021060957A5/ja
Application granted granted Critical
Publication of JP7448943B2 publication Critical patent/JP7448943B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 1.公開日 平成30年10月24日 刊行物 Progress in Rehabilitation Medicine Volume 3(2018) 2.販売日 平成31年3月26日 販売した場所 株式会社mediVR 大阪本社Application of Article 30, Paragraph 2 of the Patent Act 1. Publication date October 24, 2018 Publication Progress in Rehabilitation Medicine Volume 3 (2018) 2. Date of sale: March 26, 2019 Place of sale: mediVR Co., Ltd. Osaka Head Office

本発明は、リハビリテーション支援装置、その方法およびプログラムに関する。 The present invention relates to a rehabilitation support device, its method, and program.

上記技術分野において、特許文献1にはリハビリテーションを支援するシステムが開示されている。 In the above technical field, Patent Document 1 discloses a system for supporting rehabilitation.

特開2015-228957号公報Japanese Patent Application Publication No. 2015-228957

しかしながら、上記文献に記載の技術では、リハビリテーション中のユーザに危険が及ぶことを回避することができなかった。ヘッドマウントディスプレイを装着すると周りが見えないため、例えば実空間中の物体に衝突すると、身構えることができずに、捻挫など、ユーザが怪我をしてしまう可能性が高かった。 However, with the technology described in the above-mentioned document, it was not possible to avoid danger to the user undergoing rehabilitation. When wearing a head-mounted display, users cannot see their surroundings, so if they collide with an object in real space, they will not be able to protect themselves and there is a high possibility that the user will suffer an injury such as a sprain.

本発明の目的は、上述の課題を解決する技術を提供することにある。 An object of the present invention is to provide a technique for solving the above-mentioned problems.

上記目的を達成するため、本発明にあっては、
ユーザのリハビリテ-ションを支援する装置であって、
ヘッドマウントディスプレイを装着した前記ユーザの頭の向きを検出する検出部と、
前記ユーザの周囲の実空間における床面または壁面の位置を検知する第1検知部と、
前記ユーザに視認させるリハビリテーション用の目標オブジェクトを仮想空間内に生成し、前記検出部で検出した前記ユーザの頭の向きに応じて、前記ヘッドマウントディスプレイに表示させる表示制御部と、
を備え、
前記表示制御部は、ユーザ個々の動作レベルに応じて、転倒または疾患増悪のリスクのある所には、前記目標オブジェクトを表示させない
In order to achieve the above object, the present invention includes:
A device that supports rehabilitation of a user,
a detection unit that detects the direction of the head of the user wearing the head-mounted display;
a first detection unit that detects the position of a floor surface or a wall surface in real space around the user;
a display control unit that generates a target object for rehabilitation that is visible to the user in a virtual space and displays it on the head-mounted display according to the orientation of the user's head detected by the detection unit;
Equipped with
The display control unit does not display the target object in a place where there is a risk of falling or disease aggravation, depending on the movement level of each user .

本発明によれば、リハビリテーション中のユーザまたはその周囲に危険が及ぶことを回避できる。 According to the present invention, danger to the user undergoing rehabilitation or the surroundings can be avoided.

本発明の第1実施形態に係るリハビリテーション支援装置の構成を示す図である。1 is a diagram showing the configuration of a rehabilitation support device according to a first embodiment of the present invention. 本発明の第2実施形態に係るリハビリテーション支援装置の構成を示す図である。It is a figure showing the composition of the rehabilitation support device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係るリハビリテーション支援装置の表示制御例を示す図である。It is a figure showing an example of display control of a rehabilitation support device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係るリハビリテーション支援装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing of the rehabilitation support device concerning a 2nd embodiment of the present invention. 本発明の第3実施形態に係るリハビリテーション支援装置の構成を示す図である。It is a figure showing the composition of the rehabilitation support device concerning a 3rd embodiment of the present invention. 本発明の第4実施形態に係るリハビリテーション支援装置の構成を示す図である。It is a figure showing the composition of the rehabilitation support device concerning a 4th embodiment of the present invention.

以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described in detail below by way of example with reference to the drawings. However, the components described in the following embodiments are merely examples, and the technical scope of the present invention is not intended to be limited thereto.

[第1実施形態]
本発明の第1実施形態としてのリハビリテーション支援装置100について、図1を用いて説明する。リハビリテーション支援装置100は、ユーザ130のリハビリテーションを支援し、評価する装置である。
[First embodiment]
A rehabilitation support device 100 as a first embodiment of the present invention will be described using FIG. 1. The rehabilitation support device 100 is a device that supports and evaluates the rehabilitation of the user 130.

図1に示すように、リハビリテーション支援装置100は、検出部101と表示制御部102とを含む。 As shown in FIG. 1, rehabilitation support device 100 includes a detection section 101 and a display control section 102.

検出部101は、ヘッドマウントディスプレイ120を装着したユーザ130の頭の向きを検出する。 The detection unit 101 detects the direction of the head of the user 130 wearing the head mounted display 120.

表示制御部102は、ユーザ130に視認させるリハビリテーション用の目標オブジェクト140を仮想空間150内に生成し、検出部101で検出したユーザ130の頭の向きに応じて、ヘッドマウントディスプレイ120に表示させる。 The display control unit 102 generates a rehabilitation target object 140 in the virtual space 150 that is visible to the user 130 and displays it on the head-mounted display 120 according to the direction of the user's 130 head detected by the detection unit 101.

表示制御部102は、さらに、ユーザ130が実空間中の物体(例えば床160や壁170)と干渉する危険を回避するため、ヘッドマウントディスプレイ120の表示を制御する。 The display control unit 102 further controls the display on the head-mounted display 120 in order to avoid the risk of the user 130 interfering with objects in the real space (for example, the floor 160 or the wall 170).

例えば、仮想空間150内で落下するオブジェクト140を、ユーザ130がコントローラ134、135で触ることにより、ユーザ130のリハビリテーション動作を実現するシステムを考える。この場合、例えば、床上20cmで、オブジェクト140を消すようなプログラムにすることにより、ユーザがコントローラや手を床160にぶつけることを防止できる。もちろん20cmという数字は例示に過ぎず、25cmでも30cmでもよい。 For example, consider a system in which the user 130 touches an object 140 falling in the virtual space 150 using the controllers 134 and 135, thereby realizing a rehabilitation movement of the user 130. In this case, for example, by creating a program that erases the object 140 at 20 cm above the floor, it is possible to prevent the user from hitting the controller or hand on the floor 160. Of course, the number 20 cm is just an example, and it may be 25 cm or 30 cm.

ユーザ130やその周囲が危険を回避するための表示制御も、「オブジェクトを所定範囲で消す」という制御に限定されず、他の様々な方法が考えられるため、本発明は、その制御に限定されるものではない。床上20cmで目標オブジェクトが消えるので、床にコントローラをぶつけてけがをしたり、前のめりになって転倒したりする危険を防止できる。 The display control for the user 130 and his/her surroundings to avoid danger is not limited to the control of "erasing objects in a predetermined range", and various other methods can be considered; therefore, the present invention is not limited to such control. It's not something you can do. Since the target object disappears 20 cm above the floor, it is possible to prevent the risk of injury from hitting the controller on the floor or from leaning forward and falling.

[第2実施形態]
本発明の第2実施形態に係るリハビリテーション支援システム200について、図2を用いて説明する。図2は、本実施形態に係るリハビリテーション支援システム200の構成を説明するための図である。
[Second embodiment]
A rehabilitation support system 200 according to a second embodiment of the present invention will be described using FIG. 2. FIG. 2 is a diagram for explaining the configuration of the rehabilitation support system 200 according to this embodiment.

図2に示すように、リハビリテーション支援システム200は、リハビリテーション支援装置210と、2つのベースステーション231、232と、ヘッドマウントディスプレイ233と、2つのコントローラ234、235とを備える。ユーザ220は、椅子221に座りながら、ヘッドマウントディスプレイ233の表示に合わせて、上半身を傾けたり、ねじったり、手を様々な方向に伸ばしたりすることでリハビリテーション動作を行なう。本実施形態では、椅子に座って行なうリハビリテーションを前提に説明するが、本発明はこれに限定されるものではなく、立って行なっても、歩きながらや走りながら行っても、ベッドや布団等に寝ながら行なってもよい。さらに、何らかの機具を使用する等して特定の姿勢や状態を保持しながら行っても、あるいはトレッドミルやその他の歩行支援装置を用いてあらゆる角度や傾斜状態で定常位置を保持しつつ歩きながら、または走りながら行ってもよい。 As shown in FIG. 2, the rehabilitation support system 200 includes a rehabilitation support device 210, two base stations 231 and 232, a head mounted display 233, and two controllers 234 and 235. The user 220 performs rehabilitation motions while sitting on the chair 221 by tilting the upper body, twisting, and extending the arms in various directions in accordance with the display on the head-mounted display 233. Although this embodiment will be explained on the assumption that rehabilitation is performed while sitting on a chair, the present invention is not limited to this, and can be performed while standing, walking, running, etc. You can also do it while sleeping. Furthermore, even if you use some type of equipment to maintain a specific posture or condition, or use a treadmill or other walking support device to maintain a steady position at any angle or incline while walking, Or you can do it while running.

2つのベースステーション231、232は、ヘッドマウントディスプレイ233の位置や動きおよびコントローラ234、235の位置や動きを検知して、リハビリテーション支援装置210に送る。リハビリテーション支援装置210は、ヘッドマウントディスプレイ233の位置や動きおよびコントローラ234、235の位置や動きに基づいて、ユーザ220のリハビリテーション動作を評価しつつ、ヘッドマウントディスプレイ233の表示制御を行なう。ヘッドマウントディスプレイ233は、非透過タイプでも、ビデオシースルータイプでも、オプティカルシースルータイプでもよい。ヘッドマウントディスプレイ233には、ヘッドフォンスピーカ236が付属しており、リハビリテーション支援装置210は、ユーザ220のリハビリテーション動作の評価結果に応じた音声を、ヘッドフォンスピーカ236から出力する。なお、音声出力の方法はヘッドフォンスピーカに限定されず、外部音声出力装置や骨伝導イヤホン等を用いてもよい。 The two base stations 231 and 232 detect the position and movement of the head mounted display 233 and the positions and movements of the controllers 234 and 235 and send them to the rehabilitation support device 210. Rehabilitation support device 210 controls the display of head-mounted display 233 while evaluating the rehabilitation motion of user 220 based on the position and movement of head-mounted display 233 and the positions and movements of controllers 234 and 235. The head mounted display 233 may be of a non-transparent type, a video see-through type, or an optical see-through type. A headphone speaker 236 is attached to the head mounted display 233, and the rehabilitation support device 210 outputs audio from the headphone speaker 236 according to the evaluation result of the rehabilitation motion of the user 220. Note that the audio output method is not limited to headphone speakers, and may also use an external audio output device, bone conduction earphones, or the like.

本実施形態では、ユーザ220の動作を検出するためのセンサの一例として、ユーザ220が手に持つコントローラ234、235や、ベースステーション231、232を示しているが、本発明はこれに限定されるものではない。画像処理によりユーザの手の位置を検出するためのカメラ(深度センサを含む)、温度によりユーザの手の位置を検出するためのセンサ、ユーザの腕に装着させる腕時計型のウェアラブル端末などや、モーションキャプチャなどが、動作検出部に含まれてもよい。 In this embodiment, the controllers 234 and 235 held in the hands of the user 220 and the base stations 231 and 232 are shown as examples of sensors for detecting the motion of the user 220, but the present invention is not limited to this. It's not a thing. Cameras (including depth sensors) that detect the position of the user's hand through image processing, sensors that detect the position of the user's hand based on temperature, wristwatch-type wearable devices that are worn on the user's arm, and motion sensors. A capture or the like may be included in the motion detection section.

リハビリテーション支援装置210は、動作検出部211と表示制御部212と障害物検知部213と評価部214と更新部215とタスクセットデータベース216とフィードバック部217とを備える。 The rehabilitation support device 210 includes a motion detection section 211 , a display control section 212 , an obstacle detection section 213 , an evaluation section 214 , an update section 215 , a task set database 216 , and a feedback section 217 .

動作検出部211は、ユーザ220が手に持つコントローラ234、235の位置をベースステーション231、232を介して取得し、ユーザ220の手の位置の変化によりユーザ220のリハビリテーション動作を検出する。 The motion detection unit 211 acquires the positions of the controllers 234 and 235 held in the hands of the user 220 via the base stations 231 and 232, and detects the rehabilitation motion of the user 220 based on a change in the position of the user's 220 hands.

障害物検知部213は、ユーザ220にとってリハビリテーション動作の障害となる物体を検知する。例えば、障害物検知部213は、ユーザの周囲の実空間における障害物である床面260および壁面270の少なくともいずれか一方の位置を検知する。障害物検知部213が検知する障害物は、ユーザ220の周囲にある物体であれば、静的物体、動的物体にかかわらずどんなものでもよい。すなわち、床面260および壁面270に限定されず、人、ペット、机、ドア、その他の家電製品や動物、植物、昆虫、カーテン、あるいは水蒸気や水滴、氷、炎などでもよい。 The obstacle detection unit 213 detects an object that becomes an obstacle for the user 220 to perform rehabilitation operations. For example, the obstacle detection unit 213 detects the position of at least one of a floor surface 260 and a wall surface 270, which are obstacles in the real space around the user. The obstacle detected by the obstacle detection unit 213 may be any object, whether it is a static object or a dynamic object, as long as it is around the user 220. That is, the object is not limited to the floor surface 260 and the wall surface 270, but may also be a person, a pet, a desk, a door, other home appliances, an animal, a plant, an insect, a curtain, water vapor, water droplets, ice, flame, or the like.

表示制御部212は、検出したリハビリテーション動作に応じて動くアバターオブジェクト241と、リハビリテーション動作の目標を示す目標オブジェクト242と、を仮想空間内に生成する。仮想空間内には、他のオブジェクト(背景オブジェクトなど)が含まれていてもよい。表示制御部212は、アバターオブジェクト241および目標オブジェクト242の画像を、動作検出部211が検出したヘッドマウントディスプレイ233の向きおよび位置に応じて、表示画面240に表示させる。 The display control unit 212 generates in the virtual space an avatar object 241 that moves according to the detected rehabilitation action, and a goal object 242 that indicates the goal of the rehabilitation action. Other objects (background objects, etc.) may be included in the virtual space. Display control unit 212 displays images of avatar object 241 and target object 242 on display screen 240 according to the orientation and position of head-mounted display 233 detected by motion detection unit 211.

アバターオブジェクト241および目標オブジェクト242の画像は、背景画像に重畳表示される。ここでは、アバターオブジェクト241は、コントローラ234、235と同じ形状をしているがこれに限定されるものではなく、人間の手の形をした画像でも、その他の体の一部を表現する画像でも、あるいはなんらかの道具の形をした画像等でもよい。アバターオブジェクト241は、コントローラ234、235の動きに合わせて表示画面240内を動く。コントローラ234、235にはボタンが設けられており、各種設定操作など可能に構成されている。 The images of the avatar object 241 and the target object 242 are displayed superimposed on the background image. Here, the avatar object 241 has the same shape as the controllers 234 and 235, but is not limited to this, and may be an image in the shape of a human hand or an image expressing another body part. , or an image in the shape of some kind of tool. The avatar object 241 moves within the display screen 240 in accordance with the movements of the controllers 234 and 235. The controllers 234 and 235 are provided with buttons, and are configured to allow various setting operations.

表示制御部212は、目標オブジェクト242を、表示位置および大きさを徐々に変えつつ、表示画面240中で動かす。例えば、目標オブジェクト242をユーザ220の頭上方向から下方に向けて降下してきているように動かして表示したり、目標オブジェクト242をユーザ220に向かって近づくように動かして表示したりすればよい。目標オブジェクト242の移動方向は、上下方向に限定されず、左右方向や、斜め方向であってもよい。なお、ここでは、目標オブジェクト242が動く例を説明したが、本発明はこれに限定されるものではなく、静止した目標オブジェクト242を表示してもよい。 The display control unit 212 moves the target object 242 within the display screen 240 while gradually changing the display position and size. For example, the target object 242 may be displayed by moving as if it is descending from above the user 220, or the target object 242 may be displayed by moving so as to approach the user 220. The moving direction of the target object 242 is not limited to the vertical direction, but may be the horizontal direction or the diagonal direction. Note that although an example in which the target object 242 moves has been described here, the present invention is not limited to this, and a stationary target object 242 may be displayed.

ユーザ220は、コントローラ234、235を動かして、画面中のアバターオブジェクト241を、目標オブジェクト242に近づける。アバターオブジェクト241が目標オブジェクト242にぶつかると、表示制御部212は目標オブジェクト242を消滅させる。このとき、フィードバック部217は、目標動作が達成されたとして、メッセージを表示すると同時にヘッドフォンスピーカ236から音声を出力し、コントローラーを振動させる。 The user 220 moves the controllers 234 and 235 to move the avatar object 241 on the screen closer to the target object 242. When the avatar object 241 collides with the target object 242, the display control unit 212 causes the target object 242 to disappear. At this time, the feedback unit 217 determines that the target movement has been achieved, displays a message, simultaneously outputs audio from the headphone speaker 236, and vibrates the controller.

評価部214は、動作検出部211が検出したリハビリテーション動作と、表示制御部212によって表示された目標オブジェクトが表わす目標位置とを比較して、ユーザ220のリハビリテーション能力を評価する。具体的には、動作検出部211が検出したリハビリテーション動作に対応して移動するアバターオブジェクト241と目標オブジェクト242との3次元仮想空間中の位置を比較することにより評価する。言い換えれば評価部214は、アバターオブジェクト241に含まれるセンサオブジェクト(例えば、アバターオブジェクト241の中心)と目標オブジェクト242との距離がどこまで縮まったかによってリハビリテーション動作の評価を変える。例えば、センサオブジェクトが目標オブジェクト242の中心に接触すれば、高評価を与え、センサオブジェクトが目標オブジェクト242の中心の周囲部分のみに接触し、中心に接触しなかった場合には低評価を与える。センサオブジェクトが目標オブジェクト242のどこにも接触しなければ評価なしとする。評価部214によるこれらの評価は、フィードバック部217のフィードバックと連動して行なわれる。 The evaluation unit 214 evaluates the rehabilitation ability of the user 220 by comparing the rehabilitation motion detected by the motion detection unit 211 with the target position represented by the target object displayed by the display control unit 212. Specifically, the evaluation is performed by comparing the positions in the three-dimensional virtual space of the avatar object 241 and the target object 242, which move in response to the rehabilitation motion detected by the motion detection unit 211. In other words, the evaluation unit 214 changes the evaluation of the rehabilitation motion depending on how far the distance between the sensor object included in the avatar object 241 (for example, the center of the avatar object 241) and the target object 242 has decreased. For example, if the sensor object contacts the center of the target object 242, a high rating is given, and if the sensor object contacts only the area around the center of the target object 242, but does not contact the center, a low rating is given. If the sensor object does not touch any part of the target object 242, no evaluation is performed. These evaluations by the evaluation section 214 are performed in conjunction with feedback from the feedback section 217.

フィードバック部217は、表示制御部212を介して、メッセージなどのフィードバックを、リハビリテーション動作の評価に応じて変化させる。例えば、センサオブジェクトが目標オブジェクト242の中心に接触すれば、「あっぱれ」と表示し、センサオブジェクトが目標オブジェクト242の中心の周囲部分のみに接触すれば「おみごと」と表示する。フィードバック部217は、目標オブジェクト242に対して仮想的にアバターオブジェクト241で触れたユーザに対して、5感のうち少なくとも2つの感覚を刺激するフィードバックを、目標オブジェクト242に触れたタイミングとほぼ同時に行う。 The feedback unit 217 changes feedback such as a message via the display control unit 212 according to the evaluation of the rehabilitation operation. For example, if the sensor object contacts the center of the target object 242, "Appare" is displayed, and if the sensor object contacts only the area around the center of the target object 242, "Great" is displayed. The feedback unit 217 provides feedback that stimulates at least two of the five senses to the user who has virtually touched the target object 242 with the avatar object 241 at approximately the same time as when the user touches the target object 242. .

表示制御部212は、目標オブジェクト242を、奥行き方向について異なる位置(例えば3段階の位置)に出現させることができる。評価部214は、それぞれ、異なるポイント(遠いオブジェクトには高いポイント、近いオブジェクトには低いポイント)を付与する。 The display control unit 212 can cause the target object 242 to appear at different positions in the depth direction (for example, three positions). The evaluation unit 214 gives different points to each object (high points to distant objects, low points to nearby objects).

タスクセットデータベース216は、複数のタスクのセットを格納している。タスクとは、ユーザが行なうべき1回のリハビリテーション動作を示す。具体的には、1つのタスクを表わす情報として、どの位置にどのような速度で、どのような大きさの目標オブジェクトを出現させたか、その際、アバターオブジェクトはどのような大きさだったかなどを格納している。 The task set database 216 stores sets of multiple tasks. A task indicates one rehabilitation action that the user should perform. Specifically, information representing one task includes information such as where, at what speed, and what size the target object appeared, and what size the avatar object was at that time. It is stored.

具体的には、左右の目標オブジェクト242の大きさ、アバターオブジェクト241(センサオブジェクト)の大きさ、目標オブジェクト242の落下スピード、目標オブジェクトの位置等がタスクの内容となる。さらに詳細に言えば、右と左のそれぞれにおいて、目標オブジェクトの位置を見やすくするための視認用オブジェクトの半径(視認サイズ)、アバターオブジェクト241と反応する目標オブジェクトの半径(評価サイズ)もタスクの内容として設定可能である。つまり、ユーザには半径20cmのボールを見せつつ、そのボールの中央に位置する半径10cmのボールにタッチして初めて「あっぱれ」と評価する。視認サイズが小さければ、ユーザは目標オブジェクトを見つけるのが困難になる。視認サイズを大きくすれば、ユーザは目標オブジェクトを見つけやすくなる。評価サイズを大きくすれば、アバターオブジェクト241のずれの許容量が大きくなり、より位置ずれの許容度が上がる。評価サイズを小さくすれば、アバターオブジェクト241のずれの許容量が小さくなりよりシビアにリハビリテーション動作を評価できる。これらの視認サイズと評価サイズとを一致させることもできる。 Specifically, the contents of the task include the size of the left and right target objects 242, the size of the avatar object 241 (sensor object), the falling speed of the target object 242, the position of the target object, and the like. More specifically, the task also includes the radius of the visual recognition object (visual size) to make the position of the target object easier to see on the right and left sides, and the radius (evaluation size) of the target object that reacts with the avatar object 241. Can be set as . That is, while showing the user a ball with a radius of 20 cm, the user is evaluated as "appare" only after touching a ball with a radius of 10 cm located in the center of the ball. A small viewing size makes it difficult for the user to find the target object. Increasing the visible size makes it easier for the user to find the target object. If the evaluation size is increased, the tolerance for displacement of the avatar object 241 increases, and the tolerance for positional displacement increases. If the evaluation size is made smaller, the allowable amount of displacement of the avatar object 241 becomes smaller, and the rehabilitation motion can be evaluated more severely. It is also possible to match these visible sizes and evaluation sizes.

アバターオブジェクト241のセンササイズ(センサオブジェクトのサイズ)を含むタスクセットDB内のパラメータを左右バラバラに、または各タスクごとにバラバラに設定することもできる。センササイズが大きければ、手の位置が目標オブジェクトから大きくずれていても、タスクを達成したことになるためリハビリテーション動作の難易度は下がる。逆にセンササイズが小さければ、手を目標オブジェクトの中央領域(評価用サイズに依存)に、正確に動かさなければならないため、よりリハビリテーション動作の難易度が上がる。 Parameters in the task set DB, including the sensor size (size of the sensor object) of the avatar object 241, can also be set separately for the left and right sides or for each task. If the sensor size is large, even if the hand position deviates significantly from the target object, the task will still be accomplished, and the difficulty of the rehabilitation action will decrease. Conversely, if the sensor size is small, the hand must be accurately moved to the central area of the target object (depending on the evaluation size), which increases the difficulty of the rehabilitation operation.

脳梗塞の後遺症による運動障害など、運動能力に左右差がある場合には、アバターオブジェクトのセンササイズを左右で変えることにより、より効果的なリハビリテーションを行なうことができる。 If there is a difference in motor ability between the left and right sides, such as motor impairment due to after-effects of cerebral infarction, more effective rehabilitation can be performed by changing the sensor size of the avatar object between the left and right sides.

タスクセットデータベース216は、上記のような複数のタスクをどのような順番でユーザに提供するかを決めるタスクセットを格納している。例えば、病院毎のテンプレートとしてタスクセットを格納してもよいし、実行したタスクセットの履歴をユーザごとに格納してもよい。リハビリテーション支援装置210は、インターネットを介して他のリハビリテーション支援装置と通信可能に構成されていてもよい。その場合、1つのタスクセットを、同じユーザが複数の場所で実行することもできるし、様々なテンプレートを離れた複数のユーザ同士で共有することもできる。 The task set database 216 stores task sets that determine in what order the plurality of tasks as described above are to be provided to the user. For example, a task set may be stored as a template for each hospital, or a history of executed task sets may be stored for each user. Rehabilitation support device 210 may be configured to be able to communicate with other rehabilitation support devices via the Internet. In that case, a single task set can be executed by the same user in multiple locations, and various templates can be shared among multiple remote users.

表示制御部212は、タスクセットデータベース216から読出したタスクセットに応じて、表示画面240に目標オブジェクト242を表示させ、アバターオブジェクト241で仮想的に触る動作を要求する。 The display control unit 212 displays the target object 242 on the display screen 240 according to the task set read from the task set database 216, and requests a virtual touching action with the avatar object 241.

更新部215は、積算されたポイントに応じて、目標課題を更新する。例えば、課題達成率(目標達成数/課題数)などを用いて目標課題を更新してもよい。 The updating unit 215 updates the target task according to the accumulated points. For example, the target task may be updated using the task achievement rate (number of goals achieved/number of tasks).

(危険回避処理)
表示制御部212は、ユーザ220が実空間中の物体である床260や壁面270と干渉する危険を回避するため、ヘッドマウントディスプレイ233の表示を制御する。具体的には、表示制御部212は、床面260または壁面270と衝突する危険を回避するため、目標オブジェクト242を、床面260または壁面270から所定距離以上離れた位置に表示させ、所定距離以内の位置には表示させない。図2の例では、木から目標オブジェクト242であるリンゴが落ちてきて、床面260から所定距離(例えば20cm)の位置になると、アライグマ243がそれをつかみ、それの高さ以下に下がらないように停止させる。アライグマ243は、その後、目標オブジェクト242であるリンゴを、自分の巣に持ち帰る。
(Danger avoidance processing)
The display control unit 212 controls the display on the head-mounted display 233 in order to avoid the risk of the user 220 interfering with the floor 260 and wall surface 270, which are objects in real space. Specifically, in order to avoid the risk of collision with the floor 260 or wall 270, the display control unit 212 displays the target object 242 at a position at least a predetermined distance from the floor 260 or wall 270, and displays the target object 242 at a predetermined distance or more. It will not be displayed in positions within this range. In the example of FIG. 2, when an apple, which is a target object 242, falls from a tree and reaches a predetermined distance (for example, 20 cm) from the floor 260, a raccoon 243 grabs it and prevents it from falling below its height. to stop. The raccoon 243 then takes the apple, which is the target object 242, back to its nest.

図3Aは、ユーザ220が実空間中の物体である床260や壁面270と干渉する危険を回避するためのさまざまな表示例を示す。(a)では、目標オブジェクト242が床面260から所定距離(例えば20cm)の位置301で消える例を示している。(b)では、目標オブジェクト242が床面260から所定距離の位置301で止まる例を示している。(c)では、床面260から所定距離の位置301で目標オブジェクト242が上方向に跳ね返る例を示している。(d)では、床面260から所定距離の位置301に水面が表示され、目標オブジェクト242としての木の葉がその水面に浮かぶ例を示している。(e)では、床面260から所定距離の位置301に子供が表示され、目標オブジェクト242としてのシャボン玉がその子供から上方向に浮かびながら動く例を示している。あるいは、目標オブジェクト242としてのシャボン玉が床上20cmで反転して上昇し、ある程度の高さに上れば、消える構成でもよい。その他、モグラたたきのように地面から顔を出したモグラを目標オブジェクトとしてもよい。海から飛び出す魚を目標オブジェクトとしてもよい。発射台から上方に発射されたミサイルを目標オブジェクトとしてもよい。子供が手放して上方に上がっていく風船を目標オブジェクトとしてもよい。この場合、失敗した数だけ、木に引っかかり、上方に行きすぎないように表示制御してもよい。ユーザ周囲の実空間中の壁によって十分にリハビリテーション動作を行えない方向がある場合、その方向に目標オブジェクトを表示させない、または壁までの距離に応じて表示を変更してもよい。 FIG. 3A shows various display examples for avoiding the danger of the user 220 interfering with objects in the real space, such as the floor 260 and wall surface 270. (a) shows an example in which the target object 242 disappears at a position 301 at a predetermined distance (for example, 20 cm) from the floor surface 260. (b) shows an example in which the target object 242 stops at a position 301 at a predetermined distance from the floor surface 260. (c) shows an example in which the target object 242 bounces upward at a position 301 that is a predetermined distance from the floor surface 260. (d) shows an example in which a water surface is displayed at a position 301 at a predetermined distance from the floor surface 260, and a leaf as a target object 242 floats on the water surface. (e) shows an example in which a child is displayed at a position 301 at a predetermined distance from the floor 260, and a soap bubble as a target object 242 moves while floating upward from the child. Alternatively, a configuration may be adopted in which the soap bubble serving as the target object 242 is reversed and raised 20 cm above the floor, and disappears once it reaches a certain height. Alternatively, the target object may be a mole sticking out of the ground like in a game of whack-a-mole. A fish jumping out of the sea may be used as the target object. A missile launched upward from a launch pad may be used as a target object. The target object may be a balloon that the child lets go of and goes up. In this case, the display may be controlled so that the number of failures is equal to the number of times the tree gets caught and does not go too far upwards. If there is a direction in which the rehabilitation action cannot be performed sufficiently due to walls in the real space surrounding the user, the target object may not be displayed in that direction, or the display may be changed depending on the distance to the wall.

図3Bは、リハビリテーション支援装置210による処理の流れを説明するためのフローチャートである。まずステップS301において、ヘッドマウントディスプレイ233を装着したユーザ220の頭の向きを検出する。つぎに、ステップS303においてユーザ220に視認させるリハビリテーション用の目標オブジェクト242を仮想空間内に生成し、ユーザ220の頭の向きに応じて、ヘッドマウントディスプレイ233に表示させる。さらに、ステップS305において、ユーザ220が実空間中の物体である床面260と干渉する危険を回避するため、表示制御部212が表示を制御する。 FIG. 3B is a flowchart for explaining the flow of processing by the rehabilitation support device 210. First, in step S301, the direction of the head of the user 220 wearing the head mounted display 233 is detected. Next, in step S303, a rehabilitation target object 242 that is visible to the user 220 is generated in the virtual space and displayed on the head-mounted display 233 according to the direction of the user's 220 head. Furthermore, in step S305, the display control unit 212 controls the display in order to avoid the risk of the user 220 interfering with the floor surface 260, which is an object in real space.

以上、本実施形態によれば、目標オブジェクト242が、床面260から所定距離以下の位置に表示されないため、ユーザ220が床面260にコントローラ234、235をぶつけてけがをしたり、前のめりになって転倒したりする危険を防止できる。すなわち、リハビリテーション中のユーザまたはその周囲に危険が及ぶことを回避できる。 As described above, according to the present embodiment, the target object 242 is not displayed at a position less than a predetermined distance from the floor surface 260, so the user 220 may hit the floor surface 260 with the controllers 234, 235 and get injured, or the user 220 may be injured by leaning forward. This prevents the risk of falling. That is, it is possible to avoid danger to the user undergoing rehabilitation or the surroundings.

[第3実施形態]
次に本発明の第3実施形態に係るリハビリテーション支援装置について、図4を用いて説明する。図4は、本実施形態に係るリハビリテーション支援装置の構成を説明するための図である。本実施形態に係るリハビリテーション支援装置は、上記第2実施形態と比べると、障害物検知部213が検知する動的な障害物の種類、大きさ、動きに応じて、動的に表示を制御する点で異なる。すなわち、人401などが、ユーザ220のそばを通った場合に、表示を制御する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Third embodiment]
Next, a rehabilitation support device according to a third embodiment of the present invention will be described using FIG. 4. FIG. 4 is a diagram for explaining the configuration of the rehabilitation support device according to this embodiment. Compared to the second embodiment described above, the rehabilitation support device according to the present embodiment dynamically controls the display according to the type, size, and movement of the dynamic obstacle detected by the obstacle detection unit 213. They differ in some respects. That is, the difference is that the display is controlled when a person 401 or the like passes by the user 220. The other configurations and operations are the same as those in the second embodiment, so the same configurations and operations are given the same reference numerals and detailed explanation thereof will be omitted.

実空間の人物401を回避するため、ヘッドマウントディスプレイ233に設けられたカメラ402を利用する。障害物を検知できるのであればカメラ402に限定されず、他の構成(レーダ、超音波センサなど)でもよい。なお、ここでは動的障害物の一例として人物401を例示したが、その他ペットや昆虫等の動物を含んでもよい。また、家電製品等の自立動作型の障害物から、カーテンやドア、机、植物といった、風や外部応力等の外部要因で動き得る一般には静的障害物と分類され得るもの、または水蒸気や水滴、氷、炎等を障害物として検知することも本発明の概念に含まれるものとする。 In order to avoid the person 401 in real space, a camera 402 provided on the head-mounted display 233 is used. It is not limited to the camera 402 as long as it can detect obstacles, and other configurations (radar, ultrasonic sensor, etc.) may be used. Although the person 401 is illustrated here as an example of a dynamic obstacle, other animals such as pets and insects may also be included. In addition, we range from free-standing obstacles such as home appliances, to curtains, doors, desks, plants, etc., which can be generally classified as static obstacles that can move due to external factors such as wind or external stress, or water vapor or water droplets. The concept of the present invention also includes the detection of obstacles such as ice, fire, etc.

表示制御部212は、カメラ402と障害物検知部213が検知した人物401の方向に目標オブジェクト242を表示しない。つまり、表示制御部212は、障害物検知部213が検知した障害物401と衝突する危険を回避するため、障害物401が存在する方向以外の方向に、目標オブジェクト242を表示させる。 The display control unit 212 does not display the target object 242 in the direction of the person 401 detected by the camera 402 and the obstacle detection unit 213. That is, the display control unit 212 displays the target object 242 in a direction other than the direction in which the obstacle 401 exists, in order to avoid the risk of colliding with the obstacle 401 detected by the obstacle detection unit 213.

また、表示制御部212は、カメラ402と障害物検知部213が検知した人物401の方向に障害物オブジェクトとしての壁403を表示させて、ユーザが手を伸ばそうと思わないようにする。障害物オブジェクトとしては、壁に限定されず、木や人の画像にしてもよい。さらに、手を伸ばすことを禁止する禁止通知画像(言葉や記号でのメッセージ)を表示させてもよいし、危険を通知するために目標オブジェクトの色を例えば赤色に変更したり、目標オブジェクトを爆弾等の別のものに変更してもよい。または、これらの表示制御に加えて音声や振動刺激等による触覚刺激を用いた危険通知を組み合わせてもよい。 Furthermore, the display control unit 212 displays a wall 403 as an obstacle object in the direction of the person 401 detected by the camera 402 and the obstacle detection unit 213, so that the user does not feel like reaching out. The obstacle object is not limited to a wall, but may also be an image of a tree or a person. Additionally, a prohibition notification image (message in words or symbols) prohibiting reaching out may be displayed, the color of the target object may be changed to red, for example, to notify of danger, or the target object may be marked as a bomb. You may change it to something else such as Alternatively, in addition to these display controls, a danger notification using tactile stimulation such as audio or vibration stimulation may be combined.

また、表示制御部212は、障害物検知部213が検知した障害物401と衝突する危険を回避するため、障害物401を検知した場合に、目標オブジェクト242の表示を中止させてもよい。または、ヘッドマウントディスプレイに表示される画面を一時的に停止させても、ブラックアウトのように画面表示自体を中止させても、さらには、目標オブジェクトを表示させたままその動きを停止させてもよい。 Furthermore, in order to avoid the risk of colliding with the obstacle 401 detected by the obstacle detection unit 213, the display control unit 212 may stop displaying the target object 242 when the obstacle 401 is detected. Alternatively, you can temporarily stop the screen displayed on the head-mounted display, stop the screen display itself like a blackout, or even stop the movement of the target object while it is displayed. good.

障害物検知部213が障害物を検知した場合に、カメラ402で撮像した実空間画像をそのままヘッドマウントディスプレイ233に表示してもよい。 When the obstacle detection unit 213 detects an obstacle, the real space image captured by the camera 402 may be displayed as is on the head mounted display 233.

ヘッドマウントディスプレイ233がオプティカルシースルータイプであれば、障害物検知部213が障害物を検知した場合に、ヘッドマウントディスプレイ233の透過度を変えて、実際の障害物401が見えるように制御してもよい。つまり、仮想現実技術VRから拡張現実技術AR、または混合現実技術MRへの切替えを行なってもよい。 If the head-mounted display 233 is an optical see-through type, when the obstacle detection unit 213 detects an obstacle, the transparency of the head-mounted display 233 may be changed so that the actual obstacle 401 can be seen. good. In other words, switching from virtual reality technology VR to augmented reality technology AR or mixed reality technology MR may be performed.

本実施形態では、障害物検知部213は、ヘッドマウントディスプレイ233のカメラ402を利用したが、これに限定されず、他の外部カメラや外部センサを利用してもよい。 In this embodiment, the obstacle detection unit 213 uses the camera 402 of the head-mounted display 233, but is not limited to this, and may use other external cameras or external sensors.

タスクセットデータベース216に、障害物オブジェクトのデータとして、壁画像などの特殊画像をあらかじめ用意しておくことが望ましい。 It is desirable to prepare special images such as wall images in advance in the task set database 216 as obstacle object data.

障害物検知部213は、既存のパターンマッチング技術を利用した物体認識を行なってもよく、障害物の種類に応じた画像を表示してもよい。その場合、タスクセットデータベース216には、障害物の種類(大人、子供、ペットなど)に対応して、それぞれ表示させる障害物オブジェクト(壁、木、岩など)が記憶される。 The obstacle detection unit 213 may perform object recognition using existing pattern matching technology, or may display an image depending on the type of obstacle. In that case, the task set database 216 stores obstacle objects (walls, trees, rocks, etc.) to be displayed, corresponding to the types of obstacles (adults, children, pets, etc.).

[第4実施形態]
次に本発明の第4実施形態に係るリハビリテーション支援装置について、図5を用いて説明する。図5は、本実施形態に係るリハビリテーション支援装置510の構成を説明するための図である。本実施形態に係るリハビリテーション支援装置510は、上記第2実施形態と比べると、キャリブレーション部501およびレベル評価部502を有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fourth embodiment]
Next, a rehabilitation support device according to a fourth embodiment of the present invention will be described using FIG. 5. FIG. 5 is a diagram for explaining the configuration of the rehabilitation support device 510 according to this embodiment. The rehabilitation support device 510 according to this embodiment differs from the second embodiment in that it includes a calibration section 501 and a level evaluation section 502. The other configurations and operations are the same as those in the second embodiment, so the same configurations and operations are given the same reference numerals and detailed explanation thereof will be omitted.

キャリブレーション部501は、リハビリテーションの前にユーザの動作レベルを事前評価する。表示制御部212は、キャリブレーション部501の評価結果に基づいて、目標オブジェクトの生成位置を決定する。具体的には、ユーザ個々の動作レベルに応じて、転倒や疾患増悪等のリスクのある所には、目標動作を出現させない。 The calibration unit 501 pre-evaluates the user's movement level before rehabilitation. The display control unit 212 determines the generation position of the target object based on the evaluation result of the calibration unit 501. Specifically, the target motion is not made to appear in areas where there is a risk of falling, disease aggravation, etc., depending on the user's individual motion level.

レベル評価部502は、リハビリテーション中にユーザの動作レベルを評価する。表示制御部212は、同様にレベル評価部502の評価結果に基づいて、目標オブジェクトの生成位置を決定すればよい。 The level evaluation unit 502 evaluates the user's movement level during rehabilitation. The display control unit 212 may similarly determine the generation position of the target object based on the evaluation result of the level evaluation unit 502.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の技術的範囲で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の技術的範囲に含まれる。
[Other embodiments]
Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. The structure and details of the present invention can be modified in various ways within the technical scope of the present invention, which can be understood by those skilled in the art. Furthermore, systems or devices that combine the separate features included in each embodiment in any way are also included within the technical scope of the present invention.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に供給され、内蔵されたプロセッサによって実行される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、プログラムを実行するプロセッサも本発明の技術的範囲に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の技術的範囲に含まれる。 Moreover, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention is also applicable when an information processing program that implements the functions of the embodiments is supplied to a system or device and executed by a built-in processor. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, a WWW (World Wide Web) server from which the program is downloaded, and a processor executing the program are also falls within the technical scope of the invention. In particular, a non-transitory computer readable medium storing at least a program that causes a computer to execute the processing steps included in the embodiments described above is within the technical scope of the present invention.

Claims (9)

ユーザのリハビリテ-ションを支援する装置であって、
ヘッドマウントディスプレイを装着した前記ユーザの頭の向きを検出する検出部と、
前記ユーザの周囲の実空間における床面または壁面の位置を検知する第1検知部と、
前記ユーザに視認させるリハビリテーション用の目標オブジェクトを仮想空間内に生成し、前記検出部で検出した前記ユーザの頭の向きに応じて、前記ヘッドマウントディスプレイに表示させる表示制御部と、
を備え、
前記表示制御部は、ユーザ個々の動作レベルに応じて、転倒または疾患増悪のリスクのある所には、前記目標オブジェクトを表示させないリハビリテーション支援装置。
A device that supports rehabilitation of a user,
a detection unit that detects the direction of the head of the user wearing the head-mounted display;
a first detection unit that detects the position of a floor surface or a wall surface in real space around the user;
a display control unit that generates a target object for rehabilitation that is visible to the user in a virtual space and displays it on the head-mounted display according to the orientation of the user's head detected by the detection unit;
Equipped with
The display control unit is a rehabilitation support device in which the display control unit does not display the target object in a place where there is a risk of falling or disease aggravation, depending on the movement level of each user .
前記ユーザの周囲の実空間における障害物の位置を検知する第2検知部をさらに備え、
前記表示制御部は、前記第2検知部が検知した障害物と衝突する危険を回避するため、前記障害物の方向以外の方向に、前記目標オブジェクトを表示させる請求項1に記載のリハビリテーション支援装置。
further comprising a second detection unit that detects the position of an obstacle in real space around the user,
The rehabilitation support device according to claim 1, wherein the display control unit displays the target object in a direction other than the direction of the obstacle in order to avoid the risk of colliding with the obstacle detected by the second detection unit. .
前記ユーザの周囲の実空間における障害物の位置を検知する第2検知部をさらに備え、
前記表示制御部は、前記第2検知部が検知した障害物と衝突する危険を回避するため、前記障害物の方向に、障害物オブジェクトまたは禁止通知画像を表示させる請求項1または2に記載のリハビリテーション支援装置。
further comprising a second detection unit that detects the position of an obstacle in real space around the user,
3. The display control section displays an obstacle object or a prohibition notification image in the direction of the obstacle in order to avoid the risk of collision with the obstacle detected by the second detection section. Rehabilitation support device.
前記ユーザの周囲の実空間における障害物の位置を検知する第2検知部をさらに備え、
前記表示制御部は、前記第2検知部が検知した障害物と衝突する危険を回避するため、前記障害物を検知した場合に、前記目標オブジェクトの表示を中止させ、または前記ヘッドマウントディスプレイに表示される画面を一時的に停止させ、または前記ヘッドマウントディスプレイの画面表示自体を中止させ、または前記目標オブジェクトの動きを停止させる請求項1乃至3のいずれか1項に記載のリハビリテーション支援装置。
further comprising a second detection unit that detects the position of an obstacle in real space around the user,
In order to avoid the risk of colliding with the obstacle detected by the second detection unit, the display control unit stops displaying the target object or displays the target object on the head-mounted display when the obstacle is detected. The rehabilitation support device according to any one of claims 1 to 3, wherein the rehabilitation support device temporarily stops a screen displayed on the head-mounted display, or stops the screen display itself of the head-mounted display, or stops movement of the target object.
前記第1検知部が、前記ヘッドマウントディスプレイに設けられた請求項1乃至4のいずれか1項に記載のリハビリテーション支援装置。 The rehabilitation support device according to any one of claims 1 to 4, wherein the first detection section is provided in the head mounted display. リハビリテーションの前にユーザの動作レベルを事前評価するキャリブレーション部をさらに備え、
前記表示制御部は、前記キャリブレーション部の評価結果に基づいて、前記目標オブジェクトの生成位置を決定する請求項1乃至5のいずれか1項に記載のリハビリテーション支援装置。
It further includes a calibration section that pre-evaluates the user's movement level before rehabilitation,
The rehabilitation support device according to any one of claims 1 to 5, wherein the display control unit determines the generation position of the target object based on the evaluation result of the calibration unit.
リハビリテーション中にユーザの動作レベルを評価するレベル評価部をさらに備え、
前記表示制御部は、前記レベル評価部の評価結果に基づいて、前記目標オブジェクトの生成位置を決定する請求項1乃至6のいずれか1項に記載のリハビリテーション支援装置。
Further comprising a level evaluation unit that evaluates the user's movement level during rehabilitation,
The rehabilitation support device according to any one of claims 1 to 6, wherein the display control unit determines the generation position of the target object based on the evaluation result of the level evaluation unit.
ユーザのリハビリテ-ションを支援する方法であって、
ヘッドマウントディスプレイを装着した前記ユーザの頭の向きを検出する検出ステップと、
前記ユーザの周囲の実空間における床面または壁面の位置を検知する検知ステップと、
前記ユーザに視認させるリハビリテーション用の目標オブジェクトを仮想空間内に生成し、前記検出ステップで検出した前記ユーザの頭の向きに応じて、前記ヘッドマウントディスプレイに表示させる表示制御ステップと、
前記ユーザのリハビリテーション動作が、疾患増悪をきたすリスクがあるか否か判定する評価ステップと、
を備え、
前記表示制御ステップは、ユーザ個々の動作レベルに応じて、転倒または疾患増悪のリスクのある所には、前記目標オブジェクトを表示させないリハビリテーション支援方法。
A method for supporting rehabilitation of a user, the method comprising:
a detection step of detecting the direction of the head of the user wearing the head-mounted display;
a detection step of detecting the position of a floor or wall surface in real space around the user;
a display control step of generating a rehabilitation target object in a virtual space to be visually recognized by the user, and displaying it on the head-mounted display according to the orientation of the user's head detected in the detection step;
an evaluation step of determining whether the user's rehabilitation action has a risk of causing disease exacerbation;
Equipped with
In the rehabilitation support method, the display control step does not display the target object in a place where there is a risk of falling or disease aggravation, depending on the movement level of each user .
ユーザのリハビリテ-ションを支援するプログラムであって、
ヘッドマウントディスプレイを装着した前記ユーザの頭の向きを検出する検出ステップと、
前記ユーザの周囲の実空間における床面または壁面の位置を検知する検知ステップと、
前記ユーザに視認させるリハビリテーション用の目標オブジェクトを仮想空間内に生成し、前記検出ステップで検出した前記ユーザの頭の向きに応じて、前記ヘッドマウントディスプレイに表示させる表示制御ステップと、
前記ユーザのリハビリテーション動作が、疾患増悪をきたすリスクがあるか否か判定する評価ステップと、
を備え、
前記表示制御ステップは、ユーザ個々の動作レベルに応じて、転倒または疾患増悪のリスクのある所には、前記目標オブジェクトを表示させないリハビリテーション支援プログラム。
A program that supports rehabilitation of users,
a detection step of detecting the direction of the head of the user wearing the head-mounted display;
a detection step of detecting the position of a floor or wall surface in real space around the user;
a display control step of generating a rehabilitation target object in a virtual space to be visually recognized by the user and displaying it on the head-mounted display according to the orientation of the user's head detected in the detection step;
an evaluation step of determining whether the user's rehabilitation action has a risk of causing disease exacerbation;
Equipped with
The display control step is a rehabilitation support program in which the target object is not displayed in a location where there is a risk of falling or disease aggravation, depending on the user's individual movement level .
JP2020077242A 2019-10-07 2020-04-24 Rehabilitation support device, method and program Active JP7448943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020077242A JP7448943B2 (en) 2019-10-07 2020-04-24 Rehabilitation support device, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019184295A JP6710845B1 (en) 2019-10-07 2019-10-07 Rehabilitation support device, its method and program
JP2020077242A JP7448943B2 (en) 2019-10-07 2020-04-24 Rehabilitation support device, method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019184295A Division JP6710845B1 (en) 2019-10-07 2019-10-07 Rehabilitation support device, its method and program

Publications (3)

Publication Number Publication Date
JP2021060957A JP2021060957A (en) 2021-04-15
JP2021060957A5 JP2021060957A5 (en) 2022-10-14
JP7448943B2 true JP7448943B2 (en) 2024-03-13

Family

ID=90183600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020077242A Active JP7448943B2 (en) 2019-10-07 2020-04-24 Rehabilitation support device, method and program

Country Status (1)

Country Link
JP (1) JP7448943B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155655A (en) 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program
JP2013257716A (en) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
JP2016541035A (en) 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Camera-based safety mechanism for head-mounted display users
JP2017119031A (en) 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント Game device and program
JP2019076290A (en) 2017-10-23 2019-05-23 株式会社mediVR Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP2019139424A (en) 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program
JP2019526103A (en) 2016-06-13 2019-09-12 ソニー・インタラクティブエンタテインメント エルエルシー Method and system for directing a user's attention to a position-based game play companion application

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155655A (en) 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program
JP2013257716A (en) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
JP2016541035A (en) 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Camera-based safety mechanism for head-mounted display users
JP2017119031A (en) 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント Game device and program
JP2019526103A (en) 2016-06-13 2019-09-12 ソニー・インタラクティブエンタテインメント エルエルシー Method and system for directing a user's attention to a position-based game play companion application
JP2019076290A (en) 2017-10-23 2019-05-23 株式会社mediVR Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP2019139424A (en) 2018-02-08 2019-08-22 株式会社バンダイナムコスタジオ Simulation system and program

Also Published As

Publication number Publication date
JP2021060957A (en) 2021-04-15

Similar Documents

Publication Publication Date Title
US11334145B2 (en) Sensory feedback systems and methods for guiding users in virtual reality environments
US11810244B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US9851786B2 (en) System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US9599821B2 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US9690367B2 (en) System and method for assisting a user in locating physical objects while the user is in a virtual reality environment
TWI648655B (en) Method of display user movement in virtual reality system and related device
JP6630607B2 (en) Simulation control device and simulation control program
US11331805B2 (en) Motion restriction system and method
US10661181B2 (en) Simulation system and game system
Cardoso et al. A survey of real locomotion techniques for immersive virtual reality applications on head-mounted displays
WO2021070411A1 (en) Rehabilitation assistance device, and method and program therefor
JP2024020292A (en) Operation request system, operation request method, and operation request program
WO2016094568A1 (en) System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
JP7448943B2 (en) Rehabilitation support device, method and program
JP6625467B2 (en) Simulation control device and simulation control program
JP2020057399A (en) Simulation control device and simulation control program
US11938402B2 (en) Multi-player interactive system and method of using
TWI637287B (en) Method, virtual reality apparatus and recording medium for fast moving in virtual reality
JP6457680B1 (en) Program, information processing apparatus, and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7448943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150