JP2019076290A - Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program - Google Patents

Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program Download PDF

Info

Publication number
JP2019076290A
JP2019076290A JP2017204243A JP2017204243A JP2019076290A JP 2019076290 A JP2019076290 A JP 2019076290A JP 2017204243 A JP2017204243 A JP 2017204243A JP 2017204243 A JP2017204243 A JP 2017204243A JP 2019076290 A JP2019076290 A JP 2019076290A
Authority
JP
Japan
Prior art keywords
image
target
rehabilitation
user
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017204243A
Other languages
Japanese (ja)
Other versions
JP6425287B1 (en
Inventor
原 正彦
Masahiko Hara
正彦 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medivr Inc
Original Assignee
Medivr Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2017204243A priority Critical patent/JP6425287B1/en
Application filed by Medivr Inc filed Critical Medivr Inc
Priority to CN201880004001.XA priority patent/CN110022835B/en
Priority to JP2019514593A priority patent/JP6758004B2/en
Priority to US16/320,503 priority patent/US20190247719A1/en
Priority to EP18792082.2A priority patent/EP3539525A4/en
Priority to PCT/JP2018/016886 priority patent/WO2018199196A1/en
Priority to JP2018193342A priority patent/JP6969794B2/en
Application granted granted Critical
Publication of JP6425287B1 publication Critical patent/JP6425287B1/en
Publication of JP2019076290A publication Critical patent/JP2019076290A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Abstract

To reduce deviation of a target distance set as rehabilitation from an exercise distance over which a user actually exercises.SOLUTION: A target object recognizability enhancing system comprises: an action detection unit to detect a first rehabilitation action of a user; a display control unit to control to display an avatar image that moves according to the detected first rehabilitation action, a target image that indicates a target of the first rehabilitation action, and at least one legibility assistance image for improving legibility of the target image; an evaluation unit to compare the first rehabilitation action with a target position represented by the target image to evaluate the rehabilitation ability of the user; and an update unit to update the target position according to the evaluation result from the evaluation unit.SELECTED DRAWING: Figure 1

Description

本発明は、目標物認識性向上ステム、目標物認識性向上方法および目標物認識性向上プログラムに関する。   The present invention relates to a target recognition system, a method of improving target recognition, and a program for improving target recognition.

上記技術分野において、特許文献1には、脳卒中等による片麻痺患者に対して行なわれるリハビリテーションを支援するシステムが開示されている。   In the above technical field, Patent Document 1 discloses a system for supporting rehabilitation performed for hemiplegic patients due to stroke and the like.

特開2015−228957号公報JP, 2015-228957, A

しかしながら、上記文献に記載の技術では、視認性の観点から認知機能の低い患者に対して大きな目標を提示させた場合に運動距離と目標距離との乖離が大きくなるという問題があった。   However, in the technique described in the above document, there is a problem that when a large target is presented to a patient with low cognitive function from the viewpoint of visibility, the divergence between the exercise distance and the target distance becomes large.

本発明の目的は、上述の課題を解決する技術を提供することにある。   An object of the present invention is to provide a technique for solving the above-mentioned problems.

上記目的を達成するため、本発明に係る目標物認識性向上システムは、
ユーザの第1リハビリテーション動作を検出する動作検出手段と、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御手段と、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価手段と、
前記評価手段による評価結果に応じて、前記目標位置を更新する更新手段と、
を備えた。
In order to achieve the above object, a system for improving target object recognition according to the present invention is:
Motion detection means for detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Means,
An evaluation unit that evaluates the user's rehabilitation ability by comparing the first rehabilitation operation with the target position represented by the target image;
Updating means for updating the target position according to the evaluation result by the evaluation means;
Equipped.

上記目的を達成するため、本発明に係る目標物認識性向上方法は、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御ステップと、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
を含む。
In order to achieve the above object, the method for improving target object recognition according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Step and
An evaluation step of evaluating the rehabilitation ability of the user by comparing the first rehabilitation operation with a target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
including.

上記目的を達成するため、本発明に係る目標物認識性向上プログラムは、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御ステップと、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a target recognition improvement program according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Step and
An evaluation step of evaluating the rehabilitation ability of the user by comparing the first rehabilitation operation with a target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
On a computer.

本発明によれば、リハビリテーションとして設定した目標距離と実際にユーザが運動する運動距離との乖離を抑制することができる。   According to the present invention, it is possible to suppress the deviation between the target distance set as rehabilitation and the exercise distance which the user actually exercises.

本発明の第1実施形態に係る目標物認識性向上システムの構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the structure of the target object recognition efficiency improvement system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの構成を示すブロック図である。It is a block diagram which shows the structure of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの他の構成を示す図である。It is a figure which shows the other structure of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムのデータベースの構成を示す図である。It is a figure which shows the structure of the database of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 前提技術に係る目標物認識性向上システムの動作の概略を説明する図である。It is a figure explaining the outline of operation | movement of the target object recognition efficiency improvement system which concerns on a base technology. 前提技術に係る目標物認識性向上システムの動作の概略を説明する図である。It is a figure explaining the outline of operation | movement of the target object recognition efficiency improvement system which concerns on a base technology. 本発明の第3実施形態に係る目標物認識性向上システムの動作の概略を説明する図である。It is a figure explaining an outline of operation of a target object recognition efficiency improvement system concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像の配置位置を説明する図である。It is a figure explaining the arrangement position of the visual recognition auxiliary image in the target object recognition efficiency improvement system concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像の他の例を説明する図である。It is a figure explaining the other example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition assistance image in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition assistance image in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition assistance image in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition assistance image in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。It is a block diagram explaining the composition of the target object recognition efficiency improvement system concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する患者テーブルの一例を説明する図である。It is a figure explaining an example of the patient table which the object recognition performance improvement server contained in the object recognition efficiency improvement system concerning a 3rd embodiment of the present invention has. 本発明の第3実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する表示パラメータテーブルの一例を説明する図である。It is a figure explaining an example of a display parameter table which a target object recognition efficiency improvement server contained in a target object recognition efficiency improvement system concerning a 3rd embodiment of the present invention has. 本発明の第3実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する画像テーブルの一例を説明する図である。It is a figure explaining an example of the image table which the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention has. 本発明の第3実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明するブロック図である。It is a block diagram explaining the hardware constitutions of the target object recognition improvement server contained in the target object recognition improvement system concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの視認補助画像表示の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the visual recognition assistance image display of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。It is a block diagram explaining the composition of the target object recognition efficiency improvement system concerning a 4th embodiment of the present invention. 本発明の第4実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する音テーブルの一例を説明する図である。It is a figure explaining an example of the sound table which the target object recognition performance improvement server contained in the target object recognition performance improvement system concerning a 4th embodiment of the present invention has. 本発明の第4実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明する図である。It is a figure explaining the hardware constitutions of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system concerning a 4th embodiment of the present invention. 本発明の第4実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの音出力制御の処理手順を説明するフローチャートである。It is a flowchart explaining the process procedure of the sound output control of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 4th Embodiment of this invention.

以下に、本発明を実施するための形態について、図面を参照して、例示的に詳しく説明記載する。ただし、以下の実施の形態に記載されている、構成、数値、処理の流れ、機能要素などは一例に過ぎず、その変形や変更は自由であって、本発明の技術範囲を以下の記載に限定する趣旨のものではない。   Hereinafter, exemplary embodiments of the present invention will be exemplarily described in detail with reference to the drawings. However, the configuration, the numerical values, the flow of processing, the functional elements, and the like described in the following embodiments are merely examples, and modifications and changes are free, and the technical scope of the present invention is described in the following description. It is not for the purpose of limiting.

[第1実施形態]
本発明の第1実施形態としての目標物認識性向上システム100について、図1を用いて説明する。情報処理システム100は、ユーザ110に対して行われるリハビリテーションを支援するシステムである。
First Embodiment
A target object recognition performance improvement system 100 according to a first embodiment of the present invention will be described with reference to FIG. The information processing system 100 is a system that supports the rehabilitation performed for the user 110.

図1に示すように、目標物認識性向上システム100は、動作検出部101、表示制御部102、評価部103および更新部104を含む。   As shown in FIG. 1, the target object recognition performance improvement system 100 includes an operation detection unit 101, a display control unit 102, an evaluation unit 103, and an update unit 104.

動作検出部101は、ユーザ110の第1リハビリテーション動作を検出する。表示制御部102は、検出した第1リハビリテーション動作に応じて動くアバター画像と、第1リハビリテーション動作の目標を示す目標画像と、目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる。評価部103は、第1リハビリテーション動作と、目標画像が表わす目標位置とを比較して、ユーザ110のリハビリテーション能力を評価する。更新部104は、評価手段による評価結果に応じて、目標位置を更新する。   The motion detection unit 101 detects a first rehabilitation motion of the user 110. The display control unit 102 displays an avatar image that moves according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid image that improves the visibility of the target image. Let The evaluation unit 103 evaluates the rehabilitation ability of the user 110 by comparing the first rehabilitation operation with the target position represented by the target image. The update unit 104 updates the target position according to the evaluation result by the evaluation unit.

本実施形態によれば、リハビリテーションとして設定した目標距離と実際にユーザが運動する運動距離との乖離を抑制することができる。   According to the present embodiment, it is possible to suppress the deviation between the target distance set as rehabilitation and the exercise distance at which the user actually exercises.

[第2実施形態]
次に本発明の第2実施形態に係るリハビリテーション支援システム200について、図2を用いて説明する。図2は、本実施形態に係るリハビリテーション支援システムの構成を説明するための図である。
Second Embodiment
Next, a rehabilitation support system 200 according to a second embodiment of the present invention will be described with reference to FIG. FIG. 2 is a diagram for explaining the configuration of the rehabilitation support system according to the present embodiment.

図2に示すように、リハビリテーション支援システム200は、リハビリテーション支援サーバ210と、2つのベースステーション231、232と、ヘッドマウントディスプレイ233と、2つのコントローラ234、235とを備える。なお、ヘッドマウントディスプレイ233としては、非透過タイプでも、ビデオシースルータイプでも、オプティカルシースルータイプでも構わない。   As shown in FIG. 2, the rehabilitation support system 200 includes a rehabilitation support server 210, two base stations 231 and 232, a head mounted display 233, and two controllers 234 and 235. The head mounted display 233 may be a non-transmissive type, a video see-through type, or an optical see-through type.

また、リハビリテーション支援サーバ210は、動作検出部211と表示制御部212と評価部213と更新部214と音声入出力部215と、目標データベース216および背景画像+質問/回答データベース217を備える。   The rehabilitation support server 210 also includes a motion detection unit 211, a display control unit 212, an evaluation unit 213, an update unit 214, a voice input / output unit 215, a target database 216, and a background image + question / answer database 217.

動作検出部211は、ユーザ220が手に持つコントローラ234、235の位置およびヘッドマウントディスプレイ233の位置をベースステーション231、232を介して取得し、その位置の変化によりユーザ220のリハビリテーション動作を検出する。   The motion detection unit 211 acquires the position of the controller 234 or 235 held by the user 220 and the position of the head mounted display 233 via the base station 231 or 232, and detects the rehabilitation motion of the user 220 based on the change in the position. .

表示制御部212は、検出したリハビリテーション動作に応じて動くアバター画像と、リハビリテーション動作の目標を示す目標画像と、をヘッドマウントディスプレイ233に表示させる。図3は、ヘッドマウントディスプレイ233に表示された画面301におけるアバター画像311、312の一例を示す図である。アバター画像311、312は、背景画像313に重畳表示される。この例ではアバター画像311、312は、コントローラ234、235と同じ形状をしており、コントローラ234、235の動きに合わせて画面301中を動く。また、ヘッドマウントディスプレイ233の位置や向きに応じて背景画像313は変化する。アバター画像311、312に表示されている通り、コントローラ234、235にはボタンが用意されており、各種設定操作など可能に構成されている。背景画像313として、ここでは、実際の風景を撮像して得た風景映像(例えばニューヨークの町並みを撮影した動画)を表示する。風景映像としては、リハビリ施設の周囲の道路の映像を用いても良く、異国を散歩している気分にさせたり、身近な場所を散歩している気分にさせたりすることができる。風景映像を重畳することで、患者を楽しませつつ、情報量が多い中でのトレーニングを実現することができる。   The display control unit 212 causes the head mount display 233 to display an avatar image that moves according to the detected rehabilitation operation and a target image that indicates the target of the rehabilitation operation. FIG. 3 is a view showing an example of avatars 311 and 312 on the screen 301 displayed on the head mounted display 233. As shown in FIG. The avatars 311 and 312 are superimposed on the background image 313 and displayed. In this example, the avatars 311 and 312 have the same shape as the controllers 234 and 235, and move in the screen 301 in accordance with the movements of the controllers 234 and 235. In addition, the background image 313 changes in accordance with the position and orientation of the head mounted display 233. As displayed in the avatars 311 and 312, buttons are prepared in the controllers 234 and 235 so that various setting operations can be performed. Here, as the background image 313, a landscape image (for example, a moving image obtained by shooting a town in New York) obtained by imaging an actual landscape is displayed. As a landscape image, an image of a road around a rehabilitation facility may be used, and it is possible to make it feel as if you are taking a walk in a foreign country, or to feel as you are taking a walk in a familiar place. By superimposing the landscape image, it is possible to realize training in a large amount of information while entertaining the patient.

また、表示制御部212は、例えば、図4に示すように、ヘッドマウントディスプレイ233の画面401〜403において、背景画像313に重畳して、オブジェクト411を表示する。オブジェクト411は、ユーザ220の頭上方向から下方に向けて降下してきているように表示位置および大きさを徐々に変えて表示する。ユーザ220は、コントローラ234、235を動かして、画面中のアバター画像311を、オブジェクト411に近づける。アバター画像311がオブジェクト411にぶつかると、オブジェクト411は消滅する。   Further, for example, as shown in FIG. 4, the display control unit 212 superimposes the background image 313 on the screens 401 to 403 of the head mounted display 233, and displays the object 411. The object 411 gradually changes the display position and size so as to be lowered from the overhead direction of the user 220 downward. The user 220 moves the controllers 234 and 235 to bring the avatar image 311 on the screen closer to the object 411. When the avatar image 311 hits the object 411, the object 411 disappears.

評価部213は、動作検出部211が検出したリハビリテーション動作と、表示制御部212によって表示された目標画像が表わす目標位置とを比較して、ユーザのリハビリテーション能力を評価する。具体的には、動作検出部211が検出したリハビリテーション動作に対応して移動したアバター画像311と目標画像としてのオブジェクト411とが重なったか否かを、3次元仮想空間中の位置の比較により決定する。結果的に、これらが重なれば、一つのリハビリテーション動作をクリアしたものと評価し、ポイントを加算する。オブジェクト411の奥行き方向の位置については様々な段階(例えば3段階)のものが用意され、それぞれ、異なるポイント(遠いオブジェクトには高いポイント、近いオブジェクトには低いポイント)が設定される。   The evaluation unit 213 evaluates the user's rehabilitation ability by comparing the rehabilitation operation detected by the operation detection unit 211 with the target position represented by the target image displayed by the display control unit 212. Specifically, it is determined by comparison of the position in the three-dimensional virtual space whether or not the avatar image 311 moved according to the rehabilitation operation detected by the operation detection unit 211 and the object 411 as a target image overlap. . As a result, if they overlap, it is evaluated that one rehabilitation operation has been cleared, and points are added. The positions in the depth direction of the object 411 are prepared in various stages (for example, three stages), and different points (high points for distant objects, low points for near objects) are set respectively.

更新部214は、積算されたポイントに応じて、目標課題を更新する。例えば、課題達成率(目標達成数/課題数)などを用いて目標課題を更新してもよい。   The updating unit 214 updates the target task according to the accumulated points. For example, the target task may be updated using the task achievement rate (the number of goals achieved / the number of tasks) or the like.

図5は、リハビリテーション支援サーバ210における処理の流れを示すフローチャートである。ステップS501において、キャリブレーション処理として、リハビリテーション動作の目標をユーザに合わせて初期化する。具体的には、各患者に最初にキャリブレーションとして行動可能範囲の作業を行ってもらい、それを初期値に設定した上で目標をユーザに合わせて初期化する。   FIG. 5 is a flowchart showing the flow of processing in the rehabilitation support server 210. In step S501, as a calibration process, the target of the rehabilitation operation is initialized to the user. Specifically, each patient is first required to work in the actionable range as a calibration, and after setting it to an initial value, the target is initialized according to the user.

また、目標データベース216を参照して、ユーザの属性情報(例えば、運動選手なのか、パーキンソン病なのかなど)に応じた目標に設定する。例えば、怪我をしたスポーツ選手の場合には、怪我が悪化しない程度の初期値を設定し、パーキンソン病に罹患したユーザの場合には、病状の進行を緩やかにする程度の運動を初期値として設定する。さらに、各患者に最初に行動可能範囲の作業を行ってもらい、それを初期値に設定した上で目標をユーザに合わせて初期化する。   Also, with reference to the target database 216, a target is set according to the user's attribute information (for example, whether it is an athlete or Parkinson's disease). For example, in the case of an injured sports player, an initial value that does not aggravate the injury is set, and in the case of a user who suffers from Parkinson's disease, an exercise that causes the progression of a medical condition is set as an initial value. Do. Furthermore, each patient is first required to work in the action range, and after setting it to the initial value, the target is initialized to the user.

次に、ステップS503において、動作検出部211で検出したコントローラ234、235の位置に応じて、アバター画像311、312を表示する。さらに、ステップS505において、設定された課題に応じた位置およびスピードでオブジェクト411を表示する。   Next, in step S503, avatar images 311 and 312 are displayed according to the positions of the controllers 234 and 235 detected by the operation detection unit 211. Further, in step S505, the object 411 is displayed at the position and speed according to the set task.

ステップS507において、アバター画像311、312の動きと、オブジェクト411の動きを比較して、課題をクリアしたか判定する。課題がクリアされていない場合には、そのままステップS505に戻って、課題の難易度を変えることなく次のオブジェクトを表示する。   In step S507, the motion of the avatars 311 and 312 is compared with the motion of the object 411 to determine whether the task has been cleared. If the task has not been cleared, the process returns to step S505, and the next object is displayed without changing the difficulty level of the task.

課題がクリアされた場合にはステップS509に進み、累積ポイントや課題達成確率等を算出する。さらにステップS511に進み、累積ポイントや課題達成確率等を閾値Tと比較し、累積ポイントや課題達成確率等が所定の閾値Tを超えた場合にはステップS513に進んで課題の運動強度を更新する。累積ポイントや課題達成確率等が閾値Tに達しなかった場合にはステップS505に戻って、課題の難易度を変えることなく次のオブジェクトを表示する。   If the task has been cleared, the process proceeds to step S509, and the cumulative point, the task achievement probability, and the like are calculated. Further, the process proceeds to step S511 to compare the accumulated points and the task achievement probability with the threshold T, and when the accumulated points and the task achievement probability etc exceed the predetermined threshold T, the process proceeds to step S513 to update the exercise intensity of the task. . If the cumulative points, the task achievement probability, and the like do not reach the threshold T, the process returns to step S505, and the next object is displayed without changing the degree of difficulty of the task.

例えば、近距離の達成度が80%(または10回等の回数でも可)を超えた場合、中距離のオブジェクトの表示頻度を高くする。中距離のオブジェクトの達成度が80%(または10回等の回数でも可)を超えた場合、遠距離のオブジェクトの表示頻度を高くする。   For example, when the achievement level of the short distance exceeds 80% (or may be 10 times, etc.), the display frequency of the medium distance object is increased. If the achievement of the medium distance object exceeds 80% (or even 10 times or so), the display frequency of the long distance object is increased.

ここでの課題の更新についても、ユーザの属性(怪我をしたスポーツ選手なのか、パーキンソン病患者なのかなど)に応じて変更する。課題の更新方法としては、背景画像を切り替えるといった方法も考えられる。   The update of the task here is also changed in accordance with the user's attributes (such as an injured athlete or a patient with Parkinson's disease, etc.). As a method of updating the task, a method of switching the background image may be considered.

課題を更新した後、ステップS515に進み、ユーザの疲労度を算出して、閾値Nと比較する。疲労度が所定の閾値を超えれば、「停止条件」として処理を終了する。例えば、(疲労度=1−最も近位のオブジェクトの回収率)と算出できる。あるいは(疲労度=1/目の動き)と算出してもよい。明らかに集中していない(全くオブジェクトを探していない、首を振らない等)場合には、それ以上リハビリテーションを継続しても意味がないので休憩することになる。さらには、腕を伸ばすときのスピードが落ちるのを検出(加速度)して、疲労度を算出してもよい。   After updating the task, the process proceeds to step S515, where the degree of fatigue of the user is calculated and compared with the threshold N. If the degree of fatigue exceeds a predetermined threshold, the processing is terminated as "stop condition". For example, it can be calculated as (degree of fatigue = 1−recovery of the most proximal object). Alternatively, it may be calculated as (degree of fatigue = 1 / eye movement). If you are not clearly focused (not looking for an object at all, don't shake your head, etc.), it will be meaningless to continue rehabilitation further, so you will take a break. Furthermore, the degree of fatigue may be calculated by detecting (accelerating) a decrease in speed when extending the arm.

また、例えば、累積ポイントが所定の閾値を超えれば、図6の文字画像601に示すように、2つのコントローラ234、235のうち、左右いずれのコントローラでオブジェクト411にタッチすべきか(ここでは右)を指示する。これにより、文字を認識する認知機能が必要になる上に、動作の難易度も上がり、より高い運動機能が必要になる。つまり、認知機能と運動機能のデュアルタスク(Dual Task:二重課題)が要求される。   Also, for example, if the accumulated point exceeds a predetermined threshold, as shown in the character image 601 of FIG. 6, which of the two controllers 234 and 235 should be used to touch the object 411 with the left or right controller (here, right) To indicate. This makes it necessary to have a cognitive function that recognizes characters, increases the difficulty of movement, and requires a higher motor function. In other words, dual tasks of cognitive function and motor function are required.

なお、図6では、文字で指示を行なっているが、本発明はこれに限定されるものではなく、矢印や色、あるいは声で指示を行なってもよい。このように、本実施形態では、リハビリテーション動作の評価に応じて、その負荷を更新する。   In FIG. 6, the instruction is given by characters, but the present invention is not limited to this, and the instruction may be given by an arrow, a color or a voice. Thus, in the present embodiment, the load is updated according to the evaluation of the rehabilitation operation.

(デュアルタスクについて)
健常者は、普段の日常で「話をしながら歩く」など2つ以上のことを同時に行っている。この様な「2つのことを同時に行う能力」は加齢とともに衰えてくる。例えば「歩行中に話しかけられると、足を止めてしまう」などといったことが起こる。高齢者が転倒する原因は、「運動機能が低下していること」だけではなく、この様な「2つのことを同時に行う能力の低下」が関与していると考えられる。実際に、リハビリテーションにより十分に運動機能が回復したと判断されても、帰宅後に転倒してしまう高齢者は大勢いる。これは、リハビリテーション動作に集中できる環境・条件を整えた状態でリハビリテーションを行なっていることが一つの要因である。つまり、生活環境では、そのように動作に集中できない要因、例えば見晴らしが悪い、障害物が存在する、会話に意識が向いている、といった条件下での動作であることが多いからである。
(About dual task)
Healthy people are doing two or more things at the same time, such as "walk while talking" in normal daily life. Such "the ability to do two things simultaneously" declines with age. For example, "if you talk while walking, you will stop your leg" and so on. It is thought that the cause of the fall of the elderly is not only "the decrease in motor function" but also "the decrease in ability to do two things at the same time". In fact, there are many elderly people who fall after returning home even though it is judged that rehabilitation sufficiently restores their motor function. One of the factors is that rehabilitation is being performed with the environment and conditions in which it is possible to concentrate on the rehabilitation operation. That is, in the living environment, it is often the operation under the condition that factors that can not concentrate on the operation such as poor visibility, the presence of an obstacle, and the conversational awareness.

そこで、注意を分散させるようなリハビリテーションを行なうことが重要と考えられ、具体的にデュアルタスクを与えてトレーニングすることが望ましい。このようなデュアルタスクトレーニングは、高齢者の転倒のみならず、認知症の予防にも有効なプログラムである。   Therefore, it is considered important to carry out rehabilitation that disperses attention, and it is desirable to train specifically by giving dual tasks. Such dual task training is an effective program not only for the fall of elderly people but also for the prevention of dementia.

デュアルタスクトレーニングには、認知課題と運動課題を組み合わせたトレーニングの他、2種類の運動課題を組み合わせたトレーニングも含まれる。   Dual task training includes training that combines two types of exercise tasks, as well as training that combines cognitive tasks and exercise tasks.

認知課題+運動課題としては、100から1ずつ引き算をしながら歩くなどのトレーニングが、運動課題+運動課題としては、コップに入った水を溢さないように歩くなどのトレーニングが挙げられる。   The cognitive task + exercise task includes training such as walking while subtracting one by one from 100, and the exercise task + exercise task includes training such as walking so as not to spill the water in the cup.

評価部213は、単純な歩行に比べてデュアルタスク歩行検査で歩行速度が20%程度遅延するような場合は、転倒リスクが高いと評価し、デュアルタスクを繰り返すように表示制御部212に通知する。   The evaluation unit 213 evaluates that the fall risk is high if the walking speed is delayed by about 20% in the dual task walking test as compared to simple walking, and notifies the display control unit 212 to repeat the dual task. .

なお、「比較的移動能力が高い人」の方がよりデュアルタスクが有効となりやすい。例えば、屋内移動でも杖が手放せない高齢者となると、デュアルタスク能力よりもバランス能力(筋力・平衡感覚など)の強化のほうが、優先順位が高くなる。大まかな判断としては、要支援者はデュアルタスク能力が重要、要介護者はデュアルタスク能力以外のバランス能力が重要と表現できる。キャリブレーションの時系列変化を表示し、自分の運動範囲の改善を視覚的に表示する。   The person with relatively high mobility is more likely to have dual tasks. For example, if you are an elderly person who can not release the cane even if you move indoors, strengthening the balance ability (such as muscle strength and sense of balance) has higher priority than the dual task ability. As a rough judgment, it can be said that the person in need of support needs dual task ability, and the person in need of care needs balance ability other than dual task ability. Display the time series of calibration and visually show the improvement of one's movement range.

(ユーザ属性による設定変更)
通常の改善が見込める患者(骨折等の整形外科的疾患が対象で完全な改善が前提)に対しては、最もハードなリハビリテーション動作を設定し、改善を早める。
(Setting change by user attribute)
For patients who can expect normal improvement (subject to orthopedic disease such as bone fracture and complete improvement assumed), set the hardest rehabilitation operation and accelerate improvement.

個々に応じて改善の程度が異なる患者(脳梗塞等では病変部位によって異なる形の麻痺が生じている患者)に対しては、ある程度まで課題の負荷を向上させるがあるレベルでその負荷の向上をストップする。   For patients with different degrees of improvement depending on the individual (patients who have different forms of paralysis depending on the lesion site in cerebral infarction etc.), the load of the task is improved to a certain extent. Stop.

パーキンソン病等、原則的に機能が低下していく患者の場合は、常に現在の運動可能な状態の評価を定期的に評価することが有用である。   In patients with Parkinson's disease, etc., whose function is basically reduced, it is useful to constantly evaluate the current assessment of their ability to move.

(他のデュアルタスクトレーニング例)
図7は、他のデュアルタスクトレーニング用の画像例を示す図である。オブジェクトにハズレ(爆弾)を仕込むことにより、認知機能を要求する。または、図8に示すように、背景画面に質問画像(ここでは例としてかけ算)を重畳表示し、答えが表示されたオブジェクトの取得のみを評価してもよい。背景画面にグー・チョキ・パーのいずれかを表示し、それに勝つマークが表示されたオブジェクトの回収を要求してもよい。
(Another dual task training example)
FIG. 7 is a view showing another exemplary image for dual task training. By placing a loss on the object (bomb), the cognitive function is required. Alternatively, as shown in FIG. 8, a question image (here, multiplication as an example) may be superimposed and displayed on the background screen, and only the acquisition of the object for which the answer is displayed may be evaluated. The background screen may display one of Goo, Choi, and Pa, and may request collection of an object with a win mark.

さらには、単にオブジェクトに数字を表示させ、数字の大きいオブジェクトの取得のみを評価してもよい。その他、背景画像313内に信号を表示させ、赤信号の時にオブジェクトを取ると評価部213は、ポイントをマイナスにしてもよい。   Furthermore, the object may simply be displayed with numbers, and only the acquisition of objects with large numbers may be evaluated. In addition, when a signal is displayed in the background image 313 and an object is picked up in the case of a red signal, the evaluation unit 213 may make the point negative.

本実施形態によれば、リハビリテーション動作の達成度(達成確率など)に応じて課題を更新するので、リハビリテーションの進み具合に応じた負荷をユーザに与えることができる。また、背景画像313を表示することにより、患者が楽しめるだけではなく、周囲に意識を向ける状況の中でリハビリテーションを行なわせることができ、現実世界に戻った際により安全な生活を実現できる。   According to the present embodiment, since the task is updated according to the degree of achievement (such as the achievement probability) of the rehabilitation operation, it is possible to give the user a load according to the progress of the rehabilitation. In addition, displaying the background image 313 makes it possible not only to enjoy the patient but also to perform rehabilitation in a situation in which the user is conscious about the surroundings, and a safer life can be realized when returning to the real world.

図9は、他のデュアルタスクトレーニング例を示す図である。音声入出力部215は、図9のように、背景画像に関する質問音声をヘッドホン901に対して出力し、ヘッドマウントディスプレイ233に設けられたマイク902を介して、質問に対する回答を取得する。評価部213は、音声情報として取得した回答に対して、音声認識処理を施して、あらかじめ用意された回答と比較し、その比較結果に応じて、ユーザのリハビリテーション能力を評価する。   FIG. 9 is a diagram showing another dual task training example. The voice input / output unit 215 outputs the question voice regarding the background image to the headphone 901 as shown in FIG. 9, and acquires the answer to the question via the microphone 902 provided on the head mounted display 233. The evaluation unit 213 performs voice recognition processing on the response acquired as voice information, compares it with the response prepared in advance, and evaluates the user's rehabilitation ability according to the comparison result.

図10は、背景画像・質問/回答データベース217の内容の一例を示す図である。背景動画に対して、質問音声と解答とポイントとが、対応付けられて記憶されている。   FIG. 10 is a diagram showing an example of the contents of the background image / question / answer database 217. As shown in FIG. The question voice, the answer and the point are stored in association with the background moving image.

ユーザの反応として、デュアルタスクではオブジェクトの回収率が下がるという結果が予想される。デュアルタスクを表示してもオブジェクトの回収達成率が異ならない、という結果をゴールとして期待する。シングルタスク(single task)時とデュアルタスク時とで、オブジェクトの回収率、またはオブジェクトへのリーチ率を比較し、一定の範囲に入るまで繰り返しトレーニングを行なう。   As the user's reaction, it is expected that the dual task results in a decrease in the object recovery rate. We expect the result that the recovery achievement rate of objects does not differ even if dual task is displayed as a goal. The recovery rate of objects or the reach rate to objects is compared at single task time and dual task time, and training is repeated until it falls within a certain range.

以上は運動機能と認知機能を同時に要求するデュアルタスクトレーニングだが、本発明はこれに限定されるものではなく、2つの運動機能を同時に要求するデュアルタスクトレーニングでもよい。   The above is dual task training that simultaneously requires motor function and cognitive function, but the present invention is not limited to this, and may be dual task training which requires two motor functions simultaneously.

例えば、図11に示すように、飛んでくる物体1111をよけながらオブジェクト411を拾うことを要求してもよい。ヘッドマウントディスプレイ233に設けられたセンサの位置を検出することにより、物体1111をうまくよけたか否かを判定できる。2つのリハビリテーション動作の両方の達成ポイント(例えば達成率など)に基づいて、評価および課題の更新を行なえばよい。   For example, as shown in FIG. 11, it may be required to pick up the object 411 while avoiding the flying object 1111. By detecting the position of the sensor provided on the head mounted display 233, it can be determined whether or not the object 1111 has been successfully taken. The evaluation and the update of the task may be performed based on the achievement points (for example, the achievement rate) of both of the two rehabilitation operations.

また、例えば、図12の画像1201に示すように、コントローラ234、235の動作に応じて動くアバター画像として、水の入ったコップ画像1211、1212を表示し、これらのコップ画像1211、1212を移動させて、オブジェクト411を回収してもよい。ただし、画像1202に示すようにコップ画像1221を傾けて水がこぼれた場合には、コップ画像1222でオブジェクト411を回収してもポイントを得ることはできない。画像1203のように、コップ画像1231、1232内の水をこぼすことなくオブジェクト411を回収したときのみ、ポイントを加算する。   For example, as shown in the image 1201 of FIG. 12, as the avatar image which moves according to the operation of the controller 234, 235, the cup images 1211, 1212 containing water are displayed, and these cup images 1211, 121 are moved. The object 411 may be collected. However, as shown in the image 1202, when water is spilled by tilting the cup image 1221, points can not be obtained even if the object 411 is recovered by the cup image 1222. Points are added only when the object 411 is recovered without spilling water in the cup images 1231 and 1232 as in the image 1203.

他にも、オブジェクトを回収する側のアバター画像とは逆側のアバター画像を常に指定された場所に触れさせることを要求するといったことが考えられる。コントローラ234、235にもうけられたボタンのうち、指定されたボタンを所定回数押しながらオブジェクトを回収することを要求してもよい。また、ユーザの足の動きを取得するセンサを設けた場合には、指定した足の動きを要求してもよい。   In addition, it may be considered that the avatar image on the opposite side to the avatar image on the object recovery side is required to always touch a designated place. The controller 234 or 235 may request that the object be collected while pressing a designated button a predetermined number of times. In addition, when a sensor for acquiring the movement of the user's foot is provided, the specified movement of the foot may be requested.

[第3実施形態]
次に本発明の第3実施形態に係る目標物認識性向上システムについて、図13A乃至図17Bを用いて説明する。図13Aは、本実施形態に係る目標物認識性向上システムの前提技術の動作の概略を説明する図である。図13Bは、本実施形態に係る目標物認識性向上システムの前提技術の動作の概略を説明する図である。本実施形態に係る目標物認識性向上システムは、上記第2実施形態と比べると、目標画像の認識性(例えば、視認性)を向上させる視認補助画像を表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Third Embodiment
Next, a target object recognition performance improvement system according to a third embodiment of the present invention will be described using FIGS. 13A to 17B. FIG. 13A is a diagram for explaining the outline of the operation of the base technology of the target object recognition efficiency improvement system according to the present embodiment. FIG. 13B is a diagram for describing an outline of the operation of the base technology of the target object recognition efficiency improvement system according to the present embodiment. The target object recognition performance improvement system according to the present embodiment is different from the second embodiment in that a visual recognition auxiliary image for improving the recognition performance (for example, the visibility) of a target image is displayed. The other configurations and operations are similar to those of the second embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.

前提技術においては、アバター画像1320の移動距離、すなわち、ユーザ220の運動距離1312は、基準1310とアバター画像1320のセンサ(アバター画像1320のヘッド部分)との間の距離により計測する。そして、ユーザ220が腕などを動かさなければならない距離である目標距離1311は、基準1310と目標画像としてのオブジェクト1330の基準線1331との間の距離に基づいて決定される。そして、ユーザ220は、リハビリテーション運動として、アバター画像1320を移動させてオブジェクト1330に近づける。   In the base technology, the movement distance of avatar image 1320, that is, the movement distance 1312 of user 220 is measured by the distance between reference 1310 and the sensor of avatar image 1320 (the head portion of avatar image 1320). Then, a target distance 1311 which is a distance that the user 220 has to move an arm or the like is determined based on the distance between the reference 1310 and the reference line 1331 of the object 1330 as a target image. Then, the user 220 moves the avatar image 1320 closer to the object 1330 as a rehabilitation exercise.

しかしながら、図13Bに示したように、アバター画像1320が、オブジェクト1330の頂点1332に触れると、システムは、ユーザ220のリハビリテーション動作の一つが終了したと判断し、次の目標として新たなオブジェクト1330を表示する。   However, as shown in FIG. 13B, when the avatar image 1320 touches the vertex 1332 of the object 1330, the system determines that one of the user 220's rehabilitation operations has ended, and a new object 1330 is taken as the next goal. indicate.

システムの提供者側としては、リハビリテーション運動として、ユーザ220が腕を伸ばしきった時にオブジェクト1330にアバター画像1320が接触するようにしたい。しかしながら、オブジェクト1330の大きさが大きい(頂点と基準線1331との距離が大きい)と、オブジェクト1330の端にアバター画像1320が触れただけで、オブジェクト1330に接触したと判定される。そのため、ユーザ220は、当初想定していた距離だけ腕を動かすことができないため、期待されるリハビリテーションの効果を得ることが困難となる。   As a provider of the system, as a rehabilitation exercise, the avatar image 1320 is desired to be in contact with the object 1330 when the user 220 is fully extended. However, if the size of the object 1330 is large (the distance between the apex and the reference line 1331 is large), it is determined that the object 1330 is touched only by touching the avatar image 1320 at the end of the object 1330. Therefore, since the user 220 can not move the arm by the distance initially assumed, it is difficult to obtain the expected rehabilitation effect.

また、ユーザ220としても、腕を伸ばし切らないうちにオブジェクト1330にタッチすることができるので、リハビリテーション運動による達成感や満足感を十分に得ることができず、リハビリテーションに対する意欲が低下することもある。   In addition, since the user 220 can also touch the object 1330 before the arm is extended and cut, a sense of accomplishment and satisfaction due to the rehabilitation exercise can not be sufficiently obtained, and the motivation for rehabilitation may be lowered. .

この場合、実際にアバター画像1320が動いた距離である運動距離1312は、ユーザ220が本来動かさなければならない距離である目標距離1311に対して、乖離している。そのため、ユーザ220は、リハビリテーション開始前に設定した運動距離1312の運動をしていないこととなり、リハビリテーションにより得られる効果も期待した効果よりも減少してしまう。   In this case, an exercise distance 1312 which is a distance by which the avatar image 1320 has actually moved deviates from a target distance 1311 which is a distance that the user 220 has to move originally. Therefore, the user 220 does not exercise the exercise distance 1312 set before the start of rehabilitation, and the effect obtained by rehabilitation is also smaller than the expected effect.

例えば、オブジェクト1330の一辺の長さを20.0cm、アバター画像1320のセンサ部(アバター画像1320のヘッド部分)の直径1321を5.0cmとする。この場合、ユーザ220が、オブジェクト1330の基準線1331ではなく頂点1332にアバター画像1320を接触させると、目標距離1311と運動距離1312との間に10.0cm程度の誤差が生じる。   For example, the length of one side of the object 1330 is 20.0 cm, and the diameter 1321 of the sensor unit (the head portion of the avatar image 1320) of the avatar image 1320 is 5.0 cm. In this case, when the user 220 brings the avatar 1320 into contact with the apex 1332 instead of the reference line 1331 of the object 1330, an error of about 10.0 cm occurs between the target distance 1311 and the movement distance 1312.

そのため、ユーザ220は、リハビリテーション開始前に想定していた運動距離1312の分だけアバター画像1320を動かしていないので、ユーザ220が本来享受できたはずであるリハビリテーションの効果が減少してしまう。   Therefore, since the user 220 does not move the avatar image 1320 by the exercise distance 1312 assumed before the start of rehabilitation, the effect of the rehabilitation which the user 220 should have been able to enjoy will be reduced.

ユーザ220が腕を伸ばし切った時にオブジェクト1330に触れられるように、オブジェクト1330を小さくすると、ユーザ220は、画面内でオブジェクト1330の位置を視認し難くなる。オブジェクト1330を視認することができなければ、リハビリテーションが成立しない。   If the size of the object 1330 is reduced so that the user 220 touches the object 1330 when the user stretches his or her arm, it becomes difficult for the user 220 to visually recognize the position of the object 1330 in the screen. If the object 1330 can not be viewed, rehabilitation is not established.

したがって、アバター画像1320のセンサ部(反応部分)をアバター画像1320のヘッド部分よりも小さな領域とする。これにより、目標距離1311と運動距離との間の乖離(誤差)をより小さくすることができる。   Therefore, the sensor part (reaction part) of avatar image 1320 is made into a field smaller than the head part of avatar image 1320. This makes it possible to further reduce the deviation (error) between the target distance 1311 and the movement distance.

図13Cは、本実施形態に係る目標物認識性向上システムの動作の概略を説明する図である。そこで、本実施形態においては、想定した目標距離1311とアバター画像1320による運動距離1312との間に乖離が生じないように、オブジェクト1330の中心部のグラデーションを濃くして反応部分とする。そして、オブジェクト1330の反応部分の周囲の部分のグラデーションを薄くする。つまり、図13Aおよび図13Bに示したオブジェクト1330の大きさを小さくし、その周りをオブジェクト1330よりも大きい視認補助画像1333で囲むようにする。すなわち、オブジェクト1330と視認補助画像1333とが重畳して表示されるようにしている。   FIG. 13C is a diagram for describing an outline of the operation of the target object recognition performance improvement system according to the present embodiment. Therefore, in the present embodiment, the central portion of the object 1330 is darkened to be a reaction portion so that a deviation does not occur between the assumed target distance 1311 and the movement distance 1312 by the avatar image 1320. Then, the gradation of the portion around the reaction portion of the object 1330 is lightened. That is, the size of the object 1330 shown in FIGS. 13A and 13B is reduced, and the periphery thereof is surrounded by the visual aid 1133 larger than the object 1330. That is, the object 1330 and the visual recognition auxiliary image 1333 are superimposed and displayed.

ユーザ220から見れば、オブジェクト1330の大きさを小さくすると、オブジェクト1330が見難くなる(視認性が低下する)が、視認性の低下を補うために、小さくなったオブジェクト1330の周囲に視認補助画像1333を配置する。   From the viewpoint of the user 220, when the size of the object 1330 is reduced, the object 1330 becomes difficult to see (the visibility decreases), but the visual aid image is displayed around the reduced object 1330 to compensate for the decrease in visibility. Arrange 1333.

例えば、オブジェクト1330の一辺の長さを5.0cm、視認補助画像1333の一辺の長さを20.0cm、アバター画像1320のセンサ部1322の直径を2.0cmとする。そうすると、目標距離1311と運動距離1312との誤差(乖離)は、2.0cm前後まで低下する。   For example, the length of one side of the object 1330 is 5.0 cm, the length of one side of the visual assistant image 1333 is 20.0 cm, and the diameter of the sensor unit 1322 of the avatar image 1320 is 2.0 cm. Then, the error (deviation) between the target distance 1311 and the movement distance 1312 decreases to around 2.0 cm.

これにより、オブジェクト1330および視認補助画像1333のグラデーションの違いと大きさの違いとによるオブジェクト1330の視認性の低下を防止しつつ、目標距離1311と運動距離1312との乖離(誤差)を小さくすることができる。また、副次的な効果として、オブジェクト1330にアバター画像1320を接触させた時の体験度が上昇する。すなわち、ユーザ220にとって、オブジェクト1330に接触した時の感覚が鮮明になり、リハビリテーションの目標を達成できたことの喜びも上昇する。   Thereby, the deviation (error) between the target distance 1311 and the movement distance 1312 is reduced while preventing the decrease in the visibility of the object 1330 due to the difference in gradation and the difference in size of the object 1330 and the visual auxiliary image 1333. Can. As a secondary effect, the experience level when the avatar image 1320 is brought into contact with the object 1330 is increased. That is, for the user 220, the sense when touching the object 1330 becomes clear, and the joy of achieving the goal of rehabilitation also rises.

図13Dは、本実施形態に係る目標物認識性向上システムにおける視認補助画像の配置位置を説明する図である。図13Cにおいては、目標画像としてのオブジェクト1330は、視認補助画像1333に包含されるように表示され、さらに、視認補助画像1333の中心近傍に配置されていた。   FIG. 13D is a view for explaining the arrangement position of the visual recognition auxiliary image in the target object recognition efficiency improvement system according to the present embodiment. In FIG. 13C, the object 1330 as the target image is displayed so as to be included in the visual aid auxiliary image 1333 and is disposed near the center of the visual aid auxiliary image 1333.

しかしながら、図13Dに示したように、オブジェクト1330は、視認補助画像1333の手前の下辺付近に配置してもよい。つまり、ユーザ220から見て手前側にオブジェクト1330を配置してもよい。このように、オブジェクト1330は、視認補助画像1333の中に入っているように表示されていれば、視認補助画像1333のどの位置に配置されてもよい。このように、オブジェクト1330の大きさを小さくして、目標距離1311と運動距離1312との乖離を小さくすると、オブジェクト1330の視認性が低下する。そのため、オブジェクト1330の視認性を向上させるために、オブジェクト1330の周囲にオブジェクト1330よりも大きな視認補助画像1333を表示させることにより、オブジェクト1330の視認性の低下を補う。なお、オブジェクト1330の視認性を向上させるための視認補助画像1333は、ここに示したような、立方体のオブジェクト1330の倍率を拡大した立方体には限定されない。   However, as shown in FIG. 13D, the object 1330 may be arranged near the lower side of the near side of the visual aid image 1333. That is, the object 1330 may be arranged on the front side as viewed from the user 220. As described above, the object 1330 may be disposed at any position of the visual assistance image 1333 as long as the object 1330 is displayed so as to be included in the visual recognition assistance image 1333. As described above, when the size of the object 1330 is reduced and the deviation between the target distance 1311 and the movement distance 1312 is reduced, the visibility of the object 1330 is reduced. Therefore, in order to improve the visibility of the object 1330, the visibility assistance image 1333 larger than the object 1330 is displayed around the object 1330 to compensate for the decrease in the visibility of the object 1330. Note that the visual aid 1133 for improving the visibility of the object 1330 is not limited to the cube shown in this case where the magnification of the cubic object 1330 is enlarged.

次に、図13E乃至図13Iを用いて視認補助画像1333の他の形状について説明する。図13Eは、本実施形態に係る目標物認識性向上システムにおける視認補助画像の他の例を説明する図である。図13Fは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。図13Gは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。図13Hは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。図13Iは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。   Next, another shape of the visual identification auxiliary image 1333 will be described with reference to FIGS. 13E to 13I. FIG. 13E is a view for explaining another example of the visual recognition auxiliary image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13F is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13G is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13H is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13I is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment.

図13Eに示したように、視認補助画像1340は、例えば、オブジェクト1330の存在位置を示す矢印形状であってもよい。そして、オブジェクト1330は、矢印形状の視認補助画像1340の中に内包されていない。つまり、目標画像としてのオブジェクト1330と視認補助画像1340とが重畳して表示されているのではなく、視認補助画像1340は、オブジェクト1330の外側に配置される。このように、矢印形状の視認補助画像1340とすれば、ユーザ220は、矢印の先端部分の先に、オブジェクト1330が存在することを容易に認識することができる。   As shown in FIG. 13E, the visual recognition auxiliary image 1340 may have, for example, an arrow shape indicating the position where the object 1330 is present. Then, the object 1330 is not included in the arrow-shaped visual aid 1340. In other words, the visual aid image 1340 is disposed outside the object 1330, instead of the object 1330 as the target image and the visual aid image 1340 being displayed in an overlapping manner. As described above, with the aid of the arrow-shaped visual aid 1340, the user 220 can easily recognize that the object 1330 is present at the tip of the tip of the arrow.

図13Fに示したように、視認補助画像1350は、ユーザ220の注意を引くような形状であってもよい。なお、ユーザ220の注意を引くような形状は、図13Fに示した形状には限定されず、例えば、星形形状や十字形形状、多角形形状などであってもよい。また、縦線1351と横線1352とを合わせて表示し、縦線1351および横線1352の中心にオブジェクト1330が配置されていることを示してもよい。   As shown in FIG. 13F, the viewing assistance image 1350 may be shaped to draw the user's 220 attention. The shape that draws the user's 220 attention is not limited to the shape shown in FIG. 13F, and may be, for example, a star shape, a cross shape, a polygon shape, or the like. The vertical line 1351 and the horizontal line 1352 may be displayed together to indicate that the object 1330 is disposed at the center of the vertical line 1351 and the horizontal line 1352.

図13Gに示したように、視認補助画像1360は、アバター画像1320のセンサ部1322からオブジェクト1330に向かって伸びる一点鎖線であってもよい。なお、視認補助画像1360は、一点鎖線には限定されず、例えば、直線や二点鎖線、点線などであってもよい。   As shown in FIG. 13G, the visual aid image 1360 may be an alternate long and short dash line extending from the sensor unit 1322 of the avatar image 1320 toward the object 1330. Note that the visual aid image 1360 is not limited to the one-dot and dash line, and may be, for example, a straight line, a two-dot and dash line, or a dotted line.

そして、ユーザ220は、視認補助画像1360の一点鎖線をガイドラインとして、この一点鎖線に沿って視線を動かせばオブジェクト1330を視認して、オブジェクト1330の存在位置を認識することができる。さらに、この一点鎖線に沿ってアバター画像1320を動かせば、オブジェクト1330にアバター画像1320をタッチさせることができる。なお、視認補助画像1370と合わせて視認補助画像1333を表示すれば、オブジェクト1330の視認性がさらに向上する。   Then, the user 220 can visually recognize the object 1330 and recognize the existing position of the object 1330 by moving the line of sight along the dashed dotted line with the dashed dotted line as a guideline. Furthermore, moving the avatar image 1320 along the alternate long and short dash line allows the object 1330 to touch the avatar image 1320. In addition, when the visual recognition assistance image 1333 is displayed together with the visual recognition assistance image 1370, the visibility of the object 1330 is further improved.

図13Hに示したように、視認補助画像1370は、複数の矢印がセンサ部1322からオブジェクト1330に向かって一直線上に配置されたものであってもよい。そして、ユーザ220は、この複数の矢印をガイドラインとして、この複数の矢印に沿って視線を動かせばオブジェクト1330を視認して、オブジェクト1330の存在位置を認識することができる。さらに、この複数の矢印に沿ってアバター画像1320を動かせば、オブジェクト1330にアバター画像1320をタッチさせることができる。なお、視認補助画像1370と合わせて立方体の視認補助画像1333を表示すれば、オブジェクト1330の視認性がさらに向上する。   As shown in FIG. 13H, the visual aid 1130 may have a plurality of arrows arranged on a straight line from the sensor unit 1322 toward the object 1330. Then, the user 220 can visually recognize the object 1330 by recognizing the position of the object 1330 by moving the line of sight along the plurality of arrows with the plurality of arrows as a guideline. Furthermore, moving the avatar image 1320 along the plurality of arrows allows the object 1330 to touch the avatar image 1320. Note that if the cube auxiliary visual image 1333 is displayed together with the visual auxiliary image 1370, the visibility of the object 1330 is further improved.

図13Iに示したように、複数の球形の視認補助画像1380が、オブジェクト1330の上下左右の位置に配置されている。すなわち、図13Iにおいては、4個の視認補助画像1380の中心にオブジェクト1330が配置されるように、複数の球形の視認補助画像1380がオブジェクト1330の周囲に配置されている。なお、視認補助画像1380の形状は、球形には限定されず、例えば、三角形形状や矩形形状、多角形形状、星形形状などであってもよい。   As shown in FIG. 13I, a plurality of spherical visual aids 1380 are arranged at the top, bottom, left, and right of the object 1330. That is, in FIG. 13I, a plurality of spherical visual aids 1380 are arranged around the object 1330 such that the object 1330 is arranged at the center of the four visual aids 1380. The shape of the visual aid image 1380 is not limited to a spherical shape, and may be, for example, a triangular shape, a rectangular shape, a polygonal shape, a star shape, or the like.

図13Jは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。目標物認識性向上サーバは、例えば、ユーザ220のリハビリテーションの進み具合に合わせて、表示部1402に表示する視認補助画像1333の大きさを変更してもよい。例えば、目標物認識性向上サーバは、リハビリテーションの初期には、大きめの視認補助画像1333を表示させる。そして、ユーザ220のリハビリテーションが進んだ状態では、リハビリテーションの進行具合に合わせて視認補助画像1333の大きさを小さくしてもよい。   FIG. 13J is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. For example, the target object recognition performance improvement server may change the size of the visual assistance image 1333 displayed on the display unit 1402 according to the progress of the rehabilitation of the user 220. For example, the target object recognition performance improvement server displays a larger visual aid image 1333 at the initial stage of rehabilitation. Then, in a state where the rehabilitation of the user 220 has progressed, the size of the visual identification auxiliary image 1333 may be reduced according to the progress of the rehabilitation.

また、目標物認識性向上サーバは、ユーザ220のリハビリテーションの進行具合に合わせるのではなく、例えば、ユーザ220の視力に合わせて視認補助画像1333の大きさを変更してもよい。つまり、目標物認識性向上サーバは、視力の悪いユーザ220であれば、大きめの視認補助画像1333を表示させ、比較的視力のよいユーザ220であれば、小さめの視認補助画像1333を表示させてもよい。このように、目標物認識性向上サーバは、ユーザ220の視力に応じた大きさの視認補助画像を表示させてもよい。   In addition, the target object recognition performance improvement server may change the size of the visual assistance image 1333 in accordance with the visual acuity of the user 220, for example, in accordance with the progress of the rehabilitation of the user 220. That is, the target object recognition performance improvement server displays the larger visual assistance image 1333 if the user 220 has poor vision, and displays the smaller visual assistance image 1333 if the user 220 has relatively good vision. It is also good. Thus, the target object recognition performance improvement server may display a visual aid image of a size according to the visual acuity of the user 220.

また、例えば、目標物認識性向上サーバは、ユーザ220が認知症であった場合、認知症の進行具合や認知機能に合わせた大きさの視認補助画像1333を表示させてもよい。なお、視認補助画像1333の大きさは、目標物認識性向上サーバが自動的に変更しても、目標物認識性向上システムを操作する医師などのオペレータが手動で変更して、ユーザ220が変更してもよい。   In addition, for example, when the user 220 is a dementia, the target object recognition performance improvement server may display a visual aid 1133 having a size that matches the progress of the dementia or the cognitive function. In addition, even if the target recognition improving server automatically changes the size of the visual recognition auxiliary image 1333, the operator such as a doctor who operates the target recognition improving system manually changes it, and the user 220 changes it. You may

図14は、本実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。目標物認識性向上システム1400は、目標物認識性向上サーバ1401と表示部1402とを有する。なお、目標物認識性向上システム1400に含まれる要素はこれらには限定されない。目標物認識性向上サーバ1401は、動作検出部1411、表示制御部1412、評価部1413および更新部1414を有する。   FIG. 14 is a block diagram for explaining the configuration of the target object recognition performance improvement system according to the present embodiment. The target object recognition performance improvement system 1400 has a target object recognition performance improvement server 1401 and a display unit 1402. In addition, the element contained in the target object recognition efficiency improvement system 1400 is not limited to these. The target object recognition performance improvement server 1401 includes an operation detection unit 1411, a display control unit 1412, an evaluation unit 1413, and an update unit 1414.

動作検出部1411は、ユーザ220が手に持っているコントローラの位置や、ユーザ220が装着しているヘッドマウントディスプレイなどの位置を取得し、取得した位置の変化に基づいて、ユーザ220の動き(リハビリテーション動作)を検出する。   The operation detection unit 1411 acquires the position of the controller held by the user 220 and the position of the head mounted display mounted by the user 220, and the movement of the user 220 based on the acquired change in position ( Detect rehabilitation action).

表示制御部1412は、検出したリハビリテーション動作に応じて動くアバター画像1320と、リハビリテーション動作の目標を示す目標画像と、目標画像の視認性を向上させる少なくとも1つの視認補助画像1333と、を表示部1402などに表示させる。   The display control unit 1412 displays, on the display unit 1402, an avatar image 1320 that moves according to the detected rehabilitation operation, a target image indicating the target of the rehabilitation operation, and at least one visual aid 1133 for improving the visibility of the target image. Display on etc.

表示制御部1412は、目標画像と視認補助画像1333とを重畳して表示させる。例えば、目標画像の大きさを視認補助画像1333の大きさよりも小さくし、目標画像が視認補助画像1333の中に包含されているように表示させる。   The display control unit 1412 superimposes and displays the target image and the visual recognition auxiliary image 1333. For example, the size of the target image is made smaller than the size of the visual recognition auxiliary image 1333, and the target image is displayed so as to be included in the visual recognition auxiliary image 1333.

表示制御部1412は、目標画像を、例えば、視認補助画像1333の中心近傍に表示させてもよい。また、表示制御部1412は、目標画像を視認補助画像1333の中心近傍ではなく、視認補助画像1333の中に包含され、さらにアバター画像1320に近い側、つまり、ユーザ220から見て手前側に表示させてもよい。   The display control unit 1412 may cause the target image to be displayed, for example, in the vicinity of the center of the visual recognition auxiliary image 1333. In addition, the display control unit 1412 displays the target image not in the vicinity of the center of the visual recognition auxiliary image 1333 but in the visual recognition auxiliary image 1333 and further near the avatar image 1320, that is, the front side as viewed from the user 220 You may

表示制御部1412は、オブジェクト1330と視認補助画像1333とを識別可能に表示させてもよい。具体的には、例えば、オブジェクト1330のグラデーションを視認補助画像1333のグラデーションよりも濃く表示させる。これにより、ユーザ220は、オブジェクト1330が濃く表示されているので、薄く表示されている視認補助画像1333とのコントラストに差が生じ、オブジェクト1330を確実に認識することができる。なお、オブジェクト1330および視認補助画像1333へのグラデーションの付け方は、ここに示した方法には限定されない。例えば、視力の弱いユーザ220であっても、オブジェクト1330と視認補助画像1333とを確実に識別できるグラデーションの付け方であってもよい。   The display control unit 1412 may display the object 1330 and the visual recognition auxiliary image 1333 in a distinguishable manner. Specifically, for example, the gradation of the object 1330 is displayed darker than the gradation of the visual identification auxiliary image 1333. As a result, since the object 1330 is displayed dark, the user 220 has a difference in contrast with the lightly displayed auxiliary visual image 1333 and can reliably recognize the object 1330. In addition, how to put the gradation to the object 1330 and the visual recognition auxiliary image 1333 is not limited to the method shown here. For example, even a user 220 with weak vision may use a gradation that can reliably identify the object 1330 and the visual aid 1133.

また、表示制御部1412は、オブジェクト1330と視認補助画像1333とを識別可能に表示させるために、オブジェクト1330と視認補助画像1333とを異なる色で表示する。表示制御部1412は、例えば、オブジェクト1330を濃色系の色で着色し、視認補助画像1333を淡色系の色で着色するが、着色する色の組み合わせ(パターン)はこれには限定されない。例えば、色覚異常(色盲)のユーザ220であっても、オブジェクト1330と視認補助画像1333とを確実に識別できる色の組み合わせで着色してもよい。また、表示制御部1412は、弱視や視野狭窄、色覚異常など様々なタイプのユーザ220に対応可能な着色をしてもよい。なお、オブジェクト1330と視認補助画像1333とに着色する色は、ユーザ220が選択してもよいし、医師などのオペレータが選択してもよい。   In addition, the display control unit 1412 displays the object 1330 and the visual assistance image 1333 in different colors in order to display the object 1330 and the visual recognition assistance image 1133 in a distinguishable manner. For example, the display control unit 1412 colors the object 1330 with a dark color and colors the visual aid image 1333 with a light color, but the combination (pattern) of colors to be colored is not limited to this. For example, even a user 220 with color blindness (color blindness) may be colored in a combination of colors that can reliably identify the object 1330 and the visual aid 1133. In addition, the display control unit 1412 may perform coloring that can correspond to various types of users 220 such as low vision, visual field narrowing, and color vision abnormalities. Note that the user 220 may select the color to be used to color the object 1330 and the visual recognition auxiliary image 1333 or may be selected by an operator such as a doctor.

なお、ここでは、オブジェクト1330および視認補助画像1333のグラデーションや色などについて説明をしたが、他の視認補助画像1340,1350,1360,1370,1380についても同様にグラデーションや色を変化させてもよい。   Although the gradation and color of the object 1330 and the auxiliary visual image 1333 have been described here, the gradation and color may be similarly changed for the other auxiliary visual images 1340, 1350, 1360, 1370, and 1380. .

さらに、表示制御部1412は、ユーザ220の視力および評価部1413による評価結果の少なくとも一方に応じて、視認補助画像1333の表示の変更を制御する。例えば、表示制御部1412は、ユーザ220の視力やユーザ220のリハビリテーションの進行具合、ユーザ220の認知症の進行具合などに応じて、視認補助画像1333の大きさを変更する。   Furthermore, the display control unit 1412 controls the change of the display of the visual recognition auxiliary image 1333 according to at least one of the visual acuity of the user 220 and the evaluation result by the evaluation unit 1413. For example, the display control unit 1412 changes the size of the viewing assistance image 1333 according to the visual acuity of the user 220, the progress of the rehabilitation of the user 220, the progress of the dementia of the user 220, and the like.

評価部1413は、動作検出部1411が検出したリハビリテーション動作と、表示制御部1412によって表示された目標画像としてのオブジェクト1330が表す目標位置と、と比較して、ユーザ220のリハビリテーション能力を評価する。   The evaluation unit 1413 evaluates the rehabilitation ability of the user 220 in comparison with the rehabilitation operation detected by the operation detection unit 1411 and the target position represented by the object 1330 as the target image displayed by the display control unit 1412.

更新部1414は、評価部1413による評価結果に応じて、オブジェクト1330により表される目標位置を更新する。   The update unit 1414 updates the target position represented by the object 1330 according to the evaluation result by the evaluation unit 1413.

表示部1402は、表示制御部1412の制御に従い、目標画像や視認性補助画像などを表示する。表示部1402は、ヘッドマウントディスプレイやディプレイ、スクリーンなどであるが、これらには限定されない。   The display unit 1402 displays a target image, a visibility auxiliary image, and the like according to the control of the display control unit 1412. The display unit 1402 is a head mounted display, a display, a screen, or the like, but is not limited thereto.

図15Aは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する患者テーブルの一例を説明する図である。患者テーブル1501は、患者ID(Identifier)1511に関連付けて、属性情報1512、リハビリ対象1513、現在のレベル1514およびリハビリメニュー15115を記憶する。患者ID1511は、患者を識別するための識別子である。属性情報1512は、年齢や性別などの患者の属性を示す情報である。リハビリ対象1513は、その患者が身体のどの部位がリハビリテーションを受ける対象となっているかを示すデータであり、例えば、腕や脚などの身体の部位を表すデータである。   FIG. 15A is a view for explaining an example of a patient table included in the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. The patient table 1501 stores attribute information 1512, rehabilitation target 1513, current level 1514 and rehabilitation menu 15115 in association with a patient ID (Identifier) 1511. The patient ID 1511 is an identifier for identifying a patient. The attribute information 1512 is information indicating an attribute of a patient such as age and gender. The rehabilitation target 1513 is data indicating which part of the body of the patient is targeted for rehabilitation, and is data representing a part of the body such as an arm or a leg, for example.

現在のレベル1514は、患者の現在のリハビリテーションのレベルを示すデータである。すなわち、患者のリハビリテーションの進行具合などを示すデータである。リハビリテーションの初期段階から最終段階までを複数のランク、例えば、Aランク、Bランクなどに分けたデータである。なお、リハビリテーションのレベルの分け方は、これには限定されない。リハビリメニュー1515は、患者が受けるべきリハビリテーションのメニューに関する情報である。   The current level 1514 is data indicating the patient's current level of rehabilitation. That is, it is data indicating the progress of rehabilitation of the patient. The data from the initial stage to the final stage of rehabilitation is divided into a plurality of ranks, such as A rank and B rank. In addition, how to divide the level of rehabilitation is not limited to this. The rehabilitation menu 1515 is information on a menu of rehabilitation that the patient should receive.

次に、図15Bは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する表示パラメータテーブルの一例を説明する図である。表示パラメータテーブル1502は、リハビリメニュー1515に関連付けて、目標画像ID1521、視認補助画像ID1522および表示パラメータ1523を記憶する。   Next, FIG. 15B is a diagram for explaining an example of a display parameter table included in the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. The display parameter table 1502 stores a target image ID 1521, a visual aid image ID 1522, and a display parameter 1523 in association with the rehabilitation menu 1515.

目標画像ID1521は、表示部1402に表示させるオブジェクト1330を識別する識別子である。視認補助画像IDは、表示部1402に表示させる視認補助画像1333,1340,1350,1360,1370,1380を識別する識別子である。表示パラメータ1523は、オブジェクト1330や視認補助画像1333,1340,1350,1360,1370,1380を表示部1402に表示させるために必要なパラメータである。表示パラメータ1523には、例えば、位置や倍率などの情報が含まれるが、表示パラメータ1523に含まれる情報はこれらには限定されない。   The target image ID 1521 is an identifier for identifying an object 1330 to be displayed on the display unit 1402. The viewing assistance image ID is an identifier for identifying the viewing assistance image 1333, 1340, 1350, 1360, 1370, 1380 to be displayed on the display unit 1402. The display parameter 1523 is a parameter necessary for causing the display unit 1402 to display the object 1330 and the auxiliary visual image 1333, 1340, 1350, 1360, 1370, and 1380. The display parameter 1523 includes, for example, information such as position and magnification, but the information included in the display parameter 1523 is not limited to these.

そして、図15Cは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する画像テーブルの一例を説明する図である。画像テーブル1503は、画像種別1531に関連付けて画像データ1532、表示位置1533および倍率1534を記憶する。なお、画像テーブル1503に記憶される項目は、これらには限定されない。   And FIG. 15C is a figure explaining an example of the image table which the target object recognition performance improvement server contained in the target object recognition performance improvement system concerning this embodiment has. The image table 1503 stores image data 1532, a display position 1533 and a magnification 1534 in association with the image type 1531. The items stored in the image table 1503 are not limited to these.

画像種別1531は、表示すべき画像が、目標画像なのか視認補助画像なのかなどを区別する情報である。画像データ1532は、表示部1402に表示されるオブジェクト1330や視認補助画像1333などの画像データであり、様々な画像ファイルフォーマットの画像データが含まれる。表示位置1533は、表示部1402内のどの位置に表示すべきかを表すデータであり、例えば、(X座標位置,Y座標位置,Z座標位置)の組のデータなどである。倍率1534は、オブジェクト1330や視認補助画像1333などを表示部1402において、どのような大きさで表示するかを決定するためのデータである。   The image type 1531 is information that distinguishes whether an image to be displayed is a target image or a visual aid image. The image data 1532 is image data of an object 1330 displayed on the display unit 1402, an auxiliary visual image 1333, and the like, and includes image data of various image file formats. The display position 1533 is data indicating which position in the display unit 1402 the display position should be displayed, and is, for example, data of a set of (X coordinate position, Y coordinate position, Z coordinate position). The magnification 1534 is data for determining what size the object 1330, the visual recognition auxiliary image 1333 or the like is to be displayed on the display unit 1402.

そして、目標物認識性向上サーバ1401は、これらのテーブル1501,1502,1503を参照して視認補助画像1333,1340,1350,1360,1370,1380を表示部1402に表示させる。   Then, the target object recognition performance improvement server 1401 causes the display unit 1402 to display a visual aid image 1333, 1340, 1350, 1360, 1370, 1380 with reference to the tables 1501, 1502, 1503.

図16は、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明するブロック図である。CPU(Central Processing Unit)1610は演算制御用のプロセッサであり、プログラムを実行することで図14の目標物認識性向上サーバ1401の機能構成部を実現する。ROM(Read Only Memory)1620は、初期データおよびプログラムなどの固定データおよびその他のプログラムを記憶する。また、ネットワークインタフェース1630は、ネットワークを介して他の装置などと通信する。なお、CPU1610は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphics Processing Unit)を含んでもよい。また、ネットワークインタフェース1630は、CPU1610とは独立したCPUを有して、RAM(Random Access Memory)1640の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM1640とストレージ1650との間でデータを転送するDMAC(Direct Memory Access Controller)を設けるのが望ましい(図示なし)。さらに、入出力インタフェース1660は、CPU1610とは独立したCPUを有して、RAM1640の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU1610は、RAM1640にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU1610は、処理結果をRAM640に準備し、後の送信あるいは転送はネットワークインタフェース1630やDMAC、あるいは入出力インタフェース1660に任せる。   FIG. 16 is a block diagram for explaining the hardware configuration of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. A central processing unit (CPU) 1610 is a processor for arithmetic control, and implements a functional component of the target object recognition performance improvement server 1401 in FIG. 14 by executing a program. A ROM (Read Only Memory) 1620 stores fixed data such as initial data and programs and other programs. Also, the network interface 1630 communicates with other devices via a network. Note that the CPU 1610 is not limited to one, and may be a plurality of CPUs or may include a GPU (Graphics Processing Unit) for image processing. Further, it is desirable that the network interface 1630 have a CPU independent of the CPU 1610 and write or read transmission / reception data in a region of a random access memory (RAM) 1640. Further, it is desirable to provide a DMAC (Direct Memory Access Controller) for transferring data between the RAM 1640 and the storage 1650 (not shown). Furthermore, it is desirable that the input / output interface 1660 have a CPU independent of the CPU 1610 and write or read out input / output data in the area of the RAM 1640. Therefore, the CPU 1610 recognizes that data has been received or transferred to the RAM 1640 and processes the data. Further, the CPU 1610 prepares the processing result in the RAM 640, and leaves the subsequent transmission or transfer to the network interface 1630, the DMAC, or the input / output interface 1660.

RAM1640は、CPU1610が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM1640には、本実施形態の実現に必要なデータを記憶する領域が確保されている。患者データ1641は、目標物認識性向上システムを利用してリハビリテーションを受ける患者に関するデータである。画像データ1642は、表示部1402に表示される目標画像としてのオブジェクト1330や視認補助画像1333などのデータである。表示位置1643は、オブジェクト1330や視認補助画像1333を表示部1402のどの位置に表示するかを示すデータである。倍率1644は、オブジェクト1330や視認補助画像1333などの画像を表示部1402において、どの程度の大きさで表示するかを示すデータである。そして、これらのデータは、例えば、患者テーブル1501、表示パラメータテーブル1502および画像テーブル1503から読み出される。   The RAM 1640 is a random access memory used by the CPU 1610 as a temporary storage work area. In the RAM 1640, an area for storing data necessary for realizing the present embodiment is secured. The patient data 1641 is data on a patient who is to be rehabilitated using the target recognition system. The image data 1642 is data such as an object 1330 as a target image displayed on the display unit 1402 and a visual aid image 1333. The display position 1643 is data indicating at which position of the display unit 1402 the object 1330 or the visual recognition auxiliary image 1333 is to be displayed. The magnification 1644 is data indicating how large the image such as the object 1330 or the visual recognition auxiliary image 1333 is to be displayed on the display unit 1402. Then, these data are read from, for example, a patient table 1501, a display parameter table 1502 and an image table 1503.

入出力データ1645は、入出力インタフェース1660を介して入出力されるデータである。送受信データ1646は、ネットワークインタフェース1630を介して送受信されるデータである。また、RAM1640は、各種アプリケーションモジュールを実行するためのアプリケーション実行領域1647を有する。   The input / output data 1645 is data input / output via the input / output interface 1660. Transmission / reception data 1646 is data transmitted / received via the network interface 1630. The RAM 1640 also has an application execution area 1647 for executing various application modules.

ストレージ1650には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ストレージ1650は、患者テーブル1501、表示パラメータテーブル1502および画像テーブル1503を格納する。患者テーブル1501は、図15Aに示した、患者ID1511と属性情報1512などとの関係を管理するテーブルである。表示パラメータテーブル1502は、図15Bに示した、リハビリメニュー1515と表示パラメータ1523などとの関係を管理するテーブルである。画像テーブル1503は、図15Cに示した、画像種別1531と画像データ1532などとの関係を管理するテーブルである。   The storage 1650 stores a database, various parameters, or the following data or program necessary for realizing the present embodiment. The storage 1650 stores a patient table 1501, a display parameter table 1502 and an image table 1503. The patient table 1501 is a table for managing the relationship between the patient ID 1511 and the attribute information 1512 shown in FIG. 15A. The display parameter table 1502 is a table for managing the relationship between the rehabilitation menu 1515 and the display parameter 1523 shown in FIG. 15B. The image table 1503 is a table for managing the relationship between the image type 1531 and the image data 1532 as shown in FIG. 15C.

ストレージ1650は、さらに、動作検出モジュール1651、表示制御モジュール1652、評価モジュール1653および更新モジュール1654を格納する。   The storage 1650 further stores an operation detection module 1651, a display control module 1652, an evaluation module 1653 and an update module 1654.

動作検出モジュール1651は、ユーザ220のリハビリテーション動作を検出するモジュールである。表示制御モジュール1652は、アバター画像1320と、目標画像としてのオブジェクト1330と、オブジェクト1330の視認性を向上させる視認補助画像1333などを表示部1402に表示させるモジュールである。評価モジュール1653は、ユーザ220のリハビリテーション能力を評価するモジュールである。更新モジュール1654は、評価結果に応じて、目標画像が表す目標位置を更新するモジュールである。これらのモジュール1651〜1654は、CPU1610によりRAM1640のアプリケーション実行領域1647に読み出され、実行される。制御プログラム1655は、目標物認識性向上サーバ1401の全体を制御するためのプログラムである。   The motion detection module 1651 is a module that detects a rehabilitation motion of the user 220. The display control module 1652 is a module that causes the display unit 1402 to display an avatar image 1320, an object 1330 as a target image, and a visual aid image 1333 for improving the visibility of the object 1330. The evaluation module 1653 is a module for evaluating the rehabilitation ability of the user 220. The update module 1654 is a module that updates the target position represented by the target image according to the evaluation result. These modules 1651 to 1654 are read by the CPU 1610 to the application execution area 1647 of the RAM 1640 and executed. The control program 1655 is a program for controlling the entire target object recognition performance improvement server 1401.

入出力インタフェース1660は、入出力機器との入出力データをインタフェースする。入出力インタフェース1660には、表示部1661、操作部1662、が接続される。また、入出力インタフェース1660には、さらに、記憶媒体1664が接続されてもよい。さらに、音声出力部であるスピーカ1663や、音声入力部であるマイク、あるいは、GPS(Global Positioning System)位置判定部が接続されてもよい。なお、図16に示したRAM1640やストレージ1650には、目標物認識性向上サーバ1401が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。   The input / output interface 1660 interfaces input / output data with input / output devices. A display unit 1661 and an operation unit 1662 are connected to the input / output interface 1660. Further, a storage medium 1664 may be connected to the input / output interface 1660. Furthermore, a speaker 1663 which is an audio output unit, a microphone which is an audio input unit, or a GPS (Global Positioning System) position determination unit may be connected. Note that, in the RAM 1640 and the storage 1650 shown in FIG. 16, programs and data regarding general-purpose functions and other realizable functions that the target object recognition performance improvement server 1401 has are not illustrated.

図17Aは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。図17Bは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの視認補助画像表示の処理手順を説明するフローチャートである。これらのフローチャートは、CPU1610がRAM1640を使用して実行し、図14の目標物認識性向上サーバ1401の機能構成部を実現する。   FIG. 17A is a flowchart for describing the processing procedure of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. FIG. 17B is a flowchart for describing a processing procedure of visual aid image display of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. These flowcharts are executed by the CPU 1610 using the RAM 1640, and implement the functional components of the target object recognition performance improvement server 1401 of FIG.

ステップS1701において、目標物認識性向上サーバ1401は、視認補助画像を表示部1402などに表示させる。   In step S1701, the target object recognition performance improvement server 1401 causes the display unit 1402 or the like to display a visual aid.

ステップS1721において、目標物認識性向上サーバ1401は、目標物認識性向上システム1400を利用してリハビリテーションを受ける患者の属性やどのようなリハビリテーションメニューを受けるかなどの、患者情報を取得する。   In step S1721, the target object recognition performance improvement server 1401 acquires patient information such as an attribute of a patient to be rehabilitated and what kind of rehabilitation menu is to be received using the target object recognition performance improvement system 1400.

ステップS1723において、目標物認識性向上サーバ1401は、表示部1402に表示すべき視認補助画像1333などを表示部1402に表示するために必要な表示パラメータを取得する。取得する表示パラメータは、例えば、視認補助画像1333などの位置や倍率などの関するパラメータである。   In step S 1723, the target object recognition performance improvement server 1401 acquires display parameters necessary for displaying the visual recognition auxiliary image 1333 or the like to be displayed on the display unit 1402 on the display unit 1402. The display parameters to be acquired are, for example, parameters related to the position of the visual recognition auxiliary image 1333 or the like, the magnification and the like.

ステップS1725において、目標物認識性向上サーバ1401は、視認補助画像1333の画像データを取得する。ステップS1727において、目標物認識性向上サーバ1401は、表示部1402に視認補助画像1333などを表示する。   In step S1725, the target object recognition performance improvement server 1401 acquires the image data of the visual recognition auxiliary image 1333. In step S1727, the target object recognition performance improvement server 1401 causes the display unit 1402 to display the visual recognition auxiliary image 1333 or the like.

ステップS1729において、目標物認識性向上サーバ1401は、視認補助画像1333などの表示の変更が必要か否かを判断する。表示変更が必要でない場合(ステップS1729のNO)、目標物認識性向上サーバ1401は、処理を終了する。表示変更が必要な場合(ステップS1729のYES)、目標物認識性向上サーバ1401は、次のステップへと進む。   In step S1729, the target object recognition performance improvement server 1401 determines whether it is necessary to change the display of the visual recognition auxiliary image 1333 or the like. When the display change is not necessary (NO in step S1729), the target object recognition efficiency improvement server 1401 ends the processing. When the display change is necessary (YES in step S1729), the target object recognition efficiency improvement server 1401 proceeds to the next step.

ステップS1731において、目標物認識性向上サーバ1401は、ユーザ220の視力やユーザ220のリハビリテーション能力の評価結果に応じて、視認補助画像1333の大きさを変更する。   In step S1731, the target object recognition performance improvement server 1401 changes the size of the visual assistance image 1333 according to the evaluation result of the visual acuity of the user 220 and the rehabilitation ability of the user 220.

本実施形態によれば、目標距離と運動距離との乖離を小さくするために、目標画像の大きさを小さくしても、目標画像の視認性を維持しつつ、目標距離と運動距離とを近づけて、リハビリテーションの効果を増大させることができる。また、ユーザは、目標画像にタッチした時の感覚が鮮明となるので、ユーザは目標達成の満足感を経験することができる。   According to the present embodiment, even if the size of the target image is reduced to reduce the deviation between the target distance and the movement distance, the target distance and the movement distance are brought close while maintaining the visibility of the target image. Can increase the effects of rehabilitation. In addition, since the user feels clear when touching the target image, the user can experience satisfaction with the goal achievement.

[第4実施形態]
次に本発明の第4実施形態に係る目標物認識性向上システムについて、図18乃至図21を用いて説明する。図18は、本実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。本実施形態に係る目標物認識性向上システムは、上記第2実施形態および第3実施形態と比べると、音出力部を有する点で異なる。その他の構成および動作は、第2実施形態および第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Fourth Embodiment
Next, a target object recognition performance improvement system according to a fourth embodiment of the present invention will be described using FIG. 18 to FIG. FIG. 18 is a block diagram for explaining the configuration of the target object recognition performance improvement system according to the present embodiment. The target object recognition performance improvement system according to the present embodiment differs from the second and third embodiments in that it has a sound output unit. The other configurations and operations are similar to those of the second and third embodiments, and therefore, the same configurations and operations are denoted by the same reference numerals and the detailed description thereof will be omitted.

目標物認識性向上システム1800は、目標物認識性向上サーバ1801および音出力部1802を備える。目標物認識性向上サーバ1801は、音出力制御部1811を有する。音出力制御部1811は、目標画像としてのオブジェクト1330とアバター画像1320との位置関係に応じて、音の出力を制御する。音出力制御部1811が出力を制御した音は、音出力部1802から出力される。   The target recognition performance improvement system 1800 includes a target recognition performance improvement server 1801 and a sound output unit 1802. The target object recognition performance improvement server 1801 has a sound output control unit 1811. The sound output control unit 1811 controls the sound output according to the positional relationship between the object 1330 as a target image and the avatar image 1320. The sound whose output is controlled by the sound output control unit 1811 is output from the sound output unit 1802.

音出力制御部1811は、例えば、オブジェクト1330が、上方から下方へ向かって降下している場合、オブジェクト1330とアバター画像1320との間の距離、つまり、位置関係に基づいて、音を出力する。   The sound output control unit 1811 outputs a sound based on, for example, the distance between the object 1330 and the avatar image 1320, that is, the positional relationship, when the object 1330 is lowered from the upper side to the lower side, for example.

オブジェクト1330とアバター画像1320との間の距離が縮まるにつれて、つまり、オブジェクト1330がアバター画像1320に近づくにつれて、出力される音を高い周波数の音としてもよい。また、同様に、オブジェクト1330とアバター画像1320との間の距離が離れるにつれて、つまり、オブジェクト1330がアバター画像1320から遠ざかるにつれて、出力される音を低い周波数の音としてもよい。すなわち、ドップラー効果のように、オブジェクト1330(音源)とアバター画像1320(ユーザ220(観測者))との距離に応じて、音(波)の周波数が異なって観測されるような音響効果を表現してもよい。なお、出力される音の周波数を変更する代わりに、オブジェクト1330とアバター画像1320との間の距離に応じて、出力される音の音量を大小してもよい。   As the distance between the object 1330 and the avatar image 1320 decreases, that is, as the object 1330 approaches the avatar image 1320, the output sound may be a high frequency sound. Similarly, as the distance between the object 1330 and the avatar image 1320 increases, that is, as the object 1330 moves away from the avatar image 1320, the output sound may be a low frequency sound. That is, as in the Doppler effect, it represents an acoustic effect in which the frequency of the sound (wave) is observed differently according to the distance between the object 1330 (sound source) and the avatar image 1320 (user 220 (observer)) You may Note that instead of changing the frequency of the sound to be output, the volume of the sound to be output may be increased or decreased according to the distance between the object 1330 and the avatar image 1320.

また、音出力制御部1811から音を出力することにより、ユーザ220に対して、オブジェクト1330の位置を教示してもよい。つまり、ユーザ220の聴覚を利用して、オブジェクト1330の位置を教示する。   Also, the position of the object 1330 may be taught to the user 220 by outputting a sound from the sound output control unit 1811. That is, the user's 220 hearing is used to teach the position of the object 1330.

例えば、ユーザ220が、目標物認識性向上システム1800を利用する際に、ヘッドフォンを装着している場合を考える。目標画像としてのオブジェクト1330が、アバター画像1320(ユーザ220)の右側にある場合には、目標物認識性向上サーバ1801は、右耳側のヘッドフォンから音を出す。同様に、オブジェクト1330がアバター画像1320(ユーザ220)の左側にある場合には、左耳側のヘッドフォンから音を出す。これにより、ユーザ220は、音の方向からオブジェクト1330がユーザ220の右側にあるのか、左側にあるのかを判断することができる。さらに、オブジェクト1330がアバター画像1320(ユーザ220)の正面にある場合には、両方のヘッドフォンから音を出す。   For example, consider a case where the user 220 wears headphones when using the target object recognition efficiency improvement system 1800. When the object 1330 as the target image is on the right side of the avatar image 1320 (user 220), the target object recognition efficiency improvement server 1801 makes a sound from the headphones on the right ear side. Similarly, when the object 1330 is on the left side of the avatar image 1320 (user 220), sound is emitted from the headphones on the left ear side. Thus, the user 220 can determine whether the object 1330 is on the right side or on the left side of the user 220 from the direction of the sound. In addition, if the object 1330 is in front of the avatar image 1320 (user 220), sound is emitted from both headphones.

また、以上の説明では、ユーザ220の視覚や聴覚などを利用してオブジェクト1330の位置を教示したが、視覚や聴覚以外の他の五感、味覚、触覚、嗅覚などを利用してユーザ220にオブジェクト1330の位置を教示してもよい。   Also, in the above description, the position of the object 1330 is taught using the visual and auditory sense of the user 220, but the object 220 is an object using the other five senses, taste, touch, smell and the like other than visual sense and auditory sense The position of 1330 may be taught.

例えば、ユーザ220の舌にセンサを置き、オブジェクト1330の位置に応じた味覚をユーザ220が感じるようにしてもよい。または、ユーザ220が手に持っているコントローラや、ユーザ220が装着しているヘッドフォン、ヘッドマウントディスプレイなどを振動させてもよい。つまり、ユーザ220の触覚を利用してオブジェクト1330の位置を教示してもよい。   For example, the sensor may be placed on the tongue of the user 220, and the user 220 may feel a taste according to the position of the object 1330. Alternatively, a controller held by the user 220, headphones worn by the user 220, a head mounted display, or the like may be vibrated. That is, the position of the object 1330 may be taught using the sense of touch of the user 220.

図19は、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する音テーブルの一例を説明する図である。音テーブル1901は、画像種別1531に関連付けて音データ1911を記憶する。そして、目標物認識性向上サーバ1801は、音テーブル1901を参照して、出力する音を制御する。   FIG. 19 is a diagram for explaining an example of a sound table of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. The sound table 1901 stores sound data 1911 in association with the image type 1531. Then, the target object recognition performance improvement server 1801 controls the sound to be output with reference to the sound table 1901.

図20は、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明する図である。RAM2040は、CPU1610が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM2040には、本実施形態の実現に必要なデータを記憶する領域が確保されている。音データ2041は、出力される音に関するデータである。そして、このデータは、例えば、音テーブル1901から読み出される。   FIG. 20 is a diagram for describing a hardware configuration of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. A RAM 2040 is a random access memory used by the CPU 1610 as a temporary storage work area. In the RAM 2040, an area for storing data necessary for realizing the present embodiment is secured. The sound data 2041 is data relating to the sound to be output. Then, this data is read from, for example, the sound table 1901.

ストレージ2050には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ストレージ2050は、音テーブル1901を格納する。音テーブル1901は、図19に示した、画像種別1531と音データ1911との関係を管理するテーブルである。   The storage 2050 stores a database, various parameters, or the following data or program necessary for realizing the present embodiment. The storage 2050 stores a sound table 1901. The sound table 1901 is a table for managing the relationship between the image type 1531 and the sound data 1911 shown in FIG.

ストレージ2050は、さらに、音出力制御モジュール2051を格納する。音出力制御モジュール2051は、目標画像としてのオブジェクト1330とアバター画像1320との位置関係に応じて、音の出力を制御するモジュールである。このモジュール2051は、CPU1610によりRAM2040のアプリケーション実行領域1647に読み出され、実行される。なお、図20に示したRAM2040やストレージ2050には、目標物認識性向上サーバ1801が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。   The storage 2050 further stores a sound output control module 2051. The sound output control module 2051 is a module that controls the output of sound according to the positional relationship between the object 1330 as a target image and the avatar image 1320. The module 2051 is read by the CPU 1610 into the application execution area 1647 of the RAM 2040 and executed. In the RAM 2040 and the storage 2050 shown in FIG. 20, programs and data regarding general-purpose functions and other realizable functions possessed by the target object recognition performance improvement server 1801 are not shown.

図21Aは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。図21Bは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの音出力制御の処理手順を説明するフローチャートである。これらのフローチャートは、CPU1610がRAM2040を使用して実行し、図18の目標物認識性向上サーバ1801の機能構成部を実現する。   FIG. 21A is a flowchart for describing the processing procedure of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. FIG. 21B is a flowchart for describing the process procedure of the sound output control of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. These flowcharts are executed by the CPU 1610 using the RAM 2040, and implement the functional components of the target object recognition performance improvement server 1801 of FIG.

ステップS2101において、目標物認識性向上サーバ1801は、音の出力を制御する。ステップS2121において、目標物認識性向上目標物認識性向上サーバ1801は、アバター画像1320の位置を取得する。ステップS2123において、目標物認識性向上サーバ1801は、オブジェクト1330の位置を取得する。ステップS2125において、目標物認識性向上サーバ1801は、アバター画像1320とオブジェクト1330との位置関係を判定する。ステップS2127において、目標物認識性向上サーバ1801は、判定した位置関係に応じて、音の出力を制御する。   In step S 2101, the target object recognition performance improvement server 1801 controls the output of sound. In step S <b> 2121, the target recognition performance improvement target recognition performance improvement server 1801 acquires the position of the avatar image 1320. In step S2123, the target object recognition performance improvement server 1801 acquires the position of the object 1330. In step S 2125, the target object recognition performance improvement server 1801 determines the positional relationship between the avatar image 1320 and the object 1330. In step S2127, the target object recognition performance improvement server 1801 controls the output of sound according to the determined positional relationship.

本実施形態によれば、ユーザの視覚の他に聴覚を利用してリハビリテーションを実行するので、ユーザがより容易にオブジェクトを視認でき、リハビリテーションにより得られる効果をさらに高めることができる。また、ユーザは、視覚のみならず聴覚によってもオブジェクトの位置を把握することができる。また、音を出力するので、視力の弱いユーザであっても、本実施形態によるリハビリテーションを受けることができる。   According to the present embodiment, since rehabilitation is performed using hearing in addition to the user's vision, the user can more easily view the object, and the effect obtained by the rehabilitation can be further enhanced. Also, the user can grasp the position of the object not only by sight but also by hearing. Moreover, since the sound is output, even a user with weak vision can receive the rehabilitation according to the present embodiment.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
[Other embodiments]
Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. The configurations and details of the present invention can be modified in various ways that can be understood by those skilled in the art within the scope of the present invention. Also included within the scope of the present invention are systems or devices that combine the different features included in each embodiment.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。   Furthermore, the present invention may be applied to a system configured of a plurality of devices or to a single device. Furthermore, the present invention is also applicable to the case where an information processing program for realizing the functions of the embodiments is supplied to a system or apparatus directly or remotely. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server for downloading the program are also included in the scope of the present invention. . In particular, a non-transitory computer readable medium storing a program that causes a computer to execute at least the processing steps included in the above-described embodiment is included in the scope of the present invention.

本発明は、目標物認識性向上ステム、目標物認識性向上方法および目標物認識性向上プログラムに関する。   The present invention relates to a target recognition system, a method of improving target recognition, and a program for improving target recognition.

上記技術分野において、特許文献1には、脳卒中等による片麻痺患者に対して行なわれるリハビリテーションを支援するシステムが開示されている。   In the above technical field, Patent Document 1 discloses a system for supporting rehabilitation performed for hemiplegic patients due to stroke and the like.

特開2015−228957号公報JP, 2015-228957, A

しかしながら、上記文献に記載の技術では、視認性の観点から認知機能の低い患者に対して大きな目標を提示させた場合に運動距離と目標距離との乖離が大きくなるという問題があった。   However, in the technique described in the above document, there is a problem that when a large target is presented to a patient with low cognitive function from the viewpoint of visibility, the divergence between the exercise distance and the target distance becomes large.

本発明の目的は、上述の課題を解決する技術を提供することにある。   An object of the present invention is to provide a technique for solving the above-mentioned problems.

上記目的を達成するため、本発明に係る目標物認識性向上システムは、
ユーザの第1リハビリテーション動作を検出する動作検出手段と、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御手段と、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価手段と、
前記評価手段による評価結果に応じて、前記目標位置を更新する更新手段と、
を備えた。
In order to achieve the above object, a system for improving target object recognition according to the present invention is:
Motion detection means for detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Means,
An evaluation unit that evaluates the user's rehabilitation ability by comparing the first rehabilitation operation with the target position represented by the target image;
Updating means for updating the target position according to the evaluation result by the evaluation means;
Equipped.

上記目的を達成するため、本発明に係る目標物認識性向上方法は、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御ステップと、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
を含む。
In order to achieve the above object, the method for improving target object recognition according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Step and
An evaluation step of evaluating the rehabilitation ability of the user by comparing the first rehabilitation operation with a target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
including.

上記目的を達成するため、本発明に係る目標物認識性向上プログラムは、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御ステップと、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a target recognition improvement program according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Step and
An evaluation step of evaluating the rehabilitation ability of the user by comparing the first rehabilitation operation with a target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
On a computer.

本発明によれば、リハビリテーションとして設定した目標距離と実際にユーザが運動する運動距離との乖離を抑制することができる。   According to the present invention, it is possible to suppress the deviation between the target distance set as rehabilitation and the exercise distance which the user actually exercises.

本発明の第1実施形態に係る目標物認識性向上システムの構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the structure of the target object recognition efficiency improvement system which concerns on 1st Embodiment of this invention. 前提技術1に係る目標物認識性向上システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a target object recognition efficiency improvement system according to a base technology 1 ; 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの他の構成を示す図である。It is a figure which shows the other structure of the target object recognition efficiency improvement system which concerns on the prior art 1. FIG. 前提技術1に係る目標物認識性向上システムのデータベースの構成を示す図である。It is a figure which shows the structure of the database of the target object recognition efficiency improvement system which concerns on the prior art 1. FIG. 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術1に係る目標物認識性向上システムの表示画面例を示す図である。It is a figure which shows the example of a display screen of the target object recognition efficiency improvement system which concerns on the premise technique 1. FIG. 前提技術に係る目標物認識性向上システムの動作の概略を説明する図である。FIG. 8 is a diagram for explaining an outline of the operation of the target object recognition efficiency improvement system according to the base technology 2 ; 前提技術に係る目標物認識性向上システムの動作の概略を説明する図である。FIG. 8 is a diagram for explaining an outline of the operation of the target object recognition efficiency improvement system according to the base technology 2 ; 本発明の第実施形態に係る目標物認識性向上システムの動作の概略を説明する図である。It is a figure explaining an outline of operation of a target object recognition efficiency improvement system concerning a 2nd embodiment of the present invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像の配置位置を説明する図である。It is a figure explaining the arrangement position of the visual recognition auxiliary image in the target object recognition efficiency improvement system concerning a 2nd embodiment of the present invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像の他の例を説明する図である。It is a figure explaining the other example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。It is a figure explaining the further another example of the visual recognition auxiliary | assistant image in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。It is a block diagram explaining the composition of the target object recognition efficiency improvement system concerning a 2nd embodiment of the present invention. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する患者テーブルの一例を説明する図である。It is a figure explaining an example of the patient table which the object recognition performance improvement server contained in the object recognition efficiency improvement system concerning a 2nd embodiment of the present invention has. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する表示パラメータテーブルの一例を説明する図である。It is a figure explaining an example of the display parameter table which the target object recognition performance improvement server contained in the target object recognition performance improvement system concerning a 2nd embodiment of the present invention has. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する画像テーブルの一例を説明する図である。It is a figure explaining an example of the image table which the target object recognition performance improvement server contained in the target object recognition performance improvement system which concerns on 2nd Embodiment of this invention has. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明するブロック図である。It is a block diagram explaining the hardware constitutions of the object recognition efficiency improvement server contained in the object recognition efficiency improvement system concerning a 2nd embodiment of the present invention. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの視認補助画像表示の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of a visual recognition auxiliary | assistant image display of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 2nd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。It is a block diagram explaining the composition of the target object recognition efficiency improvement system concerning a 3rd embodiment of the present invention. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する音テーブルの一例を説明する図である。It is a figure explaining an example of the sound table which the target object recognition performance improvement server contained in the target object recognition performance improvement system which concerns on 3rd Embodiment of this invention has. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明する図である。It is a figure explaining the hardware constitutions of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system concerning a 3rd embodiment of the present invention. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention. 本発明の第実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの音出力制御の処理手順を説明するフローチャートである。It is a flowchart explaining the process procedure of the sound output control of the target object recognition efficiency improvement server contained in the target object recognition efficiency improvement system which concerns on 3rd Embodiment of this invention.

以下に、本発明を実施するための形態について、図面を参照して、例示的に詳しく説明記載する。ただし、以下の実施の形態に記載されている、構成、数値、処理の流れ、機能要素などは一例に過ぎず、その変形や変更は自由であって、本発明の技術範囲を以下の記載に限定する趣旨のものではない。   Hereinafter, exemplary embodiments of the present invention will be exemplarily described in detail with reference to the drawings. However, the configuration, the numerical values, the flow of processing, the functional elements, and the like described in the following embodiments are merely examples, and modifications and changes are free, and the technical scope of the present invention is described in the following description. It is not for the purpose of limiting.

[第1実施形態]
本発明の第1実施形態としての目標物認識性向上システム100について、図1を用いて説明する。情報処理システム100は、ユーザ110に対して行われるリハビリテーションを支援するシステムである。
First Embodiment
A target object recognition performance improvement system 100 according to a first embodiment of the present invention will be described with reference to FIG. The information processing system 100 is a system that supports the rehabilitation performed for the user 110.

図1に示すように、目標物認識性向上システム100は、動作検出部101、表示制御部102、評価部103および更新部104を含む。   As shown in FIG. 1, the target object recognition performance improvement system 100 includes an operation detection unit 101, a display control unit 102, an evaluation unit 103, and an update unit 104.

動作検出部101は、ユーザ110の第1リハビリテーション動作を検出する。表示制御部102は、検出した第1リハビリテーション動作に応じて動くアバター画像と、第1リハビリテーション動作の目標を示す目標画像と、目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる。評価部103は、第1リハビリテーション動作と、目標画像が表わす目標位置とを比較して、ユーザ110のリハビリテーション能力を評価する。更新部104は、評価手段による評価結果に応じて、目標位置を更新する。   The motion detection unit 101 detects a first rehabilitation motion of the user 110. The display control unit 102 displays an avatar image that moves according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid image that improves the visibility of the target image. Let The evaluation unit 103 evaluates the rehabilitation ability of the user 110 by comparing the first rehabilitation operation with the target position represented by the target image. The update unit 104 updates the target position according to the evaluation result by the evaluation unit.

本実施形態によれば、リハビリテーションとして設定した目標距離と実際にユーザが運動する運動距離との乖離を抑制することができる。   According to the present embodiment, it is possible to suppress the deviation between the target distance set as rehabilitation and the exercise distance at which the user actually exercises.

前提技術1
次に前提技術1に係るリハビリテーション支援システム200について、図2を用いて説明する。図2は、本実施形態に係るリハビリテーション支援システムの構成を説明するための図である。
[ Prerequisite technology 1 ]
Next, the rehabilitation support system 200 according to the base technique 1 will be described with reference to FIG. FIG. 2 is a diagram for explaining the configuration of the rehabilitation support system according to the present embodiment.

図2に示すように、リハビリテーション支援システム200は、リハビリテーション支援サーバ210と、2つのベースステーション231、232と、ヘッドマウントディスプレイ233と、2つのコントローラ234、235とを備える。なお、ヘッドマウントディスプレイ233としては、非透過タイプでも、ビデオシースルータイプでも、オプティカルシースルータイプでも構わない。   As shown in FIG. 2, the rehabilitation support system 200 includes a rehabilitation support server 210, two base stations 231 and 232, a head mounted display 233, and two controllers 234 and 235. The head mounted display 233 may be a non-transmissive type, a video see-through type, or an optical see-through type.

また、リハビリテーション支援サーバ210は、動作検出部211と表示制御部212と評価部213と更新部214と音声入出力部215と、目標データベース216および背景画像+質問/回答データベース217を備える。   The rehabilitation support server 210 also includes a motion detection unit 211, a display control unit 212, an evaluation unit 213, an update unit 214, a voice input / output unit 215, a target database 216, and a background image + question / answer database 217.

動作検出部211は、ユーザ220が手に持つコントローラ234、235の位置およびヘッドマウントディスプレイ233の位置をベースステーション231、232を介して取得し、その位置の変化によりユーザ220のリハビリテーション動作を検出する。   The motion detection unit 211 acquires the position of the controller 234 or 235 held by the user 220 and the position of the head mounted display 233 via the base station 231 or 232, and detects the rehabilitation motion of the user 220 based on the change in the position. .

表示制御部212は、検出したリハビリテーション動作に応じて動くアバター画像と、リハビリテーション動作の目標を示す目標画像と、をヘッドマウントディスプレイ233に表示させる。図3は、ヘッドマウントディスプレイ233に表示された画面301におけるアバター画像311、312の一例を示す図である。アバター画像311、312は、背景画像313に重畳表示される。この例ではアバター画像311、312は、コントローラ234、235と同じ形状をしており、コントローラ234、235の動きに合わせて画面301中を動く。また、ヘッドマウントディスプレイ233の位置や向きに応じて背景画像313は変化する。アバター画像311、312に表示されている通り、コントローラ234、235にはボタンが用意されており、各種設定操作など可能に構成されている。背景画像313として、ここでは、実際の風景を撮像して得た風景映像(例えばニューヨークの町並みを撮影した動画)を表示する。風景映像としては、リハビリ施設の周囲の道路の映像を用いても良く、異国を散歩している気分にさせたり、身近な場所を散歩している気分にさせたりすることができる。風景映像を重畳することで、患者を楽しませつつ、情報量が多い中でのトレーニングを実現することができる。   The display control unit 212 causes the head mount display 233 to display an avatar image that moves according to the detected rehabilitation operation and a target image that indicates the target of the rehabilitation operation. FIG. 3 is a view showing an example of avatars 311 and 312 on the screen 301 displayed on the head mounted display 233. As shown in FIG. The avatars 311 and 312 are superimposed on the background image 313 and displayed. In this example, the avatars 311 and 312 have the same shape as the controllers 234 and 235, and move in the screen 301 in accordance with the movements of the controllers 234 and 235. In addition, the background image 313 changes in accordance with the position and orientation of the head mounted display 233. As displayed in the avatars 311 and 312, buttons are prepared in the controllers 234 and 235 so that various setting operations can be performed. Here, as the background image 313, a landscape image (for example, a moving image obtained by shooting a town in New York) obtained by imaging an actual landscape is displayed. As a landscape image, an image of a road around a rehabilitation facility may be used, and it is possible to make it feel as if you are taking a walk in a foreign country, or to feel as you are taking a walk in a familiar place. By superimposing the landscape image, it is possible to realize training in a large amount of information while entertaining the patient.

また、表示制御部212は、例えば、図4に示すように、ヘッドマウントディスプレイ233の画面401〜403において、背景画像313に重畳して、オブジェクト411を表示する。オブジェクト411は、ユーザ220の頭上方向から下方に向けて降下してきているように表示位置および大きさを徐々に変えて表示する。ユーザ220は、コントローラ234、235を動かして、画面中のアバター画像311を、オブジェクト411に近づける。アバター画像311がオブジェクト411にぶつかると、オブジェクト411は消滅する。   Further, for example, as shown in FIG. 4, the display control unit 212 superimposes the background image 313 on the screens 401 to 403 of the head mounted display 233, and displays the object 411. The object 411 gradually changes the display position and size so as to be lowered from the overhead direction of the user 220 downward. The user 220 moves the controllers 234 and 235 to bring the avatar image 311 on the screen closer to the object 411. When the avatar image 311 hits the object 411, the object 411 disappears.

評価部213は、動作検出部211が検出したリハビリテーション動作と、表示制御部212によって表示された目標画像が表わす目標位置とを比較して、ユーザのリハビリテーション能力を評価する。具体的には、動作検出部211が検出したリハビリテーション動作に対応して移動したアバター画像311と目標画像としてのオブジェクト411とが重なったか否かを、3次元仮想空間中の位置の比較により決定する。結果的に、これらが重なれば、一つのリハビリテーション動作をクリアしたものと評価し、ポイントを加算する。オブジェクト411の奥行き方向の位置については様々な段階(例えば3段階)のものが用意され、それぞれ、異なるポイント(遠いオブジェクトには高いポイント、近いオブジェクトには低いポイント)が設定される。   The evaluation unit 213 evaluates the user's rehabilitation ability by comparing the rehabilitation operation detected by the operation detection unit 211 with the target position represented by the target image displayed by the display control unit 212. Specifically, it is determined by comparison of the position in the three-dimensional virtual space whether or not the avatar image 311 moved according to the rehabilitation operation detected by the operation detection unit 211 and the object 411 as a target image overlap. . As a result, if they overlap, it is evaluated that one rehabilitation operation has been cleared, and points are added. The positions in the depth direction of the object 411 are prepared in various stages (for example, three stages), and different points (high points for distant objects, low points for near objects) are set respectively.

更新部214は、積算されたポイントに応じて、目標課題を更新する。例えば、課題達成率(目標達成数/課題数)などを用いて目標課題を更新してもよい。   The updating unit 214 updates the target task according to the accumulated points. For example, the target task may be updated using the task achievement rate (the number of goals achieved / the number of tasks) or the like.

図5は、リハビリテーション支援サーバ210における処理の流れを示すフローチャートである。ステップS501において、キャリブレーション処理として、リハビリテーション動作の目標をユーザに合わせて初期化する。具体的には、各患者に最初にキャリブレーションとして行動可能範囲の作業を行ってもらい、それを初期値に設定した上で目標をユーザに合わせて初期化する。   FIG. 5 is a flowchart showing the flow of processing in the rehabilitation support server 210. In step S501, as a calibration process, the target of the rehabilitation operation is initialized to the user. Specifically, each patient is first required to work in the actionable range as a calibration, and after setting it to an initial value, the target is initialized according to the user.

また、目標データベース216を参照して、ユーザの属性情報(例えば、運動選手なのか、パーキンソン病なのかなど)に応じた目標に設定する。例えば、怪我をしたスポーツ選手の場合には、怪我が悪化しない程度の初期値を設定し、パーキンソン病に罹患したユーザの場合には、病状の進行を緩やかにする程度の運動を初期値として設定する。さらに、各患者に最初に行動可能範囲の作業を行ってもらい、それを初期値に設定した上で目標をユーザに合わせて初期化する。   Also, with reference to the target database 216, a target is set according to the user's attribute information (for example, whether it is an athlete or Parkinson's disease). For example, in the case of an injured sports player, an initial value that does not aggravate the injury is set, and in the case of a user who suffers from Parkinson's disease, an exercise that causes the progression of a medical condition is set as an initial value. Do. Furthermore, each patient is first required to work in the action range, and after setting it to the initial value, the target is initialized to the user.

次に、ステップS503において、動作検出部211で検出したコントローラ234、235の位置に応じて、アバター画像311、312を表示する。さらに、ステップS505において、設定された課題に応じた位置およびスピードでオブジェクト411を表示する。   Next, in step S503, avatar images 311 and 312 are displayed according to the positions of the controllers 234 and 235 detected by the operation detection unit 211. Further, in step S505, the object 411 is displayed at the position and speed according to the set task.

ステップS507において、アバター画像311、312の動きと、オブジェクト411の動きを比較して、課題をクリアしたか判定する。課題がクリアされていない場合には、そのままステップS505に戻って、課題の難易度を変えることなく次のオブジェクトを表示する。   In step S507, the motion of the avatars 311 and 312 is compared with the motion of the object 411 to determine whether the task has been cleared. If the task has not been cleared, the process returns to step S505, and the next object is displayed without changing the difficulty level of the task.

課題がクリアされた場合にはステップS509に進み、累積ポイントや課題達成確率等を算出する。さらにステップS511に進み、累積ポイントや課題達成確率等を閾値Tと比較し、累積ポイントや課題達成確率等が所定の閾値Tを超えた場合にはステップS513に進んで課題の運動強度を更新する。累積ポイントや課題達成確率等が閾値Tに達しなかった場合にはステップS505に戻って、課題の難易度を変えることなく次のオブジェクトを表示する。   If the task has been cleared, the process proceeds to step S509, and the cumulative point, the task achievement probability, and the like are calculated. Further, the process proceeds to step S511 to compare the accumulated points and the task achievement probability with the threshold T, and when the accumulated points and the task achievement probability etc exceed the predetermined threshold T, the process proceeds to step S513 to update the exercise intensity of the task. . If the cumulative points, the task achievement probability, and the like do not reach the threshold T, the process returns to step S505, and the next object is displayed without changing the degree of difficulty of the task.

例えば、近距離の達成度が80%(または10回等の回数でも可)を超えた場合、中距離のオブジェクトの表示頻度を高くする。中距離のオブジェクトの達成度が80%(または10回等の回数でも可)を超えた場合、遠距離のオブジェクトの表示頻度を高くする。   For example, when the achievement level of the short distance exceeds 80% (or may be 10 times, etc.), the display frequency of the medium distance object is increased. If the achievement of the medium distance object exceeds 80% (or even 10 times or so), the display frequency of the long distance object is increased.

ここでの課題の更新についても、ユーザの属性(怪我をしたスポーツ選手なのか、パーキンソン病患者なのかなど)に応じて変更する。課題の更新方法としては、背景画像を切り替えるといった方法も考えられる。   The update of the task here is also changed in accordance with the user's attributes (such as an injured athlete or a patient with Parkinson's disease, etc.). As a method of updating the task, a method of switching the background image may be considered.

課題を更新した後、ステップS515に進み、ユーザの疲労度を算出して、閾値Nと比較する。疲労度が所定の閾値を超えれば、「停止条件」として処理を終了する。例えば、(疲労度=1−最も近位のオブジェクトの回収率)と算出できる。あるいは(疲労度=1/目の動き)と算出してもよい。明らかに集中していない(全くオブジェクトを探していない、首を振らない等)場合には、それ以上リハビリテーションを継続しても意味がないので休憩することになる。さらには、腕を伸ばすときのスピードが落ちるのを検出(加速度)して、疲労度を算出してもよい。   After updating the task, the process proceeds to step S515, where the degree of fatigue of the user is calculated and compared with the threshold N. If the degree of fatigue exceeds a predetermined threshold, the processing is terminated as "stop condition". For example, it can be calculated as (degree of fatigue = 1−recovery of the most proximal object). Alternatively, it may be calculated as (degree of fatigue = 1 / eye movement). If you are not clearly focused (not looking for an object at all, don't shake your head, etc.), it will be meaningless to continue rehabilitation further, so you will take a break. Furthermore, the degree of fatigue may be calculated by detecting (accelerating) a decrease in speed when extending the arm.

また、例えば、累積ポイントが所定の閾値を超えれば、図6の文字画像601に示すように、2つのコントローラ234、235のうち、左右いずれのコントローラでオブジェクト411にタッチすべきか(ここでは右)を指示する。これにより、文字を認識する認知機能が必要になる上に、動作の難易度も上がり、より高い運動機能が必要になる。つまり、認知機能と運動機能のデュアルタスク(Dual Task:二重課題)が要求される。   Also, for example, if the accumulated point exceeds a predetermined threshold, as shown in the character image 601 of FIG. 6, which of the two controllers 234 and 235 should be used to touch the object 411 with the left or right controller (here, right) To indicate. This makes it necessary to have a cognitive function that recognizes characters, increases the difficulty of movement, and requires a higher motor function. In other words, dual tasks of cognitive function and motor function are required.

なお、図6では、文字で指示を行なっているが、本発明はこれに限定されるものではなく、矢印や色、あるいは声で指示を行なってもよい。このように、本実施形態では、リハビリテーション動作の評価に応じて、その負荷を更新する。   In FIG. 6, the instruction is given by characters, but the present invention is not limited to this, and the instruction may be given by an arrow, a color or a voice. Thus, in the present embodiment, the load is updated according to the evaluation of the rehabilitation operation.

(デュアルタスクについて)
健常者は、普段の日常で「話をしながら歩く」など2つ以上のことを同時に行っている。この様な「2つのことを同時に行う能力」は加齢とともに衰えてくる。例えば「歩行中に話しかけられると、足を止めてしまう」などといったことが起こる。高齢者が転倒する原因は、「運動機能が低下していること」だけではなく、この様な「2つのことを同時に行う能力の低下」が関与していると考えられる。実際に、リハビリテーションにより十分に運動機能が回復したと判断されても、帰宅後に転倒してしまう高齢者は大勢いる。これは、リハビリテーション動作に集中できる環境・条件を整えた状態でリハビリテーションを行なっていることが一つの要因である。つまり、生活環境では、そのように動作に集中できない要因、例えば見晴らしが悪い、障害物が存在する、会話に意識が向いている、といった条件下での動作であることが多いからである。
(About dual task)
Healthy people are doing two or more things at the same time, such as "walk while talking" in normal daily life. Such "the ability to do two things simultaneously" declines with age. For example, "if you talk while walking, you will stop your leg" and so on. It is thought that the cause of the fall of the elderly is not only "the decrease in motor function" but also "the decrease in ability to do two things at the same time". In fact, there are many elderly people who fall after returning home even though it is judged that rehabilitation sufficiently restores their motor function. One of the factors is that rehabilitation is being performed with the environment and conditions in which it is possible to concentrate on the rehabilitation operation. That is, in the living environment, it is often the operation under the condition that factors that can not concentrate on the operation such as poor visibility, the presence of an obstacle, and the conversational awareness.

そこで、注意を分散させるようなリハビリテーションを行なうことが重要と考えられ、具体的にデュアルタスクを与えてトレーニングすることが望ましい。このようなデュアルタスクトレーニングは、高齢者の転倒のみならず、認知症の予防にも有効なプログラムである。   Therefore, it is considered important to carry out rehabilitation that disperses attention, and it is desirable to train specifically by giving dual tasks. Such dual task training is an effective program not only for the fall of elderly people but also for the prevention of dementia.

デュアルタスクトレーニングには、認知課題と運動課題を組み合わせたトレーニングの他、2種類の運動課題を組み合わせたトレーニングも含まれる。   Dual task training includes training that combines two types of exercise tasks, as well as training that combines cognitive tasks and exercise tasks.

認知課題+運動課題としては、100から1ずつ引き算をしながら歩くなどのトレーニングが、運動課題+運動課題としては、コップに入った水を溢さないように歩くなどのトレーニングが挙げられる。   The cognitive task + exercise task includes training such as walking while subtracting one by one from 100, and the exercise task + exercise task includes training such as walking so as not to spill the water in the cup.

評価部213は、単純な歩行に比べてデュアルタスク歩行検査で歩行速度が20%程度遅延するような場合は、転倒リスクが高いと評価し、デュアルタスクを繰り返すように表示制御部212に通知する。   The evaluation unit 213 evaluates that the fall risk is high if the walking speed is delayed by about 20% in the dual task walking test as compared to simple walking, and notifies the display control unit 212 to repeat the dual task. .

なお、「比較的移動能力が高い人」の方がよりデュアルタスクが有効となりやすい。例えば、屋内移動でも杖が手放せない高齢者となると、デュアルタスク能力よりもバランス能力(筋力・平衡感覚など)の強化のほうが、優先順位が高くなる。大まかな判断としては、要支援者はデュアルタスク能力が重要、要介護者はデュアルタスク能力以外のバランス能力が重要と表現できる。キャリブレーションの時系列変化を表示し、自分の運動範囲の改善を視覚的に表示する。   The person with relatively high mobility is more likely to have dual tasks. For example, if you are an elderly person who can not release the cane even if you move indoors, strengthening the balance ability (such as muscle strength and sense of balance) has higher priority than the dual task ability. As a rough judgment, it can be said that the person in need of support needs dual task ability, and the person in need of care needs balance ability other than dual task ability. Display the time series of calibration and visually show the improvement of one's movement range.

(ユーザ属性による設定変更)
通常の改善が見込める患者(骨折等の整形外科的疾患が対象で完全な改善が前提)に対しては、最もハードなリハビリテーション動作を設定し、改善を早める。
(Setting change by user attribute)
For patients who can expect normal improvement (subject to orthopedic disease such as bone fracture and complete improvement assumed), set the hardest rehabilitation operation and accelerate improvement.

個々に応じて改善の程度が異なる患者(脳梗塞等では病変部位によって異なる形の麻痺が生じている患者)に対しては、ある程度まで課題の負荷を向上させるがあるレベルでその負荷の向上をストップする。   For patients with different degrees of improvement depending on the individual (patients who have different forms of paralysis depending on the lesion site in cerebral infarction etc.), the load of the task is improved to a certain extent. Stop.

パーキンソン病等、原則的に機能が低下していく患者の場合は、常に現在の運動可能な状態の評価を定期的に評価することが有用である。   In patients with Parkinson's disease, etc., whose function is basically reduced, it is useful to constantly evaluate the current assessment of their ability to move.

(他のデュアルタスクトレーニング例)
図7は、他のデュアルタスクトレーニング用の画像例を示す図である。オブジェクトにハズレ(爆弾)を仕込むことにより、認知機能を要求する。または、図8に示すように、背景画面に質問画像(ここでは例としてかけ算)を重畳表示し、答えが表示されたオブジェクトの取得のみを評価してもよい。背景画面にグー・チョキ・パーのいずれかを表示し、それに勝つマークが表示されたオブジェクトの回収を要求してもよい。
(Another dual task training example)
FIG. 7 is a view showing another exemplary image for dual task training. By placing a loss on the object (bomb), the cognitive function is required. Alternatively, as shown in FIG. 8, a question image (here, multiplication as an example) may be superimposed and displayed on the background screen, and only the acquisition of the object for which the answer is displayed may be evaluated. The background screen may display one of Goo, Choi, and Pa, and may request collection of an object with a win mark.

さらには、単にオブジェクトに数字を表示させ、数字の大きいオブジェクトの取得のみを評価してもよい。その他、背景画像313内に信号を表示させ、赤信号の時にオブジェクトを取ると評価部213は、ポイントをマイナスにしてもよい。   Furthermore, the object may simply be displayed with numbers, and only the acquisition of objects with large numbers may be evaluated. In addition, when a signal is displayed in the background image 313 and an object is picked up in the case of a red signal, the evaluation unit 213 may make the point negative.

本実施形態によれば、リハビリテーション動作の達成度(達成確率など)に応じて課題を更新するので、リハビリテーションの進み具合に応じた負荷をユーザに与えることができる。また、背景画像313を表示することにより、患者が楽しめるだけではなく、周囲に意識を向ける状況の中でリハビリテーションを行なわせることができ、現実世界に戻った際により安全な生活を実現できる。   According to the present embodiment, since the task is updated according to the degree of achievement (such as the achievement probability) of the rehabilitation operation, it is possible to give the user a load according to the progress of the rehabilitation. In addition, displaying the background image 313 makes it possible not only to enjoy the patient but also to perform rehabilitation in a situation in which the user is conscious about the surroundings, and a safer life can be realized when returning to the real world.

図9は、他のデュアルタスクトレーニング例を示す図である。音声入出力部215は、図9のように、背景画像に関する質問音声をヘッドホン901に対して出力し、ヘッドマウントディスプレイ233に設けられたマイク902を介して、質問に対する回答を取得する。評価部213は、音声情報として取得した回答に対して、音声認識処理を施して、あらかじめ用意された回答と比較し、その比較結果に応じて、ユーザのリハビリテーション能力を評価する。   FIG. 9 is a diagram showing another dual task training example. The voice input / output unit 215 outputs the question voice regarding the background image to the headphone 901 as shown in FIG. 9, and acquires the answer to the question via the microphone 902 provided on the head mounted display 233. The evaluation unit 213 performs voice recognition processing on the response acquired as voice information, compares it with the response prepared in advance, and evaluates the user's rehabilitation ability according to the comparison result.

図10は、背景画像・質問/回答データベース217の内容の一例を示す図である。背景動画に対して、質問音声と解答とポイントとが、対応付けられて記憶されている。   FIG. 10 is a diagram showing an example of the contents of the background image / question / answer database 217. As shown in FIG. The question voice, the answer and the point are stored in association with the background moving image.

ユーザの反応として、デュアルタスクではオブジェクトの回収率が下がるという結果が予想される。デュアルタスクを表示してもオブジェクトの回収達成率が異ならない、という結果をゴールとして期待する。シングルタスク(single task)時とデュアルタスク時とで、オブジェクトの回収率、またはオブジェクトへのリーチ率を比較し、一定の範囲に入るまで繰り返しトレーニングを行なう。   As the user's reaction, it is expected that the dual task results in a decrease in the object recovery rate. We expect the result that the recovery achievement rate of objects does not differ even if dual task is displayed as a goal. The recovery rate of objects or the reach rate to objects is compared at single task time and dual task time, and training is repeated until it falls within a certain range.

以上は運動機能と認知機能を同時に要求するデュアルタスクトレーニングだが、本発明はこれに限定されるものではなく、2つの運動機能を同時に要求するデュアルタスクトレーニングでもよい。   The above is dual task training that simultaneously requires motor function and cognitive function, but the present invention is not limited to this, and may be dual task training which requires two motor functions simultaneously.

例えば、図11に示すように、飛んでくる物体1111をよけながらオブジェクト411を拾うことを要求してもよい。ヘッドマウントディスプレイ233に設けられたセンサの位置を検出することにより、物体1111をうまくよけたか否かを判定できる。2つのリハビリテーション動作の両方の達成ポイント(例えば達成率など)に基づいて、評価および課題の更新を行なえばよい。   For example, as shown in FIG. 11, it may be required to pick up the object 411 while avoiding the flying object 1111. By detecting the position of the sensor provided on the head mounted display 233, it can be determined whether or not the object 1111 has been successfully taken. The evaluation and the update of the task may be performed based on the achievement points (for example, the achievement rate) of both of the two rehabilitation operations.

また、例えば、図12の画像1201に示すように、コントローラ234、235の動作に応じて動くアバター画像として、水の入ったコップ画像1211、1212を表示し、これらのコップ画像1211、1212を移動させて、オブジェクト411を回収してもよい。ただし、画像1202に示すようにコップ画像1221を傾けて水がこぼれた場合には、コップ画像1222でオブジェクト411を回収してもポイントを得ることはできない。画像1203のように、コップ画像1231、1232内の水をこぼすことなくオブジェクト411を回収したときのみ、ポイントを加算する。   For example, as shown in the image 1201 of FIG. 12, as the avatar image which moves according to the operation of the controller 234, 235, the cup images 1211, 1212 containing water are displayed, and these cup images 1211, 121 are moved. The object 411 may be collected. However, as shown in the image 1202, when water is spilled by tilting the cup image 1221, points can not be obtained even if the object 411 is recovered by the cup image 1222. Points are added only when the object 411 is recovered without spilling water in the cup images 1231 and 1232 as in the image 1203.

他にも、オブジェクトを回収する側のアバター画像とは逆側のアバター画像を常に指定された場所に触れさせることを要求するといったことが考えられる。コントローラ234、235にもうけられたボタンのうち、指定されたボタンを所定回数押しながらオブジェクトを回収することを要求してもよい。また、ユーザの足の動きを取得するセンサを設けた場合には、指定した足の動きを要求してもよい。   In addition, it may be considered that the avatar image on the opposite side to the avatar image on the object recovery side is required to always touch a designated place. The controller 234 or 235 may request that the object be collected while pressing a designated button a predetermined number of times. In addition, when a sensor for acquiring the movement of the user's foot is provided, the specified movement of the foot may be requested.

[第実施形態]
次に本発明の第実施形態に係る目標物認識性向上システムについて、図13A乃至図17Bを用いて説明する。図13Aは、本実施形態に係る目標物認識性向上システムの前提技術の動作の概略を説明する図である。図13Bは、本実施形態に係る目標物認識性向上システムの前提技術の動作の概略を説明する図である。本実施形態に係る目標物認識性向上システムは、上記前提技術1と比べると、目標画像の認識性(例えば、視認性)を向上させる視認補助画像を表示する点で異なる。その他の構成および動作は、前提技術1と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Second Embodiment
Next, a target object recognition performance improvement system according to a second embodiment of the present invention will be described using FIGS. 13A to 17B. FIG. 13A is a diagram for explaining an outline of the operation of the base technology 2 of the target object recognition efficiency improvement system according to the present embodiment. FIG. 13B is a diagram for describing an outline of the operation of the base technology 2 of the target object recognition efficiency improvement system according to the present embodiment. The target object recognition performance improvement system according to the present embodiment is different from the above base technology 1 in that it displays a visual aid image for improving the target image recognition performance (for example, the visibility). The other configurations and operations are similar to those of the base technology 1, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.

前提技術においては、アバター画像1320の移動距離、すなわち、ユーザ220の運動距離1312は、基準1310とアバター画像1320のセンサ(アバター画像1320のヘッド部分)との間の距離により計測する。そして、ユーザ220が腕などを動かさなければならない距離である目標距離1311は、基準1310と目標画像としてのオブジェクト1330の基準線1331との間の距離に基づいて決定される。そして、ユーザ220は、リハビリテーション運動として、アバター画像1320を移動させてオブジェクト1330に近づける。 In the base technology 2 , the movement distance of the avatar image 1320, that is, the movement distance 1312 of the user 220 is measured by the distance between the reference 1310 and the sensor of the avatar image 1320 (the head portion of the avatar image 1320). Then, a target distance 1311 which is a distance that the user 220 has to move an arm or the like is determined based on the distance between the reference 1310 and the reference line 1331 of the object 1330 as a target image. Then, the user 220 moves the avatar image 1320 closer to the object 1330 as a rehabilitation exercise.

しかしながら、図13Bに示したように、アバター画像1320が、オブジェクト1330の頂点1332に触れると、システムは、ユーザ220のリハビリテーション動作の一つが終了したと判断し、次の目標として新たなオブジェクト1330を表示する。   However, as shown in FIG. 13B, when the avatar image 1320 touches the vertex 1332 of the object 1330, the system determines that one of the user 220's rehabilitation operations has ended, and a new object 1330 is taken as the next goal. indicate.

システムの提供者側としては、リハビリテーション運動として、ユーザ220が腕を伸ばしきった時にオブジェクト1330にアバター画像1320が接触するようにしたい。しかしながら、オブジェクト1330の大きさが大きい(頂点と基準線1331との距離が大きい)と、オブジェクト1330の端にアバター画像1320が触れただけで、オブジェクト1330に接触したと判定される。そのため、ユーザ220は、当初想定していた距離だけ腕を動かすことができないため、期待されるリハビリテーションの効果を得ることが困難となる。   As a provider of the system, as a rehabilitation exercise, the avatar image 1320 is desired to be in contact with the object 1330 when the user 220 is fully extended. However, if the size of the object 1330 is large (the distance between the apex and the reference line 1331 is large), it is determined that the object 1330 is touched only by touching the avatar image 1320 at the end of the object 1330. Therefore, since the user 220 can not move the arm by the distance initially assumed, it is difficult to obtain the expected rehabilitation effect.

また、ユーザ220としても、腕を伸ばし切らないうちにオブジェクト1330にタッチすることができるので、リハビリテーション運動による達成感や満足感を十分に得ることができず、リハビリテーションに対する意欲が低下することもある。   In addition, since the user 220 can also touch the object 1330 before the arm is extended and cut, a sense of accomplishment and satisfaction due to the rehabilitation exercise can not be sufficiently obtained, and the motivation for rehabilitation may be lowered. .

この場合、実際にアバター画像1320が動いた距離である運動距離1312は、ユーザ220が本来動かさなければならない距離である目標距離1311に対して、乖離している。そのため、ユーザ220は、リハビリテーション開始前に設定した運動距離1312の運動をしていないこととなり、リハビリテーションにより得られる効果も期待した効果よりも減少してしまう。   In this case, an exercise distance 1312 which is a distance by which the avatar image 1320 has actually moved deviates from a target distance 1311 which is a distance that the user 220 has to move originally. Therefore, the user 220 does not exercise the exercise distance 1312 set before the start of rehabilitation, and the effect obtained by rehabilitation is also smaller than the expected effect.

例えば、オブジェクト1330の一辺の長さを20.0cm、アバター画像1320のセンサ部(アバター画像1320のヘッド部分)の直径1321を5.0cmとする。この場合、ユーザ220が、オブジェクト1330の基準線1331ではなく頂点1332にアバター画像1320を接触させると、目標距離1311と運動距離1312との間に10.0cm程度の誤差が生じる。   For example, the length of one side of the object 1330 is 20.0 cm, and the diameter 1321 of the sensor unit (the head portion of the avatar image 1320) of the avatar image 1320 is 5.0 cm. In this case, when the user 220 brings the avatar 1320 into contact with the apex 1332 instead of the reference line 1331 of the object 1330, an error of about 10.0 cm occurs between the target distance 1311 and the movement distance 1312.

そのため、ユーザ220は、リハビリテーション開始前に想定していた運動距離1312の分だけアバター画像1320を動かしていないので、ユーザ220が本来享受できたはずであるリハビリテーションの効果が減少してしまう。   Therefore, since the user 220 does not move the avatar image 1320 by the exercise distance 1312 assumed before the start of rehabilitation, the effect of the rehabilitation which the user 220 should have been able to enjoy will be reduced.

ユーザ220が腕を伸ばし切った時にオブジェクト1330に触れられるように、オブジェクト1330を小さくすると、ユーザ220は、画面内でオブジェクト1330の位置を視認し難くなる。オブジェクト1330を視認することができなければ、リハビリテーションが成立しない。   If the size of the object 1330 is reduced so that the user 220 touches the object 1330 when the user stretches his or her arm, it becomes difficult for the user 220 to visually recognize the position of the object 1330 in the screen. If the object 1330 can not be viewed, rehabilitation is not established.

したがって、アバター画像1320のセンサ部(反応部分)をアバター画像1320のヘッド部分よりも小さな領域とする。これにより、目標距離1311と運動距離との間の乖離(誤差)をより小さくすることができる。   Therefore, the sensor part (reaction part) of avatar image 1320 is made into a field smaller than the head part of avatar image 1320. This makes it possible to further reduce the deviation (error) between the target distance 1311 and the movement distance.

図13Cは、本実施形態に係る目標物認識性向上システムの動作の概略を説明する図である。そこで、本実施形態においては、想定した目標距離1311とアバター画像1320による運動距離1312との間に乖離が生じないように、オブジェクト1330の中心部のグラデーションを濃くして反応部分とする。そして、オブジェクト1330の反応部分の周囲の部分のグラデーションを薄くする。つまり、図13Aおよび図13Bに示したオブジェクト1330の大きさを小さくし、その周りをオブジェクト1330よりも大きい視認補助画像1333で囲むようにする。すなわち、オブジェクト1330と視認補助画像1333とが重畳して表示されるようにしている。   FIG. 13C is a diagram for describing an outline of the operation of the target object recognition performance improvement system according to the present embodiment. Therefore, in the present embodiment, the central portion of the object 1330 is darkened to be a reaction portion so that a deviation does not occur between the assumed target distance 1311 and the movement distance 1312 by the avatar image 1320. Then, the gradation of the portion around the reaction portion of the object 1330 is lightened. That is, the size of the object 1330 shown in FIGS. 13A and 13B is reduced, and the periphery thereof is surrounded by the visual aid 1133 larger than the object 1330. That is, the object 1330 and the visual recognition auxiliary image 1333 are superimposed and displayed.

ユーザ220から見れば、オブジェクト1330の大きさを小さくすると、オブジェクト1330が見難くなる(視認性が低下する)が、視認性の低下を補うために、小さくなったオブジェクト1330の周囲に視認補助画像1333を配置する。   From the viewpoint of the user 220, when the size of the object 1330 is reduced, the object 1330 becomes difficult to see (the visibility decreases), but the visual aid image is displayed around the reduced object 1330 to compensate for the decrease in visibility. Arrange 1333.

例えば、オブジェクト1330の一辺の長さを5.0cm、視認補助画像1333の一辺の長さを20.0cm、アバター画像1320のセンサ部1322の直径を2.0cmとする。そうすると、目標距離1311と運動距離1312との誤差(乖離)は、2.0cm前後まで低下する。   For example, the length of one side of the object 1330 is 5.0 cm, the length of one side of the visual assistant image 1333 is 20.0 cm, and the diameter of the sensor unit 1322 of the avatar image 1320 is 2.0 cm. Then, the error (deviation) between the target distance 1311 and the movement distance 1312 decreases to around 2.0 cm.

これにより、オブジェクト1330および視認補助画像1333のグラデーションの違いと大きさの違いとによるオブジェクト1330の視認性の低下を防止しつつ、目標距離1311と運動距離1312との乖離(誤差)を小さくすることができる。また、副次的な効果として、オブジェクト1330にアバター画像1320を接触させた時の体験度が上昇する。すなわち、ユーザ220にとって、オブジェクト1330に接触した時の感覚が鮮明になり、リハビリテーションの目標を達成できたことの喜びも上昇する。   Thereby, the deviation (error) between the target distance 1311 and the movement distance 1312 is reduced while preventing the decrease in the visibility of the object 1330 due to the difference in gradation and the difference in size of the object 1330 and the visual auxiliary image 1333. Can. As a secondary effect, the experience level when the avatar image 1320 is brought into contact with the object 1330 is increased. That is, for the user 220, the sense when touching the object 1330 becomes clear, and the joy of achieving the goal of rehabilitation also rises.

図13Dは、本実施形態に係る目標物認識性向上システムにおける視認補助画像の配置位置を説明する図である。図13Cにおいては、目標画像としてのオブジェクト1330は、視認補助画像1333に包含されるように表示され、さらに、視認補助画像1333の中心近傍に配置されていた。   FIG. 13D is a view for explaining the arrangement position of the visual recognition auxiliary image in the target object recognition efficiency improvement system according to the present embodiment. In FIG. 13C, the object 1330 as the target image is displayed so as to be included in the visual aid auxiliary image 1333 and is disposed near the center of the visual aid auxiliary image 1333.

しかしながら、図13Dに示したように、オブジェクト1330は、視認補助画像1333の手前の下辺付近に配置してもよい。つまり、ユーザ220から見て手前側にオブジェクト1330を配置してもよい。このように、オブジェクト1330は、視認補助画像1333の中に入っているように表示されていれば、視認補助画像1333のどの位置に配置されてもよい。このように、オブジェクト1330の大きさを小さくして、目標距離1311と運動距離1312との乖離を小さくすると、オブジェクト1330の視認性が低下する。そのため、オブジェクト1330の視認性を向上させるために、オブジェクト1330の周囲にオブジェクト1330よりも大きな視認補助画像1333を表示させることにより、オブジェクト1330の視認性の低下を補う。なお、オブジェクト1330の視認性を向上させるための視認補助画像1333は、ここに示したような、立方体のオブジェクト1330の倍率を拡大した立方体には限定されない。   However, as shown in FIG. 13D, the object 1330 may be arranged near the lower side of the near side of the visual aid image 1333. That is, the object 1330 may be arranged on the front side as viewed from the user 220. As described above, the object 1330 may be disposed at any position of the visual assistance image 1333 as long as the object 1330 is displayed so as to be included in the visual recognition assistance image 1333. As described above, when the size of the object 1330 is reduced and the deviation between the target distance 1311 and the movement distance 1312 is reduced, the visibility of the object 1330 is reduced. Therefore, in order to improve the visibility of the object 1330, the visibility assistance image 1333 larger than the object 1330 is displayed around the object 1330 to compensate for the decrease in the visibility of the object 1330. Note that the visual aid 1133 for improving the visibility of the object 1330 is not limited to the cube shown in this case where the magnification of the cubic object 1330 is enlarged.

次に、図13E乃至図13Iを用いて視認補助画像1333の他の形状について説明する。図13Eは、本実施形態に係る目標物認識性向上システムにおける視認補助画像の他の例を説明する図である。図13Fは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。図13Gは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。図13Hは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。図13Iは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。   Next, another shape of the visual identification auxiliary image 1333 will be described with reference to FIGS. 13E to 13I. FIG. 13E is a view for explaining another example of the visual recognition auxiliary image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13F is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13G is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13H is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. FIG. 13I is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment.

図13Eに示したように、視認補助画像1340は、例えば、オブジェクト1330の存在位置を示す矢印形状であってもよい。そして、オブジェクト1330は、矢印形状の視認補助画像1340の中に内包されていない。つまり、目標画像としてのオブジェクト1330と視認補助画像1340とが重畳して表示されているのではなく、視認補助画像1340は、オブジェクト1330の外側に配置される。このように、矢印形状の視認補助画像1340とすれば、ユーザ220は、矢印の先端部分の先に、オブジェクト1330が存在することを容易に認識することができる。   As shown in FIG. 13E, the visual recognition auxiliary image 1340 may have, for example, an arrow shape indicating the position where the object 1330 is present. Then, the object 1330 is not included in the arrow-shaped visual aid 1340. In other words, the visual aid image 1340 is disposed outside the object 1330, instead of the object 1330 as the target image and the visual aid image 1340 being displayed in an overlapping manner. As described above, with the aid of the arrow-shaped visual aid 1340, the user 220 can easily recognize that the object 1330 is present at the tip of the tip of the arrow.

図13Fに示したように、視認補助画像1350は、ユーザ220の注意を引くような形状であってもよい。なお、ユーザ220の注意を引くような形状は、図13Fに示した形状には限定されず、例えば、星形形状や十字形形状、多角形形状などであってもよい。また、縦線1351と横線1352とを合わせて表示し、縦線1351および横線1352の中心にオブジェクト1330が配置されていることを示してもよい。   As shown in FIG. 13F, the viewing assistance image 1350 may be shaped to draw the user's 220 attention. The shape that draws the user's 220 attention is not limited to the shape shown in FIG. 13F, and may be, for example, a star shape, a cross shape, a polygon shape, or the like. The vertical line 1351 and the horizontal line 1352 may be displayed together to indicate that the object 1330 is disposed at the center of the vertical line 1351 and the horizontal line 1352.

図13Gに示したように、視認補助画像1360は、アバター画像1320のセンサ部1322からオブジェクト1330に向かって伸びる一点鎖線であってもよい。なお、視認補助画像1360は、一点鎖線には限定されず、例えば、直線や二点鎖線、点線などであってもよい。   As shown in FIG. 13G, the visual aid image 1360 may be an alternate long and short dash line extending from the sensor unit 1322 of the avatar image 1320 toward the object 1330. Note that the visual aid image 1360 is not limited to the one-dot and dash line, and may be, for example, a straight line, a two-dot and dash line, or a dotted line.

そして、ユーザ220は、視認補助画像1360の一点鎖線をガイドラインとして、この一点鎖線に沿って視線を動かせばオブジェクト1330を視認して、オブジェクト1330の存在位置を認識することができる。さらに、この一点鎖線に沿ってアバター画像1320を動かせば、オブジェクト1330にアバター画像1320をタッチさせることができる。なお、視認補助画像1370と合わせて視認補助画像1333を表示すれば、オブジェクト1330の視認性がさらに向上する。   Then, the user 220 can visually recognize the object 1330 and recognize the existing position of the object 1330 by moving the line of sight along the dashed dotted line with the dashed dotted line as a guideline. Furthermore, moving the avatar image 1320 along the alternate long and short dash line allows the object 1330 to touch the avatar image 1320. In addition, when the visual recognition assistance image 1333 is displayed together with the visual recognition assistance image 1370, the visibility of the object 1330 is further improved.

図13Hに示したように、視認補助画像1370は、複数の矢印がセンサ部1322からオブジェクト1330に向かって一直線上に配置されたものであってもよい。そして、ユーザ220は、この複数の矢印をガイドラインとして、この複数の矢印に沿って視線を動かせばオブジェクト1330を視認して、オブジェクト1330の存在位置を認識することができる。さらに、この複数の矢印に沿ってアバター画像1320を動かせば、オブジェクト1330にアバター画像1320をタッチさせることができる。なお、視認補助画像1370と合わせて立方体の視認補助画像1333を表示すれば、オブジェクト1330の視認性がさらに向上する。   As shown in FIG. 13H, the visual aid 1130 may have a plurality of arrows arranged on a straight line from the sensor unit 1322 toward the object 1330. Then, the user 220 can visually recognize the object 1330 by recognizing the position of the object 1330 by moving the line of sight along the plurality of arrows with the plurality of arrows as a guideline. Furthermore, moving the avatar image 1320 along the plurality of arrows allows the object 1330 to touch the avatar image 1320. Note that if the cube auxiliary visual image 1333 is displayed together with the visual auxiliary image 1370, the visibility of the object 1330 is further improved.

図13Iに示したように、複数の球形の視認補助画像1380が、オブジェクト1330の上下左右の位置に配置されている。すなわち、図13Iにおいては、4個の視認補助画像1380の中心にオブジェクト1330が配置されるように、複数の球形の視認補助画像1380がオブジェクト1330の周囲に配置されている。なお、視認補助画像1380の形状は、球形には限定されず、例えば、三角形形状や矩形形状、多角形形状、星形形状などであってもよい。   As shown in FIG. 13I, a plurality of spherical visual aids 1380 are arranged at the top, bottom, left, and right of the object 1330. That is, in FIG. 13I, a plurality of spherical visual aids 1380 are arranged around the object 1330 such that the object 1330 is arranged at the center of the four visual aids 1380. The shape of the visual aid image 1380 is not limited to a spherical shape, and may be, for example, a triangular shape, a rectangular shape, a polygonal shape, a star shape, or the like.

図13Jは、本実施形態に係る目標物認識性向上システムにおける視認補助画像のさらに他の例を説明する図である。目標物認識性向上サーバは、例えば、ユーザ220のリハビリテーションの進み具合に合わせて、表示部1402に表示する視認補助画像1333の大きさを変更してもよい。例えば、目標物認識性向上サーバは、リハビリテーションの初期には、大きめの視認補助画像1333を表示させる。そして、ユーザ220のリハビリテーションが進んだ状態では、リハビリテーションの進行具合に合わせて視認補助画像1333の大きさを小さくしてもよい。   FIG. 13J is a view for explaining still another example of the auxiliary visual recognition image in the target object recognition efficiency improvement system according to the present embodiment. For example, the target object recognition performance improvement server may change the size of the visual assistance image 1333 displayed on the display unit 1402 according to the progress of the rehabilitation of the user 220. For example, the target object recognition performance improvement server displays a larger visual aid image 1333 at the initial stage of rehabilitation. Then, in a state where the rehabilitation of the user 220 has progressed, the size of the visual identification auxiliary image 1333 may be reduced according to the progress of the rehabilitation.

また、目標物認識性向上サーバは、ユーザ220のリハビリテーションの進行具合に合わせるのではなく、例えば、ユーザ220の視力に合わせて視認補助画像1333の大きさを変更してもよい。つまり、目標物認識性向上サーバは、視力の悪いユーザ220であれば、大きめの視認補助画像1333を表示させ、比較的視力のよいユーザ220であれば、小さめの視認補助画像1333を表示させてもよい。このように、目標物認識性向上サーバは、ユーザ220の視力に応じた大きさの視認補助画像を表示させてもよい。   In addition, the target object recognition performance improvement server may change the size of the visual assistance image 1333 in accordance with the visual acuity of the user 220, for example, in accordance with the progress of the rehabilitation of the user 220. That is, the target object recognition performance improvement server displays the larger visual assistance image 1333 if the user 220 has poor vision, and displays the smaller visual assistance image 1333 if the user 220 has relatively good vision. It is also good. Thus, the target object recognition performance improvement server may display a visual aid image of a size according to the visual acuity of the user 220.

また、例えば、目標物認識性向上サーバは、ユーザ220が認知症であった場合、認知症の進行具合や認知機能に合わせた大きさの視認補助画像1333を表示させてもよい。なお、視認補助画像1333の大きさは、目標物認識性向上サーバが自動的に変更しても、目標物認識性向上システムを操作する医師などのオペレータが手動で変更して、ユーザ220が変更してもよい。   In addition, for example, when the user 220 is a dementia, the target object recognition performance improvement server may display a visual aid 1133 having a size that matches the progress of the dementia or the cognitive function. In addition, even if the target recognition improving server automatically changes the size of the visual recognition auxiliary image 1333, the operator such as a doctor who operates the target recognition improving system manually changes it, and the user 220 changes it. You may

図14は、本実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。目標物認識性向上システム1400は、目標物認識性向上サーバ1401と表示部1402とを有する。なお、目標物認識性向上システム1400に含まれる要素はこれらには限定されない。目標物認識性向上サーバ1401は、動作検出部1411、表示制御部1412、評価部1413および更新部1414を有する。   FIG. 14 is a block diagram for explaining the configuration of the target object recognition performance improvement system according to the present embodiment. The target object recognition performance improvement system 1400 has a target object recognition performance improvement server 1401 and a display unit 1402. In addition, the element contained in the target object recognition efficiency improvement system 1400 is not limited to these. The target object recognition performance improvement server 1401 includes an operation detection unit 1411, a display control unit 1412, an evaluation unit 1413, and an update unit 1414.

動作検出部1411は、ユーザ220が手に持っているコントローラの位置や、ユーザ220が装着しているヘッドマウントディスプレイなどの位置を取得し、取得した位置の変化に基づいて、ユーザ220の動き(リハビリテーション動作)を検出する。   The operation detection unit 1411 acquires the position of the controller held by the user 220 and the position of the head mounted display mounted by the user 220, and the movement of the user 220 based on the acquired change in position ( Detect rehabilitation action).

表示制御部1412は、検出したリハビリテーション動作に応じて動くアバター画像1320と、リハビリテーション動作の目標を示す目標画像と、目標画像の視認性を向上させる少なくとも1つの視認補助画像1333と、を表示部1402などに表示させる。   The display control unit 1412 displays, on the display unit 1402, an avatar image 1320 that moves according to the detected rehabilitation operation, a target image indicating the target of the rehabilitation operation, and at least one visual aid 1133 for improving the visibility of the target image. Display on etc.

表示制御部1412は、目標画像と視認補助画像1333とを重畳して表示させる。例えば、目標画像の大きさを視認補助画像1333の大きさよりも小さくし、目標画像が視認補助画像1333の中に包含されているように表示させる。   The display control unit 1412 superimposes and displays the target image and the visual recognition auxiliary image 1333. For example, the size of the target image is made smaller than the size of the visual recognition auxiliary image 1333, and the target image is displayed so as to be included in the visual recognition auxiliary image 1333.

表示制御部1412は、目標画像を、例えば、視認補助画像1333の中心近傍に表示させてもよい。また、表示制御部1412は、目標画像を視認補助画像1333の中心近傍ではなく、視認補助画像1333の中に包含され、さらにアバター画像1320に近い側、つまり、ユーザ220から見て手前側に表示させてもよい。   The display control unit 1412 may cause the target image to be displayed, for example, in the vicinity of the center of the visual recognition auxiliary image 1333. In addition, the display control unit 1412 displays the target image not in the vicinity of the center of the visual recognition auxiliary image 1333 but in the visual recognition auxiliary image 1333 and further near the avatar image 1320, that is, the front side as viewed from the user 220 You may

表示制御部1412は、オブジェクト1330と視認補助画像1333とを識別可能に表示させてもよい。具体的には、例えば、オブジェクト1330のグラデーションを視認補助画像1333のグラデーションよりも濃く表示させる。これにより、ユーザ220は、オブジェクト1330が濃く表示されているので、薄く表示されている視認補助画像1333とのコントラストに差が生じ、オブジェクト1330を確実に認識することができる。なお、オブジェクト1330および視認補助画像1333へのグラデーションの付け方は、ここに示した方法には限定されない。例えば、視力の弱いユーザ220であっても、オブジェクト1330と視認補助画像1333とを確実に識別できるグラデーションの付け方であってもよい。   The display control unit 1412 may display the object 1330 and the visual recognition auxiliary image 1333 in a distinguishable manner. Specifically, for example, the gradation of the object 1330 is displayed darker than the gradation of the visual identification auxiliary image 1333. As a result, since the object 1330 is displayed dark, the user 220 has a difference in contrast with the lightly displayed auxiliary visual image 1333 and can reliably recognize the object 1330. In addition, how to put the gradation to the object 1330 and the visual recognition auxiliary image 1333 is not limited to the method shown here. For example, even a user 220 with weak vision may use a gradation that can reliably identify the object 1330 and the visual aid 1133.

また、表示制御部1412は、オブジェクト1330と視認補助画像1333とを識別可能に表示させるために、オブジェクト1330と視認補助画像1333とを異なる色で表示する。表示制御部1412は、例えば、オブジェクト1330を濃色系の色で着色し、視認補助画像1333を淡色系の色で着色するが、着色する色の組み合わせ(パターン)はこれには限定されない。例えば、色覚異常(色盲)のユーザ220であっても、オブジェクト1330と視認補助画像1333とを確実に識別できる色の組み合わせで着色してもよい。また、表示制御部1412は、弱視や視野狭窄、色覚異常など様々なタイプのユーザ220に対応可能な着色をしてもよい。なお、オブジェクト1330と視認補助画像1333とに着色する色は、ユーザ220が選択してもよいし、医師などのオペレータが選択してもよい。   In addition, the display control unit 1412 displays the object 1330 and the visual assistance image 1333 in different colors in order to display the object 1330 and the visual recognition assistance image 1133 in a distinguishable manner. For example, the display control unit 1412 colors the object 1330 with a dark color and colors the visual aid image 1333 with a light color, but the combination (pattern) of colors to be colored is not limited to this. For example, even a user 220 with color blindness (color blindness) may be colored in a combination of colors that can reliably identify the object 1330 and the visual aid 1133. In addition, the display control unit 1412 may perform coloring that can correspond to various types of users 220 such as low vision, visual field narrowing, and color vision abnormalities. Note that the user 220 may select the color to be used to color the object 1330 and the visual recognition auxiliary image 1333 or may be selected by an operator such as a doctor.

なお、ここでは、オブジェクト1330および視認補助画像1333のグラデーションや色などについて説明をしたが、他の視認補助画像1340,1350,1360,1370,1380についても同様にグラデーションや色を変化させてもよい。   Although the gradation and color of the object 1330 and the auxiliary visual image 1333 have been described here, the gradation and color may be similarly changed for the other auxiliary visual images 1340, 1350, 1360, 1370, and 1380. .

さらに、表示制御部1412は、ユーザ220の視力および評価部1413による評価結果の少なくとも一方に応じて、視認補助画像1333の表示の変更を制御する。例えば、表示制御部1412は、ユーザ220の視力やユーザ220のリハビリテーションの進行具合、ユーザ220の認知症の進行具合などに応じて、視認補助画像1333の大きさを変更する。   Furthermore, the display control unit 1412 controls the change of the display of the visual recognition auxiliary image 1333 according to at least one of the visual acuity of the user 220 and the evaluation result by the evaluation unit 1413. For example, the display control unit 1412 changes the size of the viewing assistance image 1333 according to the visual acuity of the user 220, the progress of the rehabilitation of the user 220, the progress of the dementia of the user 220, and the like.

評価部1413は、動作検出部1411が検出したリハビリテーション動作と、表示制御部1412によって表示された目標画像としてのオブジェクト1330が表す目標位置と、と比較して、ユーザ220のリハビリテーション能力を評価する。   The evaluation unit 1413 evaluates the rehabilitation ability of the user 220 in comparison with the rehabilitation operation detected by the operation detection unit 1411 and the target position represented by the object 1330 as the target image displayed by the display control unit 1412.

更新部1414は、評価部1413による評価結果に応じて、オブジェクト1330により表される目標位置を更新する。   The update unit 1414 updates the target position represented by the object 1330 according to the evaluation result by the evaluation unit 1413.

表示部1402は、表示制御部1412の制御に従い、目標画像や視認性補助画像などを表示する。表示部1402は、ヘッドマウントディスプレイやディプレイ、スクリーンなどであるが、これらには限定されない。   The display unit 1402 displays a target image, a visibility auxiliary image, and the like according to the control of the display control unit 1412. The display unit 1402 is a head mounted display, a display, a screen, or the like, but is not limited thereto.

図15Aは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する患者テーブルの一例を説明する図である。患者テーブル1501は、患者ID(Identifier)1511に関連付けて、属性情報1512、リハビリ対象1513、現在のレベル1514およびリハビリメニュー15115を記憶する。患者ID1511は、患者を識別するための識別子である。属性情報1512は、年齢や性別などの患者の属性を示す情報である。リハビリ対象1513は、その患者が身体のどの部位がリハビリテーションを受ける対象となっているかを示すデータであり、例えば、腕や脚などの身体の部位を表すデータである。   FIG. 15A is a view for explaining an example of a patient table included in the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. The patient table 1501 stores attribute information 1512, rehabilitation target 1513, current level 1514 and rehabilitation menu 15115 in association with a patient ID (Identifier) 1511. The patient ID 1511 is an identifier for identifying a patient. The attribute information 1512 is information indicating an attribute of a patient such as age and gender. The rehabilitation target 1513 is data indicating which part of the body of the patient is targeted for rehabilitation, and is data representing a part of the body such as an arm or a leg, for example.

現在のレベル1514は、患者の現在のリハビリテーションのレベルを示すデータである。すなわち、患者のリハビリテーションの進行具合などを示すデータである。リハビリテーションの初期段階から最終段階までを複数のランク、例えば、Aランク、Bランクなどに分けたデータである。なお、リハビリテーションのレベルの分け方は、これには限定されない。リハビリメニュー1515は、患者が受けるべきリハビリテーションのメニューに関する情報である。   The current level 1514 is data indicating the patient's current level of rehabilitation. That is, it is data indicating the progress of rehabilitation of the patient. The data from the initial stage to the final stage of rehabilitation is divided into a plurality of ranks, such as A rank and B rank. In addition, how to divide the level of rehabilitation is not limited to this. The rehabilitation menu 1515 is information on a menu of rehabilitation that the patient should receive.

次に、図15Bは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する表示パラメータテーブルの一例を説明する図である。表示パラメータテーブル1502は、リハビリメニュー1515に関連付けて、目標画像ID1521、視認補助画像ID1522および表示パラメータ1523を記憶する。   Next, FIG. 15B is a diagram for explaining an example of a display parameter table included in the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. The display parameter table 1502 stores a target image ID 1521, a visual aid image ID 1522, and a display parameter 1523 in association with the rehabilitation menu 1515.

目標画像ID1521は、表示部1402に表示させるオブジェクト1330を識別する識別子である。視認補助画像IDは、表示部1402に表示させる視認補助画像1333,1340,1350,1360,1370,1380を識別する識別子である。表示パラメータ1523は、オブジェクト1330や視認補助画像1333,1340,1350,1360,1370,1380を表示部1402に表示させるために必要なパラメータである。表示パラメータ1523には、例えば、位置や倍率などの情報が含まれるが、表示パラメータ1523に含まれる情報はこれらには限定されない。   The target image ID 1521 is an identifier for identifying an object 1330 to be displayed on the display unit 1402. The viewing assistance image ID is an identifier for identifying the viewing assistance image 1333, 1340, 1350, 1360, 1370, 1380 to be displayed on the display unit 1402. The display parameter 1523 is a parameter necessary for causing the display unit 1402 to display the object 1330 and the auxiliary visual image 1333, 1340, 1350, 1360, 1370, and 1380. The display parameter 1523 includes, for example, information such as position and magnification, but the information included in the display parameter 1523 is not limited to these.

そして、図15Cは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する画像テーブルの一例を説明する図である。画像テーブル1503は、画像種別1531に関連付けて画像データ1532、表示位置1533および倍率1534を記憶する。なお、画像テーブル1503に記憶される項目は、これらには限定されない。   And FIG. 15C is a figure explaining an example of the image table which the target object recognition performance improvement server contained in the target object recognition performance improvement system concerning this embodiment has. The image table 1503 stores image data 1532, a display position 1533 and a magnification 1534 in association with the image type 1531. The items stored in the image table 1503 are not limited to these.

画像種別1531は、表示すべき画像が、目標画像なのか視認補助画像なのかなどを区別する情報である。画像データ1532は、表示部1402に表示されるオブジェクト1330や視認補助画像1333などの画像データであり、様々な画像ファイルフォーマットの画像データが含まれる。表示位置1533は、表示部1402内のどの位置に表示すべきかを表すデータであり、例えば、(X座標位置,Y座標位置,Z座標位置)の組のデータなどである。倍率1534は、オブジェクト1330や視認補助画像1333などを表示部1402において、どのような大きさで表示するかを決定するためのデータである。   The image type 1531 is information that distinguishes whether an image to be displayed is a target image or a visual aid image. The image data 1532 is image data of an object 1330 displayed on the display unit 1402, an auxiliary visual image 1333, and the like, and includes image data of various image file formats. The display position 1533 is data indicating which position in the display unit 1402 the display position should be displayed, and is, for example, data of a set of (X coordinate position, Y coordinate position, Z coordinate position). The magnification 1534 is data for determining what size the object 1330, the visual recognition auxiliary image 1333 or the like is to be displayed on the display unit 1402.

そして、目標物認識性向上サーバ1401は、これらのテーブル1501,1502,1503を参照して視認補助画像1333,1340,1350,1360,1370,1380を表示部1402に表示させる。   Then, the target object recognition performance improvement server 1401 causes the display unit 1402 to display a visual aid image 1333, 1340, 1350, 1360, 1370, 1380 with reference to the tables 1501, 1502, 1503.

図16は、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明するブロック図である。CPU(Central Processing Unit)1610は演算制御用のプロセッサであり、プログラムを実行することで図14の目標物認識性向上サーバ1401の機能構成部を実現する。ROM(Read Only Memory)1620は、初期データおよびプログラムなどの固定データおよびその他のプログラムを記憶する。また、ネットワークインタフェース1630は、ネットワークを介して他の装置などと通信する。なお、CPU1610は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphics Processing Unit)を含んでもよい。また、ネットワークインタフェース1630は、CPU1610とは独立したCPUを有して、RAM(Random Access Memory)1640の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM1640とストレージ1650との間でデータを転送するDMAC(Direct Memory Access Controller)を設けるのが望ましい(図示なし)。さらに、入出力インタフェース1660は、CPU1610とは独立したCPUを有して、RAM1640の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU1610は、RAM1640にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU1610は、処理結果をRAM640に準備し、後の送信あるいは転送はネットワークインタフェース1630やDMAC、あるいは入出力インタフェース1660に任せる。   FIG. 16 is a block diagram for explaining the hardware configuration of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. A central processing unit (CPU) 1610 is a processor for arithmetic control, and implements a functional component of the target object recognition performance improvement server 1401 in FIG. 14 by executing a program. A ROM (Read Only Memory) 1620 stores fixed data such as initial data and programs and other programs. Also, the network interface 1630 communicates with other devices via a network. Note that the CPU 1610 is not limited to one, and may be a plurality of CPUs or may include a GPU (Graphics Processing Unit) for image processing. Further, it is desirable that the network interface 1630 have a CPU independent of the CPU 1610 and write or read transmission / reception data in a region of a random access memory (RAM) 1640. Further, it is desirable to provide a DMAC (Direct Memory Access Controller) for transferring data between the RAM 1640 and the storage 1650 (not shown). Furthermore, it is desirable that the input / output interface 1660 have a CPU independent of the CPU 1610 and write or read out input / output data in the area of the RAM 1640. Therefore, the CPU 1610 recognizes that data has been received or transferred to the RAM 1640 and processes the data. Further, the CPU 1610 prepares the processing result in the RAM 640, and leaves the subsequent transmission or transfer to the network interface 1630, the DMAC, or the input / output interface 1660.

RAM1640は、CPU1610が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM1640には、本実施形態の実現に必要なデータを記憶する領域が確保されている。患者データ1641は、目標物認識性向上システムを利用してリハビリテーションを受ける患者に関するデータである。画像データ1642は、表示部1402に表示される目標画像としてのオブジェクト1330や視認補助画像1333などのデータである。表示位置1643は、オブジェクト1330や視認補助画像1333を表示部1402のどの位置に表示するかを示すデータである。倍率1644は、オブジェクト1330や視認補助画像1333などの画像を表示部1402において、どの程度の大きさで表示するかを示すデータである。そして、これらのデータは、例えば、患者テーブル1501、表示パラメータテーブル1502および画像テーブル1503から読み出される。   The RAM 1640 is a random access memory used by the CPU 1610 as a temporary storage work area. In the RAM 1640, an area for storing data necessary for realizing the present embodiment is secured. The patient data 1641 is data on a patient who is to be rehabilitated using the target recognition system. The image data 1642 is data such as an object 1330 as a target image displayed on the display unit 1402 and a visual aid image 1333. The display position 1643 is data indicating at which position of the display unit 1402 the object 1330 or the visual recognition auxiliary image 1333 is to be displayed. The magnification 1644 is data indicating how large the image such as the object 1330 or the visual recognition auxiliary image 1333 is to be displayed on the display unit 1402. Then, these data are read from, for example, a patient table 1501, a display parameter table 1502 and an image table 1503.

入出力データ1645は、入出力インタフェース1660を介して入出力されるデータである。送受信データ1646は、ネットワークインタフェース1630を介して送受信されるデータである。また、RAM1640は、各種アプリケーションモジュールを実行するためのアプリケーション実行領域1647を有する。   The input / output data 1645 is data input / output via the input / output interface 1660. Transmission / reception data 1646 is data transmitted / received via the network interface 1630. The RAM 1640 also has an application execution area 1647 for executing various application modules.

ストレージ1650には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ストレージ1650は、患者テーブル1501、表示パラメータテーブル1502および画像テーブル1503を格納する。患者テーブル1501は、図15Aに示した、患者ID1511と属性情報1512などとの関係を管理するテーブルである。表示パラメータテーブル1502は、図15Bに示した、リハビリメニュー1515と表示パラメータ1523などとの関係を管理するテーブルである。画像テーブル1503は、図15Cに示した、画像種別1531と画像データ1532などとの関係を管理するテーブルである。   The storage 1650 stores a database, various parameters, or the following data or program necessary for realizing the present embodiment. The storage 1650 stores a patient table 1501, a display parameter table 1502 and an image table 1503. The patient table 1501 is a table for managing the relationship between the patient ID 1511 and the attribute information 1512 shown in FIG. 15A. The display parameter table 1502 is a table for managing the relationship between the rehabilitation menu 1515 and the display parameter 1523 shown in FIG. 15B. The image table 1503 is a table for managing the relationship between the image type 1531 and the image data 1532 as shown in FIG. 15C.

ストレージ1650は、さらに、動作検出モジュール1651、表示制御モジュール1652、評価モジュール1653および更新モジュール1654を格納する。   The storage 1650 further stores an operation detection module 1651, a display control module 1652, an evaluation module 1653 and an update module 1654.

動作検出モジュール1651は、ユーザ220のリハビリテーション動作を検出するモジュールである。表示制御モジュール1652は、アバター画像1320と、目標画像としてのオブジェクト1330と、オブジェクト1330の視認性を向上させる視認補助画像1333などを表示部1402に表示させるモジュールである。評価モジュール1653は、ユーザ220のリハビリテーション能力を評価するモジュールである。更新モジュール1654は、評価結果に応じて、目標画像が表す目標位置を更新するモジュールである。これらのモジュール1651〜1654は、CPU1610によりRAM1640のアプリケーション実行領域1647に読み出され、実行される。制御プログラム1655は、目標物認識性向上サーバ1401の全体を制御するためのプログラムである。   The motion detection module 1651 is a module that detects a rehabilitation motion of the user 220. The display control module 1652 is a module that causes the display unit 1402 to display an avatar image 1320, an object 1330 as a target image, and a visual aid image 1333 for improving the visibility of the object 1330. The evaluation module 1653 is a module for evaluating the rehabilitation ability of the user 220. The update module 1654 is a module that updates the target position represented by the target image according to the evaluation result. These modules 1651 to 1654 are read by the CPU 1610 to the application execution area 1647 of the RAM 1640 and executed. The control program 1655 is a program for controlling the entire target object recognition performance improvement server 1401.

入出力インタフェース1660は、入出力機器との入出力データをインタフェースする。入出力インタフェース1660には、表示部1661、操作部1662、が接続される。また、入出力インタフェース1660には、さらに、記憶媒体1664が接続されてもよい。さらに、音声出力部であるスピーカ1663や、音声入力部であるマイク、あるいは、GPS(Global Positioning System)位置判定部が接続されてもよい。なお、図16に示したRAM1640やストレージ1650には、目標物認識性向上サーバ1401が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。   The input / output interface 1660 interfaces input / output data with input / output devices. A display unit 1661 and an operation unit 1662 are connected to the input / output interface 1660. Further, a storage medium 1664 may be connected to the input / output interface 1660. Furthermore, a speaker 1663 which is an audio output unit, a microphone which is an audio input unit, or a GPS (Global Positioning System) position determination unit may be connected. Note that, in the RAM 1640 and the storage 1650 shown in FIG. 16, programs and data regarding general-purpose functions and other realizable functions that the target object recognition performance improvement server 1401 has are not illustrated.

図17Aは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。図17Bは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの視認補助画像表示の処理手順を説明するフローチャートである。これらのフローチャートは、CPU1610がRAM1640を使用して実行し、図14の目標物認識性向上サーバ1401の機能構成部を実現する。   FIG. 17A is a flowchart for describing the processing procedure of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. FIG. 17B is a flowchart for describing a processing procedure of visual aid image display of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. These flowcharts are executed by the CPU 1610 using the RAM 1640, and implement the functional components of the target object recognition performance improvement server 1401 of FIG.

ステップS1701において、目標物認識性向上サーバ1401は、視認補助画像を表示部1402などに表示させる。   In step S1701, the target object recognition performance improvement server 1401 causes the display unit 1402 or the like to display a visual aid.

ステップS1721において、目標物認識性向上サーバ1401は、目標物認識性向上システム1400を利用してリハビリテーションを受ける患者の属性やどのようなリハビリテーションメニューを受けるかなどの、患者情報を取得する。   In step S1721, the target object recognition performance improvement server 1401 acquires patient information such as an attribute of a patient to be rehabilitated and what kind of rehabilitation menu is to be received using the target object recognition performance improvement system 1400.

ステップS1723において、目標物認識性向上サーバ1401は、表示部1402に表示すべき視認補助画像1333などを表示部1402に表示するために必要な表示パラメータを取得する。取得する表示パラメータは、例えば、視認補助画像1333などの位置や倍率などの関するパラメータである。   In step S 1723, the target object recognition performance improvement server 1401 acquires display parameters necessary for displaying the visual recognition auxiliary image 1333 or the like to be displayed on the display unit 1402 on the display unit 1402. The display parameters to be acquired are, for example, parameters related to the position of the visual recognition auxiliary image 1333 or the like, the magnification and the like.

ステップS1725において、目標物認識性向上サーバ1401は、視認補助画像1333の画像データを取得する。ステップS1727において、目標物認識性向上サーバ1401は、表示部1402に視認補助画像1333などを表示する。   In step S1725, the target object recognition performance improvement server 1401 acquires the image data of the visual recognition auxiliary image 1333. In step S1727, the target object recognition performance improvement server 1401 causes the display unit 1402 to display the visual recognition auxiliary image 1333 or the like.

ステップS1729において、目標物認識性向上サーバ1401は、視認補助画像1333などの表示の変更が必要か否かを判断する。表示変更が必要でない場合(ステップS1729のNO)、目標物認識性向上サーバ1401は、処理を終了する。表示変更が必要な場合(ステップS1729のYES)、目標物認識性向上サーバ1401は、次のステップへと進む。   In step S1729, the target object recognition performance improvement server 1401 determines whether it is necessary to change the display of the visual recognition auxiliary image 1333 or the like. When the display change is not necessary (NO in step S1729), the target object recognition efficiency improvement server 1401 ends the processing. When the display change is necessary (YES in step S1729), the target object recognition efficiency improvement server 1401 proceeds to the next step.

ステップS1731において、目標物認識性向上サーバ1401は、ユーザ220の視力やユーザ220のリハビリテーション能力の評価結果に応じて、視認補助画像1333の大きさを変更する。   In step S1731, the target object recognition performance improvement server 1401 changes the size of the visual assistance image 1333 according to the evaluation result of the visual acuity of the user 220 and the rehabilitation ability of the user 220.

本実施形態によれば、目標距離と運動距離との乖離を小さくするために、目標画像の大きさを小さくしても、目標画像の視認性を維持しつつ、目標距離と運動距離とを近づけて、リハビリテーションの効果を増大させることができる。また、ユーザは、目標画像にタッチした時の感覚が鮮明となるので、ユーザは目標達成の満足感を経験することができる。   According to the present embodiment, even if the size of the target image is reduced to reduce the deviation between the target distance and the movement distance, the target distance and the movement distance are brought close while maintaining the visibility of the target image. Can increase the effects of rehabilitation. In addition, since the user feels clear when touching the target image, the user can experience satisfaction with the goal achievement.

[第実施形態]
次に本発明の第実施形態に係る目標物認識性向上システムについて、図18乃至図21を用いて説明する。図18は、本実施形態に係る目標物認識性向上システムの構成を説明するブロック図である。本実施形態に係る目標物認識性向上システムは、上記前提技術1および第実施形態と比べると、音出力部を有する点で異なる。その他の構成および動作は、前提技術1および第実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Third Embodiment
Next, a target object recognition performance improvement system according to a third embodiment of the present invention will be described using FIGS. 18 to 21. FIG. FIG. 18 is a block diagram for explaining the configuration of the target object recognition performance improvement system according to the present embodiment. The target object recognition performance improvement system according to the present embodiment is different in that it has a sound output unit as compared with the above-described base technology 1 and the second embodiment. The other configurations and operations are similar to those of the base technology 1 and the second embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.

目標物認識性向上システム1800は、目標物認識性向上サーバ1801および音出力部1802を備える。目標物認識性向上サーバ1801は、音出力制御部1811を有する。音出力制御部1811は、目標画像としてのオブジェクト1330とアバター画像1320との位置関係に応じて、音の出力を制御する。音出力制御部1811が出力を制御した音は、音出力部1802から出力される。   The target recognition performance improvement system 1800 includes a target recognition performance improvement server 1801 and a sound output unit 1802. The target object recognition performance improvement server 1801 has a sound output control unit 1811. The sound output control unit 1811 controls the sound output according to the positional relationship between the object 1330 as a target image and the avatar image 1320. The sound whose output is controlled by the sound output control unit 1811 is output from the sound output unit 1802.

音出力制御部1811は、例えば、オブジェクト1330が、上方から下方へ向かって降下している場合、オブジェクト1330とアバター画像1320との間の距離、つまり、位置関係に基づいて、音を出力する。   The sound output control unit 1811 outputs a sound based on, for example, the distance between the object 1330 and the avatar image 1320, that is, the positional relationship, when the object 1330 is lowered from the upper side to the lower side, for example.

オブジェクト1330とアバター画像1320との間の距離が縮まるにつれて、つまり、オブジェクト1330がアバター画像1320に近づくにつれて、出力される音を高い周波数の音としてもよい。また、同様に、オブジェクト1330とアバター画像1320との間の距離が離れるにつれて、つまり、オブジェクト1330がアバター画像1320から遠ざかるにつれて、出力される音を低い周波数の音としてもよい。すなわち、ドップラー効果のように、オブジェクト1330(音源)とアバター画像1320(ユーザ220(観測者))との距離に応じて、音(波)の周波数が異なって観測されるような音響効果を表現してもよい。なお、出力される音の周波数を変更する代わりに、オブジェクト1330とアバター画像1320との間の距離に応じて、出力される音の音量を大小してもよい。   As the distance between the object 1330 and the avatar image 1320 decreases, that is, as the object 1330 approaches the avatar image 1320, the output sound may be a high frequency sound. Similarly, as the distance between the object 1330 and the avatar image 1320 increases, that is, as the object 1330 moves away from the avatar image 1320, the output sound may be a low frequency sound. That is, as in the Doppler effect, it represents an acoustic effect in which the frequency of the sound (wave) is observed differently according to the distance between the object 1330 (sound source) and the avatar image 1320 (user 220 (observer)) You may Note that instead of changing the frequency of the sound to be output, the volume of the sound to be output may be increased or decreased according to the distance between the object 1330 and the avatar image 1320.

また、音出力制御部1811から音を出力することにより、ユーザ220に対して、オブジェクト1330の位置を教示してもよい。つまり、ユーザ220の聴覚を利用して、オブジェクト1330の位置を教示する。   Also, the position of the object 1330 may be taught to the user 220 by outputting a sound from the sound output control unit 1811. That is, the user's 220 hearing is used to teach the position of the object 1330.

例えば、ユーザ220が、目標物認識性向上システム1800を利用する際に、ヘッドフォンを装着している場合を考える。目標画像としてのオブジェクト1330が、アバター画像1320(ユーザ220)の右側にある場合には、目標物認識性向上サーバ1801は、右耳側のヘッドフォンから音を出す。同様に、オブジェクト1330がアバター画像1320(ユーザ220)の左側にある場合には、左耳側のヘッドフォンから音を出す。これにより、ユーザ220は、音の方向からオブジェクト1330がユーザ220の右側にあるのか、左側にあるのかを判断することができる。さらに、オブジェクト1330がアバター画像1320(ユーザ220)の正面にある場合には、両方のヘッドフォンから音を出す。   For example, consider a case where the user 220 wears headphones when using the target object recognition efficiency improvement system 1800. When the object 1330 as the target image is on the right side of the avatar image 1320 (user 220), the target object recognition efficiency improvement server 1801 makes a sound from the headphones on the right ear side. Similarly, when the object 1330 is on the left side of the avatar image 1320 (user 220), sound is emitted from the headphones on the left ear side. Thus, the user 220 can determine whether the object 1330 is on the right side or on the left side of the user 220 from the direction of the sound. In addition, if the object 1330 is in front of the avatar image 1320 (user 220), sound is emitted from both headphones.

また、以上の説明では、ユーザ220の視覚や聴覚などを利用してオブジェクト1330の位置を教示したが、視覚や聴覚以外の他の五感、味覚、触覚、嗅覚などを利用してユーザ220にオブジェクト1330の位置を教示してもよい。   Also, in the above description, the position of the object 1330 is taught using the visual and auditory sense of the user 220, but the object 220 is an object using the other five senses, taste, touch, smell and the like other than visual sense and auditory sense The position of 1330 may be taught.

例えば、ユーザ220の舌にセンサを置き、オブジェクト1330の位置に応じた味覚をユーザ220が感じるようにしてもよい。または、ユーザ220が手に持っているコントローラや、ユーザ220が装着しているヘッドフォン、ヘッドマウントディスプレイなどを振動させてもよい。つまり、ユーザ220の触覚を利用してオブジェクト1330の位置を教示してもよい。   For example, the sensor may be placed on the tongue of the user 220, and the user 220 may feel a taste according to the position of the object 1330. Alternatively, a controller held by the user 220, headphones worn by the user 220, a head mounted display, or the like may be vibrated. That is, the position of the object 1330 may be taught using the sense of touch of the user 220.

図19は、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの有する音テーブルの一例を説明する図である。音テーブル1901は、画像種別1531に関連付けて音データ1911を記憶する。そして、目標物認識性向上サーバ1801は、音テーブル1901を参照して、出力する音を制御する。   FIG. 19 is a diagram for explaining an example of a sound table of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. The sound table 1901 stores sound data 1911 in association with the image type 1531. Then, the target object recognition performance improvement server 1801 controls the sound to be output with reference to the sound table 1901.

図20は、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバのハードウェア構成を説明する図である。RAM2040は、CPU1610が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM2040には、本実施形態の実現に必要なデータを記憶する領域が確保されている。音データ2041は、出力される音に関するデータである。そして、このデータは、例えば、音テーブル1901から読み出される。   FIG. 20 is a diagram for describing a hardware configuration of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. A RAM 2040 is a random access memory used by the CPU 1610 as a temporary storage work area. In the RAM 2040, an area for storing data necessary for realizing the present embodiment is secured. The sound data 2041 is data relating to the sound to be output. Then, this data is read from, for example, the sound table 1901.

ストレージ2050には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ストレージ2050は、音テーブル1901を格納する。音テーブル1901は、図19に示した、画像種別1531と音データ1911との関係を管理するテーブルである。   The storage 2050 stores a database, various parameters, or the following data or program necessary for realizing the present embodiment. The storage 2050 stores a sound table 1901. The sound table 1901 is a table for managing the relationship between the image type 1531 and the sound data 1911 shown in FIG.

ストレージ2050は、さらに、音出力制御モジュール2051を格納する。音出力制御モジュール2051は、目標画像としてのオブジェクト1330とアバター画像1320との位置関係に応じて、音の出力を制御するモジュールである。このモジュール2051は、CPU1610によりRAM2040のアプリケーション実行領域1647に読み出され、実行される。なお、図20に示したRAM2040やストレージ2050には、目標物認識性向上サーバ1801が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。   The storage 2050 further stores a sound output control module 2051. The sound output control module 2051 is a module that controls the output of sound according to the positional relationship between the object 1330 as a target image and the avatar image 1320. The module 2051 is read by the CPU 1610 into the application execution area 1647 of the RAM 2040 and executed. In the RAM 2040 and the storage 2050 shown in FIG. 20, programs and data regarding general-purpose functions and other realizable functions possessed by the target object recognition performance improvement server 1801 are not shown.

図21Aは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの処理手順を説明するフローチャートである。図21Bは、本実施形態に係る目標物認識性向上システムに含まれる目標物認識性向上サーバの音出力制御の処理手順を説明するフローチャートである。これらのフローチャートは、CPU1610がRAM2040を使用して実行し、図18の目標物認識性向上サーバ1801の機能構成部を実現する。   FIG. 21A is a flowchart for describing the processing procedure of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. FIG. 21B is a flowchart for describing the process procedure of the sound output control of the target object recognition performance improvement server included in the target object recognition performance improvement system according to the present embodiment. These flowcharts are executed by the CPU 1610 using the RAM 2040, and implement the functional components of the target object recognition performance improvement server 1801 of FIG.

ステップS2101において、目標物認識性向上サーバ1801は、音の出力を制御する。ステップS2121において、目標物認識性向上目標物認識性向上サーバ1801は、アバター画像1320の位置を取得する。ステップS2123において、目標物認識性向上サーバ1801は、オブジェクト1330の位置を取得する。ステップS2125において、目標物認識性向上サーバ1801は、アバター画像1320とオブジェクト1330との位置関係を判定する。ステップS2127において、目標物認識性向上サーバ1801は、判定した位置関係に応じて、音の出力を制御する。   In step S 2101, the target object recognition performance improvement server 1801 controls the output of sound. In step S <b> 2121, the target recognition performance improvement target recognition performance improvement server 1801 acquires the position of the avatar image 1320. In step S2123, the target object recognition performance improvement server 1801 acquires the position of the object 1330. In step S 2125, the target object recognition performance improvement server 1801 determines the positional relationship between the avatar image 1320 and the object 1330. In step S2127, the target object recognition performance improvement server 1801 controls the output of sound according to the determined positional relationship.

本実施形態によれば、ユーザの視覚の他に聴覚を利用してリハビリテーションを実行するので、ユーザがより容易にオブジェクトを視認でき、リハビリテーションにより得られる効果をさらに高めることができる。また、ユーザは、視覚のみならず聴覚によってもオブジェクトの位置を把握することができる。また、音を出力するので、視力の弱いユーザであっても、本実施形態によるリハビリテーションを受けることができる。   According to the present embodiment, since rehabilitation is performed using hearing in addition to the user's vision, the user can more easily view the object, and the effect obtained by the rehabilitation can be further enhanced. Also, the user can grasp the position of the object not only by sight but also by hearing. Moreover, since the sound is output, even a user with weak vision can receive the rehabilitation according to the present embodiment.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
[Other embodiments]
Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. The configurations and details of the present invention can be modified in various ways that can be understood by those skilled in the art within the scope of the present invention. Also included within the scope of the present invention are systems or devices that combine the different features included in each embodiment.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。   Furthermore, the present invention may be applied to a system configured of a plurality of devices or to a single device. Furthermore, the present invention is also applicable to the case where an information processing program for realizing the functions of the embodiments is supplied to a system or apparatus directly or remotely. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server for downloading the program are also included in the scope of the present invention. . In particular, a non-transitory computer readable medium storing a program that causes a computer to execute at least the processing steps included in the above-described embodiment is included in the scope of the present invention.

本発明は、リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラムに関する。 The present invention relates to a rehabilitation support system, a rehabilitation support method, and a rehabilitation support program.

上記目的を達成するため、本発明に係るリハビリテーション支援システムは、
ユーザの第1リハビリテーション動作を検出する動作検出手段と、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像の輪郭と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像の輪郭と、を表示させ、前記目標画像までユーザがリハビリテーション動作でたどるべき軌跡を表示させない表示制御手段と、
前記アバター画像の位置と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価手段と、
前記評価手段による評価結果に応じて、前記目標位置を更新する更新手段と、
を備えた。
In order to achieve the above object, the rehabilitation support system according to the present invention is
Motion detection means for detecting a first rehabilitation motion of the user;
Avatar image moves in response to the detected first rehabilitation operation, the contour of the target image indicating the target of the first rehabilitation operation, the contour of the at least one visual recognition assistance image to improve the visibility of the target image, the Display control means for displaying and not displaying a trajectory which the user should follow in the rehabilitation operation up to the target image ;
Evaluation means for evaluating the user's rehabilitation ability by comparing the position of the avatar image with the target position represented by the target image;
Updating means for updating the target position according to the evaluation result by the evaluation means;
Equipped.

上記目的を達成するため、本発明に係るリハビリテーション支援方法は、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像の輪郭と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像の輪郭と、を表示させ、前記目標画像までユーザがリハビリテーション動作でたどるべき軌跡を表示させない表示制御ステップと、
前記アバター画像の位置と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
を含む。
In order to achieve the above object, a rehabilitation support method according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
Avatar image moves in response to the detected first rehabilitation operation, the contour of the target image indicating the target of the first rehabilitation operation, the contour of the at least one visual recognition assistance image to improve the visibility of the target image, the A display control step of displaying and not displaying a trajectory that the user should follow in the rehabilitation operation up to the target image ;
Evaluating the rehabilitation ability of the user by comparing the position of the avatar image with the target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
including.

上記目的を達成するため、本発明に係るリハビリテーション支援プログラムは、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像の輪郭と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像の輪郭と、を表示させ、前記目標画像までユーザがリハビリテーション動作でたどるべき軌跡を表示させない表示制御ステップと、
前記アバター画像の位置と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a rehabilitation support program according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
Avatar image moves in response to the detected first rehabilitation operation, the contour of the target image indicating the target of the first rehabilitation operation, the contour of the at least one visual recognition assistance image to improve the visibility of the target image, the A display control step of displaying and not displaying a trajectory that the user should follow in the rehabilitation operation up to the target image ;
Evaluating the rehabilitation ability of the user by comparing the position of the avatar image with the target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
On a computer.

上記目的を達成するため、本発明に係るリハビリテーション支援システムは、
ユーザの第1リハビリテーション動作を検出する動作検出手段と、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる前記目標画像よりも大きな視認補助画像と、を表示させる表示制御手段と、
前記アバター画像の位置と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価手段と、
前記評価手段による評価結果に応じて、前記目標位置を更新する更新手段と、
を備え
前記表示制御手段は、前記視認補助画像を、前記目標画像を内包するように重畳表示させる
In order to achieve the above object, the rehabilitation support system according to the present invention is
Motion detection means for detecting a first rehabilitation motion of the user;
Display and avatar image moves in response to the detected first rehabilitation operation, the target image showing the target of the first rehabilitation operation, and a large viewing auxiliary image than the target image to improve the visibility of the target image Display control means for causing
Evaluation means for evaluating the user's rehabilitation ability by comparing the position of the avatar image with the target position represented by the target image;
Updating means for updating the target position according to the evaluation result by the evaluation means;
Equipped with
The display control means superimposes and displays the visual recognition auxiliary image so as to include the target image .

上記目的を達成するため、本発明に係るリハビリテーション支援方法は、
リハビリテーション支援システムの動作検出部が、ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
前記リハビリテーション支援システムの表示制御部が、検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像、前記目標画像の視認性を向上させる前記目標画像よりも大きな視認補助画像、を表示させる表示制御ステップと、
前記リハビリテーション支援システムの評価部が、前記アバター画像の位置と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記リハビリテーション支援システムの更新部が、前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
を含み、
前記表示制御ステップは、前記視認補助画像を、前記目標画像を内包するように重畳表示させる
In order to achieve the above object, a rehabilitation support method according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user by the motion detection unit of the rehabilitation support system;
The display control unit of the rehabilitation support system, the avatar image moving according to the detected first rehabilitation operation, the target image indicating the target of the first rehabilitation operation, and the target image for improving the visibility of the target image a display control step of displaying a large viewing auxiliary image, a than,
An evaluation step of evaluating the rehabilitation ability of the user by comparing the position of the avatar image with the target position represented by the target image by the evaluation unit of the rehabilitation support system;
An updating step of updating the target position according to the evaluation result in the evaluation step, the updating unit of the rehabilitation support system;
Only including,
The display control step superimposes and displays the visual recognition auxiliary image so as to include the target image .

上記目的を達成するため、本発明に係るリハビリテーション支援プログラムは、
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
前記リハビリテーション支援システムの表示制御部が、検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像、前記目標画像の視認性を向上させる前記目標画像よりも大きな視認補助画像、を表示させる表示制御ステップと、
前記アバター画像の位置と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
をコンピュータに実行させ
前記表示制御ステップは、前記視認補助画像を、前記目標画像を内包するように重畳表示させる
In order to achieve the above object, a rehabilitation support program according to the present invention is:
A motion detection step of detecting a first rehabilitation motion of the user;
The display control unit of the rehabilitation support system, the avatar image moving according to the detected first rehabilitation operation, the target image indicating the target of the first rehabilitation operation, and the target image for improving the visibility of the target image a display control step of displaying a large viewing auxiliary image, a than,
Evaluating the rehabilitation ability of the user by comparing the position of the avatar image with the target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
On your computer ,
The display control step superimposes and displays the visual recognition auxiliary image so as to include the target image .

Claims (21)

ユーザの第1リハビリテーション動作を検出する動作検出手段と、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御手段と、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価手段と、
前記評価手段による評価結果に応じて、前記目標位置を更新する更新手段と、
を備えた目標物認識性向上システム。
Motion detection means for detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Means,
An evaluation unit that evaluates the user's rehabilitation ability by comparing the first rehabilitation operation with the target position represented by the target image;
Updating means for updating the target position according to the evaluation result by the evaluation means;
Target recognition improvement system equipped with.
前記表示制御手段は、前記目標画像と前記視認補助画像とを重畳して表示させる請求項1に記載の目標物認識性向上システム。   The system according to claim 1, wherein the display control unit superimposes and displays the target image and the visual recognition auxiliary image. 前記表示制御手段は、前記視認補助画像の中心近傍に前記目標画像を表示させる請求項2に記載の目標物認識性向上システム。   The system according to claim 2, wherein the display control means displays the target image near the center of the visual recognition auxiliary image. 前記表示制御手段は、前記目標画像を前記視認補助画像の前記中心近傍以外の位置に表示させる請求項2に記載の目標物認識性向上システム。   3. The target object recognition efficiency improvement system according to claim 2, wherein the display control means displays the target image at a position other than the vicinity of the center of the visual recognition auxiliary image. 前記表示制御手段は、前記目標画像の存在位置を示す視認補助画像を表示させる請求項1乃至4のいずれか1項に記載の目標物認識性向上システム。   The target recognition performance improvement system according to any one of claims 1 to 4, wherein the display control means displays a visual recognition auxiliary image indicating a position where the target image is present. 前記表示制御手段は、前記目標画像と前記視認補助画像とを識別可能に表示させる請求項1乃至5のいずれか1項に記載の目標物認識性向上システム。   The target recognition performance improvement system according to any one of claims 1 to 5, wherein the display control means displays the target image and the visual recognition auxiliary image in a distinguishable manner. 前記表示制御手段は、前記目標画像を前記視認補助画像よりも濃く表示させる請求項6に記載の目標物認識性向上システム。   7. The target object recognition efficiency improvement system according to claim 6, wherein the display control means displays the target image darker than the visual recognition auxiliary image. 前記表示制御手段は、前記目標画像と前記視認補助画像とを異なる色で表示させる請求項6または7に記載の目標物認識性向上システム。   8. The target object recognition efficiency improvement system according to claim 6, wherein the display control means displays the target image and the visual recognition auxiliary image in different colors. 前記表示制御手段は、前記ユーザの視力および前記評価手段による前記評価結果の少なくとも一方に応じて、前記視認補助画像の表示の変更を制御する請求項1乃至8のいずれか1項に記載の目標物認識性向上システム。   The target according to any one of claims 1 to 8, wherein the display control means controls a change in display of the visual aid image according to at least one of the visual acuity of the user and the evaluation result by the evaluation means. Object recognition improvement system. 前記表示制御手段は、前記視認補助画像の大きさの変更を制御する請求項9に記載の目標物認識性向上システム。   10. The target object recognition efficiency improvement system according to claim 9, wherein the display control means controls a change in size of the visual recognition auxiliary image. 前記目標画像と前記アバター画像との位置関係に応じて、音の出力を制御する音出力制御手段をさらに備えた請求項1乃至10のいずれか1項に記載の目標物認識性向上システム。   The target object recognition efficiency improvement system according to any one of claims 1 to 10, further comprising sound output control means for controlling an output of sound according to a positional relationship between the target image and the avatar image. 前記表示制御手段は、前記アバター画像、前記目標画像および前記視認補助画像に対して、背景画像を重畳表示させ、
前記背景画像に関する質問を音声により出力する音声出力手段をさらに備え、
前記評価手段は、さらに、前記質問に対する回答に応じて、前記ユーザのリハビリテーション能力を評価する請求項1乃至11のいずれか1項に記載の目標物認識性向上システム。
The display control means superimposes and displays a background image on the avatar image, the target image, and the visual recognition auxiliary image.
The apparatus further comprises audio output means for outputting the question concerning the background image by voice.
12. The target object recognition efficiency improvement system according to any one of claims 1 to 11, wherein the evaluation means further evaluates the rehabilitation ability of the user according to an answer to the question.
前記質問に対する回答を音声認識により取得する音声認識手段をさらに備えた請求項12に記載の目標物認識性向上システム。   The target object recognition efficiency improvement system according to claim 12, further comprising voice recognition means for obtaining an answer to the question by voice recognition. 前記音声出力手段は、前記評価手段が前記第1リハビリテーション動作について、所定以上の評価をした場合に、前記背景画像に関する質問を音声により出力する請求項12または13に記載の目標物認識性向上システム。   The target object recognition performance improvement system according to claim 12 or 13, wherein the voice output means outputs the question concerning the background image by voice when the evaluation means evaluates the first rehabilitation operation more than a predetermined level. . 前記表示制御手段は、前記アバター画像、前記目標画像および前記視認補助画像に対して、質問画像を重畳表示させ、
前記評価手段は、さらに、前記質問画像に対する回答に応じて、前記ユーザのリハビリテーション能力を評価する請求項1乃至14のいずれか1項に記載の目標物認識性向上システム。
The display control means superimposes and displays a question image on the avatar image, the target image, and the visual recognition auxiliary image.
The target recognition performance improvement system according to any one of claims 1 to 14, wherein the evaluation means further evaluates the rehabilitation ability of the user according to an answer to the question image.
前記質問画像に対する回答を音声認識により取得する音声認識手段をさらに備えた請求項15に記載の目標物認識性向上システム。   The target object recognition efficiency improvement system according to claim 15, further comprising voice recognition means for obtaining an answer to the question image by voice recognition. 前記表示制御手段は、前記評価手段が前記第1リハビリテーション動作について、所定以上の評価をした場合に、前記質問画像を重畳表示する請求項15または16に記載の目標物認識性向上システム。   17. The target object recognition efficiency improvement system according to claim 15, wherein the display control means superimposes and displays the question image when the evaluation means evaluates the first rehabilitation operation at a predetermined level or more. 前記動作検出手段は、
さらに、前記第1リハビリテーション動作中における、前記ユーザの第2リハビリテーション動作を検出し、
前記評価手段は、前記第1リハビリテーション動作および前記第2リハビリテーション動作の両方に基づいて、前記リハビリテーション能力を評価する請求項1乃至17のいずれか1項に記載の目標物認識性向上システム。
The motion detection means
Furthermore, a second rehabilitation operation of the user is detected during the first rehabilitation operation,
The target object recognition efficiency improvement system according to any one of claims 1 to 17, wherein the evaluation means evaluates the rehabilitation ability based on both of the first rehabilitation action and the second rehabilitation action.
前記評価手段は、前記第1リハビリテーション動作のみについて、所定以上の評価をした場合に、前記第1リハビリテーション動作および前記第2リハビリテーション動作の両方に基づいて、前記リハビリテーション能力を評価する請求項18に記載の目標物認識性向上システム。   The evaluation means according to claim 18, wherein the evaluation means evaluates the rehabilitation ability based on both the first rehabilitation action and the second rehabilitation action when evaluating only the first rehabilitation action or more. Target recognition improvement system. ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御ステップと、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
を含む目標物認識性向上方法。
A motion detection step of detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Step and
An evaluation step of evaluating the rehabilitation ability of the user by comparing the first rehabilitation operation with a target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
Target object recognition improvement method including.
ユーザの第1リハビリテーション動作を検出する動作検出ステップと、
検出した前記第1リハビリテーション動作に応じて動くアバター画像と、前記第1リハビリテーション動作の目標を示す目標画像と、前記目標画像の視認性を向上させる少なくとも1つの視認補助画像と、を表示させる表示制御ステップと、
前記第1リハビリテーション動作と、前記目標画像が表わす目標位置とを比較して、前記ユーザのリハビリテーション能力を評価する評価ステップと、
前記評価ステップにおける評価結果に応じて、前記目標位置を更新する更新ステップと、
をコンピュータに実行させる目標物認識性向上プログラム。
A motion detection step of detecting a first rehabilitation motion of the user;
Display control for displaying an avatar image moving according to the detected first rehabilitation operation, a target image indicating a target of the first rehabilitation operation, and at least one visual aid for improving the visibility of the target image Step and
An evaluation step of evaluating the rehabilitation ability of the user by comparing the first rehabilitation operation with a target position represented by the target image;
An updating step of updating the target position according to the evaluation result in the evaluation step;
Target recognition improvement program to make a computer execute.
JP2017204243A 2017-04-25 2017-10-23 Rehabilitation support system, rehabilitation support method and rehabilitation support program Active JP6425287B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2017204243A JP6425287B1 (en) 2017-10-23 2017-10-23 Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP2019514593A JP6758004B2 (en) 2017-04-25 2018-04-25 Rehabilitation support system, rehabilitation support method and rehabilitation support program
US16/320,503 US20190247719A1 (en) 2017-04-25 2018-04-25 Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
EP18792082.2A EP3539525A4 (en) 2017-04-25 2018-04-25 Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
CN201880004001.XA CN110022835B (en) 2017-04-25 2018-04-25 Rehabilitation support system, rehabilitation support method, and storage medium
PCT/JP2018/016886 WO2018199196A1 (en) 2017-04-25 2018-04-25 Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP2018193342A JP6969794B2 (en) 2017-10-23 2018-10-12 Rehabilitation support system, rehabilitation support method and rehabilitation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017204243A JP6425287B1 (en) 2017-10-23 2017-10-23 Rehabilitation support system, rehabilitation support method and rehabilitation support program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018193342A Division JP6969794B2 (en) 2017-10-23 2018-10-12 Rehabilitation support system, rehabilitation support method and rehabilitation support program

Publications (2)

Publication Number Publication Date
JP6425287B1 JP6425287B1 (en) 2018-11-21
JP2019076290A true JP2019076290A (en) 2019-05-23

Family

ID=64379193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017204243A Active JP6425287B1 (en) 2017-04-25 2017-10-23 Rehabilitation support system, rehabilitation support method and rehabilitation support program

Country Status (1)

Country Link
JP (1) JP6425287B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021023445A (en) * 2019-07-31 2021-02-22 株式会社mediVR Rehabilitation support apparatus and rehabilitation support method
JP2021058389A (en) * 2019-10-07 2021-04-15 株式会社mediVR Rehabilitation support device, and method and program thereof
JP2021171324A (en) * 2020-04-24 2021-11-01 株式会社mediVR Rehabilitation support device, method thereof and program
JP7448943B2 (en) 2019-10-07 2024-03-13 株式会社mediVR Rehabilitation support device, method and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7385238B2 (en) * 2019-01-07 2023-11-22 株式会社mediVR Rehabilitation support device, rehabilitation support method, and rehabilitation support program
JP6531338B1 (en) * 2019-01-07 2019-06-19 株式会社mediVR Rehabilitation support device, rehabilitation support system, rehabilitation support method and rehabilitation support program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276138A (en) * 1999-03-23 2000-10-06 Yamaha Corp Music sound controller
JP2006325740A (en) * 2005-05-24 2006-12-07 Nagasaki Univ Rehabilitation support system and program
JP2011110215A (en) * 2009-11-26 2011-06-09 Toyota Motor Kyushu Inc Rehabilitation system, program and computer-readable recording medium recording program
JP2015058135A (en) * 2013-09-18 2015-03-30 任天堂株式会社 Information processing program, information processor, information processing system, and information processing method
JP2015228957A (en) * 2014-06-04 2015-12-21 日本光電工業株式会社 Rehabilitation supporting system
JP6200615B1 (en) * 2017-04-25 2017-09-20 株式会社mediVR Rehabilitation support system, rehabilitation support method, and rehabilitation support program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276138A (en) * 1999-03-23 2000-10-06 Yamaha Corp Music sound controller
JP2006325740A (en) * 2005-05-24 2006-12-07 Nagasaki Univ Rehabilitation support system and program
JP2011110215A (en) * 2009-11-26 2011-06-09 Toyota Motor Kyushu Inc Rehabilitation system, program and computer-readable recording medium recording program
JP2015058135A (en) * 2013-09-18 2015-03-30 任天堂株式会社 Information processing program, information processor, information processing system, and information processing method
JP2015228957A (en) * 2014-06-04 2015-12-21 日本光電工業株式会社 Rehabilitation supporting system
JP6200615B1 (en) * 2017-04-25 2017-09-20 株式会社mediVR Rehabilitation support system, rehabilitation support method, and rehabilitation support program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021023445A (en) * 2019-07-31 2021-02-22 株式会社mediVR Rehabilitation support apparatus and rehabilitation support method
JP2021058389A (en) * 2019-10-07 2021-04-15 株式会社mediVR Rehabilitation support device, and method and program thereof
WO2021070411A1 (en) * 2019-10-07 2021-04-15 株式会社mediVR Rehabilitation assistance device, and method and program therefor
US11775055B2 (en) 2019-10-07 2023-10-03 Medivr, Inc. Rehabilitation support apparatus, method therefor, and program
JP7448943B2 (en) 2019-10-07 2024-03-13 株式会社mediVR Rehabilitation support device, method and program
JP2021171324A (en) * 2020-04-24 2021-11-01 株式会社mediVR Rehabilitation support device, method thereof and program
JP7420392B2 (en) 2020-04-24 2024-01-23 株式会社mediVR Rehabilitation support device, method and program

Also Published As

Publication number Publication date
JP6425287B1 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6425287B1 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP6758004B2 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP6200615B1 (en) Rehabilitation support system, rehabilitation support method, and rehabilitation support program
US11161047B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP6768231B2 (en) Rehabilitation support device, rehabilitation support method and rehabilitation support program
JP7179364B2 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP2024020292A (en) Operation request system, operation request method and operation request program
JP6969794B2 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
CN109416614B (en) Method implemented by computer and non-volatile computer-readable medium, system
JP6531338B1 (en) Rehabilitation support device, rehabilitation support system, rehabilitation support method and rehabilitation support program
JP7149658B2 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP7218978B2 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP6659789B2 (en) Virtual image display program, virtual image display device, and virtual image display method
JP7074373B2 (en) Rehabilitation support system, rehabilitation support method and rehabilitation support program
JP2023040989A (en) Cognitive ability estimation apparatus, and method and program thereof
JP2018195172A (en) Information processing method, information processing program, and information processing device
US11270451B2 (en) Motion parallax in object recognition
JP2016154647A (en) Display device, display method, and program
JP7036476B1 (en) Cognitive ability estimation device, its method and program
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP2020096878A (en) Virtual image display program, virtual image display system, and virtual image display method
JP2022059595A (en) Electronic apparatus and display method
CN117677338A (en) Virtual reality techniques for characterizing visual capabilities
CN113544765A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171030

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171030

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181018

R150 Certificate of patent or registration of utility model

Ref document number: 6425287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150