JP6706649B2 - Rehabilitation support device - Google Patents

Rehabilitation support device Download PDF

Info

Publication number
JP6706649B2
JP6706649B2 JP2018137942A JP2018137942A JP6706649B2 JP 6706649 B2 JP6706649 B2 JP 6706649B2 JP 2018137942 A JP2018137942 A JP 2018137942A JP 2018137942 A JP2018137942 A JP 2018137942A JP 6706649 B2 JP6706649 B2 JP 6706649B2
Authority
JP
Japan
Prior art keywords
target
image
rehabilitation
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018137942A
Other languages
Japanese (ja)
Other versions
JP2018161529A (en
Inventor
栄太 平井
栄太 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2018137942A priority Critical patent/JP6706649B2/en
Publication of JP2018161529A publication Critical patent/JP2018161529A/en
Application granted granted Critical
Publication of JP6706649B2 publication Critical patent/JP6706649B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Description

本発明は、リハビリテーションを支援する技術に関する。 The present invention relates to a technique for supporting rehabilitation.

従来、タッチパネル上にリハビリテーション用の画像を表示し、画像に対応してリハビリテーションの対象者が触れたタッチパネル上の位置を検出することによってリハビリテーションを評価する技術がある(例えば特許文献1参照)。 BACKGROUND ART Conventionally, there is a technique for evaluating rehabilitation by displaying an image for rehabilitation on a touch panel and detecting the position on the touch panel touched by the target person of the rehabilitation corresponding to the image (see Patent Document 1, for example).

特開2013−172897号公報JP, 2013-172897, A

リハビリテーションの対象者によっては、画面に示される位置の把握が困難な場合がある。例えば、画面に対象者自身の画像と右手を伸ばす目標の位置とが示されている場合に、対象者自身の画像と実際の対象者とを対応付けることができず、そのために右手を伸ばす目標の位置を把握できない場合がある。対象者が目標の位置を把握できない場合、リハビリテーションの実行に支障が生じる可能性がある。 Depending on the target person of the rehabilitation, it may be difficult to grasp the position shown on the screen. For example, when the image of the subject himself and the position of the target to reach his right hand are displayed on the screen, the image of the subject himself cannot be associated with the actual subject, and therefore the target to reach his right hand Sometimes it is not possible to know the position. If the target person cannot grasp the position of the target, the rehabilitation may be hindered.

上記事情に鑑み、本発明は、リハビリテーションの対象者が、より直感的に位置を把握可能とする技術の提供を目的としている。 In view of the above circumstances, the present invention has an object to provide a technique that enables a target person of rehabilitation to more intuitively grasp a position.

本発明の一態様は、対象者を検出した結果を示す検出結果情報を取得する入力部と、前記検出結果情報のうち、前記対象者のリハビリテーション動作が行われる動作領域に対応する前記対象者の体の一部に関する検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、前記動作領域に表示を行う出力装置を制御して、前記対象者の体の一部の位置に応じた位置に前記画像を表示させる表示制御部と、を備えるリハビリテーション支援制御装置である。 One aspect of the present invention, an input unit that acquires detection result information indicating a result of detecting the target person, and of the detection result information, the target person corresponding to a motion region in which the rehabilitation motion of the target person is performed. Based on the detection result information about the part of the body, the recognition unit that recognizes the position of the part of the body of the target person and the output device that displays in the operation area are controlled, and one of the body of the target person is controlled. A rehabilitation assistance control device, comprising: a display control unit that displays the image at a position corresponding to the position of the unit.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記表示制御部は、前記対象者の体の一部の現在の位置を示す画像を前記出力装置に出力させる。 One aspect of the present invention is the rehabilitation assistance control device described above, wherein the display control unit causes the output device to output an image indicating a current position of a part of the body of the subject.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記表示制御部が、前記対象者の体の一部の位置の履歴を示す画像を前記出力装置に表示させる。 One aspect of the present invention is the rehabilitation assistance control device described above, wherein the display control unit causes the output device to display an image showing a history of a position of a part of the body of the subject.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記対象者の体の一部の位置に基づいて前記対象者の体の一部の目標位置を決定する目標決定部を更に備え、前記表示制御部が、前記目標位置に画像を表示するように前記出力装置を制御する。 One aspect of the present invention is the rehabilitation assistance control device described above, further comprising a target determination unit that determines a target position of a part of the body of the subject based on a position of a part of the body of the subject. The display control unit controls the output device to display an image at the target position.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記対象者の体の一部の位置と前記目標位置との相対的な位置関係を評価する評価部をさらに備え、前記表示制御部は、前記評価部による評価結果を前記出力装置に表示させる。 One aspect of the present invention is the rehabilitation assistance control device described above, further comprising an evaluation unit that evaluates a relative positional relationship between a position of a part of the body of the subject and the target position, and the display control. The unit causes the output device to display the evaluation result obtained by the evaluation unit.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記表示制御部は、前記対象者の体の一部の位置、及び、前記目標位置のうち少なくともいずれか一方に、前記評価部による評価結果を表示させる。 One aspect of the present invention is the rehabilitation assistance control device described above, wherein the display control unit is provided on at least one of a position of a part of the body of the subject and the target position, and the evaluation unit. Display the evaluation result by.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記対象者が行うリハビリテーションの内容に応じた動作領域が、所定の第一動作領域及び所定の第二動作領域のうちの何れであるかを判定する動作領域判定部をさらに備え、前記認識部は、前記動作領域判定部の判定結果に基づいて前記第一動作領域又は前記第二動作領域に関連する前記体の一部の位置の動きを認識する。 One aspect of the present invention is the above-mentioned rehabilitation assistance control device, wherein the operation area according to the content of the rehabilitation performed by the subject is either a predetermined first operation area or a predetermined second operation area. The recognition unit further includes a motion region determination unit that determines whether there is a position of the part of the body related to the first motion region or the second motion region based on the determination result of the motion region determination unit. Recognize the movement of.

本発明の一態様は、対象者を検出した結果を示す検出結果情報を取得する入力部と、前記検出結果情報のうち、前記対象者のリハビリテーション動作が行われる動作領域に対応する前記対象者の体の一部に関する検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、前記動作領域に表示を行う出力装置を制御して、前記対象者の体の一部の位置に応じた位置に画像を表示させる表示制御部と、を備えるリハビリテーション支援制御装置としてコンピュータを機能させるためのコンピュータプログラムである。 One aspect of the present invention, an input unit that acquires detection result information indicating a result of detecting the target person, and of the detection result information, the target person corresponding to a motion region in which the rehabilitation motion of the target person is performed. Based on the detection result information about the part of the body, the recognition unit that recognizes the position of the part of the body of the target person and the output device that displays in the operation area are controlled, and the body of the target person is controlled. It is a computer program for causing a computer to function as a rehabilitation assistance control device including a display control unit that displays an image at a position corresponding to a position of a unit.

本発明により、リハビリテーションの対象者が、より直感的に位置を把握可能となる。 According to the present invention, the target person of rehabilitation can grasp the position more intuitively.

本発明の一実施形態に係るリハビリテーション支援システム1のシステム構成を示す斜視図である。It is a perspective view showing the system configuration of rehabilitation support system 1 concerning one embodiment of the present invention. リハビリテーション支援システム1に備わるリハビリテーション支援制御装置300の機能構成例を示す概略ブロック図である。3 is a schematic block diagram showing a functional configuration example of a rehabilitation support control device 300 included in the rehabilitation support system 1. FIG. リハビリテーション支援制御装置300による第一動作領域を説明するための斜視図である。FIG. 6 is a perspective view for explaining a first operation area by the rehabilitation assistance control device 300. リハビリテーション支援システム1における画像の表示の例を示す平面図である。FIG. 3 is a plan view showing an example of image display in the rehabilitation support system 1. リハビリテーション支援制御装置300による第二動作領域を説明するための斜視図である。FIG. 6 is a perspective view for explaining a second operation area by the rehabilitation assistance control device 300. リハビリテーション支援システム1における画像の表示の例を示す平面図である。FIG. 3 is a plan view showing an example of image display in the rehabilitation support system 1. リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。8 is a flowchart showing an example of a motion area determination process by the rehabilitation support control device 300. リハビリテーション支援制御装置300が手の移動目標となる目標画像を映し出す例を示す斜視図である。FIG. 6 is a perspective view showing an example in which the rehabilitation support control device 300 projects a target image which is a target for moving the hand. リハビリテーション支援制御装置300が手の外乱を映し出す例を示す図である。It is a figure which shows the example which the rehabilitation assistance control apparatus 300 projects the disturbance of a hand. 足用表示パラメータ設定部347がステップの値を設定する例を示す図である。It is a figure which shows the example which the foot display parameter setting part 347 sets the value of a step. リハビリテーション支援制御装置300が、対象者EPが歩行する際の回避目標となる目標画像を映し出す例を示す斜視図である。6 is a perspective view showing an example in which the rehabilitation support control device 300 projects a target image as an avoidance target when the subject EP walks. FIG. リハビリテーション支援制御装置300が、対象者EPが歩行する際の外乱を映し出す例を示す斜視図である。6 is a perspective view showing an example in which the rehabilitation support control device 300 displays a disturbance when the subject EP walks. FIG. リハビリテーション支援制御装置300による、対象者EPの認識処理の一例を示すフローチャートである。9 is a flowchart showing an example of a process of recognizing a target person EP by the rehabilitation support control device 300. リハビリテーション支援システム1を用いたリハビリテーションにおけるパラメータ設定の一例を示すフローチャートである。3 is a flowchart showing an example of parameter setting in rehabilitation using the rehabilitation support system 1. リハビリテーション支援システム1が対象者EPの体の一部の高さを表示した例を示す図である。It is a figure which shows the example which the rehabilitation support system 1 displayed the height of a part of body of the object person EP. リハビリテーション支援システム1のシステム構成の変形例を示す斜視図である。It is a perspective view which shows the modification of the system configuration of the rehabilitation support system 1.

図1は、本発明の一実施形態に係るリハビリテーション支援システム1のシステム構成を示す斜視図である。リハビリテーション支援システム1は、リハビリテーションの対象者(以下「対象者」という。)に対して、リハビリテーションの実施を支援するシステムである。リハビリテーション支援システム1は、センサ100、出力装置200及びリハビリテーション支援制御装置300を備える。 FIG. 1 is a perspective view showing a system configuration of a rehabilitation support system 1 according to an embodiment of the present invention. The rehabilitation support system 1 is a system that supports the implementation of rehabilitation for a target person (hereinafter referred to as “target person”) of rehabilitation. The rehabilitation support system 1 includes a sensor 100, an output device 200, and a rehabilitation support control device 300.

センサ100は、同センサ100の検出範囲800内(図1の破線で囲った範囲)で対象者EPを検出する。
センサ100は、例えば、画像センサ、赤外線センサ、レーザセンサ、サーモセンサなど、対象者EPにマーカを装着することなく対象者EPの動きが検出できるセンサである。本実施形態では、このようなセンサの例として、センサ100に、距離センサと画像センサを組み込んだKinect(登録商標)を用いた場合を例に説明を行う。
センサ100は、例えば、画像センサ(不図示)を備える。前記画像センサは、(1)自らの正面方向をリアルタイムに撮像し、連続した複数枚の2次元画像(フレーム画像)を取得する動画カメラとしての機能と、(2)センサ100から、前記2次元画像(フレーム画像)内の各位置に対応する実際の位置までの距離の情報(距離情報を表示した画像)を取得する距離センサ(デプスセンサ)としての機能と、を有している。前記距離センサが有する機能により、対象者EPを撮像した画像と、当該画像に撮像された対象者EPの体の各部位の3次元空間における座標情報である距離画像情報とを取得する。センサ100が検出する3次元空間とは、図1に示すXYZ直交座標系によって示される空間である。
対象者EPの体の各部位とは、対象者EPの動作を認識するために検出することが求められる体の部位である。具体的には、対象者EPの体の各部位とは、例えば、対象者EPの頭、肩、腕、手、腰、足及び各関節部等の位置である。
センサ100は、検出した結果を示す情報(以下「検出結果情報」という。)をリハビリテーション支援制御装置300に出力する。検出結果情報とは、例えば、対象者EPの体の一部の位置情報である。
なお、センサ100は、対象者EPにマーカを装着し、そのマーカの検出により対象者EPを検出するセンサであっても構わない。
The sensor 100 detects the target person EP within a detection range 800 of the sensor 100 (a range surrounded by a broken line in FIG. 1).
The sensor 100 is, for example, an image sensor, an infrared sensor, a laser sensor, a thermosensor, or the like that can detect the movement of the target person EP without attaching a marker to the target person EP. In the present embodiment, as an example of such a sensor, a case where Kinect (registered trademark) in which a distance sensor and an image sensor are incorporated is used as the sensor 100 will be described.
The sensor 100 includes, for example, an image sensor (not shown). The image sensor has (1) a function as a moving image camera that captures a frontal direction of itself in real time and acquires a plurality of continuous two-dimensional images (frame images); It has a function as a distance sensor (depth sensor) for acquiring information (image displaying distance information) on the distance to the actual position corresponding to each position in the image (frame image). With the function of the distance sensor, an image obtained by capturing the target person EP and distance image information that is coordinate information in the three-dimensional space of each part of the body of the target subject EP captured in the image are acquired. The three-dimensional space detected by the sensor 100 is a space represented by the XYZ orthogonal coordinate system shown in FIG.
Each part of the body of the target person EP is a part of the body that is required to be detected in order to recognize the motion of the target person EP. Specifically, the respective parts of the body of the subject EP are, for example, positions of the head, shoulders, arms, hands, waist, legs, joints, etc. of the subject EP.
The sensor 100 outputs information indicating the detection result (hereinafter referred to as “detection result information”) to the rehabilitation assistance control device 300. The detection result information is, for example, position information of a part of the body of the subject EP.
The sensor 100 may be a sensor that attaches a marker to the target person EP and detects the target person EP by detecting the marker.

出力装置200は、対象者EPに対して行われるリハビリテーションに関する画像を出力する。出力装置200は、例えば、プロジェクタ等の画像投影装置である。出力装置200は、リハビリテーションを支援する画像を投影して、出力領域900に表示する。出力画像の例としては、対象者EPの体の一部の位置の移動履歴、及び、対象者EPの体の一部の移動目標位置を含む画像を挙げることができる。例えば、歩行のリハビリテーションの場合、出力装置200が対象者EPの足の位置の移動履歴、及び、対象者EPが足を動かして移動させる目標位置のうちいずれか一方又は両方を表示するようにしてもよい。また、手の移動のリハビリテーションの場合であれば、出力装置200が、対象者EPの手の位置の移動履歴、及び、対象者EPが手を動かして移動させる目標位置のうちいずれか一方又は両方を表示するようにしてもよい。以下の説明では、対象者EPの体の一部の位置の移動履歴を示す画像を履歴画像と称する。また、対象者EPの体の一部の移動目標位置を示す画像を目標画像と称する。 The output device 200 outputs an image related to rehabilitation performed on the subject EP. The output device 200 is, for example, an image projection device such as a projector. The output device 200 projects an image that supports rehabilitation and displays it in the output area 900. As an example of the output image, an image including a movement history of a part of the body of the target person EP and a movement target position of a part of the body of the target person EP can be given. For example, in the case of walking rehabilitation, the output device 200 displays one or both of the movement history of the foot position of the target person EP and the target position where the target person EP moves and moves the foot. Good. Further, in the case of hand movement rehabilitation, the output device 200 selects one or both of the movement history of the hand position of the subject EP and the target position where the subject EP moves and moves the hand. May be displayed. In the following description, an image showing a movement history of a part of the body of the subject EP is referred to as a history image. An image showing a movement target position of a part of the body of the subject EP is referred to as a target image.

リハビリテーション支援制御装置300は、情報処理装置を用いて構成される。すなわち、リハビリテーション支援制御装置300は、バスで接続されたCPU(Central Processor Unit)、メモリ及び補助記憶装置を備える。リハビリテーション支援制御装置300は、リハビリテーション支援プログラムを実行することによって動作する。 The rehabilitation support control device 300 is configured using an information processing device. That is, the rehabilitation support control device 300 includes a CPU (Central Processor Unit), a memory, and an auxiliary storage device connected by a bus. The rehabilitation support control device 300 operates by executing a rehabilitation support program.

センサ100等は、脚部310によって支持される。脚部310は、上下方向に伸縮可能であり、センサ100、出力装置200の高さ位置を調整することができる。これにより、センサ100による検出範囲の広さを調整することが可能である。また、出力装置200が投影装置の場合、出力領域900の広さを調整することが可能である。また、脚部310は、キャスター311、312、313、314を備えている。キャスター311〜314は転動可能であるため、手押しなどすることにより、リハビリテーション支援システム1を、フロア上で自由に移動させることができる。 The sensor 100 and the like are supported by the legs 310. The leg portion 310 can be expanded and contracted in the vertical direction, and the height positions of the sensor 100 and the output device 200 can be adjusted. Thereby, the width of the detection range of the sensor 100 can be adjusted. When the output device 200 is a projection device, the size of the output area 900 can be adjusted. In addition, the leg portion 310 includes casters 311, 312, 313, 314. Since the casters 311 to 314 can roll, the rehabilitation support system 1 can be freely moved on the floor by pushing it by hand.

図2は、リハビリテーション支援システム1に備わるリハビリテーション支援制御装置300の機能構成例を示す概略ブロック図である。リハビリテーション支援制御装置300は、入力部31、出力部32、記憶部33、制御部34、操作部35及び表示部36を備える。
入力部31は、外部からの情報を入力するインタフェースである。例えば、入力部31は、センサ100から検出結果を示す情報(検出結果情報)を取得する。
出力部32は、制御部34によって生成された画像を出力装置200に対して出力するインタフェースである。
FIG. 2 is a schematic block diagram showing a functional configuration example of the rehabilitation support control device 300 included in the rehabilitation support system 1. The rehabilitation support control device 300 includes an input unit 31, an output unit 32, a storage unit 33, a control unit 34, an operation unit 35, and a display unit 36.
The input unit 31 is an interface for inputting information from the outside. For example, the input unit 31 acquires information indicating the detection result (detection result information) from the sensor 100.
The output unit 32 is an interface that outputs the image generated by the control unit 34 to the output device 200.

記憶部33は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部33は、キャリブレーション情報記憶部331、判定条件情報記憶部332、検出履歴情報記憶部333、パラメータ情報記憶部334、プログラム情報記憶部335として機能する。 The storage unit 33 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 33 functions as a calibration information storage unit 331, a determination condition information storage unit 332, a detection history information storage unit 333, a parameter information storage unit 334, and a program information storage unit 335.

キャリブレーション情報記憶部331は、キャリブレーション情報を記憶する。キャリブレーション情報は、センサ100の検出結果を示す座標の座標系と、出力装置200が投影する画像面の座標系とを対応付ける情報である。従って、リハビリテーション支援制御装置300におけるキャリブレーションは、センサ100による検出範囲800と、出力装置200による画像の出力領域900との位置関係を把握し、両者に共通の座標系を設定する処理である。なお、センサ100が検出できる検出範囲は、図示する検出範囲800より広くてもよい。本実施形態における検出範囲800とは、出力領域900上で行われる対象者EPの動作において、対象者EPの検出目的とする体の一部の位置情報を取得するのに必要な検出範囲のことである。なお、出力領域900上とは、出力領域900で規定される平面の領域だけではなく、その領域において、出力領域900を基準とする所定高さまでの空間も含む。 The calibration information storage unit 331 stores the calibration information. The calibration information is information that associates the coordinate system of the coordinates indicating the detection result of the sensor 100 with the coordinate system of the image plane projected by the output device 200. Therefore, the calibration in the rehabilitation assistance control device 300 is a process of grasping the positional relationship between the detection range 800 of the sensor 100 and the image output area 900 of the output device 200, and setting a coordinate system common to both. The detection range that can be detected by the sensor 100 may be wider than the illustrated detection range 800. The detection range 800 in the present embodiment is a detection range necessary for acquiring position information of a part of the body that is the detection target of the target person EP in the motion of the target person EP performed on the output region 900. Is. The term “on the output area 900” includes not only a flat area defined by the output area 900 but also a space up to a predetermined height based on the output area 900 in the area.

キャリブレーション情報は、例えば事前にキャリブレーションを実施することによって得てもよい。
より具体的には、例えば出力装置200がキャリブレーション用のマーカ画像を、画像面(画像の出力領域900)の四隅など、複数箇所に投影する。リハビリテーション支援制御装置300は、出力装置200の座標系における座標を既知である。
The calibration information may be obtained, for example, by performing calibration in advance.
More specifically, for example, the output device 200 projects a marker image for calibration onto a plurality of locations such as four corners of the image surface (image output area 900). The rehabilitation assistance control device 300 has already known the coordinates in the coordinate system of the output device 200.

出力装置200がマーカ画像を投影すると、センサ100は、各マーカ画像の位置を、センサ100の座標系(センサ100が検出位置を示すのに用いる座標系)における座標にてリハビリテーション支援制御装置300へ出力する。これにより、リハビリテーション支援制御装置300(制御部34)は、各マーカの位置を、センサ100の座標系における座標、及び、出力装置200の座標系における座標の両方で取得する。また、リハビリテーション支援制御装置300(制御部34)は、四隅等に投影されたマーカ画像により、出力装置200の座標系における出力領域900の範囲を示す座標を把握する。これにより、後述する目標決定部345は、出力領域900における出力装置200の座標系における目標位置を計算することができる。 When the output device 200 projects the marker image, the sensor 100 causes the position of each marker image to be transmitted to the rehabilitation assistance control device 300 by using the coordinates in the coordinate system of the sensor 100 (the coordinate system used by the sensor 100 to indicate the detection position). Output. As a result, the rehabilitation assistance control device 300 (control unit 34) acquires the position of each marker by both the coordinates in the coordinate system of the sensor 100 and the coordinates in the coordinate system of the output device 200. Further, the rehabilitation support control device 300 (control unit 34) grasps the coordinates indicating the range of the output region 900 in the coordinate system of the output device 200 from the marker images projected on the four corners and the like. Thereby, the target determination unit 345 described later can calculate the target position in the coordinate system of the output device 200 in the output area 900.

リハビリテーション支援制御装置300(制御部34)は、得られた座標に基づいて、センサ100の座標系を補正するための情報をキャリブレーション情報として取得する。センサ100が座標系調整機能を有している場合、リハビリテーション支援制御装置300(制御部34)は、この機能を利用してセンサ100の座標系を出力装置200の座標系に合わせるためのキャリブレーション情報を生成する。あるいは、出力装置200が座標系調整機能を有している場合、リハビリテーション支援制御装置300(制御部34)が、この機能を利用して出力装置200の座標系をセンサ100の座標系に合わせるためのキャリブレーション情報を生成するようにしてもよい。 The rehabilitation assistance control device 300 (control unit 34) acquires information for correcting the coordinate system of the sensor 100 as calibration information based on the obtained coordinates. When the sensor 100 has a coordinate system adjustment function, the rehabilitation assistance control device 300 (control unit 34) uses this function to perform calibration for matching the coordinate system of the sensor 100 with the coordinate system of the output device 200. Generate information. Alternatively, when the output device 200 has a coordinate system adjustment function, the rehabilitation support control device 300 (control unit 34) uses this function to match the coordinate system of the output device 200 with the coordinate system of the sensor 100. The calibration information may be generated.

床面が光を散乱させてマーカ画像がぼやける場合など、センサ100によるマーカ画像の検出が困難な場合は、マーカ画像を用いた位置検出の代わりに理学療法士等の操作者が手動で位置検出を行うようにしてもよい。出力装置200が出力領域900の全体に画像を投影している状態で、センサ100が画像センサで投影画像全体を含む領域を撮像する。リハビリテーション支援制御装置300は、センサ100による撮像画像を表示画面に表示する。そして、リハビリテーション支援システム1の操作者は、モニタ画面に表示されている出力領域900の四隅の各々をタッチ操作にて指定する。
モニタ画面に表示されている画像は、センサ100が撮像した画像なので、操作者が指定した位置をセンサ100の座標系における座標で取得し得る。リハビリテーション支援制御装置300(制御部34)は、この座標と、出力装置200の座標系における出力領域900の四隅の座標とに基づいて、キャリブレーション情報を取得する。なお、高さ方向の座標として、フロアの座標を用いる。
あるいは、理学療法士等が、例えばコーンなど物理的なマーカを画像面の四隅位置に置くようにしてもよい。この場合、センサ100は、置かれたマーカを検出し、各マーカの座標を出力する。
When it is difficult to detect the marker image by the sensor 100, such as when the floor surface scatters light and the marker image is blurred, an operator such as a physical therapist manually detects the position instead of the position detection using the marker image. May be performed. With the output device 200 projecting an image on the entire output area 900, the sensor 100 captures an area including the entire projected image by the image sensor. The rehabilitation assistance control device 300 displays the image captured by the sensor 100 on the display screen. Then, the operator of the rehabilitation support system 1 specifies each of the four corners of the output area 900 displayed on the monitor screen by a touch operation.
Since the image displayed on the monitor screen is the image captured by the sensor 100, the position designated by the operator can be obtained by the coordinates in the coordinate system of the sensor 100. The rehabilitation assistance control device 300 (control unit 34) acquires the calibration information based on the coordinates and the coordinates of the four corners of the output area 900 in the coordinate system of the output device 200. The coordinates of the floor are used as the coordinates in the height direction.
Alternatively, a physical therapist or the like may place physical markers such as cones at the four corners of the image plane. In this case, the sensor 100 detects placed markers and outputs the coordinates of each marker.

出力装置200が床面に画像を投影する場合、リハビリテーション支援システム1の初回使用時にキャリブレーションを行えば、2回目の使用時以降はキャリブレーションを行う必要が無い。センサ100と床面との位置関係、及び、出力装置200と床面との位置関係のいずれも変わらないため、初回使用時に得られたキャリブレーション情報を2回目以降の使用時にも使用できるためである。 When the output device 200 projects an image on the floor surface, if the rehabilitation support system 1 is used for the first time, it is not necessary to perform the calibration after the second use. Since the positional relationship between the sensor 100 and the floor surface and the positional relationship between the output device 200 and the floor surface do not change, the calibration information obtained during the first use can be used during the second and subsequent uses. is there.

判定条件情報記憶部332は、動作領域を判定するための条件を記憶する。動作領域については後述する。
検出履歴情報記憶部333は、認識部341が認識した対象者EPの体の一部に関する位置情報(検出結果情報)の履歴を記憶する。例えば、歩行のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの足の位置の検出結果情報の履歴を記憶する。また、手の移動のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの手の位置の検出結果情報の履歴を記憶する。
The determination condition information storage unit 332 stores the conditions for determining the operation area. The operation area will be described later.
The detection history information storage unit 333 stores a history of position information (detection result information) regarding a part of the body of the target person EP recognized by the recognition unit 341. For example, when performing walking rehabilitation, the detection history information storage unit 333 stores a history of detection result information of the foot position of the target person EP. Further, when performing rehabilitation of hand movement, the detection history information storage unit 333 stores a history of detection result information of the hand position of the target person EP.

パラメータ情報記憶部334は、後述する足用表示パラメータ設定部347が設定した足用表示パラメータ、後述する手用表示パラメータ設定部348が設定した手用表示パラメータ、後述する外乱用表示パラメータ設定部349が設定した外乱用表示パラメータを記憶する。
プログラム情報記憶部335は、リハビリテーション支援プログラムを記憶する。
The parameter information storage unit 334 includes a foot display parameter set by a foot display parameter setting unit 347 described later, a hand display parameter set by a hand display parameter setting unit 348 described later, and a disturbance display parameter setting unit 349 described later. The display parameter for disturbance set by is stored.
The program information storage unit 335 stores a rehabilitation support program.

制御部34は、CPUを用いて構成される。制御部34は、リハビリテーション支援プログラムを実行することによって、認識部341、表示制御部342、動作領域判定部343、記録部344、目標決定部345、評価部346、足用表示パラメータ設定部347、手用表示パラメータ設定部348、外乱用表示パラメータ設定部349として機能する。 The control unit 34 is configured by using a CPU. By executing the rehabilitation support program, the control unit 34 recognizes the recognition unit 341, the display control unit 342, the motion area determination unit 343, the recording unit 344, the target determination unit 345, the evaluation unit 346, the foot display parameter setting unit 347, It functions as a display parameter setting unit 348 for hands and a display parameter setting unit 349 for disturbance.

認識部341は、入力部31が取得した検出結果情報を取得し、検出結果情報が示す対象物を認識する。例えば、認識部341は、検出結果情報に基づいて、検出範囲800に存在する人、テーブル、床、壁等を認識する。例えば、Kinect(登録商標)を用いると、対象者EPの人体上の複数の部位の位置を認識することができる。例えば、認識部341は、テーブル上の長尺状の検出対象の先端部を認識すると、その先端部の単位時間ごとの位置情報を検出する。認識部341は、センサ100が時々刻々と検出したこれらの特徴点の位置情報により、対象者EPの体の一部の位置の動きを認識する。例えば、長尺状の対象物を検出した場合、認識部341は、その対象物の先端の位置の動きを認識する。当該先端の位置の動きは、例えば、対象者EPの手の位置として扱ってもよい。また、認識部341は、検出結果情報が示す対象物の形状と人の骨格モデルとの比較を行って対象物が人と認識できる場合、各部位の位置を認識する機能を有していてもよい。この機能によれば、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。例えば、対象者EPがセンサ100の前で直立する。すると、認識部341は、その状態で検出された検出結果情報と人の骨格モデルとの比較を行い、対象物が人の形状をしていることから対象物は人であると認識する。さらに、認識部341は、例えば、左のつま先とその位置情報、右のかかととその位置情報、左右の手首とそれぞれの位置情報というように、各部位の位置情報をそれぞれの部位に対応付けて認識する。骨格モデルによる各部位の位置を認識する機能(以下「骨格トラッキング機能」という。)を用いると、認識部341は、対象者EPの各部位の位置の動きを認識することができる。このように認識部341は、検出結果情報に含まれる所定の形状をした対象物の所定の位置をトラッキングすることにより、又は、骨格トラッキング機能により、対象者EPの体の一部の位置およびその動きを認識する。また、Kinect(登録商標)を用いると、検出範囲800に存在する物の座標情報(検出範囲800に存在する物の所定間隔ごとの座標情報を含む点群データ)を得ることができる。認識部341は、検出結果情報(点群データ)を分析し、所定の広さ以上の面積を有し、Z座標の値が変化しない面(要するに、Z座標の値がほぼ一定の点群の集合)を、壁、フロア、テーブル等との平面として認識する。また、認識部341は、検出結果情報のうち、どのデータが、後述する動作領域判定部343が判定した動作領域に関連する対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、そのデータ(検出対象情報)を選択する。 The recognition unit 341 acquires the detection result information acquired by the input unit 31 and recognizes the target object indicated by the detection result information. For example, the recognition unit 341 recognizes a person, a table, a floor, a wall, etc. existing in the detection range 800 based on the detection result information. For example, if Kinect (registered trademark) is used, the positions of a plurality of parts on the human body of the subject EP can be recognized. For example, when the recognizing unit 341 recognizes the long end of the detection target on the table, the recognizing unit 341 detects the position information of the front end for each unit time. The recognition unit 341 recognizes the movement of part of the body of the target person EP based on the position information of these feature points detected by the sensor 100 every moment. For example, when a long object is detected, the recognition unit 341 recognizes the movement of the position of the tip of the object. The movement of the position of the tip may be treated as, for example, the position of the hand of the subject EP. Further, the recognition unit 341 has a function of recognizing the position of each part when the target object can be recognized as a person by comparing the shape of the target object indicated by the detection result information with the human skeleton model. Good. According to this function, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. For example, the subject EP stands upright in front of the sensor 100. Then, the recognition unit 341 compares the detection result information detected in that state with the human skeleton model, and recognizes that the object is a person because the object has a human shape. Further, the recognition unit 341 associates the position information of each part with each part such as left toe and its position information, right heel and its position information, left and right wrists and each position information. recognize. By using the function of recognizing the position of each part based on the skeleton model (hereinafter referred to as “skeleton tracking function”), the recognition unit 341 can recognize the movement of the position of each part of the target person EP. As described above, the recognition unit 341 tracks the predetermined position of the target object having the predetermined shape included in the detection result information or the skeleton tracking function, and the position of a part of the body of the target person EP and the position thereof. Recognize movement. Further, by using Kinect (registered trademark), it is possible to obtain coordinate information of an object existing in the detection range 800 (point cloud data including coordinate information of the object existing in the detection range 800 at predetermined intervals). The recognizing unit 341 analyzes the detection result information (point cloud data), has a predetermined area or more, and has a surface whose Z coordinate value does not change (in short, a point cloud of which the Z coordinate value is substantially constant). Group) as a plane with walls, floors, tables, etc. Further, the recognizing unit 341 is the detection data of which data is part of the body (detection target part) of the target person EP related to the motion region determined by the motion region determining unit 343 described later. Recognize whether or not, and select the data (detection target information).

ここで、動作領域とは、対象者EPのリハビリテーションの目的とする動作が行われる領域のことである。より具体的には、リハビリテーションによって回復することを目的とする動作に強く関連する部位が動作する空間内の所定の領域のことである。また、例えば、動作領域とは、対象者EPがリハビリテーションにおいてその部位を近接させる領域である。また、例えば、動作領域とは、対象者EPのリハビリテーションにおいて、その動作の目標(到達点)となる位置を含む領域である。また、動作領域とは、対象者EPがリハビリテーション中に目的とする動作を行う場所である。動作領域の具体例として、2次元領域の場合では、フロア、テーブル等を挙げることができる。例えば、フロアであれば、リハビリテーションによって回復することを目的とする動作に強く関連する部位は足であり、テーブルの場合の当該部位は手である。また、対象者EPは、歩行動作のリハビリテーションにおいて足をフロアに近接させ、手の移動のリハビリテーションにおいては手をテーブルに近接させる。また、例えば、歩行動作のリハビリテーションにおいてフロアは、歩行動作の到達点となる位置(目標画像の表示位置)を含む領域であり、テーブルは手の移動のリハビリテーションにおける手の到達点となる位置(目標画像の表示位置)を含む領域である。また、フロア、テーブルはそれぞれ、歩行動作のリハビリテーション、手の移動のリハビリテーション中に目的となる動作を行う場所である。なお、動作領域が3次元である場合の具体例としては、テーブル上のテーブル表面を基準とする所定高さの範囲の空間(以下「3次元動作領域」という)を挙げることができる。例えば、出力装置200は、テーブルに「10cm」を意味する目標画像を表示する。例えば、テーブル上のある位置に「10cm」と表示してもよい。これは、テーブルの当該目標画像が表示された位置の真上の空間の、テーブル表面を基準とする高さ10cmの位置が、手の到達点となる位置であることを意味する目標画像である。この目標画像が示す位置は、当該3次元動作領域に含まれている。この例の場合も、例えば、3次元動作領域は、リハビリテーションによって回復することを目的とする動作に強く関連する部位(手)が動作する領域である。また、3次元動作領域は、手の移動のリハビリテーションにおいて、手を近接させる領域である。また、3次元動作領域は、手の移動の到達点となる位置(目標画像が示す位置)を含む領域である。また、3次元動作領域は、対象者EPが手の移動のリハビリテーション中に目的とする動作を行う場所である。なお、動作領域が3次元である場合の他の例として、出力領域900上の空間を挙げることができる。例えば、動作領域が出力領域900上の空間の場合、この空間に目標画像を投影し、対象者EPがその目標画像を手で触れる等のリハビリテーションを行ってもよい。 Here, the motion region is a region in which the target motion of rehabilitation of the subject EP is performed. More specifically, it is a predetermined region in the space in which a region strongly related to a motion intended to recover by rehabilitation operates. In addition, for example, the operation region is a region where the subject EP brings the part close to each other in the rehabilitation. Further, for example, the motion region is a region including a position which is a target (a reaching point) of the motion in the rehabilitation of the subject EP. Further, the motion area is a place where the subject EP performs a target motion during rehabilitation. In the case of a two-dimensional area, a floor, a table, and the like can be given as specific examples of the operation area. For example, in the case of the floor, the part strongly related to the motion aimed at recovery by rehabilitation is the foot, and in the case of the table, the part is the hand. Further, the subject EP brings his/her feet close to the floor in the rehabilitation of walking motion, and brings his/her hands close to the table in the rehabilitation of movement of the hand. Further, for example, in rehabilitation of walking motion, the floor is a region including a position (a display position of a target image) that is a reaching point of the walking motion, and the table is a position (a target position) that is a reaching point of the hand in rehabilitation of hand movement. This is an area including the image display position). In addition, the floor and the table are places where a desired motion is performed during the rehabilitation of walking motion and the rehabilitation of moving hand, respectively. As a specific example of the case where the operation area is three-dimensional, a space within a predetermined height range with respect to the table surface on the table (hereinafter referred to as “three-dimensional operation area”) can be cited. For example, the output device 200 displays the target image meaning “10 cm” on the table. For example, "10 cm" may be displayed at a certain position on the table. This is a target image that means that the position at a height of 10 cm with respect to the table surface in the space immediately above the position where the target image is displayed on the table is the position where the hand reaches. . The position indicated by this target image is included in the three-dimensional motion area. Also in the case of this example, for example, the three-dimensional motion region is a region in which a part (hand) strongly related to a motion intended to recover by rehabilitation moves. Further, the three-dimensional motion region is a region in which the hand is brought closer in rehabilitation of movement of the hand. Further, the three-dimensional motion area is an area including a position (position indicated by the target image) that is a reaching point of the hand movement. Further, the three-dimensional motion area is a place where the subject EP performs a target motion during rehabilitation of hand movement. As another example of the case where the operation area is three-dimensional, a space on the output area 900 can be cited. For example, when the operation region is a space on the output region 900, the target image may be projected in this space and the target person EP may perform rehabilitation such as touching the target image with a hand.

表示制御部342は、出力装置200が出力する画像を生成する。例えば、表示制御部342は、動作領域に表示して対象者EPの動作を誘導する目標画像、リハビリテーションの評価結果の情報を含む画像、リハビリテーション中に行った対象者EPの検出対象部位の動作の軌跡を示す画像などを生成する。
例えば、歩行のリハビリテーションの場合、表示制御部342が出力装置200を制御して、上記のように対象者EPの足の位置の履歴画像、及び、対象者EPが足を動かす目標位置を示す目標画像うちのいずれか一方又は両方を表示させるようにしてもよい。また、手の移動のリハビリテーションの場合、表示制御部342が出力装置200を制御して、上記のように対象者EPの手の位置の履歴画像、及び、対象者EPが手を動かす目標位置を示す目標画像のうちいずれか一方又は両方を表示させるようにしてもよい。
対象者EPの体の一部の位置に応じた位置は、対象者EPの体の一部の実際の位置であってもよいし、実際の位置に応じて定められた目標位置であってもよい。対象者EPの体の一部の実際の位置は、対象者EPの体の一部の現在の位置であってもよいし、過去の位置(履歴の位置)であってもよい。
The display control unit 342 generates an image output by the output device 200. For example, the display control unit 342 displays the target image that is displayed in the motion region and guides the motion of the target person EP, the image including the information on the evaluation result of the rehabilitation, and the motion of the target part of the target person EP performed during the rehabilitation. An image or the like showing a locus is generated.
For example, in the case of walking rehabilitation, the display control unit 342 controls the output device 200, and as described above, the history image of the foot position of the target person EP and the target indicating the target position where the target person EP moves the foot. Either one or both of the images may be displayed. In the case of rehabilitation of hand movement, the display control unit 342 controls the output device 200 to display the history image of the hand position of the target person EP and the target position where the target person EP moves the hand as described above. Either or both of the target images shown may be displayed.
The position corresponding to the position of the part of the body of the target person EP may be the actual position of the part of the body of the target person EP, or may be the target position determined according to the actual position. Good. The actual position of the part of the body of the target person EP may be the current position of the part of the body of the target person EP, or may be the past position (history position).

特に、表示制御部342が出力装置200を制御して、体の一部の形状を示す画像を対象者EPの位置に応じた位置に表示させるようにしてもよい。例えば、歩行のリハビリテーションの場合、表示制御部342が出力装置200を制御して、対象者EPの足の位置の履歴画像、及び、目標画像のうちいずれか一方又は両方を足の形の画像で表示させるようにしてもよい。また、手の移動のリハビリテーションの場合、表示制御部342が出力装置200を制御して、上記のように出力装置200に対象者EPの手の位置の履歴画像、及び、目標画像のうちいずれか一方又は両方を手の形の画像で表示させるようにしてもよい。
表示制御部342が、認識部341が認識した対象者EPの体の一部の実際の形状を出力装置200に表示させるようにしてもよい。あるいは、記憶部33が体の一部の形状を示す画像を予め記憶しておき、表示制御部342が、当該画像を記憶部33から読み出して出力装置200に表示させるようにしてもよい。
In particular, the display control unit 342 may control the output device 200 to display an image showing the shape of a part of the body at a position corresponding to the position of the target person EP. For example, in the case of walking rehabilitation, the display control unit 342 controls the output device 200 so that one or both of the history image of the foot position of the subject EP and the target image is displayed in the foot shape image. It may be displayed. In the case of hand movement rehabilitation, the display control unit 342 controls the output device 200 to cause the output device 200 to select one of the history image of the hand position of the target person EP and the target image, as described above. One or both may be displayed as a hand-shaped image.
The display control unit 342 may cause the output device 200 to display the actual shape of the part of the body of the target person EP recognized by the recognition unit 341. Alternatively, the storage unit 33 may store an image showing the shape of a part of the body in advance, and the display control unit 342 may read the image from the storage unit 33 and display the image on the output device 200.

動作領域判定部343は、認識部341による認識結果に基づいて動作領域を判定する。後述するように、動作領域の判定方法は、様々であってよい。動作領域判定部343は、所定の判定条件に基づいて、例えば、動作領域がフロアであると判定する。また、例えば、動作領域判定部343は、動作領域がテーブルであると判定する。 The operation area determination unit 343 determines the operation area based on the recognition result by the recognition unit 341. As will be described later, there are various methods for determining the operation area. The operation area determination unit 343 determines, for example, that the operation area is the floor based on a predetermined determination condition. Further, for example, the motion area determination unit 343 determines that the motion area is a table.

動作領域判定部343は、動作領域を判定すると、対象者EPの動作領域に関連する検出対象となる部位(検出対象部位)を決定する。検出対象部位とは、リハビリテーションの目的とする動作に関係が深い体の一部である。例えば、動作領域判定部343は、動作領域をフロアであると判定した場合、対象者EPの足首を検出対象部位として決定する。あるいは、動作領域判定部343は、対象者EPのつま先を検出対象部位として決定してもよい。また、例えば、動作領域判定部343は、動作領域をテーブルであると判定した場合、対象者EPの手の甲を検出対象部位として決定する。あるいは、動作領域判定部343は、対象者EPの指先を検出対象部位として決定してもよい。 When the motion area determination unit 343 determines the motion area, the motion area determination unit 343 determines a region (detection target region) that is a detection target related to the motion region of the target person EP. The detection target part is a part of the body that is closely related to the target motion of rehabilitation. For example, when the motion region determination unit 343 determines that the motion region is the floor, the motion region determination unit 343 determines the ankle of the target person EP as the detection target part. Alternatively, the motion region determination unit 343 may determine the toe of the subject EP as the detection target site. Further, for example, when the motion area determination unit 343 determines that the motion area is a table, the motion area determination unit 343 determines the back of the hand of the target person EP as the detection target part. Alternatively, the motion area determination unit 343 may determine the fingertip of the target person EP as the detection target site.

なお、動作領域に関連する検出対象部位は、予め記憶部33に設定されており、動作領域判定部343は、その情報と自らが判定した動作領域とに基づいて検出対象部位を決定する。検出対象部位には、例えば、リハビリテーションの目標とする動作において、動作範囲が大きい部位が設定されていてもよい。例えば、歩行動作のリハビリテーションであれば、動作範囲が大きい部位は、対象者EPの足(足首、つま先、踵など)である。手の移動のリハビリテーションであれば、動作範囲が大きい部位は、対象者EPの手(手首、指先、手の甲など)である。 It should be noted that the detection target part related to the motion region is set in advance in the storage unit 33, and the motion region determination part 343 determines the detection target part based on the information and the motion region determined by itself. For example, a part having a large motion range may be set as the detection target part in a target motion of rehabilitation. For example, in the case of rehabilitation of walking motion, the site having a large motion range is the foot (ankle, toe, heel, etc.) of the subject EP. In the case of rehabilitation of movement of the hand, the part having a large movement range is the hand (wrist, fingertip, back of the hand, etc.) of the subject EP.

あるいは、検出対象部位には、表示制御部342が生成する目標画像の表示位置に近接する部位が設定されていてもよい。例えば、歩行動作のリハビリテーションの場合、本実施形態では、対象者EPが歩行動作において足を踏み出すべき位置に足型などを模した目標画像を表示するが、この場合、目標画像の表示位置に近接する部位とは、対象者EPの足(足首、つま先、踵など)である。また、手の移動のリハビリテーションの場合、対象者EPがタッチすべき位置に目標画像を表示するが、この場合、目標画像の表示位置に近接する部位とは、対象者EPの手(手首、指先、手の甲など)である。 Alternatively, the detection target site may be set to a site close to the display position of the target image generated by the display control unit 342. For example, in the case of rehabilitation of walking motion, in the present embodiment, a target image that imitates a foot pattern or the like is displayed at a position where the subject EP should step out in the walking motion. In this case, the target image is close to the display position of the target image. The part to be performed is the foot (ankle, toe, heel, etc.) of the subject EP. Further, in the case of rehabilitation of movement of the hand, the target image is displayed at a position to be touched by the target person EP. In this case, the part close to the display position of the target image is the hand (wrist, fingertip) of the target person EP. , The back of the hand).

なお、認識部341は、検出結果情報に含まれる動作領域判定部343が決定した検出対象部位のデータ(体の一部の位置情報)を、記録部344を介して、検出履歴情報記憶部333に記録する。
記録部344は、検出結果情報を検出履歴情報記憶部333に書き込んで記録する。
The recognition unit 341 uses the detection history information storage unit 333 via the recording unit 344 to store the data of the detection target part (positional information of a part of the body) determined by the motion region determination unit 343 included in the detection result information. To record.
The recording unit 344 writes and records the detection result information in the detection history information storage unit 333.

目標決定部345は、認識部341が認識する対象者EPの体の一部(検出対象部位)の位置に基づいて対象者EPの体の一部の目標位置を決定する。例えば、歩行のリハビリテーションの場合、目標決定部345は、対象者EPの現在の足の位置、及び、対象者EPの足の位置の履歴のうち少なくともいずれかに基づいて、対象者EPの足の移動目標位置を決定する。特に、目標決定部345が、対象者EPの足の位置の履歴に基づいて対象者EPの進行方向を判定し、判定した進行方向に応じて移動目標位置を決定するようにしてもよい。あるいは、目標決定部345が、対象者EPの足の向きに基づいて対象者EPの進行方向を判定し、判定した進行方向に応じて移動目標位置を決定するようにしてもよい。あるいは、目標決定部345が、対象者EPの進行方向にかかわらず、例えばランダムな向きに、或いは所定のゴールの位置に向けて、移動目標位置を決定するようにしてもよい。 The target determination unit 345 determines the target position of the part of the body of the target person EP based on the position of the part of the body (the detection target part) of the target person EP recognized by the recognition unit 341. For example, in the case of rehabilitation of walking, the target determination unit 345 determines the foot of the subject EP based on at least one of the current foot position of the subject EP and the history of the foot position of the subject EP. Determine the movement target position. In particular, the target determination unit 345 may determine the traveling direction of the target person EP based on the history of the foot positions of the target person EP, and determine the movement target position according to the determined traveling direction. Alternatively, the target determination unit 345 may determine the moving direction of the target person EP based on the direction of the target person EP's foot, and may determine the movement target position according to the determined moving direction. Alternatively, the target determination unit 345 may determine the movement target position, for example, in a random direction or toward the position of a predetermined goal regardless of the traveling direction of the target person EP.

目標決定部345が、対象者EPの体の検出対象部位の移動量を算出し、算出した移動量に基づいて移動目標位置を決定するようにしてもよい。例えば、認識部341が対象者EPの足の位置を認識する場合、目標決定部345は、対象者EPの足の位置の履歴に基づいて対象者EPの歩幅を算出する。そして、目標決定部345は、対象者EPの足の現在位置から歩幅分だけ移動した位置に移動目標位置を設定する。対象者EPの歩幅は、対象者EPの足の移動量を示しており、対象者EPの体の検出対象部位の移動量の例に該当する。
認識部341が対象者EPの足の位置の動きを認識する場合、目標決定部345が、対象者EPの足が動いた間隔を歩幅として検出するようにしてもよい。あるいは、認識部341が、対象者EPが床面に足をついた位置を認識する場合、目標決定部345が、対象者EPが床面に足をついた位置から次に足をついた位置までの間隔を歩幅として検出するようにしてもよい。
The target determination unit 345 may calculate the amount of movement of the detection target part of the body of the subject EP and determine the movement target position based on the calculated amount of movement. For example, when the recognition unit 341 recognizes the foot position of the target person EP, the target determination unit 345 calculates the stride of the target person EP based on the history of the foot position of the target person EP. Then, the target determination unit 345 sets the movement target position at a position moved by the stride from the current position of the foot of the subject EP. The stride of the target person EP indicates the amount of movement of the foot of the target person EP, and corresponds to an example of the amount of movement of the detection target part of the body of the target person EP.
When the recognition unit 341 recognizes the movement of the foot position of the target person EP, the target determination unit 345 may detect the interval at which the foot of the target person EP moves as the stride. Alternatively, when the recognition unit 341 recognizes the position where the target person EP puts his/her foot on the floor surface, the target determination unit 345 causes the target determination unit 345 to move the position where the target person EP put his/her foot on the floor surface next. The interval up to may be detected as the stride.

評価部346は、対象者EPの体の検出対象部位の位置と移動目標位置との位置関係を評価する。例えば、評価部346は、認識部341が認識した対象者EPの体の部位の位置と、目標決定部345が決定した移動目標位置との距離を算出する。そして、評価部346は、算出した距離が所定の閾値以下か否かを判定する。対象者EPの体の検出対象部位と移動目標位置との距離が閾値以下であると判定した場合、評価部346は、目標位置到達と評価する。一方、対象者EPの体の検出対象部位と移動目標位置との距離が閾値より大きいと判定した場合、評価部346は、目標位置不到達と評価する。 The evaluation unit 346 evaluates the positional relationship between the position of the detection target part of the body of the subject EP and the movement target position. For example, the evaluation unit 346 calculates the distance between the position of the body part of the target person EP recognized by the recognition unit 341 and the movement target position determined by the target determination unit 345. Then, the evaluation unit 346 determines whether the calculated distance is less than or equal to a predetermined threshold. When it is determined that the distance between the detection target part of the body of the target person EP and the movement target position is equal to or less than the threshold value, the evaluation unit 346 evaluates that the target position has been reached. On the other hand, when it is determined that the distance between the detection target part of the body of the subject EP and the movement target position is larger than the threshold value, the evaluation unit 346 evaluates that the target position has not been reached.

評価部346が用いる距離の閾値は、複数の対象者EPに共通に予め設定された定数であってもよい。あるいは、評価部346が、対象者EPの歩幅の10分の1を閾値に設定するなど対象者EP毎に閾値を設定するようにしてもよい。また、評価部346が用いる距離の閾値は、複数種類のリハビリテーションに共通に設定されていてもよいし、リハビリテーションの種類毎に設定されていてもよい。また閾値の大きさは、手を移動させるリハビリテーションよりも足を移動させるリハビリテーションの方が大きくなるよう設定されていてもよい。 The threshold value of the distance used by the evaluation unit 346 may be a preset constant common to the plurality of target persons EP. Alternatively, the evaluation unit 346 may set the threshold value for each target person EP, for example, by setting 1/10 of the stride of the target person EP as the threshold value. Moreover, the threshold value of the distance used by the evaluation unit 346 may be set commonly for a plurality of types of rehabilitation, or may be set for each type of rehabilitation. Further, the magnitude of the threshold may be set so that the rehabilitation in which the foot is moved is larger than the rehabilitation in which the hand is moved.

また、評価部346が、対象者EPの体の一部の位置(検出対象部位)と移動目標位置との相対的な位置関係を評価する段階数は、上述した目標位置到達又は目標位置不到達の2段階に限らず、3段階以上の多段階であってもよい。例えば、評価部346が、目標位置到達か否かの判定閾値に加えてさらに目標位置不到達の場合のずれの大小の判定閾値を用いて、目標位置到達、ずれ小、ずれ大の3段階で評価を行うようにしてもよい。 Further, the number of steps by which the evaluation unit 346 evaluates the relative positional relationship between the position (detection target part) of the body of the target person EP and the movement target position is the target position arrival or the target position non-arrival described above. The number of stages is not limited to two, and may be three or more stages. For example, the evaluation unit 346 uses, in addition to the threshold for determining whether or not the target position has been reached, a threshold for determining the amount of deviation when the target position has not been reached, using three levels of target position arrival, small deviation, and large deviation. You may make it evaluate.

また、評価部346が対象者EPの体の検出対象部位の位置と移動目標位置との位置関係を評価する方法は、閾値を用いる方法のみに限らない。例えば、評価部346が、対象者EPの体の検出対象部位の位置と移動目標位置との重なりの有無を判定し、重なり有りと判定した場合に目標位置到達と評価するようにしてもよい。
さらに、例えば歩行のリハビリテーションの場合、目標決定部345が、移動目標位置を面積のある範囲にて床面上に決定し、認識部341が、対象者EPの足の位置を、対象者EPの足の形状の範囲にて認識するようにしてもよい。そして、評価部346が、移動目標位置として決定されている範囲と、対象者EPの足の位置として検出された範囲との重なりの有無を判定するようにしてもよい。
Further, the method in which the evaluation unit 346 evaluates the positional relationship between the position of the detection target part of the body of the target person EP and the movement target position is not limited to the method using the threshold value. For example, the evaluation unit 346 may determine whether or not the position of the detection target part of the body of the target person EP and the movement target position overlap, and if it determines that there is an overlap, it may evaluate that the target position has been reached.
Further, for example, in the case of rehabilitation of walking, the target determination unit 345 determines the movement target position on the floor surface within a certain area, and the recognition unit 341 determines the position of the foot of the target person EP to the target person EP. It may be recognized in the range of the shape of the foot. Then, the evaluation unit 346 may determine whether or not the range determined as the movement target position and the range detected as the position of the foot of the subject EP overlap.

足用表示パラメータ設定部347は、歩行などの足を移動させるリハビリテーションにおいて、足用表示パラメータを設定する。足用表示パラメータは、対象者EPが足を移動させるときの目標画像の表示に用いられるパラメータである。
手用表示パラメータ設定部348は、手を動かすリハビリテーションにおいて、手用表示パラメータを設定する。手用表示パラメータは、対象者EPが手を動かすときの目標画像の表示に用いられるパラメータである。
外乱用表示パラメータ設定部349は、外乱用表示パラメータを設定する。外乱用表示パラメータは、リハビリテーションの対象者EPが足または手を所定の目標画像まで移動させるときに、対象者EPが足または手を目標画像まで移動させる妨げとなる外乱の表示に用いられるパラメータである。または、外乱用表示パラメータは、リハビリテーションの対象者EPが足または手を回避目標となる目標画像から回避させるときに、対象者EPが足または手を目標画像から回避させる妨げとなる外乱の表示に用いられるパラメータである。
The foot display parameter setting unit 347 sets foot display parameters in rehabilitation such as walking in which the foot is moved. The foot display parameter is a parameter used to display the target image when the subject EP moves the foot.
The hand display parameter setting unit 348 sets hand display parameters in rehabilitation in which the hand is moved. The display parameter for hands is a parameter used for displaying a target image when the subject EP moves his/her hand.
The disturbance display parameter setting unit 349 sets the disturbance display parameter. The disturbance display parameter is a parameter used to display a disturbance that prevents the subject EP from moving the foot or hand to the target image when the subject EP for rehabilitation moves the foot or hand to the target image. is there. Alternatively, the disturbance display parameter is used to display the disturbance that prevents the subject EP from avoiding the foot or hand from the target image when the subject EP of the rehabilitation avoids the target image from the foot or hand. These are the parameters used.

操作部35は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部35は、理学療法士等の指示をリハビリテーション支援制御装置300に入力する際に理学療法士等によって操作される。操作部35は、入力装置をリハビリテーション支援制御装置300に接続するためのインタフェースであってもよい。この場合、操作部35は、入力装置において理学療法士等の入力に応じ生成された入力信号をリハビリテーション支援制御装置300に入力する。操作部35は、表示部36と一体のタッチパネルとして構成されてもよい。 The operation unit 35 is configured by using an existing input device such as a keyboard, pointing device (mouse, tablet, etc.), button, touch panel and the like. The operation unit 35 is operated by a physical therapist or the like when inputting an instruction from the physical therapist or the like to the rehabilitation support control device 300. The operation unit 35 may be an interface for connecting the input device to the rehabilitation assistance control device 300. In this case, the operation unit 35 inputs the input signal generated by the input device according to the input of the physical therapist or the like to the rehabilitation support control device 300. The operation unit 35 may be configured as a touch panel integrated with the display unit 36.

表示部36は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部36は、画像や文字を表示する。表示部36は、画像表示装置をリハビリテーション支援制御装置300に接続するためのインタフェースであってもよい。この場合、表示部36は、画像や文字を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。 The display unit 36 is an image display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, and an organic EL (Electro Luminescence) display. The display unit 36 displays images and characters. The display unit 36 may be an interface for connecting the image display device to the rehabilitation assistance control device 300. In this case, the display unit 36 generates a video signal for displaying an image or a character and outputs the video signal to the image display device connected to itself.

図3は、リハビリテーション支援制御装置300による第一動作領域を説明するための斜視図である。
図3は、対象者EPがテーブルT(第一動作領域)上で手の移動のリハビリテーションを行っている様子を示している。出力装置200は、テーブルTに目標画像M1を投影している。対象者EPは、出力装置200が出力領域900に出力する目標画像M1に基づいて、手の移動に関するリハビリテーションを行う。
センサ100は、対象者EPが検出範囲800内において手を移動する際の対象者EPの体の一部の位置を検出し、検出結果情報を所定の時間毎にリハビリテーション支援制御装置300に出力する。
FIG. 3 is a perspective view for explaining the first operation region by the rehabilitation assistance control device 300.
FIG. 3 shows a state in which the target person EP is performing rehabilitation of hand movement on the table T (first motion area). The output device 200 projects the target image M1 on the table T. The target person EP performs rehabilitation related to the movement of the hand based on the target image M1 output by the output device 200 to the output area 900.
The sensor 100 detects the position of a part of the body of the target person EP when the target person EP moves his or her hand within the detection range 800, and outputs the detection result information to the rehabilitation support control device 300 at predetermined time intervals. ..

図4は、リハビリテーション支援システム1における画像の表示例を示す平面図である。図4では、リハビリテーション支援システム1を用いて手の移動のリハビリテーションを行う場合の画像の例を示している。図4の例では、出力装置200の画像の投影によって、机上の投影面(出力領域900)に画像が表示されている。具体的には、目標位置の履歴を示す目標画像M111a、M111b、M112a及びM112bと、対象者EPの手の位置の履歴画像M121a及びM121bと、対象者EPの現在の手の位置を示す画像M131a及びM131bと、次の目標位置を示す目標画像M141a及びM141bとが、それぞれ手の形の画像で示されている。図4では、符号の「a」は右手を示し、「b」は左手を示す。例えば、目標画像M111aは、右手の目標位置の履歴を示す。目標画像M111bは、左手の目標位置の履歴を示す。 FIG. 4 is a plan view showing a display example of an image in the rehabilitation support system 1. FIG. 4 shows an example of an image when the rehabilitation of the hand movement is performed using the rehabilitation support system 1. In the example of FIG. 4, the image is displayed on the projection surface (output area 900) on the desk by the projection of the image of the output device 200. Specifically, target images M111a, M111b, M112a and M112b showing the history of the target position, history images M121a and M121b of the hand position of the subject EP, and an image M131a showing the current hand position of the subject EP. , M131b, and target images M141a and M141b indicating the next target position are shown in the shape of a hand, respectively. In FIG. 4, reference numeral “a” indicates the right hand, and “b” indicates the left hand. For example, the target image M111a shows the history of the target position of the right hand. The target image M111b shows the history of the target position of the left hand.

但し、リハビリテーション支援システム1におけるこれらの画像は、体の検出対象部位の形状の画像に限らない。例えば、出力装置200が、右手の目標位置を赤丸で表示し、左手の目標位置を青丸で表示するなど、体の検出対象部位の形状の画像に代えて丸印を表示するようにしてもよい。 However, these images in the rehabilitation support system 1 are not limited to images of the shape of the detection target part of the body. For example, the output device 200 may display the target position of the right hand in a red circle and the target position of the left hand in a blue circle to display a circle instead of the image of the shape of the body part to be detected. Good.

このように、表示制御部342が、出力装置200を制御してテーブルTに目標画像および履歴画像を表示させることで、対象者EPが、直感的に自分が目標に対して手を移動させた実績を把握できる。 In this way, the display control unit 342 controls the output device 200 to display the target image and the history image on the table T, so that the target person EP intuitively moves his/her hand with respect to the target. You can grasp the achievements.

図3に戻り、本実施形態における動作領域の判定処理の一例について説明を行う。
センサ100は、対象者EPの手の移動が行われる領域を検出し、リハビリテーション支援制御装置300の入力部31が、その検出結果情報を取得する。認識部341は、入力部31が取得した検出結果情報に基づいて、検出結果情報が示す対象物を認識する。動作領域判定部343は、認識部341による認識結果に基づいて、対象者EPがリハビリテーションを行う動作領域を判定する。
Returning to FIG. 3, an example of the operation region determination processing according to the present embodiment will be described.
The sensor 100 detects a region in which the hand of the subject EP is moved, and the input unit 31 of the rehabilitation support control device 300 acquires the detection result information. The recognition unit 341 recognizes the object indicated by the detection result information based on the detection result information acquired by the input unit 31. The motion area determination unit 343 determines the motion area in which the subject EP performs the rehabilitation based on the recognition result by the recognition unit 341.

例えば、認識部341が骨格トラッキング機能を有している場合、動作領域判定部343は、認識部341による認識結果が、対象者EPが手や腕を大きく動かす動作を行ったことを示していれば、動作領域はテーブルT(第一動作領域)であると判定する。例えば、センサ100が、Kinect(登録商標)の場合、対象者EPの関節とその位置情報を得ることができる。これを利用して、例えば、対象者EPが、図3に示すようにイスに腰掛けてテーブル上で大きく腕を動かす動作を行う。すると、認識部341は、このときに検出された検出結果情報を分析し、対象者EPのどの関節がどの程度動いたかを認識する。また、判定条件情報記憶部332には、動作領域「テーブル」と動作部位「手」、「腕」とが対応付けられて設定されている。動作領域判定部343は、この認識結果から、対象者EPの手や腕の動作範囲が所定の範囲以上であること及び判定条件情報記憶部332の設定情報に基づいて動作領域がテーブルTであると判定する。 For example, when the recognition unit 341 has a skeleton tracking function, the motion region determination unit 343 indicates that the recognition result by the recognition unit 341 indicates that the subject EP has performed a motion of greatly moving the hand or arm. For example, the operation area is determined to be the table T (first operation area). For example, when the sensor 100 is Kinect (registered trademark), the joint of the subject EP and its position information can be obtained. Utilizing this, for example, the subject EP performs an operation of sitting on a chair and moving his or her arm largely on the table as shown in FIG. Then, the recognition unit 341 analyzes the detection result information detected at this time, and recognizes which joint of the subject EP has moved and to what extent. Further, in the determination condition information storage unit 332, the motion area “table” and the motion parts “hand” and “arm” are set in association with each other. Based on this recognition result, the motion area determination unit 343 indicates that the motion area of the hand or arm of the target person EP is greater than or equal to a predetermined range and the motion area is the table T based on the setting information of the determination condition information storage unit 332. To determine.

また、例えば、動作領域判定部343は、認識部341による認識結果における対象者EPの体の検出範囲に基づいて、検出範囲内に対象者EPの下半身が含まれていなければ、動作領域はテーブルTであると判定してもよい。例えば、対象者EPが、図3に示すようにイスに腰掛ける。すると、認識部341は、このときに検出された検出結果情報を分析し、例えば、検出結果情報が示す対象物の形状から対象者EPの上半身を認識する。また、判定条件情報記憶部332には、動作領域「テーブル」と検出範囲「上半身」とが対応付けられて設定されている。動作領域判定部343は、この認識結果から、対象者EPの下半身が検出範囲に含まれていないこと及び判定条件情報記憶部332の設定情報に基づいて動作領域がテーブルTであると判定する。 In addition, for example, based on the detection range of the body of the target person EP in the recognition result by the recognition unit 341, the motion area determination unit 343 does not include the lower body of the target person EP in the detection range, and the motion area is a table. It may be determined to be T. For example, the subject EP sits on a chair as shown in FIG. Then, the recognition unit 341 analyzes the detection result information detected at this time, and recognizes the upper body of the target person EP from the shape of the target object indicated by the detection result information, for example. Further, in the determination condition information storage unit 332, an operation area “table” and a detection range “upper body” are set in association with each other. Based on the recognition result, the motion area determination unit 343 determines that the motion area is the table T based on the fact that the lower half of the target person EP is not included in the detection range and the setting information of the determination condition information storage unit 332.

また、例えば、認識部341が骨格トラッキング機能を有している場合、動作領域判定部343は、認識結果における対象者EPの頭部の高さに基づいて、頭部の高さが所定の範囲であれば動作領域はテーブルTであると判定してもよい。例えば、対象者EPの身長を予め判定条件情報記憶部332に記録しておく、そして、対象者EPが、図3に示すようにイスに腰掛ける。すると、認識部341は、このときに検出された検出結果情報を分析し、頭部の位置情報(座標情報)を認識する。動作領域判定部343は、この認識結果から、対象者EPの頭部の高さが判定条件情報記憶部332に記録された身長比べ低く、記録された身長を基準とする所定の範囲内に含まれていないことに基づいて動作領域がテーブルTであると判定する。 Further, for example, when the recognition unit 341 has a skeleton tracking function, the motion region determination unit 343 determines that the head height is within a predetermined range based on the head height of the target person EP in the recognition result. If so, the operation area may be determined to be the table T. For example, the height of the subject EP is recorded in advance in the determination condition information storage unit 332, and the subject EP sits on a chair as shown in FIG. Then, the recognition unit 341 analyzes the detection result information detected at this time and recognizes the position information (coordinate information) of the head. Based on this recognition result, the motion area determination unit 343 has the height of the head of the target person EP lower than the height recorded in the determination condition information storage unit 332, and is included in a predetermined range based on the recorded height. It is determined that the operation area is the table T based on the fact that the table T is not displayed.

また、例えば、動作領域判定部343は、認識結果に基づく動作領域の候補とセンサ100との距離に応じて動作領域がテーブルTであると判定してもよい。例えば、センサ100が、Kinect(登録商標)の距離センサの場合、所定の検出範囲に存在する物の所定間隔ごとの座標情報を得ることができる。認識部341は、検出結果情報を分析し、所定の広さ以上の面積を有する動かない平面を、壁、フロア、テーブル等と認識する。動作領域判定部343は、この認識結果のうち、認識部341が認識した平面とセンサ100の距離に基づいて、又は、平面の広さに基づいて、この平面が所定の条件を満たす場合、平面はテーブルTであると判定し、センサ100の検出範囲にテーブルTが含まれていることに基づいて動作領域がテーブルTであると判定する。又は、動作領域判定部343は、平面の座標情報からその平面の位置する高さに基づいて、平面はテーブルTであると判定してもよい。なお、平面がテーブルTであると判定するための距離、広さ、高さ等の閾値は、判定条件情報記憶部332に設定されている。 Further, for example, the motion area determination unit 343 may determine that the motion area is the table T according to the distance between the motion area candidate based on the recognition result and the sensor 100. For example, when the sensor 100 is a Kinect (registered trademark) distance sensor, coordinate information can be obtained for each predetermined interval of an object existing in a predetermined detection range. The recognition unit 341 analyzes the detection result information and recognizes an immovable plane having an area equal to or larger than a predetermined area as a wall, a floor, a table, or the like. In the recognition result, the motion region determination unit 343 determines whether the plane satisfies a predetermined condition based on the distance between the plane recognized by the recognition unit 341 and the sensor 100 or based on the width of the plane. Is determined to be the table T, and the operation area is determined to be the table T based on the fact that the detection range of the sensor 100 includes the table T. Alternatively, the operation region determination unit 343 may determine that the plane is the table T based on the coordinate information of the plane and the height at which the plane is located. The thresholds such as the distance, the width, and the height for determining that the plane is the table T are set in the determination condition information storage unit 332.

なお、同様の判定は、Kinect(登録商標)の画像センサによる検出結果情報に基づいて行ってもよい。この場合、例えば、認識部341が入力部31を介して画像センサによる検出結果情報(画像)を取得する。また、認識部341は、公知の画像認識処理によって、対象者EPによる手や腕の動作を認識したり、対象者EPの体の検出範囲が上半身だけであることを認識したり、対象者EPの頭部の高さを認識したり、画像に含まれる平面部分の高さや広さを認識する。そして、動作領域判定部343は、上記の判定条件に基づいて、動作領域がテーブルTであると判定する。
また、上記の例のうち、Kinect(登録商標)が提供する関節の位置情報による判定を、Kinect(登録商標)の距離センサによる検出結果情報に基づいて行ってもよい。
また、本実施形態において、出力装置200によるテーブルTへの目標画像の出力は必須ではない。例えば、対象者EPは、作業療法士による手の移動を誘導する音声に合わせて、テーブルT上で手の移動のリハビリテーションを行ってもよい。
The same determination may be made based on the detection result information by the image sensor of Kinect (registered trademark). In this case, for example, the recognition unit 341 acquires the detection result information (image) by the image sensor via the input unit 31. In addition, the recognition unit 341 recognizes the motion of the hand and arm by the target person EP, recognizes that the body detection range of the target person EP is only the upper half of the body, and recognizes the target person EP by known image recognition processing. Recognizes the height of the head of the person, and recognizes the height and width of the plane portion included in the image. Then, the operation area determination unit 343 determines that the operation area is the table T based on the above determination conditions.
Further, in the above example, the determination based on the position information of the joint provided by Kinect (registered trademark) may be performed based on the detection result information by the distance sensor of Kinect (registered trademark).
Further, in the present embodiment, the output of the target image to the table T by the output device 200 is not essential. For example, the subject EP may perform rehabilitation of the hand movement on the table T in accordance with the voice guiding the hand movement by the occupational therapist.

図5は、リハビリテーション支援制御装置300による第二動作領域を説明するための斜視図である。
図5は、対象者EPがフロアFL(第二動作領域)上で歩行動作のリハビリテーションを行っている様子を示している。出力装置200は、フロアFLに目標画像M2〜M5を投影している。対象者EPは、出力装置200が出力領域900に出力する目標画像M2〜M5に基づいて、歩行動作のリハビリテーションを行う。例えば、対象者EPは、目標画像M2〜M5に示されるスタート位置から目標位置まで歩行するリハビリテーションを行う。センサ100は、対象者EPが検出範囲800内において対象者EPの足の位置を検出し、検出結果情報を所定の時間毎にリハビリテーション支援制御装置300に出力する。
FIG. 5 is a perspective view for explaining the second operation region by the rehabilitation assistance control device 300.
FIG. 5 illustrates a state in which the subject EP performs rehabilitation of walking motion on the floor FL (second motion region). The output device 200 projects the target images M2 to M5 on the floor FL. The target person EP performs the rehabilitation of the walking motion based on the target images M2 to M5 output by the output device 200 to the output area 900. For example, the subject EP performs rehabilitation by walking from the start position shown in the target images M2 to M5 to the target position. The sensor 100 detects the position of the foot of the target person EP within the detection range 800 of the target person EP, and outputs the detection result information to the rehabilitation assistance control device 300 at predetermined time intervals.

図6は、リハビリテーション支援システム1における画像の表示の例を示す平面図である。
図6は、リハビリテーション支援システム1における画像の表示の、もう1つの例を示す図である。図6では、リハビリテーション支援システム1を用いて歩行のリハビリテーションを行う場合の画像の例を示している。図6の例では、出力装置の画像の投影によって、床上の投影面(出力領域900)に画像が表示されている。具体的には、目標位置の履歴を示す目標画像M211〜M214と、対象者EPの足の位置の履歴画像M221〜M223と、対象者EPの現在の足の位置を示す画像M231と、次の目標位置を示す目標画像M241とが、それぞれ足の形の画像で示されている。
FIG. 6 is a plan view showing an example of image display in the rehabilitation support system 1.
FIG. 6 is a diagram showing another example of image display in the rehabilitation support system 1. FIG. 6 shows an example of an image when the rehabilitation of walking is performed using the rehabilitation support system 1. In the example of FIG. 6, the image is displayed on the projection surface (output area 900) on the floor by the projection of the image of the output device. Specifically, target images M211 to M214 showing the history of the target position, history images M221 to M223 of the foot position of the target person EP, an image M231 showing the current position of the foot of the target person EP, and the following A target image M241 indicating the target position is shown as a foot-shaped image, respectively.

図4の例では、右手、左手それぞれの目標位置が表示されていたのに対し、図6の例では、左足の次の目標画像M241が示されているものの、右足の次の目標画像は示されていない。手の移動では、右手と左手とを同時に動かし得るのに対し、歩行では右足と左足とを交互に動かすからである。なお、本実施形態のリハビリテーション支援システム1によれば、足の移動のリハビリテーションとして、歩行(左右の足を交互に踏み出す動作)だけではなく、片足だけを連続して移動させたり、「けんけんぱ」のように両足を同時に移動させたりする足の移動を訓練することも可能である。その場合、出力装置200は、それぞれの足の移動に応じた目標画像、履歴画像を出力領域900に出力する。
なお、図4を参照して説明したのと同様、出力装置200が表示する画像は、足の形の画像に限らない。例えば、出力装置200が、右足の目標位置を赤丸で表示し、左足の目標位置を青丸で表示するなど、足の形の画像に代えて丸印を表示するようにしてもよい。また上記の実施形態とは逆に、左右の足の目標画像を片方ずつ表示するのではなく、常に先行して左右の足の目標画像を共に表示するようにしてもよい。また現在の足の位置画像と過去の足の位置の履歴画像で異なる表示とすることも可能である。例えば現在の足の位置画像は円、方形などの図形で表示し、過去の左右の足の履歴画像は「足あと」の図形で表示してもよい。
In the example of FIG. 4, the target positions of the right hand and the left hand are displayed, respectively, whereas in the example of FIG. 6, the target image M241 next to the left foot is shown, but the target image next to the right foot is shown. It has not been. This is because the right hand and the left hand can be moved at the same time in the movement of the hand, while the right foot and the left foot are alternately moved in the walking. According to the rehabilitation support system 1 of the present embodiment, as rehabilitation of the movement of the foot, not only walking (moving the left and right feet alternately) but also moving only one foot continuously, or “kenpa” It is also possible to train the movement of the legs by moving both legs at the same time as in. In that case, the output device 200 outputs the target image and the history image corresponding to the movement of each foot to the output area 900.
Note that, as described with reference to FIG. 4, the image displayed by the output device 200 is not limited to the foot-shaped image. For example, the output device 200 may display the target position of the right foot in a red circle and the target position of the left foot in a blue circle, and display a circle instead of the foot-shaped image. Further, contrary to the above embodiment, the target images of the left and right feet may not be displayed one by one, but the target images of the left and right feet may be always displayed in advance. It is also possible to display different images for the current foot position image and the past foot position history image. For example, the current position image of the foot may be displayed in a shape such as a circle or a square, and the history images of the left and right feet in the past may be displayed in the shape of "foot".

このように、表示制御部342が、出力装置200を制御してフロアFLに目標画像および履歴画像を表示させることで、対象者EPが、直感的に自分が目標に対して足を移動させた実績を把握できる。 In this way, the display control unit 342 controls the output device 200 to display the target image and the history image on the floor FL, so that the target person EP intuitively moves his/her foot relative to the target. You can grasp the achievements.

図5に戻り、本実施形態における動作領域の判定処理の一例について説明を行う。センサ100は、対象者EPの歩行動作が行われる領域を検出し、リハビリテーション支援制御装置300の入力部31が、その検出結果情報を取得する。認識部341は、入力部31が取得した検出結果情報に基づいて、検出結果情報が示す対象物を認識する。動作領域判定部343は、認識部341による認識結果に基づいて、対象者EPがリハビリテーションを行う動作領域を判定する。 Returning to FIG. 5, an example of the determination processing of the operation area in the present embodiment will be described. The sensor 100 detects a region where the walking motion of the subject EP is performed, and the input unit 31 of the rehabilitation support control device 300 acquires the detection result information. The recognition unit 341 recognizes the object indicated by the detection result information based on the detection result information acquired by the input unit 31. The motion area determination unit 343 determines the motion area in which the subject EP performs the rehabilitation based on the recognition result by the recognition unit 341.

例えば、認識部341が骨格トラッキング機能を有している場合、動作領域判定部343は、認識部341による認識結果が、対象者EPの動作が足を大きく動かしていることを示していれば、動作領域はフロア(第二動作領域)であると判定する。例えば、対象者EPが、フロアFLで歩行動作を行う。すると、認識部341は、このときに検出された検出結果情報を分析し、対象者EPのどの関節がどの程度動いたかを認識する。また、判定条件情報記憶部332には、動作領域「フロア」と動作部位「足」とが対応付けられて設定されている。動作領域判定部343は、この認識結果から、対象者EPの足の移動範囲が所定の範囲以上であること及び判定条件情報記憶部332の設定情報に基づいて動作領域がフロアFLであると判定する。 For example, when the recognition unit 341 has a skeleton tracking function, the motion region determination unit 343 determines that the recognition result by the recognition unit 341 indicates that the motion of the target person EP greatly moves the foot. It is determined that the operation area is the floor (second operation area). For example, the target person EP performs a walking motion on the floor FL. Then, the recognition unit 341 analyzes the detection result information detected at this time, and recognizes which joint of the subject EP has moved and to what extent. In the determination condition information storage unit 332, the motion area “floor” and the motion part “foot” are set in association with each other. Based on the recognition result, the motion area determination unit 343 determines that the movement range of the foot of the target person EP is equal to or larger than the predetermined range and that the motion area is the floor FL based on the setting information of the determination condition information storage unit 332. To do.

また、例えば、動作領域判定部343は、認識部341による認識結果における対象者EPの体の検出範囲に基づいて、検出範囲内に対象者EPの全身が含まれていれば、動作領域はフロアFLであると判定してもよい。例えば、対象者EPが、フロアFLに立つ。認識部341は、このときに検出された検出結果情報を分析し、例えば、検出結果情報が示す対象物の形状から対象者EPの全身を認識する。また、判定条件情報記憶部332には、動作領域「フロア」と検出範囲「全身」とが対応付けられて設定されている。動作領域判定部343は、この認識結果及び判定条件情報記憶部332の設定情報から、対象者EPの全身が検出範囲に含まれていることに基づいて動作領域がフロアFLであると判定する。又は、動作領域判定部343は、対象者EPの脚部が検出範囲内に含まれていることに基づいて動作領域がフロアFLであると判定してもよい。 Further, for example, based on the detection range of the body of the target person EP in the recognition result by the recognition unit 341, if the whole body of the target person EP is included in the detection range, the motion area determination unit 343 determines that the motion area is the floor. It may be determined to be FL. For example, the target person EP stands on the floor FL. The recognition unit 341 analyzes the detection result information detected at this time, and recognizes the whole body of the target person EP, for example, from the shape of the target object indicated by the detection result information. In the determination condition information storage unit 332, the motion area “floor” and the detection range “whole body” are set in association with each other. Based on the recognition result and the setting information of the determination condition information storage unit 332, the motion area determination unit 343 determines that the motion area is the floor FL based on the fact that the whole body of the target person EP is included in the detection range. Alternatively, the motion area determination unit 343 may determine that the motion area is the floor FL based on that the leg of the subject EP is included in the detection range.

また、例えば、認識部341が骨格トラッキング機能を有している場合、動作領域判定部343は、認識部341による認識結果が示す対象者EPの頭部の高さに基づいて、頭部の高さが所定の高さ以上であれば動作領域はフロアFLであると判定してもよい。例えば、対象者EPの身長を予め判定条件情報記憶部332に記録しておく、そして、対象者EPは、フロアFLに立つ。すると、認識部341は、このとき検出された検出結果情報を分析し、対象者EPの頭部の高さを計算する。動作領域判定部343は、この認識結果から、対象者EPの頭部の高さが判定条件情報記憶部332に記録された身長を基準とする所定の範囲内に含まれていることに基づいて動作領域がフロアFLであると判定する。 In addition, for example, when the recognition unit 341 has a skeleton tracking function, the motion region determination unit 343 determines the height of the head based on the height of the head of the target person EP indicated by the recognition result by the recognition unit 341. It may be determined that the operation area is the floor FL when the height is equal to or higher than a predetermined height. For example, the height of the target person EP is recorded in the determination condition information storage unit 332 in advance, and the target person EP stands on the floor FL. Then, the recognition unit 341 analyzes the detection result information detected at this time and calculates the height of the head of the target person EP. Based on the recognition result, the motion region determination unit 343 determines that the height of the head of the subject EP is included in the predetermined range based on the height recorded in the determination condition information storage unit 332. It is determined that the operation area is the floor FL.

また、例えば、動作領域判定部343は、認識結果に基づく動作領域の候補とセンサ100との距離に応じて動作領域がフロアであると判定してもよい。認識部341は、検出結果情報を分析し、壁、フロア、テーブル等の平面を認識する。動作領域判定部343は、この認識結果のうち、認識部341が認識した平面とセンサ100との相対的な距離に基づいて、その距離が所定の長さ以上であれば、その平面はフロアFLであって、動作領域がフロアFLであると判定する。又は、認識部341は、平面の広さを認識し、動作領域判定部343は、所定の検出範囲にテーブルに相当する平面が存在しないことに基づいて動作領域がフロアFLであると判定してもよい。又は、動作領域判定部343は、平面の座標情報からその平面の位置する高さに基づいて、平面はフロアFLであると判定してもよい。なお、平面をフロアFLであると判定するための距離、広さ、高さ等の閾値は、判定条件情報記憶部332に設定されている。 Further, for example, the motion area determination unit 343 may determine that the motion area is the floor according to the distance between the motion area candidate based on the recognition result and the sensor 100. The recognition unit 341 analyzes the detection result information and recognizes planes such as walls, floors, and tables. Based on the relative distance between the plane recognized by the recognition unit 341 and the sensor 100 among the recognition results, the motion region determination unit 343 determines that the plane is the floor FL if the distance is equal to or more than a predetermined length. Therefore, it is determined that the operation area is the floor FL. Alternatively, the recognition unit 341 recognizes the size of the plane, and the motion region determination unit 343 determines that the motion region is the floor FL based on the fact that the plane corresponding to the table does not exist in the predetermined detection range. Good. Alternatively, the operation area determination unit 343 may determine that the plane is the floor FL based on the coordinate information of the plane and the height at which the plane is located. The thresholds such as the distance, the width, and the height for determining that the plane is the floor FL are set in the determination condition information storage unit 332.

なお、動作領域がテーブルであると判定する場合と同様、動作領域判定部343による判定は、画像センサによる検出結果情報に基づいて行ってもよい。この場合、例えば、認識部341は、公知の画像認識処理によって、対象者EPによる足の移動を認識したり、対象者EPの体の検出範囲が全身であることを認識したり、対象者EPの頭部の高さを認識したり、画像に含まれる平面部分の高さや広さを認識する。そして、動作領域判定部343は、上記の判定条件に基づいて、動作領域がフロアFLであると判定する。
また、本実施形態において、出力装置200によるフロアFLへの目標画像の出力は必須ではない。例えば、対象者EPは、例えば、理学療法士による歩行動作の指示に合わせて、フロアFL上で歩行動作を行ってもよい。
Similar to the case where the operation area is determined to be a table, the operation area determination unit 343 may make the determination based on the detection result information from the image sensor. In this case, for example, the recognition unit 341 recognizes the movement of the foot by the target person EP, recognizes that the detection range of the body of the target person EP is the whole body, or recognizes the target person EP by a known image recognition process. Recognizes the height of the head of the person, and recognizes the height and width of the plane portion included in the image. Then, the operation area determination unit 343 determines that the operation area is the floor FL based on the above determination conditions.
In addition, in the present embodiment, the output of the target image to the floor FL by the output device 200 is not essential. For example, the subject EP may perform a walking motion on the floor FL in accordance with a walking motion instruction from a physical therapist, for example.

次に図7を用いて、対象者のリハビリテーション検出対象情報の検出および記録処理の流れについて説明する。
図7は、リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。
まず、理学療法士又は作業療法士がこれから行おうとするリハビリテーション内容に応じて、対象者EPがリハビリテーションを行う環境にリハビリテーション支援システム1を移動させる。また、脚部310の高さを適切に調節する。次に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取る。例えば、テーブル上での腕のリハビリテーションを行う場合であれば、対象者EPは椅子に座ってテーブル上に手を置く姿勢を取る。また、例えば、歩行動作のリハビリテーションを行う場合、対象者EPは起立した姿勢を取る。対象者EPがこれらの姿勢を取ると、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力する。操作部35は、その準備開始指示情報を取得する(ステップS10)。なお、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力した後に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取っても良い。
Next, the flow of the detection and recording process of the rehabilitation detection target information of the target person will be described with reference to FIG. 7.
FIG. 7 is a flowchart showing an example of an operation area determination process by the rehabilitation assistance control device 300.
First, the rehabilitation support system 1 is moved to an environment in which the subject EP performs rehabilitation according to the rehabilitation content that the physical therapist or occupational therapist is about to perform. Further, the height of the leg portion 310 is appropriately adjusted. Next, the subject EP takes a posture in the detection range 800 according to the content of rehabilitation to be performed. For example, when performing arm rehabilitation on a table, the subject EP takes a posture of sitting on a chair and placing his hand on the table. Moreover, for example, when performing rehabilitation of a walking motion, the subject EP takes a standing posture. When the subject EP takes these postures, the physical therapist or the like inputs the preparation start instruction information to the rehabilitation support control device 300. The operation unit 35 acquires the preparation start instruction information (step S10). After the physical therapist or the like inputs the preparation start instruction information to the rehabilitation support control device 300, the subject EP may take the posture in the detection range 800 according to the content of rehabilitation to be performed.

すると、センサ100が検出を開始し、入力部31は、検出結果情報を取得する(ステップS11)。入力部31は、検出結果情報を制御部34へ出力する。制御部34では、認識部341が検出結果情報を取得し、対象者EPの動作を認識する。あるいは、認識部341は、検出範囲800に存在するテーブル、フロア等を認識する。認識部341は、認識結果を動作領域判定部343へ出力する。 Then, the sensor 100 starts detection, and the input unit 31 acquires the detection result information (step S11). The input unit 31 outputs the detection result information to the control unit 34. In the control unit 34, the recognition unit 341 acquires the detection result information and recognizes the motion of the target person EP. Alternatively, the recognition unit 341 recognizes a table, floor, etc. existing in the detection range 800. The recognition unit 341 outputs the recognition result to the operation area determination unit 343.

次に動作領域判定部343は、図3及び図5を用いて説明した方法によって動作領域を判定する(ステップS12)。例えば、動作領域判定部343は、認識部341による認識結果が、対象者EPの全身を認識したことを示していれば、動作領域はフロアFLであると判定してもよい。また、例えば、動作領域判定部343は、認識結果がテーブルTの存在を示していれば、動作領域はテーブルTであると判定してもよい。動作領域判定部343は、この他にも、上述した様々な判定方法を用いて動作領域の判定を行うことができる。次に動作領域判定部343は、動作領域はフロアFLかどうかを判定する(ステップS13)。動作領域がフロアFLの場合(ステップS13;Yes)、動作領域判定部343は、検出対象部位を対象者EPの足(例えば、足首又はつま先)に設定する(ステップS17)。動作領域判定部343が、検出対象部位を対象者EPの足に設定すると、次に足用表示パラメータ設定部347は、足を移動させるリハビリテーションにおける足用表示パラメータを設定する(ステップS18)。足用表示パラメータは、対象者EPが足を移動させるときの目標画像の表示に用いられるパラメータである。 Next, the operation area determination unit 343 determines the operation area by the method described with reference to FIGS. 3 and 5 (step S12). For example, the motion region determination unit 343 may determine that the motion region is the floor FL if the recognition result by the recognition unit 341 indicates that the whole body of the target person EP is recognized. Further, for example, the motion area determination unit 343 may determine that the motion area is the table T if the recognition result indicates the existence of the table T. In addition to this, the operation area determination unit 343 can determine the operation area using the various determination methods described above. Next, the operation area determination unit 343 determines whether the operation area is the floor FL (step S13). When the motion region is the floor FL (step S13; Yes), the motion region determination unit 343 sets the detection target part to the foot (for example, ankle or toe) of the subject EP (step S17). When the motion region determination unit 343 sets the detection target part to the foot of the subject EP, the foot display parameter setting unit 347 next sets the foot display parameter in the rehabilitation in which the foot is moved (step S18). The foot display parameter is a parameter used to display the target image when the subject EP moves the foot.

足用表示パラメータには、例えば、足用距離パラメータ、足用時間パラメータ、足用ベクトルパラメータなどが含まれる。足用距離パラメータには、例えば、目標画像が示す歩幅を決定するために用いられるパラメータ(図10に示すステップの値)、目標画像が示すスタンス(歩隔を含む)を決定するために用いられるパラメータ(図10に示す歩隔)などが含まれている。スタンスとは、対象者の前方(例えば体の前面や顔面が向く方向や進行予定の方向)に伸びる2本の平行線であって対象者の2つの脚の所定部位(例えば踵や親指の先端)をそれぞれ通る平行線の距離を表す。また、足用時間パラメータには、例えば、目標画像が表示されリハビリテーションが行われる総時間を示すパラメータ、現在表示されている目標画像が表示されてから目標画像が表示される次のタイミングまでの時間を示すパラメータなどが含まれている。また、足用ベクトルパラメータには、例えば、現在表示されている目標画像を基準とした次のタイミングに表示される目標画像の表示方向を決定するために用いられるパラメータなどが含まれる。足用表示パラメータ設定部347は、指定された足用距離パラメータ、足用時間パラメータ、足用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。これらのパラメータを設定することにより、例えば、図6に例示したような足型の目標画像を対象者EPのリハビリテーションの内容に応じて表示することができる。 The foot display parameters include, for example, foot distance parameters, foot time parameters, foot vector parameters, and the like. The foot distance parameter is used, for example, to determine a parameter (a step value shown in FIG. 10) used to determine the stride indicated by the target image and a stance (including a step) indicated by the target image. The parameters (steps shown in FIG. 10) and the like are included. The stance is two parallel lines extending in front of the subject (for example, the direction in which the front of the body or face is faced or the direction in which the subject is going to travel), and the predetermined portions of the two legs of the subject (eg, the tip of the heel or thumb). ) Represents the distance of parallel lines passing through each. Further, the foot time parameter is, for example, a parameter indicating the total time during which the target image is displayed and rehabilitation is performed, the time from when the currently displayed target image is displayed until the next timing when the target image is displayed. It includes a parameter that indicates. Further, the foot vector parameter includes, for example, a parameter used for determining the display direction of the target image displayed at the next timing based on the currently displayed target image. The foot display parameter setting unit 347 records the specified foot distance parameter, foot time parameter, foot vector parameter, and the like in the parameter information storage unit 334. By setting these parameters, for example, a foot-shaped target image as illustrated in FIG. 6 can be displayed according to the content of the rehabilitation of the subject EP.

この他にも、例えば、足用表示パラメータ設定部347は、目標画像が、対象者EPが歩行するときの回避目標となるリハビリテーションの場合に、操作部35から入力された情報に応じて、足用表示パラメータを設定する。目標画像が、対象者EPが歩行するときの回避目標となるリハビリテーションとは、例えば、図11に示すように、リハビリテーション支援制御装置300が、対象者EPが横断歩道を歩行するときに回避目標となる自動車の形状をした目標画像を映し出し、対象者EPが目標画像を回避するリハビリテーションである。 In addition to this, for example, in the case where the target image is the rehabilitation that is the avoidance target when the target person EP walks, the foot display parameter setting unit 347 responds to the foot input according to the information input from the operation unit 35. Set display parameters for. The rehabilitation in which the target image is the avoidance target when the subject EP walks is, for example, as shown in FIG. 11, the rehabilitation support control device 300 indicates the avoidance target when the subject EP walks the pedestrian crossing. This is a rehabilitation in which a target image in the shape of an automobile is displayed and the target person EP avoids the target image.

足用表示パラメータ設定部347が足用表示パラメータを設定すると、次に外乱用表示パラメータ設定部349は、足の外乱用表示パラメータを設定する(ステップS19)。例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、理学療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。外乱用表示パラメータ設定部349は、目標画像が、対象者EPが歩行するときの足の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300に入力された情報に応じて、外乱用表示パラメータを設定する。
外乱用表示パラメータは、例えば、図12で示したように、リハビリテーション支援制御装置300が、対象者EPが横断歩道を歩行するときに、リハビリテーションの対象者EPが足を所定の目標画像まで移動させる妨げとなる自動車の形状をした外乱を画像として映し出すために用いられるパラメータである。
When the foot display parameter setting unit 347 sets the foot display parameter, the disturbance display parameter setting unit 349 then sets the foot disturbance display parameter (step S19). For example, the rehabilitation support control device 300 executes a dedicated application, and a physical therapist or the like inputs various information to the rehabilitation support control device 300. The disturbance display parameter setting unit 349, according to the information input to the rehabilitation support control device 300, when the target image is rehabilitation that is a movement target of the foot when the subject EP walks, according to the information input to the disturbance display parameter. To set.
As the disturbance display parameter, for example, as shown in FIG. 12, when the rehabilitation support control device 300 causes the target EP to walk on a pedestrian crossing, the target rehabilitation target EP moves the foot to a predetermined target image. It is a parameter used to display an image of a disturbance in the shape of an automobile that becomes an obstacle.

足の外乱用表示パラメータには、例えば、外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどが含まれる。外乱用距離パラメータには、例えば、現在表示されている外乱から次のタイミングに表示される外乱までの距離を決定するために用いられるパラメータなどが含まれる。また、外乱用時間パラメータには、例えば、現在表示されている外乱が現在と異なる位置に表示されるまでの時間を示すパラメータなどが含まれる。また、外乱用ベクトルパラメータには、例えば、現在表示されている外乱を基準とした次のタイミングに表示される外乱の表示方向を決定するために用いられるパラメータが含まれる。外乱用表示パラメータ設定部349は、指定された外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。 The foot disturbance display parameter includes, for example, a disturbance distance parameter, a disturbance time parameter, and a disturbance vector parameter. The disturbance distance parameter includes, for example, a parameter used to determine the distance from the currently displayed disturbance to the disturbance displayed at the next timing. In addition, the disturbance time parameter includes, for example, a parameter indicating the time until the currently displayed disturbance is displayed at a position different from the current position. Further, the disturbance vector parameter includes, for example, a parameter used to determine the display direction of the disturbance displayed at the next timing with reference to the currently displayed disturbance. The disturbance display parameter setting unit 349 records the designated disturbance distance parameter, disturbance time parameter, disturbance vector parameter, and the like in the parameter information storage unit 334.

一方、動作領域がフロアFLではない場合(ステップS13;No)。動作領域判定部343は、検出対象部位を手(例えば、手の甲又は指先)に設定する(ステップS14)。動作領域判定部343は、検出対象部位の情報を認識部341へ出力する。また、動作領域判定部343は、動作領域を、表示制御部342へ出力する。動作領域判定部343が、検出対象部位を対象者EPの手に設定すると、次に手用表示パラメータ設定部348は、手用表示パラメータを設定する(ステップS15)。例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、作業療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。手用表示パラメータ設定部348は、目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300から入力された情報に応じて、手用表示パラメータを設定する。
目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションとは、例えば、図8に示すように、リハビリテーション支援制御装置300が、対象者EPが手を動かすときの手の移動目標となるリンゴの形状をした目標画像を映し出し、対象者EPが目標画像の位置に手を移動させるリハビリテーションである。
On the other hand, when the operation area is not the floor FL (step S13; No). The motion area determination unit 343 sets the detection target part to the hand (for example, the back of the hand or the fingertip) (step S14). The operation area determination unit 343 outputs the information of the detection target part to the recognition unit 341. Further, the motion area determination unit 343 outputs the motion area to the display control unit 342. When the operation area determination unit 343 sets the detection target part in the hand of the target person EP, the hand display parameter setting unit 348 then sets the hand display parameter (step S15). For example, the rehabilitation support control device 300 executes a dedicated application, and an occupational therapist or the like inputs various information to the rehabilitation support control device 300. The hand display parameter setting unit 348 displays the hand display according to the information input from the rehabilitation support control device 300 when the target image is the rehabilitation that is the movement target of the hand when the subject EP moves the hand. Set the parameters.
The rehabilitation in which the target image is the movement target of the hand when the target person EP moves the hand is, for example, as shown in FIG. 8, the rehabilitation support control device 300 indicates that the hand when the target person EP moves the hand. This is a rehabilitation in which a target image in the shape of an apple that is a moving target is displayed, and the subject EP moves his hand to the position of the target image.

手用表示パラメータには、例えば、手用位置パラメータ、手用時間パラメータ、手用ベクトルパラメータなどが含まれる。手用位置パラメータには、例えば、目標画像が表示されるエリアを決定するために用いられるパラメータなどが含まれる。手用時間パラメータには、現在表示されている目標画像が現在と異なる位置に表示されるまでの時間を示す時間パラメータなどが含まれる。手用ベクトルパラメータには、現在表示されている目標画像を基準とした次のタイミングに表示される目標画像の表示方向を決定するために用いられるパラメータなどが含まれる。手用表示パラメータ設定部348は、指定された手用距離パラメータ、手用時間パラメータ、手用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。これらのパラメータを設定することにより、例えば、図4に例示したような目標画像を、対象者EPのリハビリテーションの内容に応じて表示することができる。 The hand display parameters include, for example, a hand position parameter, a hand time parameter, and a hand vector parameter. The hand position parameter includes, for example, a parameter used to determine the area in which the target image is displayed. The manual time parameter includes a time parameter indicating the time until the currently displayed target image is displayed at a position different from the current position. The hand vector parameters include parameters used for determining the display direction of the target image displayed at the next timing with reference to the currently displayed target image. The manual display parameter setting unit 348 records the specified manual distance parameter, manual time parameter, manual vector parameter, and the like in the parameter information storage unit 334. By setting these parameters, for example, the target image as illustrated in FIG. 4 can be displayed according to the content of the rehabilitation of the subject EP.

手用表示パラメータ設定部348が手用表示パラメータを設定すると、外乱用表示パラメータ設定部349は、手の外乱用表示パラメータを設定する(ステップS16)。
例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、作業療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。外乱用表示パラメータ設定部349は、目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300に入力された情報に応じて、外乱用表示パラメータを設定する。
手の外乱用表示パラメータは、例えば、図9に示すように、リハビリテーション支援制御装置300が、対象者EPが選択したキャラクターである目標画像の位置に手を動かすときに、手の移動の妨げとなる選択してはいけないキャラクターである外乱を画像として映し出すために用いられるパラメータである。
When the hand display parameter setting unit 348 sets the hand display parameter, the disturbance display parameter setting unit 349 sets the hand disturbance display parameter (step S16).
For example, the rehabilitation support control device 300 executes a dedicated application, and an occupational therapist or the like inputs various information to the rehabilitation support control device 300. The disturbance display parameter setting unit 349 displays the disturbance display according to the information input to the rehabilitation support control device 300 in the case where the target image is rehabilitation that is a movement target of the hand when the subject EP moves the hand. Set the parameters.
For example, as shown in FIG. 9, the display parameter for disturbance of the hand indicates that when the rehabilitation support control device 300 moves the hand to the position of the target image which is the character selected by the target person EP, it indicates the movement of the hand. It is a parameter used to display a disturbance that is a character that must not be selected as an image.

手の外乱用表示パラメータには、例えば、外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどが含まれる。外乱用距離パラメータには、例えば、現在表示されている外乱から次のタイミングに表示される外乱までの距離を決定するために用いられるパラメータなどが含まれる。また、外乱用時間パラメータには、例えば、現在表示されている外乱が現在と異なる位置に表示されるまでの時間を示すパラメータなどが含まれる。また、外乱用ベクトルパラメータには、例えば、現在表示されている外乱を基準とした次のタイミングに表示される外乱の表示方向を決定するために用いられるパラメータが含まれる。外乱用表示パラメータ設定部349は、指定された外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。以上で実際のリハビリテーションの準備処理が完了する。次に対象者EPが、準備処理において判定した動作領域でのリハビリテーションを開始する。 The disturbance display parameter of the hand includes, for example, a disturbance distance parameter, a disturbance time parameter, and a disturbance vector parameter. The disturbance distance parameter includes, for example, a parameter used to determine the distance from the currently displayed disturbance to the disturbance displayed at the next timing. In addition, the disturbance time parameter includes, for example, a parameter indicating the time until the currently displayed disturbance is displayed at a position different from the current position. Further, the disturbance vector parameter includes, for example, a parameter used to determine the display direction of the disturbance displayed at the next timing with reference to the currently displayed disturbance. The disturbance display parameter setting unit 349 records the designated disturbance distance parameter, disturbance time parameter, disturbance vector parameter, and the like in the parameter information storage unit 334. This completes the actual rehabilitation preparation process. Next, the subject EP starts rehabilitation in the operation area determined in the preparation process.

次に図13を用いて、リハビリテーション中の対象者EPの認識処理について説明する。
図13は、リハビリテーション支援制御装置300による対象者EPの認識処理の一例を示すフローチャートである。
リハビリテーションを行う対象者EPが検出範囲800に入ってリハビリテーションを開始する。また、理学療法士等は、対象者EPの氏名、性別、身長等と共に、リハビリーション開始指示情報をリハビリテーション支援制御装置300に入力する。すると、操作部35がリハビリテーション開始指示情報を取得する(ステップS20)。次に、表示制御部342は、動作領域に応じた目標画像を生成する。例えば、動作領域がフロアFLの場合、表示制御部342は、足型を表示した目標画像を生成する。また、目標決定部345は、その目標画像を表示する位置の座標情報を計算する。目標画像を表示する位置は、ステップS18で設定した足用表示パラメータに応じて変化させてもよい。また、動作領域がテーブルの場合、表示制御部342は、対象者EPが手でタッチする対象となるターゲットを表示した目標画像を生成する。また、目標決定部345は、その表示位置の座標情報を計算する。出力部32は、これらの情報(目標画像と表示位置)を取得し、出力装置200に出力指示を行う。出力装置200は、出力部32の指示に従って、表示制御部342が生成した目標画像を出力領域900に表示する(ステップS21)。このように、出力装置200が動作領域に目標画像を表示すると、対象者EPは、その表示位置に検出対象部位に関連する体の部位を移動させる動作を行う。例えば、足型の目標画像が表示された場合、対象者EPは、足型が表示された位置に足を移動させる。また、例えば、テーブル上にターゲットの目標画像が表示された場合、対象者EPは、目標画像が表示された位置に手を移動させ、テーブルにタッチする。
センサ100は、対象者EPの動作を検出し続け、リハビリテーション支援制御装置300へ出力する。リハビリテーション支援制御装置300では、入力部31が検出結果情報を取得し(ステップS22)、検出結果情報を、制御部34へ出力する。
Next, the recognition process of the target person EP during the rehabilitation will be described with reference to FIG.
FIG. 13 is a flowchart showing an example of the recognition process of the target person EP by the rehabilitation support control device 300.
The target person EP who performs rehabilitation enters the detection range 800 and starts rehabilitation. Also, the physical therapist or the like inputs the rehabilitation start instruction information into the rehabilitation support control device 300 together with the name, sex, height, etc. of the target person EP. Then, the operation unit 35 acquires the rehabilitation start instruction information (step S20). Next, the display control unit 342 generates a target image according to the operation area. For example, when the operation area is the floor FL, the display control unit 342 generates a target image displaying a foot pattern. Further, the target determination unit 345 calculates coordinate information of the position where the target image is displayed. The position at which the target image is displayed may be changed according to the foot display parameter set in step S18. Further, when the operation area is a table, the display control unit 342 generates a target image displaying a target to be touched by the subject EP. The target determination unit 345 also calculates the coordinate information of the display position. The output unit 32 acquires these pieces of information (target image and display position) and gives an output instruction to the output device 200. The output device 200 displays the target image generated by the display control unit 342 in the output area 900 according to the instruction from the output unit 32 (step S21). In this way, when the output device 200 displays the target image in the operation area, the target person EP performs an operation of moving the body part related to the detection target part to the display position. For example, when the target image of the foot shape is displayed, the subject EP moves the foot to the position where the foot shape is displayed. Further, for example, when the target image of the target is displayed on the table, the target person EP moves the hand to the position where the target image is displayed and touches the table.
The sensor 100 continues to detect the motion of the subject EP and outputs the motion to the rehabilitation support control device 300. In the rehabilitation support control device 300, the input unit 31 acquires the detection result information (step S22) and outputs the detection result information to the control unit 34.

制御部34では、認識部341が検出結果情報を取得する。認識部341は、検出結果情報を取得すると、その中から検出対象部位のデータを選択する。例えば、Kinect(登録商標)を利用した場合、認識部341は、検出結果情報として、対象者EPの複数の部位についての位置情報を取得する。認識部341は、その中から、動作領域判定部343が決定した検出対象部位の位置情報を選択する。例えば、動作領域判定部343が決定した検出対象部位が足(動作領域がフロア)の場合、認識部341は、検出結果情報の中から足(例えば、足首)の位置情報を選択する。また、例えば、動作領域判定部343が決定した検出対象部位が手(動作領域がテーブル)の場合、認識部341は、検出結果情報の中から手(例えば、手の甲)の位置情報を選択する。認識部341は、選択した検出対象部位とその位置情報を記録部344へ出力する。記録部344は、検出対象部位の検出結果情報を検出履歴情報記憶部333へ記録する(ステップS23)。このように、認識部341は、検出結果情報に対象者EPの動作に関する全身のデータが含まれている場合でも、検出結果情報に含まれるデータのうち、どのデータが動作領域に関連する検出対象部位のデータであるかを認識し、そのデータを選択する。そして、記録部344は、選択された検出対象部位の検出結果情報(位置情報)だけを記録する。 In the control unit 34, the recognition unit 341 acquires the detection result information. When the recognition unit 341 acquires the detection result information, the recognition unit 341 selects the data of the detection target portion from the information. For example, when Kinect (registered trademark) is used, the recognition unit 341 acquires position information regarding a plurality of parts of the subject EP as the detection result information. The recognizing unit 341 selects the position information of the detection target site determined by the motion region determining unit 343 from among them. For example, when the detection target part determined by the motion area determination unit 343 is the foot (the motion area is the floor), the recognition unit 341 selects the position information of the foot (eg, ankle) from the detection result information. Further, for example, when the detection target part determined by the motion area determination unit 343 is a hand (the motion area is a table), the recognition unit 341 selects the position information of the hand (for example, the back of the hand) from the detection result information. The recognition unit 341 outputs the selected detection target site and its position information to the recording unit 344. The recording unit 344 records the detection result information of the detection target part in the detection history information storage unit 333 (step S23). Thus, even if the detection result information includes whole-body data regarding the motion of the target person EP, the recognition unit 341 detects which data, out of the data included in the detection result information, is the detection target related to the motion region. Recognize whether it is the data of the part and select the data. Then, the recording unit 344 records only the detection result information (position information) of the selected detection target part.

次に、表示制御部342は、履歴画像を生成し出力部32へ出力する。出力装置200は、出力部32の指示に従って、履歴画像を出力領域900に表示する(ステップS24)。
次に、制御部34は、検出処理を終了するかどうかを判定する(ステップS25)。例えば、理学療法士等がリハビリテーション終了指示情報を入力した場合、制御部34は、操作部35を介してその情報を取得し、検出処理を終了すると判定する。また、対象者EPが検出範囲800の外に出てしまった場合や対象者EPの手が検出範囲800の外に出てしまった場合、あるいは、予め設定されたリハビリテーションの実施時間が経過した場合にも、制御部34は、検出処理を終了すると判定する。
終了しないと判定した場合(ステップS25;No)、ステップS21からの処理を繰り返す。
終了すると判定した場合(ステップS25;Yes)、制御部34は、目標画像の生成処理や検出対象部位のデータを記録する処理を終了する。なお、表示制御部342は、検出履歴情報記憶部333に記録された対象者EPの検出対象部位のデータ(検出対象情報)から、今回のリハビリテーションにおける対象者EPの動作結果(例えば、検出対象部位が動いた軌跡)を表示する画像を生成し、出力装置200がこの画像を表示してもよい。
Next, the display control unit 342 generates a history image and outputs it to the output unit 32. The output device 200 displays the history image in the output area 900 according to the instruction from the output unit 32 (step S24).
Next, the control unit 34 determines whether to end the detection process (step S25). For example, when a physical therapist or the like inputs the rehabilitation end instruction information, the control unit 34 acquires the information via the operation unit 35 and determines to end the detection process. In addition, when the target person EP goes out of the detection range 800, the hand of the target person EP goes out of the detection range 800, or when a preset rehabilitation implementation time has elapsed Moreover, the control unit 34 determines to end the detection process.
When it is determined that the processing is not completed (step S25; No), the processing from step S21 is repeated.
When it is determined that the processing is to be ended (step S25; Yes), the control unit 34 ends the processing of generating the target image and the processing of recording the data of the detection target part. The display control unit 342 uses the data (detection target information) of the detection target part of the target person EP recorded in the detection history information storage unit 333 to determine the operation result of the target person EP in the current rehabilitation (for example, the detection target part). The output device 200 may display this image by generating an image that displays the moving path).

次に図14を用いて、リハビリテーション中にパラメータ設定を行う処理について説明する。
図14は、リハビリテーション支援システム1を用いたリハビリテーションにおけるパラメータ設定の一例を示すフローチャートである。
まず、リハビリテーションの実施前に理学療法士等が、対象者EPについてのパラメータ(足用表示パラメータ等)を設定する(ステップS30)。具体的には、理学療法士等が、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照して、各種パラメータをリハビリテーション支援制御装置300に入力する。次に理学療法士等が、リハビリテーション支援制御装置300に準備開始指示情報を入力し、リハビリテーションを実施する(ステップS31)。上記のとおり、リハビリテーション支援制御装置300の動作領域判定部343は、動作領域を判定して検出対象部位の設定を行う。動作領域がフロアFLの場合、足用表示パラメータ設定部347が、ステップS30で入力された足用表示パラメータの設定を行う。また、外乱用表示パラメータ設定部349が、ステップS30で入力された足の外乱用表示パラメータの設定を行う。一方、動作領域がテーブルTの場合、手用表示パラメータ設定部348が、ステップS30で入力された手用表示パラメータを設定し、外乱用表示パラメータ設定部349が、ステップS30で入力された手の外乱用表示パラメータの設定を行う。足用表示パラメータ設定部347等によるパラメータの設定が終了すると、表示制御部342が、動作領域に応じて目標画像等を生成し、出力装置200がそれらの画像を表示する。対象者EPは、表示された目標画像に基づいてリハビリテーションを行う。予め定められた一連のリハビリテーション・プログラムが終了すると、表示制御部342が、リハビリテーション結果を含む画像を生成し、出力装置200がリハビリテーション結果を表示する(ステップS32)。リハビリテーション結果とは、例えば、評価部346によるリハビリテーション・プログラムを通した評価結果の実績値である。リハビリテーション結果は、例えば、目標画像の全表示数に対して評価部346が目標位置到達と評価した回数の割合として表示されてもよい。
Next, a process of setting parameters during rehabilitation will be described with reference to FIG.
FIG. 14 is a flowchart showing an example of parameter setting in rehabilitation using the rehabilitation support system 1.
First, before performing rehabilitation, a physical therapist or the like sets parameters (foot display parameters and the like) for the subject EP (step S30). Specifically, a physical therapist or the like refers to the display screen (display unit 36) provided on the rehabilitation support control device 300 and inputs various parameters to the rehabilitation support control device 300. Next, the physical therapist or the like inputs the preparation start instruction information to the rehabilitation support control device 300 to carry out the rehabilitation (step S31). As described above, the motion area determination unit 343 of the rehabilitation support control device 300 determines the motion area and sets the detection target part. When the operation area is the floor FL, the foot display parameter setting unit 347 sets the foot display parameter input in step S30. Further, the disturbance display parameter setting unit 349 sets the foot disturbance display parameter input in step S30. On the other hand, when the operation area is the table T, the hand display parameter setting unit 348 sets the hand display parameter input in step S30, and the disturbance display parameter setting unit 349 causes the hand input parameter setting unit 349 to input the hand input in step S30. Set display parameters for disturbance. When the parameter setting by the foot display parameter setting unit 347 or the like is completed, the display control unit 342 generates a target image or the like according to the operation area, and the output device 200 displays the images. The target person EP performs rehabilitation based on the displayed target image. When a predetermined series of rehabilitation programs ends, the display control unit 342 generates an image including the rehabilitation result, and the output device 200 displays the rehabilitation result (step S32). The rehabilitation result is, for example, the actual value of the evaluation result through the rehabilitation program by the evaluation unit 346. The rehabilitation result may be displayed, for example, as a ratio of the number of times that the evaluation unit 346 has evaluated that the target position has been reached, with respect to the total number of displayed target images.

次に理学療法士等が、リハビリを続けるかどうかを判断する。例えば、理学療法士等は、予め定められた時間分だけリハビリテーションを行ったかどうかでリハビリテーションを続けるかどうかを判断してもよい。あるいは、理学療法士等は、対象者EPの疲れ具合やリハビリテーション結果が示す達成具合に基づいてリハビリテーションを続けるかどうかを判断してもよい。リハビリテーションを続けないと判断した場合(ステップS33;No)、フローチャートを終了する。 Next, a physiotherapist determines whether to continue rehabilitation. For example, a physical therapist or the like may determine whether or not to continue rehabilitation depending on whether or not rehabilitation has been performed for a predetermined time. Alternatively, the physical therapist or the like may determine whether to continue the rehabilitation based on the degree of fatigue of the subject EP and the degree of achievement indicated by the rehabilitation result. When it is determined that the rehabilitation is not continued (step S33; No), the flowchart is ended.

リハビリテーションを続けると判断した場合(ステップS33;Yes)、理学療法士等は、パラメータ設定の見直しが必要かどうかを判断する(ステップS34)。例えば、対象者EPのリハビリテーション結果が予想を上回る場合、理学療法士等は、より難易度の高い動作を要求するようなパラメータ設定にするよう見直しが必要であると判断する。又は、対象者EPの手の移動や足の移動が予想通りであって、再度、同じ難易度の手や足の移動を訓練した方が良いと思われるような場合、理学療法士等は、パラメータ設定の見直しは必要ないと判断する。パラメータ設定の見直しが必要ないと判断した場合(ステップS34;No)、理学療法士等は、リハビリテーション支援制御装置300に開始指示情報を入力し、ステップS31からの処理を繰り返す。なお、同じ対象者EPに対して同じ動作領域でのリハビリテーションの実施を繰り返す場合、動作領域判定部343による動作領域の判定処理を省略してもよい。
パラメータ設定の見直しが必要と判断した場合(ステップS34;Yes)、理学療法士等は、新しいパラメータを検討する(ステップS35)。例えば、今回のリハビリテーション結果が良好だった場合、理学療法士等は、より難易度の高い動作を要求するようなパラメータを検討する。あるいは、今回のリハビリテーション結果が良好ではなかった場合、理学療法士等は、難易度の低い動作を要求するようなパラメータを検討する。パラメータを検討し終えると、理学療法士等は、その新しいパラメータを設定し(ステップS30)、ステップS31からの処理を繰り返す。本実施形態のリハビリテーション支援システム1によれば、パラメータを任意に設定することができるので、対象者EPは、体調や能力に応じたリハビリテーションを実施することができる。なお上記の説明においては、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照してパラメータ入力・設定を実行したが、出力装置200から出力されたパラメータ設定画面を参照して、フロアやテーブル上に表示された設定画面上で各種パラメータ入力・設定を実行してもよい。
When it is determined that the rehabilitation is to be continued (step S33; Yes), the physical therapist or the like determines whether the parameter setting needs to be reviewed (step S34). For example, when the rehabilitation result of the subject EP is higher than expected, the physical therapist or the like determines that it is necessary to review the parameter setting so as to request a more difficult operation. Alternatively, if the movement of the hand or foot of the subject EP is as expected and it seems that it is better to train the movement of the hand or foot of the same difficulty level again, the physiotherapist, etc. It is judged that it is not necessary to review the parameter settings. When it is determined that the parameter setting need not be reviewed (step S34; No), the physical therapist or the like inputs the start instruction information to the rehabilitation support control device 300 and repeats the processing from step S31. In addition, when the rehabilitation of the same target person EP is repeatedly performed in the same motion region, the motion region determination processing by the motion region determination unit 343 may be omitted.
When it is determined that the parameter settings need to be reviewed (step S34; Yes), the physical therapist or the like considers new parameters (step S35). For example, if the result of the rehabilitation is good this time, the physical therapist or the like considers a parameter that requires a more difficult motion. Alternatively, if the result of this rehabilitation is not good, the physical therapist or the like considers parameters that require a less difficult motion. When the parameters have been examined, the physical therapist or the like sets the new parameters (step S30) and repeats the processing from step S31. According to the rehabilitation support system 1 of the present embodiment, the parameters can be arbitrarily set, and thus the subject EP can carry out rehabilitation according to the physical condition and ability. In the above description, the parameter input/setting is performed by referring to the display screen (display unit 36) provided in the rehabilitation support control device 300. However, referring to the parameter setting screen output from the output device 200 Various parameter inputs/settings may be executed on the setting screen displayed on the floor or table.

本実施形態によれば、理学療法士が行うフロアFLでのリハビリテーション及び作業療法士が行うテーブルTでのリハビリテーションにおける対象者EPの動作情報(本実施形態の検出対象情報)の記録を、1台のリハビリテーション支援システム1で行うことができる。例えば、歩行動作のリハビリテーションを行う場所と手の移動のリハビリテーションを行うテーブルTとが離れた位置に存在しても、リハビリテーション支援システム1を移動させて、それぞれの位置で対象者EPの動作を検出し、動作情報を記録することができる。また、手の移動のリハビリテーションを、歩行動作のリハビリテーションを行う場所にテーブルTを設置して行うような場合、リハビリテーションの前に動作領域判定部343に動作領域を判定させるだけで、歩行動作のリハビリテーションを検出するモードと手の移動のリハビリテーションを検出するモードとを切り替えることができる。従って、リハビリテーションの種類ごとにリハビリテーション支援制御装置を導入する必要が無い。また、複数のリハビリテーション支援制御装置を導入した場合、各装置が出力する対象者EPに関するデータのデータ構造は異なることが一般的である。データ構造が異なると、例えば、ある対象者EPのリハビリテーション履歴を解析するような場合、データの扱いが複雑になり大変である。本実施形態では、対象者EPに関して記録するデータは、両手又は両足の一つの部位の位置情報であり、共通のデータ構造で記録、処理することができる。そのため、記録したデータの解析処理等を共通化することができ、データの扱いが容易になる。また、対象者EPがどのような動作をしようとも、リハビリテーションの目的とする動作に関連した部位の左右一対のデータに絞って認識処理及び記録処理を行うので、処理を高速化、簡素化することができる。また、一般的なモーションキャプチャでは、対象者EPの動作を検出するために、対象者EPはマーカを装着する必要があり手間がかかるといった問題があるが、本実施形態のリハビリテーション支援システム1であれば、対象者EPはマーカを装着する必要が無く、簡単に対象者EPの動作を検出することができる。 According to the present embodiment, one record of the motion information (detection target information of the present embodiment) of the target person EP in the rehabilitation on the floor FL performed by the physical therapist and the rehabilitation on the table T performed by the occupational therapist is recorded. The rehabilitation support system 1 can be used. For example, even if the place where the rehabilitation of the walking motion is performed and the table T that performs the rehabilitation of the movement of the hand are located apart from each other, the rehabilitation support system 1 is moved to detect the motion of the subject EP at each position. However, the operation information can be recorded. Further, in the case where the rehabilitation of the movement of the hand is performed by installing the table T at a place where the rehabilitation of the walking motion is performed, the motion region determination unit 343 may only determine the motion region before the rehabilitation, and the rehabilitation of the walking motion It is possible to switch between the detection mode and the hand movement rehabilitation detection mode. Therefore, it is not necessary to introduce a rehabilitation support control device for each type of rehabilitation. In addition, when a plurality of rehabilitation support control devices are introduced, it is general that the data structures of the data regarding the target person EP output by the devices are different. If the data structure is different, for example, when the rehabilitation history of a certain subject EP is analyzed, the handling of the data becomes complicated, which is difficult. In the present embodiment, the data to be recorded regarding the subject EP is position information of one part of both hands or both feet and can be recorded and processed with a common data structure. Therefore, the analysis processing of the recorded data can be shared, and the data can be easily handled. Further, no matter what action the target person EP does, since the recognition process and the recording process are focused on a pair of left and right data of the part related to the target action of rehabilitation, the process can be speeded up and simplified. You can In addition, in general motion capture, there is a problem that the target person EP needs to wear a marker to detect the motion of the target person EP, which is troublesome, but the rehabilitation support system 1 of the present embodiment does not. For example, the target person EP does not need to wear a marker, and the motion of the target person EP can be easily detected.

なお、表示制御部342が、対象者EPの体の一部の高さを出力装置200に表示させるようにしてもよい。この点について図15を参照して説明する。
図15は、リハビリテーション支援システム1が、対象者EPの体の一部の高さを表示した例を示す図である。図15は、机上で手の移動に関するリハビリテーションが行われる場合の例を示している。出力装置200は表示制御部342の制御に従って、対象者EPの右手の現在の位置を示す画像M311aと、左手の現在の位置を示す画像M311bと、右手の目標位置を示す画像M321aとを机上の投影面(出力領域900)に表示(投影)している。
The display control unit 342 may display the height of a part of the body of the subject EP on the output device 200. This point will be described with reference to FIG.
FIG. 15 is a diagram showing an example in which the rehabilitation support system 1 displays the height of a part of the body of the subject EP. FIG. 15 shows an example of a case where rehabilitation regarding movement of a hand is performed on a desk. Under the control of the display control unit 342, the output device 200 displays an image M311a showing the current position of the right hand of the subject EP, an image M311b showing the current position of the left hand, and an image M321a showing the target position of the right hand on the desk. It is displayed (projected) on the projection surface (output area 900).

出力装置200は、例えば、右手の現在の位置を示す画像M311aを赤丸(赤い円)で表示し、左手の現在の位置を示す画像M311bを青丸(青い円)で表示する。例えば、出力装置200は表示制御部342の制御に従って、センサ100が2つ認識した対象者EPの体の一部のうちセンサ100から見て左側の一部の位置を青丸で表示し、右側の部位の位置を赤丸で表示する。 The output device 200 displays, for example, an image M311a indicating the current position of the right hand as a red circle (red circle) and an image M311b indicating the current position of the left hand as a blue circle (blue circle). For example, according to the control of the display control unit 342, the output device 200 displays a part of the body part of the target person EP recognized by the two sensors 100 on the left side as viewed from the sensor 100 with a blue circle and on the right side. The position of the part of is displayed with a red circle.

また、出力装置200は表示制御部342の制御に従って、手の高さを丸の大きさで表示する。図15の例では、対象者EPが左手を机上面に置いているのに対し、右手を机上面よりも上に上げている。そこで、出力装置200は、右手の位置を示す画像M311aを、左手の位置を示す画像M311bよりも小さい丸で表示している。このように、出力装置200は、対象者EPの手の位置が高いほど小さい丸を表示している。 Further, the output device 200 displays the height of the hand in the size of a circle under the control of the display control unit 342. In the example of FIG. 15, the subject EP has his left hand placed on the desk surface, while his right hand is raised above the desk surface. Therefore, the output device 200 displays the image M311a indicating the position of the right hand as a circle smaller than the image M311b indicating the position of the left hand. In this way, the output device 200 displays a smaller circle as the hand position of the target person EP is higher.

出力装置200は、対象者EPの手の目標位置についても、その高さを丸の大きさで表示する。図15の例では、出力装置200は、右手の目標位置を示す画像M321aを、右手の現在の位置を示す画像M311aよりもやや大きい丸で表示している。
対象者EPは、画像M311aを移動させて画像M321aに重ねるように、右手の水平方向の位置を変化させる。また、対象者EPは、画像M311aの大きさを画像M321aの大きさに合せるように、右手の垂直方向の位置を変化させる。
このように、図15の例では、手の水平方向の動きだけでなく垂直方向の動きも含めたリハビリテーションが行われている。
The output device 200 also displays the height of the target position of the hand of the subject EP as a circle. In the example of FIG. 15, the output device 200 displays the image M321a indicating the target position of the right hand as a circle slightly larger than the image M311a indicating the current position of the right hand.
The target person EP changes the horizontal position of the right hand so as to move the image M311a and superimpose it on the image M321a. Further, the subject EP changes the vertical position of the right hand so that the size of the image M311a matches the size of the image M321a.
As described above, in the example of FIG. 15, rehabilitation including not only the horizontal movement of the hand but also the vertical movement of the hand is performed.

図15では、表示制御部342が、対象者EPの手の高さを出力装置200に表示させる場合を例に説明した。同様に、表示制御部342が、対象者EPの足の高さを出力装置200に表示させるようにしてもよい。例えば、歩行のリハビリテーションで、足を上げるリハビリテーションを行う場合がある。このリハビリテーションで、表示制御部342が、対象者EPの足の目標位置の表示及び現在位置の表示にて、図15の例と同様に足の高さを示すようにしてもよい。 In FIG. 15, the case where the display control unit 342 displays the height of the hand of the subject EP on the output device 200 has been described as an example. Similarly, the display control unit 342 may display the height of the foot of the subject EP on the output device 200. For example, rehabilitation of walking may involve rehabilitation of raising a foot. In this rehabilitation, the display control unit 342 may indicate the height of the foot in the display of the target position and the current position of the foot of the subject EP, as in the example of FIG. 15.

なお、表示制御部342が、出力装置200に画像を表示させる位置は、対象者EPの体の一部の位置に応じた位置に限らない。
例えば、上述した図12では、外乱として登場する自動車の画像を避けながら目標画像(目標位置を示す画像)に従って歩行するリハビリテーションの例を示している。図12の例では、出力装置200は、例えば、予め定められたタイミングで予め定められた位置に自動車の画像を表示するなど、対象者EPの体の一部の位置(図12の例では足の位置)に依存しない位置に自動車の画像を表示する。
The position at which the display control unit 342 displays the image on the output device 200 is not limited to the position corresponding to the position of the part of the body of the subject EP.
For example, FIG. 12 described above shows an example of rehabilitation in which a person walks according to a target image (image showing a target position) while avoiding an image of a car that appears as a disturbance. In the example of FIG. 12, the output device 200 displays, for example, an image of a vehicle at a predetermined position at a predetermined timing, such as a position of a part of the body of the subject EP (foot in the example of FIG. 12). The image of the car is displayed at a position that does not depend on the position.

一方、ターゲットの位置は、対象者EPの足の位置に依存していてもよいし、依存していなくてもよい。例えば、出力装置200が、予め定められた位置にターゲットの画像を表示するようにしてもよい。あるいは、上記のように目標決定部345が、対象者EPの足の位置に応じて次の目標位置を決定し、出力装置200が、決定された位置にターゲットの画像を表示するようにしてもよい。 On the other hand, the position of the target may or may not depend on the position of the foot of the subject EP. For example, the output device 200 may display the target image at a predetermined position. Alternatively, as described above, the target determining unit 345 determines the next target position according to the position of the foot of the target person EP, and the output device 200 displays the target image at the determined position. Good.

図12の例で、出力装置200が、予め定められた位置にターゲットの画像を表示する場合は、対象者EPの体の一部に依存しない位置に画像を表示する場合の例に該当する。また、図12の例で、出力装置200が、目標決定部345が対象者EPの足の位置に応じて決定した目標位置にターゲットの画像を表示する場合は、対象者EPの体の一部に依存しない位置への画像の表示と、対象者EPの体の一部に依存する位置への画像の表示との組み合わせの例に該当する。 In the example of FIG. 12, the case where the output device 200 displays the image of the target at a predetermined position corresponds to the case where the image is displayed at a position that does not depend on a part of the body of the subject EP. Further, in the example of FIG. 12, when the output device 200 displays the image of the target at the target position determined by the target determining unit 345 according to the position of the foot of the target person EP, a part of the body of the target person EP is displayed. This corresponds to an example of a combination of displaying an image at a position that does not depend on the position and displaying an image at a position that depends on a part of the body of the subject EP.

なお、図3の例のように、表示制御部342が、出力装置200を制御して評価部346による評価結果を表示させるようにしてもよい。図3は、対象者EPが目標位置に右手を合わせた(目標位置を叩いた)場合の例を示している。出力装置200は、表示制御部342の制御に従って「OK」との評価結果を目標位置に表示している。この「OK」の評価結果は、対象者EPの右手が目標位置に到達したことを示す。 Note that, as in the example of FIG. 3, the display control unit 342 may control the output device 200 to display the evaluation result by the evaluation unit 346. FIG. 3 shows an example of a case where the target person EP puts his right hand on the target position (striking the target position). The output device 200 displays the evaluation result of “OK” at the target position under the control of the display control unit 342. The evaluation result of “OK” indicates that the right hand of the target person EP has reached the target position.

出力装置200が、評価部346による評価結果を目標位置に表示するようにしてもよいし、対象者EPの体の一部の現在の位置(図3の例では右手の位置)に表示するようにしてもよい。あるいは、出力装置200が、目標位置、及び、対象者EPの体の一部の現在の位置の両方に、評価部346による評価結果を表示するようにしてもよい。
あるいは、出力装置200が、例えば予め定められた位置に評価部346による評価結果を表示するなど、目標位置、対象者EPの体の一部の現在の位置のいずれとも異なる位置に、評価部346による評価結果を表示するようにしてもよい。
The output device 200 may display the evaluation result by the evaluation unit 346 at the target position, or may display the evaluation result at a current position of a part of the body of the subject EP (right hand position in the example of FIG. 3). You can Alternatively, the output device 200 may display the evaluation result by the evaluation unit 346 at both the target position and the current position of the part of the body of the subject EP.
Alternatively, the output device 200 displays the evaluation result by the evaluation unit 346 at a predetermined position, for example, and the evaluation unit 346 is located at a position different from both the target position and the current position of the part of the body of the subject EP. You may make it display the evaluation result by.

以上のように、入力部31は、対象者EPを検出した結果を示す検出結果情報を取得する。認識部341は、検出結果情報のうち、動作領域に対応する対象者EPの体の一部に関する検出結果情報に基づいて、対象者EPの体の一部の位置を認識する。表示制御部342は、動作領域に画像を表示する出力装置200を制御して、対象者EPの体の一部の位置に応じた位置に画像を表示させる。
このように、表示制御部342が、出力装置200を制御して動作領域に画像を表示させることで、対象者EPが、画像の位置を実際の位置に対応付ける必要無しに、画像が示す位置を把握することができる。この点で、対象者EPは、より直感的に位置を把握できる。
また、表示制御部342が、出力装置200を制御して動作領域に画像を表示させることで、対象者EPが、対象者EP自らのリハビリテーションに関する画像であると認識する可能性を高めることができる。
例えば、リハビリテーション支援システム1を用いたリハビリテーションでは、対象者EPの手又は足などの部位の実際の位置、又は、対象者EPが過去に手又は足などの部位を移動させた実際の目標位置に、対象者EPの動作に対する評価を表示することができる。これにより、対象者EPが、対象者EP自らの動作に対する評価であると認識する可能性を高めることができる。
As described above, the input unit 31 acquires the detection result information indicating the result of detecting the target person EP. The recognition unit 341 recognizes the position of the part of the body of the target person EP based on the detection result information regarding the part of the body of the target person EP corresponding to the operation region among the detection result information. The display control unit 342 controls the output device 200 that displays an image in the operation area to display the image at a position corresponding to the position of a part of the body of the subject EP.
In this way, the display control unit 342 controls the output device 200 to display the image in the operation region, so that the target person EP can display the position indicated by the image without having to associate the position of the image with the actual position. You can figure it out. In this respect, the subject EP can grasp the position more intuitively.
In addition, the display control unit 342 controls the output device 200 to display the image in the operation area, so that it is possible to increase the possibility that the subject EP recognizes that the subject EP is an image regarding rehabilitation of the subject EP itself. ..
For example, in rehabilitation using the rehabilitation support system 1, an actual position of a part such as a hand or a foot of the subject EP, or an actual target position where the target EP has moved a part such as a hand or a foot in the past. , The evaluation of the motion of the subject EP can be displayed. Accordingly, it is possible to increase the possibility that the subject EP recognizes that the subject EP is an evaluation of the action of the subject EP.

また、表示制御部342は、対象者EPの体の一部の現在の位置を示す画像を出力装置200に表示させる。
このように、表示制御部342が、出力装置200を制御して対象者EPの体の一部の現在の位置を表示させることで、対象者EPは、対象者EP自らの体の一部の位置と、出力装置200による表示(出力領域900)とが対応付けられていることを理解し易くなる。これにより、対象者EPが、対象者EP自らの体の一部の位置と、目標位置との位置関係を把握し易くなる。対象者EPは、この位置関係を把握することで、リハビリテーションのための動作(対象者EP自らの体の一部を目標位置へ移動させる動作)を行えることができる。
The display control unit 342 also causes the output device 200 to display an image indicating the current position of a part of the body of the subject EP.
In this way, the display control unit 342 controls the output device 200 to display the current position of the part of the body of the target person EP, so that the target person EP can display the part of the target person EP's own body. It becomes easy to understand that the position and the display by the output device 200 (the output area 900) are associated with each other. This makes it easy for the target person EP to grasp the positional relationship between the position of a part of the body of the target person EP itself and the target position. By grasping this positional relationship, the target person EP can perform an operation for rehabilitation (an operation of moving a part of the body of the target person EP to the target position).

また、表示制御部342は、対象者EPの体の一部の位置の履歴を示す画像を出力装置200に表示させる。
このように、表示制御部342が、出力装置200を制御して対象者EPの体の一部が実際にあった位置に履歴を表示させることで、対象者EPが、対象者EP自らの体の一部の位置の履歴であると認識する可能性を高めることができる。
また、目標位置の履歴を示す目標画像に対する対象者EPの一部の位置の履歴画像の位置のずれの大きさによって、目標に対する対象者EPの動きのずれの度合いが示されている。対象者EPは、目標位置の履歴を示す目標画像と対象者EPの体の一部の位置の履歴画像とのずれを見ることで、目標に対する対象者EP自らの動きのずれの度合いを把握することができる。
The display control unit 342 also causes the output device 200 to display an image showing the history of the position of a part of the body of the subject EP.
In this way, the display control unit 342 controls the output device 200 to display the history at a position where a part of the body of the target person EP is actually present, so that the target person EP is in charge of the target person EP's own body. It is possible to increase the possibility of recognizing the history of a part of the positions.
Further, the degree of displacement of the movement of the target person EP with respect to the target is indicated by the size of the displacement of the history image at some positions of the target person EP with respect to the target image showing the history of the target position. The target person EP grasps the degree of the shift in the movement of the target person EP with respect to the target by looking at the shift between the target image showing the history of the target position and the history image of a part of the body of the target person EP. be able to.

また、目標決定部345は、対象者EPの体の一部の位置に基づいて対象者EPの体の一部の目標位置を決定する。表示制御部342は、目標位置に画像を表示するように出力装置を制御する。
目標決定部345は、対象者EPの体の一部の位置に基づいて対象者EPの体の一部の目標位置を決定することで、対象者EPの体の一部の現在位置が前回の目標位置からずれている場合でも、対象者EPの体の一部の現在位置から到達可能な範囲に到達目標を設定できる。
また、表示制御部342が、出力装置200を制御して実際の目標位置に画像を表示させることで、対象者EPは、比較的容易に目標位置を把握することができる。また、対象者EPは、体の一部が目標位置に到達したことを比較的容易に認識することができる。 また、リハビリテーション支援システム1を用いたリハビリテーションでは、実際に手又は足などの部位を動かす目標位置に画像を表示することができる。これにより、対象者EPが、対象者EP自らに示された目標位置であると認識する可能性を高めることができる。
また、実際に手又は足などの部位を動かす目標位置に目標画像を表示することで、対象者EPは、手又は足などの部位をどこへ移動させればよいかを比較的容易に認識することができ、リハビリテーションのための動作を行うことができる。
また、実際に手又は足などの部位を動かす目標位置に目標画像を表示することで、対象者EPは、手又は足などの部位が目標位置に到達したことを比較的容易に認識できる。具体的には、対象者EPは、手又は足などの部位がある位置に目標画像が表示されていることを実際に見て確認することで、手又は足などの部位が目標位置に到達したことを認識できる。
Moreover, the target determination unit 345 determines the target position of the part of the body of the target person EP based on the position of the part of the body of the target person EP. The display control unit 342 controls the output device so that the image is displayed at the target position.
The target determining unit 345 determines the target position of the part of the body of the target person EP based on the position of the part of the body of the target person EP, so that the current position of the part of the body of the target person EP is the same as the previous position. Even when the target position is deviated, the target to be reached can be set within a reachable range from the current position of a part of the body of the subject EP.
Further, the display control unit 342 controls the output device 200 to display the image at the actual target position, so that the target person EP can relatively easily grasp the target position. Further, the subject EP can relatively easily recognize that a part of the body has reached the target position. Further, in rehabilitation using the rehabilitation support system 1, an image can be displayed at a target position where a part such as a hand or foot is actually moved. As a result, it is possible to increase the possibility that the target person EP recognizes that the target position is indicated by the target person EP itself.
Further, by displaying the target image at the target position where the part such as the hand or foot is actually moved, the target person EP relatively easily recognizes where to move the part such as the hand or foot. And can perform actions for rehabilitation.
Further, by displaying the target image at the target position where the part such as the hand or foot is actually moved, the target person EP can relatively easily recognize that the part such as the hand or foot has reached the target position. Specifically, the target person EP has reached the target position of the part such as the hand or foot by actually confirming that the target image is displayed at the position where the part such as the hand or foot is displayed. I can recognize that.

また、評価部346は、対象者EPの体の一部の位置と目標位置との相対的な位置関係を評価する。そして、表示制御部342は、評価部346による評価結果を出力装置200に表示させる。
対象者EPは、この評価結果の表示を参照することで、自らが行った動作に対する評価(例えば、目標位置への到達又は不到達)を知ることができ、動作の改善に役立てることができる。例えば、表示制御部342が、リアルタイムで出力装置200を制御して評価結果を表示させることで、対象者EPは、動作を行うごとに評価結果を確認することができる。評価が低い場合、対象者EPは、次の動作では評価が高くなるように動作の改善を図ることができる。
The evaluation unit 346 also evaluates the relative positional relationship between the position of a part of the body of the subject EP and the target position. Then, the display control unit 342 causes the output device 200 to display the evaluation result obtained by the evaluation unit 346.
By referring to the display of the evaluation result, the target person EP can know the evaluation (for example, reaching or not reaching the target position) of the motion performed by the target person EP, and it can be useful for improving the motion. For example, the display control unit 342 controls the output device 200 in real time to display the evaluation result, so that the subject person EP can confirm the evaluation result every time the user performs an operation. When the evaluation is low, the subject EP can improve the operation so that the evaluation is high in the next operation.

また、表示制御部342は、対象者EPの体の一部の位置、及び、目標位置のうち少なくともいずれか一方に、評価部346による評価結果を表示させる。
これにより、対象者EPは、対象者EP自らが行った行為に対する評価結果の表示であることを、比較的容易に把握することができる。
Further, the display control unit 342 causes the evaluation result by the evaluation unit 346 to be displayed on at least one of the position of the part of the body of the subject EP and the target position.
Accordingly, the target person EP can relatively easily understand that it is a display of the evaluation result for the action performed by the target person EP itself.

また、目標決定部345は、対象者EPの体の一部の移動量を算出する。さらに、目標決定部345は、算出した移動量に基づいて目標位置を決定する。
このように、目標決定部345が対象者EPの体の部位の移動量を算出して目標位置を決定することで、対象者EPの体の一部の実際の移動量に応じた適切な目標位置を設定することができる。
The target determination unit 345 also calculates the amount of movement of a part of the body of the subject EP. Further, the target determination unit 345 determines the target position based on the calculated movement amount.
In this way, the target determining unit 345 calculates the amount of movement of the body part of the target person EP and determines the target position, so that an appropriate target according to the actual amount of movement of a part of the target person EP's body. The position can be set.

また、動作領域判定部343は、対象者の体の部位のうち検出対象となる部位を決定する。そして、表示制御部342は、動作領域判定部343が決定した部位に応じた部位の形状の画像を対象者EPの位置に応じた位置に表示するように出力装置200を制御する。
例えば、動作領域判定部343が、動作領域がテーブル(机上面又は机上)であると判定して検出対象部位を手首に決定した場合、表示制御部342は、記憶部33が記憶している画像のうち手の形状の画像を選択して出力装置200に表示させる。また、動作領域判定部343が、動作領域がフロア(床面又は床上)であると判定して検出対象部位を足首に決定した場合、表示制御部342は、記憶部33が記憶している画像のうち足の形状の画像を選択して出力装置200に表示させる。
このように、表示制御部342が出力装置200を制御して体の一部の形状を示す画像を表示させることで、対象者EPは自らの体の一部に関連する画像であることを直感的に認識することができる。従って、対象者EPが、リハビリテーションに関連する画像であることを認識する可能性を高めることができる。
In addition, the motion region determination unit 343 determines a part to be detected among the parts of the body of the subject. Then, the display control unit 342 controls the output device 200 so as to display the image of the shape of the part corresponding to the part determined by the motion area determination unit 343 at the position corresponding to the position of the target person EP.
For example, when the motion region determination unit 343 determines that the motion region is a table (desk surface or desk) and determines the detection target part to be the wrist, the display control unit 342 causes the display control unit 342 to store the image stored in the storage unit 33. The image of the hand shape is selected and displayed on the output device 200. When the motion region determination unit 343 determines that the motion region is the floor (floor surface or floor) and determines the detection target site to be the ankle, the display control unit 342 causes the display control unit 342 to store the image stored in the storage unit 33. A foot-shaped image is selected from among the images and displayed on the output device 200.
In this way, the display control unit 342 controls the output device 200 to display the image showing the shape of the part of the body, and thus the target person EP intuitively recognizes that the image is an image related to the part of the body. Can be recognized. Therefore, it is possible to increase the possibility that the subject EP recognizes that the image is related to rehabilitation.

このリハビリテーション支援システム1を用いたリハビリテーションについて、対象者EPの前方の表示画面に対象者EPの画像を表示して行う従来のリハビリテーションとの比較にて説明する。
対象者EPの前方の表示画面に対象者EPの画像が表示される従来のリハビリテーションでは、対象者EPの画像が表示されている位置が対象者EPの実際の位置とは異なる。このため、対象者EPが、対象者EPの画像を対象者EP自らの画像と認識できないことがある。更には、対象者EPの画像がいわゆるミラーリングによって左右逆に表示されることで、対象者EPが、対象者EPの画像を対象者EP自らの画像と認識できない可能性が高くなる。
対象者EPが、対象者EPの画像を対象者EP自らの画像と認識できないことで、対象者EPの動作に対する評価が表示画面に表示された場合に、対象者EP自らの動作に対する評価であると認識することができない可能性がある。また、目標画像(目標位置を示す画像)が表示画面に表示された場合も、対象者EPは、対象者EP自らに示された目標画像であることを認識できない可能性がある。
Rehabilitation using the rehabilitation support system 1 will be described in comparison with conventional rehabilitation performed by displaying an image of the target person EP on a display screen in front of the target person EP.
In the conventional rehabilitation in which the image of the target person EP is displayed on the display screen in front of the target person EP, the position where the image of the target person EP is displayed is different from the actual position of the target person EP. Therefore, the subject EP may not be able to recognize the image of the subject EP as the image of the subject EP itself. Furthermore, since the image of the target person EP is displayed in the left-right direction by so-called mirroring, the target person EP is more likely to be unable to recognize the image of the target person EP as the image of the target person EP itself.
When the evaluation of the motion of the target EP is displayed on the display screen because the target EP cannot recognize the image of the target EP as the image of the target EP itself, it is the evaluation of the target EP itself. May not be recognized. Further, even when the target image (image showing the target position) is displayed on the display screen, the target person EP may not be able to recognize that the target image is the target image shown to the target person EP itself.

これに対し、リハビリテーション支援システム1を用いたリハビリテーションでは、リハビリテーション動作が行われる動作領域に画像を表示する。動作領域に画像が表示される点で、対象者EPが、対象者EP自らの動作に対する評価の表示画像や目標画像などを、対象者EP自らのリハビリテーションに関する画像であることを、対象者EPに比較的容易に認識させることができる。また、対象者EPは、対象者EP自らの画像を認識する必要無しに直接、動作領域に表示された画像を把握することができる。この点でも、対象者EPが、対象者EP自らの動作に対する評価の表示画像や目標画像などを、対象者EP自らのリハビリテーションに関する画像であることを対象者EPに比較的容易に認識させることができる。 On the other hand, in rehabilitation using the rehabilitation support system 1, an image is displayed in the operation area where the rehabilitation operation is performed. In view of displaying the image in the operation area, the target person EP indicates that the display image of the evaluation of the motion of the target person EP itself, the target image, and the like are images related to the rehabilitation of the target person EP itself. It can be recognized relatively easily. Further, the target person EP can directly grasp the image displayed in the operation area without having to recognize the image of the target person EP itself. Also in this respect, it is possible for the target person EP to relatively easily recognize that the display image of the evaluation of the motion of the target person EP itself, the target image, and the like are images related to the rehabilitation of the target person EP itself. it can.

また、対象者EPの前方の表示画面に対象者EPの画像が表示される従来のリハビリテーションでは、対象者EPの画像が表示されている位置が対象者EPの実際の位置とは異なる。このため、表示画面に目標画像が表示された場合に、対象者EPは、表示画面における対象者EPの画像の位置と目標画像の位置との相対位置関係を、対象者EPの実際の位置と実際の目標位置の相対位置関係に置き換えて、実際の目標位置を把握する必要がある。対象者EPが、表示画面における対象者EPの画像の位置と目標画像の位置との相対位置関係を、対象者EPの実際の位置との相対位置関係に上手く置き換えられない場合、実際の目標位置を把握できない可能性がある。この場合、対象者EPは、手や足などの部位をどこへ移動させたらよいか認識できず、リハビリテーションに支障が生じる可能性がある。 In the conventional rehabilitation in which the image of the target person EP is displayed on the display screen in front of the target person EP, the position where the image of the target person EP is displayed is different from the actual position of the target person EP. Therefore, when the target image is displayed on the display screen, the target person EP determines the relative positional relationship between the position of the target person EP image and the position of the target image on the display screen as the actual position of the target person EP. It is necessary to grasp the actual target position by replacing it with the relative positional relationship of the actual target position. When the target person EP cannot successfully replace the relative positional relationship between the position of the image of the target person EP and the position of the target image on the display screen with the relative position relationship with the actual position of the target person EP, the actual target position May not be understood. In this case, the subject EP cannot recognize where to move a part such as a hand or a foot, and rehabilitation may be hindered.

これに対し、リハビリテーション支援システム1を用いたリハビリテーションでは、実際の目標位置に直接、目標画像を表示することができる。この点で、対象者EPは目標位置を比較的容易に把握することができる。 On the other hand, in rehabilitation using the rehabilitation support system 1, a target image can be displayed directly at an actual target position. In this respect, the subject EP can grasp the target position relatively easily.

また、対象者EPの前方の表示画面に対象者EPの画像が表示される従来のリハビリテーションでは、対象者EPが、到達目標位置を認識し、到達目標位置に手や足などの部位を移動させた場合、画像中で到達目標位置に表示されている物に触れることはできない。このため、対象者EPが到達目標位置に到達したことを認識できずに到達目標位置を通り過ぎてしまうなど、手や足などの部位をどこまで動かせばよいか把握できない可能性がある。 In the conventional rehabilitation in which the image of the target person EP is displayed on the display screen in front of the target person EP, the target person EP recognizes the reaching target position and moves a part such as a hand or foot to the reaching target position. In this case, the object displayed at the target position in the image cannot be touched. For this reason, there is a possibility that it may not be possible to grasp how far to move a part such as a hand or a foot, such as when the target person EP does not recognize that the reaching target position is reached and passes by the reaching target position.

これに対し、リハビリテーション支援システム1を用いたリハビリテーションでは、対象者EPは、手又は足などの部位がある位置に目標画像が表示されていることを実際に見て確認することで、手又は足などの部位が目標位置に到達したことを認識できる。この点で、対象者EPが、手や足などの部位をどこまで動かせばよいかを比較的容易に把握できる。 On the other hand, in the rehabilitation using the rehabilitation support system 1, the target person EP actually sees and confirms that the target image is displayed at a position where a part such as a hand or a foot is present, and thereby the hand or the foot. It is possible to recognize that such a part has reached the target position. From this point, it is relatively easy for the subject EP to know how much to move the parts such as the hands and feet.

(変形例)
図16は、リハビリテーション支援システム1のシステム構成の変形例を示す斜視図である。
リハビリテーション支援制御装置300は、複数の装置に機能を分けて実装されてもよい。例えば、入力部31及び認識部341は画像認識装置として他の装置に実装されてもよい。例えば、認識部341はセンサ100に設けられてもよい。
また、出力装置200は、画像投影装置に代えて、画像を表示する画像表示装置を用いて構成されてもよい。この場合、図16に示すように出力装置200は、上述の説明において画像投影装置が映像を投影した面(投影面)に相当する面に表示面を有したディスプレイ装置として構成される。画像表示装置の具体例として、液晶ディスプレイ装置、有機EL(Electro Luminescence)ディスプレイ装置、タッチパネル式ディスプレイ装置等がある。例えば、テーブルの表面にディスプレイ装置を組み込んで、このディスプレイ装置の表示画面に対象者EPがタッチするマークを表示するようにしてもよい。この場合も、リハビリテーション支援制御装置300(制御部34)は、例えば、ディスプレイ装置に表示されたマーカ画像を目印にしてキャリブレーションを実施する。
(Modification)
FIG. 16 is a perspective view showing a modified example of the system configuration of the rehabilitation support system 1.
The rehabilitation assistance control device 300 may be implemented by dividing its function into a plurality of devices. For example, the input unit 31 and the recognition unit 341 may be mounted on another device as an image recognition device. For example, the recognition unit 341 may be provided in the sensor 100.
Further, the output device 200 may be configured by using an image display device that displays an image instead of the image projection device. In this case, as shown in FIG. 16, the output device 200 is configured as a display device having a display surface on a surface corresponding to a surface (projection surface) on which the image projection device projects an image in the above description. Specific examples of the image display device include a liquid crystal display device, an organic EL (Electro Luminescence) display device, and a touch panel display device. For example, a display device may be incorporated on the surface of the table, and the mark touched by the subject EP may be displayed on the display screen of the display device. Also in this case, the rehabilitation support control device 300 (control unit 34) performs the calibration by using, for example, the marker image displayed on the display device as a mark.

上述した各装置が備える各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。上述した各装置が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。各プログラムは、電気通信回線を介して送信されてもよい。 All or a part of each function provided in each device described above may be realized by using hardware such as an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). The program executed by each device described above may be recorded in a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. Each program may be transmitted via a telecommunication line.

1…リハビリテーション支援システム, 100…センサ, 200…出力装置, 300…リハビリテーション支援制御装置, 31…入力部, 32…出力部, 33…記憶部, 331…キャリブレーション情報記憶部, 332…判定条件情報記憶部, 333…検出履歴情報記憶部, 334…パラメータ情報記憶部, 335…プログラム情報記憶部, 34…制御部, 341…認識部, 342…表示制御部, 343…動作領域判定部, 344…記録部, 345…目標決定部, 346…評価部, 347…足用表示パラメータ設定部, 348…手用表示パラメータ設定部, 349…外乱用表示パラメータ設定部, 35…操作部, 36…表示部 1... Rehabilitation support system, 100... Sensor, 200... Output device, 300... Rehabilitation support control device, 31... Input part, 32... Output part, 33... Storage part, 331... Calibration information storage part, 332... Judgment condition information Storage unit, 333... Detection history information storage unit, 334... Parameter information storage unit, 335... Program information storage unit, 34... Control unit, 341... Recognition unit, 342... Display control unit, 343... Operating area determination unit, 344... Recording unit, 345... Goal determination unit, 346... Evaluation unit, 347... Foot display parameter setting unit, 348... Hand display parameter setting unit, 349... Disturbance display parameter setting unit, 35... Operation unit, 36... Display unit

Claims (3)

対象者がリハビリテーション動作を行う領域における、前記対象者の体の第1部分を検出対象と設定する判定部と、
前記第1部分の前記領域内の位置を検出する検出部と、
前記領域に画像を出力する出力装置を制御する制御部と、
を備え、
前記制御部は、前記リハビリテーション動作の際に、前記領域に含まれる平面上の位置であって、前記第1部分の位置に応じた位置に前記画像を表示させ、
前記制御部は、前記第1部分の位置が前記平面から第1高さのとき、前記画像を第1の大きさで表示し、前記第1部分の位置が前記第1高さと異なる第2高さのとき、前記画像を前記第1の大きさと異なる第2の大きさで表示することを特徴とするリハビリテーション支援装置。
A determining unit that subjects definitive the area for rehabilitation operation, sets a first portion of the subject's body and detected,
A detection unit that detects the position of the first portion within the region ;
A control unit that controls an output device that outputs an image to the region,
Equipped with
The control unit , during the rehabilitation operation, is a position on a plane included in the region, and displays the image at a position corresponding to the position of the first portion ,
The controller displays the image in a first size when the position of the first portion is at a first height from the plane, and the position of the first portion is at a second height different from the first height. the time, rehabilitation supporting apparatus characterized by displaying the images in the first size different from the second size.
前記リハビリテーション動作の際に、前記第1部分の位置に基づいて前記対象者の体の一部の目標位置を決定する決定部を更に備え、
前記制御部は、前記第1部分の位置の高さに応じて前記画像の大きさを変更し、前記領域に表示させることを特徴とする請求項1に記載のリハビリテーション支援装置。
When the rehabilitation operation, further comprising a determination unit that determines a target position of a part of the body of the subject based on the position of the first portion ,
The rehabilitation support device according to claim 1, wherein the control unit changes the size of the image according to the height of the position of the first portion and displays the image in the region .
前記判定部は、前記領域に基づいて、前記第1部分を手か足かを決定することを特徴とする請求項1又は請求項2記載のリハビリテーション支援装置。The rehabilitation support apparatus according to claim 1, wherein the determination unit determines whether the first portion is a hand or a foot based on the area.
JP2018137942A 2018-07-23 2018-07-23 Rehabilitation support device Active JP6706649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018137942A JP6706649B2 (en) 2018-07-23 2018-07-23 Rehabilitation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137942A JP6706649B2 (en) 2018-07-23 2018-07-23 Rehabilitation support device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016114823A Division JP6377674B2 (en) 2016-06-08 2016-06-08 Rehabilitation support control device and computer program

Publications (2)

Publication Number Publication Date
JP2018161529A JP2018161529A (en) 2018-10-18
JP6706649B2 true JP6706649B2 (en) 2020-06-10

Family

ID=63859244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137942A Active JP6706649B2 (en) 2018-07-23 2018-07-23 Rehabilitation support device

Country Status (1)

Country Link
JP (1) JP6706649B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445276B2 (en) * 2019-05-13 2024-03-07 学校法人北里研究所 Rehabilitation support system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110215A (en) * 2009-11-26 2011-06-09 Toyota Motor Kyushu Inc Rehabilitation system, program and computer-readable recording medium recording program
JP5624625B2 (en) * 2010-09-22 2014-11-12 パナソニック株式会社 Exercise support system
JP6334276B2 (en) * 2014-06-04 2018-05-30 日本光電工業株式会社 Rehabilitation support system
JP2016049427A (en) * 2014-08-31 2016-04-11 株式会社日本リハビリデバイス技術研究所 Upper/lower extremity rehabilitation training device for motion function recovery
JP6377674B2 (en) * 2016-06-08 2018-08-22 パラマウントベッド株式会社 Rehabilitation support control device and computer program

Also Published As

Publication number Publication date
JP2018161529A (en) 2018-10-18

Similar Documents

Publication Publication Date Title
CN109219426B (en) Rehabilitation training assistance control device and computer-readable recording medium
JP6045139B2 (en) VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM
US20150140534A1 (en) Apparatus and method for gait training
CN111093782A (en) Scoring method, scoring program, and scoring device
JP6694333B2 (en) Rehabilitation support control device and computer program
KR20130030117A (en) Character image processing apparatus and method for footstake clean up in real time animation
JP2018050989A (en) Rehabilitation support device
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
JP6706649B2 (en) Rehabilitation support device
JP6744139B2 (en) Rehabilitation support control device and computer program
JP6623122B2 (en) Rehabilitation support control device and computer program
JP6310255B2 (en) Method and apparatus for presenting options
JP2016077346A (en) Motion support system, motion support method, and motion support program
US20040059264A1 (en) Footprint analyzer
JP6441417B2 (en) Rehabilitation support system and computer program
US20200060610A1 (en) Walking sense presentation device and presentation method
JP6625486B2 (en) Rehabilitation support control device and computer program
JP6694491B2 (en) Rehabilitation support system and computer program
JP2019024579A (en) Rehabilitation support system, rehabilitation support method, and program
Bakar et al. Computer vision-based hand deviation exercise for rehabilitation
JP6430441B2 (en) Rehabilitation support system and computer program
JP6940139B2 (en) Physical characteristic analyzer, physical characteristic analysis method, and program
JP2017217276A (en) Rehabilitation support control apparatus and computer program
Lin et al. A rehabilitation training system with double-CCD camera and automatic spatial positioning technique
JP2020096826A (en) Rehabilitation support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181121

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200518

R150 Certificate of patent or registration of utility model

Ref document number: 6706649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250