JP2017217267A - Rehabilitation support control device and computer program - Google Patents

Rehabilitation support control device and computer program Download PDF

Info

Publication number
JP2017217267A
JP2017217267A JP2016114819A JP2016114819A JP2017217267A JP 2017217267 A JP2017217267 A JP 2017217267A JP 2016114819 A JP2016114819 A JP 2016114819A JP 2016114819 A JP2016114819 A JP 2016114819A JP 2017217267 A JP2017217267 A JP 2017217267A
Authority
JP
Japan
Prior art keywords
information
rehabilitation
display
subject
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016114819A
Other languages
Japanese (ja)
Other versions
JP2017217267A5 (en
JP6623122B2 (en
Inventor
栄太 平井
Eita Hirai
栄太 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2016114819A priority Critical patent/JP6623122B2/en
Publication of JP2017217267A publication Critical patent/JP2017217267A/en
Publication of JP2017217267A5 publication Critical patent/JP2017217267A5/ja
Application granted granted Critical
Publication of JP6623122B2 publication Critical patent/JP6623122B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform display which enables plural browsing persons including a rehabilitation object person to easily recognize information relating to the result of moving his or her body by the rehabilitation.SOLUTION: A rehabilitation support control device comprises: a recognition unit which recognizes the position of a part of the body of a rehabilitation object person on the basis of detection result information showing a result of detection by a sensor which detects the body of the rehabilitation object person; and a display control unit which, on the basis of the position recognized by the recognition unit, controls display of information relating to the position in a range visually recognized by the object person from a detection position where the object person is detected by the sensor.SELECTED DRAWING: Figure 1

Description

本発明は、リハビリテーションを支援する技術に関する。   The present invention relates to a technique for supporting rehabilitation.

従来、タッチパネル上にリハビリテーション用の画像を表示し、画像に対応してリハビリテーションの対象者が触れた場所を検出することによってリハビリテーションを評価する技術がある(例えば特許文献1参照)。   Conventionally, there is a technique for evaluating rehabilitation by displaying an image for rehabilitation on a touch panel and detecting a location touched by a rehabilitation subject in accordance with the image (see, for example, Patent Document 1).

特開2013−172897号公報JP 2013-172897 A

ここで、リハビリテーションの対象者及び当該対象者の親族は、当該リハビリテーションによって体を動かした際の動きを客観的に確認することによって、以降のリハビリテーションを能率的に行うことができる場合がある。
しかしながら、従来の技術では、リハビリテーションを施術する施術者が対象者の体の動作結果を示す情報を確認することができても、対象者自身が当該動作結果を示す情報を確認することまでは困難である場合があった。
また、従来の技術では、リハビリテーションを施術する施術者が対象者の体の動作結果を示す情報を理解することができても、対象者自身が当該動作結果を示す情報を理解することが困難である場合があった。
Here, the subject of rehabilitation and the relatives of the subject may be able to efficiently perform the following rehabilitation by objectively confirming the movement when the body is moved by the rehabilitation.
However, with the conventional technology, even if the practitioner performing rehabilitation can confirm information indicating the motion result of the subject's body, it is difficult until the subject himself / herself confirms the information indicating the motion result. There was a case.
Moreover, in the conventional technology, even if the practitioner performing rehabilitation can understand the information indicating the motion result of the subject's body, it is difficult for the subject himself to understand the information indicating the motion result. There was a case.

上記事情に鑑み、本発明は、リハビリテーションの対象者を含む複数の閲覧者が、が当該リハビリテーションによって体を動かした結果に関する情報を容易に認識できる表示が可能な技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique capable of displaying information that allows a plurality of viewers including a rehabilitation target to easily recognize information related to a result of moving a body by the rehabilitation.

本発明の一態様は、リハビリテーションの対象者の体を検出するセンサの検出結果を示す検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、前記認識部が認識する前記位置に基づいて、前記対象者が前記センサに検出される検出位置から前記対象者が視認する範囲に前記位置に関する情報の表示を制御する表示制御部と、を備えるリハビリテーション支援制御装置である。   According to one aspect of the present invention, a recognition unit that recognizes a position of a part of the subject's body based on detection result information indicating a detection result of a sensor that detects the body of the subject of rehabilitation, and the recognition unit includes: A rehabilitation support control device comprising: a display control unit configured to control display of information related to the position within a range visually recognized by the target person from a detection position detected by the sensor based on the position to be recognized. is there.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記表示制御部は、前記位置に関する情報を前記対象者の体の一部と同一の尺度において示す表示を制御する。   One aspect of the present invention is the above-described rehabilitation support control device, wherein the display control unit controls display of information related to the position on the same scale as a part of the subject's body.

本発明の一態様は、上記のリハビリテーション支援制御装置であって、前記範囲とは、前記センサが検出する前記対象者の体を検出する検出範囲を含む範囲である。   One aspect of the present invention is the above-described rehabilitation support control device, wherein the range includes a detection range in which the body of the subject detected by the sensor is detected.

本発明の一態様は、リハビリテーションの対象者の体を検出するセンサの検出結果を示す検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、前記認識部が認識する前記位置に基づいて、前記対象者が前記センサに検出される検出位置から前記対象者が視認する範囲に前記位置に関する情報の表示を制御する表示制御部と、を備えるリハビリテーション支援制御装置としてコンピュータを機能させるためのコンピュータプログラムである。   According to one aspect of the present invention, a recognition unit that recognizes a position of a part of the subject's body based on detection result information indicating a detection result of a sensor that detects the body of the subject of rehabilitation, and the recognition unit includes: A rehabilitation support control device comprising: a display control unit that controls display of information related to the position in a range that the subject visually recognizes from a detection position detected by the sensor based on the position to be recognized. A computer program for causing a computer to function.

本発明により、リハビリテーションの対象者を含む複数の閲覧者が、当該リハビリテーションによって体を動かした結果に関する情報を容易に認識できる表示することが可能となる。   According to the present invention, it is possible to display information that allows a plurality of viewers including a rehabilitation target person to easily recognize information related to a result of moving the body by the rehabilitation.

本発明の一実施形態に係るリハビリテーション支援システム1のシステム構成を示す斜視図である。1 is a perspective view showing a system configuration of a rehabilitation support system 1 according to an embodiment of the present invention. リハビリテーション支援システム1に備わるリハビリテーション支援制御装置300の機能構成例を示す概略ブロック図である。It is a schematic block diagram which shows the function structural example of the rehabilitation assistance control apparatus 300 with which the rehabilitation assistance system 1 is equipped. リハビリテーション支援制御装置300による第一動作領域を説明するための斜視図である。FIG. 5 is a perspective view for explaining a first operation region by the rehabilitation support control device 300. リハビリテーション支援システム1における画像の表示の例を示す平面図である。It is a top view which shows the example of a display of the image in the rehabilitation assistance system. リハビリテーション支援制御装置300による第二動作領域を説明するための斜視図である。FIG. 10 is a perspective view for explaining a second operation region by the rehabilitation support control device 300. リハビリテーション支援システム1における画像の表示の例を示す平面図である。It is a top view which shows the example of a display of the image in the rehabilitation assistance system. リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a motion region determination process performed by the rehabilitation support control device 300. リハビリテーション支援制御装置300が手の移動目標となる目標画像を映し出す例を示す斜視図である。It is a perspective view which shows the example which the rehabilitation assistance control apparatus 300 displays the target image used as the movement target of a hand. リハビリテーション支援制御装置300が手の外乱を映し出す例を示す図である。It is a figure which shows the example in which the rehabilitation assistance control apparatus 300 projects a disturbance of a hand. 足用表示パラメータ設定部347がステップの値を設定する例を示す図である。It is a figure which shows the example which the display parameter setting part for 347 sets the value of a step. リハビリテーション支援制御装置300が、対象者EPが歩行する際の回避目標となる目標画像を映し出す例を示す斜視図である。It is a perspective view which shows the example which the rehabilitation assistance control apparatus 300 projects the target image used as the avoidance target at the time of the subject person EP walking. リハビリテーション支援制御装置300が、対象者EPが歩行する際の外乱を映し出す例を示す斜視図である。It is a perspective view which shows the example in which the rehabilitation assistance control apparatus 300 projects the disturbance at the time of object person EP walking. リハビリテーション支援制御装置300による、対象者EPの認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of the recognition process of object person EP by the rehabilitation assistance control apparatus 300. リハビリテーション支援システム1を用いたリハビリテーションにおけるパラメータ設定の一例を示すフローチャートである。It is a flowchart which shows an example of the parameter setting in the rehabilitation using the rehabilitation assistance system 1. リハビリテーション内容が歩行である場合の認識部341の認識の一例を示す平面図である。It is a top view which shows an example of recognition of the recognition part 341 when a rehabilitation content is a walk. 結果画像RP1の一例を示す第1の図である。It is a 1st figure which shows an example of the result image RP1. リハビリテーション内容が手の移動である場合の認識部341の認識の一例を示す平面図である。It is a top view which shows an example of recognition of the recognition part 341 when a rehabilitation content is a movement of a hand. 結果画像RP2の一例を示す第2の図である。It is a 2nd figure which shows an example of the result image RP2. 変形例のリハビリテーション支援制御装置320の機能構成例を示す概略ブロック図である。It is a schematic block diagram which shows the function structural example of the rehabilitation assistance control apparatus 320 of a modification. 結果画像RP3の一例を示す第3の図である。It is a 3rd figure which shows an example of the result image RP3. リハビリテーション支援システム1のシステム構成の変形例を示す斜視図である。It is a perspective view which shows the modification of the system configuration | structure of the rehabilitation assistance system 1. FIG.

図1は、本発明の一実施形態に係るリハビリテーション支援システム1のシステム構成を示す斜視図である。リハビリテーション支援システム1は、リハビリテーションの対象者(以下「対象者」という。)に対して、リハビリテーションの実施を支援するシステムである。リハビリテーション支援システム1は、センサ100、出力装置200及びリハビリテーション支援制御装置300を備える。   FIG. 1 is a perspective view showing a system configuration of a rehabilitation support system 1 according to an embodiment of the present invention. The rehabilitation support system 1 is a system that supports the implementation of rehabilitation for a rehabilitation target person (hereinafter referred to as “target person”). The rehabilitation support system 1 includes a sensor 100, an output device 200, and a rehabilitation support control device 300.

センサ100は、同センサ100の検出範囲800内(図1の破線で囲った範囲)で対象者EPを検出する。
センサ100は、例えば、画像センサ、赤外線センサ、レーザセンサ、サーモセンサなど、対象者EPにマーカを装着することなく対象者EPの動きが検出できるセンサである。本実施形態では、このようなセンサの例として、センサ100に、距離センサと画像センサを組み込んだKinect(登録商標)を用いた場合を例に説明を行う。
センサ100は、例えば、画像センサ(不図示)を備える。前記画像センサは、(1)自らの正面方向をリアルタイムに撮像し、連続した複数枚の2次元画像(フレーム画像)を取得する動画カメラとしての機能と、(2)センサ100から、前記2次元画像(フレーム画像)内の各位置に対応する実際の位置までの距離の情報(距離情報を表示した画像)を取得する距離センサ(デプスセンサ)としての機能と、を有している。前記距離センサが有する機能により、対象者EPを撮像した画像と、当該画像に撮像された対象者EPの体の各部位の3次元空間における座標情報である距離画像情報とを取得する。センサ100が検出する3次元空間とは、図1に示すXYZ直交座標系によって示される空間である。
対象者EPの体の各部位とは、対象者EPの動作を認識するために検出することが求められる体の部位である。具体的には、対象者EPの体の各部位とは、例えば、対象者EPの頭、肩、腕、手、腰、足及び各関節部等の位置である。
センサ100は、検出した結果を示す情報(以下「検出結果情報」という。)をリハビリテーション支援制御装置300に出力する。検出結果情報とは、例えば、対象者EPの体の一部の位置情報である。
なお、センサ100は、対象者EPにマーカを装着し、そのマーカの検出により対象者EPを検出するセンサであっても構わない。
The sensor 100 detects the subject person EP within the detection range 800 of the sensor 100 (a range surrounded by a broken line in FIG. 1).
The sensor 100 is a sensor that can detect the movement of the subject EP without attaching a marker to the subject EP, such as an image sensor, an infrared sensor, a laser sensor, or a thermo sensor. In this embodiment, as an example of such a sensor, a case where Kinect (registered trademark) incorporating a distance sensor and an image sensor is used as the sensor 100 will be described as an example.
The sensor 100 includes, for example, an image sensor (not shown). The image sensor includes (1) a function as a moving image camera that captures the front direction of itself in real time and acquires a plurality of continuous two-dimensional images (frame images), and (2) the two-dimensional And a function as a distance sensor (depth sensor) that acquires distance information (an image displaying distance information) to an actual position corresponding to each position in the image (frame image). With the function of the distance sensor, an image obtained by capturing the subject EP and distance image information that is coordinate information in the three-dimensional space of each part of the body of the subject EP captured by the image are acquired. The three-dimensional space detected by the sensor 100 is a space indicated by the XYZ orthogonal coordinate system shown in FIG.
Each part of the body of the subject EP is a part of the body that is required to be detected in order to recognize the motion of the subject EP. Specifically, each part of the body of the subject EP is, for example, the position of the head, shoulder, arm, hand, waist, foot, each joint, and the like of the subject EP.
The sensor 100 outputs information indicating the detection result (hereinafter referred to as “detection result information”) to the rehabilitation support control device 300. The detection result information is, for example, position information of a part of the body of the subject person EP.
Note that the sensor 100 may be a sensor that attaches a marker to the subject person EP and detects the subject person EP by detecting the marker.

出力装置200は、対象者EPに対して行われるリハビリテーションに関する画像を出力する。出力装置200は、例えば、プロジェクタ等の画像投影装置である。出力装置200は、リハビリテーションを支援する画像を投影して、出力領域900に表示する。出力画像の例としては、対象者EPの体の一部の位置の移動履歴、及び、対象者EPの体の一部の移動目標位置を含む画像を挙げることができる。例えば、歩行のリハビリテーションの場合、出力装置200が対象者EPの足の位置の移動履歴、及び、対象者EPが足を動かして移動させる目標位置のうちいずれか一方又は両方を表示するようにしてもよい。また、手の移動のリハビリテーションの場合であれば、出力装置200が、対象者EPの手の位置の移動履歴、及び、対象者EPが手を動かして移動させる目標位置のうちいずれか一方又は両方を表示するようにしてもよい。以下の説明では、対象者EPの体の一部の位置の移動履歴を示す画像を履歴画像と称する。また、対象者EPの体の一部の移動目標位置を示す画像を目標画像と称する。   The output device 200 outputs an image related to rehabilitation performed on the subject EP. The output device 200 is an image projection device such as a projector, for example. The output device 200 projects an image that supports rehabilitation and displays it in the output area 900. Examples of the output image may include an image including a movement history of a part of the body of the subject EP and a movement target position of a part of the body of the subject EP. For example, in the case of walking rehabilitation, the output device 200 displays one or both of the movement history of the position of the foot of the subject EP and the target position that the subject EP moves by moving the foot. Also good. Further, in the case of hand movement rehabilitation, the output device 200 either or both of the movement history of the position of the hand of the subject EP and the target position that the subject EP moves and moves the hand. May be displayed. In the following description, an image indicating a movement history of a part of the body of the subject EP is referred to as a history image. In addition, an image showing a movement target position of a part of the body of the subject EP is referred to as a target image.

リハビリテーション支援制御装置300は、情報処理装置を用いて構成される。すなわち、リハビリテーション支援制御装置300は、バスで接続されたCPU(Central Processor Unit)、メモリ及び補助記憶装置を備える。リハビリテーション支援制御装置300は、リハビリテーション支援プログラムを実行することによって動作する。   The rehabilitation support control device 300 is configured using an information processing device. That is, the rehabilitation support control device 300 includes a CPU (Central Processor Unit), a memory, and an auxiliary storage device connected by a bus. The rehabilitation support control device 300 operates by executing a rehabilitation support program.

センサ100等は、脚部310によって支持される。脚部310は、上下方向に伸縮可能であり、センサ100、出力装置200の高さ位置を調整することができる。これにより、センサ100による検出範囲の広さを調整することが可能である。また、出力装置200が投影装置の場合、出力領域900の広さを調整することが可能である。また、脚部310は、キャスター311、312、313、314を備えている。キャスター311〜314は転動可能であるため、手押しなどすることにより、リハビリテーション支援システム1を、フロア上で自由に移動させることができる。   The sensor 100 and the like are supported by the leg portion 310. The leg portion 310 can be expanded and contracted in the vertical direction, and the height positions of the sensor 100 and the output device 200 can be adjusted. Thereby, the width of the detection range by the sensor 100 can be adjusted. Further, when the output device 200 is a projection device, the width of the output region 900 can be adjusted. The leg portion 310 includes casters 311, 312, 313, and 314. Since the casters 311 to 314 can roll, the rehabilitation support system 1 can be freely moved on the floor by pushing the casters.

図2は、リハビリテーション支援システム1に備わるリハビリテーション支援制御装置300の機能構成例を示す概略ブロック図である。リハビリテーション支援制御装置300は、入力部31、出力部32、記憶部33、制御部34、操作部35及び表示部36を備える。
入力部31は、外部からの情報を入力するインタフェースである。例えば、入力部31は、センサ100から検出結果を示す情報(検出結果情報)を取得する。
出力部32は、制御部34によって生成された画像を出力装置200に対して出力するインタフェースである。
FIG. 2 is a schematic block diagram illustrating a functional configuration example of the rehabilitation support control device 300 provided in the rehabilitation support system 1. The rehabilitation support control device 300 includes an input unit 31, an output unit 32, a storage unit 33, a control unit 34, an operation unit 35, and a display unit 36.
The input unit 31 is an interface for inputting information from the outside. For example, the input unit 31 acquires information (detection result information) indicating a detection result from the sensor 100.
The output unit 32 is an interface that outputs an image generated by the control unit 34 to the output device 200.

記憶部33は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。記憶部33は、キャリブレーション情報記憶部331、判定条件情報記憶部332、検出履歴情報記憶部333、パラメータ情報記憶部334、プログラム情報記憶部335として機能する。   The storage unit 33 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 33 functions as a calibration information storage unit 331, a determination condition information storage unit 332, a detection history information storage unit 333, a parameter information storage unit 334, and a program information storage unit 335.

キャリブレーション情報記憶部331は、キャリブレーション情報を記憶する。キャリブレーション情報は、センサ100の検出結果を示す座標の座標系と、出力装置200が投影する画像面の座標系とを対応付ける情報である。従って、リハビリテーション支援制御装置300におけるキャリブレーションは、センサ100による検出範囲800と、出力装置200による画像の出力領域900との位置関係を把握し、両者に共通の座標系を設定する処理である。なお、センサ100が検出できる検出範囲は、図示する検出範囲800より広くてもよい。本実施形態における検出範囲800とは、出力領域900上で行われる対象者EPの動作において、対象者EPの検出目的とする体の一部の位置情報を取得するのに必要な検出範囲のことである。なお、出力領域900上とは、出力領域900で規定される平面の領域だけではなく、その領域において、出力領域900を基準とする所定高さまでの空間も含む。   The calibration information storage unit 331 stores calibration information. The calibration information is information that associates the coordinate system of the coordinates indicating the detection result of the sensor 100 with the coordinate system of the image plane projected by the output device 200. Therefore, the calibration in the rehabilitation support control apparatus 300 is a process of grasping the positional relationship between the detection range 800 by the sensor 100 and the image output area 900 by the output apparatus 200 and setting a common coordinate system for both. The detection range that can be detected by the sensor 100 may be wider than the detection range 800 illustrated. The detection range 800 in the present embodiment is a detection range necessary for acquiring position information of a part of the body targeted for detection of the subject EP in the operation of the subject EP performed on the output area 900. It is. The term “on the output area 900” includes not only a plane area defined by the output area 900 but also a space up to a predetermined height with reference to the output area 900 in that area.

キャリブレーション情報は、例えば事前にキャリブレーションを実施することによって得てもよい。
より具体的には、例えば出力装置200がキャリブレーション用のマーカ画像を、画像面(画像の出力領域900)の四隅など、複数箇所に投影する。リハビリテーション支援制御装置300は、出力装置200の座標系における座標を既知である。
The calibration information may be obtained, for example, by performing calibration in advance.
More specifically, for example, the output device 200 projects the calibration marker image at a plurality of locations such as four corners of the image plane (image output area 900). The rehabilitation support control device 300 has known coordinates in the coordinate system of the output device 200.

出力装置200がマーカ画像を投影すると、センサ100は、各マーカ画像の位置を、センサ100の座標系(センサ100が検出位置を示すのに用いる座標系)における座標にてリハビリテーション支援制御装置300へ出力する。これにより、リハビリテーション支援制御装置300(制御部34)は、各マーカの位置を、センサ100の座標系における座標、及び、出力装置200の座標系における座標の両方で取得する。また、リハビリテーション支援制御装置300(制御部34)は、四隅等に投影されたマーカ画像により、出力装置200の座標系における出力領域900の範囲を示す座標を把握する。これにより、後述する目標決定部345は、出力領域900における出力装置200の座標系における目標位置を計算することができる。   When the output device 200 projects a marker image, the sensor 100 sends the position of each marker image to the rehabilitation support control device 300 using coordinates in the coordinate system of the sensor 100 (the coordinate system used by the sensor 100 to indicate the detection position). Output. Thereby, the rehabilitation assistance control apparatus 300 (control part 34) acquires the position of each marker by both the coordinate in the coordinate system of the sensor 100, and the coordinate in the coordinate system of the output device 200. FIG. Further, the rehabilitation support control device 300 (the control unit 34) grasps coordinates indicating the range of the output region 900 in the coordinate system of the output device 200 based on the marker images projected on the four corners and the like. Thereby, the target determination unit 345 described later can calculate a target position in the coordinate system of the output device 200 in the output region 900.

リハビリテーション支援制御装置300(制御部34)は、得られた座標に基づいて、センサ100の座標系を補正するための情報をキャリブレーション情報として取得する。センサ100が座標系調整機能を有している場合、リハビリテーション支援制御装置300(制御部34)は、この機能を利用してセンサ100の座標系を出力装置200の座標系に合わせるためのキャリブレーション情報を生成する。あるいは、出力装置200が座標系調整機能を有している場合、リハビリテーション支援制御装置300(制御部34)が、この機能を利用して出力装置200の座標系をセンサ100の座標系に合わせるためのキャリブレーション情報を生成するようにしてもよい。   The rehabilitation support control apparatus 300 (control unit 34) acquires information for correcting the coordinate system of the sensor 100 as calibration information based on the obtained coordinates. When the sensor 100 has a coordinate system adjustment function, the rehabilitation support control device 300 (control unit 34) uses this function to perform calibration for matching the coordinate system of the sensor 100 with the coordinate system of the output device 200. Generate information. Alternatively, when the output device 200 has a coordinate system adjustment function, the rehabilitation support control device 300 (the control unit 34) uses this function to match the coordinate system of the output device 200 with the coordinate system of the sensor 100. The calibration information may be generated.

床面が光を散乱させてマーカ画像がぼやける場合など、センサ100によるマーカ画像の検出が困難な場合は、マーカ画像を用いた位置検出の代わりに理学療法士等の操作者が手動で位置検出を行うようにしてもよい。出力装置200が出力領域900の全体に画像を投影している状態で、センサ100が画像センサで投影画像全体を含む領域を撮像する。リハビリテーション支援制御装置300は、センサ100による撮像画像を表示画面に表示する。そして、リハビリテーション支援システム1の操作者は、モニタ画面に表示されている出力領域900の四隅の各々をタッチ操作にて指定する。
モニタ画面に表示されている画像は、センサ100が撮像した画像なので、操作者が指定した位置をセンサ100の座標系における座標で取得し得る。リハビリテーション支援制御装置300(制御部34)は、この座標と、出力装置200の座標系における出力領域900の四隅の座標とに基づいて、キャリブレーション情報を取得する。なお、高さ方向の座標として、フロアの座標を用いる。
あるいは、理学療法士等が、例えばコーンなど物理的なマーカを画像面の四隅位置に置くようにしてもよい。この場合、センサ100は、置かれたマーカを検出し、各マーカの座標を出力する。
When it is difficult to detect the marker image by the sensor 100, for example, when the marker image is blurred because the floor surface scatters light, an operator such as a physical therapist manually detects the position instead of the position detection using the marker image. May be performed. In a state where the output device 200 projects an image on the entire output area 900, the sensor 100 captures an area including the entire projected image with the image sensor. The rehabilitation support control device 300 displays the image captured by the sensor 100 on the display screen. Then, the operator of the rehabilitation support system 1 designates each of the four corners of the output area 900 displayed on the monitor screen by a touch operation.
Since the image displayed on the monitor screen is an image captured by the sensor 100, the position specified by the operator can be acquired by coordinates in the coordinate system of the sensor 100. The rehabilitation support control device 300 (control unit 34) acquires calibration information based on the coordinates and the coordinates of the four corners of the output region 900 in the coordinate system of the output device 200. Note that the coordinates of the floor are used as the coordinates in the height direction.
Alternatively, a physical therapist or the like may place physical markers such as cones at the four corner positions of the image plane. In this case, the sensor 100 detects the placed marker and outputs the coordinates of each marker.

出力装置200が床面に画像を投影する場合、リハビリテーション支援システム1の初回使用時にキャリブレーションを行えば、2回目の使用時以降はキャリブレーションを行う必要が無い。センサ100と床面との位置関係、及び、出力装置200と床面との位置関係のいずれも変わらないため、初回使用時に得られたキャリブレーション情報を2回目以降の使用時にも使用できるためである。   When the output device 200 projects an image on the floor surface, if calibration is performed when the rehabilitation support system 1 is used for the first time, it is not necessary to perform calibration after the second use. Since neither the positional relationship between the sensor 100 and the floor surface nor the positional relationship between the output device 200 and the floor surface changes, the calibration information obtained at the first use can be used at the second and subsequent uses. is there.

判定条件情報記憶部332は、動作領域を判定するための条件を記憶する。動作領域については後述する。
検出履歴情報記憶部333は、認識部341が認識した対象者EPの体の一部に関する位置情報(検出結果情報)の履歴を記憶する。例えば、歩行のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの足の位置の検出結果情報の履歴を記憶する。また、手の移動のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの手の位置の検出結果情報の履歴を記憶する。
The determination condition information storage unit 332 stores conditions for determining the operation area. The operation area will be described later.
The detection history information storage unit 333 stores a history of position information (detection result information) regarding a part of the body of the subject person EP recognized by the recognition unit 341. For example, when walking rehabilitation is performed, the detection history information storage unit 333 stores a history of detection result information on the position of the foot of the subject EP. When performing rehabilitation of hand movement, the detection history information storage unit 333 stores a history of detection result information on the position of the hand of the subject EP.

パラメータ情報記憶部334は、後述する足用表示パラメータ設定部347が設定した足用表示パラメータ、後述する手用表示パラメータ設定部348が設定した手用表示パラメータ、後述する外乱用表示パラメータ設定部349が設定した外乱用表示パラメータを記憶する。
プログラム情報記憶部335は、リハビリテーション支援プログラムを記憶する。
The parameter information storage unit 334 includes a foot display parameter set by a foot display parameter setting unit 347 described later, a hand display parameter set by a hand display parameter setting unit 348 described later, and a disturbance display parameter setting unit 349 described later. The disturbance display parameter set by is stored.
The program information storage unit 335 stores a rehabilitation support program.

制御部34は、CPUを用いて構成される。制御部34は、リハビリテーション支援プログラムを実行することによって、認識部341、表示制御部342、動作領域判定部343、記録部344、目標決定部345、評価部346、足用表示パラメータ設定部347、手用表示パラメータ設定部348、外乱用表示パラメータ設定部349として機能する。   The control unit 34 is configured using a CPU. The control unit 34 executes a rehabilitation support program to recognize a recognition unit 341, a display control unit 342, a motion region determination unit 343, a recording unit 344, a target determination unit 345, an evaluation unit 346, a foot display parameter setting unit 347, It functions as a manual display parameter setting unit 348 and a disturbance display parameter setting unit 349.

認識部341は、入力部31が取得した検出結果情報を取得し、検出結果情報が示す対象物を認識する。例えば、認識部341は、検出結果情報に基づいて、検出範囲800に存在する人、テーブル、床、壁等を認識する。例えば、Kinect(登録商標)を用いると、対象者EPの人体上の複数の部位の位置を認識することができる。例えば、認識部341は、テーブル上の長尺状の検出対象の先端部を認識すると、その先端部の単位時間ごとの位置情報を検出する。認識部341は、センサ100が時々刻々と検出したこれらの特徴点の位置情報により、対象者EPの体の一部の位置の動きを認識する。例えば、長尺状の対象物を検出した場合、認識部341は、その対象物の先端の位置の動きを認識する。当該先端の位置の動きは、例えば、対象者EPの手の位置として扱ってもよい。また、認識部341は、検出結果情報が示す対象物の形状と人の骨格モデルとの比較を行って対象物が人と認識できる場合、各部位の位置を認識する機能を有していてもよい。この機能によれば、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。例えば、対象者EPがセンサ100の前で直立する。すると、認識部341は、その状態で検出された検出結果情報と人の骨格モデルとの比較を行い、対象物が人の形状をしていることから対象物は人であると認識する。さらに、認識部341は、例えば、左のつま先とその位置情報、右のかかととその位置情報、左右の手首とそれぞれの位置情報というように、各部位の位置情報をそれぞれの部位に対応付けて認識する。骨格モデルによる各部位の位置を認識する機能(以下「骨格トラッキング機能」という。)を用いると、認識部341は、対象者EPの各部位の位置の動きを認識することができる。このように認識部341は、検出結果情報に含まれる所定の形状をした対象物の所定の位置をトラッキングすることにより、又は、骨格トラッキング機能により、対象者EPの体の一部の位置およびその動きを認識する。また、Kinect(登録商標)を用いると、検出範囲800に存在する物の座標情報(検出範囲800に存在する物の所定間隔ごとの座標情報を含む点群データ)を得ることができる。認識部341は、検出結果情報(点群データ)を分析し、所定の広さ以上の面積を有し、Z座標の値が変化しない面(要するに、Z座標の値がほぼ一定の点群の集合)を、壁、フロア、テーブル等との平面として認識する。また、認識部341は、検出結果情報のうち、どのデータが、後述する動作領域判定部343が判定した動作領域に関連する対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、そのデータ(検出対象情報CG)を選択する。   The recognition unit 341 acquires the detection result information acquired by the input unit 31, and recognizes the object indicated by the detection result information. For example, the recognition unit 341 recognizes a person, a table, a floor, a wall, or the like existing in the detection range 800 based on the detection result information. For example, when Kinect (registered trademark) is used, the positions of a plurality of parts on the human body of the subject EP can be recognized. For example, when the recognizing unit 341 recognizes a long tip of a long detection target on the table, the recognizing unit 341 detects position information of the tip at every unit time. The recognition unit 341 recognizes the movement of the position of a part of the body of the subject EP based on the position information of these feature points detected by the sensor 100 every moment. For example, when a long object is detected, the recognition unit 341 recognizes the movement of the position of the tip of the object. The movement of the position of the tip may be handled as the position of the hand of the subject EP, for example. In addition, the recognition unit 341 has a function of recognizing the position of each part when the object can be recognized as a person by comparing the shape of the object indicated by the detection result information with the human skeleton model. Good. According to this function, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. For example, the subject person EP stands upright in front of the sensor 100. Then, the recognition unit 341 compares the detection result information detected in this state with a human skeleton model, and recognizes that the target is a person because the target has a human shape. Furthermore, the recognizing unit 341 associates position information of each part with each part, such as left toe and its position information, right heel and its position information, and left and right wrists and respective position information. recognize. When the function of recognizing the position of each part based on the skeleton model (hereinafter referred to as “skeleton tracking function”) is used, the recognition unit 341 can recognize the movement of the position of each part of the subject EP. In this way, the recognition unit 341 tracks the predetermined position of the object having the predetermined shape included in the detection result information, or uses the skeleton tracking function to detect the position of the body part of the target person EP and the position thereof. Recognize movement. Further, when Kinect (registered trademark) is used, coordinate information of an object existing in the detection range 800 (point cloud data including coordinate information for each predetermined interval of the object existing in the detection range 800) can be obtained. The recognizing unit 341 analyzes the detection result information (point cloud data), and has a surface that has an area larger than a predetermined area and the Z coordinate value does not change (in short, a point cloud having a substantially constant Z coordinate value). Is recognized as a plane with walls, floors, tables, etc. Further, the recognition unit 341 is detection data of a part (detection target part) of the body of the subject person EP related to the motion region determined by the motion region determination unit 343 described later, among the detection result information. And the data (detection target information CG) is selected.

ここで、動作領域とは、対象者EPのリハビリテーションの目的とする動作が行われる領域のことである。より具体的には、リハビリテーションによって回復することを目的とする動作に強く関連する部位が動作する空間内の所定の領域のことである。また、例えば、動作領域とは、対象者EPがリハビリテーションにおいてその部位を近接させる領域である。また、例えば、動作領域とは、対象者EPのリハビリテーションにおいて、その動作の目標(到達点)となる位置を含む領域である。また、動作領域とは、対象者EPがリハビリテーション中に目的とする動作を行う場所である。動作領域の具体例として、2次元領域の場合では、フロア、テーブル等を挙げることができる。例えば、フロアであれば、リハビリテーションによって回復することを目的とする動作に強く関連する部位は足であり、テーブルの場合の当該部位は手である。また、対象者EPは、歩行動作のリハビリテーションにおいて足をフロアに近接させ、手の移動のリハビリテーションにおいては手をテーブルに近接させる。また、例えば、歩行動作のリハビリテーションにおいてフロアは、歩行動作の到達点となる位置(目標画像の表示位置)を含む領域であり、テーブルは手の移動のリハビリテーションにおける手の到達点となる位置(目標画像の表示位置)を含む領域である。また、フロア、テーブルはそれぞれ、歩行動作のリハビリテーション、手の移動のリハビリテーション中に目的となる動作を行う場所である。なお、動作領域が3次元である場合の具体例としては、テーブル上のテーブル表面を基準とする所定高さの範囲の空間(以下「3次元動作領域」という)を挙げることができる。例えば、出力装置200は、テーブルに「10cm」を意味する目標画像を表示する。例えば、テーブル上のある位置に「10cm」と表示してもよい。これは、テーブルの当該目標画像が表示された位置の真上の空間の、テーブル表面を基準とする高さ10cmの位置が、手の到達点となる位置であることを意味する目標画像である。この目標画像が示す位置は、当該3次元動作領域に含まれている。この例の場合も、例えば、3次元動作領域は、リハビリテーションによって回復することを目的とする動作に強く関連する部位(手)が動作する領域である。また、3次元動作領域は、手の移動のリハビリテーションにおいて、手を近接させる領域である。また、3次元動作領域は、手の移動の到達点となる位置(目標画像が示す位置)を含む領域である。また、3次元動作領域は、対象者EPが手の移動のリハビリテーション中に目的とする動作を行う場所である。なお、動作領域が3次元である場合の他の例として、出力領域900上の空間を挙げることができる。例えば、動作領域が出力領域900上の空間の場合、この空間に目標画像を投影し、対象者EPがその目標画像を手で触れる等のリハビリテーションを行ってもよい。   Here, the motion region is a region where a motion intended for the rehabilitation of the subject EP is performed. More specifically, it is a predetermined area in a space where a part that is strongly related to an action intended to recover by rehabilitation operates. In addition, for example, the motion region is a region where the subject EP brings the part close thereto in rehabilitation. In addition, for example, the motion region is a region including a position that is a target (reaching point) of the motion in the rehabilitation of the subject EP. In addition, the motion area is a place where the target person EP performs a target motion during rehabilitation. As a specific example of the motion area, in the case of a two-dimensional area, a floor, a table, and the like can be given. For example, in the case of a floor, a part that is strongly related to an action intended to recover by rehabilitation is a foot, and in the case of a table, the part is a hand. In addition, the subject EP brings his / her feet close to the floor in the rehabilitation of walking motion, and brings his / her hand close to the table in the rehabilitation of hand movement. In addition, for example, in the rehabilitation of walking motion, the floor is an area including the position that becomes the arrival point of the walking motion (display position of the target image), and the table is the position that becomes the arrival point of the hand in the rehabilitation of hand movement (target (Display position of image). Further, the floor and the table are places where the target motion is performed during rehabilitation of walking motion and rehabilitation of hand movement, respectively. A specific example of the case where the motion area is three-dimensional includes a space having a predetermined height with respect to the table surface on the table (hereinafter referred to as “three-dimensional motion area”). For example, the output device 200 displays a target image meaning “10 cm” on the table. For example, “10 cm” may be displayed at a certain position on the table. This is a target image that means that the position of 10 cm in height with respect to the table surface in the space immediately above the position where the target image of the table is displayed is the position where the hand reaches. . The position indicated by the target image is included in the three-dimensional motion area. Also in this example, for example, the three-dimensional motion region is a region in which a part (hand) that is strongly related to a motion intended to recover by rehabilitation operates. Further, the three-dimensional motion region is a region in which the hand is brought close to the hand movement rehabilitation. The three-dimensional motion area is an area including a position (a position indicated by the target image) that is a reaching point of hand movement. In addition, the three-dimensional motion region is a place where the target person EP performs a target motion during hand movement rehabilitation. As another example of the case where the motion area is three-dimensional, a space on the output area 900 can be given. For example, when the motion area is a space on the output area 900, rehabilitation such as projecting a target image into this space and touching the target EP with the hand may be performed.

表示制御部342は、出力装置200が出力する画像を生成する。例えば、表示制御部342は、動作領域に表示して対象者EPの動作を誘導する目標画像、リハビリテーションの評価結果の情報を含む画像、リハビリテーション中に行った対象者EPの検出対象部位の動作の軌跡を示す画像などを生成する。   The display control unit 342 generates an image output from the output device 200. For example, the display control unit 342 displays a target image that is displayed in the motion region and guides the motion of the subject EP, an image that includes information on the evaluation result of the rehabilitation, and a motion of the detection target portion of the subject EP performed during the rehabilitation. An image showing a locus is generated.

動作領域判定部343は、認識部341による認識結果に基づいて動作領域を判定する。後述するように、動作領域の判定方法は、様々であってよい。動作領域判定部343は、所定の判定条件に基づいて、例えば、動作領域がフロアであると判定する。また、例えば、動作領域判定部343は、動作領域がテーブルであると判定する。   The motion region determination unit 343 determines the motion region based on the recognition result by the recognition unit 341. As will be described later, there are various methods for determining the motion region. The motion area determination unit 343 determines, for example, that the motion area is a floor based on a predetermined determination condition. Further, for example, the motion area determination unit 343 determines that the motion area is a table.

動作領域判定部343は、動作領域を判定すると、対象者EPの動作領域に関連する検出対象となる部位(検出対象部位)を決定する。検出対象部位とは、リハビリテーションの目的とする動作に関係が深い体の一部である。例えば、動作領域判定部343は、動作領域をフロアであると判定した場合、対象者EPの足首を検出対象部位として決定する。あるいは、動作領域判定部343は、対象者EPのつま先を検出対象部位として決定してもよい。また、例えば、動作領域判定部343は、動作領域をテーブルであると判定した場合、対象者EPの手の甲を検出対象部位として決定する。あるいは、動作領域判定部343は、対象者EPの指先を検出対象部位として決定してもよい。   When the motion region determination unit 343 determines the motion region, the motion region determination unit 343 determines a portion (detection target portion) that is a detection target related to the motion region of the subject EP. The part to be detected is a part of the body that is deeply related to the movement intended for rehabilitation. For example, when the motion region determination unit 343 determines that the motion region is a floor, the motion region determination unit 343 determines the ankle of the subject EP as a detection target part. Alternatively, the motion region determination unit 343 may determine the toe of the subject person EP as the detection target part. For example, when the motion region determination unit 343 determines that the motion region is a table, the motion region determination unit 343 determines the back of the hand of the subject person EP as a detection target part. Alternatively, the motion region determination unit 343 may determine the fingertip of the subject person EP as the detection target part.

なお、動作領域に関連する検出対象部位は、予め記憶部33に設定されており、動作領域判定部343は、その情報と自らが判定した動作領域とに基づいて検出対象部位を決定する。検出対象部位には、例えば、リハビリテーションの目標とする動作において、動作範囲が大きい部位が設定されていてもよい。例えば、歩行動作のリハビリテーションであれば、動作範囲が大きい部位は、対象者EPの足(足首、つま先、踵など)である。手の移動のリハビリテーションであれば、動作範囲が大きい部位は、対象者EPの手(手首、指先、手の甲など)である。   The detection target part related to the motion region is set in the storage unit 33 in advance, and the motion region determination unit 343 determines the detection target part based on the information and the motion region determined by itself. For example, in the operation targeted for rehabilitation, a region having a large operation range may be set as the detection target region. For example, in the case of rehabilitation of walking motion, the part having a large motion range is the foot (ankle, toe, heel, etc.) of the subject EP. In the case of hand movement rehabilitation, the part having a large movement range is the hand (wrist, fingertip, back of hand, etc.) of the subject EP.

あるいは、検出対象部位には、表示制御部342が生成する目標画像の表示位置に近接する部位が設定されていてもよい。例えば、歩行動作のリハビリテーションの場合、本実施形態では、対象者EPが歩行動作において足を踏み出すべき位置に足型などを模した目標画像を表示するが、この場合、目標画像の表示位置に近接する部位とは、対象者EPの足(足首、つま先、踵など)である。また、手の移動のリハビリテーションの場合、対象者EPがタッチすべき位置に目標画像を表示するが、この場合、目標画像の表示位置に近接する部位とは、対象者EPの手(手首、指先、手の甲など)である。   Alternatively, a part close to the display position of the target image generated by the display control unit 342 may be set as the detection target part. For example, in the case of rehabilitation of walking motion, in this embodiment, a target image imitating a foot shape or the like is displayed at a position where the subject EP should step on the walking motion. In this case, the target image is close to the display position of the target image. The part to be performed is the foot (ankle, toe, heel, etc.) of the subject EP. In the case of hand movement rehabilitation, the target image is displayed at a position to be touched by the target person EP. In this case, the part close to the display position of the target image is the hand (wrist, fingertip) of the target person EP. , Back of the hand, etc.).

なお、認識部341は、検出結果情報に含まれる動作領域判定部343が決定した検出対象部位のデータ(体の一部の位置情報)を、記録部344を介して、検出履歴情報記憶部333に記録する。
記録部344は、検出結果情報を検出履歴情報記憶部333に書き込んで記録する。
The recognizing unit 341 uses the recording unit 344 to detect the detection target part data (positional information of a part of the body) determined by the motion region determining unit 343 included in the detection result information, via the recording unit 344. To record.
The recording unit 344 writes and records the detection result information in the detection history information storage unit 333.

目標決定部345は、認識部341が認識する対象者EPの体の一部(検出対象部位)の位置に基づいて対象者EPの体の一部の目標位置を決定する。例えば、歩行のリハビリテーションの場合、目標決定部345は、対象者EPの現在の足の位置、及び、対象者EPの足の位置の履歴のうち少なくともいずれかに基づいて、対象者EPの足の移動目標位置を決定する。特に、目標決定部345が、対象者EPの足の位置の履歴に基づいて対象者EPの進行方向を判定し、判定した進行方向に応じて移動目標位置を決定するようにしてもよい。あるいは、目標決定部345が、対象者EPの足の向きに基づいて対象者EPの進行方向を判定し、判定した進行方向に応じて移動目標位置を決定するようにしてもよい。あるいは、目標決定部345が、対象者EPの進行方向にかかわらず、例えばランダムな向きに、或いは所定のゴールの位置に向けて、移動目標位置を決定するようにしてもよい。   The target determination unit 345 determines a target position of a part of the body of the subject person EP based on the position of a part of the body (detection target part) of the subject person EP recognized by the recognition unit 341. For example, in the case of walking rehabilitation, the target determination unit 345 determines the foot of the subject person EP based on at least one of the current foot position of the subject person EP and the foot position history of the subject person EP. Determine the movement target position. In particular, the target determination unit 345 may determine the traveling direction of the subject person EP based on the foot position history of the subject person EP, and may determine the movement target position according to the determined traveling direction. Alternatively, the target determination unit 345 may determine the traveling direction of the subject person EP based on the direction of the foot of the subject person EP, and may determine the movement target position according to the determined traveling direction. Alternatively, the target determination unit 345 may determine the movement target position, for example, in a random direction or toward a predetermined goal position regardless of the traveling direction of the subject person EP.

目標決定部345が、対象者EPの体の検出対象部位の移動量を算出し、算出した移動量に基づいて移動目標位置を決定するようにしてもよい。例えば、認識部341が対象者EPの足の位置を認識する場合、目標決定部345は、対象者EPの足の位置の履歴に基づいて対象者EPの歩幅を算出する。そして、目標決定部345は、対象者EPの足の現在位置から歩幅分だけ移動した位置に移動目標位置を設定する。対象者EPの歩幅は、対象者EPの足の移動量を示しており、対象者EPの体の検出対象部位の移動量の例に該当する。
認識部341が対象者EPの足の位置の動きを認識する場合、目標決定部345が、対象者EPの足が動いた間隔を歩幅として検出するようにしてもよい。あるいは、認識部341が、対象者EPが床面に足をついた位置を認識する場合、目標決定部345が、対象者EPが床面に足をついた位置から次に足をついた位置までの間隔を歩幅として検出するようにしてもよい。
The target determination unit 345 may calculate the movement amount of the detection target part of the body of the subject EP and determine the movement target position based on the calculated movement amount. For example, when the recognition unit 341 recognizes the position of the foot of the subject person EP, the target determination unit 345 calculates the stride of the subject person EP based on the history of the foot position of the subject person EP. Then, the target determination unit 345 sets the movement target position at a position moved by the stride from the current position of the foot of the subject person EP. The stride length of the subject person EP indicates the amount of movement of the leg of the subject person EP, and corresponds to an example of the amount of movement of the detection target part of the body of the subject person EP.
When the recognition unit 341 recognizes the movement of the position of the foot of the subject person EP, the target determination unit 345 may detect the interval at which the foot of the subject person EP has moved as the stride. Alternatively, when the recognition unit 341 recognizes the position where the subject person EP has his / her foot on the floor surface, the target determination unit 345 has the position where the subject person EP has next to his / her foot from the floor surface. The interval up to may be detected as the stride.

評価部346は、対象者EPの体の検出対象部位の位置と移動目標位置との位置関係を評価する。例えば、評価部346は、認識部341が認識した対象者EPの体の部位の位置と、目標決定部345が決定した移動目標位置との距離を算出する。そして、評価部346は、算出した距離が所定の閾値以下か否かを判定する。対象者EPの体の検出対象部位と移動目標位置との距離が閾値以下であると判定した場合、評価部346は、目標位置到達と評価する。一方、対象者EPの体の検出対象部位と移動目標位置との距離が閾値より大きいと判定した場合、評価部346は、目標位置不到達と評価する。   The evaluation unit 346 evaluates the positional relationship between the position of the detection target part of the body of the subject person EP and the movement target position. For example, the evaluation unit 346 calculates the distance between the position of the body part of the subject person EP recognized by the recognition unit 341 and the movement target position determined by the target determination unit 345. Then, the evaluation unit 346 determines whether or not the calculated distance is equal to or less than a predetermined threshold value. When it is determined that the distance between the detection target part of the body of the subject person EP and the movement target position is equal to or less than the threshold value, the evaluation unit 346 evaluates that the target position has been reached. On the other hand, when it is determined that the distance between the detection target part of the body of the subject person EP and the movement target position is larger than the threshold value, the evaluation unit 346 evaluates that the target position has not been reached.

評価部346が用いる距離の閾値は、複数の対象者EPに共通に予め設定された定数であってもよい。あるいは、評価部346が、対象者EPの歩幅の10分の1を閾値に設定するなど対象者EP毎に閾値を設定するようにしてもよい。また、評価部346が用いる距離の閾値は、複数種類のリハビリテーションに共通に設定されていてもよいし、リハビリテーションの種類毎に設定されていてもよい。また閾値の大きさは、手を移動させるリハビリテーションよりも足を移動させるリハビリテーションの方が大きくなるよう設定されていてもよい。   The distance threshold used by the evaluation unit 346 may be a constant set in advance for a plurality of target persons EP. Or you may make it the evaluation part 346 set a threshold value for every object person EP, such as setting 1/10 of the stride of object person EP as a threshold value. Moreover, the threshold value of the distance used by the evaluation unit 346 may be set in common for a plurality of types of rehabilitation, or may be set for each type of rehabilitation. Moreover, the magnitude | size of a threshold value may be set so that the direction of the rehabilitation which moves a leg | foot may become larger than the rehabilitation which moves a hand.

また、評価部346が、対象者EPの体の一部の位置(検出対象部位)と移動目標位置との相対的な位置関係を評価する段階数は、上述した目標位置到達又は目標位置不到達の2段階に限らず、3段階以上の多段階であってもよい。例えば、評価部346が、目標位置到達か否かの判定閾値に加えてさらに目標位置不到達の場合のずれの大小の判定閾値を用いて、目標位置到達、ずれ小、ずれ大の3段階で評価を行うようにしてもよい。   The number of stages at which the evaluation unit 346 evaluates the relative positional relationship between the position of a part of the body of the subject EP (detection target part) and the movement target position is the target position arrival or target position non-reaching described above. It is not limited to these two stages, and may be a multi-stage having three or more stages. For example, the evaluation unit 346 uses, in addition to the determination threshold value for determining whether or not the target position has been reached, further the determination threshold value for the shift when the target position is not reached, in three stages: target position arrival, small shift, and large shift An evaluation may be performed.

また、評価部346が対象者EPの体の検出対象部位の位置と移動目標位置との位置関係を評価する方法は、閾値を用いる方法のみに限らない。例えば、評価部346が、対象者EPの体の検出対象部位の位置と移動目標位置との重なりの有無を判定し、重なり有りと判定した場合に目標位置到達と評価するようにしてもよい。
さらに、例えば歩行のリハビリテーションの場合、目標決定部345が、移動目標位置を面積のある範囲にて床面上に決定し、認識部341が、対象者EPの足の位置を、対象者EPの足の形状の範囲にて認識するようにしてもよい。そして、評価部346が、移動目標位置として決定されている範囲と、対象者EPの足の位置として検出された範囲との重なりの有無を判定するようにしてもよい。
Moreover, the method by which the evaluation unit 346 evaluates the positional relationship between the position of the detection target part of the body of the subject EP and the movement target position is not limited to a method using a threshold value. For example, the evaluation unit 346 may determine whether or not there is an overlap between the position of the detection target part of the body of the subject EP and the movement target position, and may determine that the target position has been reached when it is determined that there is an overlap.
Further, for example, in the case of walking rehabilitation, the target determination unit 345 determines the movement target position on the floor within a certain area, and the recognition unit 341 determines the position of the foot of the subject EP. You may make it recognize in the range of the shape of a leg | foot. Then, the evaluation unit 346 may determine whether or not there is an overlap between the range determined as the movement target position and the range detected as the position of the foot of the subject EP.

足用表示パラメータ設定部347は、歩行などの足を移動させるリハビリテーションにおいて、足用表示パラメータを設定する。足用表示パラメータは、対象者EPが足を移動させるときの目標画像の表示に用いられるパラメータである。
手用表示パラメータ設定部348は、手を動かすリハビリテーションにおいて、手用表示パラメータを設定する。手用表示パラメータは、対象者EPが手を動かすときの目標画像の表示に用いられるパラメータである。
外乱用表示パラメータ設定部349は、外乱用表示パラメータを設定する。外乱用表示パラメータは、リハビリテーションの対象者EPが足または手を所定の目標画像まで移動させるときに、対象者EPが足または手を目標画像まで移動させる妨げとなる外乱の表示に用いられるパラメータである。または、外乱用表示パラメータは、リハビリテーションの対象者EPが足または手を回避目標となる目標画像から回避させるときに、対象者EPが足または手を目標画像から回避させる妨げとなる外乱の表示に用いられるパラメータである。
The foot display parameter setting unit 347 sets foot display parameters in rehabilitation for moving a foot such as walking. The foot display parameter is a parameter used for displaying the target image when the subject EP moves his / her foot.
The hand display parameter setting unit 348 sets hand display parameters in rehabilitation for moving a hand. The hand display parameter is a parameter used for displaying the target image when the subject EP moves his / her hand.
The disturbance display parameter setting unit 349 sets a disturbance display parameter. The disturbance display parameter is a parameter used for displaying a disturbance that prevents the subject EP from moving the foot or hand to the target image when the subject EP of rehabilitation moves the foot or hand to the predetermined target image. is there. Alternatively, the disturbance display parameter is used to display a disturbance that prevents the target EP from avoiding the foot or hand from the target image when the target EP of the rehabilitation avoids the foot or hand from the target image. The parameter used.

操作部35は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。操作部35は、理学療法士等の指示をリハビリテーション支援制御装置300に入力する際に理学療法士等によって操作される。操作部35は、入力装置をリハビリテーション支援制御装置300に接続するためのインタフェースであってもよい。この場合、操作部35は、入力装置において理学療法士等の入力に応じ生成された入力信号をリハビリテーション支援制御装置300に入力する。操作部35は、表示部36と一体のタッチパネルとして構成されてもよい。   The operation unit 35 is configured using an existing input device such as a keyboard, a pointing device (such as a mouse or a tablet), a button, or a touch panel. The operation unit 35 is operated by a physical therapist or the like when inputting an instruction from the physical therapist or the like to the rehabilitation support control device 300. The operation unit 35 may be an interface for connecting the input device to the rehabilitation support control device 300. In this case, the operation unit 35 inputs an input signal generated in response to an input from a physical therapist or the like in the input device to the rehabilitation support control device 300. The operation unit 35 may be configured as a touch panel integrated with the display unit 36.

表示部36は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部36は、画像や文字を表示する。表示部36は、画像表示装置をリハビリテーション支援制御装置300に接続するためのインタフェースであってもよい。この場合、表示部36は、画像や文字を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。   The display unit 36 is an image display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro Luminescence) display. The display unit 36 displays images and characters. The display unit 36 may be an interface for connecting the image display device to the rehabilitation support control device 300. In this case, the display unit 36 generates a video signal for displaying images and characters, and outputs the video signal to an image display device connected to the display unit 36.

図3は、リハビリテーション支援制御装置300による第一動作領域を説明するための斜視図である。
図3は、対象者EPがテーブルT(第一動作領域)上で手の移動のリハビリテーションを行っている様子を示している。出力装置200は、テーブルTに目標画像M1を投影している。対象者EPは、出力装置200が出力領域900に出力する目標画像M1に基づいて、手の移動に関するリハビリテーションを行う。
センサ100は、対象者EPが検出範囲800内において手を移動する際の対象者EPの体の一部の位置を検出し、検出結果情報を所定の時間毎にリハビリテーション支援制御装置300に出力する。
FIG. 3 is a perspective view for explaining a first operation region by the rehabilitation support control device 300.
FIG. 3 shows a state in which the subject EP is performing rehabilitation of hand movement on the table T (first motion region). The output device 200 projects the target image M1 on the table T. The subject EP performs rehabilitation related to hand movement based on the target image M1 output to the output area 900 by the output device 200.
The sensor 100 detects the position of a part of the body of the subject EP when the subject EP moves the hand within the detection range 800, and outputs detection result information to the rehabilitation support control device 300 at predetermined time intervals. .

図4は、リハビリテーション支援システム1における画像の表示例を示す平面図である。図4では、リハビリテーション支援システム1を用いて手の動作のリハビリテーションを行う場合の画像の例を示している。図4の例では、出力装置200の画像の投影によって、机上の投影面(出力領域900)に画像が表示されている。具体的には、目標位置の履歴を示す目標画像M111a、M111b、M112a及びM112bと、対象者EPの手の位置の履歴画像M121a及びM121bと、対象者EPの現在の手の位置を示す画像M131a及びM131bと、次の目標位置を示す目標画像M141a及びM141bとが、それぞれ手の形の画像で示されている。図4では、符号の「a」は右手を示し、「b」は左手を示す。例えば、目標画像M111aは、右手の目標位置の履歴を示す。目標画像M111bは、左手の目標位置の履歴を示す。   FIG. 4 is a plan view showing a display example of an image in the rehabilitation support system 1. In FIG. 4, the example of the image in the case of performing rehabilitation of a hand operation | movement using the rehabilitation assistance system 1 is shown. In the example of FIG. 4, the image is displayed on the projection surface (output region 900) on the desk by projecting the image of the output device 200. Specifically, target images M111a, M111b, M112a and M112b indicating the history of the target position, history images M121a and M121b of the position of the hand of the subject EP, and an image M131a indicating the current hand position of the subject EP. And M131b and target images M141a and M141b indicating the next target position are shown as hand-shaped images, respectively. In FIG. 4, the symbol “a” indicates the right hand and “b” indicates the left hand. For example, the target image M111a shows the history of the target position of the right hand. The target image M111b shows the history of the target position of the left hand.

但し、リハビリテーション支援システム1におけるこれらの画像は、体の検出対象部位の形状の画像に限らない。例えば、出力装置200が、右手の目標位置を赤丸で表示し、左手の目標位置を青丸で表示するなど、体の検出対象部位の形状の画像に代えて丸印を表示するようにしてもよい。   However, these images in the rehabilitation support system 1 are not limited to images of the shape of the body detection target part. For example, the output device 200 may display a circle instead of the image of the shape of the detection target part of the body, such as displaying the target position of the right hand as a red circle and displaying the target position of the left hand as a blue circle. Good.

このように、表示制御部342が、出力装置200を制御してテーブルTに目標画像および履歴画像を表示させることで、対象者EPが、直感的に自分が目標に対して手を移動させた実績を把握できる。   In this way, the display control unit 342 controls the output device 200 to display the target image and the history image on the table T, so that the subject EP intuitively moves his / her hand relative to the target. Track record.

図5は、リハビリテーション支援制御装置300による第二動作領域を説明するための斜視図である。
図5は、対象者EPがフロアFL(第二動作領域)上で歩行動作のリハビリテーションを行っている様子を示している。出力装置200は、フロアFLに目標画像M2〜M5を投影している。対象者EPは、出力装置200が出力領域900に出力する目標画像M2〜M5に基づいて、歩行動作のリハビリテーションを行う。例えば、対象者EPは、目標画像M2〜M5に示されるスタート位置から目標位置まで歩行するリハビリテーションを行う。センサ100は、対象者EPが検出範囲800内において対象者EPの足の位置を検出し、検出結果情報を所定の時間毎にリハビリテーション支援制御装置300に出力する。
FIG. 5 is a perspective view for explaining a second operation region by the rehabilitation support control device 300.
FIG. 5 shows a state in which the subject EP is performing rehabilitation of walking motion on the floor FL (second motion region). The output device 200 projects target images M2 to M5 on the floor FL. The subject EP performs rehabilitation of walking motion based on the target images M2 to M5 output from the output device 200 to the output area 900. For example, the subject person EP performs rehabilitation to walk from the start position shown in the target images M2 to M5 to the target position. The sensor 100 detects the position of the foot of the subject EP within the detection range 800, and outputs the detection result information to the rehabilitation support control device 300 every predetermined time.

図6は、リハビリテーション支援システム1における画像の表示の例を示す平面図である。
図6は、リハビリテーション支援システム1における画像の表示の、もう1つの例を示す図である。図6では、リハビリテーション支援システム1を用いて歩行のリハビリテーションを行う場合の画像の例を示している。図6の例では、出力装置の画像の投影によって、床上の投影面(出力領域900)に画像が表示されている。具体的には、目標位置の履歴を示す目標画像M211〜M214と、対象者EPの足の位置の履歴画像M221〜M223と、対象者EPの現在の足の位置を示す画像M231と、次の目標位置を示す目標画像M241とが、それぞれ足の形の画像で示されている。
FIG. 6 is a plan view showing an example of image display in the rehabilitation support system 1.
FIG. 6 is a diagram illustrating another example of image display in the rehabilitation support system 1. In FIG. 6, the example of the image in the case of performing rehabilitation of a walk using the rehabilitation assistance system 1 is shown. In the example of FIG. 6, the image is displayed on the projection surface (output area 900) on the floor by projecting the image of the output device. Specifically, target images M211 to M214 indicating the history of the target position, history images M221 to M223 of the foot position of the subject person EP, an image M231 showing the current foot position of the subject person EP, A target image M241 indicating the target position is shown as a foot-shaped image.

図4の例では、右手、左手それぞれの目標位置が表示されていたのに対し、図6の例では、左足の次の目標画像M241が示されているものの、右足の次の目標画像は示されていない。手の移動では、右手と左手とを同時に動かし得るのに対し、歩行では右足と左足とを交互に動かすからである。なお、本実施形態のリハビリテーション支援システム1によれば、足の移動のリハビリテーションとして、歩行(左右の足を交互に踏み出す動作)だけではなく、片足だけを連続して移動させたり、「けんけんぱ」のように両足を同時に移動させたりする足の移動を訓練することも可能である。その場合、出力装置200は、それぞれの足の移動に応じた目標画像、履歴画像を出力領域900に出力する。
なお、図4を参照して説明したのと同様、出力装置200が表示する画像は、足の形の画像に限らない。例えば、出力装置200が、右足の目標位置を赤丸で表示し、左足の目標位置を青丸で表示するなど、足の形の画像に代えて丸印を表示するようにしてもよい。また上記の実施形態とは逆に、左右の足の目標画像を片方ずつ表示するのではなく、常に先行して左右の足の目標画像を共に表示するようにしてもよい。また現在の足の位置画像と過去の足の位置の履歴画像で異なる表示とすることも可能である。例えば現在の足の位置画像は円、方形などの図形で表示し、過去の左右の足の履歴画像は「足あと」の図形で表示してもよい。
In the example of FIG. 4, the target positions of the right hand and the left hand are displayed. In the example of FIG. 6, the next target image M241 of the left foot is shown, but the next target image of the right foot is shown. It has not been. This is because the right hand and the left hand can be moved simultaneously in hand movement, whereas the right and left legs are alternately moved in walking. According to the rehabilitation support system 1 of the present embodiment, as a rehabilitation of the movement of the foot, not only walking (the operation of alternately stepping on the left and right feet), but also moving only one foot continuously, “Kenkopa” It is also possible to train the movement of the foot that moves both feet at the same time. In that case, the output device 200 outputs a target image and a history image corresponding to the movement of each foot to the output area 900.
Note that, as described with reference to FIG. 4, the image displayed by the output device 200 is not limited to a foot-shaped image. For example, the output device 200 may display a circle instead of the foot-shaped image, such as displaying the target position of the right foot with a red circle and displaying the target position of the left foot with a blue circle. In contrast to the above embodiment, the left and right foot target images are not displayed one by one, but the left and right foot target images may always be displayed together. It is also possible to display differently between the current foot position image and the past foot position history image. For example, the current foot position image may be displayed as a graphic such as a circle or a rectangle, and the past left and right foot history images may be displayed as a “footstep” graphic.

このように、表示制御部342が、出力装置200を制御してフロアFLに目標画像および履歴画像を表示させることで、対象者EPが、直感的に自分が目標に対して足を移動させた実績を把握できる。   In this manner, the display control unit 342 controls the output device 200 to display the target image and the history image on the floor FL, so that the subject EP intuitively moves his / her foot relative to the target. Track record.

次に図7〜図12を用いて、対象者のリハビリテーション検出対象情報の検出および記録処理の流れについて説明する。
図7は、リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。
図8は、リハビリテーション支援制御装置300が手の移動目標となる目標画像を映し出す例を示す斜視図である。
図9は、リハビリテーション支援制御装置300が手の外乱を映し出す例を示す図である。
図10は、足用表示パラメータ設定部347がステップの値を設定する例を示す図である。
図11は、リハビリテーション支援制御装置300が、対象者EPが歩行する際の回避目標となる目標画像を映し出す例を示す斜視図である。
図12は、リハビリテーション支援制御装置300が、対象者EPが歩行する際の外乱を映し出す例を示す斜視図である。
まず、理学療法士又は作業療法士がこれから行おうとするリハビリテーション内容に応じて、対象者EPがリハビリテーションを行う環境にリハビリテーション支援システム1を移動させる。また、脚部310の高さを適切に調節する。次に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取る。例えば、テーブル上での腕のリハビリテーションを行う場合であれば、対象者EPは椅子に座ってテーブル上に手を置く姿勢を取る。また、例えば、歩行動作のリハビリテーションを行う場合、対象者EPは起立した姿勢を取る。対象者EPがこれらの姿勢を取ると、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力する。操作部35は、その準備開始指示情報を取得する(ステップS10)。なお、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力した後に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取っても良い。
Next, the flow of detection and recording processing of rehabilitation detection target information of the subject will be described with reference to FIGS.
FIG. 7 is a flowchart illustrating an example of a motion region determination process performed by the rehabilitation support control device 300.
FIG. 8 is a perspective view illustrating an example in which the rehabilitation support control device 300 projects a target image that is a movement target of the hand.
FIG. 9 is a diagram illustrating an example in which the rehabilitation support control device 300 displays a hand disturbance.
FIG. 10 is a diagram illustrating an example in which the foot display parameter setting unit 347 sets a step value.
FIG. 11 is a perspective view illustrating an example in which the rehabilitation support control device 300 projects a target image that is an avoidance target when the subject EP walks.
FIG. 12 is a perspective view showing an example in which the rehabilitation support control device 300 projects a disturbance when the subject EP walks.
First, the rehabilitation support system 1 is moved to an environment where the subject person EP performs rehabilitation according to the rehabilitation content that the physical therapist or occupational therapist intends to perform. Moreover, the height of the leg part 310 is adjusted appropriately. Next, the subject person EP takes a posture corresponding to the content of rehabilitation to be performed in the detection range 800. For example, in the case of performing arm rehabilitation on a table, the subject EP takes a posture of sitting on a chair and placing a hand on the table. Further, for example, when performing rehabilitation of walking motion, the subject EP takes a standing posture. When the subject person EP takes these postures, a physical therapist or the like inputs preparation start instruction information to the rehabilitation support control device 300. The operation unit 35 acquires the preparation start instruction information (step S10). In addition, after a physical therapist or the like inputs preparation start instruction information to the rehabilitation support control device 300, the subject EP may take an attitude corresponding to the content of rehabilitation to be performed in the detection range 800.

すると、センサ100が検出を開始し、入力部31は、検出結果情報を取得する(ステップS11)。入力部31は、検出結果情報を制御部34へ出力する。制御部34では、認識部341が検出結果情報を取得し、対象者EPの動作を認識する。あるいは、認識部341は、検出範囲800に存在するテーブル、フロア等を認識する。認識部341は、認識結果を動作領域判定部343へ出力する。   Then, the sensor 100 starts detection, and the input unit 31 acquires detection result information (step S11). The input unit 31 outputs detection result information to the control unit 34. In the control unit 34, the recognition unit 341 acquires the detection result information and recognizes the operation of the subject person EP. Alternatively, the recognizing unit 341 recognizes a table, floor, etc. existing in the detection range 800. The recognition unit 341 outputs the recognition result to the motion region determination unit 343.

次に動作領域判定部343は、図3及び図5を用いて説明した方法によって動作領域を判定する(ステップS12)。例えば、動作領域判定部343は、認識部341による認識結果が、対象者EPの全身を認識したことを示していれば、動作領域はフロアFLであると判定してもよい。また、例えば、動作領域判定部343は、認識結果がテーブルTの存在を示していれば、動作領域はテーブルTであると判定してもよい。動作領域判定部343は、この他にも、上述した様々な判定方法を用いて動作領域の判定を行うことができる。次に動作領域判定部343は、動作領域はフロアFLかどうかを判定する(ステップS13)。動作領域がフロアFLの場合(ステップS13;Yes)、動作領域判定部343は、検出対象部位を対象者EPの足(例えば、足首又はつま先)に設定する(ステップS17)。動作領域判定部343が、検出対象部位を対象者EPの足に設定すると、次に足用表示パラメータ設定部347は、足を移動させるリハビリテーションにおける足用表示パラメータを設定する(ステップS18)。足用表示パラメータは、対象者EPが足を移動させるときの目標画像の表示に用いられるパラメータである。   Next, the motion region determination unit 343 determines the motion region by the method described with reference to FIGS. 3 and 5 (step S12). For example, the motion region determination unit 343 may determine that the motion region is the floor FL if the recognition result by the recognition unit 341 indicates that the whole body of the subject person EP is recognized. For example, the motion region determination unit 343 may determine that the motion region is the table T if the recognition result indicates the presence of the table T. In addition to this, the motion region determination unit 343 can determine the motion region using the various determination methods described above. Next, the motion area determination unit 343 determines whether the motion area is the floor FL (step S13). When the motion region is the floor FL (step S13; Yes), the motion region determination unit 343 sets the detection target part to the foot (for example, ankle or toe) of the subject EP (step S17). When the motion region determination unit 343 sets the detection target part to the foot of the subject EP, the foot display parameter setting unit 347 next sets the foot display parameter in the rehabilitation for moving the foot (step S18). The foot display parameter is a parameter used for displaying the target image when the subject EP moves his / her foot.

足用表示パラメータには、例えば、足用距離パラメータ、足用時間パラメータ、足用ベクトルパラメータなどが含まれる。足用距離パラメータには、例えば、目標画像が示す歩幅を決定するために用いられるパラメータ(図10に示すステップの値)、目標画像が示すスタンス(歩隔を含む)を決定するために用いられるパラメータ(図10に示す歩隔)などが含まれている。スタンスとは、対象者の前方(例えば体の前面や顔面が向く方向や進行予定の方向)に伸びる2本の平行線であって対象者の2つの脚の所定部位(例えば踵や親指の先端)をそれぞれ通る平行線の距離を表す。また、足用時間パラメータには、例えば、目標画像が表示されリハビリテーションが行われる総時間を示すパラメータ、現在表示されている目標画像が表示されてから目標画像が表示される次のタイミングまでの時間を示すパラメータなどが含まれている。また、足用ベクトルパラメータには、例えば、現在表示されている目標画像を基準とした次のタイミングに表示される目標画像の表示方向を決定するために用いられるパラメータなどが含まれる。足用表示パラメータ設定部347は、指定された足用距離パラメータ、足用時間パラメータ、足用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。これらのパラメータを設定することにより、例えば、図6に例示したような足型の目標画像を対象者EPのリハビリテーションの内容に応じて表示することができる。   The foot display parameters include, for example, foot distance parameters, foot time parameters, foot vector parameters, and the like. For the foot distance parameter, for example, a parameter (step value shown in FIG. 10) used to determine the stride indicated by the target image and a stance (including a step) indicated by the target image are used. Parameters (steps shown in FIG. 10) and the like are included. A stance is two parallel lines that extend in front of the subject (for example, the front or face of the body or the direction in which the subject is scheduled to travel), and a predetermined part of the subject's two legs (eg, the tip of a heel or thumb) ) Represents the distance of the parallel lines passing through each of them. The foot time parameter includes, for example, a parameter indicating the total time during which the target image is displayed and rehabilitation is performed, and the time from when the currently displayed target image is displayed until the next timing at which the target image is displayed. The parameter which shows is included. In addition, the foot vector parameters include, for example, parameters used for determining the display direction of the target image displayed at the next timing with reference to the currently displayed target image. The foot display parameter setting unit 347 records the specified foot distance parameter, foot time parameter, foot vector parameter, and the like in the parameter information storage unit 334. By setting these parameters, for example, a foot-shaped target image as illustrated in FIG. 6 can be displayed according to the content of the rehabilitation of the subject EP.

この他にも、例えば、足用表示パラメータ設定部347は、目標画像が、対象者EPが歩行するときの回避目標となるリハビリテーションの場合に、操作部35から入力された情報に応じて、足用表示パラメータを設定する。目標画像が、対象者EPが歩行するときの回避目標となるリハビリテーションとは、例えば、図11に示すように、リハビリテーション支援制御装置300が、対象者EPが横断歩道を歩行するときに回避目標となる自動車の形状をした目標画像を映し出し、対象者EPが目標画像を回避するリハビリテーションである。   In addition to this, for example, when the target image is a rehabilitation that is an avoidance target when the target person EP walks, the foot display parameter setting unit 347 determines whether the foot image is displayed in accordance with information input from the operation unit 35. Set display parameters. For example, as shown in FIG. 11, the rehabilitation support control device 300 is an avoidance target when the target person EP walks on a pedestrian crossing. In this rehabilitation, a target image in the shape of a car is projected and the target person EP avoids the target image.

足用表示パラメータ設定部347が足用表示パラメータを設定すると、次に外乱用表示パラメータ設定部349は、足の外乱用表示パラメータを設定する(ステップS19)。例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、理学療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。外乱用表示パラメータ設定部349は、目標画像が、対象者EPが歩行するときの足の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300に入力された情報に応じて、外乱用表示パラメータを設定する。
外乱用表示パラメータは、例えば、図12で示したように、リハビリテーション支援制御装置300が、対象者EPが横断歩道を歩行するときに、リハビリテーションの対象者EPが足を所定の目標画像まで移動させる妨げとなる自動車の形状をした外乱を画像として映し出すために用いられるパラメータである。
When the foot display parameter setting unit 347 sets the foot display parameter, the disturbance display parameter setting unit 349 next sets the foot disturbance display parameter (step S19). For example, the rehabilitation support control device 300 executes a dedicated application, and a physical therapist or the like inputs various information to the rehabilitation support control device 300. The disturbance display parameter setting unit 349 displays a disturbance display parameter according to information input to the rehabilitation support control device 300 when the target image is rehabilitation that is a target for moving the foot when the subject EP walks. Set.
For example, as shown in FIG. 12, when the rehabilitation support control device 300 walks the crossing crosswalk, the rehabilitation support control device 300 causes the rehabilitation target EP to move the foot to a predetermined target image. It is a parameter used to project a disturbance in the shape of a hindering automobile as an image.

足の外乱用表示パラメータには、例えば、外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどが含まれる。外乱用距離パラメータには、例えば、現在表示されている外乱から次のタイミングに表示される外乱までの距離を決定するために用いられるパラメータなどが含まれる。また、外乱用時間パラメータには、例えば、現在表示されている外乱が現在と異なる位置に表示されるまでの時間を示すパラメータなどが含まれる。また、外乱用ベクトルパラメータには、例えば、現在表示されている外乱を基準とした次のタイミングに表示される外乱の表示方向を決定するために用いられるパラメータが含まれる。外乱用表示パラメータ設定部349は、指定された外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。   The foot disturbance display parameters include, for example, a disturbance distance parameter, a disturbance time parameter, a disturbance vector parameter, and the like. The distance parameter for disturbance includes, for example, a parameter used for determining the distance from the currently displayed disturbance to the disturbance displayed at the next timing. Further, the disturbance time parameter includes, for example, a parameter indicating a time until the currently displayed disturbance is displayed at a position different from the current position. Further, the disturbance vector parameters include, for example, parameters used for determining the display direction of the disturbance displayed at the next timing based on the currently displayed disturbance. The disturbance display parameter setting unit 349 records the specified disturbance distance parameter, disturbance time parameter, disturbance vector parameter, and the like in the parameter information storage unit 334.

一方、動作領域がフロアFLではない場合(ステップS13;No)。動作領域判定部343は、検出対象部位を手(例えば、手の甲又は指先)に設定する(ステップS14)。動作領域判定部343は、検出対象部位の情報を認識部341へ出力する。また、動作領域判定部343は、動作領域を、表示制御部342へ出力する。動作領域判定部343が、検出対象部位を対象者EPの手に設定すると、次に手用表示パラメータ設定部348は、手用表示パラメータを設定する(ステップS15)。例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、作業療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。手用表示パラメータ設定部348は、目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300から入力された情報に応じて、手用表示パラメータを設定する。
目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションとは、例えば、図8に示すように、リハビリテーション支援制御装置300が、対象者EPが手を動かすときの手の移動目標となるリンゴの形状をした目標画像を映し出し、対象者EPが目標画像の位置に手を移動させるリハビリテーションである。
On the other hand, when the operation region is not the floor FL (step S13; No). The motion region determination unit 343 sets the detection target part to the hand (for example, the back of the hand or the fingertip) (step S14). The motion region determination unit 343 outputs information on the detection target part to the recognition unit 341. In addition, the motion region determination unit 343 outputs the motion region to the display control unit 342. When the motion region determination unit 343 sets the detection target part in the hand of the subject EP, the hand display parameter setting unit 348 next sets the hand display parameter (step S15). For example, the rehabilitation support control device 300 executes a dedicated application, and an occupational therapist or the like inputs various information to the rehabilitation support control device 300. The hand display parameter setting unit 348 displays the hand image according to the information input from the rehabilitation support control device 300 when the target image is a rehabilitation that is a movement target of the hand when the subject EP moves the hand. Set the parameters.
For example, as shown in FIG. 8, the rehabilitation support control device 300 is a rehabilitation support control device 300 that moves the hand when the target person EP moves the hand. This is a rehabilitation in which a target image in the shape of an apple serving as a moving target is projected and the subject EP moves his hand to the position of the target image.

手用表示パラメータには、例えば、手用位置パラメータ、手用時間パラメータ、手用ベクトルパラメータなどが含まれる。手用位置パラメータには、例えば、目標画像が表示されるエリアを決定するために用いられるパラメータなどが含まれる。手用時間パラメータには、現在表示されている目標画像が現在と異なる位置に表示されるまでの時間を示す時間パラメータなどが含まれる。手用ベクトルパラメータには、現在表示されている目標画像を基準とした次のタイミングに表示される目標画像の表示方向を決定するために用いられるパラメータなどが含まれる。手用表示パラメータ設定部348は、指定された手用距離パラメータ、手用時間パラメータ、手用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。これらのパラメータを設定することにより、例えば、図4に例示したような目標画像を、対象者EPのリハビリテーションの内容に応じて表示することができる。   The hand display parameters include, for example, hand position parameters, hand time parameters, hand vector parameters, and the like. The hand position parameter includes, for example, a parameter used for determining an area where the target image is displayed. The manual time parameter includes a time parameter indicating a time until the currently displayed target image is displayed at a position different from the current one. The hand vector parameters include parameters used for determining the display direction of the target image displayed at the next timing with reference to the currently displayed target image. The hand display parameter setting unit 348 records the designated hand distance parameter, hand time parameter, hand vector parameter, and the like in the parameter information storage unit 334. By setting these parameters, for example, the target image illustrated in FIG. 4 can be displayed according to the content of the rehabilitation of the subject person EP.

手用表示パラメータ設定部348が手用表示パラメータを設定すると、外乱用表示パラメータ設定部349は、手の外乱用表示パラメータを設定する(ステップS16)。
例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、作業療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。外乱用表示パラメータ設定部349は、目標画像が、対象者EPが手を動かすときの手の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300に入力された情報に応じて、外乱用表示パラメータを設定する。
手の外乱用表示パラメータは、例えば、図9に示すように、リハビリテーション支援制御装置300が、対象者EPが選択したキャラクターである目標画像の位置に手を動かすときに、手の移動の妨げとなる選択してはいけないキャラクターである外乱を画像として映し出すために用いられるパラメータである。
When the hand display parameter setting unit 348 sets the hand display parameter, the disturbance display parameter setting unit 349 sets the hand disturbance display parameter (step S16).
For example, the rehabilitation support control device 300 executes a dedicated application, and an occupational therapist or the like inputs various information to the rehabilitation support control device 300. The disturbance display parameter setting unit 349 displays the disturbance display according to the information input to the rehabilitation support control device 300 when the target image is rehabilitation that is a movement target of the hand when the subject EP moves the hand. Set the parameters.
For example, as shown in FIG. 9, when the rehabilitation support control apparatus 300 moves the hand to the position of the target image that is the character selected by the subject EP, the hand disturbance display parameter is This is a parameter used to project a disturbance that is a character that should not be selected as an image.

手の外乱用表示パラメータには、例えば、外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどが含まれる。外乱用距離パラメータには、例えば、現在表示されている外乱から次のタイミングに表示される外乱までの距離を決定するために用いられるパラメータなどが含まれる。また、外乱用時間パラメータには、例えば、現在表示されている外乱が現在と異なる位置に表示されるまでの時間を示すパラメータなどが含まれる。また、外乱用ベクトルパラメータには、例えば、現在表示されている外乱を基準とした次のタイミングに表示される外乱の表示方向を決定するために用いられるパラメータが含まれる。外乱用表示パラメータ設定部349は、指定された外乱用距離パラメータ、外乱用時間パラメータ、外乱用ベクトルパラメータなどをパラメータ情報記憶部334に記録する。以上で実際のリハビリテーションの準備処理が完了する。次に対象者EPが、準備処理において判定した動作領域でのリハビリテーションを開始する。   The hand disturbance display parameters include, for example, a disturbance distance parameter, a disturbance time parameter, a disturbance vector parameter, and the like. The distance parameter for disturbance includes, for example, a parameter used for determining the distance from the currently displayed disturbance to the disturbance displayed at the next timing. Further, the disturbance time parameter includes, for example, a parameter indicating a time until the currently displayed disturbance is displayed at a position different from the current position. Further, the disturbance vector parameters include, for example, parameters used for determining the display direction of the disturbance displayed at the next timing based on the currently displayed disturbance. The disturbance display parameter setting unit 349 records the specified disturbance distance parameter, disturbance time parameter, disturbance vector parameter, and the like in the parameter information storage unit 334. This completes the actual rehabilitation preparation process. Next, the subject person EP starts rehabilitation in the motion region determined in the preparation process.

次に図13を用いて、リハビリテーション中の対象者EPの認識処理について説明する。
図13は、リハビリテーション支援制御装置300による対象者EPの認識処理の一例を示すフローチャートである。
リハビリテーションを行う対象者EPが検出範囲800に入ってリハビリテーションを開始する。また、理学療法士等は、対象者EPの氏名、性別、身長等と共に、リハビリーション開始指示情報をリハビリテーション支援制御装置300に入力する。すると、操作部35がリハビリテーション開始指示情報を取得する(ステップS20)。次に、表示制御部342は、動作領域に応じた目標画像を生成する。例えば、動作領域がフロアFLの場合、表示制御部342は、足型を表示した目標画像を生成する。また、目標決定部345は、その目標画像を表示する位置の座標情報を計算する。目標画像を表示する位置は、ステップS18で設定した足用表示パラメータに応じて変化させてもよい。また、動作領域がテーブルの場合、表示制御部342は、対象者EPが手でタッチする対象となるターゲットを表示した目標画像を生成する。また、目標決定部345は、その表示位置の座標情報を計算する。出力部32は、これらの情報(目標画像と表示位置)を取得し、出力装置200に出力指示を行う。出力装置200は、出力部32の指示に従って、表示制御部342が生成した目標画像を出力領域900に表示する(ステップS21)。このように、出力装置200が動作領域に目標画像を表示すると、対象者EPは、その表示位置に検出対象部位に関連する体の部位を移動させる動作を行う。例えば、足型の目標画像が表示された場合、対象者EPは、足型が表示された位置に足を移動させる。また、例えば、テーブル上にターゲットの目標画像が表示された場合、対象者EPは、目標画像が表示された位置に手を移動させ、テーブルにタッチする。
センサ100は、対象者EPの動作を検出し続け、リハビリテーション支援制御装置300へ出力する。リハビリテーション支援制御装置300では、入力部31が検出結果情報を取得し(ステップS22)、検出結果情報を、制御部34へ出力する。
Next, the recognition process of the subject person EP during the rehabilitation will be described with reference to FIG.
FIG. 13 is a flowchart illustrating an example of recognition processing of the subject person EP by the rehabilitation support control device 300.
The subject EP to be rehabilitated enters the detection range 800 and starts rehabilitation. In addition, the physical therapist or the like inputs rehabilitation start instruction information to the rehabilitation support control device 300 together with the name, gender, height, and the like of the subject EP. Then, the operation part 35 acquires rehabilitation start instruction information (step S20). Next, the display control unit 342 generates a target image corresponding to the operation area. For example, when the operation area is the floor FL, the display control unit 342 generates a target image displaying a foot shape. In addition, the target determination unit 345 calculates coordinate information of a position where the target image is displayed. The position for displaying the target image may be changed according to the foot display parameter set in step S18. When the operation area is a table, the display control unit 342 generates a target image that displays a target to be touched by the subject person EP by hand. Further, the target determining unit 345 calculates coordinate information of the display position. The output unit 32 acquires the information (target image and display position) and instructs the output device 200 to output the information. The output device 200 displays the target image generated by the display control unit 342 in the output area 900 according to the instruction of the output unit 32 (step S21). Thus, when the output device 200 displays the target image in the operation area, the subject person EP performs an operation of moving the body part related to the detection target part to the display position. For example, when a foot-shaped target image is displayed, the subject EP moves the foot to the position where the foot shape is displayed. For example, when the target image of the target is displayed on the table, the target person EP moves the hand to the position where the target image is displayed and touches the table.
The sensor 100 continues to detect the motion of the subject EP and outputs it to the rehabilitation support control device 300. In the rehabilitation support control apparatus 300, the input unit 31 acquires detection result information (step S22), and outputs the detection result information to the control unit 34.

制御部34では、認識部341が検出結果情報を取得する。認識部341は、検出結果情報を取得すると、その中から検出対象部位のデータを選択する。例えば、Kinect(登録商標)を利用した場合、認識部341は、検出結果情報として、対象者EPの複数の部位についての位置情報を取得する。認識部341は、その中から、動作領域判定部343が決定した検出対象部位の位置情報を選択する。例えば、動作領域判定部343が決定した検出対象部位が足(動作領域がフロア)の場合、認識部341は、検出結果情報の中から足(例えば、足首)の位置情報を選択する。また、例えば、動作領域判定部343が決定した検出対象部位が手(動作領域がテーブル)の場合、認識部341は、検出結果情報の中から手(例えば、手の甲)の位置情報を選択する。認識部341は、選択した検出対象部位とその位置情報を記録部344へ出力する。記録部344は、検出対象部位の検出結果情報を検出履歴情報記憶部333へ記録する(ステップS23)。このように、認識部341は、検出結果情報に対象者EPの動作に関する全身のデータが含まれている場合でも、検出結果情報に含まれるデータのうち、どのデータが動作領域に関連する検出対象部位のデータであるかを認識し、そのデータを選択する。そして、記録部344は、選択された検出対象部位の検出結果情報(位置情報)だけを記録する。   In the control unit 34, the recognition unit 341 acquires detection result information. When the recognition unit 341 acquires the detection result information, the recognition unit 341 selects data of the detection target part from the information. For example, when Kinect (registered trademark) is used, the recognition unit 341 acquires position information about a plurality of parts of the subject person EP as detection result information. The recognition unit 341 selects position information of the detection target part determined by the motion region determination unit 343 from the recognition unit 341. For example, when the detection target part determined by the motion region determination unit 343 is a foot (the motion region is a floor), the recognition unit 341 selects position information of the foot (for example, ankle) from the detection result information. Further, for example, when the detection target part determined by the motion region determination unit 343 is a hand (motion region is a table), the recognition unit 341 selects position information of the hand (for example, the back of the hand) from the detection result information. The recognition unit 341 outputs the selected detection target part and its position information to the recording unit 344. The recording unit 344 records the detection result information of the detection target part in the detection history information storage unit 333 (step S23). As described above, the recognition unit 341 can detect which data among the data included in the detection result information is related to the motion region even if the detection result information includes the whole body data related to the motion of the subject EP. Recognize whether it is part data and select that data. Then, the recording unit 344 records only the detection result information (position information) of the selected detection target part.

次に、表示制御部342は、履歴画像を生成し出力部32へ出力する。出力装置200は、出力部32の指示に従って、履歴画像を出力領域900に表示する(ステップS24)。
次に、制御部34は、検出処理を終了するかどうかを判定する(ステップS25)。例えば、理学療法士等がリハビリテーション終了指示情報を入力した場合、制御部34は、操作部35を介してその情報を取得し、検出処理を終了すると判定する。また、対象者EPが検出範囲800の外に出てしまった場合や対象者EPの手が検出範囲800の外に出てしまった場合、あるいは、予め設定されたリハビリテーションの実施時間が経過した場合にも、制御部34は、検出処理を終了すると判定する。
終了しないと判定した場合(ステップS25;No)、ステップS21からの処理を繰り返す。
終了すると判定した場合(ステップS25;Yes)、制御部34は、目標画像の生成処理や検出対象部位のデータを記録する処理を終了する。なお、表示制御部342は、検出履歴情報記憶部333に記録された対象者EPの検出対象部位のデータ(検出対象情報CG)から、今回のリハビリテーションにおける対象者EPの動作結果(例えば、検出対象部位が動いた軌跡)を表示する画像(以下、結果画像RPと記載する。)を生成し、出力装置200がこの画像を表示してもよい。ここで、結果画像RPとは、画像情報の一例である。
Next, the display control unit 342 generates a history image and outputs it to the output unit 32. The output device 200 displays the history image in the output area 900 according to the instruction of the output unit 32 (step S24).
Next, the control unit 34 determines whether or not to end the detection process (step S25). For example, when a physical therapist or the like inputs rehabilitation end instruction information, the control unit 34 acquires the information via the operation unit 35 and determines to end the detection process. Also, when the subject EP has gone out of the detection range 800, when the hand of the subject EP has gone out of the detection range 800, or when a preset rehabilitation time has elapsed In addition, the control unit 34 determines to end the detection process.
When it determines with not complete | finishing (step S25; No), the process from step S21 is repeated.
When it determines with complete | finishing (step S25; Yes), the control part 34 complete | finishes the production | generation process of a target image, and the process which records the data of a detection target part. Note that the display control unit 342 uses the detection result data (detection target information CG) of the target person EP recorded in the detection history information storage unit 333 to detect the operation result (for example, the detection target) of the target person EP in the current rehabilitation. An image (hereinafter, referred to as a result image RP) that displays the locus of movement of the part may be generated, and the output device 200 may display this image. Here, the result image RP is an example of image information.

次に図14を用いて、リハビリテーション中にパラメータ設定を行う処理について説明する。
図14は、リハビリテーション支援システム1を用いたリハビリテーションにおけるパラメータ設定の一例を示すフローチャートである。
まず、リハビリテーションの実施前に理学療法士等が、対象者EPについてのパラメータ(足用表示パラメータ等)を設定する(ステップS30)。具体的には、理学療法士等が、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照して、各種パラメータをリハビリテーション支援制御装置300に入力する。次に理学療法士等が、リハビリテーション支援制御装置300に準備開始指示情報を入力し、リハビリテーションを実施する(ステップS31)。上記のとおり、リハビリテーション支援制御装置300の動作領域判定部343は、動作領域を判定して検出対象部位の設定を行う。動作領域がフロアFLの場合、足用表示パラメータ設定部347が、ステップS30で入力された足用表示パラメータの設定を行う。また、外乱用表示パラメータ設定部349が、ステップS30で入力された足の外乱用表示パラメータの設定を行う。一方、動作領域がテーブルTの場合、手用表示パラメータ設定部348が、ステップS30で入力された手用表示パラメータを設定し、外乱用表示パラメータ設定部349が、ステップS30で入力された手の外乱用表示パラメータの設定を行う。足用表示パラメータ設定部347等によるパラメータの設定が終了すると、表示制御部342が、動作領域に応じて目標画像等を生成し、出力装置200がそれらの画像を表示する。対象者EPは、表示された目標画像に基づいてリハビリテーションを行う。予め定められた一連のリハビリテーション・プログラムが終了すると、表示制御部342が、リハビリテーション結果を含む画像を生成し、出力装置200がリハビリテーション結果を表示する(ステップS32)。リハビリテーション結果とは、例えば、評価部346によるリハビリテーション・プログラムを通した評価結果の実績値である。リハビリテーション結果は、例えば、目標画像の全表示数に対して評価部346が目標位置到達と評価した回数の割合として表示されてもよい。
Next, processing for setting parameters during rehabilitation will be described with reference to FIG.
FIG. 14 is a flowchart illustrating an example of parameter setting in rehabilitation using the rehabilitation support system 1.
First, before the rehabilitation is performed, a physical therapist or the like sets parameters (such as foot display parameters) for the subject EP (step S30). Specifically, a physical therapist or the like inputs various parameters to the rehabilitation support control device 300 with reference to a display screen (display unit 36) provided in the rehabilitation support control device 300. Next, a physical therapist etc. inputs preparation start instruction information to the rehabilitation support control apparatus 300, and implements rehabilitation (step S31). As described above, the motion region determination unit 343 of the rehabilitation support control device 300 determines the motion region and sets the detection target part. When the operation area is the floor FL, the foot display parameter setting unit 347 sets the foot display parameter input in step S30. Also, the disturbance display parameter setting unit 349 sets the foot disturbance display parameter input in step S30. On the other hand, when the operation area is the table T, the hand display parameter setting unit 348 sets the hand display parameter input in step S30, and the disturbance display parameter setting unit 349 sets the hand display parameter input in step S30. Set the disturbance display parameters. When the parameter setting by the foot display parameter setting unit 347 and the like is completed, the display control unit 342 generates a target image or the like according to the operation area, and the output device 200 displays these images. The subject person EP performs rehabilitation based on the displayed target image. When a series of predetermined rehabilitation programs are completed, the display control unit 342 generates an image including the rehabilitation result, and the output device 200 displays the rehabilitation result (step S32). The rehabilitation result is, for example, the actual value of the evaluation result through the rehabilitation program by the evaluation unit 346. The rehabilitation result may be displayed, for example, as a ratio of the number of times that the evaluation unit 346 evaluates that the target position has been reached with respect to the total display number of target images.

次に理学療法士等が、リハビリを続けるかどうかを判断する。例えば、理学療法士等は、予め定められた時間分だけリハビリテーションを行ったかどうかでリハビリテーションを続けるかどうかを判断してもよい。あるいは、理学療法士等は、対象者EPの疲れ具合やリハビリテーション結果が示す達成具合に基づいてリハビリテーションを続けるかどうかを判断してもよい。リハビリテーションを続けないと判断した場合(ステップS33;No)、フローチャートを終了する。   Next, a physical therapist determines whether to continue rehabilitation. For example, a physical therapist or the like may determine whether or not to continue the rehabilitation based on whether or not the rehabilitation is performed for a predetermined time. Alternatively, the physical therapist or the like may determine whether or not to continue the rehabilitation based on the degree of fatigue of the subject EP and the achievement level indicated by the rehabilitation result. When it is determined that the rehabilitation is not continued (step S33; No), the flowchart is ended.

リハビリテーションを続けると判断した場合(ステップS33;Yes)、理学療法士等は、パラメータ設定の見直しが必要かどうかを判断する(ステップS34)。例えば、対象者EPのリハビリテーション結果が予想を上回る場合、理学療法士等は、より難易度の高い動作を要求するようなパラメータ設定にするよう見直しが必要であると判断する。又は、対象者EPの手の移動や足の移動が予想通りであって、再度、同じ難易度の手や足の移動を訓練した方が良いと思われるような場合、理学療法士等は、パラメータ設定の見直しは必要ないと判断する。パラメータ設定の見直しが必要ないと判断した場合(ステップS34;No)、理学療法士等は、リハビリテーション支援制御装置300に開始指示情報を入力し、ステップS31からの処理を繰り返す。なお、同じ対象者EPに対して同じ動作領域でのリハビリテーションの実施を繰り返す場合、動作領域判定部343による動作領域の判定処理を省略してもよい。
パラメータ設定の見直しが必要と判断した場合(ステップS34;Yes)、理学療法士等は、新しいパラメータを検討する(ステップS35)。例えば、今回のリハビリテーション結果が良好だった場合、理学療法士等は、より難易度の高い動作を要求するようなパラメータを検討する。あるいは、今回のリハビリテーション結果が良好ではなかった場合、理学療法士等は、難易度の低い動作を要求するようなパラメータを検討する。パラメータを検討し終えると、理学療法士等は、その新しいパラメータを設定し(ステップS30)、ステップS31からの処理を繰り返す。本実施形態のリハビリテーション支援システム1によれば、パラメータを任意に設定することができるので、対象者EPは、体調や能力に応じたリハビリテーションを実施することができる。なお上記の説明においては、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照してパラメータ入力・設定を実行したが、出力装置200から出力されたパラメータ設定画面を参照して、フロアやテーブル上に表示された設定画面上で各種パラメータ入力・設定を実行してもよい。
When it is determined that the rehabilitation is continued (step S33; Yes), the physical therapist determines whether it is necessary to review the parameter setting (step S34). For example, when the rehabilitation result of the subject person EP exceeds the expectation, the physical therapist determines that it is necessary to review the parameter setting so as to require a more difficult operation. Or, if the subject's EP's movement of the hand or foot is as expected and it seems that it is better to train the movement of the hand or foot of the same difficulty again, the physical therapist, Judge that the parameter settings need not be reviewed. When it is determined that the parameter setting needs not be reviewed (step S34; No), the physical therapist or the like inputs start instruction information to the rehabilitation support control device 300, and repeats the processing from step S31. In addition, when performing rehabilitation in the same motion region for the same subject EP, the motion region determination processing by the motion region determination unit 343 may be omitted.
When it is determined that the parameter setting needs to be reviewed (step S34; Yes), the physical therapist examines a new parameter (step S35). For example, when the rehabilitation result this time is good, the physical therapist examines parameters that require a more difficult movement. Alternatively, if the current rehabilitation result is not good, a physical therapist or the like examines a parameter that requires an operation with low difficulty. When the parameters are examined, the physical therapist or the like sets the new parameters (step S30) and repeats the processing from step S31. According to the rehabilitation support system 1 of the present embodiment, the parameters can be arbitrarily set, so that the subject EP can perform rehabilitation according to physical condition and ability. In the above description, the parameter input / setting is executed with reference to the display screen (display unit 36) provided in the rehabilitation support control device 300, but the parameter setting screen output from the output device 200 is referred to. Various parameters may be input and set on a setting screen displayed on the floor or table.

本実施形態によれば、理学療法士が行うフロアFLでのリハビリテーション及び作業療法士が行うテーブルTでのリハビリテーションにおける対象者EPの動作情報(本実施形態の検出対象情報CG)の記録を、1台のリハビリテーション支援システム1で行うことができる。例えば、歩行動作のリハビリテーションを行う場所と手の移動のリハビリテーションを行うテーブルTとが離れた位置に存在しても、リハビリテーション支援システム1を移動させて、それぞれの位置で対象者EPの動作を検出し、動作情報を記録することができる。また、手の移動のリハビリテーションを、歩行動作のリハビリテーションを行う場所にテーブルTを設置して行うような場合、リハビリテーションの前に動作領域判定部343に動作領域を判定させるだけで、歩行動作のリハビリテーションを検出するモードと手の移動のリハビリテーションを検出するモードとを切り替えることができる。従って、リハビリテーションの種類ごとにリハビリテーション支援制御装置を導入する必要が無い。また、複数のリハビリテーション支援制御装置を導入した場合、各装置が出力する対象者EPに関するデータのデータ構造は異なることが一般的である。データ構造が異なると、例えば、ある対象者EPのリハビリテーション履歴を解析するような場合、データの扱いが複雑になり大変である。本実施形態では、対象者EPに関して記録するデータは、両手又は両足の一つの部位の位置情報であり、共通のデータ構造で記録、処理することができる。そのため、記録したデータの解析処理等を共通化することができ、データの扱いが容易になる。また、対象者EPがどのような動作をしようとも、リハビリテーションの目的とする動作に関連した部位の左右一対のデータに絞って認識処理及び記録処理を行うので、処理を高速化、簡素化することができる。また、一般的なモーションキャプチャでは、対象者EPの動作を検出するために、対象者EPはマーカを装着する必要があり手間がかかるといった問題があるが、本実施形態のリハビリテーション支援システム1であれば、対象者EPはマーカを装着する必要が無く、簡単に対象者EPの動作を検出することができる。   According to the present embodiment, the operation information (detection target information CG of the present embodiment) of the subject EP in the rehabilitation on the floor FL performed by the physical therapist and the rehabilitation on the table T performed by the occupational therapist is recorded as 1 This can be done with the table rehabilitation support system 1. For example, even if the place where the rehabilitation for walking motion is performed and the table T for performing the rehabilitation of hand movement exist at different positions, the rehabilitation support system 1 is moved to detect the motion of the subject EP at each position. The operation information can be recorded. In addition, when rehabilitation of hand movement is performed by installing a table T at a place where rehabilitation of walking motion is performed, rehabilitation of walking motion can be performed only by causing the motion region determination unit 343 to determine the motion region before rehabilitation. And a mode for detecting rehabilitation of hand movement can be switched. Therefore, it is not necessary to introduce a rehabilitation support control device for each type of rehabilitation. In addition, when a plurality of rehabilitation support control devices are introduced, the data structure of the data related to the subject person EP output by each device is generally different. If the data structure is different, for example, when analyzing the rehabilitation history of a certain subject EP, handling of the data becomes complicated and difficult. In the present embodiment, data to be recorded regarding the subject person EP is position information of one part of both hands or both feet, and can be recorded and processed with a common data structure. Therefore, it is possible to share the analysis processing of recorded data and the like, and the handling of data becomes easy. In addition, no matter what action the subject person EP performs, the recognition process and the recording process are limited to the pair of left and right data of the part related to the action intended for rehabilitation, so the process can be speeded up and simplified. Can do. Further, in general motion capture, there is a problem that the subject EP needs to wear a marker in order to detect the motion of the subject EP, which is troublesome. However, the rehabilitation support system 1 according to the present embodiment may be used. In this case, the subject person EP does not need to wear a marker and can easily detect the action of the subject person EP.

[認識情報の具体例:リハビリテーション内容が歩行の場合]
以下、図15及び図16を参照して、リハビリテーション内容が歩行である場合の検出対象情報CG及び結果画像RPのより具体的な例について説明する。
図15は、リハビリテーション内容が歩行である場合の認識部341の認識の一例を示す平面図である。
上述したように、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。また、この一例では、認識部341は、対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、検出対象情報CGを表示制御部342に供給する。以降の説明において、認識部341が認識する対象者EPの体の一部(検出対象部位)をリハビリ対象部位TPと記載する。認識部341は、認識した対象者EPのリハビリ対象部位TPの位置を示す検出対象情報CGを表示制御部342に供給する。
上述したように、この一例では、リハビリ対象部位TPが、足である。具体的には、リハビリ対象部位TPが、右足及び左足である。したがって、認識部341は、対象者EPの位置のうち、対象者EPの右足及び左足の位置を認識する。
認識部341は、対象者EPの歩行に伴い、右足が着地するフロアFL上の位置の座標を示す右足位置RFLを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの歩行に伴い、左足が着地するフロアFL上の位置の座標を示す左足位置LFLを検出対象情報CGとして表示制御部342に供給する。
[Specific example of recognition information: When rehabilitation is walking]
Hereinafter, with reference to FIGS. 15 and 16, more specific examples of the detection target information CG and the result image RP when the rehabilitation content is walking will be described.
FIG. 15 is a plan view illustrating an example of recognition by the recognition unit 341 when the rehabilitation content is walking.
As described above, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. In this example, the recognizing unit 341 recognizes whether it is detection data of a part (detection target part) of the body of the subject person EP, and supplies the detection target information CG to the display control unit 342. In the following description, a part (detection target part) of the body of the subject person EP recognized by the recognition unit 341 is referred to as a rehabilitation target part TP. The recognition unit 341 supplies the display control unit 342 with detection target information CG indicating the position of the rehabilitation target site TP of the recognized subject person EP.
As described above, in this example, the rehabilitation target site TP is a foot. Specifically, the rehabilitation target part TP is a right foot and a left foot. Therefore, the recognition unit 341 recognizes the positions of the right foot and the left foot of the subject person EP among the positions of the subject person EP.
The recognition unit 341 supplies the right foot position RFL indicating the coordinates of the position on the floor FL where the right foot lands as detection target information CG to the display control unit 342 as the subject EP walks. Further, the recognition unit 341 supplies the left foot position LFL indicating the coordinates of the position on the floor FL where the left foot lands as the detection target information CG to the display control unit 342 as the subject EP walks.

図15に示す通り、この一例では、右足及び左足がそれぞれ5回ずつ着地する。認識部341は、右足の1回目の着地の右足位置RFLである右足位置RFL1から5回目の着地の右足位置RFLである右足位置RFL5までを認識する。以降の説明において、右足位置RFL1から右足位置RFL5までを区別しない場合には、総称して右足位置RFLと記載する。認識部341は、左足の1回目の着地の左足位置LFLである左足位置LFL1から5回目の着地の左足位置LFLである左足位置LFL5までを認識する。以降の説明において、左足位置LFL1から左足位置LFL5までを区別しない場合には、総称して左足位置LFLと記載する。   As shown in FIG. 15, in this example, the right foot and the left foot each land 5 times. The recognizing unit 341 recognizes from the right foot position RFL1 which is the right foot position RFL of the first landing of the right foot to the right foot position RFL5 which is the right foot position RFL of the fifth landing. In the following description, when the right foot position RFL1 to the right foot position RFL5 are not distinguished, they are collectively referred to as the right foot position RFL. The recognizing unit 341 recognizes from the left foot position LFL1, which is the left foot position LFL of the first landing of the left foot, to the left foot position LFL5, which is the left foot position LFL of the fifth landing. In the following description, when the left foot position LFL1 to the left foot position LFL5 are not distinguished, they are collectively referred to as the left foot position LFL.

認識部341は、対象者EPの歩行に伴い、右足が空中を移動する軌跡の座標を示す右足軌跡RFTを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの歩行に伴い、左足が空中を移動する軌跡の座標を示す左足軌跡LFTを検出対象情報CGとして表示制御部342に供給する。
図15に示す通り、この一例では、右足及び左足がそれぞれ4回空中を移動する。認識部341は、右足の1回目の右足軌跡RFTである右足軌跡RFT1から4回目の右足軌跡RFTである右足軌跡RFT4までを認識する。以降の説明において、右足軌跡RFT1から右足軌跡RFT4までを区別しない場合には、総称して右足軌跡RFTと記載する。認識部341は、左足の1回目の左足軌跡LFTである左足軌跡LFT1から4回目の左足軌跡LFTである左足軌跡LFT1までを認識する。以降の説明において、左足軌跡LFT1から左足軌跡LFT4までを区別しない場合には、総称して左足軌跡LFTと記載する。
The recognizing unit 341 supplies the right foot locus RFT indicating the coordinates of the locus of the right foot moving in the air as the subject EP walks to the display control unit 342 as the detection target information CG. The recognizing unit 341 supplies the left foot locus LFT indicating the coordinates of the locus of the left foot moving in the air as the subject EP walks to the display control unit 342 as the detection target information CG.
As shown in FIG. 15, in this example, the right foot and the left foot each move four times in the air. The recognizing unit 341 recognizes from the right foot locus RFT1 which is the first right foot locus RFT of the right foot to the right foot locus RFT4 which is the fourth right foot locus RFT. In the following description, when the right foot locus RFT1 to the right foot locus RFT4 are not distinguished, they are collectively referred to as the right foot locus RFT. The recognizing unit 341 recognizes from the left foot locus LFT1 which is the first left foot locus LFT of the left foot to the left foot locus LFT1 which is the fourth left foot locus LFT. In the following description, when the left foot locus LFT1 to the left foot locus LFT4 are not distinguished, they are collectively referred to as the left foot locus LFT.

[表示制御部の具体例:リハビリテーション内容が歩行の場合]
以下、図16を参照して、表示制御部342が制御する結果画像RPのより具体的な例について説明する。
図16は、結果画像RP1の一例を示す第1の図である。
上述したように、表示制御部342は、表示制御部342は、検出対象情報CGに基づいて、対象者EPのリハビリ対象部位TPに行われたリハビリテーションの結果を示す結果画像RPを生成する。以降の説明において、リハビリ対象部位TPが足である場合の結果画像RPを結果画像RP1と記載する。
図16に示す通り、結果画像RP1には、リハビリ対象部位TPである足の位置に関する情報として、軌跡情報TC、着地タイミング情報GT、着地リズム情報GR、平均歩幅情報ALS、平均歩隔情報AFD、所要時間情報TR及び立脚時間比較情報STDが含まれる。
[Specific example of display control unit: When rehabilitation is walking]
Hereinafter, a more specific example of the result image RP controlled by the display control unit 342 will be described with reference to FIG.
FIG. 16 is a first diagram illustrating an example of the result image RP1.
As described above, the display control unit 342 generates the result image RP indicating the result of the rehabilitation performed on the rehabilitation target site TP of the subject EP based on the detection target information CG. In the following description, the result image RP when the rehabilitation target site TP is a foot is referred to as a result image RP1.
As shown in FIG. 16, in the result image RP1, as information on the position of the foot that is the rehabilitation target part TP, the trajectory information TC, landing timing information GT, landing rhythm information GR, average stride information ALS, average step information AFD, The required time information TR and the stance time comparison information STD are included.

[軌跡情報について]
軌跡情報TCとは、対象者EPが歩行することに伴う足の軌跡を示す情報である。
表示制御部342は、検出対象情報CGに含まれる右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、足の移動に伴う足の軌跡の表示を制御する。
例えば、表示制御部342は、検出対象情報CGに含まれる所定時間毎の右足位置RFL及び右足軌跡RFTが示す座標を結ぶ表示の制御を行う。これにより、表示制御部342は、軌跡情報TCとして右足の軌跡を表示する制御を行う。また、表示制御部342は、例えば、検出対象情報CGに示される所定時間毎の、左足位置LFL及び左足軌跡LFTが示す座標を結ぶ表示の制御を行う。これにより、表示制御部342は、軌跡情報TCとして左足の軌跡を表示する制御を行う。
[About trajectory information]
The trajectory information TC is information indicating the trajectory of the foot accompanying the subject EP walking.
The display control unit 342 controls the display of the foot trajectory accompanying the movement of the foot based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT included in the detection target information CG.
For example, the display control unit 342 controls display that connects the coordinates indicated by the right foot position RFL and the right foot locus RFT for each predetermined time included in the detection target information CG. Thereby, the display control unit 342 performs control to display a right foot locus as the locus information TC. In addition, the display control unit 342 controls, for example, display that connects the coordinates indicated by the left foot position LFL and the left foot locus LFT for each predetermined time indicated in the detection target information CG. Thereby, the display control unit 342 performs control to display the locus of the left foot as the locus information TC.

また、図16に示す通り、軌跡情報TCは、対象者EPの歩行の方向を示す歩行方向軸axdに沿って示される。
表示制御部342は、右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、歩行方向軸axdを算出する。表示制御部342は、歩行方向軸axdに沿って軌跡情報TCを表示する制御を行う。
また、表示制御部342は、歩行方向軸axdと、結果画像RPの軸とを合わせて軌跡情報TCを表示するように制御する。表示制御部342は、例えば、歩行方向軸axdと、結果画像RPのy軸との方向が一致するように軌跡情報TCを表示する制御を行う。
Further, as shown in FIG. 16, the trajectory information TC is indicated along the walking direction axis axd indicating the direction of walking of the subject person EP.
The display control unit 342 calculates the walking direction axis axd based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT. The display control unit 342 performs control to display the trajectory information TC along the walking direction axis axd.
In addition, the display control unit 342 controls to display the trajectory information TC by combining the walking direction axis axd and the axis of the result image RP. For example, the display control unit 342 performs control to display the trajectory information TC so that the directions of the walking direction axis axd and the y axis of the result image RP coincide.

なお、上述では、表示制御部342は、歩行方向軸axdと、結果画像RPのy軸との方向が一致するように表示する制御を行う場合について説明したが、これに限られない。表示制御部342は、ある直線方向を示す軸と、歩行方向軸axdとの方向が一致するように表示する制御を行ってもよい。ある直線方向を示す軸とは、例えば、結果画像RPのx軸の方向であってもよく、結果画像RPのx軸と、y軸とを合成した方向を示す軸であってもよい。結果画像RPのy軸とは、表示に関する第1の軸の一例である。   In the above description, the display control unit 342 has described the case where the display control unit 342 performs the display control so that the directions of the walking direction axis axd and the y axis of the result image RP coincide with each other. The display control unit 342 may perform control so that the axis indicating a certain linear direction and the direction of the walking direction axis axd coincide with each other. The axis indicating a certain linear direction may be, for example, the x-axis direction of the result image RP, or may be an axis indicating a direction obtained by combining the x-axis and the y-axis of the result image RP. The y axis of the result image RP is an example of a first axis related to display.

また、上述では、軌跡情報TCが結果画像RPとして表示される場合について説明したが、これに限られない。表示制御部342は、軌跡情報TCを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。   In the above description, the trajectory information TC is displayed as the result image RP. However, the present invention is not limited to this. The display control unit 342 may display the result image RP indicating the trajectory information TC as a moving image that is connected every unit time.

[着地タイミング情報について]
着地タイミング情報GTとは、対象者EPが歩行することに伴う足の着地タイミング示す情報である。
表示制御部342は、検出対象情報CGに含まれる右足位置RFL及び左足位置LFLに基づいて、足の着地に伴う着地タイミングの表示を制御する。
例えば、表示制御部342は、検出対象情報CGに含まれる右足位置RFLが検出された時刻と、位置とに基づいて、時間経過に伴う右足の位置の移動を表示する制御を行う。また、表示制御部342は、検出対象情報CGに含まれる左足位置LFLが検出された時刻と、位置とに基づいて、時間経過に伴う左足の位置の移動を表示する制御を行う。
[About landing timing information]
The landing timing information GT is information indicating the landing timing of the foot as the subject EP walks.
The display control unit 342 controls the display of the landing timing associated with the landing of the foot based on the right foot position RFL and the left foot position LFL included in the detection target information CG.
For example, the display control unit 342 performs control to display the movement of the position of the right foot over time based on the time when the right foot position RFL included in the detection target information CG is detected and the position. Further, the display control unit 342 performs control to display the movement of the position of the left foot over time based on the time when the left foot position LFL included in the detection target information CG is detected and the position.

また、図16に示す通り、着地タイミング情報GTは、対象者EPの歩行の方向を示す歩行方向軸axdに沿って示される。
表示制御部342は、右足位置RFL及び左足位置LFLに基づいて、歩行方向軸axdを算出する。表示制御部342は、歩行方向軸axdに沿って着地タイミング情報GTを表示する制御を行う。
また、表示制御部342は、歩行方向軸axdと、結果画像RPの軸とを合わせて着地タイミング情報GTを表示するように制御する。表示制御部342は、例えば、歩行方向軸axdと、結果画像RPのy軸との方向が一致するように着地タイミング情報GTを表示する制御を行う。
Moreover, as shown in FIG. 16, the landing timing information GT is indicated along the walking direction axis axd indicating the walking direction of the subject EP.
The display control unit 342 calculates the walking direction axis axd based on the right foot position RFL and the left foot position LFL. The display control unit 342 performs control to display the landing timing information GT along the walking direction axis axd.
The display control unit 342 controls to display the landing timing information GT by combining the walking direction axis axd and the axis of the result image RP. For example, the display control unit 342 performs control to display the landing timing information GT so that the walking direction axis axd and the y axis of the result image RP coincide with each other.

また、上述では、着地タイミング情報GTが結果画像RPとして表示される場合について説明したが、これに限られない。表示制御部342は、着地タイミング情報GTを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。   In the above description, the landing timing information GT is displayed as the result image RP. However, the present invention is not limited to this. The display control unit 342 may display the result image RP indicating the landing timing information GT as a moving image that is connected every unit time.

[着地リズム情報について]
着地リズム情報GRとは、対象者EPが歩行する際、足がフロアFLに着地する着地リズムを示す情報である。
表示制御部342は、検出対象情報CGに含まれる右足位置RFL及び左足位置LFLに基づいて、足の着地に伴う着地リズムの表示を制御する。
例えば、表示制御部342は、検出対象情報CGに含まれる右足位置RFL及び左足位置LFLが検出された時刻を、時間経過を示す時間軸axtに並べて表示する制御を行う。
[About landing rhythm information]
The landing rhythm information GR is information indicating a landing rhythm that a foot lands on the floor FL when the subject EP walks.
The display control unit 342 controls the display of the landing rhythm associated with the landing of the foot, based on the right foot position RFL and the left foot position LFL included in the detection target information CG.
For example, the display control unit 342 performs control to display the time at which the right foot position RFL and the left foot position LFL included in the detection target information CG are detected, side by side on the time axis axt indicating the passage of time.

また、図16に示す通り、表示制御部342は、時間軸axtと、結果画像RPの軸とを合わせて着地リズム情報GRを表示するように制御する。表示制御部342は、例えば、時間軸axtと、結果画像RPのx軸との方向が一致するように着地リズム情報GRを表示する制御を行う。   Also, as shown in FIG. 16, the display control unit 342 controls to display the landing rhythm information GR by combining the time axis axt and the axis of the result image RP. For example, the display control unit 342 performs control to display the landing rhythm information GR so that the directions of the time axis axt and the x axis of the result image RP coincide.

なお、上述では、表示制御部342が、時間軸axtと、結果画像RPのx軸との方向が一致するように表示する制御を行う場合について説明したが、これに限られない。表示制御部342は、ある直線方向を示す軸と、時間軸axtとの方向が一致するように表示する制御を行ってもよい。ある直線方向を示す軸とは、例えば、結果画像RPのy軸の方向であってもよく、結果画像RPのx軸と、y軸とを合成した方向を示す軸であってもよい。結果画像RPのx軸とは、表示に関する第2の軸の一例である。   In the above description, the case where the display control unit 342 performs control to display the time axis axt so that the direction of the x axis of the result image RP matches is described, but the present invention is not limited thereto. The display control unit 342 may perform control so that the axis indicating a certain linear direction and the direction of the time axis axt coincide with each other. The axis indicating a certain linear direction may be, for example, the y-axis direction of the result image RP, or may be an axis indicating a direction obtained by combining the x-axis and the y-axis of the result image RP. The x axis of the result image RP is an example of a second axis related to display.

また、上述では、着地リズム情報GRが結果画像RPとして表示される場合について説明したが、これに限られない。表示制御部342は、着地リズム情報GRを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。   In the above description, the landing rhythm information GR is displayed as the result image RP. However, the present invention is not limited to this. The display control unit 342 may display the result image RP indicating the landing rhythm information GR as a moving image that is connected every unit time.

[平均歩幅情報について]
平均歩幅情報ALSとは、対象者EPが歩行する際の足の歩幅の平均を示す情報である。具体的には、平均歩幅情報ALSには、対象者EPの右足の歩幅の平均を示す情報と、左足の歩幅の平均を示す情報とが含まれる。
例えば、表示制御部342は、検出対象情報CGに含まれる右足位置RFLに基づいて、右足の着地位置間の距離である右足の歩幅を算出する。また、表示制御部342は、右足位置RFLを複数取得した場合、右足位置RFLに基づいて算出される右足の歩幅の平均を算出する。また、表示制御部342は、検出対象情報CGに含まれる左足位置LFLに基づいて、左足の着地位置間の距離である左足の歩幅を算出する。また、表示制御部342は、左足位置LFLを複数取得した場合、左足位置LFLに基づいて算出される左足の歩幅の平均を算出する。表示制御部342は、算出した右足の歩幅の平均と、左足の歩幅の平均とを平均歩幅情報ALSとして表示する制御を行う。
[About average stride information]
The average stride information ALS is information indicating the average step length of the foot when the subject EP walks. Specifically, the average stride information ALS includes information indicating the average step length of the right foot of the subject person EP and information indicating the average step length of the left foot.
For example, the display control unit 342 calculates the stride of the right foot, which is the distance between the landing positions of the right foot, based on the right foot position RFL included in the detection target information CG. Further, when a plurality of right foot positions RFL are acquired, the display control unit 342 calculates an average of the right foot stride calculated based on the right foot position RFL. Further, the display control unit 342 calculates the step length of the left foot, which is the distance between the landing positions of the left foot, based on the left foot position LFL included in the detection target information CG. Further, when a plurality of left foot positions LFL are acquired, the display control unit 342 calculates an average of the stride length of the left foot calculated based on the left foot position LFL. The display control unit 342 performs control to display the calculated average of the right foot stride and the average of the left foot stride as average stride information ALS.

なお、上述では、表示制御部342が対象者EPの歩幅に関する情報を平均歩幅情報ALSとして表示を制御する一例について説明したが、これに限られない。表示制御部342は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩幅の最大値を表示する制御を行ってもよい。また、表示制御部342は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩幅の最小値を表示する制御を行ってもよい。
また、上述では、対象者EPの平均歩幅情報ALSには、右足の歩幅の平均と、左足の歩幅の平均とが含まれる一例について説明したが、これに限られない。表示制御部342は、対象者EPの右足と、左足との歩幅の平均を平均歩幅情報ALSとして表示する制御を行ってもよい。
In the above description, an example has been described in which the display control unit 342 controls the display using the information related to the stride of the subject EP as the average stride information ALS, but is not limited thereto. The display control unit 342 may perform control to display the maximum value of the stride of the subject EP based on the right foot position RFL and the left foot position LFL. Further, the display control unit 342 may perform control to display the minimum value of the stride of the subject EP based on the right foot position RFL and the left foot position LFL.
In the above description, an example in which the average stride information ALS of the subject person EP includes the average of the stride of the right foot and the average of the stride of the left foot has been described, but the present invention is not limited thereto. The display control unit 342 may perform control to display an average of the stride between the right foot and the left foot of the subject person EP as the average stride information ALS.

[平均歩隔情報について]
平均歩隔情報AFDとは、対象者EPが歩行する際の右足と左足との歩行時のスタンスを示す情報である。
例えば、表示制御部342は、検出対象情報CGに含まれる右足位置RFLが示す座標を結び、右足が進行する方向を示す右足軸を算出する。また、表示制御部342は、検出対象情報CGに含まれる左足位置LFLが示す座標を結び、左足が進行する方向を示す左足軸を算出する。表示制御部342は、右足軸及び左足軸と、直交又は略直交する方向における右足軸から左足軸までの距離である歩隔の平均を算出する。
表示制御部342は、算出した歩隔の平均を平均歩隔情報AFDとして表示する制御を行う。
[About average step information]
The average step information AFD is information indicating a stance during walking of the right foot and the left foot when the subject EP walks.
For example, the display control unit 342 connects the coordinates indicated by the right foot position RFL included in the detection target information CG, and calculates the right foot axis indicating the direction in which the right foot travels. Further, the display control unit 342 connects the coordinates indicated by the left foot position LFL included in the detection target information CG, and calculates the left foot axis indicating the direction in which the left foot travels. The display control unit 342 calculates the average of the steps, which is the distance from the right foot axis to the left foot axis in a direction orthogonal or substantially orthogonal to the right foot axis and the left foot axis.
The display control unit 342 performs control to display the calculated average of the steps as the average step information AFD.

なお、上述では、表示制御部342が対象者EPの歩隔に関する情報を平均歩隔情報AFDとして表示を制御する一例について説明したが、これに限られない。表示制御部342は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩隔の最大値を表示する制御を行ってもよい。また、表示制御部342は、右足位置RFL及び左足位置LFLに基づいて、対象者EPの歩隔の最小値を表示する制御を行ってもよい。   In the above description, an example has been described in which the display control unit 342 controls display using information related to the step of the subject EP as the average step information AFD, but the present invention is not limited thereto. The display control unit 342 may perform control to display the maximum value of the step of the subject EP based on the right foot position RFL and the left foot position LFL. Further, the display control unit 342 may perform control to display the minimum value of the step of the subject EP based on the right foot position RFL and the left foot position LFL.

[所要時間情報について]
所要時間情報TRとは、対象者EPが目標画像に応じて動作されるリハビリ対象部位TPの動作開始から動作終了までの時間を示す情報である。
例えば、表示制御部342は、検出対象情報CGのうち、最も過去の右足位置RFL又は左足位置LFLが検出された時刻と、検出対象情報CGのうち、最新の右足位置RFL又は左足位置LFLが検出された時刻との時間差を所要時間情報TRとして表示する制御を行う。
[About time information]
The required time information TR is information indicating the time from the start of operation to the end of operation of the rehabilitation target site TP in which the target person EP is operated according to the target image.
For example, the display control unit 342 detects the most recent right foot position RFL or left foot position LFL in the detection target information CG and the latest right foot position RFL or left foot position LFL in the detection target information CG. Control is performed to display the time difference from the set time as the required time information TR.

[認識情報の具体例:リハビリテーション内容が手の移動の場合]
以下、図17及び図18を参照して、リハビリテーション内容が手の移動である場合の検出対象情報CG及び結果画像RPのより具体的な例について説明する。
図17は、リハビリテーション内容が手の移動である場合の認識部341の認識の一例を示す平面図である。
図17に示す通り、この一例では、検出範囲800及び出力領域900とは、対象者EPが手を動作する面を有するテーブルTである。対象者EPは、出力装置200が出力領域900に出力する目標画像に基づいて、手の移動に関するリハビリテーションを行う。
この一例では、対象者EPが目標画像に基づいて、目標画像に示される複数の移動目標位置上に手をかざす動作をするリハビリテーションを行う。
上述したように、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。また、この一例では、認識部341は、対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、検出対象情報CGを表示制御部342に供給する。
上述したように、この一例では、リハビリ対象部位TPが、手である。具体的には、リハビリ対象部位TPが、右手及び左手である。したがって、認識部341は、対象者EPの位置のうち、対象者EPの右手及び左手の位置を認識する。
認識部341は、対象者EPの手の移動に伴い、右手が停止するテーブルT上の位置の座標を示す右手位置RHLを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの手の移動に伴い、左手が停止するテーブルT上の位置の座標を示す左手位置LHLを検出対象情報CGとして表示制御部342に供給する。
図17に示す通り、この一例では、右手及び左手がそれぞれ9回ずつテーブルT上に停止する。認識部341は、右手の1回目に停止する右手位置RHLである右手位置RHL1から9回目に停止する右手位置RHLである右手位置RHL9までを認識する。以降の説明において、右手位置RHL1から右手位置RHL9までを区別しない場合には、総称して右手位置RHLと記載する。認識部341は、左手の1回目に停止する左手位置LHLである左手位置LHL1から9回目に停止する左手位置LHLである左手位置LHL9までを認識する。以降の説明において、左手位置LHL1から左手位置LHL9までを区別しない場合には、総称して左手位置LHLと記載する。
[Specific example of recognition information: When rehabilitation is hand movement]
Hereinafter, with reference to FIGS. 17 and 18, more specific examples of the detection target information CG and the result image RP when the rehabilitation content is a hand movement will be described.
FIG. 17 is a plan view showing an example of recognition by the recognition unit 341 when the rehabilitation content is a hand movement.
As shown in FIG. 17, in this example, the detection range 800 and the output region 900 are a table T having a surface on which the subject EP moves his / her hand. The subject person EP performs rehabilitation related to hand movement based on the target image output from the output device 200 to the output area 900.
In this example, the target person EP performs rehabilitation based on the target image to perform an operation of holding a hand over a plurality of movement target positions indicated in the target image.
As described above, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. In this example, the recognizing unit 341 recognizes whether it is detection data of a part (detection target part) of the body of the subject person EP, and supplies the detection target information CG to the display control unit 342.
As described above, in this example, the rehabilitation target site TP is a hand. Specifically, the rehabilitation target part TP is a right hand and a left hand. Therefore, the recognition unit 341 recognizes the positions of the right hand and the left hand of the subject person EP among the positions of the subject person EP.
The recognition unit 341 supplies the right hand position RHL indicating the coordinates of the position on the table T where the right hand stops as the detection target information CG to the display control unit 342 in accordance with the movement of the hand of the subject EP. Further, the recognizing unit 341 supplies the left hand position LHL indicating the coordinates of the position on the table T where the left hand stops with the movement of the hand of the subject person EP to the display control unit 342 as the detection target information CG.
As shown in FIG. 17, in this example, the right hand and the left hand each stop on the table T nine times. The recognizing unit 341 recognizes from the right hand position RHL1 which is the right hand position RHL stopped at the first time of the right hand to the right hand position RHL9 which is the right hand position RHL stopped at the ninth time. In the following description, when the right hand position RHL1 to the right hand position RHL9 are not distinguished, they are collectively referred to as the right hand position RHL. The recognizing unit 341 recognizes from the left hand position LHL1 that is the left hand position LHL that stops at the first time of the left hand to the left hand position LHL9 that is the left hand position LHL that stops at the ninth time. In the following description, when the left hand position LHL1 to the left hand position LHL9 are not distinguished, they are collectively referred to as the left hand position LHL.

認識部341は、対象者EPの手の移動に伴い、右手が空中を移動する軌跡の座標を示す右手軌跡RHTを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの手の移動に伴い、左手が空中を移動する軌跡の座標を示す左手軌跡LHTを検出対象情報CGとして表示制御部342に供給する。   The recognizing unit 341 supplies the right hand locus RHT indicating the coordinates of the locus of the right hand moving in the air as the detection target information CG to the display control unit 342 in accordance with the movement of the hand of the subject EP. The recognizing unit 341 supplies the left hand locus LHT indicating the coordinates of the locus of the left hand moving in the air with the movement of the hand of the subject EP to the display control unit 342 as detection target information CG.

なお、上述では、手の移動のリハビリテーションが目標画像に示される移動目標位置上に手をかざす動作をする場合について説明したが、これに限られない。手の移動のリハビリテーションは、目標画像に示される移動目標位置に触れる動作をするものであってもよい。この場合、認識部341は、目標画像に示される移動目標位置に触れた座標を右手位置RHL及び左手位置LHLとして認識してもよい。   In the above description, the case where the rehabilitation of the movement of the hand moves the hand over the movement target position indicated in the target image has been described, but the present invention is not limited to this. The rehabilitation of the movement of the hand may be an operation of touching the movement target position shown in the target image. In this case, the recognition unit 341 may recognize the coordinates touching the moving target position indicated in the target image as the right hand position RHL and the left hand position LHL.

[表示制御部の具体例:リハビリテーション内容が手の移動の場合]
以下、図18を参照して、表示制御部342が制御する結果画像RPのより具体的な例について説明する。
図18は、結果画像RP2の一例を示す第2の図である。
上述したように、表示制御部342は、検出対象情報CGに基づいて、対象者EPのリハビリ対象部位TPに行われたリハビリテーションの結果を示す結果画像RPを生成する。以降の説明において、リハビリ対象部位TPが手である場合の結果画像RPを結果画像RP2と記載する。
図18に示す通り、結果画像RP2には、リハビリ対象部位TPである手の位置に関する情報として、右手到達範囲情報RHA、左手到達範囲情報LHA、動作速度情報HV、平均動作速度情報AHV、リーチ面積情報RS、リーチ情報RD及び左右使用比較情報LRDが含まれる。
[Specific example of the display control unit: When the rehabilitation content is hand movement]
Hereinafter, a more specific example of the result image RP controlled by the display control unit 342 will be described with reference to FIG.
FIG. 18 is a second diagram illustrating an example of the result image RP2.
As described above, the display control unit 342 generates a result image RP indicating the result of the rehabilitation performed on the rehabilitation target site TP of the subject EP based on the detection target information CG. In the following description, the result image RP when the rehabilitation target site TP is a hand will be referred to as a result image RP2.
As shown in FIG. 18, the result image RP2 includes right hand reachable range information RHA, left hand reachable range information LHA, motion speed information HV, average motion speed information AHV, reach area as information related to the position of the hand that is the rehabilitation target site TP. Information RS, reach information RD, and left-right use comparison information LRD are included.

[右手到達範囲情報について]
右手到達範囲情報RHAとは、対象者EPが右手を動作することによって、右手が到達する範囲を示す情報である。
表示制御部342は、右手位置RHL及び右手軌跡RHTに基づいて、右手が到達する範囲の表示を制御する。
例えば、表示制御部342は、XY平面上において対象者EPの位置から遠い座標を示す右手位置RHL及び右手軌跡RHTをスプライン曲線によって結ぶ範囲を示す表示の制御を行う。これにより、表示制御部342は、右手到達範囲情報RHAとして、右手が到達する範囲を表示する制御を行う。
[Right-hand reach information]
The right hand reach range information RHA is information indicating a range that the right hand reaches when the subject person EP moves the right hand.
The display control unit 342 controls the display of the range reached by the right hand based on the right hand position RHL and the right hand locus RHT.
For example, the display control unit 342 controls display indicating a range connecting the right hand position RHL indicating the coordinates far from the position of the subject EP on the XY plane and the right hand locus RHT by a spline curve. Thereby, the display control part 342 performs control which displays the range which a right hand reaches | attains as right hand reachable range information RHA.

[左手到達範囲情報について]
左手到達範囲情報LHAとは、対象者EPが左手を動作することによって、左手が到達する範囲示す情報である。
表示制御部342は、左手位置LHL及び左手軌跡LHTに基づいて、左手が到達する範囲の表示を制御する。
例えば、表示制御部342は、XY平面上において対象者EPの位置からY軸の成分を含む方向に離れた座標を示す左手位置LHL及び左手軌跡LHTをスプライン曲線によって結ぶ範囲を示す表示の制御を行う。これにより、表示制御部342は、左手到達範囲情報LHAとして、左手が到達する範囲を表示する制御を行う。
[Left hand range information]
The left hand reach range information LHA is information indicating a range that the left hand reaches when the subject EP moves the left hand.
The display control unit 342 controls the display of the range reached by the left hand based on the left hand position LHL and the left hand locus LHT.
For example, the display control unit 342 performs display control indicating a range connecting the left hand position LHL indicating the coordinates away from the position of the subject EP from the position of the subject EP on the XY plane and the left hand locus LHT by a spline curve. Do. Thereby, the display control part 342 performs control which displays the range which a left hand reaches as left hand reachable range information LHA.

[動作速度情報について]
動作速度情報HVとは、対象者EPが手を動作する際の速度が最速である速度を示す情報である。具体的には、動作速度情報HVには、対象者EPの右手の移動の最速速度を示す動作速度情報HVRと、左手の移動の最速速度を示す動作速度情報HVLとが含まれる。
表示制御部342は、右手位置RHL及び右手軌跡RHTに基づいて、右手が動作する際の最速速度の表示を制御する。
例えば、表示制御部342は、ある右手位置RHLが検出された時刻から、ある右手位置RHLの次に検出される右手位置RHLが検出された時刻までの時間を算出する。また、表示制御部342は、算出した時間と、右手軌跡RHTが示すある右手位置RHLからある右手位置RHLの次に検出される右手位置RHLまでの右手の移動距離とに基づいて、右手の移動速度を算出する。表示制御部342は、算出した右手の移動速度のうち、最速である移動速度を動作速度情報HVRとして表示する制御を行う。
[About operation speed information]
The operation speed information HV is information indicating the speed at which the speed when the subject EP moves his / her hand is the fastest. Specifically, the motion speed information HV includes motion speed information HVR indicating the fastest speed of movement of the right hand of the subject EP and motion speed information HVL indicating the fastest speed of movement of the left hand.
The display control unit 342 controls the display of the fastest speed when the right hand operates based on the right hand position RHL and the right hand locus RHT.
For example, the display control unit 342 calculates the time from the time when a certain right hand position RHL is detected to the time when the right hand position RHL detected next to the certain right hand position RHL is detected. Further, the display control unit 342 moves the right hand based on the calculated time and the movement distance of the right hand from the right hand position RHL indicated by the right hand locus RHT to the right hand position RHL detected next to the right hand position RHL. Calculate the speed. The display control unit 342 performs control to display the fastest moving speed among the calculated moving speeds of the right hand as the operation speed information HVR.

表示制御部342は、左手位置LHL及び左手軌跡LHTに基づいて、左手が動作する際の最速速度の表示を制御する。
例えば、表示制御部342は、ある左手位置LHLが検出された時刻から、ある左手位置LHLの次に検出される左手位置LHLが検出された時刻までの時間を算出する。また、表示制御部342は、算出した時間と、左手軌跡LHTが示すある左手位置LHLからある左手位置LHLの次に検出される左手位置LHLまでの左手の移動距離とに基づいて、左手の移動速度を算出する。表示制御部342は、算出した左手の移動速度のうち、最速である移動速度を動作速度情報HVLとして表示する制御を行う。
The display control unit 342 controls the display of the fastest speed when the left hand moves based on the left hand position LHL and the left hand locus LHT.
For example, the display control unit 342 calculates the time from the time when a certain left hand position LHL is detected to the time when the left hand position LHL detected next to the certain left hand position LHL is detected. Further, the display control unit 342 moves the left hand based on the calculated time and the left hand movement distance from the left hand position LHL indicated by the left hand locus LHT to the left hand position LHL detected next to the left hand position LHL. Calculate the speed. The display control unit 342 performs control to display the moving speed that is the fastest among the calculated moving speeds of the left hand as the operation speed information HVL.

[平均動作速度情報について]
動作速度情報HVとは、対象者EPが手を動作する際の速度の平均を示す情報である。具体的には、動作速度情報HVには、対象者EPの右手の移動の平均速度を示す平均動作速度情報AHVRと、左手の移動の最速速度を示す平均動作速度情報AHVLとが含まれる。
表示制御部342は、右手位置RHL及び右手軌跡RHTに基づいて、右手が動作する際の平均速度の表示を制御する。
例えば、表示制御部342は、ある右手位置RHLが検出された時刻から、ある右手位置RHLの次に検出される右手位置RHLが検出された時刻までの時間を算出する。また、表示制御部342は、算出した時間と、右手軌跡RHTが示すある右手位置RHLからある右手位置RHLの次に検出される右手位置RHLまでの右手の移動距離とに基づいて、右手の移動速度を算出する。また、表示制御部342は、算出した右手の移動速度の平均速度を算出する。表示制御部342は、算出した右手の平均速度を平均動作速度情報AHVRとして表示する制御を行う。
[About average operating speed information]
The operation speed information HV is information indicating an average speed when the subject EP moves his / her hand. Specifically, the operation speed information HV includes average operation speed information AHVR indicating the average speed of the right hand movement of the subject EP and average operation speed information AHVL indicating the maximum speed of the left hand movement.
The display control unit 342 controls display of the average speed when the right hand moves based on the right hand position RHL and the right hand locus RHT.
For example, the display control unit 342 calculates the time from the time when a certain right hand position RHL is detected to the time when the right hand position RHL detected next to the certain right hand position RHL is detected. Further, the display control unit 342 moves the right hand based on the calculated time and the movement distance of the right hand from the right hand position RHL indicated by the right hand locus RHT to the right hand position RHL detected next to the right hand position RHL. Calculate the speed. Further, the display control unit 342 calculates an average speed of the calculated moving speed of the right hand. The display control unit 342 performs control to display the calculated average speed of the right hand as the average operation speed information AHVR.

表示制御部342は、左手位置LHL及び左手軌跡LHTに基づいて、左手が動作する際の平均速度の表示を制御する。
例えば、表示制御部342は、ある左手位置LHLが検出された時刻から、ある左手位置LHLの次に検出される左手位置LHLが検出された時刻までの時間を算出する。また、表示制御部342は、算出した時間と、左手軌跡LHTが示すある左手位置LHLからある左手位置LHLの次に検出される左手位置LHLまでの左手の移動距離とに基づいて、左手の移動速度を算出する。また、表示制御部342は、算出した左手の移動速度の平均速度を算出する。表示制御部342は、算出した左手の平均速度を平均動作速度情報AHVLとして表示する制御を行う。
The display control unit 342 controls the display of the average speed when the left hand moves based on the left hand position LHL and the left hand locus LHT.
For example, the display control unit 342 calculates the time from the time when a certain left hand position LHL is detected to the time when the left hand position LHL detected next to the certain left hand position LHL is detected. Further, the display control unit 342 moves the left hand based on the calculated time and the left hand movement distance from the left hand position LHL indicated by the left hand locus LHT to the left hand position LHL detected next to the left hand position LHL. Calculate the speed. Further, the display control unit 342 calculates an average speed of the calculated left hand movement speed. The display control unit 342 performs control to display the calculated average speed of the left hand as the average operation speed information AHVL.

[リーチ面積情報について]
リーチ面積情報RSとは、対象者EPが手を動作することによって、手が到達する範囲の面積を示す情報である。具体的には、リーチ面積情報RSには、対象者EPの右手の到達する範囲の面積を示すリーチ面積情報RSRと、対象者EPの左手の到達する範囲の面積を示すリーチ面積情報RSLとが含まれる。
表示制御部342は、右手位置RHL及び右手軌跡RHTに基づいて、右手が到達する範囲の面積の表示を制御する。また、表示制御部342は、左手位置LHL及び左手軌跡LHTに基づいて、左手が到達する範囲の面積の表示を制御する。
例えば、表示制御部342は、上述した右手到達範囲情報RHAによって示される範囲の面積を既知の方法によって算出し、リーチ面積情報RSRとして表示す制御を行う。また、表示制御部342は、上述した左手到達範囲情報LHAによって示される範囲の面積を既知の方法によって算出し、リーチ面積情報RSLとして表示する制御を行う。
[About reach area information]
The reach area information RS is information indicating an area in a range where the hand reaches when the subject EP moves the hand. Specifically, the reach area information RS includes reach area information RSR indicating the area of the reach of the right hand of the subject EP and reach area information RSL indicating the area of the reach of the left hand of the subject EP. included.
The display control unit 342 controls the display of the area that the right hand reaches based on the right hand position RHL and the right hand locus RHT. Further, the display control unit 342 controls the display of the area of the range reached by the left hand based on the left hand position LHL and the left hand locus LHT.
For example, the display control unit 342 performs control to calculate the area of the range indicated by the above-described right-hand reach range information RHA by a known method and display it as reach area information RSR. In addition, the display control unit 342 performs control to calculate the area of the range indicated by the left-hand reach range information LHA described above by a known method and display it as reach area information RSL.

[リーチ情報について]
リーチ情報RDとは、対象者EPが手を動作することによって、手が到達する位置であって、対象者EPから最も遠い位置までの距離を示す情報である。具体的には、リーチ情報RDには、対象者EPの右手が到達する位置であって、対象者EPから最も遠い位置までの距離を示すリーチ情報RDRが含まれる。また、リーチ情報RDには、対象者EPの左手が到達する位置であって、対象者EPから最も遠い位置までの距離を示すリーチ情報RDLが含まれる。
[About reach information]
The reach information RD is information indicating the distance from the target person EP to the position farthest from the target person EP that is reached by the target person EP moving his / her hand. Specifically, the reach information RD includes reach information RDR indicating the distance from the right side of the subject person EP to the farthest position from the subject person EP. In addition, the reach information RD includes reach information RDL that indicates a distance from the left side of the subject person EP to the farthest position from the subject person EP.

表示制御部342は、右手位置RHL及び右手軌跡RHTに基づいて、右手が到達する位置であって、対象者EPの位置から最も遠い位置までの距離の表示を制御する。また、表示制御部342は、左手位置LHL及び左手軌跡LHTに基づいて、左手が到達する位置であって、対象者EPの位置から最も遠い位置までの距離の表示を制御する。   Based on the right hand position RHL and the right hand locus RHT, the display control unit 342 controls the display of the distance from the position of the subject EP to the farthest position where the right hand reaches. Further, the display control unit 342 controls the display of the distance from the position of the subject EP to the position farthest from the position of the subject EP, based on the left hand position LHL and the left hand locus LHT.

例えば、表示制御部342は、上述した右手到達範囲情報RHAによって示される範囲の外径のうち、対象者EPから最も遠い位置までの距離を算出し、リーチ情報RDRとして表示する制御を行う。
また、表示制御部342は、上述した左手到達範囲情報LHAによって示される範囲の外径のうち、対象者EPから最も遠い位置までの距離を算出し、リーチ情報RDLとして表示する制御を行う。
For example, the display control unit 342 performs control to calculate the distance to the position farthest from the subject EP among the outer diameters of the range indicated by the right hand reach range information RHA described above and display it as reach information RDR.
In addition, the display control unit 342 performs control to calculate the distance from the outer diameter of the range indicated by the left-hand reach range information LHA described above to the position farthest from the subject person EP and display it as reach information RDL.

[手軌跡情報について]
手軌跡情報HTCとは、対象者EPが手を動作することに伴う手の軌跡を示す情報である。
表示制御部342は、検出対象情報CGに含まれる右手位置RHL、左手位置LHL、右手軌跡RHT及び左手軌跡LHTに基づいて、対象者EPの手の移動に伴う軌跡の表示を制御する。
例えば、表示制御部342は、検出対象情報CGに含まれる所定時間毎の右手位置RHL及び右手軌跡RHTが示す座標を結ぶ表示の制御を行う。これにより、表示制御部342は、手軌跡情報HTCとして右手の軌跡を表示する制御を行う。また、表示制御部342は、例えば、検出対象情報CGに示される所定時間毎の左手位置LHL及び左手軌跡LHTが示す座標を結ぶ表示の制御を行う。これにより、表示制御部342は、手軌跡情報HTCとして左手の軌跡を表示する制御を行う。
[About hand tracking information]
The hand trajectory information HTC is information indicating a hand trajectory that accompanies the movement of the hand of the subject EP.
The display control unit 342 controls the display of the trajectory associated with the movement of the hand of the subject EP based on the right hand position RHL, the left hand position LHL, the right hand trajectory RHT, and the left hand trajectory LHT included in the detection target information CG.
For example, the display control unit 342 controls display that connects the coordinates indicated by the right hand position RHL and the right hand locus RHT for each predetermined time included in the detection target information CG. Thereby, the display control unit 342 performs control to display the right hand locus as the hand locus information HTC. In addition, the display control unit 342 controls, for example, display that connects the coordinates indicated by the left hand position LHL and the left hand locus LHT every predetermined time indicated in the detection target information CG. Thereby, the display control unit 342 performs control to display the locus of the left hand as the hand locus information HTC.

なお、上述では、手軌跡情報HTCが結果画像RPとして表示される場合について説明したが、これに限られない。表示制御部342は、手軌跡情報HTCを示す結果画像RPを単位時間毎につなぎ合わせた動画として表示してもよい。   In the above description, the case where the hand locus information HTC is displayed as the result image RP has been described. However, the present invention is not limited to this. The display control unit 342 may display the result image RP indicating the hand locus information HTC as a moving image that is connected every unit time.

[左右使用比較情報について]
左右使用比較情報LRDとは、右手位置RHL、右手軌跡RHT、左手位置LHL及び左手軌跡LHTに基づいて、対象者EPの右手と左手との使用の割合を示す情報である。
表示制御部342は、右手位置RHL、右手軌跡RHT、左手位置LHL及び左手軌跡LHTに基づいて、対象者EPの右手と左手との使用の割合を示す情報の表示を制御する。
例えば、表示制御部342は、右手位置RHL及び右手軌跡RHTに基づいて、リハビリテーションの開始から終了までの間に右手が移動した距離を算出する。また、表示制御部342は、左手位置LHL及び左手軌跡LHTに基づいて、リハビリテーションの開始から終了までの間に左手が移動した距離を算出する。表示制御部342は、算出した右手及び左手が移動した総距離に対する右手が移動した距離及び左手が移動した距離の割合を算出し、左右使用比較情報LRDとして表示する制御を行う。
[About left and right use comparison information]
The left / right use comparison information LRD is information indicating a usage ratio of the right hand and the left hand of the subject EP based on the right hand position RHL, the right hand locus RHT, the left hand position LHL, and the left hand locus LHT.
The display control unit 342 controls the display of information indicating the usage rate of the right hand and the left hand of the subject EP based on the right hand position RHL, the right hand locus RHT, the left hand position LHL, and the left hand locus LHT.
For example, the display control unit 342 calculates the distance that the right hand has moved from the start to the end of the rehabilitation based on the right hand position RHL and the right hand locus RHT. Further, the display control unit 342 calculates the distance that the left hand has moved from the start to the end of the rehabilitation based on the left hand position LHL and the left hand locus LHT. The display control unit 342 calculates the ratio of the distance moved by the right hand and the distance moved by the left hand to the calculated total distance moved by the right hand and the left hand, and performs control to display the left / right use comparison information LRD.

[実施形態のまとめ]
以上説明したように、本実施形態のリハビリテーション支援制御装置(本実施形態の一例では、リハビリテーション支援制御装置300)は、リハビリテーションの対象者(本実施形態の一例では、対象者EP)の体を検出するセンサ(本実施形態の一例では、センサ100)の検出結果を示す検出結果情報に基づいて、対象者の体の一部(本実施形態の一例ではリハビリ対象部位TP)の位置を認識する認識部(本実施形態の一例では、認識部341)と、認識部が認識する位置(本実施形態の一例では、検出対象情報CG)に基づいて、位置に関する情報の表示を制御する表示制御部(本実施形態の一例では、表示制御部342)と、を備える。
[Summary of Embodiment]
As described above, the rehabilitation support control device of the present embodiment (in the example of the present embodiment, the rehabilitation support control device 300) detects the body of the rehabilitation target person (in the example of the present embodiment, the target person EP). Recognition for recognizing the position of a part of the subject's body (rehabilitation target site TP in the example of the present embodiment) based on the detection result information indicating the detection result of the sensor (sensor 100 in the example of the present embodiment) Display controller (in the example of the present embodiment, a recognition unit 341) and a display control unit that controls the display of information related to the position based on the position recognized by the recognition unit (in the example of the present embodiment, the detection target information CG). An example of this embodiment includes a display control unit 342).

ここで、リハビリテーションの対象者は、当該対象者の体の一部がリハビリテーションに応じて動作した結果を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援制御装置は、対象者に行われるリハビリテーションに応じて当該対象者の体の一部が動作した動作の結果の表示を制御する。出力装置は、リハビリテーション支援制御装置が制御する表示を出力する。
本実施形態のリハビリテーション支援制御装置によれば、リハビリテーションの対象者は、当該対象者の体の一部が動作した結果を客観的に確認することができる。リハビリテーションの対象者は、当該対象者の体の一部が動作した結果を客観的に確認することによって、当該結果を以降のリハビリテーションの参考にすることができる。
したがって、本実施形態のリハビリテーション支援制御装置によれば、リハビリテーションの対象者のリハビリテーションを支援することができる。
Here, the subject of rehabilitation sometimes has difficulty in objectively confirming the result of movement of a part of the subject's body in accordance with the rehabilitation.
The rehabilitation support control device of the present embodiment controls display of a result of an operation in which a part of the subject's body is operated according to rehabilitation performed on the subject. The output device outputs a display controlled by the rehabilitation support control device.
According to the rehabilitation support control device of the present embodiment, the rehabilitation target person can objectively confirm the result of the operation of a part of the subject's body. The subject of rehabilitation can refer to the result of subsequent rehabilitation by objectively confirming the result of movement of a part of the subject's body.
Therefore, according to the rehabilitation support control device of the present embodiment, it is possible to support the rehabilitation of the rehabilitation target person.

また、本実施形態のリハビリテーション支援制御装置は、認識部は、リハビリテーションの対象者の体の一部である対象者の足の位置(本実施形態の一例では、右足位置RFL、右足軌跡RFT、左足位置LFL及び左足軌跡LFT)を認識し、表示制御部は、記認識部が認識する足の位置に基づいて、足の移動に伴う足の軌跡(本実施形態の一例では、軌跡情報TC)の表示を制御する。   Further, in the rehabilitation support control device of this embodiment, the recognizing unit has the position of the subject's foot that is a part of the body of the subject of rehabilitation (in the example of this embodiment, the right foot position RFL, the right foot locus RFT, the left foot Position LFL and left foot trajectory LFT), and the display control unit determines the foot trajectory (trajectory information TC in the example of the present embodiment) associated with the movement of the foot based on the foot position recognized by the recording recognition unit. Control the display.

リハビリテーションの対象者は、足に関するリハビリテーションを受ける場合、当該対象者の足がリハビリテーションに応じて動作した結果を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援制御装置は、対象者に行われるリハビリテーションに応じて当該対象者の歩行に伴う足の軌跡の表示を制御する。出力装置は、リハビリテーション支援制御装置が制御する表示を出力する。
本実施形態のリハビリテーション支援制御装置によれば、リハビリテーションの対象者は、当該対象者の歩行に応じて当該対象者の足が移動した軌跡を客観的に確認することができる。リハビリテーションの対象者は、当該対象者の足の軌跡を確認することによって、当該対象者が歩行する際の足の移動を客観的に確認することができる。
When a subject of rehabilitation undergoes rehabilitation related to a foot, it may be difficult to objectively confirm the result of the subject's foot moving according to the rehabilitation.
The rehabilitation support control device of the present embodiment controls the display of the foot trajectory accompanying the walking of the subject in accordance with the rehabilitation performed on the subject. The output device outputs a display controlled by the rehabilitation support control device.
According to the rehabilitation support control device of the present embodiment, the rehabilitation target person can objectively confirm the trajectory of the target person's foot moving in accordance with the walking of the target person. The subject of rehabilitation can objectively confirm the movement of the foot when the subject walks by confirming the trajectory of the subject's foot.

また、本実施形態のリハビリテーション支援制御装置は、表示制御部は、対象者の進行方向を示す軸(本実施形態の一例では、歩行方向軸axd)と、位置に関する情報の表示に関する第1の軸(本実施形態の一例では、y軸)とを合わせて軌跡の表示を制御する。   In addition, in the rehabilitation support control device of the present embodiment, the display control unit includes an axis indicating the traveling direction of the subject (a walking direction axis axd in the example of the present embodiment), and a first axis related to the display of information related to the position. (In the example of this embodiment, the display of the trajectory is controlled together with the y-axis).

本実施形態のリハビリテーション支援制御装置は、対象者の進行方向を示す軸と、表示に関する第1軸とを合わせて足の軌跡を表示する制御を行う。具体的には、リハビリテーション支援制御装置は、出力装置によって投影範囲に出力される軌跡の方向と、リハビリテーションの対象者が検出範囲を歩行した方向とが一致するように軌跡を表示する制御を行う。
これにより、リハビリテーションの対象者は、当該対象者の歩行に対する当該対象者の足の軌跡の認識を容易に行うことができる。
The rehabilitation support control apparatus according to the present embodiment performs control to display the trajectory of the foot by combining the axis indicating the traveling direction of the subject and the first axis related to the display. Specifically, the rehabilitation support control device performs control to display the trajectory so that the direction of the trajectory output to the projection range by the output device matches the direction in which the rehabilitation target person walks in the detection range.
Thereby, the subject of rehabilitation can recognize the locus | trajectory of the said subject's leg with respect to the said subject's walk easily.

また、本実施形態のリハビリテーション支援制御装置の認識部は、リハビリテーションの対象者の体の一部である足の位置であって、右足と、左足との着地位置(本実施形態の一例では、右足位置RFL及び左足位置LFL)を認識し、表示制御部は、認識部が認識する着地位置に基づいて、足の着地タイミングと、時間経過との関係を、位置に関する情報(本実施形態の一例では、着地リズム情報GR)の表示に関する第2の軸(本実施形態の一例では、x軸)に示す表示を制御する。   In addition, the recognition unit of the rehabilitation support control device according to the present embodiment is a position of a foot that is a part of the body of the subject of rehabilitation, and the landing position between the right foot and the left foot (in the example of the present embodiment, the right foot The display control unit recognizes the position RFL and the left foot position LFL), and based on the landing position recognized by the recognition unit, the relationship between the landing timing of the foot and the passage of time is obtained as information on the position (in the example of the present embodiment). , The display shown on the second axis (in the example of this embodiment, the x-axis) related to the display of the landing rhythm information GR).

本実施形態のリハビリテーション支援制御装置は、対象者の右足及び左足の着地タイミングと、時間経過との関係を表示に関する第2軸に示す。具体的には、リハビリテーション支援制御装置は、時間経過をx軸に示し、当該x軸に対象者の右足及び左足の着地が検出された時刻に応じて並べて表示する制御を行う。
これにより、リハビリテーションの対象者は、歩行の際に、右足又は左足のみで立脚している時間がどの程度の時間間隔であるかについて認識を容易に行うことができる。
The rehabilitation support control apparatus of this embodiment shows the relationship between the landing timing of the right foot and the left foot of the subject and the passage of time on the second axis related to display. Specifically, the rehabilitation support control apparatus performs time-lapse control on the x-axis, and controls the x-axis to display side by side according to the time when the landing of the right foot and the left foot of the subject is detected.
Thereby, the subject of rehabilitation can recognize easily about what time interval it is the time of standing up only with a right foot or a left foot at the time of a walk.

また、本実施形態のリハビリテーション支援制御装置は、認識部は、リハビリテーションの対象者の体の一部である手の位置(本実施形態の一例では、右手位置RHL、右手軌跡RHT、左手位置LHL及び左手軌跡LHT)を認識し、表示制御部は、認識部が認識する手の位置に基づいて、手の到達する範囲(本実施形態の一例では、右手到達範囲情報RHA及び左手到達範囲情報LHA)を示す表示を制御する。   Further, in the rehabilitation support control device of the present embodiment, the recognizing unit has a position of a hand that is a part of the body of the rehabilitation target (in the example of the present embodiment, the right hand position RHL, the right hand locus RHT, the left hand position LHL, and The display control unit recognizes the left hand locus LHT), and the display control unit recognizes the reach of the hand based on the hand position recognized by the recognition unit (in the example of the present embodiment, the right hand reach range information RHA and the left hand reach range information LHA). Controls the display of

リハビリテーションの対象者は、手に関するリハビリテーションを受ける場合、当該対象者の手がリハビリテーションに応じて動作した結果を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援制御装置は、対象者に行われるリハビリテーションに応じて当該対象者の手が到達する範囲の表示を制御する。出力装置は、リハビリテーション支援制御装置が制御する表示を出力する。
本実施形態のリハビリテーション支援制御装置によれば、リハビリテーションの対象者は、当該対象者の手の移動に応じて当該対象者の手が到達する範囲を客観的に確認することができる。リハビリテーションの対象者は、当該対象者の手の到達する範囲を確認することによって、当該対象者が手を動作する際の手の可動範囲を客観的に確認することができる。
When a subject of rehabilitation undergoes rehabilitation related to the hand, it may be difficult to objectively confirm the result of the subject's hand moving according to the rehabilitation.
The rehabilitation support control device of the present embodiment controls display of a range that the subject's hand reaches in accordance with rehabilitation performed on the subject. The output device outputs a display controlled by the rehabilitation support control device.
According to the rehabilitation support control device of the present embodiment, the rehabilitation target person can objectively confirm the range that the target person's hand reaches in accordance with the movement of the target person's hand. The subject of rehabilitation can objectively confirm the movable range of the hand when the subject moves the hand by confirming the reach of the subject's hand.

また、本実施形態のリハビリテーション支援制御装置は、リハビリテーションの対象者の体を検出するセンサの検出結果を示す検出結果情報に基づいて、対象者の体の一部の位置を認識する認識部と、認識部が認識する位置に基づいて、対象者がセンサに検出される検出位置(本実施形態の一例では、検出範囲800)から対象者が視認する範囲(本実施形態の一例では、出力領域900)に位置に関する情報の表示を制御する表示制御部とを備える。   Further, the rehabilitation support control device of the present embodiment includes a recognition unit that recognizes a position of a part of the subject's body based on detection result information indicating a detection result of a sensor that detects the subject's body of rehabilitation, Based on a position recognized by the recognition unit, a range (in the example of this embodiment, the output region 900) that the subject visually recognizes from a detection position (a detection range 800 in the example of this embodiment) where the subject is detected by the sensor. And a display control unit for controlling the display of information related to the position.

本実施形態のリハビリテーション支援制御装置は、リハビリテーションに応じて対象者の体の一部が動作した際の動作結果を出力装置の投影範囲に出力する表示の制御を行う。
ここで、対象者及び対象者の親族等複数の人が動作結果を確認する場合がある。この場合、本実施形態のリハビリテーション支援制御装置によれば、対象者及び対象者の親族等は、出力装置がディスプレイ等である場合と比較して、動作結果を容易に確認することができる。
The rehabilitation support control device of the present embodiment controls display for outputting an operation result when a part of the subject's body is operated in accordance with the rehabilitation to the projection range of the output device.
Here, there are cases where a plurality of persons such as the target person and the relatives of the target person confirm the operation result. In this case, according to the rehabilitation support control device of the present embodiment, the target person and the relatives of the target person can easily confirm the operation result as compared with the case where the output device is a display or the like.

また、本実施形態のリハビリテーション支援制御装置は、表示制御部は、位置に関する情報を対象者の体の一部と同一の尺度において示す表示を制御する。
本実施形態のリハビリテーション支援制御装置は、リハビリテーションに応じて対象者の体の一部が動作した際の動作結果を出力装置の投影範囲に同一の尺度で表示する制御を行う。具体的には、本実施形態のリハビリテーション支援制御装置は、リハビリテーションに応じて対象者の体の一部が動作した際の動作結果を出力装置の投影範囲に実寸大で表示する制御を行う。
したがって、本実施形態のリハビリテーション支援制御装置によれば、出力装置がディスプレイ等である場合と比較して、動作結果をより詳細に表示することができる。
本実施形態のリハビリテーション支援制御装置によれば、対象者は、出力装置がディスプレイ等である場合と比較して、動作結果をより詳細に認識することができる。
Further, in the rehabilitation support control device of the present embodiment, the display control unit controls display indicating information related to the position on the same scale as a part of the subject's body.
The rehabilitation support control apparatus according to the present embodiment performs control to display an operation result when a part of the subject's body moves according to the rehabilitation on the projection range of the output apparatus on the same scale. Specifically, the rehabilitation support control device according to the present embodiment performs control to display an operation result when a part of the subject's body is operated in accordance with the rehabilitation in the projection range of the output device in actual size.
Therefore, according to the rehabilitation support control device of the present embodiment, the operation result can be displayed in more detail as compared with the case where the output device is a display or the like.
According to the rehabilitation support control device of the present embodiment, the subject can recognize the operation result in more detail than when the output device is a display or the like.

[変形例1]
上記実施形態では、リハビリテーション支援制御装置300が、センサ100が検出した検出結果情報に基づいて、対象者EPのリハビリ対象部位TPの位置に関する情報の表示を制御する場合について説明したが、これに限られない。
変形例1では、リハビリテーション支援制御装置300が、センサ100が検出した検出結果情報と、他の検出結果情報とを比較した比較結果に関する情報の表示を制御する点において、上記実施形態と異なる。
以下、図19及び図20を参照して変形例1について説明する。
なお、上記実施形態と同一の構成を有する場合には、同一の符号を付して重複説明を省略する。
[Modification 1]
In the above-described embodiment, the case where the rehabilitation support control device 300 controls the display of information related to the position of the rehabilitation target site TP of the subject EP based on the detection result information detected by the sensor 100 has been described. I can't.
The modification 1 is different from the above-described embodiment in that the rehabilitation support control device 300 controls display of information related to a comparison result obtained by comparing the detection result information detected by the sensor 100 with other detection result information.
Hereinafter, Modification 1 will be described with reference to FIGS. 19 and 20.
In addition, when it has the same structure as the said embodiment, the same code | symbol is attached | subjected and duplication description is abbreviate | omitted.

[リハビリテーション支援制御装置の構成について]
図19は、変形例1のリハビリテーション支援制御装置320の機能構成例を示す概略ブロック図である。
リハビリテーション支援制御装置320は、情報処理装置を用いて構成される。リハビリテーション支援制御装置320は、バスで接続されたCPU、メモリ及び補助記憶装置を備える。リハビリテーション支援制御装置320は、リハビリテーション支援プログラムを実行することによって動作する。
リハビリテーション支援制御装置320は、入力部31、出力部32、記憶部33及び制御部37を備える。
[Configuration of rehabilitation support control device]
FIG. 19 is a schematic block diagram illustrating a functional configuration example of the rehabilitation support control device 320 according to the first modification.
The rehabilitation support control device 320 is configured using an information processing device. The rehabilitation support control device 320 includes a CPU, a memory, and an auxiliary storage device connected by a bus. The rehabilitation support control device 320 operates by executing a rehabilitation support program.
The rehabilitation support control device 320 includes an input unit 31, an output unit 32, a storage unit 33, and a control unit 37.

上述したように、検出履歴情報記憶部333は、センサ100が過去に検出した検出結果情報を記憶する。具体的には、検出履歴情報記憶部333は、認識部341が認識した対象者EPのリハビリ対象部位TPの位置情報(検出結果情報)の履歴を記憶する。例えば、歩行のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの足の位置の検出結果情報の履歴を記憶する。また、手の移動のリハビリテーションを行う場合、検出履歴情報記憶部333は、対象者EPの手の位置の検出結果情報の履歴を記憶する。
制御部37は、CPUを用いて構成される。制御部34は、リハビリテーション支援プログラムを実行することによって、認識部341、表示制御部342及び比較部351として機能する。
As described above, the detection history information storage unit 333 stores detection result information detected by the sensor 100 in the past. Specifically, the detection history information storage unit 333 stores a history of position information (detection result information) of the rehabilitation target part TP of the subject person EP recognized by the recognition unit 341. For example, when walking rehabilitation is performed, the detection history information storage unit 333 stores a history of detection result information on the position of the foot of the subject EP. When performing rehabilitation of hand movement, the detection history information storage unit 333 stores a history of detection result information on the position of the hand of the subject EP.
The control unit 37 is configured using a CPU. The control unit 34 functions as a recognition unit 341, a display control unit 342, and a comparison unit 351 by executing a rehabilitation support program.

認識部341は、入力部31から取得した検出結果情報に基づいて、対象者EPのリハビリ対象部位TPの位置を認識する。また、認識部341は、検出履歴情報記憶部333からセンサ100が過去に検出した検出結果情報を読み出し、対象者EPのリハビリ対象部位TPの位置を認識する。
認識部341は、認識した対象者EPのリハビリ対象部位TPの位置を示す検出対象情報CGを表示制御部342に供給する。以降の説明において、認識部341が入力部31から取得した検出結果情報に基づいて認識した対象者EPのリハビリ対象部位TPを検出対象情報CG1と記載する。また、認識部341が検出履歴情報記憶部333から読み出した検出結果情報に基づいて認識した対象者EPのリハビリ対象部位TPを検出対象情報CG2と記載する。
認識部341は、認識した検出対象情報CG1及び検出対象情報CG2を比較部351と、表示制御部342とに供給する。
The recognition unit 341 recognizes the position of the rehabilitation target site TP of the subject EP based on the detection result information acquired from the input unit 31. In addition, the recognition unit 341 reads out detection result information detected by the sensor 100 in the past from the detection history information storage unit 333, and recognizes the position of the rehabilitation target site TP of the subject EP.
The recognition unit 341 supplies the display control unit 342 with detection target information CG indicating the position of the rehabilitation target site TP of the recognized subject person EP. In the following description, the rehabilitation target part TP of the subject person EP recognized by the recognition unit 341 based on the detection result information acquired from the input unit 31 will be referred to as detection target information CG1. Further, the rehabilitation target part TP of the subject person EP recognized by the recognition unit 341 based on the detection result information read from the detection history information storage unit 333 is described as detection target information CG2.
The recognition unit 341 supplies the recognized detection target information CG1 and detection target information CG2 to the comparison unit 351 and the display control unit 342.

比較部351は、認識部341から検出対象情報CG1及び検出対象情報CG2を取得する。
比較部351は、取得した検出対象情報CG1及び検出対象情報CG2に基づいて、現在のリハビリ対象部位TPの位置に関する情報と、過去のリハビリ対象部位TPの位置に関する情報とを比較する。
比較部351は、例えば、検出対象情報CG1と、検出対象情報CG2とに基づいて、現在と過去との動作速度情報HVの差の割合を動作比較速度情報HVDとして算出する。また、比較部351は、例えば、検出対象情報CG1と、検出対象情報CG2とに基づいて、現在と過去とのリーチ情報RDの差の割合をリーチ比較情報RDDとして算出する。
比較部351は、算出した現在のリハビリ対象部位TPの位置に関する情報と、過去のリハビリ対象部位TPの位置に関する情報との比較結果を示す比較結果情報を表示制御部342に供給する。具体的には、比較部351は、算出した動作比較速度情報HVDと、リーチ比較情報RDDとを比較結果情報として表示制御部342に供給する。
The comparison unit 351 acquires the detection target information CG1 and the detection target information CG2 from the recognition unit 341.
Based on the acquired detection target information CG1 and detection target information CG2, the comparison unit 351 compares information regarding the current position of the rehabilitation target part TP with information regarding the position of the past rehabilitation target part TP.
For example, based on the detection target information CG1 and the detection target information CG2, the comparison unit 351 calculates the ratio of the difference between the current and past motion speed information HV as the motion comparison speed information HVD. For example, the comparison unit 351 calculates the ratio of the difference between the reach information RD between the present and the past as reach comparison information RDD based on the detection target information CG1 and the detection target information CG2.
The comparison unit 351 supplies the display control unit 342 with comparison result information indicating a comparison result between the calculated information on the current position of the rehabilitation target site TP and information on the past position of the rehabilitation target site TP. Specifically, the comparison unit 351 supplies the calculated operation comparison speed information HVD and reach comparison information RDD to the display control unit 342 as comparison result information.

[表示制御部の具体例:過去と現在との比較]
以下、図20を参照して、表示制御部342が制御する結果画像RP3のより具体的な例について説明する。
図20は、結果画像RP3の一例を示す第3の図である。
表示制御部342は、認識部341から検出対象情報CG1及び検出対象情報CG2を取得する。また、表示制御部342は、比較部351から比較結果情報を取得する。
表示制御部342は、比較結果情報に基づいて、対象者EPのリハビリ対象部位TPに行われたリハビリテーションの現在と、過去との結果の比較を示す結果画像RPを生成する。
以降の説明において、表示制御部342が検出対象情報CG1、検出対象情報CG2及び比較結果情報に基づいて、生成した結果画像RPを結果画像RP3と記載する。
図20に示す通り、結果画像RP3には、リハビリ対象部位TPである手の位置に関する情報として、結果画像RP2に含まれる情報の他、動作比較速度情報HVD及びリーチ比較情報RDDに関する情報が含まれる。
[Specific example of display control unit: Comparison between past and present]
Hereinafter, a more specific example of the result image RP3 controlled by the display control unit 342 will be described with reference to FIG.
FIG. 20 is a third diagram illustrating an example of the result image RP3.
The display control unit 342 acquires the detection target information CG1 and the detection target information CG2 from the recognition unit 341. In addition, the display control unit 342 acquires comparison result information from the comparison unit 351.
Based on the comparison result information, the display control unit 342 generates a result image RP that shows a comparison between the current and past results of the rehabilitation performed on the rehabilitation target site TP of the subject EP.
In the following description, the display control unit 342 describes the generated result image RP as the result image RP3 based on the detection target information CG1, the detection target information CG2, and the comparison result information.
As illustrated in FIG. 20, the result image RP3 includes information regarding the motion comparison speed information HVD and reach comparison information RDD in addition to the information included in the result image RP2, as information regarding the position of the hand that is the rehabilitation target site TP. .

[動作比較速度情報について]
動作比較速度情報HVDとは、対象者EPが手を動作する際の速度が最速である速度の現在と過去との差を割合で示す情報である。
表示制御部342は、取得した比較結果情報に基づいて、動作比較速度情報HVDを表示する制御を行う。
[About operation comparison speed information]
The motion comparison speed information HVD is information indicating, as a percentage, the difference between the current speed and the past speed at which the speed when the subject EP moves his / her hand is the fastest.
The display control unit 342 performs control to display the operation comparison speed information HVD based on the acquired comparison result information.

[リーチ比較情報について]
リーチ比較情報RDDとは、対象者EPが手を動作することによって、手が到達する位置であって、対象者EPから最も遠い位置までの距離の現在と過去との差を割合で示す情報である。
表示制御部342は、取得した比較結果情報に基づいて、リーチ比較情報RDDを表示する制御を行う。
[About reach comparison information]
The reach comparison information RDD is a position where the hand reaches when the subject EP moves the hand, and is information indicating the difference between the current and past distances from the subject EP to the farthest position in percentage. is there.
The display control unit 342 performs control to display the reach comparison information RDD based on the acquired comparison result information.

[右手到達範囲情報及び左手到達範囲情報の現在と過去との比較について]
なお、上述では、表示制御部342が比較結果に基づいて、動作比較速度情報HVDと、リーチ比較情報RDDとを表示する場合について説明したが、これに限られない。
表示制御部342は、認識部341から取得する検出対象情報CG1及び検出対象情報CG2に基づいて、現在と過去との比較に関する表示を制御してもよい。
例えば、表示制御部342は、検出対象情報CG1に基づいて、現在の右手到達範囲情報RHAを示す右手到達範囲情報RHA1として、右手が到達する範囲を表示する制御を行う。また、表示制御部342は、検出対象情報CG1に基づいて、現在の左手到達範囲情報LHAを示す左手到達範囲情報LHA1として、左手が到達する表示する制御を行う。
また、認識部341は、検出対象情報CG2に基づいて、過去の右手到達範囲情報RHAを示す右手到達範囲情報RHA2として、右手が到達する範囲を表示する制御を行う。また、表示制御部342は、検出対象情報CG2に基づいて、過去の左手到達範囲情報LHAを示す左手到達範囲情報LHA1として、左手が到達する範囲を表示する制御を行う。
図20に示す通り、この一例では、表示制御部342は、右手到達範囲情報RHA1、右手到達範囲情報RHA2、左手到達範囲情報LHA1及び左手到達範囲情報LHA2を重ねて表示する制御を行う。
[Comparison between right and left hand range information and current hand range information]
Although the case where the display control unit 342 displays the operation comparison speed information HVD and the reach comparison information RDD based on the comparison result has been described above, the present invention is not limited thereto.
The display control unit 342 may control display related to comparison between the present and the past based on the detection target information CG1 and the detection target information CG2 acquired from the recognition unit 341.
For example, the display control unit 342 performs control to display the range reached by the right hand as the right hand reachable range information RHA1 indicating the current right hand reachable range information RHA based on the detection target information CG1. Further, the display control unit 342 performs control to display the left hand reaching as the left hand reachable range information LHA1 indicating the current left hand reachable range information LHA based on the detection target information CG1.
Further, the recognition unit 341 performs control to display the range that the right hand reaches as the right hand reachable range information RHA2 indicating the past right hand reachable range information RHA based on the detection target information CG2. In addition, the display control unit 342 performs control to display a range that the left hand reaches as left hand reachable range information LHA1 indicating past left hand reachable range information LHA based on the detection target information CG2.
As shown in FIG. 20, in this example, the display control unit 342 performs control to display the right hand reachable range information RHA1, the right hand reachable range information RHA2, the left hand reachable range information LHA1, and the left hand reachable range information LHA2.

なお、上述では、検出対象情報CG1が、センサ100が現在検出した検出結果情報に基づいて認識部341が対象者EPのリハビリ対象部位TPを認識した情報である場合について説明したが、これに限られない。検出対象情報CG1は、検出履歴情報記憶部333に含まれる検出結果情報より後に検出された検出結果情報に基づいて認識部341が対象者EPのリハビリ対象部位TPを認識したであれば、現在に検出された検出結果情報でなくてもよい。   In the above description, the case where the detection target information CG1 is information in which the recognition unit 341 recognizes the rehabilitation target site TP of the target person EP based on the detection result information currently detected by the sensor 100 has been described. I can't. If the recognition unit 341 recognizes the rehabilitation target part TP of the subject EP based on the detection result information detected after the detection result information included in the detection history information storage unit 333, the detection target information CG1 It may not be detected detection result information.

以上説明したように、本実施形態のハビリテーション支援装置(変形例1の一例では、リハビリテーション支援制御装置320)は、認識部が第1の時期(変形例1の一例では、現在)に認識した対象者の体の一部の位置を示す認識結果である第1認識結果(変形例1の一例では、検出対象情報CG1)と、第1の時期よりも過去の第2の時期に認識した認識結果である第2認識結果(変形例1の一例では、検出対象情報CG2)とに基づいて、前記対象者の体の一部の位置を比較する比較部(変形例1の一例では、比較部351)を更に備え、表示制御部は、第1認識結果と、第2認識結果とを比較した比較結果に関する情報の表示を制御する。   As described above, the rehabilitation support control device 320 according to the present embodiment (in the first modification example, the rehabilitation support control apparatus 320) is recognized by the recognition unit at the first time (currently in the first modification example). First recognition result (detection target information CG1 in the first modification example) that is a recognition result indicating the position of a part of the person's body, and a recognition result recognized at a second time earlier than the first time. Based on the second recognition result (detection target information CG2 in the example of the first modification), a comparison unit (in the first modification example, the comparison unit 351 compares the positions of a part of the subject's body). The display control unit controls display of information related to the comparison result obtained by comparing the first recognition result and the second recognition result.

ここで、リハビリテーションの対象者は、当該対象者のリハビリテーションの経過を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援制御装置は、リハビリテーションの対象者の体の位置が過去に検出された検出結果情報と、当該検出結果情報が検出されたよりも後に検出された検出結果情報とに基づいて、リハビリテーションの効果を客観的に確認することができる。
Here, the subject of rehabilitation sometimes has difficulty in objectively confirming the progress of the subject's rehabilitation.
The rehabilitation support control device of the present embodiment is based on detection result information in which the position of the body of the subject of rehabilitation was detected in the past, and detection result information detected after the detection result information has been detected, The effect of rehabilitation can be confirmed objectively.

なお、上述では、リハビリテーション支援制御装置320は、リハビリテーションの対象者の過去の検出結果情報と、当該対象者の現在の検出結果情報とに基づいて比較した比較結果に関する情報の表示を制御する場合について説明したが、これに限られない。
リハビリテーション支援制御装置320は、リハビリテーションの対象者の体の一部の動作の基準を示す基準情報と、当該対象者の現在の検出結果情報とに基づいて比較した比較結果に関する情報の表示を制御してもよい。
In the above description, the rehabilitation support control device 320 controls the display of information related to the comparison result based on the past detection result information of the rehabilitation target person and the current detection result information of the target person. Although explained, it is not limited to this.
The rehabilitation support control device 320 controls the display of information related to the comparison result based on the reference information indicating the reference of the movement of a part of the body of the subject of rehabilitation and the current detection result information of the subject. May be.

ここで、リハビリテーションの対象者は、当該対象者のリハビリテーションの結果と、リハビリテーションの目標との乖離を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援制御装置は、リハビリテーションの対象者の体の位置が検出された検出結果情報と、当該対象者のリハビリテーションの目標を示す基準情報とに基づいて、リハビリテーションの目標までの乖離を客観的に確認することができる。
Here, the subject of rehabilitation sometimes has difficulty in objectively confirming the difference between the rehabilitation result of the subject and the rehabilitation target.
The rehabilitation support control device according to the present embodiment calculates a deviation from the rehabilitation target based on the detection result information obtained by detecting the position of the body of the rehabilitation target and the reference information indicating the rehabilitation target of the target person. It can be confirmed objectively.

以上説明したように、本実施形態のハビリテーション支援装置(変形例1の一例では、リハビリテーション支援制御装置320)は、比較部(変形例1の一例では、比較部351)を備える。比較部は、認識部が第1の時期に認識した対象者の体の一部の位置を示す認識結果である第1認識結果(変形例1の一例では検出対象情報CG1)と、第1の時期よりも過去の第2の時期に認識した認識結果である第2認識結果(変形例1の一例では、検出対象情報CG2又は基準情報)とに基づいて、対象者の体の一部の位置を比較する。表示制御部342は、第1認識結果と、第2認識結果とを比較した比較結果に関する情報の表示を制御する。   As described above, the habilitation support device according to the present embodiment (rehabilitation support control device 320 in the first modification example) includes the comparison unit (comparison unit 351 in the first modification example). The comparison unit includes a first recognition result (detection target information CG1 in one example of Modification 1) that is a recognition result indicating a position of a part of the body of the subject recognized by the recognition unit in the first period, and a first The position of a part of the subject's body based on the second recognition result (the detection target information CG2 or the reference information in the example of the first modification) that is the recognition result recognized at the second time before the time. Compare The display control unit 342 controls the display of information related to the comparison result obtained by comparing the first recognition result and the second recognition result.

また、上述では、リハビリテーション支援制御装置320は、リハビリテーションの対象者の過去の検出結果情報と、当該対象者の現在の検出結果情報とに基づいて比較した比較結果に関する情報の表示を制御する場合について説明したが、これに限られない。
リハビリテーション支援制御装置320は、リハビリテーションの対象者の体の一部の動作の過去の検出結果情報に基づく予測を示す予測情報と、当該対象者の現在の検出結果情報とに基づいて比較した比較結果に関する情報の表示を制御してもよい。
In the above description, the rehabilitation support control device 320 controls the display of information related to the comparison result based on the past detection result information of the rehabilitation target person and the current detection result information of the target person. Although explained, it is not limited to this.
The rehabilitation support control device 320 compares the prediction information indicating the prediction based on the past detection result information of the movement of a part of the body of the subject of the rehabilitation and the comparison result based on the current detection result information of the subject. The display of the information regarding may be controlled.

ここで、リハビリテーションの対象者は、当該対象者のリハビリテーションの結果と、リハビリテーションの目標との乖離を客観的に確認することが困難である場合があった。
本実施形態のリハビリテーション支援制御装置は、リハビリテーションの対象者の体の位置が検出された検出結果情報と、当該対象者のリハビリテーションの目標を示す予測情報とに基づいて、リハビリテーションの目標までの乖離を客観的に確認することができる。
Here, the subject of rehabilitation sometimes has difficulty in objectively confirming the difference between the rehabilitation result of the subject and the rehabilitation target.
The rehabilitation support control device according to the present embodiment calculates a deviation from the rehabilitation target based on the detection result information on the position of the body of the rehabilitation target and the prediction information indicating the rehabilitation target of the target person. It can be confirmed objectively.

本実施形態のリハビリテーション支援制御装置は、リハビリテーションの対象者の体の位置が検出された検出結果情報と、他の情報とを比較した表示の制御を行う。これにより、リハビリテーションの対象者は、リハビリテーションの結果と他の情報とを比較することによって、当該リハビリテーションの結果の程度を認識することができる。   The rehabilitation support control apparatus according to the present embodiment controls display by comparing detection result information in which the position of the body of the subject of rehabilitation is detected with other information. Thereby, the subject of rehabilitation can recognize the grade of the result of the said rehabilitation by comparing the result of rehabilitation with other information.

[変形例2]
図21は、リハビリテーション支援システム1のシステム構成の変形例2を示す斜視図である。
リハビリテーション支援制御装置300は、複数の装置に機能を分けて実装されてもよい。例えば、入力部31及び認識部341は画像認識装置として他の装置に実装されてもよい。例えば、認識部341はセンサ100に設けられてもよい。
また、出力装置200は、画像投影装置に代えて、画像を表示する画像表示装置を用いて構成されてもよい。この場合、図21に示すように出力装置200は、上述の説明において画像投影装置が映像を投影した面(投影面)に相当する面に表示面を有したディスプレイ装置として構成される。画像表示装置の具体例として、液晶ディスプレイ装置、有機EL(Electro Luminescence)ディスプレイ装置、タッチパネル式ディスプレイ装置等がある。例えば、テーブルの表面にディスプレイ装置を組み込んで、このディスプレイ装置の表示画面に対象者EPがタッチするマークを表示するようにしてもよい。この場合も、リハビリテーション支援制御装置300(制御部34)は、例えば、ディスプレイ装置に表示されたマーカ画像を目印にしてキャリブレーションを実施する。
[Modification 2]
FIG. 21 is a perspective view showing a second modification of the system configuration of the rehabilitation support system 1.
The rehabilitation support control device 300 may be implemented by dividing functions into a plurality of devices. For example, the input unit 31 and the recognition unit 341 may be mounted on another device as an image recognition device. For example, the recognition unit 341 may be provided in the sensor 100.
Further, the output device 200 may be configured using an image display device that displays an image instead of the image projection device. In this case, as shown in FIG. 21, the output device 200 is configured as a display device having a display surface on a surface corresponding to a surface (projection surface) on which an image projection device projects an image in the above description. Specific examples of the image display device include a liquid crystal display device, an organic EL (Electro Luminescence) display device, and a touch panel display device. For example, a display device may be incorporated on the surface of the table, and a mark touched by the subject EP may be displayed on the display screen of the display device. Also in this case, the rehabilitation support control device 300 (the control unit 34) performs calibration using, for example, a marker image displayed on the display device as a mark.

上述した各装置が備える各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。上述した各装置が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。各プログラムは、電気通信回線を介して送信されてもよい。   All or some of the functions of each device described above may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The program executed by each device described above may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Each program may be transmitted via a telecommunication line.

1…リハビリテーション支援システム、31…入力部、32…出力部、33…記憶部、34、37…制御部、100…センサ、200…出力装置、300、320…リハビリテーション支援制御装置、331…キャリブレーション情報記憶部、333…検出履歴情報記憶部、341…認識部、342…表示制御部、351…比較部、800…検出範囲、900…出力領域、901…端点、OP…目標画像、AFD…平均歩隔情報、AHV、AHVL、AHVR…平均動作速度情報、ALS…平均歩幅情報、axd…歩行方向軸、axt…時間軸、CG、CG1、CG2…認識情報、EP…対象者、TP…リハビリ対象部位、FL…フロア、T…テーブル、GT…着地タイミング情報、HV…動作速度情報、HVD、HVL、HVR…動作速度情報、LFL…左足位置、LFT…左足軌跡、LHA…左手到達範囲情報、LHL…左手位置、LHT…左手軌跡、LRD…左右使用比較情報、RFL…右足位置、RFT…右足軌跡、RHA…右手到達範囲情報、RHL…右手位置、RHT…右手軌跡、TR…所要時間情報、RDD…リーチ比較情報、RD…リーチ情報、RDL…リーチ情報、RDR…リーチ情報、RP、RP1、RP2、RP3…結果画像、RS、RSL、RSR…リーチ面積情報、STD…立脚時間比較情報、TC…軌跡情報 DESCRIPTION OF SYMBOLS 1 ... Rehabilitation assistance system, 31 ... Input part, 32 ... Output part, 33 ... Memory | storage part, 34, 37 ... Control part, 100 ... Sensor, 200 ... Output device, 300, 320 ... Rehabilitation assistance control apparatus, 331 ... Calibration Information storage unit, 333 ... detection history information storage unit, 341 ... recognition unit, 342 ... display control unit, 351 ... comparison unit, 800 ... detection range, 900 ... output region, 901 ... end point, OP ... target image, AFD ... average Step information, AHV, AHVL, AHVR ... average motion speed information, ALS ... average stride information, axd ... walking direction axis, axt ... time axis, CG, CG1, CG2 ... recognition information, EP ... target person, TP ... target for rehabilitation Part, FL ... Floor, T ... Table, GT ... Landing timing information, HV ... Operating speed information, HVD, HVL, HVR ... Operating speed Information, LFL ... Left foot position, LFT ... Left foot trajectory, LHA ... Left hand reachable range information, LHL ... Left hand position, LHT ... Left hand trajectory, LRD ... Left and right use comparison information, RFL ... Right foot position, RFT ... Right foot trajectory, RHA ... Right hand reachable Range information, RHL ... right hand position, RHT ... right hand locus, TR ... required time information, RDD ... reach comparison information, RD ... reach information, RDL ... reach information, RDR ... reach information, RP, RP1, RP2, RP3 ... result image RS, RSL, RSR ... reach area information, STD ... stance time comparison information, TC ... trajectory information

本発明の一実施形態に係るリハビリテーション支援システム1のシステム構成を示す斜視図である。1 is a perspective view showing a system configuration of a rehabilitation support system 1 according to an embodiment of the present invention. リハビリテーション支援システム1に備わるリハビリテーション支援制御装置300の機能構成例を示す概略ブロック図である。It is a schematic block diagram which shows the function structural example of the rehabilitation assistance control apparatus 300 with which the rehabilitation assistance system 1 is equipped. リハビリテーション支援制御装置300による第一動作領域を説明するための斜視図である。FIG. 5 is a perspective view for explaining a first operation region by the rehabilitation support control device 300. リハビリテーション支援システム1における画像の表示の例を示す平面図である。It is a top view which shows the example of a display of the image in the rehabilitation assistance system. リハビリテーション支援制御装置300による第二動作領域を説明するための斜視図である。FIG. 10 is a perspective view for explaining a second operation region by the rehabilitation support control device 300. リハビリテーション支援システム1における画像の表示の例を示す平面図である。It is a top view which shows the example of a display of the image in the rehabilitation assistance system. リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a motion region determination process performed by the rehabilitation support control device 300. リハビリテーション支援制御装置300が手の移動目標となる目標画像を映し出す例を示す斜視図である。It is a perspective view which shows the example which the rehabilitation assistance control apparatus 300 displays the target image used as the movement target of a hand. リハビリテーション支援制御装置300が手の外乱を映し出す例を示す図である。It is a figure which shows the example in which the rehabilitation assistance control apparatus 300 projects a disturbance of a hand. 足用表示パラメータ設定部347がステップの値を設定する例を示す図である。It is a figure which shows the example which the display parameter setting part for 347 sets the value of a step. リハビリテーション支援制御装置300が、対象者EPが歩行する際の回避目標となる目標画像を映し出す例を示す斜視図である。It is a perspective view which shows the example which the rehabilitation assistance control apparatus 300 projects the target image used as the avoidance target at the time of the subject person EP walking. リハビリテーション支援システム1を用いたリハビリテーションにおけるIn rehabilitation using the rehabilitation support system 1 パラメータ設定の一例を示すフローチャートである。It is a flowchart which shows an example of parameter setting. リハビリテーション内容が歩行である場合の認識部341の認識の一例をAn example of recognition by the recognition unit 341 when the rehabilitation content is walking. 示す平面図である。FIG. 結果画像RP1の一例を示す第1の図である。It is a 1st figure which shows an example of the result image RP1. リハビリテーション内容が手の移動である場合の認識部341の認識の一A recognition unit 341 recognizes when the rehabilitation content is a hand movement. 例を示す平面図である。It is a top view which shows an example. 結果画像RP2の一例を示す第2の図である。It is a 2nd figure which shows an example of the result image RP2. 変形例のリハビリテーション支援制御装置320の機能構成例を示す概略Schematic showing a functional configuration example of a rehabilitation support control device 320 of a modified example ブロック図である。It is a block diagram. 結果画像RP3の一例を示す第3の図である。It is a 3rd figure which shows an example of the result image RP3. リハビリテーション支援システム1のシステム構成の変形例を示す斜視図The perspective view which shows the modification of the system configuration | structure of the rehabilitation assistance system 1 である。It is.

次に図7〜図11を用いて、対象者のリハビリテーション検出対象情報の検出および記録処理の流れについて説明する。
図7は、リハビリテーション支援制御装置300による動作領域の判定処理の一例を示すフローチャートである。
図8は、リハビリテーション支援制御装置300が手の移動目標となる目標画像を映し出す例を示す斜視図である。
図9は、リハビリテーション支援制御装置300が手の外乱を映し出す例を示す図である。
図10は、足用表示パラメータ設定部347がステップの値を設定する例を示す図である。
図11は、リハビリテーション支援制御装置300が、対象者EPが歩行する際の回避目標となる目標画像を映し出す例を示す斜視図である。
まず、理学療法士又は作業療法士がこれから行おうとするリハビリテーション内容に応じて、対象者EPがリハビリテーションを行う環境にリハビリテーション支援システム1を移動させる。また、脚部310の高さを適切に調節する。次に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取る。例えば、テーブル上での腕のリハビリテーションを行う場合であれば、対象者EPは椅子に座ってテーブル上に手を置く姿勢を取る。また、例えば、歩行動作のリハビリテーションを行う場合、対象者EPは起立した姿勢を取る。対象者EPがこれらの姿勢を取ると、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力する。操作部35は、その準備開始指示情報を取得する(ステップS10)。なお、理学療法士等がリハビリテーション支援制御装置300に準備開始指示情報を入力した後に、対象者EPが、検出範囲800で、これから行うリハビリテーション内容に応じた姿勢を取っても良い。
Next, with reference to FIGS. 7 to 11, a description is given of the flow of the detection and recording of rehabilitation detected information of the subject.
FIG. 7 is a flowchart illustrating an example of a motion region determination process performed by the rehabilitation support control device 300.
FIG. 8 is a perspective view illustrating an example in which the rehabilitation support control device 300 projects a target image that is a movement target of the hand.
FIG. 9 is a diagram illustrating an example in which the rehabilitation support control device 300 displays a hand disturbance.
FIG. 10 is a diagram illustrating an example in which the foot display parameter setting unit 347 sets a step value.
FIG. 11 is a perspective view illustrating an example in which the rehabilitation support control device 300 projects a target image that is an avoidance target when the subject EP walks .
First, the rehabilitation support system 1 is moved to an environment where the subject person EP performs rehabilitation according to the rehabilitation content that the physical therapist or occupational therapist intends to perform. Moreover, the height of the leg part 310 is adjusted appropriately. Next, the subject person EP takes a posture corresponding to the content of rehabilitation to be performed in the detection range 800. For example, in the case of performing arm rehabilitation on a table, the subject EP takes a posture of sitting on a chair and placing a hand on the table. Further, for example, when performing rehabilitation of walking motion, the subject EP takes a standing posture. When the subject person EP takes these postures, a physical therapist or the like inputs preparation start instruction information to the rehabilitation support control device 300. The operation unit 35 acquires the preparation start instruction information (step S10). In addition, after a physical therapist or the like inputs preparation start instruction information to the rehabilitation support control device 300, the subject EP may take an attitude corresponding to the content of rehabilitation to be performed in the detection range 800.

足用表示パラメータ設定部347が足用表示パラメータを設定すると、次に外乱用表示パラメータ設定部349は、足の外乱用表示パラメータを設定する(ステップS19)。
例えば、リハビリテーション支援制御装置300が専用アプリケーションを実行し、理学療法士等がリハビリテーション支援制御装置300に対して種々の情報を入力する。外乱用表示パラメータ設定部349は、目標画像が、対象者EPが歩行するときの足の移動目標となるリハビリテーションの場合に、リハビリテーション支援制御装置300に入力された情報に応じて、外乱用表示パラメータを設定する。
外乱用表示パラメータは、例えば、リハビリテーション支援制御装置300が、対象者EPが横断歩道を歩行するときに、リハビリテーションの対象者EPが足を所定の目標画像まで移動させる妨げとなる自動車の形状をした外乱を画像として映し出すために用いられるパラメータである。
When the foot display parameter setting unit 347 sets the foot display parameter, the disturbance display parameter setting unit 349 next sets the foot disturbance display parameter (step S19).
For example, the rehabilitation support control device 300 executes a dedicated application, and a physical therapist or the like inputs various information to the rehabilitation support control device 300. The disturbance display parameter setting unit 349 displays a disturbance display parameter according to information input to the rehabilitation support control device 300 when the target image is rehabilitation that is a target for moving the foot when the subject EP walks. Set.
The display parameter for disturbance is, for example, the shape of an automobile that prevents the rehabilitation support control device 300 from moving the foot to a predetermined target image when the subject EP walks a pedestrian crossing. It is a parameter used to project a disturbance as an image.

次に、リハビリテーション中の対象者EPの認識処理について説明する。
リハビリテーションを行う対象者EPが検出範囲800に入ってリハビリテーションを開始する。また、理学療法士等は、対象者EPの氏名、性別、身長等と共に、リハビリーション開始指示情報をリハビリテーション支援制御装置300に入力する。すると、操作部35がリハビリテーション開始指示情報を取得する(ステップS20)。次に、表示制御部342は、動作領域に応じた目標画像を生成する。例えば、動作領域がフロアFLの場合、表示制御部342は、足型を表示した目標画像を生成する。また、目標決定部345は、その目標画像を表示する位置の座標情報を計算する。目標画像を表示する位置は、ステップS18で設定した足用表示パラメータに応じて変化させてもよい。また、動作領域がテーブルの場合、表示制御部342は、対象者EPが手でタッチする対象となるターゲットを表示した目標画像を生成する。また、目標決定部345は、その表示位置の座標情報を計算する。出力部32は、これらの情報(目標画像と表示位置)を取得し、出力装置200に出力指示を行う。出力装置200は、出力部32の指示に従って、表示制御部342が生成した目標画像を出力領域900に表示する(ステップS21)。このように、出力装置200が動作領域に目標画像を表示すると、対象者EPは、その表示位置に検出対象部位に関連する体の部位を移動させる動作を行う。例えば、足型の目標画像が表示された場合、対象者EPは、足型が表示された位置に足を移動させる。また、例えば、テーブル上にターゲットの目標画像が表示された場合、対象者EPは、目標画像が表示された位置に手を移動させ、テーブルにタッチする。
センサ100は、対象者EPの動作を検出し続け、リハビリテーション支援制御装置300へ出力する。リハビリテーション支援制御装置300では、入力部31が検出結果情報を取得し(ステップS22)、検出結果情報を、制御部34へ出力する。
Next, the recognition process for the subject EP during rehabilitation will be described .
The subject EP to be rehabilitated enters the detection range 800 and starts rehabilitation. In addition, the physical therapist or the like inputs rehabilitation start instruction information to the rehabilitation support control device 300 together with the name, gender, height, and the like of the subject EP. Then, the operation part 35 acquires rehabilitation start instruction information (step S20). Next, the display control unit 342 generates a target image corresponding to the operation area. For example, when the operation area is the floor FL, the display control unit 342 generates a target image displaying a foot shape. In addition, the target determination unit 345 calculates coordinate information of a position where the target image is displayed. The position for displaying the target image may be changed according to the foot display parameter set in step S18. When the operation area is a table, the display control unit 342 generates a target image that displays a target to be touched by the subject person EP by hand. Further, the target determining unit 345 calculates coordinate information of the display position. The output unit 32 acquires the information (target image and display position) and instructs the output device 200 to output the information. The output device 200 displays the target image generated by the display control unit 342 in the output area 900 according to the instruction of the output unit 32 (step S21). Thus, when the output device 200 displays the target image in the operation area, the subject person EP performs an operation of moving the body part related to the detection target part to the display position. For example, when a foot-shaped target image is displayed, the subject EP moves the foot to the position where the foot shape is displayed. For example, when the target image of the target is displayed on the table, the target person EP moves the hand to the position where the target image is displayed and touches the table.
The sensor 100 continues to detect the motion of the subject EP and outputs it to the rehabilitation support control device 300. In the rehabilitation support control apparatus 300, the input unit 31 acquires detection result information (step S22), and outputs the detection result information to the control unit 34.

次に図12を用いて、リハビリテーション中にパラメータ設定を行う処理について説明する。
図12は、リハビリテーション支援システム1を用いたリハビリテーションにおけるパラメータ設定の一例を示すフローチャートである。
まず、リハビリテーションの実施前に理学療法士等が、対象者EPについてのパラメータ(足用表示パラメータ等)を設定する(ステップS30)。具体的には、理学療法士等が、リハビリテーション支援制御装置300に設けられた表示画面(表示部36)を参照して、各種パラメータをリハビリテーション支援制御装置300に入力する。次に理学療法士等が、リハビリテーション支援制御装置300に準備開始指示情報を入力し、リハビリテーションを実施する(ステップS31)。上記のとおり、リハビリテーション支援制御装置300の動作領域判定部343は、動作領域を判定して検出対象部位の設定を行う。動作領域がフロアFLの場合、足用表示パラメータ設定部347が、ステップS30で入力された足用表示パラメータの設定を行う。また、外乱用表示パラメータ設定部349が、ステップS30で入力された足の外乱用表示パラメータの設定を行う。一方、動作領域がテーブルTの場合、手用表示パラメータ設定部348が、ステップS30で入力された手用表示パラメータを設定し、外乱用表示パラメータ設定部349が、ステップS30で入力された手の外乱用表示パラメータの設定を行う。足用表示パラメータ設定部347等によるパラメータの設定が終了すると、表示制御部342が、動作領域に応じて目標画像等を生成し、出力装置200がそれらの画像を表示する。対象者EPは、表示された目標画像に基づいてリハビリテーションを行う。予め定められた一連のリハビリテーション・プログラムが終了すると、表示制御部342が、リハビリテーション結果を含む画像を生成し、出力装置200がリハビリテーション結果を表示する(ステップS32)。リハビリテーション結果とは、例えば、評価部346によるリハビリテーション・プログラムを通した評価結果の実績値である。リハビリテーション結果は、例えば、目標画像の全表示数に対して評価部346が目標位置到達と評価した回数の割合として表示されてもよい。
Next, with reference to FIG. 12, the processing will be described setting parameters during rehabilitation.
FIG. 12 is a flowchart illustrating an example of parameter setting in rehabilitation using the rehabilitation support system 1.
First, before the rehabilitation is performed, a physical therapist or the like sets parameters (such as foot display parameters) for the subject EP (step S30). Specifically, a physical therapist or the like inputs various parameters to the rehabilitation support control device 300 with reference to a display screen (display unit 36) provided in the rehabilitation support control device 300. Next, a physical therapist etc. inputs preparation start instruction information to the rehabilitation support control apparatus 300, and implements rehabilitation (step S31). As described above, the motion region determination unit 343 of the rehabilitation support control device 300 determines the motion region and sets the detection target part. When the operation area is the floor FL, the foot display parameter setting unit 347 sets the foot display parameter input in step S30. Also, the disturbance display parameter setting unit 349 sets the foot disturbance display parameter input in step S30. On the other hand, when the operation area is the table T, the hand display parameter setting unit 348 sets the hand display parameter input in step S30, and the disturbance display parameter setting unit 349 sets the hand display parameter input in step S30. Set the disturbance display parameters. When the parameter setting by the foot display parameter setting unit 347 and the like is completed, the display control unit 342 generates a target image or the like according to the operation area, and the output device 200 displays these images. The subject person EP performs rehabilitation based on the displayed target image. When a series of predetermined rehabilitation programs are completed, the display control unit 342 generates an image including the rehabilitation result, and the output device 200 displays the rehabilitation result (step S32). The rehabilitation result is, for example, the actual value of the evaluation result through the rehabilitation program by the evaluation unit 346. The rehabilitation result may be displayed, for example, as a ratio of the number of times that the evaluation unit 346 evaluates that the target position has been reached with respect to the total display number of target images.

[認識情報の具体例:リハビリテーション内容が歩行の場合]
以下、図13及び図14を参照して、リハビリテーション内容が歩行である場合の検出対象情報CG及び結果画像RPのより具体的な例について説明する。
図13は、リハビリテーション内容が歩行である場合の認識部341の認識の一例を示す平面図である。
上述したように、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。また、この一例では、認識部341は、対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、検出対象情報CGを表示制御部342に供給する。以降の説明において、認識部341が認識する対象者EPの体の一部(検出対象部位)をリハビリ対象部位TPと記載する。認識部341は、認識した対象者EPのリハビリ対象部位TPの位置を示す検出対象情報CGを表示制御部342に供給する。
上述したように、この一例では、リハビリ対象部位TPが、足である。具体的には、リハビリ対象部位TPが、右足及び左足である。したがって、認識部341は、対象者EPの位置のうち、対象者EPの右足及び左足の位置を認識する。
認識部341は、対象者EPの歩行に伴い、右足が着地するフロアFL上の位置の座標を示す右足位置RFLを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの歩行に伴い、左足が着地するフロアFL上の位置の座標を示す左足位置LFLを検出対象情報CGとして表示制御部342に供給する。
[Specific example of recognition information: When rehabilitation is walking]
Hereinafter, more specific examples of the detection target information CG and the result image RP when the rehabilitation content is walking will be described with reference to FIGS . 13 and 14 .
FIG. 13 is a plan view illustrating an example of recognition by the recognition unit 341 when the rehabilitation content is walking.
As described above, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. In this example, the recognizing unit 341 recognizes whether it is detection data of a part (detection target part) of the body of the subject person EP, and supplies the detection target information CG to the display control unit 342. In the following description, a part (detection target part) of the body of the subject person EP recognized by the recognition unit 341 is referred to as a rehabilitation target part TP. The recognition unit 341 supplies the display control unit 342 with detection target information CG indicating the position of the rehabilitation target site TP of the recognized subject person EP.
As described above, in this example, the rehabilitation target site TP is a foot. Specifically, the rehabilitation target part TP is a right foot and a left foot. Therefore, the recognition unit 341 recognizes the positions of the right foot and the left foot of the subject person EP among the positions of the subject person EP.
The recognition unit 341 supplies the right foot position RFL indicating the coordinates of the position on the floor FL where the right foot lands as detection target information CG to the display control unit 342 as the subject EP walks. Further, the recognition unit 341 supplies the left foot position LFL indicating the coordinates of the position on the floor FL where the left foot lands as the detection target information CG to the display control unit 342 as the subject EP walks.

図13に示す通り、この一例では、右足及び左足がそれぞれ5回ずつ着地する。認識部341は、右足の1回目の着地の右足位置RFLである右足位置RFL1から5回目の着地の右足位置RFLである右足位置RFL5までを認識する。以降の説明において、右足位置RFL1から右足位置RFL5までを区別しない場合には、総称して右足位置RFLと記載する。認識部341は、左足の1回目の着地の左足位置LFLである左足位置LFL1から5回目の着地の左足位置LFLである左足位置LFL5までを認識する。以降の説明において、左足位置LFL1から左足位置LFL5までを区別しない場合には、総称して左足位置LFLと記載する。 As shown in FIG. 13 , in this example, the right foot and the left foot each land 5 times. The recognizing unit 341 recognizes from the right foot position RFL1 which is the right foot position RFL of the first landing of the right foot to the right foot position RFL5 which is the right foot position RFL of the fifth landing. In the following description, when the right foot position RFL1 to the right foot position RFL5 are not distinguished, they are collectively referred to as the right foot position RFL. The recognizing unit 341 recognizes from the left foot position LFL1, which is the left foot position LFL of the first landing of the left foot, to the left foot position LFL5, which is the left foot position LFL of the fifth landing. In the following description, when the left foot position LFL1 to the left foot position LFL5 are not distinguished, they are collectively referred to as the left foot position LFL.

認識部341は、対象者EPの歩行に伴い、右足が空中を移動する軌跡の座標を示す右足軌跡RFTを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの歩行に伴い、左足が空中を移動する軌跡の座標を示す左足軌跡LFTを検出対象情報CGとして表示制御部342に供給する。
図13に示す通り、この一例では、右足及び左足がそれぞれ4回空中を移動する。認識部341は、右足の1回目の右足軌跡RFTである右足軌跡RFT1から4回目の右足軌跡RFTである右足軌跡RFT4までを認識する。以降の説明において、右足軌跡RFT1から右足軌跡RFT4までを区別しない場合には、総称して右足軌跡RFTと記載する。認識部341は、左足の1回目の左足軌跡LFTである左足軌跡LFT1から4回目の左足軌跡LFTである左足軌跡LFT1までを認識する。以降の説明において、左足軌跡LFT1から左足軌跡LFT4までを区別しない場合には、総称して左足軌跡LFTと記載する。
The recognizing unit 341 supplies the right foot locus RFT indicating the coordinates of the locus of the right foot moving in the air as the subject EP walks to the display control unit 342 as the detection target information CG. The recognizing unit 341 supplies the left foot locus LFT indicating the coordinates of the locus of the left foot moving in the air as the subject EP walks to the display control unit 342 as the detection target information CG.
As shown in FIG. 13 , in this example, the right foot and the left foot each move four times in the air. The recognizing unit 341 recognizes from the right foot locus RFT1 which is the first right foot locus RFT of the right foot to the right foot locus RFT4 which is the fourth right foot locus RFT. In the following description, when the right foot locus RFT1 to the right foot locus RFT4 are not distinguished, they are collectively referred to as the right foot locus RFT. The recognizing unit 341 recognizes from the left foot locus LFT1 which is the first left foot locus LFT of the left foot to the left foot locus LFT1 which is the fourth left foot locus LFT. In the following description, when the left foot locus LFT1 to the left foot locus LFT4 are not distinguished, they are collectively referred to as the left foot locus LFT.

[表示制御部の具体例:リハビリテーション内容が歩行の場合]
以下、図14を参照して、表示制御部342が制御する結果画像RPのより具体的な例について説明する。
図14は、結果画像RP1の一例を示す第1の図である。
上述したように、表示制御部342は、表示制御部342は、検出対象情報CGに基づいて、対象者EPのリハビリ対象部位TPに行われたリハビリテーションの結果を示す結果画像RPを生成する。以降の説明において、リハビリ対象部位TPが足である場合の結果画像RPを結果画像RP1と記載する。
図14に示す通り、結果画像RP1には、リハビリ対象部位TPである足の位置に関する情報として、軌跡情報TC、着地タイミング情報GT、着地リズム情報GR、平均歩幅情報ALS、平均歩隔情報AFD、所要時間情報TR及び立脚時間比較情報STDが含まれる。
[Specific example of display control unit: When rehabilitation is walking]
Referring to FIG 14, it will be described a more specific example of the result image RP which controls the display control unit 342.
FIG. 14 is a first diagram illustrating an example of the result image RP1.
As described above, the display control unit 342 generates the result image RP indicating the result of the rehabilitation performed on the rehabilitation target site TP of the subject EP based on the detection target information CG. In the following description, the result image RP when the rehabilitation target site TP is a foot is referred to as a result image RP1.
As shown in FIG. 14 , the result image RP1 includes trajectory information TC, landing timing information GT, landing rhythm information GR, average stride information ALS, average step information AFD, as information on the position of the foot that is the rehabilitation target site TP. The required time information TR and the stance time comparison information STD are included.

また、図14に示す通り、軌跡情報TCは、対象者EPの歩行の方向を示す歩行方向軸axdに沿って示される。
表示制御部342は、右足位置RFL、左足位置LFL、右足軌跡RFT及び左足軌跡LFTに基づいて、歩行方向軸axdを算出する。表示制御部342は、歩行方向軸axdに沿って軌跡情報TCを表示する制御を行う。
また、表示制御部342は、歩行方向軸axdと、結果画像RPの軸とを合わせて軌跡情報TCを表示するように制御する。表示制御部342は、例えば、歩行方向軸axdと、結果画像RPのy軸との方向が一致するように軌跡情報TCを表示する制御を行う。
Further, as shown in FIG. 14 , the trajectory information TC is indicated along the walking direction axis axd indicating the walking direction of the subject EP.
The display control unit 342 calculates the walking direction axis axd based on the right foot position RFL, the left foot position LFL, the right foot locus RFT, and the left foot locus LFT. The display control unit 342 performs control to display the trajectory information TC along the walking direction axis axd.
In addition, the display control unit 342 controls to display the trajectory information TC by combining the walking direction axis axd and the axis of the result image RP. For example, the display control unit 342 performs control to display the trajectory information TC so that the directions of the walking direction axis axd and the y axis of the result image RP coincide.

また、図14に示す通り、着地タイミング情報GTは、対象者EPの歩行の方向を示す歩行方向軸axdに沿って示される。
表示制御部342は、右足位置RFL及び左足位置LFLに基づいて、歩行方向軸axdを算出する。表示制御部342は、歩行方向軸axdに沿って着地タイミング情報GTを表示する制御を行う。
また、表示制御部342は、歩行方向軸axdと、結果画像RPの軸とを合わせて着地タイミング情報GTを表示するように制御する。表示制御部342は、例えば、歩行方向軸axdと、結果画像RPのy軸との方向が一致するように着地タイミング情報GTを表示する制御を行う。
Moreover, as shown in FIG. 14 , the landing timing information GT is indicated along the walking direction axis axd indicating the direction of walking of the subject EP.
The display control unit 342 calculates the walking direction axis axd based on the right foot position RFL and the left foot position LFL. The display control unit 342 performs control to display the landing timing information GT along the walking direction axis axd.
The display control unit 342 controls to display the landing timing information GT by combining the walking direction axis axd and the axis of the result image RP. For example, the display control unit 342 performs control to display the landing timing information GT so that the walking direction axis axd and the y axis of the result image RP coincide with each other.

また、図14に示す通り、表示制御部342は、時間軸axtと、結果画像RPの軸とを合わせて着地リズム情報GRを表示するように制御する。表示制御部342は、例えば、時間軸axtと、結果画像RPのx軸との方向が一致するように着地リズム情報GRを表示する制御を行う。 Further, as shown in FIG. 14 , the display control unit 342 controls to display the landing rhythm information GR by combining the time axis axt and the axis of the result image RP. For example, the display control unit 342 performs control to display the landing rhythm information GR so that the directions of the time axis axt and the x axis of the result image RP coincide.

[認識情報の具体例:リハビリテーション内容が手の移動の場合]
以下、図15及び図16を参照して、リハビリテーション内容が手の移動である場合の検出対象情報CG及び結果画像RPのより具体的な例について説明する。
図15は、リハビリテーション内容が手の移動である場合の認識部341の認識の一例を示す平面図である。
図15に示す通り、この一例では、検出範囲800及び出力領域900とは、対象者EPが手を動作する面を有するテーブルTである。対象者EPは、出力装置200が出力領域900に出力する目標画像に基づいて、手の移動に関するリハビリテーションを行う。
この一例では、対象者EPが目標画像に基づいて、目標画像に示される複数の移動目標位置上に手をかざす動作をするリハビリテーションを行う。
上述したように、認識部341は、人体の各部位の位置情報を、その部位に対応付けて認識することができる。また、この一例では、認識部341は、対象者EPの体の一部(検出対象部位)の検出データであるかを認識し、検出対象情報CGを表示制御部342に供給する。
上述したように、この一例では、リハビリ対象部位TPが、手である。具体的には、リハビリ対象部位TPが、右手及び左手である。したがって、認識部341は、対象者EPの位置のうち、対象者EPの右手及び左手の位置を認識する。
認識部341は、対象者EPの手の移動に伴い、右手が停止するテーブルT上の位置の座標を示す右手位置RHLを検出対象情報CGとして表示制御部342に供給する。また、認識部341は、対象者EPの手の移動に伴い、左手が停止するテーブルT上の位置の座標を示す左手位置LHLを検出対象情報CGとして表示制御部342に供給する。
図15に示す通り、この一例では、右手及び左手がそれぞれ9回ずつテーブルT上に停止する。認識部341は、右手の1回目に停止する右手位置RHLである右手位置RHL1から9回目に停止する右手位置RHLである右手位置RHL9までを認識する。以降の説明において、右手位置RHL1から右手位置RHL9までを区別しない場合には、総称して右手位置RHLと記載する。認識部341は、左手の1回目に停止する左手位置LHLである左手位置LHL1から9回目に停止する左手位置LHLである左手位置LHL9までを認識する。以降の説明において、左手位置LHL1から左手位置LHL9までを区別しない場合には、総称して左手位置LHLと記載する。
[Specific example of recognition information: When rehabilitation is hand movement]
Hereinafter, with reference to FIGS . 15 and 16 , more specific examples of the detection target information CG and the result image RP when the rehabilitation content is a hand movement will be described.
FIG. 15 is a plan view illustrating an example of recognition by the recognition unit 341 when the rehabilitation content is a hand movement.
As shown in FIG. 15 , in this example, the detection range 800 and the output region 900 are a table T having a surface on which the subject EP moves his / her hand. The subject person EP performs rehabilitation related to hand movement based on the target image output from the output device 200 to the output area 900.
In this example, the target person EP performs rehabilitation based on the target image to perform an operation of holding a hand over a plurality of movement target positions indicated in the target image.
As described above, the recognition unit 341 can recognize the position information of each part of the human body in association with the part. In this example, the recognizing unit 341 recognizes whether it is detection data of a part (detection target part) of the body of the subject person EP, and supplies the detection target information CG to the display control unit 342.
As described above, in this example, the rehabilitation target site TP is a hand. Specifically, the rehabilitation target part TP is a right hand and a left hand. Therefore, the recognition unit 341 recognizes the positions of the right hand and the left hand of the subject person EP among the positions of the subject person EP.
The recognition unit 341 supplies the right hand position RHL indicating the coordinates of the position on the table T where the right hand stops as the detection target information CG to the display control unit 342 in accordance with the movement of the hand of the subject EP. Further, the recognizing unit 341 supplies the left hand position LHL indicating the coordinates of the position on the table T where the left hand stops with the movement of the hand of the subject person EP to the display control unit 342 as the detection target information CG.
As shown in FIG. 15 , in this example, the right hand and the left hand each stop on the table T nine times. The recognizing unit 341 recognizes from the right hand position RHL1 which is the right hand position RHL stopped at the first time of the right hand to the right hand position RHL9 which is the right hand position RHL stopped at the ninth time. In the following description, when the right hand position RHL1 to the right hand position RHL9 are not distinguished, they are collectively referred to as the right hand position RHL. The recognizing unit 341 recognizes from the left hand position LHL1 that is the left hand position LHL that stops at the first time of the left hand to the left hand position LHL9 that is the left hand position LHL that stops at the ninth time. In the following description, when the left hand position LHL1 to the left hand position LHL9 are not distinguished, they are collectively referred to as the left hand position LHL.

[表示制御部の具体例:リハビリテーション内容が手の移動の場合]
以下、図16を参照して、表示制御部342が制御する結果画像RPのより具体的な例について説明する。
図16は、結果画像RP2の一例を示す第2の図である。
上述したように、表示制御部342は、検出対象情報CGに基づいて、対象者EPのリハビリ対象部位TPに行われたリハビリテーションの結果を示す結果画像RPを生成する。以降の説明において、リハビリ対象部位TPが手である場合の結果画像RPを結果画像RP2と記載する。
図16に示す通り、結果画像RP2には、リハビリ対象部位TPである手の位置に関する情報として、右手到達範囲情報RHA、左手到達範囲情報LHA、動作速度情報HV、平均動作速度情報AHV、リーチ面積情報RS、リーチ情報RD及び左右使用比較情報LRDが含まれる。
[Specific example of the display control unit: When the rehabilitation content is hand movement]
Referring to FIG 16, it will be described a more specific example of the result image RP which controls the display control unit 342.
FIG. 16 is a second diagram illustrating an example of the result image RP2.
As described above, the display control unit 342 generates a result image RP indicating the result of the rehabilitation performed on the rehabilitation target site TP of the subject EP based on the detection target information CG. In the following description, the result image RP when the rehabilitation target site TP is a hand will be referred to as a result image RP2.
As shown in FIG. 16 , the result image RP2 includes right hand reachable range information RHA, left hand reachable range information LHA, motion speed information HV, average motion speed information AHV, reach area as information on the position of the hand that is the rehabilitation target site TP. Information RS, reach information RD, and left-right use comparison information LRD are included.

[変形例1]
上記実施形態では、リハビリテーション支援制御装置300が、センサ100が検出した検出結果情報に基づいて、対象者EPのリハビリ対象部位TPの位置に関する情報の表示を制御する場合について説明したが、これに限られない。
変形例1では、リハビリテーション支援制御装置300が、センサ100が検出した検出結果情報と、他の検出結果情報とを比較した比較結果に関する情報の表示を制御する点において、上記実施形態と異なる。
以下、図17及び図18を参照して変形例1について説明する。
なお、上記実施形態と同一の構成を有する場合には、同一の符号を付して重複説明を省略する。
[Modification 1]
In the above-described embodiment, the case where the rehabilitation support control device 300 controls the display of information related to the position of the rehabilitation target site TP of the subject EP based on the detection result information detected by the sensor 100 has been described. I can't.
The modification 1 is different from the above-described embodiment in that the rehabilitation support control device 300 controls display of information related to a comparison result obtained by comparing the detection result information detected by the sensor 100 with other detection result information.
Hereinafter, Modification 1 will be described with reference to FIGS . 17 and 18 .
In addition, when it has the same structure as the said embodiment, the same code | symbol is attached | subjected and duplication description is abbreviate | omitted.

[リハビリテーション支援制御装置の構成について]
図17は、変形例1のリハビリテーション支援制御装置320の機能構成例を示す概略ブロック図である。
リハビリテーション支援制御装置320は、情報処理装置を用いて構成される。リハビリテーション支援制御装置320は、バスで接続されたCPU、メモリ及び補助記憶装置を備える。リハビリテーション支援制御装置320は、リハビリテーション支援プログラムを実行することによって動作する。
リハビリテーション支援制御装置320は、入力部31、出力部32、記憶部33及び制御部37を備える。
[Configuration of rehabilitation support control device]
FIG. 17 is a schematic block diagram illustrating a functional configuration example of the rehabilitation support control device 320 according to the first modification.
The rehabilitation support control device 320 is configured using an information processing device. The rehabilitation support control device 320 includes a CPU, a memory, and an auxiliary storage device connected by a bus. The rehabilitation support control device 320 operates by executing a rehabilitation support program.
The rehabilitation support control device 320 includes an input unit 31, an output unit 32, a storage unit 33, and a control unit 37.

[表示制御部の具体例:過去と現在との比較]
以下、図18を参照して、表示制御部342が制御する結果画像RP3のより具体的な例について説明する。
図18は、結果画像RP3の一例を示す第3の図である。
表示制御部342は、認識部341から検出対象情報CG1及び検出対象情報CG2を取得する。また、表示制御部342は、比較部351から比較結果情報を取得する。
表示制御部342は、比較結果情報に基づいて、対象者EPのリハビリ対象部位TPに行われたリハビリテーションの現在と、過去との結果の比較を示す結果画像RPを生成する。
以降の説明において、表示制御部342が検出対象情報CG1、検出対象情報CG2及び比較結果情報に基づいて、生成した結果画像RPを結果画像RP3と記載する。
図18に示す通り、結果画像RP3には、リハビリ対象部位TPである手の位置に関する情報として、結果画像RP2に含まれる情報の他、動作比較速度情報HVD及びリーチ比較情報RDDに関する情報が含まれる。
[Specific example of display control unit: Comparison between past and present]
Referring to FIG. 18, it will be described a more specific example of the result image RP3 for controlling the display control unit 342.
FIG. 18 is a third diagram illustrating an example of the result image RP3.
The display control unit 342 acquires the detection target information CG1 and the detection target information CG2 from the recognition unit 341. In addition, the display control unit 342 acquires comparison result information from the comparison unit 351.
Based on the comparison result information, the display control unit 342 generates a result image RP that shows a comparison between the current and past results of the rehabilitation performed on the rehabilitation target site TP of the subject EP.
In the following description, the display control unit 342 describes the generated result image RP as the result image RP3 based on the detection target information CG1, the detection target information CG2, and the comparison result information.
As shown in FIG. 18 , the result image RP3 includes information related to the motion comparison speed information HVD and reach comparison information RDD in addition to the information included in the result image RP2, as information related to the position of the hand that is the rehabilitation target site TP. .

[右手到達範囲情報及び左手到達範囲情報の現在と過去との比較について]
なお、上述では、表示制御部342が比較結果に基づいて、動作比較速度情報HVDと、リーチ比較情報RDDとを表示する場合について説明したが、これに限られない。
表示制御部342は、認識部341から取得する検出対象情報CG1及び検出対象情報CG2に基づいて、現在と過去との比較に関する表示を制御してもよい。
例えば、表示制御部342は、検出対象情報CG1に基づいて、現在の右手到達範囲情報RHAを示す右手到達範囲情報RHA1として、右手が到達する範囲を表示する制御を行う。また、表示制御部342は、検出対象情報CG1に基づいて、現在の左手到達範囲情報LHAを示す左手到達範囲情報LHA1として、左手が到達する表示する制御を行う。
また、認識部341は、検出対象情報CG2に基づいて、過去の右手到達範囲情報RHAを示す右手到達範囲情報RHA2として、右手が到達する範囲を表示する制御を行う。
また、表示制御部342は、検出対象情報CG2に基づいて、過去の左手到達範囲情報LHAを示す左手到達範囲情報LHA1として、左手が到達する範囲を表示する制御を行う。
図18に示す通り、この一例では、表示制御部342は、右手到達範囲情報RHA1、右手到達範囲情報RHA2、左手到達範囲情報LHA1及び左手到達範囲情報LHA2を重ねて表示する制御を行う。
[Comparison between right and left hand range information and current hand range information]
Although the case where the display control unit 342 displays the operation comparison speed information HVD and the reach comparison information RDD based on the comparison result has been described above, the present invention is not limited thereto.
The display control unit 342 may control display related to comparison between the present and the past based on the detection target information CG1 and the detection target information CG2 acquired from the recognition unit 341.
For example, the display control unit 342 performs control to display the range reached by the right hand as the right hand reachable range information RHA1 indicating the current right hand reachable range information RHA based on the detection target information CG1. Further, the display control unit 342 performs control to display the left hand reaching as the left hand reachable range information LHA1 indicating the current left hand reachable range information LHA based on the detection target information CG1.
Further, the recognition unit 341 performs control to display the range that the right hand reaches as the right hand reachable range information RHA2 indicating the past right hand reachable range information RHA based on the detection target information CG2.
In addition, the display control unit 342 performs control to display a range that the left hand reaches as left hand reachable range information LHA1 indicating past left hand reachable range information LHA based on the detection target information CG2.
As shown in FIG. 18 , in this example, the display control unit 342 performs control to display the right hand reachable range information RHA1, the right hand reachable range information RHA2, the left hand reachable range information LHA1, and the left hand reachable range information LHA2 in an overlapping manner.

[変形例2]
図19は、リハビリテーション支援システム1のシステム構成の変形例2を示す斜視図である。
リハビリテーション支援制御装置300は、複数の装置に機能を分けて実装されてもよい。例えば、入力部31及び認識部341は画像認識装置として他の装置に実装されてもよい。例えば、認識部341はセンサ100に設けられてもよい。
また、出力装置200は、画像投影装置に代えて、画像を表示する画像表示装置を用いて構成されてもよい。この場合、図19に示すように出力装置200は、上述の説明において画像投影装置が映像を投影した面(投影面)に相当する面に表示面を有したディスプレイ装置として構成される。画像表示装置の具体例として、液晶ディスプレイ装置、有機EL(Electro Luminescence)ディスプレイ装置、タッチパネル式ディスプレイ装置等がある。例えば、テーブルの表面にディスプレイ装置を組み込んで、このディスプレイ装置の表示画面に対象者EPがタッチするマークを表示するようにしてもよい。この場合も、リハビリテーション支援制御装置300(制御部34)は、例えば、ディスプレイ装置に表示されたマーカ画像を目印にしてキャリブレーションを実施する。
[Modification 2]
FIG. 19 is a perspective view showing Modification Example 2 of the system configuration of the rehabilitation support system 1.
The rehabilitation support control device 300 may be implemented by dividing functions into a plurality of devices. For example, the input unit 31 and the recognition unit 341 may be mounted on another device as an image recognition device. For example, the recognition unit 341 may be provided in the sensor 100.
Further, the output device 200 may be configured using an image display device that displays an image instead of the image projection device. In this case, as shown in FIG. 19 , the output device 200 is configured as a display device having a display surface on a surface corresponding to a surface (projection surface) on which the image projection device projects an image in the above description. Specific examples of the image display device include a liquid crystal display device, an organic EL (Electro Luminescence) display device, and a touch panel display device. For example, a display device may be incorporated on the surface of the table, and a mark touched by the subject EP may be displayed on the display screen of the display device. Also in this case, the rehabilitation support control device 300 (the control unit 34) performs calibration using, for example, a marker image displayed on the display device as a mark.

Claims (4)

リハビリテーションの対象者の体を検出するセンサの検出結果を示す検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、
前記認識部が認識する前記位置に基づいて、前記対象者が前記センサに検出される検出位置から前記対象者が視認する範囲に前記位置に関する情報の表示を制御する表示制御部と、
を備えるリハビリテーション支援制御装置。
A recognition unit for recognizing a position of a part of the body of the subject based on detection result information indicating a detection result of a sensor that detects a body of the subject of rehabilitation;
Based on the position recognized by the recognition unit, a display control unit that controls display of information related to the position within a range that the target person visually recognizes from a detection position detected by the sensor;
A rehabilitation support control device comprising:
前記表示制御部は、
前記位置に関する情報を前記対象者の体の一部と同一の尺度において示す表示を制御する
請求項1に記載のリハビリテーション支援制御装置。
The display control unit
The rehabilitation support control device according to claim 1, wherein a display indicating information on the position on the same scale as a part of the subject's body is controlled.
前記範囲とは、前記センサが検出する前記対象者の体を検出する検出範囲を含む範囲である
請求項1又は請求項2に記載のリハビリテーション支援制御装置。
The rehabilitation support control device according to claim 1 or 2, wherein the range includes a detection range in which the body of the subject detected by the sensor is detected.
リハビリテーションの対象者の体を検出するセンサの検出結果を示す検出結果情報に基づいて、前記対象者の体の一部の位置を認識する認識部と、
前記認識部が認識する前記位置に基づいて、前記対象者が前記センサに検出される検出位置から前記対象者が視認する範囲に前記位置に関する情報の表示を制御する表示制御部と、
を備えるリハビリテーション支援制御装置としてコンピュータを機能させるためのコンピュータプログラム。
A recognition unit for recognizing a position of a part of the body of the subject based on detection result information indicating a detection result of a sensor that detects a body of the subject of rehabilitation;
Based on the position recognized by the recognition unit, a display control unit that controls display of information related to the position within a range that the target person visually recognizes from a detection position detected by the sensor;
A computer program for causing a computer to function as a rehabilitation support control device.
JP2016114819A 2016-06-08 2016-06-08 Rehabilitation support control device and computer program Active JP6623122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016114819A JP6623122B2 (en) 2016-06-08 2016-06-08 Rehabilitation support control device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016114819A JP6623122B2 (en) 2016-06-08 2016-06-08 Rehabilitation support control device and computer program

Publications (3)

Publication Number Publication Date
JP2017217267A true JP2017217267A (en) 2017-12-14
JP2017217267A5 JP2017217267A5 (en) 2019-01-10
JP6623122B2 JP6623122B2 (en) 2019-12-18

Family

ID=60658841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016114819A Active JP6623122B2 (en) 2016-06-08 2016-06-08 Rehabilitation support control device and computer program

Country Status (1)

Country Link
JP (1) JP6623122B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112105326A (en) * 2019-01-07 2020-12-18 株式会社mediVR Rehabilitation support device, rehabilitation support system, rehabilitation support method, and rehabilitation support program
KR20230087756A (en) * 2021-12-10 2023-06-19 대한민국(국립재활원장) Training motion guide system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009213782A (en) * 2008-03-12 2009-09-24 Xing Inc Exercise supporting device, exercise supporting system, exercise supporting method and computer program
JP2013103010A (en) * 2011-11-15 2013-05-30 Sony Corp Image processing device, image processing method, and program
JP2016073630A (en) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 Movement training support device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009213782A (en) * 2008-03-12 2009-09-24 Xing Inc Exercise supporting device, exercise supporting system, exercise supporting method and computer program
JP2013103010A (en) * 2011-11-15 2013-05-30 Sony Corp Image processing device, image processing method, and program
JP2016073630A (en) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 Movement training support device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112105326A (en) * 2019-01-07 2020-12-18 株式会社mediVR Rehabilitation support device, rehabilitation support system, rehabilitation support method, and rehabilitation support program
KR20230087756A (en) * 2021-12-10 2023-06-19 대한민국(국립재활원장) Training motion guide system
KR102660406B1 (en) * 2021-12-10 2024-04-25 대한민국 Training motion guide system

Also Published As

Publication number Publication date
JP6623122B2 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
WO2017213124A1 (en) Rehabilitation assistance control device and computer program
US20150140534A1 (en) Apparatus and method for gait training
KR101645693B1 (en) Apparatus and method for simulation golf putting using virtual cross stripes
GB2480140A (en) Tracking and Mapping an Object to a Target
US20140258192A1 (en) Apparatus for training recognition capability using robot and method for same
JP6747925B2 (en) Rehabilitation support device
JP6694333B2 (en) Rehabilitation support control device and computer program
JP6623122B2 (en) Rehabilitation support control device and computer program
JP6744139B2 (en) Rehabilitation support control device and computer program
JP2017012691A (en) Rehabilitation support device, rehabilitation support system, rehabilitation support method and program
JP2024020292A (en) Operation request system, operation request method and operation request program
KR20130030117A (en) Character image processing apparatus and method for footstake clean up in real time animation
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
JP6706649B2 (en) Rehabilitation support device
JP6441417B2 (en) Rehabilitation support system and computer program
JP2013533999A (en) Method and apparatus for presenting options
JP6625486B2 (en) Rehabilitation support control device and computer program
JP6430441B2 (en) Rehabilitation support system and computer program
JP6694491B2 (en) Rehabilitation support system and computer program
JP2013153847A (en) Cardiac massage support device and cardiac massage supporting computer program
KR101536753B1 (en) Method and system for image processing based on user's gesture recognition
JP2017217276A (en) Rehabilitation support control apparatus and computer program
Schröder et al. Contactless operating table control based on 3D image processing
JP6940139B2 (en) Physical characteristic analyzer, physical characteristic analysis method, and program
KR20150073146A (en) Method and system for image processing based on user's gesture recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6623122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250