JP6645658B2 - Mobile training support device - Google Patents

Mobile training support device Download PDF

Info

Publication number
JP6645658B2
JP6645658B2 JP2015197255A JP2015197255A JP6645658B2 JP 6645658 B2 JP6645658 B2 JP 6645658B2 JP 2015197255 A JP2015197255 A JP 2015197255A JP 2015197255 A JP2015197255 A JP 2015197255A JP 6645658 B2 JP6645658 B2 JP 6645658B2
Authority
JP
Japan
Prior art keywords
trainee
walking
information
support device
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015197255A
Other languages
Japanese (ja)
Other versions
JP2016073630A (en
Inventor
亮 三枝
亮 三枝
圭祐 重松
圭祐 重松
一彦 寺嶋
寺嶋  一彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Toyohashi University of Technology NUC
Original Assignee
Sintokogio Ltd
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd, Toyohashi University of Technology NUC filed Critical Sintokogio Ltd
Publication of JP2016073630A publication Critical patent/JP2016073630A/en
Application granted granted Critical
Publication of JP6645658B2 publication Critical patent/JP6645658B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、利用者の目標とする歩行姿勢または走行姿勢に誘導するための必要な情報を生成する処理手段を有し、それにより出力される情報を、利用者に対して映像、音響、刺激として提示する手段を備える移動訓練支援装置に関する。   The present invention has processing means for generating information necessary for guiding a user to a desired walking posture or running posture, and outputs information output by the image, sound, and stimulation to the user. The present invention relates to a mobile training support device provided with means for presenting as a training.

さらに本発明は、訓練対象者と独立した走行体と、この走行体に搭載され、訓練対象者の運動認知を強化し、歩行運動を効率的に誘導するための計測、評価、提示、誘導、再現手段を備える移動訓練支援装置に関する。   Furthermore, the present invention, a running body independent of the training subject, and mounted on the running body, enhance the movement recognition of the training subject, measurement, evaluation, presentation, guidance, to efficiently guide the walking motion The present invention relates to a mobile training support device including a reproducing unit.

特許文献1には、歩行面となる環状ベルトの負荷トルクと歩行速度を通常歩行状態において計測し、それらを基準として環状ベルトの回転速度及び負荷トルクを変化させて、訓練者の身体状態に応じた歩行訓練及び転倒防止訓練を行う歩行訓練装置が示されている。   In Patent Document 1, the load torque and the walking speed of an annular belt serving as a walking surface are measured in a normal walking state, and the rotational speed and the load torque of the annular belt are changed based on the measured torque and the walking torque according to the physical condition of the trainee. A walking training device for performing walking training and fall prevention training is shown.

特許文献2には、歩行パターン生成部において、歩行パターンデータ記憶部に予め記憶されている基本的な歩行パターンの任意の時点での訓練者の関節角度と訓練者の下肢長とを基に訓練者の下肢の位置を計算し、訓練者の下肢の位置に応じて力センサにより計測された力センサデータを変更し、訓練者の下肢の位置と変更された力センサデータとを基に、訓練者の下肢に装着された下肢駆動部への指令値を決定し、コントローラにおいて、指令値に応じて下肢駆動部を駆動することにより、立位歩行時の床反力を計測して、訓練者の歩行の位相に応じた関節の協調動作により歩行を訓練する歩行訓練装置が示されている。   Patent Document 2 discloses that a walking pattern generation unit performs training based on the trainee's joint angle and the trainee's lower limb length at any point in a basic walking pattern stored in advance in a walking pattern data storage unit. The position of the lower limb of the trainee is calculated, the force sensor data measured by the force sensor is changed according to the position of the lower limb of the trainee, and the training is performed based on the position of the lower limb of the trainee and the changed force sensor data. The controller determines the command value to the lower limb driving unit attached to the lower limb, and in the controller, drives the lower limb driving unit according to the command value to measure the floor reaction force at the time of standing walking. A walking training device for training walking by a joint operation of joints according to the walking phase of the walking is shown.

特許文献3には、患者を支持する支持機能や患者の足位置の表示機能などを有する歩行訓練支援装置において、パーキンソン症候群患者歩行訓練時の介助者の動きを再現して歩行支援機を走行させ、患者に応じた一定速度で歩行支援機を走行させること、患者の次の一歩の目標位置に光を照射又は歩行リズムをとる音を発生する装置又は患者の目前に一定時間間隔で画像を表示する表示装置を有すること、患者の足位置を撮影して目標の足位置と共に患者の目前に表示する撮影足位置表示装置を有すること、および、患者の足の水平位置を検出して検出された足位置を目標の足位置と共に患者の目前に表示する検出足位置表示装置を有することなどが示されている。   Patent Literature 3 discloses a walking training support device having a supporting function of supporting a patient and a function of displaying a foot position of a patient, and the like. Running a walking assist device at a constant speed according to the patient, illuminating the target position of the next step of the patient with light or generating a sound that takes a walking rhythm or displaying an image at a fixed time interval in front of the patient Having a photographing foot position display device for photographing the patient's foot position and displaying it in front of the patient together with the target foot position, and detecting and detecting the horizontal position of the patient's foot It is shown that a detection foot position display device for displaying the foot position together with the target foot position in front of the patient is provided.

特許文献4には、訓練者の歩行距離に応じてこの訓練者に音又は光による案内を与える報知手段を有し、励ましの音声やかけ声によって、訓練者にやる気を起こさせるとともに、順次発生する音をリズミカルなものとして、訓練者の気分を爽快にし、訓練者が訓練に飽きてしまうのを防止できるようにした歩行訓練装置が示されている。   Patent Literature 4 has a notification unit that provides sound or light guidance to a trainee in accordance with the walking distance of the trainee, and motivates and trains the trainee by encouraging voice or shouting. There is disclosed a walking training device that makes the sound rhythmic, excites the trainee, and prevents the trainee from getting tired of the training.

特許文献5には、訓練者が歩行可能な無限軌道ベルトを備えた複数の歩行面と、これらの歩行面を駆動する駆動手段と、訓練者の歩行の機能または生体情報を測定する測定手段、訓練の条件を設定するために前記歩行訓練機の動作条件を設定可能な設定手段、前記測定手段の情報を演算する情報処理手段、前記測定手段により測定された情報と前記設定されたこの歩行訓練機の前記動作条件と前記情報処理手段により演算した情報とを関連付けて表示する表示手段とを備え、訓練の成果を高めることができる歩行訓練装置が示されている。   Patent Literature 5 discloses a plurality of walking surfaces including an endless track belt on which a trainee can walk, a driving unit that drives these walking surfaces, a measurement unit that measures the trainee's walking function or biological information, Setting means capable of setting operating conditions of the walking training machine for setting training conditions, information processing means for calculating information of the measuring means, information measured by the measuring means and the set walking training set There is shown a walking training device that includes a display unit that displays the operating conditions of the machine and the information calculated by the information processing unit in association with each other, and that can improve the results of training.

特許文献6には、歩行訓練機を歩行する訓練者の歩行画像を取り込む画像取り込み装置と、この画像取り込み装置の画像を演算処理する画像演算装置と、この画像演算装置の演算結果を表示する表示装置と、演算結果を記憶する記憶装置とを備え、画像演算装置が取り込んだ画像から、各足の床面接触位置及び床面接触位置の各足毎の経時変化を演算し、表示装置に床面接触位置の各足毎の経時変化を表示することにより、訓練状況を定量的に把握し、過去のデータとの比較により、訓練データを診断装置に応用することができる足跡分析装置を有する歩行訓練装置が示されている。   Patent Literature 6 discloses an image capturing device that captures a walking image of a trainee walking on a walking training machine, an image arithmetic device that performs arithmetic processing on an image of the image capturing device, and a display that displays the arithmetic result of the image arithmetic device. Device, and a storage device for storing the calculation result. The image calculation device calculates the floor contact position of each foot and the temporal change of the floor contact position for each foot from the image captured by the image calculation device. Walking with a footprint analyzer that can grasp the training situation quantitatively by displaying the time-dependent change of the surface contact position for each foot and compare it with past data to apply the training data to a diagnostic device A training device is shown.

特許文献7には、上記特許文献6と同様の足跡分析装置において、画像演算装置が、取り込んだ画像の変化する動画像、及び/又は変化しない静止画像から、各足の床面接触位置と床面に接触しない位置とを演算し、表示装置が、各足の床面接触位置、及び/又は床面に接触しない位置を表示することが示されている。   Patent Document 7 discloses a footprint analyzer similar to that of Patent Document 6, in which the image calculation device determines a floor contact position and a floor contact position of each foot from a captured moving image and / or a static image that does not change. It is shown that the position that does not touch the surface is calculated, and the display device displays the floor contact position of each foot and / or the position that does not touch the floor.

特許文献8には、歩行者の体を支えることにより、歩行を補助する歩行器において、歩行者の手から加えられる荷重を測定する手荷重測定装置と、歩行者の足に装着して各足にかかる体重を測定する足荷重測定装置と、歩行者の足の挙動を測定する足挙動測定装置とを設け、歩行の現状を認識するとともに、足腰の回復度を確認しながら歩行訓練を行うことが示されている。   Patent Literature 8 discloses a hand load measuring device that measures a load applied from a pedestrian's hand in a walker that assists walking by supporting a pedestrian's body, and each foot mounted on a pedestrian's foot. Provide a foot load measurement device that measures the weight of the pedestrian and a foot behavior measurement device that measures the behavior of the pedestrian's foot, and perform walking training while recognizing the current state of walking and checking the degree of recovery of the legs and hips. It is shown.

特許文献9には、ベルト型の疑似歩行路を有する歩行訓練装置において、擬似歩行路上を歩行訓練する利用者の実際の歩幅である実歩幅を導出する実歩幅導出手段と、利用者が歩行訓練を行う上での歩幅の推奨値としての目標歩幅を導出する目標歩幅導出手段と、導出された実歩幅および目標歩幅を利用者に対照する歩幅対照手段とを備え、歩行訓練における歩行能力の評価を行うことが示されている。   Patent Literature 9 discloses an actual step length deriving unit that derives an actual step length, which is an actual step length of a user who walks on a pseudo walking path, in a walking training apparatus having a belt-type pseudo walking path, and that the user performs walking training. Evaluation of walking ability in walking training, comprising target step deriving means for deriving a target step as a recommended value of the step in performing the step, and step stride comparing means for comparing the derived actual step and the target step to the user. Is shown to do.

特許文献10には、歩行時の支えとなる移動式の杖として機能する自走式台車において、訓練指導者と一体化し、映像投影を用いて足運びを指示して歩行を誘導する歩行支援装置が示されている。   Patent Literature 10 discloses a walking support device that integrates with a training instructor, instructs walking by using video projection, and guides walking, in a self-propelled bogie that functions as a movable walking stick that supports during walking. It is shown.

特開2008−036054JP 2008-036054 特開2005−211086JP 2005-210186 A 特開2003−164544JP-A-2003-164544 特開2003−024469JP 2003-024469 特開2002−345994JP-A-2002-345994 特開2002−345785JP-A-2002-345785 特開2002−345784JP-A-2002-345784 特開2001−276155JP-A-2001-276155 特開2001−238982JP-A-2001-238982 特開2011−229838JP 2011-229838A

従来技術で提案されている歩行訓練支援装置においては、特許文献1、4、5、6、7、9などのような平行棒やベルト駆動装置などを用いる設置型の歩行訓練機は、設備が大型化し、設置条件に制約が多い。   In the walking training support device proposed in the prior art, an installation-type walking training machine using a parallel bar or a belt driving device as disclosed in Patent Documents 1, 4, 5, 6, 7, 9 and the like has a large facility. And there are many restrictions on the installation conditions.

また、特許文献2、3、8に示すような個別に訓練者を支持する歩行支持機を用いるものは、通常の屋内外の、訓練者以外の者が通行する一般的な歩行環境での歩行訓練の技術支援(歩行通路の形状、安全確保、ドアの開閉や通路上の設置物の回避など)が、十分に実現されていない。また、歩行支持機型の歩行訓練機では、歩行訓練者に対する音や光の信号による情報伝達機器や訓練者の歩行状態の計測などのセンサの設置位置などに制約が多くなり、機能的に制限されることが多くなるという欠点があった。また、訓練者ごとに支持器具が必要となるため、複数人で歩行訓練を一緒に行うことも困難である。   Patent Documents 2, 3, and 8, which use a walking support device that individually supports a trainee, walk in a normal walking environment where ordinary persons other than the trainees pass indoors and outdoors. Technical support for training (shape of walkway, ensuring safety, opening and closing doors, avoiding objects on walkways, etc.) has not been fully realized. In addition, the walking support machine type walking training machine has many restrictions on the installation position of information transmission equipment using sound and light signals to the walking trainee and the installation position of sensors such as measurement of the walking state of the trainee, and is functionally limited. There is a drawback that this is often done. In addition, since a support device is required for each trainee, it is difficult to perform walking training together by a plurality of people.

さらに、特許文献3、特許文献4、特許文献5〜7で提案されている歩行訓練支援装置では、訓練者に次の一歩の目標位置を光で示したり、励ましの音声やリズム音などを聞かせて訓練への興味を起こさせたり、歩行訓練者の個別情報や実測状況から訓練効果がわかるような表示により訓練効果を高めるようにしたものが示されているが、歩行環境での歩行中における訓練者自身の運動認知を強化したり、心理的に運動意欲を高めることにより、訓練効果を高める機構が十分に検討されているとは言えない。   Furthermore, in the walking training support devices proposed in Patent Literature 3, Patent Literature 4, and Patent Literatures 5 to 7, the trainee indicates the target position of the next step with light, or sounds encouraging voice or rhythm sound. It is shown that the training effect can be enhanced by displaying the training effect from the individual information of the walking trainer or the actual measurement situation. It cannot be said that a mechanism for enhancing the training effect by enhancing the trainee's own motor cognition or psychologically motivating to exercise has been sufficiently studied.

具体的には、モニタにより映像を提示する歩行訓練装置では、歩行環境での訓練者の過去・現在の歩行の軌跡や足の動きや未来の踏み出し位置を歩行面に実寸で提示することは困難である。また、イアホンやスピーカにより音響を提示する歩行訓練装置では、歩行環境で足の着地タイミングや歩行ペースを提示することは可能であるが、歩行環境の認識機構がない装置は、歩行環境に適した旋回停止のタイミング指示や障害物の存在を警告することは困難である。   Specifically, it is difficult for a gait training device that presents an image on a monitor to present the trajectory of the trainee in the walking environment, the past and present walking trajectory, foot movement, and future stepping position on the walking surface in actual size. It is. In addition, a walking training device that presents sound using earphones or speakers can present the landing timing and walking pace of the foot in a walking environment, but a device without a walking environment recognition mechanism is suitable for a walking environment. It is difficult to give a turn stop timing instruction or to warn of the presence of an obstacle.

いずれにしても、従来技術の歩行訓練プログラムは、実際の訓練者の歩行状態への適応能力が乏しいため、訓練者本人の動きに動的に対応した運動認知により運動意欲を高める効果が薄い。   In any case, the walking training program of the related art has a poor ability to adapt to the actual training state of the trainee, and thus has little effect of increasing the motivation to exercise by dynamically recognizing the movement of the trainee.

特許文献3の従来技術では特にパーキンソン病患者への歩行訓練も提案されている。パーキンソン病の疾患では、すくみ足現象、歩行開始困難、前方突進現象などが出現する。これに対応して、記憶された動きを再現して歩行指示器を走行させたり、光照射と音発生により歩行を指示したり、足位置と足裏圧力を計測して表示する機構が提案されている。しかしながら、ここに開示された足位置計測装置では、訓練効果を高めるために、足の感覚器に対する着地の認知を強化することは考慮されていない。また運動認識が足に限られているため、全身の歩行姿勢やバランスや、ドアの開閉や物体の把持などの上肢運動との協調に対して、運動認知の支援や指示を行うことについても考慮されていない。   In the prior art of Patent Document 3, gait training especially for Parkinson's disease patients is also proposed. In Parkinson's disease, freezing phenomena, difficulty in starting walking, and forward lunging phenomena appear. In response to this, a mechanism has been proposed that reproduces the stored movements to run a walking indicator, instructs walking by light irradiation and sound generation, and measures and displays foot position and sole pressure. ing. However, the foot position measurement device disclosed herein does not consider enhancing the recognition of landing on the sensory organs of the foot in order to enhance the training effect. In addition, since motion recognition is limited to the feet, consideration should be given to assisting and instructing motion recognition in coordination with walking posture and balance of the whole body, upper limb movement such as opening and closing doors and grasping objects. It has not been.

特許文献10で提案されている歩行支援装置では、移動式の杖として訓練指導者と一体化し、映像投影を用いて足運びを指示して歩行を誘導する。当該の技術では、訓練対象者と装置の一体性により平行棒などの他の支持器具との併用が難しく、行動制御が訓練対象者に従属的となるため、訓練対象者から離れた3次元的な全身運動計測や、歩行環境を利用した広領域な運動状態の提示及び指示が困難である。   In the walking support device proposed in Patent Literature 10, a walking stick is integrated with a training instructor, and footing is instructed using video projection to guide walking. In this technique, it is difficult to use the training target with another supporting device such as a parallel bar due to the integration of the training target and the device, and the behavior control is subordinate to the training target. It is difficult to measure whole-body motion and present and instruct a wide range of motion state using a walking environment.

これらをまとめると従来技術には、以下のような問題がある。(1)任意の歩行経路への誘導やその経路の安全確保といったことが考慮されていない(2)歩行環境に適した旋回停止のタイミング提示や障害物の警告が困難である、(3)訓練者の歩行への適応能力が乏しいため、訓練者の移動の意図に基づく歩行訓練や現状の歩行形態を無理なく改善していくことが困難である、(4)訓練者の状況に対応した訓練者自身の運動認知が困難である、(5)運動認識が足に限られているため、全身の歩行姿勢やバランス、上肢運動との協調の運動認知の支援や指示が困難である、(6)歩行訓練器とその他の支持器具とを併用することが考慮されていない。   To summarize these, the prior art has the following problems. (1) No consideration is given to guiding to an arbitrary walking route or ensuring the safety of the route. (2) It is difficult to present the timing of turning stop suitable for the walking environment and to warn of an obstacle. (3) Training (4) Training according to the trainee's situation, because it is difficult for the trainee to adapt to walking, and to improve the walking style based on the intention of the trainee to move and the current walking form without difficulty. (5) It is difficult to support or instruct the movement recognition of the whole body in walking posture and balance, coordination with the upper limb movement, because the movement recognition is limited to the feet, (6) ) The use of a walking training device and other supporting devices is not considered.

上記の課題を解決するために、本発明は次のように構成される。請求項1の発明は、歩行または走行の訓練を行う訓練者の全身の深度画像を任意の取得位置から取得する深度画像取得手段と、
前記深度画像に基づいて前記訓練者の複数の身体部位における前記取得位置からの距離を算出して該身体部位の三次元位置を取得する三次元位置取得手段と、前記身体部位の三次元位置の変化に基づいて前記訓練者の運動学的な全身運動を計測するとともに、該計測結果に基づいて、前記訓練者の歩行または走行を誘導するために必要な身体部位の誘導位置を計算する処理手段と、 前記処理手段により計算された前記身体部位の誘導位置を視覚的に提供する映像提示手段とを備えることを特徴とする。
In order to solve the above-mentioned problem, the present invention is configured as follows. The invention according to claim 1 is a depth image acquisition unit that acquires a depth image of a whole body of a trainee who performs walking or running training from an arbitrary acquisition position,
A three-dimensional position acquisition unit that calculates a distance from the acquisition position in the plurality of body parts of the trainee based on the depth image to obtain a three-dimensional position of the body part, and a three-dimensional position of the body part. Processing means for measuring the kinematic whole body movement of the trainee based on the change and calculating a guidance position of a body part necessary for guiding the walker or running of the trainee based on the measurement result And video presentation means for visually providing the guidance position of the body part calculated by the processing means.

また、請求項2の発明は、請求項1の移動訓練支援装置において、前記訓練者の身体部位に装着される加速度センサを備え、前記処理手段は、前記加速度センサの情報に基づいて、前記訓練者の身体部位における該訓練者の運動学的な全身運動を計測するとともに、前記三次元位置とともに前記身体部位の誘導位置を計算するものであることを特徴とする。   The invention of claim 2 is the mobile training support device according to claim 1, further comprising an acceleration sensor attached to a body part of the trainee, wherein the processing unit performs the training based on information of the acceleration sensor. Measuring the kinematic whole body movement of the trainee in the body part of the trainee, and calculating the guidance position of the body part together with the three-dimensional position.

また、請求項3の発明は、請求項1ないし2の移動訓練支援装置において、前記訓練者の身体部位に装着される角速度センサおよび地磁気センサを備え、前記処理手段は、前記加速度センサの情報に加えて前記角速度センサおよび前記地磁気センサの情報に基づいて、前記訓練者の全身的移動量、前記身体部部位の移動距離および歩幅を算出することを特徴とする。   According to a third aspect of the present invention, there is provided the movement training support device according to the first or second aspect, further comprising an angular velocity sensor and a geomagnetic sensor attached to a body part of the trainee, and wherein the processing unit includes information of the acceleration sensor. In addition, based on the information from the angular velocity sensor and the geomagnetic sensor, the whole body movement amount of the trainee, the movement distance of the body part, and the stride are calculated.

また、請求項4の発明は、請求項1ないし3のいずれかに記載の移動訓練支援装置において、前記深度画像取得手段、前記三次元位置取得手段、前記処理手段および前記映像提示手段は、自走可能な走行体に搭載されるものであり、前記走行体は、さらに、駆動輪によって構成される駆動部と、この駆動部の駆動状態を制御する制御手段と、施設内の廊下や屋外の歩行者用通路における障害物情報など、周辺環境をレーザセンサで検知する検知手段とを備え、前記制御手段は、前記検知手段によって検知される前記訓練者との距離情報に基づき、該訓練者との適宜間隔が維持されるように駆動部を制御するものであることを特徴とする。   According to a fourth aspect of the present invention, in the mobile training support device according to any one of the first to third aspects, the depth image acquiring unit, the three-dimensional position acquiring unit, the processing unit, and the video presenting unit include It is mounted on a runnable traveling body, the traveling body further includes a driving unit configured by driving wheels, a control unit that controls a driving state of the driving unit, a corridor in a facility or an outdoor. Detecting means for detecting the surrounding environment with a laser sensor, such as obstacle information in a pedestrian passage, the control means, based on the distance information with the trainee detected by the detecting means, The driving unit is controlled so that the appropriate interval is maintained.

また、請求項5の発明は、請求項2または3に記載の移動訓練支援装置において、前記映像提示手段は、自走可能な走行体に搭載されるものであり、前記深度画像取得手段、前記三次元位置取得手段および前記処理手段は、前記走行体とは独立して訓練施設内に固定的に設置されるものであり、前記走行体は、さらに、駆動輪によって構成される駆動部と、この駆動部の駆動状態を制御する制御手段と、周辺環境を検知する検知手段と、該走行体に搭載される各手段における情報を処理するための第2の処理手段と、前記処理手段と前記第2の処理手段との間で各種の情報を送受信するための伝送手段とを備え、前記制御手段は、前記検知手段によって検知される前記訓練者との距離情報に基づき、適宜間隔が維持されるように駆動部を制御するものであり、前記処理手段は、前記第2の処理手段の情報および前記訓練者の身体部位に装着された各種センサの情報を処理するものであることを特徴とする。   According to a fifth aspect of the present invention, in the mobile training support device according to the second or third aspect, the image presentation means is mounted on a self-propelled traveling body, and the depth image acquisition means, The three-dimensional position acquisition unit and the processing unit are fixedly installed in the training facility independently of the traveling body, and the traveling body further includes a driving unit configured by driving wheels, Control means for controlling the driving state of the drive unit, detection means for detecting the surrounding environment, second processing means for processing information in each means mounted on the traveling body, the processing means, Transmission means for transmitting and receiving various information to and from the second processing means, wherein the control means maintains an appropriate interval based on distance information from the trainee detected by the detection means Control the drive so that A shall, said processing means is characterized in that it is intended to process the information of the second processing unit information and various sensors mounted on the body part of the trainee.

また、請求項6の発明は、請求項4または5に記載の移動訓練支援装置において、前記走行体は、環境地図情報を格納する記憶手段を備え、前記制御手段は、前記環境地図情報に基づいて、前記訓練者を先導しつつ追従走行するように駆動部を制御するものであり、前記処理手段は、前記訓練者の前記環境地図情報中の位置を計算するものであり、前記映像提示手段は、前記計算結果を映像として提示するものであることを特徴とする。   According to a sixth aspect of the present invention, in the mobile training support device according to the fourth or fifth aspect, the traveling body includes storage means for storing environmental map information, and the control means is configured to execute the control based on the environmental map information. Controlling the drive unit to follow and drive the trainee, wherein the processing means calculates the position of the trainee in the environmental map information, and the video presenting means Is characterized in that the calculation result is presented as an image.

また、請求項7の発明は、請求項6に記載の移動訓練支援装置において、前記処理手段によって計算される環境地図情報中の前記訓練者の位置は、該訓練者の特定部位の個別の位置情報の集合体であり、前記特定部位の個別の位置情報は、環境地図情報と、該環境地図情報中の移動体の位置情報と、該移動体から該特定部位までの相対的な位置関係とに基づいて算出されるものであることを特徴とする。   According to a seventh aspect of the present invention, in the mobile training support apparatus according to the sixth aspect, the position of the trainee in the environmental map information calculated by the processing means is an individual position of a specific part of the trainee. A set of information, the individual position information of the specific part is environmental map information, the position information of the mobile in the environmental map information, and the relative positional relationship from the mobile to the specific part. It is characterized by being calculated based on

また、請求項8の発明は、請求項6または7に記載の移動訓練支援装置において、前記移動体の記憶手段は、前記訓練者を誘導する経路を記憶するものであり、該誘導経路は、人為的に作成された計画経路情報、または、前記走行体を予め移動させた経路を前記環境地図情報中の位置情報に基づいて前記処理手段によって作成された経路情報であることを特徴とする。   According to an eighth aspect of the present invention, in the mobile training support device according to the sixth or seventh aspect, the storage means of the moving object stores a route for guiding the trainee, and the guidance route includes: It is characterized in that the route information is artificially created planned route information or route information created by the processing means based on position information in the environmental map information on a route in which the traveling body has been moved in advance.

また、請求項9の発明は、請求項1ないし8のいずれかに記載の移動訓練支援装置において、前記深度画像取得手段は、さらに、前記訓練者が使用する歩行支持器具の深度画像を取得するものであり、前記三次元位置取得手段は、前記歩行支持器具の三次元位置を取得するものであり、前記処理手段は、前記三次元位置の変化に基づいて前記歩行支持器具に対する特徴点について距離情報を算出するものであり、前記映像提示手段は、前記身体部位の誘導位置とともに前記歩行支持器具を移動させるべき誘導位置を視覚的に提示するものであることを特徴とする。   According to a ninth aspect of the present invention, in the mobile training support device according to any one of the first to eighth aspects, the depth image obtaining means further obtains a depth image of a walking support device used by the trainee. Wherein the three-dimensional position obtaining means obtains a three-dimensional position of the walking support device, and the processing means determines a distance to a feature point for the walking support device based on the change in the three-dimensional position. The information is calculated, and the video presenting means visually presents a guidance position where the walking support device should be moved together with the guidance position of the body part.

また、請求項10の発明は、請求項1ないし9に記載の移動訓練支援装置において、前記深度画像取得手段は、さらに、訓練指導者の全身の深度画像を赤外線深度センサにより取得するものであり、前記三次元位置取得手段は、前記訓練指導者の複数の身体部位における取得位置からの距離を算出して該身体部位の三次元位置を取得するものであることを特徴とする。   According to a tenth aspect of the present invention, in the mobile training support device according to any one of the first to ninth aspects, the depth image obtaining means further obtains a depth image of the whole body of the training instructor using an infrared depth sensor. The three-dimensional position acquiring means calculates the distance from the acquired positions of the plurality of body parts of the training instructor to acquire the three-dimensional positions of the body parts.

また、請求項11の発明は、請求項10に記載の移動訓練支援装置において、さらに、前記身体部位の三次元位置に基づき、前記訓練者の足運動および/または身体バランスを評価する評価手段を備えることを特徴とする。   According to an eleventh aspect of the present invention, in the mobile training support device according to the tenth aspect, the evaluation means for evaluating the foot exercise and / or the body balance of the trainee based on the three-dimensional position of the body part is further provided. It is characterized by having.

また、請求項12の発明は、請求項1ないし11のいずれかに記載の移動訓練支援装置において、前記処理手段は、前記訓練指導者における前記三次元位置を教師データとして前記訓練者の歩行または走行を誘導するために必要な身体部位の誘導位置を計算するものであることを特徴とする。   According to a twelfth aspect of the present invention, in the mobile training support device according to any one of the first to eleventh aspects, the processing means includes: The present invention is characterized in that a guidance position of a body part necessary for guiding the travel is calculated.

また、請求項13の発明は、請求項12に記載の移動訓練支援装置において、前記処理手段によって計算される誘導位置は、前記訓練者の歩行時または走行時における理想的な身体部位の移動状態と、該訓練者の現実の歩行時または走行時における身体部位の移動状態との中間的な位置であり、理想的な身体部位の移動と現実の身体部位の移動との相違の程度に応じて1または複数の誘導位置が計算されるものであることを特徴とする。   According to a thirteenth aspect of the present invention, in the movement training support device according to the twelfth aspect, the guidance position calculated by the processing means is an ideal movement state of the body part during walking or running of the trainee. And an intermediate position between the actual state of movement of the body part at the time of walking or running of the trainee, and depending on the degree of difference between the ideal movement of the body part and the movement of the real body part. One or more guidance positions are calculated.

また、請求項14の発明は、請求項13に記載の移動訓練支援装置において、前記映像提示手段は、前記誘導位置とともに、または該誘導位置とは別に、前記訓練者の現実の歩行時または走行時における身体部位の移動状態を映像として提示するものであることを特徴とする。   According to a fourteenth aspect of the present invention, in the mobile training support device according to the thirteenth aspect, the video presenting unit is configured to provide the image presenting unit together with or separately from the guidance position when the trainee actually walks or runs. The moving state of the body part at the time is presented as an image.

また、請求項15の発明は、請求項1ないし14のいずれかに記載の移動訓練支援装置において、さらに、前記訓練者に対し聴覚的な刺激を提示する音響提示手段を備えており、前記処理手段は、前記訓練者に対する誘導位置を提供する時間的タイミングに応じて提示すべき音響情報を作成するものであり、前記音響提示手段は、前記訓練者によって選択される音声または音響を前記映像提示手段による映像提示に代えて、または映像提示とともに提示するものであることを特徴とする。   According to a fifteenth aspect of the present invention, in the mobile training support device according to any one of the first to fourteenth aspects, the mobile training support apparatus further includes a sound presentation unit that presents an auditory stimulus to the trainee. The means is for creating acoustic information to be presented in accordance with the temporal timing of providing a guidance position to the trainee, and the sound presenting means is configured to present the voice or sound selected by the trainee to the video presentation. It is characterized by being presented instead of or together with the video presentation by means.

また、請求項16の発明は、請求項15に記載の移動訓練支援装置において、さらに、前記訓練者の足に装着される加速度センサを備え、前記処理手段は、前記加速度センサの情報に基づいて、前記訓練者の足が着地したと判断されたとき、前記音響提示手段に対して作動させる信号を出力するものであり、該音響提示手段の作動により訓練者が着地状態であることを認識させるものであることを特徴とする。   The invention according to claim 16 is the movement training support device according to claim 15, further comprising an acceleration sensor attached to the trainee's foot, wherein the processing unit is configured to perform processing based on information from the acceleration sensor. Outputting a signal to operate the sound presenting means when it is determined that the trainee's foot has landed, and recognizing that the trainee is in a landing state by operating the sound presenting means. Characterized in that:

また、請求項17の発明は、請求項16に記載の移動訓練支援装置において、さらに、前記訓練者の身体の一部に装着されて触力覚的に刺激を与える刺激提示手段を備え、前記処理手段は、前記加速度センサによる足の状態から着地を確認したとき、前記刺激提示手段を作動させる信号を出力するものであることを特徴とする。   Further, the invention of claim 17 is the movement training support device according to claim 16, further comprising a stimulus presentation means attached to a part of the body of the trainee to provide a tactile stimulus, The processing means outputs a signal for activating the stimulus presentation means when the landing is confirmed from the state of the foot by the acceleration sensor.

また、請求項18の発明は、請求項17に記載の移動訓練支援装置において、前記刺激提示手段は、前記訓練者の複数の身体部位に装着されて振動による触力覚刺激を提示するものであり、前記処理手段は、前記訓練者の身体部位のうち誘導させるべき前記身体部位を振動により触力覚刺激を提示するように作動させるための信号を出力するものであることを特徴とする。   According to an eighteenth aspect of the present invention, in the movement training support device according to the seventeenth aspect, the stimulus presenting means is mounted on a plurality of body parts of the trainee and presents a haptic stimulus by vibration. Preferably, the processing means outputs a signal for operating the body part to be induced among the body parts of the trainee so as to present a haptic stimulus by vibration.

また、請求項19の発明は、請求項1ないし18のいずれかに記載の移動訓練支援装置において、さらに、前記訓練者の歩行または走行の状態を撮影するための光学カメラを備え、前記映像提示手段は、前記誘導位置に代えて、または該誘導位置とともに、該光学カメラで撮影された静止画または動画を提示するものであることを特徴とする。   According to a nineteenth aspect of the present invention, in the mobile training support device according to any one of the first to eighteenth aspects, an optical camera for photographing the walking or running state of the trainee is further provided, and the image presentation is performed. The means is for presenting a still image or a moving image taken by the optical camera instead of or together with the guidance position.

また、請求項20の発明は、請求項19に記載の移動訓練支援装置において、前記光学カメラは、前記訓練者の顔面を撮影するものであり、前記処理手段は、前記訓練者の顔面における筋肉の変化を測定するとともに、該筋肉の変化から予め分類された変化情報と比較して、訓練の継続、中止、促進または抑制を決定するものであり、前記映像提示手段は、前記決定の内容を視覚的に変換された映像を提示するものであることを特徴とする。   According to a twentieth aspect of the present invention, in the movement training support device according to the nineteenth aspect, the optical camera captures an image of the face of the trainee, and the processing means includes a muscle on the face of the trainee. The change of the muscle is measured and compared with the change information pre-classified from the change in the muscle to determine the continuation, suspension, promotion or suppression of the training, and the video presenting means determines the content of the determination. It is characterized by presenting a visually converted video.

本発明により次のような効果が得られる。(1)訓練者が歩行可能な任意の場所で歩行訓練(以下で述べる歩行訓練は走行訓練を含む)を支援できる。(2)自走可能な走行体に歩行訓練に必要な機材を搭載することで、訓練者への物理的な負荷が軽減される。(3)訓練者と独立して歩行経路を誘導することで、歩行経路の安全性を確保したり、訓練に適した歩行環境の選択が可能となる。(5)歩行環境の認識に基づく歩行訓練者への信号提示により、歩行環境に適した旋回停止のタイミング提示や障害物の警告ができる、(6)歩行訓練者の歩行への適応機能により、訓練者の移動の意図に基づく歩行訓練や現状の歩行形態を逐次的に改善していく訓練方法が実施できる、(7)訓練者の状況に応じた刺激により、訓練者の感覚器に対する直接的な運動認知を強化できる、(8)全身運動を認識することにより、全身の歩行姿勢やバランス、歩行と上肢運動の協調について、運動認知の支援や指示ができる。(9)自走可能な走行体が訓練者と独立して機能することで、訓練者が使用する装具や杖・支持器などの歩行支援器具に関わらず、歩行訓練を行うことができる。(10)訓練指導者と歩行訓練者の歩行状態をともに認識することで、訓練指導者の訓練意図に基づく歩行姿勢の誘導と訓練意図に対応した歩行訓練者の運動評価ができる。   The following effects can be obtained by the present invention. (1) Walking training (walking training described below includes running training) can be supported at any place where the trainee can walk. (2) By mounting equipment necessary for walking training on a self-propelled traveling body, the physical load on the trainee is reduced. (3) By guiding the walking route independently of the trainee, it is possible to ensure the safety of the walking route and to select a walking environment suitable for training. (5) By presenting a signal to a walking trainee based on recognition of the walking environment, it is possible to present a timing of turning stop suitable for the walking environment and to warn of an obstacle. (6) With the adaptive function of the walking trainer to walking, It is possible to implement a walking training based on the intention of the trainee's movement and a training method for sequentially improving the current walking form. (7) Direct stimulation of the trainee's sensory organs by stimulation according to the trainee's situation (8) By recognizing whole-body movement, it is possible to support and instruct movement recognition for the walking posture and balance of the whole body, and coordination of walking and upper limb movement. (9) Since the self-propelled running body functions independently of the trainee, walking training can be performed irrespective of a walking support device such as a brace, a walking stick, or a support device used by the trainee. (10) By recognizing the walking state of the training instructor and the walking trainer together, it is possible to guide the walking posture based on the training intent of the training instructor and to evaluate the movement of the walking trainer in accordance with the training intention.

本発明の移動訓練支援装置(走行体の形態を取る場合)である。It is a mobile training support device of the present invention (when taking the form of a running body). 本発明の使用状態である。It is a use state of this invention. 本発明の電装部構成である。1 is an electrical component configuration of the present invention. 本発明の処理の流れである。3 is a flow of a process of the present invention. 本発明の深度画像による移動状態の検知である。It is detection of a moving state by the depth image of the present invention. 本発明の移動環境の状態認識と経路計画である。3 is a diagram illustrating a state recognition and a path plan of a mobile environment according to the present invention. 本発明の刺激提示の状況である。It is a situation of stimulus presentation of the present invention. 本発明の映像音響効果である。5 is an image and sound effect of the present invention. 本発明の加速度計測による移動状態検知の実験例である。9 is an experimental example of moving state detection by acceleration measurement according to the present invention. 拡張鏡像療法の実現手順である。This is a procedure for realizing the extended mirror image therapy. 拡張的な計測手段のイメージである。It is an image of an extended measuring means. 実施形態における歩行の3次元計測である。It is three-dimensional measurement of walking in the embodiment. 拡張的な評価手段のイメージである。It is an image of an extended evaluation means. 拡張的な提示手段のイメージである。It is an image of an expanding presentation means. 拡張的な誘導手段のイメージ、及び、実施形態において学習された環境地図、教示経路、再現経路である。It is an image of an extended guidance means, and an environment map, a teaching route, and a reproduction route learned in the embodiment. 拡張的な再現手段のイメージ、及び、実施形態において壁面や床面に提示された拡張身体像である。It is an image of an expansive reproduction means and an extended body image presented on a wall surface or a floor surface in the embodiment. 再現時における歩行状態の評価量の提示である。It is a presentation of an evaluation amount of a walking state at the time of reproduction. 実施形態における走行体の空間的な配置である。It is a spatial arrangement of the traveling body in the embodiment. 誘導時における映像パターンの提示である。This is the presentation of a video pattern at the time of guidance.

以下に説明する本発明に係る移動訓練支援装置の実施の形態としては、訓練者(104)や訓練指導者(105)と独立して自律移動しながら、訓練者(104)の歩行や走行などの移動動作の訓練を支援する装置を備える走行体(以下では走行体(100)と呼ぶ)を用いるものと、同等の訓練支援機能を備える環境(以下では環境システム(300)と呼ぶ)において移動訓練を行うものを提示し、さらに、訓練者(104)または訓練指導者(105)または移動支持器具(106)などに装着して走行体や環境システムの運動計測機能や刺激提示機能を拡張する装置(以下では装着ユニット(200)と呼ぶ)を提示する。   As an embodiment of the mobile training support device according to the present invention described below, the trainee (104) walks and runs while moving independently and independently of the trainee (104) and the training instructor (105). Using a traveling body (hereinafter referred to as a traveling body (100)) equipped with a device for supporting the training of the moving operation of a vehicle in an environment (hereinafter referred to as an environment system (300)) having an equivalent training support function. It presents what is to be trained, and is further attached to a trainee (104) or a trainer (105) or a mobile support device (106) to extend the motion measurement function and stimulus presentation function of the running body and the environmental system. The device (hereinafter referred to as the mounting unit (200)) is presented.

以下では、これらの発明を実施するための最良の形態を図面を用いて説明する。なお、図示された装置の構造や形状は一例であって、本発明は図示されたものには限定されない。   Hereinafter, the best mode for carrying out the invention will be described with reference to the drawings. Note that the structure and shape of the illustrated device are merely examples, and the present invention is not limited to the illustrated device.

図1は本発明の1実施形態である走行体(100)の概略を示す図である。走行体(100)は、図1の符号で示される部品を搭載した自律移動可能なロボットとして実現される。すなわち、二つの駆動輪(125,126)と一つの従動輪(127)を備えて走行可能としており、駆動輪(125,126)を前輪として、前進および後進が可能となっている。この駆動輪(125,126)は操舵可能であり、駆動輪(125,126)を操舵することにより方向を自在に変化させることも可能である。この走行体(100)の本体部には、前方側に赤外線センサ(111)、光学カメラ(112)、レーザセンサ(113)、二つのマイクロフォン(115,116)、姿勢センサ(118)、プロジェクタ(121)およびスピーカ(122)が選択的に搭載されるものである。また、本体部の後方側には、後方用のレーザセンサ(114)が選択的に搭載され、本体部を水平方向に全周するように接触センサ(117)も選択的に搭載されるものである。前記プロジェクタ(121)から照射される映像は、床面等に投影されて投影面101が形成されるものである。   FIG. 1 is a view schematically showing a traveling body (100) according to one embodiment of the present invention. The traveling body (100) is realized as an autonomously movable robot equipped with components indicated by reference numerals in FIG. In other words, the vehicle can travel with two drive wheels (125, 126) and one driven wheel (127), and can move forward and backward using the drive wheels (125, 126) as front wheels. The drive wheels (125, 126) can be steered, and the direction can be freely changed by steering the drive wheels (125, 126). In the main body of the traveling body (100), an infrared sensor (111), an optical camera (112), a laser sensor (113), two microphones (115, 116), an attitude sensor (118), a projector ( 121) and a speaker (122) are selectively mounted. A rear laser sensor (114) is selectively mounted on the rear side of the main body, and a contact sensor (117) is also selectively mounted on the main body in such a manner as to completely surround the main body in the horizontal direction. is there. An image projected from the projector (121) is projected on a floor or the like to form a projection surface 101.

また、図2(a)は走行体(100)を使用した場合の移動訓練の状態を示し、図2(b)は環境システム(300)を使用した場合の移動訓練の状態を示している。これらの移動訓練には、訓練者(104)に装着ユニット(200)が装着された状態を例示している。走行体(100)は、図2(a)に示されるように人や環境を認識し、歩行の状態や指示内容を映像および音響により動的に提示しながら、訓練者に先行して移動することで、移動経路の安全性を確保しつつ訓練者の歩行を適切に誘導する能力を備える。図2(b)に示されるように環境システム(300)は、移動体(100)と同等の機能を歩行者の訓練環境に埋め込んだセンサや通信ネットワークを用いて実現する形態である。移動体(100)と環境システム(300)は併用して使用することや、二者のうち一方を単独で使用することも可能である。   FIG. 2A shows a state of the movement training when the traveling body (100) is used, and FIG. 2B shows a state of the movement training when the environment system (300) is used. In these mobile trainings, a state where the mounting unit (200) is mounted on the trainee (104) is illustrated. The running body (100) recognizes a person or an environment as shown in FIG. 2 (a), and moves ahead of the trainee while dynamically presenting the walking state and instruction contents by video and sound. Thus, the trainee has the ability to appropriately guide the trainee to walk while ensuring the safety of the moving route. As shown in FIG. 2B, the environment system (300) is a form in which a function equivalent to that of the mobile object (100) is realized using a sensor or a communication network embedded in a pedestrian training environment. The mobile unit (100) and the environmental system (300) can be used in combination, or one of the two can be used alone.

図3は本発明の移動訓練支援装置(302)の電装部の構成を表す。走行体(100)は、人や環境の状態を検知する検知部(検知手段)(135)を有し、赤外線センサ(111)、光学カメラ(112)、レーザセンサ(113,114)、左右マイクロフォン(115,116)、接触センサ(117)、姿勢センサ(118)などが含まれる。走行体(100)は、図1のように、駆動指令を生成する制御部(制御手段)(134)と、関節リンク機構を備える左右の前輪用モータユニット(123,124)、駆動輪(125、126)、受動輪(127)からなる駆動部(駆動装置)(133)を備える。走行体(100)は、さらに、図3のように映像音響効果を生成する提示部(音響、映像提示手段)(136)として、プロジェクタ(121)、スピーカ(122)を備える。また、走行体(100)は、人や環境の状態認識や行動計画を統合する計算部(処理手段)(133)、走行体(100)の内部や外部に情報を伝送する通信部(132)(通信ネットワーク、無線機を含む)を備える。さらに走行体(100)は、これら電装部に電力を供給する電源部(131)を有し、外部電交流源用の直流変換器、内部直流電源を備える。   FIG. 3 shows the configuration of the electrical unit of the mobile training support device (302) of the present invention. The traveling body (100) has a detection unit (detection means) (135) for detecting a state of a person or an environment, and includes an infrared sensor (111), an optical camera (112), a laser sensor (113, 114), a left and right microphone. (115, 116), a contact sensor (117), a posture sensor (118), and the like. As shown in FIG. 1, the traveling body (100) includes a control unit (control means) (134) for generating a drive command, left and right front wheel motor units (123, 124) having an articulated link mechanism, and drive wheels (125). , 126) and a driving unit (driving device) (133) composed of passive wheels (127). The traveling body (100) further includes a projector (121) and a speaker (122) as a presentation unit (sound and video presentation means) (136) for generating a video and audio effect as shown in FIG. The traveling unit (100) includes a calculation unit (processing unit) (133) that integrates recognition of the state of a person or an environment and an action plan, and a communication unit (132) that transmits information to the inside or outside of the traveling unit (100). (Including a communication network and a wireless device). Further, the traveling body (100) has a power supply unit (131) for supplying electric power to these electrical units, and includes a DC converter for an external electric AC source and an internal DC power supply.

装着ユニット(200)は、訓練者や訓練指導者や歩行支持器具の運動を計測する運動計測部(201)を有し、加速度センサ、角速度センサ、地磁気センサを備える。装着ユニット(200)は、訓練者や訓練指導者に刺激を提示する刺激提示部(202)を有し、振動モータ、電気刺激器を備える。   The mounting unit (200) has a motion measuring unit (201) that measures the motion of a trainee, a training instructor, or a walking support device, and includes an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor. The mounting unit (200) has a stimulus presentation section (202) for presenting a stimulus to a trainee or a training instructor, and includes a vibration motor and an electric stimulator.

外部計算装置(301)は、必要に応じて設けられるものであって、移動訓練の環境あるいは遠隔地(介護・訓練施設の制御室など)に設置された計算部(133)、外部計算装置に電力を供給する電源部(131)、外部計算装置の内部や外部に情報を伝送する通信部(132)を有する。   The external computing device (301) is provided as necessary, and is provided in a computing unit (133) installed in an environment for mobile training or in a remote location (such as a control room of a nursing / training facility) or an external computing device. It has a power supply unit (131) for supplying power and a communication unit (132) for transmitting information to and from an external computing device.

前記の走行体の構成部品は、走行体の形態に限らず、移動訓練の環境内に敷設することも可能である。環境システム(300)は、走行体(100)と外部計算装置(301)を環境に敷設したシステムであり、環境システム(300)と装着ユニット(200)を合わせたものが、本発明の移動訓練支援装置(302)である。   The components of the above-mentioned traveling body are not limited to the form of the traveling body, and can be laid in the environment of the movement training. The environmental system (300) is a system in which the running body (100) and the external computing device (301) are laid in the environment, and the combination of the environmental system (300) and the mounting unit (200) is the movement training of the present invention. A support device (302).

走行体(100)の本体部には人や環境を計測するための検知部(135)が設けられている。検知部は、赤外線センサ(111)、光学カメラ(112)、前後レーザセンサ(113,114)、接触センサ(117)、姿勢センサ(118)、左右マイクロフォン(115、116)を備える。赤外線センサ(111)は訓練者や訓練指導者などの人の全身運動などを計測する。光学カメラ(112)は訓練者などの人や歩行環境などの画像を計測する。レーザセンサ(113,114)は、訓練者や訓練指導者などの人の脚部や歩行経路上の障害物などを含む歩行環境の空間構造を計測する。接触センサ(117)は障害物や人などとの接触を計測する。姿勢センサ(118)は、走行体や内部の関節リンクの末端などの姿勢を計測する。マイクロフォン(115,116)は、訓練者や訓練指導者の音声による指示内容や環境音を聴取する。   The main body of the traveling body (100) is provided with a detection unit (135) for measuring a person or an environment. The detection unit includes an infrared sensor (111), an optical camera (112), front and rear laser sensors (113, 114), a contact sensor (117), a posture sensor (118), and left and right microphones (115, 116). The infrared sensor (111) measures the whole body movement of a person such as a trainee or a training instructor. The optical camera (112) measures images such as trainees and walking environments. The laser sensors (113, 114) measure a spatial structure of a walking environment including a leg of a person such as a trainee or a training instructor or an obstacle on a walking path. The contact sensor (117) measures contact with an obstacle or a person. The posture sensor (118) measures the posture of the running body or the end of an internal joint link. The microphones (115, 116) listen to the instruction content and the environmental sound by the voice of the trainee or the training instructor.

走行体(100)には駆動機構が設けられており、左右の駆動輪(125,126)の回転動作を制御するための左右モータユニット(123,124)を備える。モータユニット(123,124)は、モータの回転量を計測するためのエンコーダとモータの駆動を制御するモータドライバを備える。制御部(134)はモータドライバに駆動指令を伝送し、モータドライバはモータユニットの駆動を制御する。モータユニットで計測されたモータの回転量は、モータドライバを介して制御部へ伝送される。走行体(100)の本体部には、動力が伝達される駆動輪(125、126)と本体を支持し受動的に回転する受動輪(127)を備え、検知部の赤外線センサ(111)と光学カメラ(112)、提示部のプロジェクタ(121)には姿勢を動的に変更するための関節リンク機構を備える。関節リンク機構の姿勢は、前記の駆動輪(125.126)と同様にモータユニット(123,124)により制御される。   The traveling body (100) is provided with a driving mechanism, and includes left and right motor units (123, 124) for controlling the rotation of the left and right driving wheels (125, 126). The motor units (123, 124) include an encoder for measuring the amount of rotation of the motor and a motor driver for controlling driving of the motor. The control unit (134) transmits a driving command to the motor driver, and the motor driver controls driving of the motor unit. The rotation amount of the motor measured by the motor unit is transmitted to the control unit via the motor driver. The main body of the traveling body (100) includes driving wheels (125, 126) to which power is transmitted and a passive wheel (127) that supports the main body and rotates passively. The optical camera (112) and the projector (121) of the presentation unit are provided with a joint link mechanism for dynamically changing the posture. The posture of the joint link mechanism is controlled by the motor units (123, 124), similarly to the drive wheels (125, 126).

走行体(100)には電源装置(電源部)(131)が設けられており、電源切替器、交流直流変換器、充電池を備える。走行体(100)には、走行体(100)に搭載された充電池からの給電と、電源ケーブルと直流交流変換器を介した外部電源(図示せず)からの給電が可能であり、これらは電源切替器による切り替えが可能である。充電池にはリチウムポリマー充電池などの小型の直流電源を用いる。   The traveling body (100) is provided with a power supply device (power supply unit) (131), and includes a power supply switch, an AC / DC converter, and a rechargeable battery. The traveling body (100) can be supplied with power from a rechargeable battery mounted on the traveling body (100) and with power from an external power supply (not shown) via a power cable and a DC / AC converter. Can be switched by a power switch. A small DC power supply such as a lithium polymer rechargeable battery is used for the rechargeable battery.

走行体(100)と外部計算装置(301)には計算装置(計算部:処理手段)(133)を備える。走行体(100)の計算機能は、軽量化のために車載用のボードPCあるいは小型マイコンなどの小型装置により実現される。走行体(100)の計算装置(133)は、低次の情報処理(センサやモータの入出力データ処理など)や高次の情報処理(歩行状態、環境状態、器具状態の認識、歩行経路の計画、映像音響効果の生成など)を行う。前記の高次の情報処理は、走行体(100)に搭載された計算装置(133)で行う代わりに、通信装置(通信部)(132)とワークを介してデータを外部へ転送することで、外部計算装置(301)で行うこともできる。   The traveling body (100) and the external computing device (301) include a computing device (calculating unit: processing means) (133). The calculation function of the traveling body (100) is realized by a small device such as an on-board board PC or a small microcomputer for weight reduction. The calculation device (133) of the traveling body (100) performs low-order information processing (such as input / output data processing of sensors and motors) and high-order information processing (recognition of a walking state, an environmental state, an appliance state, and a walking route). Planning, generation of audiovisual effects, etc.). The higher-level information processing is performed by transferring data to the outside via a communication device (communication unit) (132) and a work, instead of using the computing device (133) mounted on the traveling body (100). , Can be performed by the external computing device (301).

走行体(100)の計算処理は、機能単位ごとに独立したプロセスが相互に通信することによりモジュール化されている。これらの計算処理のプロセスは、走行体(100)のみならず後記の装着ユニット(200)や外部計算装置(301)で実行して相互に連動させることで、走行体単体で実現される移動訓練支援の計算能力を拡張することができる。   The calculation processing of the running body (100) is modularized by independent processes communicating with each other for each functional unit. These calculation processes are executed not only by the traveling body (100) but also by the mounting unit (200) and the external computing device (301) described later, and are linked to each other, so that the movement training realized by the traveling body alone is performed. The computing power of support can be expanded.

図4は、本実施形態を作動させるための各フローを示すものであり、図4(a)のフローチャート(401)は、走行体(100)または環境システム(300)全体の処理の流れを示し、(b)は計測対象者(訓練者等)の検知のためのフローチャート(410)を示し、(c)は、走行体(100)の利用形態を三種類に分類したときのフローチャート(420,421,422)を示し、(d)は、制御部(制御手段)による駆動車輪(125,126)および関節リンク機構を駆動させる際のフローチャート(423)ならびに映像音響パターンを表示する際のフローチャート(424)を示す。そこで、これらのフローチャートを参照しつつ各構成を詳述する。   FIG. 4 shows each flow for operating this embodiment, and a flowchart (401) of FIG. 4A shows a flow of processing of the traveling body (100) or the entire environmental system (300). , (B) shows a flowchart (410) for detecting a measurement subject (trainer or the like), and (c) shows a flowchart (420, 420) when the use form of the traveling body (100) is classified into three types. 421, 422), and (d) is a flowchart (423) for driving the drive wheels (125, 126) and the joint link mechanism by the control unit (control means), and a flowchart for displaying a video / audio pattern ( 424). Therefore, each configuration will be described in detail with reference to these flowcharts.

図4(a)に示されているように、走行体(100)または環境システム(300)は、走行訓練の環境における移動経路を訓練者または訓練指導者が教示する動作モードと、訓練者の歩行状態や環境の現状に基づいて教示された移動経路を再計画しながら訓練者を誘導する動作モードを有し、動作開始時に使用者(訓練者または訓練指導者)によって選択的に設定される。なお、以下の説明においては、走行体(100)の機能を中心に説明することとする。   As shown in FIG. 4 (a), the running object (100) or the environmental system (300) includes an operation mode in which the trainer or the training instructor teaches the movement route in the environment of the driving training, and an operation mode of the trainer. It has an operation mode to guide the trainee while re-planning the movement route taught based on the walking state and the current state of the environment, and is selectively set by the user (trainer or training instructor) at the start of the operation. . In the following description, the function of the traveling body (100) will be mainly described.

訓練者または訓練指導者は、走行体(100)に移動訓練の教示あるいは誘導を選択し、走行体(100)を機能させる。教示、誘導のいずれの動作モードにおいても、走行体(100)は人や環境や器具や走行体内部の状態を各種センサにより検知する(402)。走行体(100)は、検知結果に基づいて人や環境や器具の状態認識(訓練者や訓練指導者の走行状態の認識、走行環境の状態の認識、走行支持器具の状態の認識など)や、走行体の行動計画(移動経路計画や関節リンクの姿勢変更計画)などの計算処理(処理手段)を行う(403)。走行体は、これらの認識や計画にもとづいて、行動指令(移動制御、関節リンクの姿勢制御)などの駆動制御を実施(404)(制御手段の実行)し、訓練者や訓練指導者への映像音響パターンの生成や映像音響パターンの提示を行う(405)(提示手段の実行)。走行体は、動作の終了が選択されるまでこれらの一連の処理を繰り返し行う。   The trainee or the training instructor selects teaching or guidance of the mobile training for the traveling body (100), and makes the traveling body (100) function. In any of the teaching and guidance operation modes, the traveling body (100) detects the state of a person, an environment, equipment, and the inside of the traveling body by various sensors (402). Based on the detection result, the traveling body (100) recognizes the state of the person, the environment, and the equipment (recognition of the running state of the trainer or the training instructor, recognition of the state of the running environment, recognition of the state of the running support equipment, and the like) Then, calculation processing (processing means) such as an action plan of the traveling body (a movement route plan and a posture change plan of the joint link) is performed (403). Based on the recognition and the plan, the traveling body performs drive control such as an action command (movement control, joint link posture control) (404) (execution of control means), and gives a trainer or training instructor. The audiovisual pattern is generated and the audiovisual pattern is presented (405) (execution of presentation means). The traveling body repeatedly performs a series of these processes until the end of the operation is selected.

前記の全体処理(401)は、走行体(100)を用いる場合のみならず、これらの要素が埋め込まれた形態の環境システム(300)(図2(b))でも同様に実施される。ただしその場合は、走行体自体の移動計画や駆動指令の実行については省かれる。   The above-described overall processing (401) is performed not only when the traveling body (100) is used but also in the environment system (300) (FIG. 2B) in which these elements are embedded. However, in that case, the movement plan of the traveling body itself and the execution of the drive command are omitted.

訓練者や訓練指導者(以下、計測対象者と呼ぶ)の移動状態は、前記の検知部(人計測部、環境計測部、画像計測部、音響計測部、接触・姿勢計測部を含む)により計測される。移動状態の検知では、移動状態を表す特徴量として、計測対象者の移動速度、脚部の着地の時間間隔、一歩あたりの移動距離(歩幅)が検知される。図4(b)に示す手順(410)は移動状態の検知の流れを表す。   The moving state of the trainer or training instructor (hereinafter referred to as a measurement target) is determined by the detection unit (including the human measurement unit, the environment measurement unit, the image measurement unit, the sound measurement unit, and the contact / posture measurement unit). Measured. In the detection of the moving state, a moving speed of the person to be measured, a time interval between landings of the legs, and a moving distance per one step (step length) are detected as the characteristic amounts representing the moving state. The procedure (410) shown in FIG. 4B represents the flow of the detection of the moving state.

計測対象者の移動状態の検知は、赤外線センサ(111)の深度画像計測を用いる方法の処理手順(411)と、装着ユニットの加速度計測を用いる方法の処理手順(412)があり、移動支持器具(106)を用いる場合は、器具の移動状態を検知し深度画像を補正する方法の処理手順(413)を用いる。   The detection of the movement state of the measurement target includes a processing procedure (411) of a method using depth image measurement of the infrared sensor (111) and a processing procedure (412) of a method using acceleration measurement of the mounting unit. When (106) is used, the processing procedure (413) of the method of detecting the moving state of the instrument and correcting the depth image is used.

移動状態の検知は、深度画像を用いる方法の処理手順(411)と加速度計測を用いる方法の処理手順(412)のいずれの方法でも、計測対象者の身体部位(主に胴体部)の3次元位置や速度振幅の計測(S−11,21)と移動速度を算出し(S−12.22)、着地の検知を行って(S−13−23)着地の時間間隔を計測する(S−14.24)。着地の時間間隔は、着地時刻と前回の着地時刻の時間間隔とする。なお、移動開始時(一歩目)や一定時間以上停止していた場合は、前回の着地時刻を直前の動き始めの時刻として、着地の時間間隔を計算する。着地の時間間隔に移動した距離(移動量)を算出し(S−15,25)、それを歩幅とする。最後に歩幅を累積して移動開始時からの移動距離を算出する(S−16,26)。   The detection of the moving state can be performed in any one of the processing procedure (411) using the depth image and the processing procedure (412) using the acceleration measurement in three dimensions of the body part (mainly the body) of the measurement target. The position and speed amplitudes are measured (S-11, 21), the moving speed is calculated (S-12.22), the landing is detected (S-13-23), and the landing time interval is measured (S- 14.24). The landing time interval is the time interval between the landing time and the previous landing time. In addition, at the start of movement (first step) or when the vehicle has been stopped for a certain period of time or more, the last landing time is set to the time of the immediately preceding movement, and the landing time interval is calculated. The distance moved (the amount of movement) during the landing time interval is calculated (S-15, 25), and is set as the stride. Finally, the step length is accumulated to calculate the movement distance from the start of the movement (S-16, 26).

深度画像計測による方法の処理手順(411)は、計測対象者に装置ユニット(200)を装着する必要がないことが長所であり、計測対象者の運動が赤外線センサ(111)の視野内に限られる点が短所である。一方、加速度計測による方法(412)では、計測対象者の移動が数十メートルの装着ユニット(200)の伝送領域内において自由である点が長所であり、計測対象者に装着ユニット(200)を装着することが必要である点が短所である。また、これらの方法は併用することも可能である。例えば、手順(412)の方法で着地の検知を行い、その間の移動量を手順(411)の方法の位置情報から計測することもできる。   The processing procedure (411) of the method based on depth image measurement has the advantage that it is not necessary to attach the device unit (200) to the person to be measured, and the movement of the person to be measured is limited to the field of view of the infrared sensor (111). Is a disadvantage. On the other hand, the method using acceleration measurement (412) is advantageous in that the movement of the measurement target is free within the transmission area of the mounting unit (200) of several tens of meters. The disadvantage is that it must be worn. Further, these methods can be used in combination. For example, the landing can be detected by the method of the procedure (412), and the movement amount during that can be measured from the position information of the method of the procedure (411).

深度画像計測を用いる方法の処理手順(411)では、計測された深度画像から訓練者の身体部位の位置を検出する。図5は深度画像上の計測対象者の状況を表す。既存の赤外線センサ(Microsoft社製Kinect(商標)やASUS社製Xtion PRO LIVE(商標)など)を利用することで、深度画像から身体部位(例えば、頭、首、肩x2、肘x2、手x2、胴、腰、腿x2、膝x2、足x2)の3次元位置を取得できる。これらの3次元位置は走行体(100)の運動などによる赤外線センサ(111)の位置変化や姿勢変化の影響を補正することで、移動環境に対する絶対座標系(例えば歩行環境のある位置を原点とし、鉛直方向に1軸、床面上に2軸の直行軸を有する座標系)で表すことができる。訓練者の基準点は、深度画像より抽出された胴部の位置とする。胴部の水平面内の移動ベクトルをr、速度ベクトルをvとすると、vは、数1により推定される。   In the processing procedure (411) of the method using the depth image measurement, the position of the body part of the trainee is detected from the measured depth image. FIG. 5 shows the situation of the person to be measured on the depth image. By using existing infrared sensors (such as Microsoft's Kinect (TM) and ASUS's Xtion PRO LIVE (TM)), body images (for example, head, neck, shoulder x2, elbow x2, hand x2) can be obtained from depth images. , Torso, waist, thigh x2, knee x2, foot x2). These three-dimensional positions are corrected for the influence of a change in the position or posture of the infrared sensor (111) due to the movement of the running body (100) or the like, so that an absolute coordinate system with respect to the moving environment (for example, a position with a walking environment as an origin) , A coordinate system having one perpendicular axis and two perpendicular axes on the floor surface). The reference point of the trainee is the position of the torso extracted from the depth image. Assuming that the movement vector in the horizontal plane of the trunk is r and the velocity vector is v, v is estimated by Equation 1.


ただし、tは現在時刻、δtは適当な短時間間隔である。図4(b)の処理手順(410)の着地の検知は、片足の3次元位置の鉛直成分が現在時刻tを中心とする前後の適当な長さの時間間隔において極小値をとるときの時刻tとする。鉛直成分xの計測ノイズはローパスフィルタなどのノイズ処理により軽減される。検出された前回の着地時刻tpと今回の着地の時刻tの時間間隔tc-tpが着地の時間間隔であり、その間の移動距離δrは、数2により推定され、これを歩幅と定義する。

Here, t is the current time, and δt is an appropriate short time interval. The detection of the landing in the processing procedure (410) of FIG. 4B is performed when the vertical component of the three-dimensional position of one foot takes the minimum value at an appropriate time interval before and after the current time t. Let it be t. The measurement noise of the vertical component x is reduced by noise processing such as a low-pass filter. Time interval t c -t p of the detected last landing time t p and t of the current landing is the time interval of the landing, the moving distance δr between them is estimated by the number 2, defined as the stride this I do.

訓練者の移動状態は、赤外線センサ(111)と光学カメラ(112)の情報を統合することで、より詳細に計測することができる。光学カメラ(112)の光学画像と赤外線センサ(111)の深度画像は、計測領域の位置合わせを事前に行うことで統合され、深度画像と光学画像はそれぞれ領域抽出とテクスチャ抽出に用いられる。図5の領域(505)は深度画像で対象者に適合した骨格モデルの特徴点に基づいて決定された領域であり、この領域(505)に対応する局所画像を光学画像から抽出することで、顔、手、足などの身体領域の静止画や動画を取得できる。訓練者が移動支持器を用いる場合は、後記の器具状態認識によって移動支持器具(106)の画像を抽出でき、移動支持器具(106)の領域が補正された深度画像をここでの移動状態の検知手順(411)に用いることで、移動支持器具(106)の影響なしに人の抽出を行うことができる。 The movement state of the trainee can be measured in more detail by integrating information of the infrared sensor (111) and the optical camera (112). The optical image of the optical camera (112) and the depth image of the infrared sensor (111) are integrated by performing positioning of the measurement region in advance, and the depth image and the optical image are used for region extraction and texture extraction, respectively. The region (505) in FIG. 5 is a region determined based on the feature points of the skeleton model suitable for the subject in the depth image. By extracting a local image corresponding to this region (505) from the optical image, Still images and moving images of body areas such as faces, hands, and feet can be acquired. When the trainee uses the moving support device, an image of the moving support device (106) can be extracted by the device state recognition described below, and the depth image in which the area of the moving support device (106) has been corrected is used as the moving state. By using the detection procedure (411), a person can be extracted without the influence of the moving support device (106).

ここで得られる全身の運動学的な状態や映像による外観は、歩行訓練時の訓練者への運動認知や運動指示に活用できる。歩行時の全身の姿勢や歩行と上肢運動との協調などの運動力学的な解析に役立つ。取得された表情に対しては、表情認識を行うことで歩行訓練時の心理状態を推定できる。歩行状態の認識は複数人であってもよく、後記にあるように訓練者と理学療法士などの訓練指導者の両者の歩行状態を認識することもできる。   The kinematic state of the whole body and the appearance of the image obtained here can be used for recognizing exercise and instructing exercise to a trainee during walking training. It is useful for kinematic analysis such as posture of the whole body during walking and coordination between walking and upper limb movement. By performing facial expression recognition on the acquired facial expression, the mental state at the time of walking training can be estimated. The recognition of the walking state may be performed by a plurality of persons, and the walking state of both the trainee and the training instructor such as a physiotherapist can be recognized as described later.

図4(b)に示されている加速度計測を用いる方法の手順(412)では、装着ユニット(200)で計測される加速度から計測対象者の身体部位の位置を検出する。装着ユニット(200)は、加速度センサにより身体部位の運動を計測し、通信装置を介してデータを走行体(100)または外部計算装置(301)に転送する。計測対象者の運動計測は前記の走行体に搭載された赤外線センサ(111)や光学カメラ(112)などによっても行えるが、これらの視覚センサでは床への着地を直接的に検知することは難しい。一方で、装着ユニット(200)を計測対象者に装着した場合は、着地により発生する衝撃を検知することで、着地を直接的に検知できる。加速度センサは着地に限らず、物理的な接触による腕や移動支持器具(106)などへの衝撃を検出することもできる。   In the procedure (412) of the method using the acceleration measurement illustrated in FIG. 4B, the position of the body part of the measurement target is detected from the acceleration measured by the mounting unit (200). The mounting unit (200) measures the motion of the body part using the acceleration sensor, and transfers the data to the traveling body (100) or the external computing device (301) via the communication device. Although the motion measurement of the measurement subject can be performed by an infrared sensor (111) or an optical camera (112) mounted on the traveling body, it is difficult to directly detect the landing on the floor with these visual sensors. . On the other hand, when the mounting unit (200) is mounted on the person to be measured, the landing can be directly detected by detecting the impact generated by the landing. The acceleration sensor is not limited to landing, and can also detect an impact on the arm, the moving support device (106), and the like due to physical contact.

装着ユニット(200)には、加速度センサに加えて角速度センサと地磁気センサを備えることで、加速度センサの姿勢に依存せずに装着部位の加速度を計測できる。この加速度の計測値に基づいて、手順(412)における計測対象者の移動量、歩幅、移動距離を計算できる。   By providing the mounting unit (200) with an angular velocity sensor and a geomagnetic sensor in addition to the acceleration sensor, the acceleration of the mounting part can be measured without depending on the attitude of the acceleration sensor. Based on the measured value of the acceleration, the moving amount, the stride, and the moving distance of the person to be measured in the procedure (412) can be calculated.

まず、加速度センサで計測された加速度値からセンサを装着している身体部位の加速度を計測する。前記と同様に計測対象の基準位置を計測対象者の胴部とし、装着ユニット(200)を胴部に装着する。装着ユニット(200)の加速度センサの計測値は、加速度センサに固有な座標系の値であるため、加速度センサ、角速度センサ、地磁気センサを複合して姿勢を推定してこれを用いることで、移動環境に対する座標系での計測値への補正を行う。姿勢の推定には、これらのセンサ計測値に対してカルマンフィルタを用いる。以上より、移動環境に対する座標系での重力加速度を除いた加速度aを取得する。次に、速度推定を行う。速度と距離は加速度aに積分を繰り返すことで得られるが誤差を含んだ値となるため、速度の変動の大きさが進行方向の速度の大きさと相関することを利用して誤差を低減する。速度振幅v'(i=1,2,3の表記により、水平面内の移動進行方向、水平面内の移動進行方向に垂直な方向、鉛直方向の速度成分を表す)は、数3で計算される。 First, the acceleration of the body part wearing the sensor is measured from the acceleration value measured by the acceleration sensor. Similarly to the above, the reference position of the measurement target is set as the torso of the person to be measured, and the mounting unit (200) is mounted on the torso. Since the measurement value of the acceleration sensor of the mounting unit (200) is a value of a coordinate system unique to the acceleration sensor, the posture is estimated by using the acceleration sensor, the angular velocity sensor, and the geomagnetic sensor in combination, and the movement is performed. Correction to the measurement value in the coordinate system for the environment. To estimate the posture, a Kalman filter is used for these sensor measurement values. As described above, the acceleration a excluding the gravitational acceleration in the coordinate system for the moving environment is obtained. Next, speed estimation is performed. The speed and the distance are obtained by repeating the integration of the acceleration a, but have a value including an error. Therefore, the error is reduced by utilizing the fact that the magnitude of the speed variation correlates with the magnitude of the speed in the traveling direction. The velocity amplitude v i ′ (indicating i = 1, 2, 3 represents the traveling direction in the horizontal plane, the direction perpendicular to the traveling direction in the horizontal plane, and the vertical velocity component) is calculated by Expression 3. You.

ここでa(i=0,1,2)はv(i=0,1,2)に対応する加速度ベクトルを表す。v は加速度の短時間平均を表す。δTは、短時間平均を行う時間間隔を表す。 Here, a i (i = 0, 1, 2) represents an acceleration vector corresponding to v i (i = 0, 1, 2). v i a represents the short-term average of acceleration. ΔT represents a time interval at which short-time averaging is performed.

これまでに速度振幅の移動進行方向の成分から移動速度を推定する方法(以下、従来法という)が提案されているが、本発明において移動の全方向の成分(移動進行方向、水平面内の移動進行方向に垂直な方向、鉛直方向)の各成分についても速度振幅と進行方向速度の相関関係があることに着目し、本発明ではこれらの3つの成分を持つv'を用いて移動速度の推定を行う。移動速度の推定値vは、数4により得られる。 A method of estimating the moving speed from the component of the moving direction of the speed amplitude (hereinafter referred to as a conventional method) has been proposed. In the present invention, components of all directions of the moving (moving direction, moving in the horizontal plane) are proposed. Focusing on the fact that there is also a correlation between the velocity amplitude and the traveling direction velocity for each component (direction perpendicular to the traveling direction, vertical direction), the present invention estimates the moving speed using v ′ having these three components. I do. The estimated value v e of the moving speed is obtained by Expression 4.

ただし、fはパラメータ集合Wを持つ非線形関数または線形関数とする。非線形関数は、高次多項式や多層パーセプトロンなどにより実装できる。事前に採取した入出力データを満たすようにWを最適化することで関数fは得られる。時刻0から時刻tの間の移動距離δr(t)は、数5により得られる。 Here, f is a nonlinear function or a linear function having the parameter set W. The nonlinear function can be implemented by a higher-order polynomial, a multi-layer perceptron, or the like. The function f can be obtained by optimizing W so as to satisfy the input / output data collected in advance. The moving distance δr (t) between the time 0 and the time t is obtained by Expression 5.

ただし、v'は移動進行方向のvとする。前記の姿勢補正された加速度aの時間変化に対してピーク値をもつ時刻を着地時刻として、前記の移動状態認識の計算により着地の時間間隔を計算し、その時間間隔に対して上記のδrの積分を行うことで歩幅を得る。さらに、数6に従って訓練開始時からの歩幅を加算していくことで、移動訓練中の移動距離rを得る。 However, v 'is the moving direction of travel of the v i. Assuming that a time having a peak value with respect to the time change of the posture-corrected acceleration a is a landing time, a landing time interval is calculated by the calculation of the moving state recognition, and the above-mentioned δr Step length is obtained by performing integration. Furthermore, the moving distance r during the moving training is obtained by adding the stride from the start of the training according to Equation 6.

ただし、δriはti-1からtiまでの移動距離(歩幅)を表し、t0は移動開始時刻、tNは移動終了時刻、Nは移動開始から移動終了までの歩数とする。 Here, δr i represents the movement distance (step length) from t i−1 to t i , t 0 is the movement start time, t N is the movement end time, and N is the number of steps from the movement start to the movement end.

本発明の走行体(100),環境システム(300)は、訓練者が使用する移動支持器具(106)と物理的に独立して機能するため、訓練者は移動訓練に適した既存の移動支持器具(106)を本発明と併用することができる。移動支持器具(106)には、脚部に直接装着する装具、杖型の移動支持器具、掴まり立ち用の移動支持器具など、様々な移動支持器具の使用が想定でき、訓練の経過に応じて使用する移動支持器を変更することも可能である。走行体(100)や環境システム(300)は、訓練者の移動状態と合わせて移動支持器具(106)の運動状態を認識することで、移動支持器具(106)の操作を含めた移動状態の認識や運動指示ができる。つまり、移動支持器具(106)を足の一部あるいは第3の足と見なした移動訓練の支援が可能となる。   Since the vehicle (100) and the environmental system (300) of the present invention function physically independently of the mobile support device (106) used by the trainee, the trainee can use the existing mobile support suitable for mobile training. The device (106) can be used with the present invention. As the mobile support device (106), various types of mobile support devices such as a device directly attached to the leg, a wand-shaped mobile support device, and a mobile support device for grasping and standing can be used. It is also possible to change the moving support used. The traveling body (100) and the environmental system (300) recognize the movement state of the movement support device (106) in accordance with the movement state of the trainee, and thereby, the movement state including the operation of the movement support device (106) is recognized. You can recognize and exercise instructions. That is, it is possible to support movement training in which the movement support device (106) is regarded as a part of the foot or the third foot.

移動支持器具(106)は様々な形状や機能をもつものが存在するため、使用する移動支持器具(106)の形状や挙動を学習して認識する機構が必要である。移動支持器具(106)の検知は、前記の装着ユニット(200)に搭載された加速度センサを用いる方法と、光学カメラ(112)の光学画像と赤外線センサ(111)を用いる方法で計測が可能である。装着ユニット(200)を用いる方法では、移動支持器具(106)に装着ユニット(200)を装着することで、手順(412)により、移動支持器具(106)の加速度や速度を直接的に取得できる。   Since the moving support device (106) has various shapes and functions, a mechanism for learning and recognizing the shape and behavior of the moving support device (106) to be used is required. The movement support device (106) can be detected by a method using an acceleration sensor mounted on the mounting unit (200) or a method using an optical image of an optical camera (112) and an infrared sensor (111). is there. In the method using the mounting unit (200), by mounting the mounting unit (200) on the mobile support device (106), the acceleration and speed of the mobile support device (106) can be directly obtained by the procedure (412). .

光学カメラ(112)と赤外線センサ(111)を用いる方法では、移動支持器具の領域を特定し、追跡を行いながら器具の運動状態を検知する。検知の流れを、図4(b)の手順(413)に示す。前述の手順(411)の深度画像の計測による検知手段では、移動支持器具(106)の存在の影響により、計測対象者の身体部位の抽出が失敗する場合がある。これは、身体部位の抽出に用いられる人の骨格モデルが移動支持器具(106)などの道具の使用を想定していないために発生する。   In the method using the optical camera (112) and the infrared sensor (111), the area of the mobile support device is specified, and the movement state of the device is detected while performing tracking. The flow of the detection is shown in a procedure (413) in FIG. In the detection means based on the measurement of the depth image in the above-mentioned procedure (411), extraction of the body part of the measurement target person may fail due to the influence of the presence of the mobile support device (106). This occurs because the human skeleton model used for extracting the body part does not assume the use of tools such as the mobile support device (106).

この問題を解決するために、光学画像を用いる方法の手順(413)において、深度画像から移動支持器具(106)の領域を無限遠として補正し、補正後の深度画像を前記の深度画像を用いる方法の手順(411)の計測対象者の状態の検知に用いる。   In order to solve this problem, in the procedure (413) of the method using the optical image, the area of the moving support device (106) is corrected from the depth image to infinity, and the corrected depth image is used as the depth image. It is used for detecting the state of the person to be measured in the procedure (411) of the method.

光学画像と深度画像を用いる方法の手順(413)では、移動支持器具の領域を移動訓練の開始時に特定し、移動訓練中はその領域を追跡することで検出を行う。まず、移動訓練の開始時に移動支持器具(106)を提示して、赤外線センサ(111)と光学カメラ(112)で撮影する。次いで、移動支持器具(106)に添付した光学マーカ(特定色のラベル)(504)を光学画像上での色識別により検出する(S-31)。なお、光学マーカ(特定色のラベル)(504)は、事前に移動支持器具(106)に添付しておく。次いで、深度画像上で相対的に近距離な領域を、移動支持器具(106)の領域と見なし(S-32)、深度画像上の移動支持器具(106)の領域と光学マーカの位置関係から、光学マーカの位置を特徴点とする移動支持器具(106)の骨格モデルを作成する(S-33)。移動訓練中は、まず、光学画像上で光学マーカを抽出し、それらを特徴点として深度画像上で骨格モデルを当てはめることで、移動支持器具(106)の領域を照合し(S-34)、照合された特徴点を追跡する(S-35)。追跡中の移動支持器具(106)の特徴点の3次元位置、速度、加速度を運動状態を算出し、移動支持器具(106)の運動状態と見なす。ただし、3次元位置は移動環境に対する絶対座標系に変換した値とする。最後に、深度画像上の移動支持器具(106)の領域の深度を無限遠として補正する(S-36)。なお、移動訓練中は、骨格モデルの生成までのステップ(S‐31〜S‐33)は省かれるものとする。   In the procedure (413) of the method using the optical image and the depth image, an area of the mobile support device is specified at the start of the mobile training, and the area is detected during the mobile training by detecting the area. First, the movement support device (106) is presented at the start of the movement training, and an image is taken with the infrared sensor (111) and the optical camera (112). Next, the optical marker (label of a specific color) (504) attached to the moving support device (106) is detected by color identification on the optical image (S-31). Note that the optical marker (label of a specific color) (504) is attached to the moving support device (106) in advance. Next, a region that is relatively close on the depth image is regarded as a region of the moving support device (106) (S-32), and the region of the moving support device (106) on the depth image and the positional relationship between the optical marker are determined. Then, a skeletal model of the moving support device (106) having the position of the optical marker as a feature point is created (S-33). During the movement training, first, an optical marker is extracted on the optical image, and a skeletal model is applied on the depth image by using them as feature points, thereby collating the region of the movement support device (106) (S-34). The matched feature points are tracked (S-35). The motion state is calculated based on the three-dimensional position, velocity, and acceleration of the feature point of the moving support device (106) being tracked, and is regarded as the motion state of the mobile support device (106). However, the three-dimensional position is a value converted into an absolute coordinate system for the moving environment. Finally, the depth of the region of the moving support device (106) on the depth image is corrected to be infinity (S-36). During the movement training, the steps (S-31 to S-33) up to the generation of the skeleton model are omitted.

走行体(100)または環境システム(300)は、前記の検知手段の手順(402)により、訓練者(104)、訓練指導者(105)、移動支持器具(106)の移動状態を検知した後に、移動環境の認識と移動の計画の処理手順(403)を実行する。図6は移動環境の状態認識と経路計画を表す。走行体(100)は、自律的に移動しながら移動環境の地図を自動で作成し、自己(走行体)の位置と姿勢を同定する。レーザセンサ(113,114)は現在位置を基点とする移動環境の水平面内の深度データを計測する。本発明に用いるレーザセンサには、既存のレーザセンサ(北陽社製URG(商標))などを用いることができる。計測された局所的な深度データから移動環境の地図生成と自己位置・姿勢同定を同時に行うことができる。地図生成と自己位置姿勢の同時推定には、既存の手段(ROS-gmapping(wiki.ros.org)など)を用いる。   The traveling body (100) or the environmental system (300) detects the moving state of the trainee (104), the training instructor (105), and the moving support device (106) by the procedure (402) of the detecting means described above. Then, the processing procedure (403) of recognizing the moving environment and planning the movement is executed. FIG. 6 shows the state recognition of the moving environment and the route planning. The running body (100) automatically creates a map of the moving environment while moving autonomously, and identifies the position and orientation of the running body (100). The laser sensors (113, 114) measure depth data in a horizontal plane of the moving environment starting from the current position. As the laser sensor used in the present invention, an existing laser sensor (URG (trademark) manufactured by Hokuyo Co., Ltd.) can be used. It is possible to simultaneously generate a map of the moving environment and identify its own position / posture from the measured local depth data. Existing methods (such as ROS-gmapping (wiki.ros.org)) are used for simultaneous map generation and self-position and orientation estimation.

走行体(100)は、教示あるいは誘導のいずれの動作モードであるかを前提にして、状況の認識と行動計画を適宜実行する。移動経路の教示と誘導は、図4(a)の手順(401)に示されるように、走行体の開始時に人が選択する。   The traveling body (100) appropriately recognizes a situation and appropriately executes an action plan on the assumption that the operation mode is teaching or guidance. As shown in a procedure (401) in FIG. 4A, the teaching and guidance of the moving route are selected by a person at the start of the traveling body.

図4(c)の手順(420)は、パワーアシスト操作による教示時の認識・計画を表す。パワーアシスト操作(420)では、訓練指導者(105)が走行体(100)に与えた負荷力を力センサで計測し、力の並進成分と回転成分を教示意図として、走行体(100)を駆動させるための移動目標位置を算出する。   The procedure (420) in FIG. 4C represents recognition / planning at the time of teaching by the power assist operation. In the power assist operation (420), the load instructor applied to the running body (100) by the training instructor (105) is measured by a force sensor, and the translation body and the rotating component of the force are used as the teaching intention to control the running body (100). A movement target position for driving is calculated.

図4(c)の手順(421)は、追従操作による教示時の認識・計画を表す。追従操作(421)では、訓練指導者の位置を計測して、訓練指導者(105)の予測移動位置を教示意図として、走行体(100)を駆動させるための移動目標位置を算出する。訓練指導者(105)の予測移動位置は、水平面内の移動速度ベクトルを計測し、短時間経過後の移動位置を移動目標位置とする。予測移動位置は、前記の赤外線センサ(111)とレーザセンサ(113、114)で計測される。追従操作の手順(421)では、前記の検知手段により取得される計測対象者の3次元位置の変化をもとに、走行体を追跡させるための行動計画を行う。レーザセンサ(113、114)による計測対象者の追跡は、近距離領域で抽出された円弧形状の物体(追跡対象者の足に相当する)を追跡対象として認識させ、追跡対象者の水平面内の速度ベクトルの延長線上に移動目標位置を設定することで実現される。   The procedure (421) in FIG. 4C represents recognition / planning at the time of teaching by following operation. In the following operation (421), the position of the training instructor is measured, and a movement target position for driving the traveling body (100) is calculated with the predicted movement position of the training instructor (105) as the teaching intention. As the predicted movement position of the training instructor (105), a movement speed vector in a horizontal plane is measured, and a movement position after a short time has elapsed is set as a movement target position. The predicted movement position is measured by the infrared sensor (111) and the laser sensors (113, 114). In the follow-up operation procedure (421), an action plan for tracking the running object is performed based on the change in the three-dimensional position of the measurement target acquired by the detection means. The tracking of the measurement target by the laser sensors (113, 114) is performed by recognizing an arc-shaped object (corresponding to a foot of the tracking target) extracted in a short-distance region as a tracking target, and in a horizontal plane of the tracking target. This is realized by setting the movement target position on an extension of the speed vector.

図4(c)の手順(422)は、訓練者(104)の誘導時の認識・計画を表す。訓練者(104)の誘導時には、前記の手順(421)の赤外線センサ(111)を用いた方法で訓練者(104)と走行体(100)の間合いを認識し、移動目標位置を設定する。連続的に移動し過ぎると、後記の映像音響パターンの提示に影響がでるため、訓練者(104)が必要以上に近づいたら、移動経路を進み、そうでない場合は、その場に待機する。   The procedure (422) in FIG. 4C represents the recognition / planning of the trainee (104) at the time of guidance. When the trainee (104) is guided, the distance between the trainee (104) and the running body (100) is recognized by the method using the infrared sensor (111) in the above-mentioned procedure (421), and the movement target position is set. If the trainee moves too much, the presentation of the later-described audiovisual pattern will be affected. Therefore, if the trainee (104) approaches more than necessary, the trainee will follow the movement route, and if not, will wait on the spot.

図6の符号(600)は移動経路の教示時の状況と誘導時の移動経路の再計画を説明するための経路平面を表す。図6の符号(601)は移動経路の教示時の状況を説明するための経路平面を表す。移動経路の教示時は、訓練指導者(105)による前述のパワーアシスト操作(420)や、先導による追従操作(421)によって行う。走行体(100)は、移動と同時に移動環境の地図を作成する。移動経路の教示は、訓練指導者(105)が移動を実演して教示する他に、走行体が生成した地図上に訓練指導者(105)が経由点(613)を与えて、走行体のシステムに経由点を結ぶような移動経路を生成しても構わない。その場合は、まず、走行体(100)が事前に移動環境を自律的に探索して地図を生成する必要がある。あるいは、走行体(100)のシステムが地図上に経由点(613)生成して、移動経路を構築しても構わない。   Reference numeral (600) in FIG. 6 represents a route plane for explaining a situation at the time of teaching the travel route and re-planning the travel route at the time of guidance. Reference numeral (601) in FIG. 6 represents a path plane for explaining a situation at the time of teaching the movement path. At the time of teaching the movement route, the above-mentioned power assist operation (420) by the training instructor (105) and the follow-up operation (421) by the lead are performed. The traveling body (100) creates a map of the moving environment at the same time as moving. As for the teaching of the movement route, in addition to the training instructor (105) demonstrating and teaching the movement, the training instructor (105) gives the waypoint (613) on the map generated by the traveling body, and A moving route that connects the waypoints to the system may be generated. In that case, first, the traveling body (100) needs to autonomously search in advance for the moving environment to generate a map. Alternatively, the system of the traveling body (100) may generate the waypoint (613) on the map to construct the movement route.

図6の符号(602)は移動経路の誘導を説明するための経路平面を表す。移動訓練時は、事前に計画した移動経路に基づいて移動経路を動的に再計画して、訓練者を誘導する。一般に、移動経路の教示時と実行時の環境は異なる可能性があり、移動経路の状況に応じた動的な調整が必要である。例えば、移動経路上に人(612)や物などの障害物(615)などが入り込む場合や、訓練者(104)の意思により移動経路を変更したり、移動訓練を中止したい場合がありえる。計画された移動経路上に障害物(615)を検出した場合は、障害物(615)を回避しつつ、事前に計画した移動経路に復旧するよう動的に経路を変更しながら誘導を実行する。訓練者(104)を含む障害物への衝突を接触センサが検出した場合は、一旦後退して障害物を回避するか、または停止して訓練者(104)や訓練指導者(105)の指示を待機する。   Reference numeral (602) in FIG. 6 represents a route plane for explaining the guidance of the moving route. At the time of the movement training, the trainee is guided by dynamically re-planning the movement path based on the movement path planned in advance. In general, the environment at the time of teaching the moving path and the environment at the time of execution may be different, and dynamic adjustment according to the state of the moving path is necessary. For example, there may be a case where an obstacle (615) such as a person (612) or an object enters the moving route, a case where the trainee (104) intends to change the moving route, or a case where it is desired to stop the moving training. When an obstacle (615) is detected on the planned travel route, guidance is executed while avoiding the obstacle (615) and dynamically changing the route so as to restore the previously planned travel route. . When the contact sensor detects a collision with an obstacle including the trainee (104), the trainee temporarily retracts to avoid the obstacle, or stops and stops and instructs the trainer (104) or the training instructor (105). To wait.

これまでの移動訓練では、運動中に運動状態の認知を強化したり、状況に応じて動的に運動の指示を行うことが困難であったが、本発明では、走行体(100)や環境システム(300)が訓練者(104)の移動状態を認識して、映像音響の信号や身体部位への刺激により訓練者(104)の運動情報を帰還することで、訓練者(104)の運動認知が強化され運動計画も明確になる。また、訓練者(104)の運動状態とともに訓練指導者(105)の運動状態や訓練者(104)が使用する移動支持器具(106)の運動状態も認識することで、より効果的な運動情報の提示ができる。運動情報の提示には、映像、音響、振動、電気などの刺激を用いる。   Although it has been difficult to enhance the recognition of the exercise state during exercise and to dynamically instruct the exercise according to the situation in the conventional exercise, in the present invention, the traveling body (100) and the environment The system (300) recognizes the movement state of the trainee (104), and returns the trainee (104) 's movement information by a video / audio signal or a stimulus to a body part. The cognition is strengthened and the exercise plan becomes clear. In addition, by recognizing the exercise state of the trainer (104) and the exercise state of the mobile support device (106) used by the trainee (104) as well as the exercise state of the trainee (104), more effective exercise information can be obtained. Can be presented. Exercise information is presented using stimuli such as video, sound, vibration, and electricity.

図7に本発明の刺激提示を示す。視覚刺激(701、702)や聴覚刺激(703、704)は、平衡感覚、筋紡錘の運動感覚、足裏皮膚の触覚などより得られる体性感覚を補う。視覚刺激(701、702)や聴覚刺激(703、704)は、走行体(100)や環境システム(300)が訓練者(104)に接触せずに提示できる。また、装着ユニット(200)を用いることで、訓練者(104)の身体部位(例えば足首や手首などに)に直接的な振動や電気などの触力覚刺激(705、706)を与えることができる。   FIG. 7 shows the stimulus presentation of the present invention. The visual stimuli (701, 702) and the auditory stimuli (703, 704) supplement somatic sensations obtained from the sense of balance, the kinetic sensation of the muscle spindle, and the tactile sensation of the sole skin. The visual stimuli (701, 702) and the auditory stimuli (703, 704) can be presented without the running object (100) or the environmental system (300) contacting the trainee (104). Further, by using the mounting unit (200), it is possible to apply a tactile stimulus (705, 706) such as direct vibration or electricity to the body part (for example, an ankle or a wrist) of the trainee (104). it can.

前記の訓練者(104)、訓練指導者(105)、移動支持器具(106)の移動状態の検知手段より、訓練者(104)が足を踏み出すことで次の踏み出し位置を表す映像パターン(701)や着地のタイミングを表す音響パターン(703)を提示できる。また、訓練指導者(105)が足を踏み出すことで、同様の映像パターンと音響パターンを提示することもできる。従って、本発明は、訓練者本人の自主的な訓練とともに訓練指導者の運動教示にも利用できる。さらに、移動支持器具についても、移動目標位置を表す映像パターン(702)や器具の着地のタイミングを表す音響パターン(704)を提示することで、移動支持器具(106)の操作を含めた運動の認知や運動の指示が行える。   From the trainee (104), the training instructor (105), and the moving state detecting means (106), the moving state detection means detects a moving image pattern (701) representing the next stepping position when the trainee (104) steps on the foot. ) And an acoustic pattern (703) representing the landing timing. When the training instructor (105) steps on the foot, the same video pattern and sound pattern can be presented. Therefore, the present invention can be used for exercise training of a trainer as well as voluntary training of the trainee himself. In addition, by presenting a video pattern (702) representing the movement target position and an acoustic pattern (704) representing the timing of landing of the device, the movement supporting device (106) also includes the movement support device (106). Can give cognitive and exercise instructions.

装着ユニット(200)を装着する場所は、訓練者(104)の症状、リハビリが必要な身体部位、訓練方針などを考慮して決定される。例えば、胴、左右の手首、足首や使用する移動支持器具などに取り付ける。刺激指令は走行体(100)または外部計算装置(301)で管理し、これらの装置から装着ユニット(200)に刺激指令が伝送され、装着ユニット(200)が実行する形態を取ることで、装着ユニット(200)の計算処理を軽減することができる。   The place where the mounting unit (200) is mounted is determined in consideration of the condition of the trainee (104), a body part requiring rehabilitation, a training policy, and the like. For example, it is attached to the torso, left and right wrists, ankles, and moving support equipment to be used. The stimulus command is managed by the traveling body (100) or the external computing device (301), and the stimulus command is transmitted from these devices to the mounting unit (200), and the mounting unit (200) executes the stimulus command. The calculation processing of the unit (200) can be reduced.

装着ユニット(200)に備えられた刺激提示部(202)は、足の振り上げ前や着地時にモータを振動させることで、身体の特定部位に直接的な触力覚刺激(705,706)を与えることができる。また、刺激の提示には、振動による触力覚刺激の他に、電気刺激などを用いても構わない。いずれにせよ、これらの刺激を用いることで、訓練者(104)本人の着地の認知を高め、訓練効果を高めることができる。装着ユニット(200)による刺激提示は、訓練指導者(105)の足に装着ユニット(200)を装着することで、訓練指導者(105)が実演する運動状態に基づいても実行できる。それにより、訓練者(104)は着地のタイミングや運動が指示されている身体部位の場所(例えば、これから踏み出す方の足)を直感的に知覚することができる。   A stimulus presentation unit (202) provided in the wearing unit (200) gives a direct haptic stimulus (705, 706) to a specific part of the body by vibrating a motor before swinging a foot or at the time of landing. be able to. In addition, electrical stimulation or the like may be used to present the stimulus in addition to the tactile force stimulus caused by vibration. In any case, by using these stimuli, the trainee (104) can improve the recognition of the landing by himself, and can enhance the training effect. The stimulus presentation by the wearing unit (200) can also be executed based on the exercise state performed by the training instructor (105) by attaching the wearing unit (200) to the foot of the training instructor (105). Thereby, the trainee (104) can intuitively perceive the landing timing and the location of the body part where the exercise is instructed (for example, the foot to be stepped on).

走行体(100)または環境システム(300)は、訓練者(104)に視覚刺激と音響刺激を与えながら、移動訓練を行う。提示される映像パターンは、前記の符号(701)や符号(702)で示す形状などに限られず、任意の映像パターンを投影できる。図8は移動訓練を行う上で有用な映像音響効果を表す。足の踏み出し位置を示す映像パターン(701)の形状は任意であり、単純な足型のパターンや訓練者(104)の足の光学画像であっても良い。訓練者(104)の足の外観は、訓練時に着用しているスリッパ、靴、靴下などの影響により日々異なると考えられるが、訓練開始時に走行体の光学カメラ(112)で撮影した訓練者(104)の足画像を用いることで、足の踏み出しの想像が容易となり、移動訓練の臨場感も高まる。足型の映像パターン(701)は、図8のように数歩分を同時に提示しても、踏み出し毎に一歩ずつ提示しても構わない。これらの足型の映像パターンとともに、歩幅の目安となる基準線(807)を提示できる。同様に、前記の移動状態の検知手段によって検知された歩幅、歩速、歩行距離を表す映像パターン(804)や、前記の移動環境の認識・計画の処理手段によって生成された環境地図と移動経路(805)、遠隔地にいる訓練指導者の映像音声情報や訓練者自身の運動状態の映像を表示するコミュニケーション画面(802)なども提示できる。環境地図(805)に開始位置、現在位置、目的位置などの情報を加えたり、将来の移動経路の方向(803)を提示できる。これにより、訓練者(104)にとって移動訓練が明確となり、周囲にいる人(612)に対しても、走行体(100)や訓練者(104)の将来の移動を把握にも役立つため、移動訓練の安全性が高まる。   The vehicle (100) or the environmental system (300) performs the movement training while providing the trainee (104) with a visual stimulus and an acoustic stimulus. The presented video pattern is not limited to the shape indicated by the reference numerals (701) and (702), and any video pattern can be projected. FIG. 8 shows an audio-visual effect that is useful in performing the movement training. The shape of the video pattern (701) indicating the stepping position of the foot is arbitrary, and may be a simple footprint pattern or an optical image of the foot of the trainee (104). The appearance of the trainee's (104) foot may vary daily due to the effects of slippers, shoes, socks, etc. worn during training, but the trainee (104) photographed with the optical camera (112) of the running body at the start of training. By using the foot image of 104), it is easy to imagine stepping on the foot, and the realism of the movement training is enhanced. The footprint image pattern (701) may be presented for several steps at the same time as shown in FIG. 8, or may be presented one step at a time for each step. A reference line (807) serving as a measure of the stride length can be presented together with these footprint image patterns. Similarly, an image pattern (804) representing the stride, step speed, and walking distance detected by the moving state detecting means, an environment map generated by the moving environment recognition / planning processing means, and a moving path. (805) A communication screen (802) for displaying video / audio information of a training instructor who is in a remote place or a video of the exerciser's own exercise state can also be presented. Information such as a start position, a current position, and a destination position can be added to the environment map (805), and the direction (803) of a future movement route can be presented. As a result, the movement training becomes clear to the trainee (104), and it is useful for the persons (612) in the vicinity to grasp the future movement of the running body (100) and the trainee (104). Training is more secure.

歩行訓練において自己の歩行リズムを正しく認知することは、歩行リズムに回復する上で重要である。特に着地のタイミングの認知は歩行において重要であり、聴覚刺激で移動時や移動後の歩行リズムを提示することは、移動訓練において効果が高い。左右の足の着地に対して異なる音高や音色の音響パターンを用いることで、左右の足の着地の認知を独立して強化させることもできる。また、メトロノームのようなペース音を生成することで、標準的な歩行周期を提示することもできる。また、音響刺激は着地のタイミングを提示する音響パターン(703)に限らず、訓練者(104)や訓練指導者(105)に対して、訓練パラメータの設定、訓練の開始、訓練の継続、訓練の終了などを知らせるための音響パターンや音声ガイドにも利用できる。前記の映像パターンの投影と連動させて、遠隔地にいる人と会話しながら訓練を行うこともできる。   It is important to correctly recognize one's own walking rhythm in walking training in order to recover the walking rhythm. In particular, recognition of the timing of landing is important in walking, and presenting a walking rhythm during or after movement by auditory stimulation is highly effective in movement training. By using acoustic patterns of different pitches and timbres for landing on the left and right feet, it is also possible to independently enhance recognition of landing on the left and right feet. By generating a pace sound such as a metronome, a standard walking cycle can be presented. Further, the acoustic stimulus is not limited to the acoustic pattern (703) for presenting the landing timing, and the training parameters are set, the training is started, the training is continued, and the training is performed for the trainee (104) and the training instructor (105). It can also be used as an audio pattern or audio guide for notifying the end of the game. In conjunction with the projection of the video pattern, the training can be performed while talking with a person in a remote place.

このような移動しながらの映像音響パターンの提示は、歩行訓練に達成感ややりがいを与え、歩行訓練の意欲の向上させることにも効果的である。また、訓練者が歩きたい場所へ歩行訓練を誘導する機能は、従来型の設備内で行う歩行訓練支援装置では実現できなかった機能であり、目的地に行くことや好みの場所を周回するなどの行為を通して、歩行訓練の楽しみや歩行訓練を継続する上での意欲を向上させる。   The presentation of the video and audio patterns while moving is effective in giving a sense of accomplishment and worthwhile to the walking training, and in improving the motivation of the walking training. In addition, the function to guide the walking training to the place where the trainee wants to walk is a function that could not be realized by the walking training support device performed in the conventional equipment, such as going to the destination or going around the favorite place. Through this act, the pleasure of walking training and the motivation to continue walking training are improved.

次に、走行体を用いて機能を拡張させた歩行訓練支援装置に係る実施形態(歩行訓練支援に関する拡張機能)について説明する。   Next, an embodiment (an extended function related to walking training support) according to a walking training support device in which functions are extended using a traveling body will be described.

前掲の特許文献に開示されるように、これまでの歩行訓練支援装置では、歩行評価において全身運動の考慮が十分でなく、訓練対象者の現状の歩行状態と目標の歩行状態を連続的に結びつけた歩行誘導や、歩行環境を活用した歩行状態の効果的な提示が実現されていない。   As disclosed in the above-mentioned patent document, the conventional walking training support devices do not sufficiently consider the whole body movement in the walking evaluation, and continuously link the current walking state of the trainee and the target walking state. Walking guidance and effective presentation of a walking state utilizing a walking environment have not been realized.

本実施形態の走行体を用いた歩行訓練支援に関する拡張機能は、訓練対象者と独立した走行体を用いて訓練対象者の運動認知を強化し、歩行運動を効率的に誘導するための拡張的な計測、評価、提示、誘導、再現手段を有し、前項の問題を解決するものである。運動認知とは、訓練対象者自身が運動の状態を認知することであり、運動の状態は、身体の3次元における姿勢全般(後述の傾きや各部位の動き)に及ぶものである。   The extended function for walking training support using the running object of the present embodiment is an extensible function for enhancing the movement recognition of the training target person using the running object independent of the training target person and efficiently guiding the walking movement. It has various means for measurement, evaluation, presentation, guidance, and reproduction, and solves the problem described in the preceding section. Exercise recognition refers to the training target person himself / herself recognizing the state of exercise, and the exercise state covers all three-dimensional postures of the body (tilt and movement of each part described later).

この点について、例えば、前掲の特許文献10(特開2011-229838「自立式の走行支援装置」)では、移動式の杖として訓練指導者と一体化し、映像投影を用いて足運びを指示して歩行を誘導する。当該の技術では、訓練対象者と装置の一体性により平行棒などの他の支持器具との併用が難しく、行動制御が訓練対象者に従属的となるため、訓練対象者から離れた3次元的な全身運動計測や、歩行環境を利用した広領域な運動状態の提示及び指示が難しかった。   Regarding this point, for example, in the above-mentioned Patent Document 10 (Japanese Patent Application Laid-Open No. 2011-229838 “Independent driving support device”), a moving stick is integrated with the training instructor, and footing is instructed using video projection. To induce walking. In this technique, it is difficult to use the training target with another supporting device such as a parallel bar due to the integration of the training target and the device, and the behavior control is subordinate to the training target. It has been difficult to measure whole body movements and present and instruct a wide range of exercise state using a walking environment.

本実施形態では、歩行運動の3次元的な計測と再構成に基づく訓練方式を実現する。本実施形態は、訓練対象者と独立した走行体を自律制御して、自由空間における訓練対象者の3次元的な身体運動情報を各種センサで計測して統合し、訓練対象者や訓練指導者が直感的に理解しやすい身体像の運動として再構築する。歩行時やその前後において、訓練意図に応じて身体像の運動を調整して訓練対象者に提示することで、訓練対象者の歩行を誘導したり、歩行の運動認知を強化する。   In the present embodiment, a training method based on three-dimensional measurement and reconstruction of walking motion is realized. The present embodiment autonomously controls a running body independent of a trainee and measures and integrates three-dimensional body motion information of the trainee in a free space with various sensors to integrate the trainee and the trainer. Is reconstructed as a movement of the body image that is easy to understand intuitively. By adjusting the motion of the body image according to the training intention and presenting it to the trainee before and after walking, the walking of the trainee is guided or the walking motion recognition is enhanced.

当該の3次元的な計測と再構成に基づく訓練方式の実現により、自由空間での歩行時の全身運動評価が可能になり、訓練対象者と走行体が独立していることで、訓練対象者は症状に対して最も望ましい支持器具を使用できる。また、走行体が訓練対象者より先行して歩行環境を走行するため、歩行床面の安全性を事前に確認でき、周囲にいる人物がいる状況でも歩行する空間を前もって確保できる。さらに、先行する走行体の存在感や身体性は、走行体が訓練対象者に映像、音響、振動を用いて提示する物理的な歩行目標とともに、訓練対象者の心理的な歩行目標となり、訓練に一緒に付き添う存在として訓練対象者に訓練への動機を与えることにも寄与する。   The realization of the training method based on the three-dimensional measurement and the reconstruction makes it possible to evaluate the whole body motion during walking in free space, and the training subject and the running body are independent, and the training subject Can use the most desirable support device for the condition. In addition, since the traveling body travels in the walking environment ahead of the trainee, the safety of the walking floor can be confirmed in advance, and a space for walking can be secured in advance even when there are people around. In addition, the presence and physicality of the preceding running object become the psychological walking target of the trainee, along with the physical walking target that the running body presents to the trainee using images, sounds, and vibrations. It also contributes to motivating the trainees to be trained as being with them.

本実施形態で実現される歩行訓練方式を、拡張鏡像療法(Augmented Mirror Therapy: AMT)と表記する。拡張鏡像療法では、人間の全身運動を3次元的に計測して歩行環境と空間的に対応づけて記録し(拡張的な計測手段と表記する)、計測した運動を評価し訓練意図に基づいた調整を施して再構成し(拡張的な評価手段と表記する、また、再構成された身体運動情報を拡張身体像と表記する)、拡張身体像を人間が直感的に認知できる形に提示するための計算処理を行い(拡張的な提示手段と表記する)、歩行訓練時に拡張身体像を提示して歩行を誘導したり(拡張的な誘導手段と表記する)、歩行訓練後に拡張身体像を提示して訓練対象者の現状や理想の歩行運動の理解を促す(拡張的な再現手段と表記する)ことで、運動機能を回復させる訓練方式である。なお、前述の拡張身体像には、身体の空間的な特徴に加えてその運動情報も含まれる。これらの各手段は、走行体に搭載される処理手段によって処理されるものであるが、その処理の一部が当該走行体とは独立して固定された処理手段で処理させてもよい。異なる処理手段によって処理する場合には、両者間を伝送手段によって送受信させるように構成されることとなる。   The walking training method realized in the present embodiment is referred to as Augmented Mirror Therapy (AMT). In extended mirror image therapy, human whole body movements are measured three-dimensionally and recorded in spatial correspondence with the walking environment (referred to as “extended measurement means”), and the measured movements are evaluated based on training intentions. Make adjustments and reconstruct (represented as augmented evaluation means and reconstructed body movement information as augmented body image) and present the augmented body image in a form that humans can intuitively recognize To perform a walking process (referred to as an extended presentation means) and present an extended body image during walking training to induce walking (referred to as an extended guidance means). This is a training method to restore the motor function by presenting and promoting understanding of the current state and ideal walking movement of the trainee (indicated as an extended reproduction means). It should be noted that the above-described expanded body image includes not only the spatial characteristics of the body but also its motion information. Each of these units is processed by a processing unit mounted on the traveling body, but a part of the processing may be processed by a processing unit fixed independently of the traveling body. When processing is performed by different processing means, the transmission and reception are performed between the two by the transmission means.

また、本実施形態は、走行体の形態により自由空間で訓練対象者に伴って回復訓練を支援できるため、訓練対象者が空間を移動する歩行運動に対して最も高い効果が期待されるが、走行体を静止させて当該の機能を使用することで、空間的な移動のない、または移動量の小さい運動、例えば、手先動作などの上肢運動に対する機能回復訓練にも適用できる。   In addition, in the present embodiment, since the recovery training can be supported along with the trainee in the free space according to the form of the running body, the highest effect is expected for the walking exercise in which the trainee moves in the space, By using the function while the vehicle is stationary, the present invention can be applied to a function recovery exercise for an exercise with no spatial movement or a small amount of movement, for example, an upper limb exercise such as a hand movement.

拡張鏡像療法の実現手順を図10に示す。当該の歩行訓練方式を実現する装置は、機能を実行するモードとして、「設定モード」、「誘導モード」、「再現モード」を有する。「設定モード」では、装置使用上の各設定値の入力や閲覧、歩行経路の教示や地図生成などを行う。設定値とは、例えば、走行体の基準位置の設定のための値である場合のほか、移動距離または移動速度等の基本的な数値などがある。「誘導モード」では、誘導時の走行体と訓練対象者との位置関係、例えば、前方誘導や側方誘導などの誘導方法を選択し、歩行と環境を計測しながら歩行状態を評価し、歩行目標等を指示(提示)しつつ運動認知を強化しながら訓練を誘導する。「再現モード」では、拡張身体像の再現方法、例えば、床面上の再現や壁面上の再現などを選択し、誘導時に記録した現状の歩行動作や訓練目標の歩行動作を再現して、訓練対象者の理解を高める。   FIG. 10 shows a procedure for realizing the extended image therapy. The device that realizes the walking training method has a “setting mode”, a “guidance mode”, and a “reproduction mode” as modes for executing functions. In the "setting mode", input and browsing of each set value in using the apparatus, teaching of a walking route, generation of a map, and the like are performed. The set value is, for example, a value for setting a reference position of the traveling body, or a basic numerical value such as a moving distance or a moving speed. In the “guidance mode”, the positional relationship between the running object and the trainee at the time of guidance, for example, a guidance method such as forward guidance or side guidance is selected, and the walking state is evaluated while measuring walking and the environment. Instruct training while strengthening motor recognition while indicating (presenting) goals and the like. In the "reproduction mode", the user selects a method of reproducing the extended body image, for example, reproduction on the floor or on the wall, and reproduces the current walking motion and the training target walking motion recorded during the guidance to perform the training. Increase the understanding of the target audience.

拡張的な計測手段のイメージを図11に示す。走行体は、本図に示されるように訓練対象者とともに自由空間を移動しながら、歩行時の全身運動を3次元計測する。歩行の3次元計測は、環境の座標系で表現された走行体の位置姿勢計測と、走行体の座標系で表現された訓練対象者の全身運動計測を統合することで実現される。これにより訓練対象者の歩行運動を歩行環境に対応づけて記録できる。   FIG. 11 shows an image of the extended measuring means. As shown in the figure, the traveling body three-dimensionally measures the whole body motion during walking while moving in free space together with the trainee. The three-dimensional measurement of walking is realized by integrating the measurement of the position and orientation of the traveling body expressed in the coordinate system of the environment with the measurement of the whole body movement of the trainee in the coordinate system of the traveling body. Thereby, the walking motion of the trainee can be recorded in association with the walking environment.

本実施形態における歩行の3次元計測の結果を図12に示す。走行体の位置姿勢計測は、走行体に搭載されたレーザセンサと公知の処理手段(Simultaneous Localization and Mapping: SLAM)により実現される。SLAMによって、環境地図を作成すると同時に走行体の位置と姿勢を推定することができる。   FIG. 12 shows the results of the three-dimensional measurement of walking in the present embodiment. The position and orientation measurement of the traveling body is realized by a laser sensor mounted on the traveling body and a known processing unit (Simultaneous Localization and Mapping: SLAM). With SLAM, it is possible to create an environmental map and at the same time estimate the position and attitude of the vehicle.

本発明の実施形態における走行体の空間的な配置を図18に示す。走行体は円柱形状を成しており、本図は側面と上面から走行体を俯瞰した配置を表す。本図において、点Oは走行体の基準位置、点Aはプロジェクタの光源位置、点Gはレーザセンサの測定位置、線分ADはプロジェクタの光軸上の線分、線分DBは画像空間の縦軸に対応し、(XR,ZR)平面はレーザセンサの計測平面とする。環境の座標系における行体の基準位置を(xR,yR,zR)とすると、レーザセンサより角度θ、距離rの点の(XR,ZR)平面への垂線の足(すなわち床面上の点)の座標(x,y,z)は、数7で表される。 FIG. 18 shows a spatial arrangement of the traveling body in the embodiment of the present invention. The traveling body has a cylindrical shape, and this drawing shows an arrangement in which the traveling body is viewed from the side and the top. In this figure, point O is the reference position of the traveling body, point A is the light source position of the projector, point G is the measurement position of the laser sensor, line segment AD is the line segment on the optical axis of the projector, and line segment DB is the image space. The (X R , Z R ) plane corresponds to the vertical axis and is the measurement plane of the laser sensor. The reference position of the line member in the coordinate system of the environment (x R, y R, z R) When an angle from the laser sensor theta, a distance r points (X R, Z R) perpendicular foot onto the plane (i.e. The coordinates (x, y, z) of the point on the floor surface are expressed by Expression 7.

以上より、走行体がレーザセンサで計測した位置より床面に下ろした垂線の足の位置は、環境の座標系で表現される。 As described above, the position of the perpendicular foot lowered from the position measured by the laser sensor to the floor by the traveling body is expressed in the environment coordinate system.

訓練対象者の全身運動計測は、走行体に搭載された各種センサと対象者に装着したセンサを用いて実現される。膝下の足位置は、主にレーザセンサで計測される。膝上の全身運動は、主に赤外線センサで計測される。足の着地検知や前述のセンサで計測しづらい身体部位の局所的な運動は、主に訓練対象者に装着した加速度センサや角速度センサなどで計測される。全身運動の外観は、主に光学カメラで計測する。各種センサより得られる計測情報には重複する部分があるが、各センサがそれぞれ最も高い精度で計測できる部位や種類の情報を抽出して統合する。   The measurement of the whole body motion of the trainee is realized using various sensors mounted on the running body and sensors mounted on the trainee. The position of the foot below the knee is measured mainly by a laser sensor. The whole body movement on the knee is mainly measured by an infrared sensor. The detection of landing on a foot and the local movement of a body part that is difficult to measure by the above-described sensor are mainly measured by an acceleration sensor, an angular velocity sensor, or the like, which is worn on a trainee. The appearance of the whole body movement is mainly measured with an optical camera. Although the measurement information obtained from the various sensors has overlapping portions, information on the parts and types that can be measured with the highest accuracy by each sensor is extracted and integrated.

前項の足位置の計測では、足の形状特徴を利用することで検出精度を高めることができる。足の水平面内における断面を楕円と仮定し、レーザ計測の隠れを考慮した楕円弧のパターンを抽出することで足を検出できる。また、映像パターンを利用して訓練対象者の立ち位置を指示し、その近傍からパターンを抽出すると検知が容易となる。さらに、一度検出したパターンに対してその移動を予測しながら追跡することで、訓練対象者が移動しても継続して足位置を検出できる。   In the measurement of the foot position in the preceding paragraph, the detection accuracy can be improved by utilizing the shape characteristics of the foot. Assuming that the cross section of the foot in the horizontal plane is an ellipse, the foot can be detected by extracting an elliptic arc pattern in consideration of the occlusion of laser measurement. In addition, if the standing position of the trainee is instructed using the video pattern and the pattern is extracted from the vicinity thereof, the detection becomes easy. Further, by tracking the pattern once detected while predicting the movement, the foot position can be continuously detected even if the trainee moves.

前述の走行体の位置姿勢計測を訓練対象者の全身運動計測と統合することで、訓練対象者の全身運動を環境の座標系で記述される3次元的な身体像が成す運動としてモデル化することができる。なお、生成された環境地図や光学カメラの撮影情報より得られる歩行対象者の周囲の状況、例えば、歩行床面の状況や周囲の人物及び障害物の有無なども、歩行の全身運動や歩行経路と合わせて記録する。これにより、誘導時の対人コミュニケーションの有無や、誘導経路から離脱した原因など、歩行環境が及ぼす歩行状態への影響なども評価できる。   By integrating the above-mentioned measurement of the position and orientation of the running body with the measurement of the whole body movement of the trainee, the whole body movement of the trainee is modeled as a movement formed by a three-dimensional body image described in the coordinate system of the environment. be able to. In addition, the surrounding environment of the walking target obtained from the generated environment map and the photographing information of the optical camera, for example, the situation of the walking floor surface, the presence of surrounding people and obstacles, etc. Record along with. As a result, it is possible to evaluate the influence of the walking environment on the walking state, such as the presence or absence of interpersonal communication at the time of guidance, the cause of departure from the guidance route, and the like.

拡張的な評価手段のイメージを図13に示す。走行体は、全身の各部位の位置情報と質量分布情報を用いて、誘導時の重心位置や身体の傾斜を評価する。例えば、全身の前傾や骨盤の後傾などの身体バランスは、足運動の計測のみでは推定困難な評価量であるが、本実施形態では足運動の計測から得られる歩幅、歩隔、歩速、歩数、つま先角度、歩行フェーズ、歩行時間、歩行距離などを、前述の全身運動と対応づけることで、より高度な歩行評価が可能となる。例えば、歩行時のつま先の可動角度は転倒リスクと相関があることが知られており、特に、踏み出し時のつま先の可動角度より歩行の危険度を評価できる。また、全身運動計測を一般の歩行評価、例えば、Timed up and go test (Podsiadlo & Richardson 1991)などと組み合わせることで、歩行評価の質を高められる。   FIG. 13 shows an image of the extended evaluation means. The traveling body evaluates the position of the center of gravity and the inclination of the body at the time of guidance using the position information and the mass distribution information of each part of the whole body. For example, body balance such as forward leaning of the whole body or backward leaning of the pelvis is an evaluation amount that is difficult to estimate only by measuring the foot motion, but in the present embodiment, the stride, the stride, the step speed obtained from the measurement of the foot motion. By associating the number of steps, the toe angle, the walking phase, the walking time, the walking distance, and the like with the above-described whole-body exercise, more advanced walking evaluation can be performed. For example, it is known that the toe's movable angle at the time of walking has a correlation with the fall risk, and in particular, the risk of walking can be evaluated from the toe's movable angle at the time of stepping. In addition, the quality of walking evaluation can be enhanced by combining the whole body movement measurement with general walking evaluation, for example, Timed up and go test (Podsiadlo & Richardson 1991).

拡張的な提示手段のイメージを図14に示す。走行体は、前述の拡張身体像や歩行状態の評価量を、映像、音響、振動による刺激として訓練対象者に提示する。走行体には、プロジェクタ等の投影手段が搭載されており、壁面や床面など訓練対象者が認識できる位置に映像を提示させることができる。そこで、例えば、床面に投影する場合には次のように処理される。走行体がレーザセンサで計測した位置より床面に下ろした垂線の足の座標(x,y,z)に対応するプロジェクタの画像空間の座標系(ξ,η)は、数8で表される。   FIG. 14 shows an image of the extended presentation means. The running body presents the above-described expanded body image and the evaluation amount of the walking state to the trainee as stimulation by video, sound, and vibration. The running body is equipped with projection means such as a projector, and can present an image at a position such as a wall surface or a floor surface that can be recognized by a trainee. Thus, for example, when projecting onto a floor, the following processing is performed. The coordinate system (ξ, η) of the image space of the projector corresponding to the coordinates (x, y, z) of the foot of the perpendicular that the traveling body has lowered from the position measured by the laser sensor to the floor is expressed by Expression 8. .

ただし、事前に画像空間の点が投影された場所に棒を立てて、(ξ,η,d)=(0,0,d'')、(ξ,η,d)=(0,n',d')となるd''、n'、d'を計測したものとする。これより、走行体は、プロジェクタの投影が及ぶ範囲で、レーザセンサで計測した任意の位置の真下に映像パターンを表示できる。 However, a bar is set up in advance at the point where the point in the image space is projected, and (ξ, η, d) = (0,0, d ''), (ξ, η, d) = (0, n ' , d '), d'',n', and d 'are measured. Thus, the traveling body can display an image pattern immediately below an arbitrary position measured by the laser sensor within a range where the projector can project.

歩行を誘導する際に走行体が訓練対象者に提示する情報について説明する。映像では、左右の足の踏み出しの目標位置を提示する。映像パターンの提示位置は、前述の実空間と画像空間の対応づけにより調整される。また、映像パターンの色、大きさ、形状は、訓練対象者の歩行状態や立脚位置に対応して調整される。例えば、図19に示されるように、評価された重心位置が次の足と支持器具の目標位置が成す多角形の内部に入ると、次の足と支持器具の目標位置が表示されたり、配色で強調されるように設定しても良い。また、壁面に映像を提示する場合は、訓練対象者の歩行姿勢を投影させても良い。現在の歩行目標音響では、着地の目標タイミングを提示する。音響パターンは、右足、左足、杖などの各部位に対応した異なる音高や音色を用いることで、各部位の目標タイミングを区別して提示できる。振動では、走行体が検知した訓練対象者の着地タイミングを提示する。着地の検知タイミングをフィードバックすることにより、訓練対象者の着地の認知が強化され、目標タイミングと実際の着地を同期させることが容易になる。   Information that the traveling body presents to the trainee when guiding walking is described. In the video, the target positions of the left and right foot steps are presented. The presentation position of the video pattern is adjusted by associating the real space with the image space. Further, the color, size, and shape of the video pattern are adjusted according to the walking state and the standing position of the trainee. For example, as shown in FIG. 19, when the evaluated position of the center of gravity enters the polygon formed by the target position of the next foot and the support device, the target position of the next foot and the support device is displayed or the color scheme is displayed. May be set to be emphasized. When presenting an image on a wall surface, the walking posture of the trainee may be projected. The current walking target sound indicates the target timing of landing. By using different pitches and timbres corresponding to each part such as the right foot, the left foot, and the cane, the acoustic pattern can be presented with the target timing of each part being distinguished. In the vibration, the landing timing of the trainee detected by the traveling body is presented. By feeding back the landing detection timing, the training target person's recognition of the landing is strengthened, and it becomes easy to synchronize the target timing with the actual landing.

例えば、前述の提示手段を用いて、次に示される歩行の練習が可能である。
A 着地場所を合わせる練習
1 着地の目標位置を映像パターンで教示する。
2 着地位置と着地タイミングを検出して、次の目標位置を提示する。
3 着地位置と目標位置が一致するように練習する。
4 練習後に走行体を移動させて目標位置と検出位置を再現し観察する。
5 着地の目標位置の間隔などを調整して練習を繰り返す。
B 着地リズムを合わせる練習
1 着地の目標タイミングを音響パターンで教示する。
2 着地タイミングを検知して、振動刺激を与える。
3 音響と振動のタイミングが一致するように練習する。
4 練習後に音響と振動を再現して刺激を感覚する。
5 着地の目標タイミングの間隔などを調整して練習を繰り返す。
For example, using the presentation means described above, the following walking exercise can be practiced.
A Practice of adjusting the landing location 1 Teach the target location of the landing with a video pattern.
2 The landing position and the landing timing are detected, and the next target position is presented.
3 Practice so that the landing position matches the target position.
4. After practice, move the running body to reproduce and observe the target position and the detected position.
5 Adjust the distance between the landing target positions and repeat the practice.
B Practice for adjusting the landing rhythm 1 Teach the target timing of the landing using acoustic patterns.
2 Detect the landing timing and give a vibration stimulus.
3 Practice so that the timing of sound and vibration coincide.
4. Reproduce the sound and vibration after practice and feel the stimulus.
5. Adjust the interval of the landing target timing and repeat the practice.

拡張的な誘導手段のイメージ、及び、実施形態において学習された環境地図、教示経路、再現経路を図15に示す。歩行経路は、設定モード時に訓練管理者が走行体をパワーアシストで移動させることで教示する。なお、走行体が訓練管理者を追従する形で歩行経路を教示しても良い。走行体は、前述のSLAMにより地図を生成しながら移動し、それと同時に推定された自己位置の成す軌跡を歩行経路として記録する。これにより歩行経路は、環境を基準とする座標系で表現され、環境地図と対応づけられる。誘導モード時や再現モード時は、訓練対象者と距離を保ちながら教示された歩行経路上を移動して、訓練対象者を誘導する。誘導時の足の目標位置や目標の歩行速度は、訓練管理者の判断に基づいて調整するか、現在の計測情報に基づいて、移動体に自動調整させる。なお、誘導手段は、走行体が先導することにより、訓練対象者に対して大まかな目標位置を提供するとともに、走行体の通過経路が安全であることを提供することができる。また、誘導すべき情報として、提示手段によって映像その他の覚知情報が提供される場合には、理想的な行動姿勢となるべき状態への誘導のほかに、現実の行動姿勢との相違を複数の段階に分割し、歩行訓練者の訓練習熟度に応じて、適宜段階に誘導するものとしてもよい。   FIG. 15 shows an image of the extended guidance means, and an environment map, a teaching route, and a reproduction route learned in the embodiment. The walking route is taught by the training manager moving the running body with power assist in the setting mode. Note that the walking route may be taught in a form in which the traveling body follows the training manager. The traveling body moves while generating a map by the above-described SLAM, and at the same time, records a trajectory formed by the estimated own position as a walking route. Thereby, the walking route is expressed in a coordinate system based on the environment, and is associated with the environment map. In the guidance mode or the reproduction mode, the trainee moves on the taught walking route while keeping the distance to the trainee, and guides the trainee. The target position of the foot and the walking speed of the target at the time of the guidance are adjusted based on the judgment of the training manager, or the moving body is automatically adjusted based on the current measurement information. In addition, the guidance means can provide a rough target position to the trainee by leading the traveling body, and can provide that the passage of the traveling body is safe. When the presentation means provides video or other perception information as information to be guided, in addition to guiding to a state that should be an ideal behavioral posture, a plurality of differences from the actual behavioral posture are also considered. And the steps may be appropriately guided in accordance with the training proficiency of the walking trainee.

拡張的な再現手段のイメージ、及び、実施形態において壁面や床面に提示された拡張身体像を図16に示す。走行体は、訓練対象者の歩行運動を拡張身体像として空間的及び時間的に再構成して提示する。走行体の移動は、拡張身体像を実空間で3次元的に再現するように制御される。走行体は、移動しながら実空間や訓練対象者の身体に拡張身体像のもつ位置や運動の情報を提示することで、訓練対象者に現状や理想の歩行状態の理解を促す。   FIG. 16 shows an image of the expansion reproducing means and an expanded body image presented on the wall surface or the floor surface in the embodiment. The running body spatially and temporally reconstructs and presents the walking motion of the trainee as an expanded body image. The movement of the traveling body is controlled so as to reproduce the extended body image three-dimensionally in the real space. The running body encourages the trainee to understand the current state and the ideal walking state by presenting information on the position and exercise of the extended body image to the real space and the body of the trainee while moving.

拡張的な再現手段によって、訓練対象者は静止した状態で客観的な視点から歩行状態、例えば歩行姿勢などを観察できるため、現状の歩行状態の理解が高まる。また、拡張身体像を生成するパラメータを調整することで、現状の運動状態と理想の運動状態の中間にある運動状態を再現することもできる。例えば、現状の歩幅や歩速などを段階的大きくして歩行運動を再現することで、現状の運動状態から訓練目標に到達するまでの過程をイメージすることができる。   By the extended reproduction means, the trainee can observe a walking state, for example, a walking posture, from an objective viewpoint in a stationary state, so that the understanding of the current walking state is enhanced. In addition, by adjusting the parameters for generating the extended body image, it is possible to reproduce a motion state intermediate between the current motion state and the ideal motion state. For example, by reproducing the walking motion by gradually increasing the current step length, step speed, and the like, it is possible to imagine a process from the current exercise state to reaching the training target.

拡張的な再現手段によって歩行状態の評価量を提示するイメージを図17に示す。例えば、誘導時の着地位置、重心位置、身体の傾斜などの評価量を実空間を移動しながら床面上に提示することができる。これらの偏りを観察することで、例えば、片麻痺の症状に対する歩行の非対称性なども評価できる。また、訓練対象者が装着する加速度センサや角速度センサの計測値を音響に変換して提示することで、足の振りや手の振りなどの身体部位の運動を直感的に示すことができる。   FIG. 17 shows an image in which the evaluation amount of the walking state is presented by the expansion reproducing means. For example, evaluation amounts such as a landing position, a center of gravity position, and a body inclination at the time of guidance can be presented on the floor surface while moving in the real space. By observing these biases, it is possible to evaluate, for example, the asymmetry of walking with respect to the symptoms of hemiplegia. In addition, by converting the measurement values of the acceleration sensor and the angular velocity sensor worn by the trainee into sound and presenting the sound, it is possible to intuitively indicate the movement of the body part such as the swing of the feet and the swing of the hands.

前記実施形態では、加速度センサによる移動の全方向(移動進行方向、水平面内の移動進行方向に垂直な方向、鉛直方向)の各成分について、速度振幅と進行方向速度の相関関係について説明した。そこで、これらの相関関係に基づいて、歩行時の歩幅の検知を実験した。実験は、訓練者を見立てた一般人の足首(両足首)加速度センサを設置し、当該加速度センサから計測される移動進行方向(X)、水平面内の移動進行方向に垂直な方向(Y)、鉛直方向(Z)の全方向について加速度成分を解析し、歩幅を検知することとした。その結果を図9に示す。   In the above-described embodiment, the correlation between the velocity amplitude and the traveling direction velocity has been described for each component in all directions (movement traveling direction, direction perpendicular to the traveling direction in the horizontal plane, vertical direction) of the movement by the acceleration sensor. Therefore, based on these correlations, an experiment was performed to detect the stride length during walking. In the experiment, a general person's ankle (both ankles) acceleration sensor, which looks like a trainee, was installed, and the movement direction (X) measured from the acceleration sensor, the direction perpendicular to the movement direction in the horizontal plane (Y), and the vertical direction The acceleration component is analyzed for all the directions (Z) to detect the stride. FIG. 9 shows the result.

図9(a)は、加速度の時系列データと着地の検知を表すグラフである。グラフ上部の連続する線は加速度の大きさの絶対値を表し、グラフ下部の点は、着地が検出された時刻を表す。両方のグラフとも横軸は時間(秒)を表す。グラフ上部の縦軸は加速度の大きさ(m/s2)を表す。 FIG. 9A is a graph showing acceleration time-series data and detection of landing. The continuous line at the top of the graph represents the absolute value of the magnitude of the acceleration, and the point at the bottom of the graph represents the time at which the landing was detected. In both graphs, the horizontal axis represents time (seconds). The vertical axis at the top of the graph represents the magnitude of the acceleration (m / s 2 ).

図9(b)は、速度振幅と移動速度の相関を表すグラフである。横軸はX,Y,Z各座標成分の速度振幅(m/s)、縦軸は移動速度(短時間平均移動速度)(m/s)を表す。グラフ内の各直線は、各成分でのデータ点の分布を近似する回帰直線である。図9(b)より、速度振幅のX,Y,Z方向の3つの成分が移動速度に相関することが分かる。   FIG. 9B is a graph showing the correlation between the speed amplitude and the moving speed. The horizontal axis represents the speed amplitude (m / s) of each of the X, Y, and Z coordinate components, and the vertical axis represents the moving speed (short-time average moving speed) (m / s). Each straight line in the graph is a regression line that approximates the distribution of data points in each component. FIG. 9B shows that three components of the speed amplitude in the X, Y, and Z directions are correlated with the moving speed.

図9(c)は、歩幅に関する従来法との比較を表す。実験の条件は、被験者が歩行した際の歩数番号を横軸にとり、とその歩幅(m)を縦軸として示す。例えば、図9(c)の歩行番号4の値は、歩行中の第4歩目の歩幅を意味する。系列1の折れ線は精度1mm以下の光学計測手法(Vicon(商標))を用いて測定した歩幅であり、本実験ではこれを真値と見なす。系列2は従来法の結果、系列3は本発明の検知手段の結果をそれぞれ示すグラフである。図9(c)より本発明の検知手段の結果が従来法より真値に近く、本発明の検知手段の有効性が示された。   FIG. 9C shows a comparison of the stride length with the conventional method. The conditions of the experiment are shown with the number of steps when the subject walks on the horizontal axis, and the stride length (m) on the vertical axis. For example, the value of the walking number 4 in FIG. 9C means the stride of the fourth step during walking. The polygonal line of series 1 is a stride measured using an optical measurement method (Vicon (trademark)) with an accuracy of 1 mm or less, and this step is regarded as a true value in this experiment. Series 2 is a graph showing the result of the conventional method, and series 3 is a graph showing the result of the detection means of the present invention. FIG. 9 (c) shows that the result of the detecting means of the present invention is closer to the true value than the conventional method, indicating the effectiveness of the detecting means of the present invention.

本発明では、訓練者の移動状態、移動環境、移動に使用する移動支持器具の状態を認識して、移動を誘導する移動訓練支援装置を実現した。本発明は、走行体と装着ユニットを介して訓練指導者の運動指示が訓練者に伝達され、運動認知を繰り返し強化するため、訓練者は自己の運動を理解しながら能動的に移動訓練を行うことができる。本発明は、既存の移動支持器具と併用して使用することができるため、様々な症状をもつ利用者を想定でき、本装置の事業化や製品化は有望である。当該の移動訓練の支援の他にも、認知症患者の歩行の付き添いや、移動に限らない全身運動の認知支援にも応用可能である。さらに本発明は、移動式の映像音響認識生成装置としてアミューズメントゲームへの応用や、生産現場における組立作業の訓練などへの転用も見込まれるため、産業上の利用可能性は高いと考えられる。   In the present invention, a movement training support device that guides the movement by recognizing the movement state of the trainee, the movement environment, and the state of the movement support device used for the movement is realized. According to the present invention, the exercise instruction of the training instructor is transmitted to the trainee via the running body and the mounting unit, and the trainer repeatedly exercises the movement recognition while understanding his / her own movement because the exercise recognition is repeatedly enhanced. be able to. Since the present invention can be used in combination with an existing mobile support device, users with various symptoms can be assumed, and commercialization and commercialization of this device are promising. In addition to the support of the movement training, the present invention can also be applied to attending walking of a dementia patient and cognitive support of a whole body movement not limited to movement. Further, since the present invention is expected to be applied to an amusement game as a mobile audiovisual recognition generation device and to be used for training of assembly work at a production site, the present invention is considered to have high industrial applicability.

100 走行体(本体)
101 投影面
102 視野領域
103 投影領域
104 訓練者
105 訓練指導者
106 移動支持器具
111 赤外線センサ
112 光学カメラ
113 レーザセンサ (前方)
114 レーザセンサ (後方)
115 マイクロフォン(右)
116 マイクロフォン(左)
117 接触センサ
118 姿勢センサ
121 プロジェクタ
122 スピーカ
123 モータユニット (右前輪用)
124 モータユニット(左前輪用)
125 駆動輪 (左前輪)
126 駆動輪 (右前輪)
127 受動輪 (後輪)
131 電源部
132 通信部
133 計算部(処理手段)
134 制御部(制御手段)
135 検知部(検知手段)
136 提示部(提示手段)
200 装着ユニット
201 運動計測部(加速度・角速度・地磁気センサ)
202 刺激提示部(振動モータ・電気刺激器)
300 環境システム
301 外部計算装置
302 移動訓練支援装置
401 全体の処理
402 状態の検知(検知手段)
403 状態認識と行動計画(処理手段)
404 駆動制御(制御手段)
405 映像音響提示(提示手段)
410 検知手段の詳細
411 深度画像計測に基づく移動状態の検知
412 加速度計測に基づく移動状態の検知
413 移動支持器具の移動状態の検知と深度画像補正
420 パワーアシスト操作での教示時の認識・計画
421 訓練者の追従での教示時の認識・計画
422 訓練者の誘導時の認識・計画
423 駆動制御の詳細
424 映像音響提示の詳細
501 深度画像
502 骨格モデル
503 骨格モデルの特徴点
504 光学マーカ
505 抽出領域
600 移動経路の教示と誘導
601 移動経路の教示
602 移動経路の誘導
611 壁面
612 周辺の人物
613 経由点
614 教示経路
615 障害物
616 実行経路
701 足の移動目標位置を表す映像パターン
702 器具の移動目標位置を表す映像パターン
703 足の着地タイミングを表す音響パターン
704 器具の着地タイミングを表す音響パターン
705 足の着地タイミングを表す刺激パターン
706 器具の着地タイミングを表す刺激パターン
801 映像投影領域
802 コミュニケーション画面
803 移動方向を表す映像パターン
804 移動状態を表す映像パターン
805 動環境の地図
806 訓練者の現在の足位置
807 移動目標の基準線

100 Running body (body)
101 Projection plane 102 Field of view
103 Projection area
104 Trainer 105 Training instructor 106 Moving support device 111 Infrared sensor
112 Optical Camera
113 Laser sensor (front)
114 Laser sensor (rear)
115 microphone (right)
116 microphone (left)
117 Contact Sensor
118 Attitude sensor 121 Projector
122 speaker
123 Motor unit (for right front wheel)
124 motor unit (for front left wheel)
125 drive wheel (front left wheel)
126 drive wheel (front right wheel)
127 passive wheel (rear wheel)
131 Power supply
132 communication unit 133 calculation unit (processing means)
134 control unit (control means)
135 detection unit (detection means)
136 Presentation unit (presentation means)
200 mounting unit
201 Motion measurement unit (acceleration, angular velocity, geomagnetic sensor)
202 Stimulation presentation unit (vibration motor / electric stimulator)
300 Environment system 301 External computing device 302 Mobile training support device 401 Overall processing 402 State detection (detection means)
403 State recognition and action plan (processing means)
404 Drive control (control means)
405 Audiovisual presentation (presentation means)
410 Details of Detecting Means 411 Detecting Moving State Based on Depth Image Measurement 412 Detecting Moving State Based on Acceleration Measurement 413 Detecting Moving State of Moving Supporting Device and Depth Image Correction 420 Recognition / Planning 421 during Teaching in Power Assist Operation Recognition / planning at the time of instruction by trainee 422 Recognition / planning at the time of guidance of trainee 423 Details of drive control 424 Details of video / audio presentation 501 Depth image 502 Skeletal model 503 Feature points of skeletal model 504 Extraction of optical markers 505 Area 600 Teaching and guidance of moving route 601 Teaching of moving route 602 Guiding of moving route 611 Person 613 near wall 612 Via point 614 Teach route 615 Obstacle 616 Execution route 701 Image pattern 702 showing target movement position of foot Moving device Image pattern 703 indicating target position Indicates landing timing of foot Sound pattern 704 Sound pattern 705 representing the landing timing of the equipment Stimulation pattern 706 representing the landing timing of the foot Stimulation pattern 801 representing the landing timing of the equipment Video projection area 802 Communication screen 803 Video pattern 804 representing the moving direction Video pattern representing the moving state 805 Map of moving environment 806 Current foot position of trainee 807 Reference line of moving target

Claims (19)

歩行または走行の訓練を行う訓練者の全身の深度画像を任意の取得位置から取得する深度画像取得手段と、
前記深度画像に基づいて前記訓練者の複数の身体部位における前記取得位置からの距離を算出して該身体部位の三次元位置を取得する三次元位置取得手段と、
前記身体部位の三次元位置の変化に基づいて前記訓練者の運動学的な全身運動を計測するとともに、該計測結果に基づいて、前記訓練者の歩行または走行を誘導するために必要な身体部位の誘導位置を計算する処理手段と、
前記処理手段により計算された前記身体部位の誘導位置を視覚的に提供する映像提示手段と
前記訓練者を先導して床面上を自走する走行体であって、前記訓練者が使用する歩行支持器具と物理的に独立して機能する走行体と、を備え、
前記映像提示手段は、前記走行体に搭載されている、
ことを特徴とする移動訓練支援装置。
Depth image acquisition means for acquiring a depth image of the whole body of a trainee who performs walking or running training from an arbitrary acquisition position,
A three-dimensional position acquisition unit that calculates a distance from the acquisition position in the plurality of body parts of the trainee based on the depth image and acquires a three-dimensional position of the body part,
Measuring the kinematic whole body movement of the trainee based on the change in the three-dimensional position of the body part, and based on the result of the measurement , the body required to guide the trainee to walk or run. Processing means for calculating the guidance position of the part,
Image presentation means for visually providing the guidance position of the body part calculated by the processing means ,
A traveling body that guides the trainee and runs on the floor by itself, and a traveling body that functions physically independently of a walking support device used by the trainee,
The image presentation means is mounted on the traveling body,
A mobile training support device, characterized in that:
さらに、前記訓練者の身体部位に装着される加速度センサを備え、前記処理手段は、前記加速度センサの情報に基づいて、前記訓練者の身体部位における該訓練者の運動学的な全身運動を計測するとともに、前記三次元位置とともに前記身体部位の誘導位置を計算するものである請求項1に記載の移動訓練支援装置。   The apparatus further includes an acceleration sensor attached to a body part of the trainee, wherein the processing unit measures a kinematic whole body movement of the trainee in the body part of the trainee based on information of the acceleration sensor. The mobile training support device according to claim 1, wherein the guidance position of the body part is calculated together with the three-dimensional position. さらに、前記訓練者の身体部位に装着される角速度センサおよび地磁気センサを備え、前記処理手段は、前記加速度センサの情報に加えて前記角速度センサおよび前記地磁気センサの情報に基づいて、前記訓練者の全身的移動量、前記身体部位の移動距離および歩幅を算出するものである請求項に記載の移動訓練支援装置。 Further, an angular velocity sensor and a geomagnetic sensor to be attached to a body part of the trainee are provided, and the processing unit is configured to detect the trainee's information based on the information of the angular velocity sensor and the geomagnetic sensor in addition to the information of the acceleration sensor. 3. The mobile training support apparatus according to claim 2 , wherein the mobile training support apparatus calculates a whole body moving amount, a moving distance of the body part , and a stride. 前記深度画像取得手段、前記三次元位置取得手段、および前記処理手段は前記走行体に搭載されるものであり、
前記走行体は、さらに、駆動輪によって構成される駆動部と、この駆動部の駆動状態を制御する制御手段と、周辺環境を検知する検知手段とを備え、前記制御手段は、前記検知手段によって検知される前記訓練者との距離情報に基づき、該訓練者との適宜間隔が維持されるように駆動部を制御するものである請求項1ないし3のいずれかに記載の移動訓練支援装置。
The depth image acquisition unit, the three-dimensional position acquisition unit, and the processing hand stage is intended to be mounted on the traveling body,
The traveling body further includes a driving unit configured by driving wheels, a control unit that controls a driving state of the driving unit, and a detection unit that detects a surrounding environment. The mobile training support device according to any one of claims 1 to 3, wherein the driving unit is controlled based on the detected distance information to the trainee so as to maintain an appropriate distance from the trainee.
記深度画像取得手段、前記三次元位置取得手段および前記処理手段は、前記走行体とは独立して訓練施設内に固定的に設置されるものであり、
前記走行体は、さらに、駆動輪によって構成される駆動部と、この駆動部の駆動状態を制御する制御手段と、周辺環境を検知する検知手段と、該走行体に搭載される各手段における情報を処理するための第2の処理手段と、前記処理手段と前記第2の処理手段との間で各種の情報を送受信するための伝送手段とを備え、前記制御手段は、前記検知手段によって検知される前記訓練者との距離情報に基づき、適宜間隔が維持されるように駆動部を制御するものであり、前記処理手段は、前記第2の処理手段の情報および前記訓練者の身体部位に装着された各種センサの情報を処理するものである請求項2または3に記載の移動訓練支援装置。
Before Symbol depth image obtaining means, the three-dimensional position acquiring means and the processing means, wherein the traveling body is intended to be fixedly installed in the training site independently,
The traveling body further includes a driving unit including driving wheels, a control unit that controls a driving state of the driving unit, a detection unit that detects a surrounding environment, and information on each unit mounted on the traveling body. And a transmission unit for transmitting and receiving various kinds of information between the processing unit and the second processing unit, wherein the control unit detects the detection by the detection unit. Based on the information on the distance to the trainee, the driving unit is controlled so that the interval is appropriately maintained, and the processing unit stores the information of the second processing unit and the body part of the trainee. The mobile training support device according to claim 2 or 3, which processes information of various mounted sensors.
前記走行体は、環境地図情報を格納する記憶手段を備え、前記制御手段は、前記環境地図情報に基づいて、前記訓練者を先導しつつ追従走行するように駆動部を制御するものであり、前記処理手段は、前記訓練者の前記環境地図情報中の位置を計算するものであり、前記映像提示手段は、前記計算結果を映像として提示するものである請求項4または5に記載の移動訓練支援装置。 The running body includes a storage unit that stores environmental map information, and the control unit controls a driving unit based on the environmental map information so that the trainee follows and runs while leading the trainee. 6. The movement according to claim 4, wherein the processing means calculates a position of the trainee in the environmental map information, and the video presenting means presents a result of the calculation as a video. Training support device. 前記処理手段によって計算される前記環境地図情報中の前記訓練者の位置は、該訓練者の特定部位の個別の位置情報の集合体であり、前記特定部位の個別の位置情報は、前記環境地図情報と、該環境地図情報中の前記走行体の位置情報と、該走行体から該特定部位までの相対的な位置関係とに基づいて算出されるものである請求項6に記載の移動訓練支援装置。 The position of the trainee in the environmental map information calculated by said processing means, a collection of discrete positional information of the specific portion of the trainee, the individual position information of the specific portion, the environmental map The mobile training support according to claim 6, wherein the mobile training support is calculated based on the information, position information of the traveling body in the environmental map information, and a relative positional relationship from the traveling body to the specific part. apparatus. 前記走行体前記記憶手段は、前記訓練者を誘導する経路を表す経路情報を記憶するものであり、該経路情報は、人為的に作成された計画経路情報、または、前記走行体を予め移動させた経路を表す経路情報であって、前記環境地図情報中の位置情報に基づいて前記処理手段によって作成された経路情報である請求項6または7に記載の移動訓練支援装置。 It said storage means of said running body is for storing the route information indicating a route for guiding the trainee moves the route information, artificially created planned route information, or the running body in advance 8. The mobile training support device according to claim 6 , wherein the route information is a route information representing the route performed , and is route information created by the processing unit based on the position information in the environmental map information. 前記深度画像取得手段は、さらに、前記歩行支持器具の深度画像を取得するものであり、前記三次元位置取得手段は、前記歩行支持器具の三次元位置を取得するものであり、前記処理手段は、前記三次元位置の変化に基づいて前記歩行支持器具に対する特徴点について距離情報を算出するものであり、前記映像提示手段は、前記身体部位の誘導位置とともに前記歩行支持器具を移動させるべき誘導位置を視覚的に提示するものである請求項1ないし8のいずれかに記載の移動訓練支援装置。 The depth image acquisition unit further is intended to obtain the depth image before Kifu line support device, the three-dimensional position acquiring means is adapted to acquire the three-dimensional position of the walking support device, said processing The means is for calculating distance information on a characteristic point for the walking support device based on the change in the three-dimensional position, and the image presentation means should move the walking support device together with the guidance position of the body part. The mobile training support device according to any one of claims 1 to 8, wherein the guidance position is visually presented. 前記深度画像取得手段は、さらに、訓練指導者の全身の深度画像を取得するものであり、前記三次元位置取得手段は、前記訓練指導者の複数の身体部位における取得位置からの距離を算出して該身体部位の三次元位置を取得するものである請求項1ないし9のいずれかに記載の移動訓練支援装置。 The depth image acquisition unit further acquires a depth image of the whole body of the training instructor, and the three-dimensional position acquiring unit calculates a distance from the acquisition position in a plurality of body parts of the training instructor. The mobile training support apparatus according to any one of claims 1 to 9 , wherein the three-dimensional position of the body part is obtained by using the method. さらに、前記身体部位の三次元位置に基づき、前記訓練者の足運動および/または身体バランスを評価する評価手段を備える請求項10に記載の移動訓練支援装置。   The mobile training support device according to claim 10, further comprising an evaluation unit configured to evaluate a foot exercise and / or a body balance of the trainee based on a three-dimensional position of the body part. 前記処理手段は、前記訓練指導者における前記三次元位置を教師データとして前記訓練者の歩行または走行を誘導するために必要な身体部位の誘導位置を計算するものである請求項10または11に記載の移動訓練支援装置。 The processing means, wherein said three-dimensional position in the trainer to claim 10 or 11 is to compute the inductive position of the body parts required to induce the walking or running of the trainee as teacher data Mobile training support equipment. 前記処理手段によって計算される誘導位置は、前記訓練者の歩行時または走行時における理想的な身体部位の移動状態と、該訓練者の現実の歩行時または走行時における身体部位の移動状態との中間的な位置であり、理想的な身体部位の移動と現実の身体部位の移動との相違の程度に応じて1または複数の誘導位置が計算されるものである請求項12に記載の移動訓練支援装置。   The guidance position calculated by the processing means is the movement state of the ideal body part at the time of walking or running of the trainee, and the moving state of the body part at the time of actual walking or running of the trainee. The movement training according to claim 12, which is an intermediate position, wherein one or a plurality of guidance positions are calculated according to a degree of a difference between an ideal body part movement and a real body part movement. Support equipment. 前記映像提示手段は、前記誘導位置とともに、または該誘導位置とは別に、前記訓練者の現実の歩行時または走行時における身体部位の移動状態を映像として提示するものである請求項13に記載の移動訓練支援装置。   14. The image presentation means according to claim 13, wherein the image presentation means presents, as an image, the movement state of the body part during the actual walking or running of the trainee, together with the guidance position or separately from the guidance position. Mobile training support device. さらに、前記訓練者に対し聴覚的な刺激を提示する音響提示手段を備えており、前記処理手段は、前記訓練者に対する誘導位置を提供する時間的タイミングに応じて提示すべき音響情報を作成するものであり、前記音響提示手段は、前記訓練者によって選択される音声または音響を前記映像提示手段による映像提示に代えて、または映像提示とともに提示するものである請求項1ないし14のいずれかに記載の移動訓練支援装置。   Further, the apparatus further includes sound presenting means for presenting an auditory stimulus to the trainee, and the processing means creates sound information to be presented in accordance with a temporal timing for providing a guidance position to the trainee. 15. The sound presenting means according to claim 1, wherein the sound presenting means presents voice or sound selected by the trainee instead of or together with the video presenting by the video presenting means. The mobile training support device according to the above. さらに、前記訓練者の足に装着される加速度センサを備え、前記処理手段は、前記加速度センサの情報に基づいて、前記訓練者の足が着地したと判断されたとき、前記音響提示手段に対して作動させる信号を出力するものであり、該音響提示手段の作動により訓練者が着地状態であることを認識させるものである請求項15に記載の移動訓練支援装置。   Further, an acceleration sensor attached to the trainee's foot is provided, and the processing unit is configured to, based on information of the acceleration sensor, determine that the trainee's foot has landed, 16. The mobile training support device according to claim 15, wherein the device outputs a signal for causing the trainee to recognize that the trainee is in a landing state by operating the sound presenting means. さらに、前記訓練者の身体の一部に装着されて触力覚的に刺激を与える刺激提示手段を備え、前記処理手段は、前記加速度センサによる足の状態から着地を確認したとき、前記刺激提示手段を作動させる信号を出力するものである請求項16に記載の移動訓練支援装置。   Further, there is provided stimulus presenting means which is attached to a part of the trainee's body to provide a haptic stimulus, and wherein the processing means displays the stimulus when the landing is confirmed from the foot state by the acceleration sensor. 17. The mobile training support device according to claim 16, which outputs a signal for operating the means. 前記刺激提示手段は、前記訓練者の複数の身体部位に装着されて振動による触力覚刺激を提示するものであり、前記処理手段は、前記訓練者の身体部位のうち誘導させるべき前記身体部位を振動により触力覚刺激を提示するように作動させるための信号を出力するものである請求項17に記載の移動訓練支援装置。   The stimulus presenting means is attached to a plurality of body parts of the trainee and presents a haptic stimulus by vibration, and the processing means is the body part to be induced among the body parts of the trainee. 18. The mobile training support device according to claim 17, wherein the device outputs a signal for operating the device to present a tactile stimulus by vibration. さらに、前記訓練者の歩行または走行の状態を撮影するための光学カメラを備え、前記映像提示手段は、前記誘導位置に代えて、または該誘導位置とともに、該光学カメラで撮影された静止画または動画を提示するものである請求項1ないし18のいずれかに記載の移動訓練支援装置。   Furthermore, an optical camera for photographing the state of walking or running of the trainee is provided, and the image presenting means replaces the guide position or together with the guide position, a still image taken by the optical camera or The mobile training support device according to any one of claims 1 to 18, which presents a moving image.
JP2015197255A 2014-10-03 2015-10-03 Mobile training support device Active JP6645658B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014205286 2014-10-03
JP2014205286 2014-10-03

Publications (2)

Publication Number Publication Date
JP2016073630A JP2016073630A (en) 2016-05-12
JP6645658B2 true JP6645658B2 (en) 2020-02-14

Family

ID=55949380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197255A Active JP6645658B2 (en) 2014-10-03 2015-10-03 Mobile training support device

Country Status (1)

Country Link
JP (1) JP6645658B2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10383552B2 (en) * 2016-04-26 2019-08-20 Toyota Jidosha Kabushiki Kaisha Gait analysis medical assistance robot
JP6430441B2 (en) * 2016-06-08 2018-11-28 パラマウントベッド株式会社 Rehabilitation support system and computer program
JP6623122B2 (en) * 2016-06-08 2019-12-18 パラマウントベッド株式会社 Rehabilitation support control device and computer program
JP6647659B2 (en) * 2016-07-20 2020-02-14 株式会社カムイ電子 Rehabilitation system
JP6747925B2 (en) * 2016-09-29 2020-08-26 パラマウントベッド株式会社 Rehabilitation support device
KR102597216B1 (en) * 2016-10-10 2023-11-03 엘지전자 주식회사 Guidance robot for airport and method thereof
KR102639602B1 (en) * 2016-11-30 2024-02-22 주식회사 레인보우로보틱스 Service robot
JP6815891B2 (en) * 2017-02-23 2021-01-20 パナソニック株式会社 Walking support robot and walking support system
JP6827348B2 (en) 2017-03-22 2021-02-10 本田技研工業株式会社 Walking support system, walking support method, and program
JP6441417B2 (en) * 2017-07-04 2018-12-19 パラマウントベッド株式会社 Rehabilitation support system and computer program
US11161236B2 (en) 2017-09-14 2021-11-02 Sony Interactive Entertainment Inc. Robot as personal trainer
KR101982410B1 (en) * 2017-11-14 2019-05-24 이화여자대학교 산학협력단 Patient-Customized Rehabilitation Training Device and Method thereof
KR102004519B1 (en) * 2017-12-18 2019-10-17 문양규 Correcting device for scoliosis
JP6481878B1 (en) * 2018-05-25 2019-03-13 中川 和子 Walking posture correction tool
EP3660617A4 (en) * 2018-08-14 2021-04-14 Chiba Institute of Technology Mobile robot
CN109223441A (en) * 2018-09-13 2019-01-18 华南理工大学 A kind of human upper limb rehabilitation training and movement auxiliary system based on Kinect sensor
JP7283217B2 (en) * 2019-05-10 2023-05-30 株式会社ジェイテクト Stride calculation system
JP7306128B2 (en) * 2019-07-19 2023-07-11 株式会社ジェイテクト walking support device
JP6968458B2 (en) * 2019-08-08 2021-11-17 株式会社元気広場 Function improvement support system and function improvement support device
JP2021074066A (en) * 2019-11-06 2021-05-20 花王株式会社 Walking guidance system
JP2022039433A (en) * 2020-08-28 2022-03-10 トヨタ自動車株式会社 Walking aid system, walking aid method and walking aid program
WO2022086161A1 (en) * 2020-10-20 2022-04-28 삼성전자주식회사 Robot and control method therefor
KR102448916B1 (en) * 2021-12-23 2022-09-30 한국광기술원 Gait linkage active rehabilitation assistance device and method for controlling the same
KR102450198B1 (en) * 2021-12-23 2022-10-04 한국광기술원 Play based stationary active rehabilitation assistance device and method for controlling the same

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11221259A (en) * 1998-02-09 1999-08-17 Mitsubishi Electric Corp Guide apparatus for blind person
JP2002306628A (en) * 2001-04-17 2002-10-22 Hitachi Ltd Walking function testing apparatus
JP2002345994A (en) * 2001-05-30 2002-12-03 Hitachi Ltd Treadmill
JP2006020780A (en) * 2004-07-07 2006-01-26 Nec Tokin Corp Limb training device
US20060292533A1 (en) * 2005-06-22 2006-12-28 Selod Omar F System and method for gait training
JP2010246676A (en) * 2009-04-14 2010-11-04 Nec Corp Exercise support system, exercise support method and program
JP5633779B2 (en) * 2010-04-30 2014-12-03 国立大学法人九州工業大学 Self-supporting walking support device
JP2012115312A (en) * 2010-11-29 2012-06-21 Equos Research Co Ltd Walking support device, and walking support program
JP2012205700A (en) * 2011-03-29 2012-10-25 Equos Research Co Ltd Walking guide system and walking guide method
WO2014104360A1 (en) * 2012-12-28 2014-07-03 株式会社東芝 Motion information processing device and method

Also Published As

Publication number Publication date
JP2016073630A (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6645658B2 (en) Mobile training support device
US11301045B1 (en) Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device
US9526946B1 (en) Enhanced system and method for vibrotactile guided therapy
US9149222B1 (en) Enhanced system and method for assessment of disequilibrium, balance and motion disorders
US11311209B1 (en) Force measurement system and a motion base used therein
JP2007520310A (en) Walking rehabilitation method and instrument
Lee et al. A wearable device for real-time motion error detection and vibrotactile instructional cuing
US20140184384A1 (en) Wearable navigation assistance for the vision-impaired
CN108986884A (en) The training system and method that a kind of balanced rehabilitation and cognitive rehabilitation blend
US20080004550A1 (en) Methods and Apparatus for Rehabilitation and Training
US11540744B1 (en) Force measurement system
US20100280418A1 (en) Method and system for evaluating a movement of a patient
Feng et al. Teaching training method of a lower limb rehabilitation robot
CN104902862A (en) Walking assistance device and walking assistance mehtod
Bao et al. Vision-based autonomous walking in a lower-limb powered exoskeleton
Kubo et al. Gait rehabilitation device in central nervous system disease: a review
CN110292748A (en) Both lateral coordination training system and control method
CN111863198A (en) Rehabilitation robot interaction system and method based on virtual reality
Xu et al. Stair-ascent strategies and performance evaluation for a lower limb exoskeleton
Jäschke et al. Making gait training mobile-a feasibility analysis
JP2005013442A (en) Walking exercise equipment and control method of walking exercise equipment
Lapresa et al. A smart solution for proprioceptive rehabilitation through M-IMU sensors
CN117148977A (en) Sports rehabilitation training method based on virtual reality
GB2400686A (en) Motion logging and robotic control and display system
Dune et al. Can smart rollators be used for gait monitoring and fall prevention?

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191227

R150 Certificate of patent or registration of utility model

Ref document number: 6645658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250