JP2012115314A - Walking support device and walking support program - Google Patents

Walking support device and walking support program Download PDF

Info

Publication number
JP2012115314A
JP2012115314A JP2010265193A JP2010265193A JP2012115314A JP 2012115314 A JP2012115314 A JP 2012115314A JP 2010265193 A JP2010265193 A JP 2010265193A JP 2010265193 A JP2010265193 A JP 2010265193A JP 2012115314 A JP2012115314 A JP 2012115314A
Authority
JP
Japan
Prior art keywords
walking
area
walking support
current position
intervention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265193A
Other languages
Japanese (ja)
Inventor
Atsushi Sato
敦 佐藤
Koji Inoue
浩司 井上
Kazuaki Fujii
一彰 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2010265193A priority Critical patent/JP2012115314A/en
Publication of JP2012115314A publication Critical patent/JP2012115314A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly assist a user for walking, regardless of the intention of a user.SOLUTION: The user wears a wearable robot 1 and walks on the platform 70 of a station. The wearable robot 1 supports walking of the user. A danger zone 80 is set in a region closer to an end part from a broken line on the platform 70. Lighting units 100, 100, ... are arranged above the danger zone 80, and illumination light to be emitted by the lighting units 100 includes danger zone information indicating the danger zone. The wearable robot 1 receives the danger zone information to recognize that the user is in the danger zone 80, and checks a forward state by image recognition. When a level difference at the end part of the platform is detected by the image recognition, the wearable robot 1 prevents the user from moving forward.

Description

本発明は、歩行支援装置、及び歩行支援プログラムに関し、例えば、装着者の歩行運動をアシストするものに関する。   The present invention relates to a walking support device and a walking support program, for example, to assisting a wearer's walking motion.

近年、装着者の動作をアシストする装着型ロボットが注目を集めている。
装着型ロボットには、センサなどで体の動きを検知して装着者の身体動作を支援するものであり、例えば、重量物の持ち上げや歩行運動を補助することができる。
例えば、特許文献1の「装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム」は、筋電センサにより装着者の動作意図を読み取って、装着者の運動を支援している。
In recent years, wearable robots that assist the wearer's movement have attracted attention.
The wearable robot detects a body movement with a sensor or the like and assists the wearer's body movement. For example, the wearable robot can assist lifting of heavy objects and walking movement.
For example, “Wearing-type movement assistance device, method for controlling wearing-type movement assistance device and control program” of Patent Document 1 supports the movement of the wearer by reading the intention of movement of the wearer using an electromyographic sensor. .

しかし、これまでに発表された装着型ロボットは、歩行に関しては、転倒しない、装着しやすい、機器の暴走により怪我をしない、といった安全面の工夫がされているものが主である。
これらの場合、装着型ロボットは、装着者の意図に従った動作支援を行うことが前提となっており、装着者が誤った動作をしようとする場合に、このような動作を適切に支援するものではなかった。
例えば、高齢者が装着する場合、判断力や反射神経、視力などの五感の衰えから、駅ホームの端部などの危険領域に侵入することも考えられ、このような場合に、装着者の歩行支援を適切に行う必要がある。
However, the wearable robots that have been announced so far are mainly those that have been devised in terms of safety, such as not toppling over, easy to wear, and not to be injured by equipment runaway.
In these cases, the wearable robot is premised on performing operation support in accordance with the intention of the wearer, and appropriately supports such operation when the wearer tries to perform an incorrect operation. It was not a thing.
For example, when an elderly person wears it, it is possible to enter a dangerous area such as the end of a station platform due to a decline in five senses such as judgment, reflexes, and vision. It is necessary to provide support appropriately.

また、実施の形態で使用する通信技術に関しては、特許文献2の「通信機能を有する照明器具」がある。
この技術は、電力線によって照明体に信号を送信し、照明体から無線や光の変調により信号を送出するものである。
Moreover, regarding the communication technology used in the embodiment, there is “Lighting fixture having communication function” in Patent Document 2.
In this technique, a signal is transmitted to an illuminating body through a power line, and the signal is transmitted from the illuminating body by radio or light modulation.

特開2005−95561号公報JP 2005-95561 A 特開2009−141766号公報JP 2009-141766 A

本発明は、装着者の意図にかかわらず、適切な歩行支援を行うことを目的とする。   An object of the present invention is to provide appropriate walking support regardless of the intention of the wearer.

請求項1に記載の発明では、歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援手段と、現在位置が立入制限領域であるか否かを判断する領域判断手段と、前記領域判断手段で現在位置が立入制限領域であると判断された場合に、前記歩行支援手段の制御に介入するか否かを判断する介入判断手段と、前記介入判断手段に従って前記歩行支援手段の制御に介入する介入手段と、を具備したことを特徴とする歩行支援装置を提供する。
請求項2に記載の発明では、現在位置が立入制限領域であるか否かを通知する立入制限領域情報を受信する受信手段を具備し、前記領域判断手段は、前記受信した立入制限領域情報を用いて現在位置が立入制限領域であるか否かを判断することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項3に記載の発明では、前記介入手段は、前記歩行支援手段による前進を停止させることを特徴とする請求項1、又は請求項2に記載の歩行支援装置を提供する。
請求項4に記載の発明では、前記介入手段は、前記歩行支援手段に前記立入制限領域外に強制的に誘導するように支援させることを特徴とする請求項1、又は請求項2に記載の歩行支援装置を提供する。
請求項5に記載の発明では、歩行経路を記憶する記憶手段を具備し、前記介入手段は、前記記憶した歩行経路に沿って前記立入制限領域外に歩行させることを特徴とする請求項4に記載の歩行支援装置を提供する。
請求項6に記載の発明では、前記立入制限領域における歩行面の状態から前記立入制限領域が立入禁止領域であるか否かを検出する検出手段を具備し、前記介入判断手段は、前記立入制限領域が立入禁止領域であると検出された場合に介入すると判断することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載の歩行支援装置を提供する。
請求項7に記載の発明では、前記検出手段は、前記歩行面を撮像した画像データによって立入禁止領域であるか否かを検出することを特徴とする請求項6に記載の歩行支援装置を提供する。
請求項8に記載の発明では、前記検出手段は、現在位置が立入禁止領域であることを通知する立入禁止領域情報を受信することにより立入禁止領域であることを検出することを特徴とする請求項6に記載の歩行支援装置を提供する。
請求項9に記載の発明では、前記領域判断手段で現在位置が立入制限領域内であると判断した場合に、歩行支援対象者に警告する警告手段を具備したことを特徴とする請求項1から請求項6までのうちの何れか1の請求項に記載の歩行支援装置を提供する。
請求項10に記載の発明では、歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援機能と、現在位置が立入制限領域であるか否かを判断する領域判断機能と、前記領域判断機能で現在位置が立入制限領域であると判断された場合に、前記歩行支援機能の制御に介入するか否かを判断する介入判断機能と、前記介入判断機能に従って前記歩行支援機能の制御に介入する介入機能と、をコンピュータで実現する歩行支援プログラムを提供する。
In the first aspect of the present invention, walking support means for supporting walking by applying a force to the foot of the walking support target person, area determination means for determining whether or not the current position is an access restriction area, An intervention determination means for determining whether or not to intervene in the control of the walking support means when the current position is determined to be an access restriction area by the area determination means; and the walking support means according to the intervention determination means. There is provided a walking support device characterized by comprising intervention means for intervening in control.
In the invention according to claim 2, there is provided reception means for receiving access restriction area information for notifying whether or not the current position is an access restriction area, and the area determination means includes the received entry restriction area information. The walking support device according to claim 1, wherein the walking support device is used to determine whether or not the current position is a restricted access area.
According to a third aspect of the present invention, there is provided the walking support apparatus according to the first or second aspect, wherein the intervention means stops the advance by the walking support means.
The invention according to claim 4 is characterized in that the intervention means causes the walking support means to assist the guidance to be guided outside the access restriction area. A walking support device is provided.
According to a fifth aspect of the present invention, there is provided storage means for storing a walking route, and the intervention means is allowed to walk outside the access restriction area along the stored walking route. Provided is a walking support device.
According to a sixth aspect of the invention, there is provided detection means for detecting whether or not the restricted entry area is a restricted entry area from the state of the walking surface in the restricted entry area, wherein the intervention determining means includes the restricted entry area. The walking support device according to any one of claims 1 to 5, wherein it is determined to intervene when it is detected that the region is a restricted entry region.
According to a seventh aspect of the present invention, there is provided the walking support apparatus according to the sixth aspect, wherein the detecting means detects whether or not it is a restricted entry area based on image data obtained by imaging the walking surface. To do.
The invention according to claim 8 is characterized in that the detecting means detects a restricted area by receiving restricted entry area information notifying that the current position is a restricted entry area. A walking support device according to Item 6, is provided.
The invention according to claim 9 further comprises warning means for warning the walking support target when the area determination means determines that the current position is within the access restriction area. A walking support device according to any one of claims up to claim 6 is provided.
In the invention of claim 10, a walking support function for supporting walking by applying a force to the foot of the walking support target person, an area determination function for determining whether or not the current position is an access restriction area, When the current position is determined to be an access restriction area by the area determination function, an intervention determination function for determining whether to intervene in the control of the walking support function, and the walking support function according to the intervention determination function Provided is a walking support program that realizes an intervention function to intervene in control and a computer.

本発明は、歩行支援制御に介入することにより、装着者の意図にかかわらず、適切な歩行支援を行うことができる。   The present invention can perform appropriate walking support regardless of the wearer's intention by intervening in walking support control.

本実施の形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of this Embodiment. 装着型ロボットの装着状態や装着ロボットシステムを説明するための図である。It is a figure for demonstrating the mounting state of a mounting | wearing type robot, and a mounting robot system. 撮像ユニットで段差を検出する方法などを説明するための図である。It is a figure for demonstrating the method etc. which detect a level | step difference with an imaging unit. 装着型ロボットが危険領域で歩行支援制御に強制介入する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure in which a wearable robot forcibly intervenes in walking support control in a dangerous area. 装着型ロボットが危険領域で歩行支援制御に強制介入する手順の変形例を説明するためのフローチャートである。It is a flowchart for demonstrating the modification of the procedure in which a wearable robot forcibly intervenes in walking support control in a dangerous area.

(1)実施形態の概要
図1は、本実施の形態の概要を説明するための図である。
装着者は、装着型ロボット1を装着して駅のホーム70の上を歩行し、装着型ロボット1は、装着者の歩行を支援している。
ホーム70の破線から端部よりの領域には、危険領域80が設定されている。
危険領域80の上部には、照明100、100、…が設置されており、照明100の発する照明光には、危険領域を示す危険領域情報が含まれている。
(1) Outline of Embodiment FIG. 1 is a diagram for explaining the outline of the present embodiment.
The wearer wears the wearable robot 1 and walks on the platform 70 of the station, and the wearable robot 1 supports the wearer's walk.
A dangerous area 80 is set in an area from the broken line to the end of the home 70.
.. Are installed above the dangerous area 80, and the illumination light emitted from the illumination 100 includes dangerous area information indicating the dangerous area.

装着型ロボット1は、危険領域情報を受信することにより、現在位置が危険領域80であることを認識し、画像認識によって前方の状態を確認する。
画像認識によって、ホームの端部の段差が検出された場合、装着型ロボット1は、装着者の前進を阻止する。
The wearable robot 1 recognizes that the current position is the dangerous area 80 by receiving the dangerous area information, and confirms the front state by image recognition.
When a step at the end of the home is detected by image recognition, the wearable robot 1 prevents the wearer from moving forward.

更に、危険領域80に侵入した経路を逆に辿るなどして危険領域80の外部に移動するように歩行支援することも可能である。
このように、装着型ロボット1は、装着者の判断力の衰えなどで装着者が不適切な方向に歩行しようとした場合、歩行支援制御に強制的に介入して適切な歩行支援を行うことができる。
Furthermore, it is also possible to assist walking so that the user moves to the outside of the dangerous area 80 by, for example, following a route that has entered the dangerous area 80 in reverse.
As described above, when the wearer tries to walk in an inappropriate direction due to a decline in the judgment power of the wearer, the wearable robot 1 forcibly intervenes in the walking support control and performs appropriate walking support. Can do.

(2)実施形態の詳細
図2(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、装着者の腰部及び下肢に装着し、装着者の歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
(2) Details of Embodiment FIG. 2A is a diagram showing a mounting state of the mounting robot 1.
The wearable robot 1 is worn on the waist and lower limbs of the wearer to assist (assist) the wearer's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.

装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、撮像カメラ5と光源装置4を保持する撮像ユニット9、無線通信装置10、ナビゲーション装置12などを備えている。
腰部装着部7は、装着型ロボット1を装着者の腰部に固定する固定装置である。腰部装着部7は、装着者の腰部と一体となって移動する。
また、腰部装着部7は、歩行アクチュエータ17(図2(b))を備えており、装着者の歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a waist attachment unit 7, a walking assist unit 2, a connection unit 8, a 3-axis sensor 3, a 3-axis actuator 6, an imaging camera 5, a light source device 4, an imaging unit that holds the imaging camera 5 and the light source device 4. 9, a wireless communication device 10, a navigation device 12 and the like.
The waist mounting portion 7 is a fixing device that fixes the wearable robot 1 to the waist of the wearer. The waist mounting portion 7 moves integrally with the wearer's waist.
The waist mounting portion 7 includes a walking actuator 17 (FIG. 2B), and drives the connecting portion 8 in the front-rear direction according to the walking motion of the wearer.

連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、装着者の下肢に装着され、歩行アクチュエータ17により前後方向などに駆動されて装着者の足部に力を作用させることにより装着者の歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting part 8 connects the waist mounting part 7 and the walking assist part 2.
The walking assist unit 2 is attached to the lower limb of the wearer and is driven in the front-rear direction by the walking actuator 17 to apply force to the wearer's foot to assist the wearer's walking movement.
The walking support by the waist mounting portion 7, the connecting portion 8, and the walking assist unit 2 is an example, and various forms such as walking support by a multi-joint drive mechanism are possible.

3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、前進方向、鉛直方向、体側方向の軸の周りの回転角度、角速度、角加速度などを検知することができる。
なお、前進方向の軸の周りの角度をロール角、鉛直方向の軸の周りの角度をヨー角、体側方向の軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the waist mounting portion 7 and detects the posture of the waist mounting portion 7 and the like. The triaxial sensor 3 includes, for example, a triaxial angular velocity detection function and a triaxial angular acceleration detection function using a three-dimensional gyro, and the rotation angle, angular velocity, and angular acceleration around the forward, vertical, and body-side axes. Can be detected.
The angle around the forward axis is the roll angle, the angle around the vertical axis is the yaw angle, and the angle around the body-side axis is the pitch angle.

3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させる。
The triaxial actuator 6 is configured by, for example, a spherical motor, and changes the roll angle, yaw angle, and pitch angle of the imaging unit 9 in which the imaging camera 5 and the light source device 4 are installed.
The light source device 4 and the imaging camera 5 are fixed to the imaging unit 9, and when the triaxial actuator 6 is driven, the irradiation direction of the light source device 4 (the direction of the optical axis of the light source device 4) and the imaging direction of the imaging camera 5. (The direction of the optical axis of the imaging camera 5) changes the roll angle, yaw angle, and pitch angle with respect to the waist mounting portion 7 while maintaining the relative angle.

撮像ユニット9で適切な画像を撮像するためには、撮像ユニット9を所定の角度で歩行面(地面や床面など、装着者が歩行する面)に向ける必要があるが、装着者が装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。   In order to capture an appropriate image with the imaging unit 9, it is necessary to point the imaging unit 9 at a predetermined angle on a walking surface (a surface on which the wearer walks, such as a ground surface or a floor surface). When the robot 1 is mounted, the imaging unit 9 is inclined depending on the mounted state, and this is corrected by the triaxial actuator 6.

光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点など各種の形状が可能である。   The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 emits light in a shape pattern that is circular with respect to a plane perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, and a dot are possible.

撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行面の成す角度や、歩行面に存在する障害物(段差など)により円形から変形した(歪んだ)形状となるが、この形状を解析することにより前方に存在する段差を検知することができる。
The imaging camera 5 is configured by an infrared light camera, a visible light camera, or the like that includes an optical system for forming an image of a subject and a CCD (Charge-Coupled Device) that converts the imaged subject to an electrical signal. The light source device 4 captures (shoots) a projection image irradiated on the walking surface.
The projection image by the light emitted by the light source device 4 in a predetermined shape pattern has a shape deformed (distorted) from a circle due to an angle formed by the irradiation direction and the walking surface, or an obstacle (such as a step) existing on the walking surface. However, it is possible to detect a step existing ahead by analyzing this shape.

無線通信装置10は、歩行アクチュエータ17のつま先に設置されており、照明100の照明光に含まれる危険領域情報を受信する。これにより、装着型ロボット1は、現在位置が危険領域であることを認識する。
なお、歩行アクチュエータ17をつま先に設置したのは、体側などの影になって照明100の光が遮られるのを防ぐためである。
The wireless communication device 10 is installed on the toes of the walking actuator 17 and receives the dangerous area information included in the illumination light of the illumination 100. Thereby, the wearable robot 1 recognizes that the current position is a dangerous area.
The reason why the walking actuator 17 is installed on the toe is to prevent the light of the illumination 100 from being blocked by a shadow on the body side or the like.

ここで、無線通信に照明光を用いたのは、情報を受信する箇所を照明領域に限定する(スポット化する)ことができるほか、通常、ホーム70の端部には安全のため照明が設置されており、これを利用すると無線通信のための新たな設備投資を低減することができるためである。
なお、照明光を用いず、通常の電波を用いた無線通信とすることも可能である。
Here, the use of illumination light for wireless communication allows the location where information is received to be limited to the illumination area (spots), and usually lighting is installed at the end of the home 70 for safety. This is because if this is used, new capital investment for wireless communication can be reduced.
Note that wireless communication using normal radio waves may be used without using illumination light.

ナビゲーション装置12は、GPS(Global Positioning Systems)衛星からのGPS信号を受信したり、所定のサーバと通信したりして装着者の現在位置を特定したり、経路探索したり、現在位置までの歩行経路を記録したりなどのナビゲーション機能を有している。
装着型ロボット1は、ナビゲーション装置12によって現在位置が危険領域80であることを検出することも可能である。
The navigation device 12 receives a GPS signal from a GPS (Global Positioning Systems) satellite, communicates with a predetermined server, specifies the current position of the wearer, searches for a route, and walks to the current position. It has navigation functions such as recording routes.
The wearable robot 1 can also detect that the current position is the dangerous area 80 by the navigation device 12.

図2(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
FIG. 2B is a diagram for explaining the mounting robot system 15 installed in the mounting robot 1.
The wearing robot system 15 is an electronic control system that controls the wearing robot 1 so as to exhibit a walking support function.

ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。   The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.

CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、危険領域80の検出、段差の画像認識、危険領域80での前進の阻止、及び強制的な歩行制御を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3、無線通信装置10、及びナビゲーション装置12とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したり、無線通信装置10から危険領域情報を取得したり、ナビゲーション装置12から装着者の現在位置や歩行経路を取得したりする。
The CPU executes various computer programs stored in the storage medium, and performs detection of the dangerous area 80, image recognition of a step, prevention of advancement in the dangerous area 80, and forced walking control.
The CPU is connected to the light source device 4, the imaging camera 5, the three-axis actuator 6, the three-axis sensor 3, the wireless communication device 10, and the navigation device 12 through an interface, and turns on / off irradiation from the light source device 4. The imaging data is acquired from the imaging camera 5, the triaxial actuator 6 is driven, the detection value is acquired from the triaxial sensor 3, the dangerous area information is acquired from the wireless communication device 10, and the navigation device 12 is acquired. Acquire the wearer's current position and walking route.

ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、危険領域80での歩行制御を行うためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for performing walking control in the dangerous area 80 is provided.

記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、光源装置4の投影像を解析してホーム70の端部の段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、現在までの歩行経路や歩容(装着型ロボット1の各種センサや歩行アクチュエータ17の動きなどから取得する)を記憶するためのアーカイブなどを記憶している。   The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and analyzes the projection image of the light source device 4 to recognize a step at the end of the home 70. For storing various programs such as a program for walking, a program for performing walking support, and walking paths and gaits (obtained from various sensors of the wearable robot 1 and movements of the walking actuator 17). I remember.

歩行アクチュエータ17は、ECU16からの指令に基づいて歩行アシスト部2を駆動する。
装着型ロボット1が、股関節、膝関節、足首関節などを有する多関節の場合は、各関節に歩行アクチュエータ17が備えられており、ECU16は、これらを個別に制御することにより、装着型ロボット1に一体として歩行支援動作を行わせる。
The walking actuator 17 drives the walking assist unit 2 based on a command from the ECU 16.
When the wearable robot 1 is a multi-joint having a hip joint, a knee joint, an ankle joint, or the like, a walking actuator 17 is provided in each joint, and the ECU 16 controls these individually so that the wearable robot 1 The walking support operation is performed as one.

図2(c)は、照明100の構成を説明するための図である。
照明100は、PLC(Programmable Logic Controler)51、CPU52、ROM53、及び発光ダイオード55などから構成されている。
PLC51は、記憶媒体であって、照明100の設置後にプログラムを書き込むことができる。本実施の形態では、照明100の照明光を危険情報で変調するためのプログラムが書き込まれている。
FIG. 2C is a diagram for explaining the configuration of the illumination 100.
The illumination 100 includes a PLC (Programmable Logic Controller) 51, a CPU 52, a ROM 53, a light emitting diode 55, and the like.
The PLC 51 is a storage medium and can write a program after the lighting 100 is installed. In the present embodiment, a program for modulating the illumination light of the illumination 100 with the danger information is written.

CPU52は、PLC51のプログラムに従って、照明光を危険情報で変調する。これにより、照明光に危険情報が重畳される。
ROM53は、取付位置、注意事項、ガイド情報などを記憶しており、設備側が設置や保守のためなどに使用する。
発光ダイオード55は、危険情報で変調された照明光を発光する。
The CPU 52 modulates the illumination light with the danger information in accordance with the PLC 51 program. Thereby, danger information is superimposed on illumination light.
The ROM 53 stores mounting positions, cautions, guide information, and the like, and is used by the equipment side for installation and maintenance.
The light emitting diode 55 emits illumination light modulated by the danger information.

図3(a)は、撮像ユニット9で段差を検出する方法を説明するための図である。
装着型ロボット1は、光源装置4を用いて装着者の前進方向の下方に所定形状パターンの光を照射し、その投影像を撮像カメラ5で撮影する。
ここでは、歩行面41よりも低い位置に下る段差40が存在するとし、光源装置4の光による像が段差40に投影される。
FIG. 3A is a diagram for explaining a method of detecting a step with the imaging unit 9.
The wearable robot 1 uses the light source device 4 to irradiate light of a predetermined shape pattern downward in the wearer's forward direction, and captures the projected image with the imaging camera 5.
Here, it is assumed that there is a step 40 that is lower than the walking surface 41, and an image of light from the light source device 4 is projected onto the step 40.

図3(b)は、撮像カメラ5で撮像した光源装置4による投影像26の画像の一例である。
なお、画面フレーム31の装着者に近い側を下端、前進側を上端としている。
本実施の形態では、光源装置4は円形断面の光を前進方向斜め下方に照射するため、歩行面が平面の場合、投影像26は、前進方向を長軸とする楕円形となる。
ところが、投影像26内に段差が存在すると、投影像26が本来あるべき楕円形から歪み、画像認識によって当該歪みを検出することによって段差を検知することができる。
FIG. 3B is an example of an image of the projection image 26 captured by the light source device 4 captured by the imaging camera 5.
The side closer to the wearer of the screen frame 31 is the lower end and the forward side is the upper end.
In the present embodiment, since the light source device 4 irradiates light with a circular cross section obliquely downward in the forward direction, when the walking surface is a plane, the projection image 26 has an elliptical shape with the forward direction as the major axis.
However, if there is a step in the projection image 26, the projection image 26 is distorted from an elliptical shape, and the step can be detected by detecting the distortion by image recognition.

下り段差の場合、投影像26は、段差の向こう側で広がるため、投影像26の上端側が広がることにより、下りの段差40を認識することができる。
また、段差40の落差が大きいほど、投影像26の上端側の幅が広がり、ある程度以上落差が大きくなると、上端側が撮像されなくなるため、投影像26の上端側の状態から落差の大きさを推定することができる。
In the case of a downward step, the projected image 26 spreads beyond the step, so that the upper step side of the projected image 26 widens so that the downward step 40 can be recognized.
In addition, the larger the drop of the step 40 is, the wider the width of the upper end side of the projection image 26 becomes. If the drop becomes larger to some extent, the upper end side is not captured, so the magnitude of the drop is estimated from the state of the upper end side of the projection image 26. can do.

これにより、装着型ロボット1は、危険領域80内において画像認識で段差40を検出してホーム70の端部を検出することができるほか、一般の段差40においても落差が歩行できる程度のものか否かを判断することができる。
更に、画面フレーム31の下端から投影像26の下端までの距離を用いて段差までの距離を計測することも可能である。
Thus, the wearable robot 1 can detect the step 40 by image recognition in the dangerous area 80 to detect the end of the home 70, and can the head be walked at the general step 40 as well? It can be determined whether or not.
Further, it is possible to measure the distance to the step using the distance from the lower end of the screen frame 31 to the lower end of the projected image 26.

加えて、ホームに列車が入線してドアが開いている場合の投影像26など、各場面での投影像26を記憶しておき、これを撮像カメラ5が撮像した投影像26とマッチングすることにより、装着者のおかれた状況を認識するように構成することもできる。
これにより、ホームの端部であって列車が入線していない場合は立入不可と判断して装着者の前進を阻止し、ホームの端部であって列車が入線している場合は立入可能と判断して装着者の歩行を支援するなど、同じ危険領域80内であっても、状況に応じた制御が可能となる。
In addition, the projection image 26 in each scene, such as the projection image 26 when the train enters the platform and the door is open, is stored, and this is matched with the projection image 26 captured by the imaging camera 5. Thus, it can be configured to recognize the situation of the wearer.
As a result, if the train is not at the end of the platform, it is determined that it is impossible to enter, and the wearer is prevented from moving forward.If the train is at the end of the platform, the entry is permitted. Even within the same dangerous area 80, such as judging and assisting the wearer's walking, control according to the situation becomes possible.

図4は、装着型ロボット1が危険領域80で歩行支援制御に強制介入する手順を説明するためのフローチャートである。
以下の処理は、ECU16のCPUが所定のプログラムに従って行うものである。
また、以下の処理は、駅のホームに限定せず、歩行不可能な段差が存在する危険領域80で適用可能である。
FIG. 4 is a flowchart for explaining a procedure in which the wearable robot 1 forcibly intervenes in the walking support control in the dangerous area 80.
The following processing is performed by the CPU of the ECU 16 according to a predetermined program.
Further, the following processing is not limited to the platform of the station, and can be applied in the dangerous area 80 where there is a step that cannot be walked.

まず、CPUは、無線通信装置10で照明100から送信される情報を受信することにより、現在位置が設備側通信範囲内であるか否かを判断し、判断結果をRAMに記憶する(ステップ5)。
より詳細には、CPUは、照明100から送信される情報を受信した場合には、設備側通信範囲内であると判断し、受信しない場合には、設備側通信範囲内でないと判断する。
First, the CPU determines whether or not the current position is within the equipment communication range by receiving information transmitted from the lighting 100 by the wireless communication device 10, and stores the determination result in the RAM (step 5). ).
More specifically, when receiving information transmitted from the lighting 100, the CPU determines that it is within the equipment side communication range, and otherwise determines that it is not within the equipment side communication range.

次に、RAMに記憶した判断結果が、設備側通信範囲内でないという判断であった場合(ステップ5;N)、CPUは、ステップ5に戻る。
一方、RAMに記憶した判断結果が設備側通信範囲内であるという判断であった場合(ステップ5;Y)、CPUは、RAMに記憶した情報を解析して現在位置が危険領域であるか否かを判断し、判断結果をRAMに記憶する(ステップ15)。
Next, when it is determined that the determination result stored in the RAM is not within the equipment communication range (step 5; N), the CPU returns to step 5.
On the other hand, when it is determined that the determination result stored in the RAM is within the equipment side communication range (step 5; Y), the CPU analyzes the information stored in the RAM and determines whether or not the current position is a dangerous area. The determination result is stored in the RAM (step 15).

より詳細には、CPUは、RAMに記憶した情報が危険領域情報であった場合には、現在位置が危険領域であると判断し、危険領域情報でない場合には、現在位置が危険領域でないと判断する。
なお、照明100が送信する情報で危険領域情報でないものには、例えば、前方にエスカレータが存在することを知らせる情報や、周辺地図情報など、装着型ロボット1による歩行支援を助ける各種の情報がある。
More specifically, the CPU determines that the current position is a dangerous area when the information stored in the RAM is dangerous area information. If the information is not dangerous area information, the CPU determines that the current position is not a dangerous area. to decide.
Note that information transmitted by the lighting 100 that is not dangerous area information includes various types of information that assists walking support by the wearable robot 1, such as information notifying that an escalator is present ahead and surrounding map information. .

RAMに記憶した判断結果が、危険領域情報でないとの判断であった場合(ステップ15;N)、CPUは、処理を終了する。
一方、RAMに記憶した判断結果が危険領域情報であるとの判断であった場合(ステップ15;Y)、CPUは、撮像ユニット9を駆動して前方に光を照射し、その投影像の画像データをRAMに記憶する。
When it is determined that the determination result stored in the RAM is not dangerous area information (step 15; N), the CPU ends the process.
On the other hand, when it is determined that the determination result stored in the RAM is the dangerous area information (step 15; Y), the CPU drives the imaging unit 9 to irradiate light forward, and the image of the projection image. Data is stored in RAM.

次に、CPUは、RAMに記憶した画像データを画像認識することにより、前方の歩行面の形状を認識して、認識結果をRAMに記憶する(ステップ20)。
ここでは、CPUは、一例として、前方に存在する段差の有無と当該段差の高さを認識してRAMに記憶する。
Next, the CPU recognizes the shape of the front walking surface by recognizing the image data stored in the RAM, and stores the recognition result in the RAM (step 20).
Here, as an example, the CPU recognizes the presence or absence of a step existing in front and the height of the step and stores it in the RAM.

次に、CPUは、RAMに記憶した認識結果を用いて危険領域80が立入不可の危険領域であるか否かを判断する(ステップ25)。
より詳細には、CPUは、段差がない場合、及び、段差は存在するがその高さが所定値未満である場合(歩行可能な段差の場合)には、立入不可の危険領域でないと判断し、段差が存在し、その高さが所定値以上である場合(歩行不可な段差の場合)には、立入不可の領域であると判断する。
Next, the CPU uses the recognition result stored in the RAM to determine whether or not the dangerous area 80 is an inaccessible dangerous area (step 25).
More specifically, the CPU determines that it is not a dangerous area that is not accessible when there is no step and when there is a step but its height is less than a predetermined value (in the case of a step that can be walked). When there is a step and its height is equal to or higher than a predetermined value (in the case of a step that cannot be walked), it is determined that the region is inaccessible.

次に、RAMに記憶した判断結果が立入不可の危険領域であるとの判断であった場合(ステップ25;Y)、CPUは、歩行アクチュエータ17の制御に強制介入して装着者の前進を阻止し(ステップ30)、ステップ5に戻る。   Next, when it is determined that the determination result stored in the RAM is an inaccessible danger area (step 25; Y), the CPU forcibly intervenes in the control of the walking actuator 17 to prevent the wearer from moving forward. (Step 30), and return to Step 5.

なお、この際に、前進を阻止するのみならず、装着者を危険領域外に誘導して退避させるようにプログラムを構成することもできる。
また、装着者を危険領域外に退避させるに際して、予め装着者の歩行経路をナビゲーション装置12によって検知してECU16の記憶装置に記憶しておき、その経路を逆に辿るトレースバック経路を計算して誘導するようにプログラムを構成することもできる。
At this time, the program can be configured not only to prevent advancement but also to guide the wearer out of the danger area and evacuate.
Further, when the wearer is withdrawn from the dangerous area, the wearer's walking route is detected in advance by the navigation device 12 and stored in the storage device of the ECU 16, and a traceback route that reversely follows the route is calculated. The program can also be configured to guide.

一方、RAMに記憶した判断結果が立入不可の危険領域でないとの判断であった場合(ステップ25;N)、CPUは、装着者によって危険領域警告が設定されているか否かを判断する(ステップ35)。危険領域警告は、予め装着者が設定してECU16の記憶装置に記憶されており、CPUは、これを確認して判断する。   On the other hand, if the determination result stored in the RAM is that the dangerous area is not accessible (step 25; N), the CPU determines whether or not a dangerous area warning is set by the wearer (step 25). 35). The danger area warning is set in advance by the wearer and stored in the storage device of the ECU 16, and the CPU confirms and determines this.

危険領域警告が設定されてる場合(ステップ35;Y)、CPUは、音声出力装置などに警告を発せさせて(ステップ40)、処理を終了し、危険領域警告が設定されていない場合(ステップ35;N)、CPUは、処理を終了する。   When the dangerous area warning is set (step 35; Y), the CPU issues a warning to the audio output device or the like (step 40), ends the process, and when the dangerous area warning is not set (step 35). N), the CPU ends the process.

以上の例では、装着型ロボット1が危険領域にて歩行支援に強制介入する一般的な場合を説明したが、危険領域が駅のホームの端部領域である場合に適用すると次のようになる。
まず、装着者がホームの端部領域に侵入すると、装着型ロボット1は、ステップ15で危険領域にいると判断する。
次に、装着型ロボット1は、ステップ20による段差の有無の判断によって、ホームに列車が入線しているか否かを判断する。
In the above example, the general case where the wearable robot 1 forcibly intervenes in walking support in the dangerous area has been described. However, when the dangerous area is an end area of the platform of the station, the following applies. .
First, when the wearer enters the end area of the home, the wearable robot 1 determines in step 15 that the wearer is in the danger area.
Next, the wearable robot 1 determines whether a train has entered the platform by determining whether there is a step in step 20.

ホームに列車が入線していない場合、装着型ロボット1は、ステップ25で立入不可の危険領域にいると判断し、ステップ30で制御に強制介入して前進を阻止する。
一方、ホームに列車が入線している場合、装着型ロボット1は、ステップ25で立入不可の危険領域でないと判断し、装着者が列車に乗車する歩行を支援する。この際、装着者の設定により警告を発したりする。
If the train is not on the platform, the wearable robot 1 determines in step 25 that it is in an inaccessible danger area, and forcibly intervenes in control in step 30 to prevent advancement.
On the other hand, when the train is in the platform, the wearable robot 1 determines that the dangerous area is not allowed to enter in step 25, and assists the walking where the wearer gets on the train. At this time, a warning is issued depending on the setting of the wearer.

なお、装着型ロボット1は、例えば、ホームに列車が入線している場合の投影像26のパターンを予め記憶装置に記憶しており、これに撮像した投影像26をマッチングすることによりホームに列車が入線していることを認識する。   The wearable robot 1 stores, for example, a pattern of a projection image 26 in a case where a train enters the platform in a storage device in advance, and matches the captured projection image 26 to the train to the platform. Recognize that is in the line.

図5は、装着型ロボット1が危険領域80で歩行支援制御に強制介入する手順の変形例を説明するためのフローチャートである。
この例では、装着型ロボット1は、駅のホームで装着者の歩行支援に強制介入する。また、照明100が送信する危険領域情報には、列車がホームに入線しているか否かを示す列車入線情報が含まれている。
FIG. 5 is a flowchart for explaining a modified example of the procedure in which the wearable robot 1 forcibly intervenes in the walking support control in the dangerous area 80.
In this example, the wearable robot 1 forcibly intervenes in the walking support of the wearer at the station platform. Further, the dangerous area information transmitted by the lighting 100 includes train entry information indicating whether or not the train has entered the platform.

まず、CPUは、無線通信装置10で照明100から送信される情報を受信することにより、現在位置が設備側通信範囲内であるか否かを判断し、判断結果をRAMに記憶する(ステップ50)。
より詳細には、CPUは、照明100から送信される情報を受信した場合には、設備側通信範囲内であると判断し、受信しない場合には、設備側通信範囲内でないと判断する。
First, the CPU determines whether or not the current position is within the equipment-side communication range by receiving information transmitted from the lighting 100 by the wireless communication device 10, and stores the determination result in the RAM (step 50). ).
More specifically, when receiving information transmitted from the lighting 100, the CPU determines that it is within the equipment side communication range, and otherwise determines that it is not within the equipment side communication range.

次に、RAMに記憶した判断結果が、設備側通信範囲内にいないという判断であった場合(ステップ50;N)、CPUは、ステップ50に戻る。
一方、RAMに記憶した判断結果が設備側通信範囲内にいるという判断であった場合(ステップ50;Y)、CPUは、RAMに記憶した情報を解析して列車が入線しているか否かを判断し、判断結果をRAMに臆する(ステップ55)。
より詳細には、CPUは、RAMに記憶した危険領域情報に含まれる列車入線情報を解析することによりホームに列車が入線しているか否かを判断する。
Next, when it is determined that the determination result stored in the RAM is not within the facility-side communication range (step 50; N), the CPU returns to step 50.
On the other hand, if the determination result stored in the RAM is a determination that it is within the equipment-side communication range (step 50; Y), the CPU analyzes the information stored in the RAM and determines whether or not the train is on line. Judgment is made and the judgment result is stored in the RAM (step 55).
More specifically, the CPU determines whether a train has entered the home by analyzing train entry information included in the dangerous area information stored in the RAM.

RAMに記憶した判断結果が、列車が入線していないとの判断であった場合(ステップ55;N)、CPUは、現在位置が立入不可の危険領域であると判断し(ステップ60)、トレースバック経路を計算してRAMに記憶する(ステップ65)。トレースバック経路は、図4で説明したものと同じである。
次に、CPUは、歩行アクチュエータ17の制御に強制介入し、トレースバック経路に沿って逆戻りするように装着者の第一歩目以降を制御する(ステップ70)。
If the determination result stored in the RAM is a determination that the train has not entered (step 55; N), the CPU determines that the current position is an inaccessible danger area (step 60) and traces. The back path is calculated and stored in the RAM (step 65). The traceback path is the same as that described in FIG.
Next, the CPU forcibly intervenes in the control of the walking actuator 17 and controls the first and subsequent steps of the wearer so as to return backward along the traceback path (step 70).

CPUは、装着者の第一歩目以降について歩行アクチュエータ17を制御しつつ、照明100からの情報を受信することによって現在位置が設備側通信範囲内か否かを判断し(ステップ75)、設備側通信範囲内である場合には(ステップ75;Y)、ステップ55に戻り、設備側通信範囲内でない場合には(ステップ75;N)、強制的な制御を解放して処理を終了する(ステップ80)。
なお、列車が入線していないと判断した場合(ステップ55;Y)、CPUは、ステップ75に移行すると共に、歩行アクチュエータ17の制御への強制介入はせず、装着者の歩行を支援する。
The CPU determines whether or not the current position is within the equipment communication range by receiving information from the lighting 100 while controlling the walking actuator 17 for the first and subsequent steps of the wearer (step 75). If it is within the side communication range (step 75; Y), the process returns to step 55. If it is not within the equipment side communication range (step 75; N), the forced control is released and the process is terminated ( Step 80).
If it is determined that the train is not connected (step 55; Y), the CPU proceeds to step 75 and does not perform forced intervention in the control of the walking actuator 17, and supports the walking of the wearer.

このように、本変形例では、画像認識を用いずとも、危険領域情報に付随する列車入線情報によって列車の入線の有無を判断することにより、列車が入線していない場合は、危険領域80を立入不可の危険領域と判断し、列車が入線している場合は、危険領域80を立入不可の危険領域でないと判断することができる。   Thus, in this modification, without using image recognition, by determining whether or not a train has been entered based on the train entry information that accompanies the dangerous area information, if the train has not entered, the dangerous area 80 is determined. If it is determined that the dangerous area cannot be entered, and the train is in the line, it is possible to determine that the dangerous area 80 is not a dangerous area that cannot be entered.

以上に説明した実施の形態により、次の効果を得ることができる。
(1)装着型ロボット1は、装着者が、危険な領域に入り込んだ場合に、装着者の歩行意図に関係なく歩行アクチュエータ17を強制的に制御することができる。
(2)装着型ロボット1は、照明100からの通信によって装着者が危険領域80にいるか否かを判断することができ、例えば、画像認識によって前方が立入不可であった場合や、危険領域80が列車が入線していないことによるものであった場合に歩行アクチュエータ17を強制的に制御することができる。
(3)装着型ロボット1は、例えば、トレースバックさせるなどして装着者を危険領域から退出させることができる。
(4)装着型ロボット1は、危険回避のために歩行支援に強制的に介入するため、装着者の判断力や運動能力が衰えている場合であっても、装着者の歩行を適切にアシストすることができる。
According to the embodiment described above, the following effects can be obtained.
(1) When the wearer enters a dangerous area, the wearable robot 1 can forcibly control the walking actuator 17 regardless of the wearer's intention to walk.
(2) The wearable robot 1 can determine whether or not the wearer is in the dangerous area 80 by communication from the illumination 100. For example, when the front cannot enter due to image recognition, or the dangerous area 80 However, when the train is not connected, the walking actuator 17 can be forcibly controlled.
(3) The wearable robot 1 can cause the wearer to leave the danger area, for example, by performing a traceback.
(4) Since the wearable robot 1 forcibly intervenes in walking support in order to avoid danger, even when the wearer's judgment and exercise ability are weakened, the wearable robot 1 appropriately assists the walking of the wearer. can do.

以上に説明した実施の形態により、次の構成を提供することができる。
装着型ロボット1は、歩行アシスト部2や連結部8によって装着者を支援するため、歩行支援対象者(装着者)の足部に力を作用させて歩行を支援する歩行支援手段を備えている。
また、駅のホームの危険領域80は、立入制限領域として機能し、装着型ロボット1は、照明100からの危険領域情報によって、現在位置が危険領域であるか否か判断するため、現在位置が立入制限領域であるか否かを判断する領域判断手段を備えている。
また、装着型ロボット1は、危険領域80が立入不可の危険領域であるか否かによって歩行アクチュエータ17の制御に介入するか否かを判断するため、前記領域判断手段で現在位置が立入制限領域であると判断された場合に、前記歩行支援手段の制御に介入するか否かを判断する介入判断手段を備えている。
また、装着型ロボット1は、介入が必要と判断した場合には、歩行制御に強制介入するため、前記介入判断手段に従って前記歩行支援手段の制御に介入する介入手段を備えている。
The following configurations can be provided by the embodiment described above.
The wearable robot 1 includes walking support means for supporting walking by applying a force to the foot of a walking support target person (wearer) in order to assist the wearer with the walking assist unit 2 and the connecting unit 8. .
Further, the danger area 80 of the station platform functions as an access restriction area, and the wearable robot 1 determines whether or not the current position is a danger area based on the danger area information from the lighting 100. An area determining means for determining whether or not the area is a restricted entry area is provided.
The wearable robot 1 determines whether or not to intervene in the control of the walking actuator 17 depending on whether or not the dangerous area 80 is an inaccessible dangerous area. When it is determined that, it is provided with an intervention determination means for determining whether or not to intervene in the control of the walking support means.
In addition, the wearable robot 1 includes an intervention unit that intervenes in the control of the walking support unit according to the intervention determination unit in order to forcibly intervene in the walking control when it is determined that intervention is necessary.

装着型ロボット1は、照明100から危険領域情報を受信して現在位置が危険領域か否かを判断するため、現在位置が立入制限領域であるか否かを通知する立入制限領域情報(危険領域情報に相当)を受信する受信手段を備え、前記領域判断手段は、前記受信した立入制限領域情報を用いて現在位置が立入制限領域であるか否かを判断している。   The wearable robot 1 receives the dangerous area information from the lighting 100 and determines whether or not the current position is the dangerous area, so that the restricted area information (dangerous area) that notifies whether or not the current position is the restricted area. Receiving means for receiving (equivalent to information), and the area judging means judges whether or not the current position is a restricted entry area using the received restricted entry area information.

また、装着型ロボット1は、歩行支援制御に強制的に介入する場合、装着者の前進を阻止して停止させるため、前記介入手段は、前記歩行支援手段による前進を停止させている。   Further, when the wearable robot 1 forcibly intervenes in the walking support control, the intervention means stops the advance by the walking support means in order to prevent and stop the wearer from moving forward.

また、装着型ロボット1は、危険領域80が立入不可の危険領域であった場合、装着者を危険領域80の外部に退出するように装着者の歩行を誘導するため、前記介入手段は、前記歩行支援手段に前記立入制限領域外に強制的に誘導するように支援させている。   The wearable robot 1 guides the wearer to walk out of the danger area 80 when the danger area 80 is an inaccessible danger area. The walking support means is assisted to forcibly guide outside the restricted access area.

また、装着型ロボット1は、ナビゲーション装置12によって装着者の歩行経路を検出して記憶装置に記憶し、これを用いてトレースバック経路を計算して装着者を逆戻りさせるため、歩行経路を記憶する記憶手段を備え、前記介入手段は、前記記憶した歩行経路に沿って前記立入制限領域外に歩行させている。   In addition, the wearable robot 1 detects the walking route of the wearer by the navigation device 12 and stores the walking route in the storage device. The wearable robot 1 stores the walking route in order to calculate the traceback route and reverse the wearer. Storage means is provided, and the intervention means is allowed to walk outside the access restriction area along the stored walking route.

また、装着型ロボット1は、撮像ユニット9によって前方の歩行面の状態を撮像して画像認識することにより立入不可の危険領域であるか否かを判断し、立入不可の危険領域である場合に介入制御するため、前記立入制限領域における歩行面の状態から前記立入制限領域が立入禁止領域(立入不可の危険領域に相当)であるか否かを検出する検出手段を備え、前記介入判断手段は、前記立入制限領域が立入禁止領域であると検出された場合に介入すると判断している。   Also, the wearable robot 1 determines whether or not it is an inaccessible danger area by imaging the state of the front walking surface with the imaging unit 9 and recognizing the image. In order to perform intervention control, it comprises detection means for detecting whether or not the restricted entry area is a restricted entry area (corresponding to a restricted entry dangerous area) from the state of the walking surface in the restricted entry area, When it is detected that the restricted entry area is a restricted entry area, it is determined to intervene.

装着型ロボット1は、例えば、画像データから段差を認識することにより立入不可の危険領域であるか否かを判断するため、前記検出手段は、前記歩行面を撮像した画像データによって立入禁止領域であるか否かを検出している。   For example, the wearable robot 1 recognizes a step from the image data to determine whether or not it is an inaccessible danger area. For this reason, the detection means uses the image data obtained by capturing the walking surface in the inaccessible area. Whether or not there is detected.

また、変形例において、装着型ロボット1は、照明100から列車入線情報を受信して列車が入線しているか否かを判断し、列車が入線していない場合は立入不可の危険領域80と判断して退出し、列車が入線している場合は立入不可の危険領域80と判断せずに装着者の意図による歩行を支援するため、前記検出手段は、現在位置が立入禁止領域であることを通知する立入禁止領域情報(列車入線情報に相当)を受信することにより立入禁止領域であることを検出している。   Moreover, in the modification, the wearable robot 1 receives the train entry information from the lighting 100 and determines whether or not the train has entered. If the train has not entered, the wearable robot 1 determines that the dangerous area 80 is not accessible. In order to assist the walking by the wearer's intention without determining that the dangerous area 80 is not accessible when the train is in the line, the detection means confirms that the current position is a restricted area. By detecting the restricted area information (corresponding to train entry information) to be notified, it is detected that it is a restricted area.

また、装着型ロボット1は、危険領域80が立入不可の危険領域でない場合、装着者に警報音を発するなどして警告することができるため、前記領域判断手段で現在位置が立入制限領域内であると判断した場合に、歩行支援対象者に警告する警告手段を備えている。   Further, since the wearable robot 1 can warn the wearer by making an alarm sound or the like when the dangerous area 80 is not a dangerous area that cannot be entered, the current position is within the restricted area by the area determination means. When it is determined that there is a warning means, a warning means for warning the walking support target person is provided.

また、装着型ロボット1は、ECU16の記憶装置に、歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援機能と、現在位置が立入制限領域であるか否かを判断する領域判断機能と、前記領域判断機能で現在位置が立入制限領域であると判断された場合に、前記歩行支援機能の制御に介入するか否かを判断する介入判断機能と、前記介入判断機能に従って前記歩行支援機能の制御に介入する介入機能と、をコンピュータで実現する歩行支援プログラムを記憶している。   Further, the wearable robot 1 determines a walking support function for supporting walking by applying a force to the foot of the walking support target in the storage device of the ECU 16 and whether or not the current position is in a restricted access area. An area determination function, an intervention determination function for determining whether or not to intervene in the control of the walking support function when the current position is determined to be an access restriction area by the area determination function, and the intervention determination function A walking support program for realizing an intervention function for intervening in the control of the walking support function by a computer is stored.

1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
10 無線通信装置
12 ナビゲーション装置
15 装着ロボットシステム
16 ECU
17 歩行アクチュエータ
26 投影像
31 画面フレーム
40 段差
41 歩行面
51 PLC
52 CPU
53 ROM
55 発光ダイオード
70 ホーム
80 危険領域
100 照明
DESCRIPTION OF SYMBOLS 1 Wearable robot 2 Walking assist part 3 3-axis sensor 4 Light source device 5 Imaging camera 6 3-axis actuator 7 Lumbar mounting part 8 Connection part 9 Imaging unit 10 Wireless communication apparatus 12 Navigation apparatus 15 Wearing robot system 16 ECU
17 Walking actuator 26 Projected image 31 Screen frame 40 Step difference 41 Walking surface 51 PLC
52 CPU
53 ROM
55 Light emitting diode 70 Home 80 Hazardous area 100 Lighting

Claims (10)

歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援手段と、
現在位置が立入制限領域であるか否かを判断する領域判断手段と、
前記領域判断手段で現在位置が立入制限領域であると判断された場合に、前記歩行支援手段の制御に介入するか否かを判断する介入判断手段と、
前記介入判断手段に従って前記歩行支援手段の制御に介入する介入手段と、
を具備したことを特徴とする歩行支援装置。
Walking support means for supporting walking by applying a force to the foot of the walking support target;
Area determination means for determining whether or not the current position is an access restriction area;
An intervention determination means for determining whether or not to intervene in the control of the walking support means when it is determined by the area determination means that the current position is an access restriction area;
Intervention means for intervening in the control of the walking support means according to the intervention determination means;
A walking support device characterized by comprising:
現在位置が立入制限領域であるか否かを通知する立入制限領域情報を受信する受信手段を具備し、
前記領域判断手段は、前記受信した立入制限領域情報を用いて現在位置が立入制限領域であるか否かを判断することを特徴とする請求項1に記載の歩行支援装置。
Comprising receiving means for receiving access restriction area information for notifying whether or not the current position is an access restriction area;
The walking support device according to claim 1, wherein the area determination unit determines whether or not a current position is an access restriction area using the received entry restriction area information.
前記介入手段は、前記歩行支援手段による前進を停止させることを特徴とする請求項1、又は請求項2に記載の歩行支援装置。   The walking support apparatus according to claim 1, wherein the intervention unit stops the advance by the walking support unit. 前記介入手段は、前記歩行支援手段に前記立入制限領域外に強制的に誘導するように支援させることを特徴とする請求項1、又は請求項2に記載の歩行支援装置。   The walking support device according to claim 1, wherein the intervention unit causes the walking support unit to support the walking support unit so that the walking support unit is forcibly guided to the outside of the access restriction area. 歩行経路を記憶する記憶手段を具備し、
前記介入手段は、前記記憶した歩行経路に沿って前記立入制限領域外に歩行させることを特徴とする請求項4に記載の歩行支援装置。
Comprising storage means for storing the walking route;
The walking support apparatus according to claim 4, wherein the intervention means causes the walking to walk outside the access restriction area along the stored walking route.
前記立入制限領域における歩行面の状態から前記立入制限領域が立入禁止領域であるか否かを検出する検出手段を具備し、
前記介入判断手段は、前記立入制限領域が立入禁止領域であると検出された場合に介入すると判断することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載の歩行支援装置。
Comprising detection means for detecting whether or not the restricted area is a restricted area from the state of the walking surface in the restricted area;
The said intervention judgment means judges that it intervenes when it detects that the said access restriction area | region is an entry prohibition area | region, The claim in any one of Claim 1 to 5 characterized by the above-mentioned. Walking support device.
前記検出手段は、前記歩行面を撮像した画像データによって立入禁止領域であるか否かを検出することを特徴とする請求項6に記載の歩行支援装置。   The walking support apparatus according to claim 6, wherein the detection unit detects whether the area is a restricted entry area based on image data obtained by imaging the walking surface. 前記検出手段は、現在位置が立入禁止領域であることを通知する立入禁止領域情報を受信することにより立入禁止領域であることを検出することを特徴とする請求項6に記載の歩行支援装置。   The walking support device according to claim 6, wherein the detection unit detects that the current position is a restricted area by receiving restricted entry area information notifying that the current position is a restricted area. 前記領域判断手段で現在位置が立入制限領域内であると判断した場合に、歩行支援対象者に警告する警告手段を具備したことを特徴とする請求項1から請求項6までのうちの何れか1の請求項に記載の歩行支援装置。   7. The apparatus according to claim 1, further comprising a warning unit that warns a walking support target when the region determination unit determines that the current position is within a restricted access region. The walking support device according to claim 1. 歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援機能と、
現在位置が立入制限領域であるか否かを判断する領域判断機能と、
前記領域判断機能で現在位置が立入制限領域であると判断された場合に、前記歩行支援機能の制御に介入するか否かを判断する介入判断機能と、
前記介入判断機能に従って前記歩行支援機能の制御に介入する介入機能と、
をコンピュータで実現する歩行支援プログラム。
A walking support function that supports walking by applying force to the foot of the target person for walking support;
An area determination function for determining whether or not the current position is an access restriction area;
An intervention determination function for determining whether or not to intervene in the control of the walking support function when the current position is determined to be an access restriction area by the area determination function;
An intervention function for intervening in the control of the walking support function according to the intervention determination function;
A walking support program that uses a computer.
JP2010265193A 2010-11-29 2010-11-29 Walking support device and walking support program Pending JP2012115314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265193A JP2012115314A (en) 2010-11-29 2010-11-29 Walking support device and walking support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265193A JP2012115314A (en) 2010-11-29 2010-11-29 Walking support device and walking support program

Publications (1)

Publication Number Publication Date
JP2012115314A true JP2012115314A (en) 2012-06-21

Family

ID=46498941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265193A Pending JP2012115314A (en) 2010-11-29 2010-11-29 Walking support device and walking support program

Country Status (1)

Country Link
JP (1) JP2012115314A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061269A1 (en) * 2012-10-16 2014-04-24 株式会社ニコン Muscular strength assisting device
JP2015093188A (en) * 2013-11-08 2015-05-18 三星電子株式会社Samsung Electronics Co.,Ltd. Walk-assistive robot and method of controlling walk-assistive robot
JP2018130439A (en) * 2017-02-17 2018-08-23 ナブテスコ株式会社 Movement assist device, management device, movement assist system, control method for movement assist device, and support method for movement assist device
JP2023112229A (en) * 2022-02-01 2023-08-14 M・S・K株式会社 Remote management system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061269A1 (en) * 2012-10-16 2014-04-24 株式会社ニコン Muscular strength assisting device
EP2910229A4 (en) * 2012-10-16 2016-08-03 Nikon Corp Muscular strength assisting device
JPWO2014061269A1 (en) * 2012-10-16 2016-09-05 株式会社ニコン Strength aids
JP2015093188A (en) * 2013-11-08 2015-05-18 三星電子株式会社Samsung Electronics Co.,Ltd. Walk-assistive robot and method of controlling walk-assistive robot
JP2018130439A (en) * 2017-02-17 2018-08-23 ナブテスコ株式会社 Movement assist device, management device, movement assist system, control method for movement assist device, and support method for movement assist device
JP2023112229A (en) * 2022-02-01 2023-08-14 M・S・K株式会社 Remote management system
JP7477093B2 (en) 2022-02-01 2024-05-01 M・S・K株式会社 Remote Management System

Similar Documents

Publication Publication Date Title
JP5526942B2 (en) Robot apparatus, control method and program for robot apparatus
US7702420B2 (en) Method for making mobile unit accompany objective person
US20190049955A1 (en) Driver state recognition apparatus, driver state recognition system, and driver state recognition method
JP4440174B2 (en) Mobile object subject accompaniment method and mobile object subject accompaniment apparatus
US10010301B2 (en) Mobile X-ray imaging device
CN109963745B (en) Notification device, autonomous vehicle, notification method, program, non-transitory recording medium, and notification system
JP5077017B2 (en) Driving support device and pedestrian detection device
KR100854653B1 (en) Localization system of the mobile robot using the charging station
US20190047417A1 (en) Driver state recognition apparatus, driver state recognition system, and driver state recognition method
JP5035802B2 (en) Robot and task execution system
JP2007160438A (en) Legged mobile robot
JP2000153476A (en) Leg type movable robot
JP2007199965A (en) Autonomous mobile device
JP2012115314A (en) Walking support device and walking support program
JP2009294753A (en) Image processor and image processing method
WO2016039158A1 (en) Mobile body control device and mobile body
JP2009174898A (en) Moving body and environmental information generation method
JP2008186097A (en) Autonomous moving system
JP2009176031A (en) Autonomous mobile body, autonomous mobile body control system and self-position estimation method for autonomous mobile body
JP5633166B2 (en) Robot and control method thereof
JP2007152472A (en) Charging system, charging station and robot guidance system
JP2007190654A (en) Leg-wheel robot
JP2012200318A (en) Walking assist device and walking assist program
JP2012117833A (en) Image recognition device, mounting type robot, and image recognition program
JP2010198205A (en) Collision avoidance support device