JP2012115314A - Walking support device and walking support program - Google Patents
Walking support device and walking support program Download PDFInfo
- Publication number
- JP2012115314A JP2012115314A JP2010265193A JP2010265193A JP2012115314A JP 2012115314 A JP2012115314 A JP 2012115314A JP 2010265193 A JP2010265193 A JP 2010265193A JP 2010265193 A JP2010265193 A JP 2010265193A JP 2012115314 A JP2012115314 A JP 2012115314A
- Authority
- JP
- Japan
- Prior art keywords
- walking
- area
- walking support
- current position
- intervention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Rehabilitation Tools (AREA)
Abstract
Description
本発明は、歩行支援装置、及び歩行支援プログラムに関し、例えば、装着者の歩行運動をアシストするものに関する。 The present invention relates to a walking support device and a walking support program, for example, to assisting a wearer's walking motion.
近年、装着者の動作をアシストする装着型ロボットが注目を集めている。
装着型ロボットには、センサなどで体の動きを検知して装着者の身体動作を支援するものであり、例えば、重量物の持ち上げや歩行運動を補助することができる。
例えば、特許文献1の「装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム」は、筋電センサにより装着者の動作意図を読み取って、装着者の運動を支援している。
In recent years, wearable robots that assist the wearer's movement have attracted attention.
The wearable robot detects a body movement with a sensor or the like and assists the wearer's body movement. For example, the wearable robot can assist lifting of heavy objects and walking movement.
For example, “Wearing-type movement assistance device, method for controlling wearing-type movement assistance device and control program” of Patent Document 1 supports the movement of the wearer by reading the intention of movement of the wearer using an electromyographic sensor. .
しかし、これまでに発表された装着型ロボットは、歩行に関しては、転倒しない、装着しやすい、機器の暴走により怪我をしない、といった安全面の工夫がされているものが主である。
これらの場合、装着型ロボットは、装着者の意図に従った動作支援を行うことが前提となっており、装着者が誤った動作をしようとする場合に、このような動作を適切に支援するものではなかった。
例えば、高齢者が装着する場合、判断力や反射神経、視力などの五感の衰えから、駅ホームの端部などの危険領域に侵入することも考えられ、このような場合に、装着者の歩行支援を適切に行う必要がある。
However, the wearable robots that have been announced so far are mainly those that have been devised in terms of safety, such as not toppling over, easy to wear, and not to be injured by equipment runaway.
In these cases, the wearable robot is premised on performing operation support in accordance with the intention of the wearer, and appropriately supports such operation when the wearer tries to perform an incorrect operation. It was not a thing.
For example, when an elderly person wears it, it is possible to enter a dangerous area such as the end of a station platform due to a decline in five senses such as judgment, reflexes, and vision. It is necessary to provide support appropriately.
また、実施の形態で使用する通信技術に関しては、特許文献2の「通信機能を有する照明器具」がある。
この技術は、電力線によって照明体に信号を送信し、照明体から無線や光の変調により信号を送出するものである。
Moreover, regarding the communication technology used in the embodiment, there is “Lighting fixture having communication function” in
In this technique, a signal is transmitted to an illuminating body through a power line, and the signal is transmitted from the illuminating body by radio or light modulation.
本発明は、装着者の意図にかかわらず、適切な歩行支援を行うことを目的とする。 An object of the present invention is to provide appropriate walking support regardless of the intention of the wearer.
請求項1に記載の発明では、歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援手段と、現在位置が立入制限領域であるか否かを判断する領域判断手段と、前記領域判断手段で現在位置が立入制限領域であると判断された場合に、前記歩行支援手段の制御に介入するか否かを判断する介入判断手段と、前記介入判断手段に従って前記歩行支援手段の制御に介入する介入手段と、を具備したことを特徴とする歩行支援装置を提供する。
請求項2に記載の発明では、現在位置が立入制限領域であるか否かを通知する立入制限領域情報を受信する受信手段を具備し、前記領域判断手段は、前記受信した立入制限領域情報を用いて現在位置が立入制限領域であるか否かを判断することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項3に記載の発明では、前記介入手段は、前記歩行支援手段による前進を停止させることを特徴とする請求項1、又は請求項2に記載の歩行支援装置を提供する。
請求項4に記載の発明では、前記介入手段は、前記歩行支援手段に前記立入制限領域外に強制的に誘導するように支援させることを特徴とする請求項1、又は請求項2に記載の歩行支援装置を提供する。
請求項5に記載の発明では、歩行経路を記憶する記憶手段を具備し、前記介入手段は、前記記憶した歩行経路に沿って前記立入制限領域外に歩行させることを特徴とする請求項4に記載の歩行支援装置を提供する。
請求項6に記載の発明では、前記立入制限領域における歩行面の状態から前記立入制限領域が立入禁止領域であるか否かを検出する検出手段を具備し、前記介入判断手段は、前記立入制限領域が立入禁止領域であると検出された場合に介入すると判断することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載の歩行支援装置を提供する。
請求項7に記載の発明では、前記検出手段は、前記歩行面を撮像した画像データによって立入禁止領域であるか否かを検出することを特徴とする請求項6に記載の歩行支援装置を提供する。
請求項8に記載の発明では、前記検出手段は、現在位置が立入禁止領域であることを通知する立入禁止領域情報を受信することにより立入禁止領域であることを検出することを特徴とする請求項6に記載の歩行支援装置を提供する。
請求項9に記載の発明では、前記領域判断手段で現在位置が立入制限領域内であると判断した場合に、歩行支援対象者に警告する警告手段を具備したことを特徴とする請求項1から請求項6までのうちの何れか1の請求項に記載の歩行支援装置を提供する。
請求項10に記載の発明では、歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援機能と、現在位置が立入制限領域であるか否かを判断する領域判断機能と、前記領域判断機能で現在位置が立入制限領域であると判断された場合に、前記歩行支援機能の制御に介入するか否かを判断する介入判断機能と、前記介入判断機能に従って前記歩行支援機能の制御に介入する介入機能と、をコンピュータで実現する歩行支援プログラムを提供する。
In the first aspect of the present invention, walking support means for supporting walking by applying a force to the foot of the walking support target person, area determination means for determining whether or not the current position is an access restriction area, An intervention determination means for determining whether or not to intervene in the control of the walking support means when the current position is determined to be an access restriction area by the area determination means; and the walking support means according to the intervention determination means. There is provided a walking support device characterized by comprising intervention means for intervening in control.
In the invention according to
According to a third aspect of the present invention, there is provided the walking support apparatus according to the first or second aspect, wherein the intervention means stops the advance by the walking support means.
The invention according to claim 4 is characterized in that the intervention means causes the walking support means to assist the guidance to be guided outside the access restriction area. A walking support device is provided.
According to a fifth aspect of the present invention, there is provided storage means for storing a walking route, and the intervention means is allowed to walk outside the access restriction area along the stored walking route. Provided is a walking support device.
According to a sixth aspect of the invention, there is provided detection means for detecting whether or not the restricted entry area is a restricted entry area from the state of the walking surface in the restricted entry area, wherein the intervention determining means includes the restricted entry area. The walking support device according to any one of claims 1 to 5, wherein it is determined to intervene when it is detected that the region is a restricted entry region.
According to a seventh aspect of the present invention, there is provided the walking support apparatus according to the sixth aspect, wherein the detecting means detects whether or not it is a restricted entry area based on image data obtained by imaging the walking surface. To do.
The invention according to claim 8 is characterized in that the detecting means detects a restricted area by receiving restricted entry area information notifying that the current position is a restricted entry area. A walking support device according to Item 6, is provided.
The invention according to claim 9 further comprises warning means for warning the walking support target when the area determination means determines that the current position is within the access restriction area. A walking support device according to any one of claims up to claim 6 is provided.
In the invention of
本発明は、歩行支援制御に介入することにより、装着者の意図にかかわらず、適切な歩行支援を行うことができる。 The present invention can perform appropriate walking support regardless of the wearer's intention by intervening in walking support control.
(1)実施形態の概要
図1は、本実施の形態の概要を説明するための図である。
装着者は、装着型ロボット1を装着して駅のホーム70の上を歩行し、装着型ロボット1は、装着者の歩行を支援している。
ホーム70の破線から端部よりの領域には、危険領域80が設定されている。
危険領域80の上部には、照明100、100、…が設置されており、照明100の発する照明光には、危険領域を示す危険領域情報が含まれている。
(1) Outline of Embodiment FIG. 1 is a diagram for explaining the outline of the present embodiment.
The wearer wears the wearable robot 1 and walks on the
A
.. Are installed above the
装着型ロボット1は、危険領域情報を受信することにより、現在位置が危険領域80であることを認識し、画像認識によって前方の状態を確認する。
画像認識によって、ホームの端部の段差が検出された場合、装着型ロボット1は、装着者の前進を阻止する。
The wearable robot 1 recognizes that the current position is the
When a step at the end of the home is detected by image recognition, the wearable robot 1 prevents the wearer from moving forward.
更に、危険領域80に侵入した経路を逆に辿るなどして危険領域80の外部に移動するように歩行支援することも可能である。
このように、装着型ロボット1は、装着者の判断力の衰えなどで装着者が不適切な方向に歩行しようとした場合、歩行支援制御に強制的に介入して適切な歩行支援を行うことができる。
Furthermore, it is also possible to assist walking so that the user moves to the outside of the
As described above, when the wearer tries to walk in an inappropriate direction due to a decline in the judgment power of the wearer, the wearable robot 1 forcibly intervenes in the walking support control and performs appropriate walking support. Can do.
(2)実施形態の詳細
図2(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、装着者の腰部及び下肢に装着し、装着者の歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
(2) Details of Embodiment FIG. 2A is a diagram showing a mounting state of the mounting robot 1.
The wearable robot 1 is worn on the waist and lower limbs of the wearer to assist (assist) the wearer's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.
装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、撮像カメラ5と光源装置4を保持する撮像ユニット9、無線通信装置10、ナビゲーション装置12などを備えている。
腰部装着部7は、装着型ロボット1を装着者の腰部に固定する固定装置である。腰部装着部7は、装着者の腰部と一体となって移動する。
また、腰部装着部7は、歩行アクチュエータ17(図2(b))を備えており、装着者の歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a waist attachment unit 7, a
The waist mounting portion 7 is a fixing device that fixes the wearable robot 1 to the waist of the wearer. The waist mounting portion 7 moves integrally with the wearer's waist.
The waist mounting portion 7 includes a walking actuator 17 (FIG. 2B), and drives the connecting portion 8 in the front-rear direction according to the walking motion of the wearer.
連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、装着者の下肢に装着され、歩行アクチュエータ17により前後方向などに駆動されて装着者の足部に力を作用させることにより装着者の歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting part 8 connects the waist mounting part 7 and the
The
The walking support by the waist mounting portion 7, the connecting portion 8, and the
3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、前進方向、鉛直方向、体側方向の軸の周りの回転角度、角速度、角加速度などを検知することができる。
なお、前進方向の軸の周りの角度をロール角、鉛直方向の軸の周りの角度をヨー角、体側方向の軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the waist mounting portion 7 and detects the posture of the waist mounting portion 7 and the like. The triaxial sensor 3 includes, for example, a triaxial angular velocity detection function and a triaxial angular acceleration detection function using a three-dimensional gyro, and the rotation angle, angular velocity, and angular acceleration around the forward, vertical, and body-side axes. Can be detected.
The angle around the forward axis is the roll angle, the angle around the vertical axis is the yaw angle, and the angle around the body-side axis is the pitch angle.
3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させる。
The triaxial actuator 6 is configured by, for example, a spherical motor, and changes the roll angle, yaw angle, and pitch angle of the imaging unit 9 in which the
The light source device 4 and the
撮像ユニット9で適切な画像を撮像するためには、撮像ユニット9を所定の角度で歩行面(地面や床面など、装着者が歩行する面)に向ける必要があるが、装着者が装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。 In order to capture an appropriate image with the imaging unit 9, it is necessary to point the imaging unit 9 at a predetermined angle on a walking surface (a surface on which the wearer walks, such as a ground surface or a floor surface). When the robot 1 is mounted, the imaging unit 9 is inclined depending on the mounted state, and this is corrected by the triaxial actuator 6.
光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点など各種の形状が可能である。 The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 emits light in a shape pattern that is circular with respect to a plane perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, and a dot are possible.
撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行面の成す角度や、歩行面に存在する障害物(段差など)により円形から変形した(歪んだ)形状となるが、この形状を解析することにより前方に存在する段差を検知することができる。
The
The projection image by the light emitted by the light source device 4 in a predetermined shape pattern has a shape deformed (distorted) from a circle due to an angle formed by the irradiation direction and the walking surface, or an obstacle (such as a step) existing on the walking surface. However, it is possible to detect a step existing ahead by analyzing this shape.
無線通信装置10は、歩行アクチュエータ17のつま先に設置されており、照明100の照明光に含まれる危険領域情報を受信する。これにより、装着型ロボット1は、現在位置が危険領域であることを認識する。
なお、歩行アクチュエータ17をつま先に設置したのは、体側などの影になって照明100の光が遮られるのを防ぐためである。
The
The reason why the walking
ここで、無線通信に照明光を用いたのは、情報を受信する箇所を照明領域に限定する(スポット化する)ことができるほか、通常、ホーム70の端部には安全のため照明が設置されており、これを利用すると無線通信のための新たな設備投資を低減することができるためである。
なお、照明光を用いず、通常の電波を用いた無線通信とすることも可能である。
Here, the use of illumination light for wireless communication allows the location where information is received to be limited to the illumination area (spots), and usually lighting is installed at the end of the
Note that wireless communication using normal radio waves may be used without using illumination light.
ナビゲーション装置12は、GPS(Global Positioning Systems)衛星からのGPS信号を受信したり、所定のサーバと通信したりして装着者の現在位置を特定したり、経路探索したり、現在位置までの歩行経路を記録したりなどのナビゲーション機能を有している。
装着型ロボット1は、ナビゲーション装置12によって現在位置が危険領域80であることを検出することも可能である。
The
The wearable robot 1 can also detect that the current position is the
図2(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
FIG. 2B is a diagram for explaining the mounting
The wearing
ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。 The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.
CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、危険領域80の検出、段差の画像認識、危険領域80での前進の阻止、及び強制的な歩行制御を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3、無線通信装置10、及びナビゲーション装置12とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したり、無線通信装置10から危険領域情報を取得したり、ナビゲーション装置12から装着者の現在位置や歩行経路を取得したりする。
The CPU executes various computer programs stored in the storage medium, and performs detection of the
The CPU is connected to the light source device 4, the
ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、危険領域80での歩行制御を行うためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for performing walking control in the
記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、光源装置4の投影像を解析してホーム70の端部の段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、現在までの歩行経路や歩容(装着型ロボット1の各種センサや歩行アクチュエータ17の動きなどから取得する)を記憶するためのアーカイブなどを記憶している。
The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and analyzes the projection image of the light source device 4 to recognize a step at the end of the
歩行アクチュエータ17は、ECU16からの指令に基づいて歩行アシスト部2を駆動する。
装着型ロボット1が、股関節、膝関節、足首関節などを有する多関節の場合は、各関節に歩行アクチュエータ17が備えられており、ECU16は、これらを個別に制御することにより、装着型ロボット1に一体として歩行支援動作を行わせる。
The walking
When the wearable robot 1 is a multi-joint having a hip joint, a knee joint, an ankle joint, or the like, a walking
図2(c)は、照明100の構成を説明するための図である。
照明100は、PLC(Programmable Logic Controler)51、CPU52、ROM53、及び発光ダイオード55などから構成されている。
PLC51は、記憶媒体であって、照明100の設置後にプログラムを書き込むことができる。本実施の形態では、照明100の照明光を危険情報で変調するためのプログラムが書き込まれている。
FIG. 2C is a diagram for explaining the configuration of the
The
The
CPU52は、PLC51のプログラムに従って、照明光を危険情報で変調する。これにより、照明光に危険情報が重畳される。
ROM53は、取付位置、注意事項、ガイド情報などを記憶しており、設備側が設置や保守のためなどに使用する。
発光ダイオード55は、危険情報で変調された照明光を発光する。
The
The
The
図3(a)は、撮像ユニット9で段差を検出する方法を説明するための図である。
装着型ロボット1は、光源装置4を用いて装着者の前進方向の下方に所定形状パターンの光を照射し、その投影像を撮像カメラ5で撮影する。
ここでは、歩行面41よりも低い位置に下る段差40が存在するとし、光源装置4の光による像が段差40に投影される。
FIG. 3A is a diagram for explaining a method of detecting a step with the imaging unit 9.
The wearable robot 1 uses the light source device 4 to irradiate light of a predetermined shape pattern downward in the wearer's forward direction, and captures the projected image with the
Here, it is assumed that there is a
図3(b)は、撮像カメラ5で撮像した光源装置4による投影像26の画像の一例である。
なお、画面フレーム31の装着者に近い側を下端、前進側を上端としている。
本実施の形態では、光源装置4は円形断面の光を前進方向斜め下方に照射するため、歩行面が平面の場合、投影像26は、前進方向を長軸とする楕円形となる。
ところが、投影像26内に段差が存在すると、投影像26が本来あるべき楕円形から歪み、画像認識によって当該歪みを検出することによって段差を検知することができる。
FIG. 3B is an example of an image of the
The side closer to the wearer of the
In the present embodiment, since the light source device 4 irradiates light with a circular cross section obliquely downward in the forward direction, when the walking surface is a plane, the
However, if there is a step in the
下り段差の場合、投影像26は、段差の向こう側で広がるため、投影像26の上端側が広がることにより、下りの段差40を認識することができる。
また、段差40の落差が大きいほど、投影像26の上端側の幅が広がり、ある程度以上落差が大きくなると、上端側が撮像されなくなるため、投影像26の上端側の状態から落差の大きさを推定することができる。
In the case of a downward step, the projected
In addition, the larger the drop of the
これにより、装着型ロボット1は、危険領域80内において画像認識で段差40を検出してホーム70の端部を検出することができるほか、一般の段差40においても落差が歩行できる程度のものか否かを判断することができる。
更に、画面フレーム31の下端から投影像26の下端までの距離を用いて段差までの距離を計測することも可能である。
Thus, the wearable robot 1 can detect the
Further, it is possible to measure the distance to the step using the distance from the lower end of the
加えて、ホームに列車が入線してドアが開いている場合の投影像26など、各場面での投影像26を記憶しておき、これを撮像カメラ5が撮像した投影像26とマッチングすることにより、装着者のおかれた状況を認識するように構成することもできる。
これにより、ホームの端部であって列車が入線していない場合は立入不可と判断して装着者の前進を阻止し、ホームの端部であって列車が入線している場合は立入可能と判断して装着者の歩行を支援するなど、同じ危険領域80内であっても、状況に応じた制御が可能となる。
In addition, the
As a result, if the train is not at the end of the platform, it is determined that it is impossible to enter, and the wearer is prevented from moving forward.If the train is at the end of the platform, the entry is permitted. Even within the same
図4は、装着型ロボット1が危険領域80で歩行支援制御に強制介入する手順を説明するためのフローチャートである。
以下の処理は、ECU16のCPUが所定のプログラムに従って行うものである。
また、以下の処理は、駅のホームに限定せず、歩行不可能な段差が存在する危険領域80で適用可能である。
FIG. 4 is a flowchart for explaining a procedure in which the wearable robot 1 forcibly intervenes in the walking support control in the
The following processing is performed by the CPU of the
Further, the following processing is not limited to the platform of the station, and can be applied in the
まず、CPUは、無線通信装置10で照明100から送信される情報を受信することにより、現在位置が設備側通信範囲内であるか否かを判断し、判断結果をRAMに記憶する(ステップ5)。
より詳細には、CPUは、照明100から送信される情報を受信した場合には、設備側通信範囲内であると判断し、受信しない場合には、設備側通信範囲内でないと判断する。
First, the CPU determines whether or not the current position is within the equipment communication range by receiving information transmitted from the
More specifically, when receiving information transmitted from the
次に、RAMに記憶した判断結果が、設備側通信範囲内でないという判断であった場合(ステップ5;N)、CPUは、ステップ5に戻る。
一方、RAMに記憶した判断結果が設備側通信範囲内であるという判断であった場合(ステップ5;Y)、CPUは、RAMに記憶した情報を解析して現在位置が危険領域であるか否かを判断し、判断結果をRAMに記憶する(ステップ15)。
Next, when it is determined that the determination result stored in the RAM is not within the equipment communication range (
On the other hand, when it is determined that the determination result stored in the RAM is within the equipment side communication range (
より詳細には、CPUは、RAMに記憶した情報が危険領域情報であった場合には、現在位置が危険領域であると判断し、危険領域情報でない場合には、現在位置が危険領域でないと判断する。
なお、照明100が送信する情報で危険領域情報でないものには、例えば、前方にエスカレータが存在することを知らせる情報や、周辺地図情報など、装着型ロボット1による歩行支援を助ける各種の情報がある。
More specifically, the CPU determines that the current position is a dangerous area when the information stored in the RAM is dangerous area information. If the information is not dangerous area information, the CPU determines that the current position is not a dangerous area. to decide.
Note that information transmitted by the
RAMに記憶した判断結果が、危険領域情報でないとの判断であった場合(ステップ15;N)、CPUは、処理を終了する。
一方、RAMに記憶した判断結果が危険領域情報であるとの判断であった場合(ステップ15;Y)、CPUは、撮像ユニット9を駆動して前方に光を照射し、その投影像の画像データをRAMに記憶する。
When it is determined that the determination result stored in the RAM is not dangerous area information (
On the other hand, when it is determined that the determination result stored in the RAM is the dangerous area information (
次に、CPUは、RAMに記憶した画像データを画像認識することにより、前方の歩行面の形状を認識して、認識結果をRAMに記憶する(ステップ20)。
ここでは、CPUは、一例として、前方に存在する段差の有無と当該段差の高さを認識してRAMに記憶する。
Next, the CPU recognizes the shape of the front walking surface by recognizing the image data stored in the RAM, and stores the recognition result in the RAM (step 20).
Here, as an example, the CPU recognizes the presence or absence of a step existing in front and the height of the step and stores it in the RAM.
次に、CPUは、RAMに記憶した認識結果を用いて危険領域80が立入不可の危険領域であるか否かを判断する(ステップ25)。
より詳細には、CPUは、段差がない場合、及び、段差は存在するがその高さが所定値未満である場合(歩行可能な段差の場合)には、立入不可の危険領域でないと判断し、段差が存在し、その高さが所定値以上である場合(歩行不可な段差の場合)には、立入不可の領域であると判断する。
Next, the CPU uses the recognition result stored in the RAM to determine whether or not the
More specifically, the CPU determines that it is not a dangerous area that is not accessible when there is no step and when there is a step but its height is less than a predetermined value (in the case of a step that can be walked). When there is a step and its height is equal to or higher than a predetermined value (in the case of a step that cannot be walked), it is determined that the region is inaccessible.
次に、RAMに記憶した判断結果が立入不可の危険領域であるとの判断であった場合(ステップ25;Y)、CPUは、歩行アクチュエータ17の制御に強制介入して装着者の前進を阻止し(ステップ30)、ステップ5に戻る。
Next, when it is determined that the determination result stored in the RAM is an inaccessible danger area (step 25; Y), the CPU forcibly intervenes in the control of the walking
なお、この際に、前進を阻止するのみならず、装着者を危険領域外に誘導して退避させるようにプログラムを構成することもできる。
また、装着者を危険領域外に退避させるに際して、予め装着者の歩行経路をナビゲーション装置12によって検知してECU16の記憶装置に記憶しておき、その経路を逆に辿るトレースバック経路を計算して誘導するようにプログラムを構成することもできる。
At this time, the program can be configured not only to prevent advancement but also to guide the wearer out of the danger area and evacuate.
Further, when the wearer is withdrawn from the dangerous area, the wearer's walking route is detected in advance by the
一方、RAMに記憶した判断結果が立入不可の危険領域でないとの判断であった場合(ステップ25;N)、CPUは、装着者によって危険領域警告が設定されているか否かを判断する(ステップ35)。危険領域警告は、予め装着者が設定してECU16の記憶装置に記憶されており、CPUは、これを確認して判断する。
On the other hand, if the determination result stored in the RAM is that the dangerous area is not accessible (step 25; N), the CPU determines whether or not a dangerous area warning is set by the wearer (step 25). 35). The danger area warning is set in advance by the wearer and stored in the storage device of the
危険領域警告が設定されてる場合(ステップ35;Y)、CPUは、音声出力装置などに警告を発せさせて(ステップ40)、処理を終了し、危険領域警告が設定されていない場合(ステップ35;N)、CPUは、処理を終了する。
When the dangerous area warning is set (
以上の例では、装着型ロボット1が危険領域にて歩行支援に強制介入する一般的な場合を説明したが、危険領域が駅のホームの端部領域である場合に適用すると次のようになる。
まず、装着者がホームの端部領域に侵入すると、装着型ロボット1は、ステップ15で危険領域にいると判断する。
次に、装着型ロボット1は、ステップ20による段差の有無の判断によって、ホームに列車が入線しているか否かを判断する。
In the above example, the general case where the wearable robot 1 forcibly intervenes in walking support in the dangerous area has been described. However, when the dangerous area is an end area of the platform of the station, the following applies. .
First, when the wearer enters the end area of the home, the wearable robot 1 determines in
Next, the wearable robot 1 determines whether a train has entered the platform by determining whether there is a step in step 20.
ホームに列車が入線していない場合、装着型ロボット1は、ステップ25で立入不可の危険領域にいると判断し、ステップ30で制御に強制介入して前進を阻止する。
一方、ホームに列車が入線している場合、装着型ロボット1は、ステップ25で立入不可の危険領域でないと判断し、装着者が列車に乗車する歩行を支援する。この際、装着者の設定により警告を発したりする。
If the train is not on the platform, the wearable robot 1 determines in step 25 that it is in an inaccessible danger area, and forcibly intervenes in control in step 30 to prevent advancement.
On the other hand, when the train is in the platform, the wearable robot 1 determines that the dangerous area is not allowed to enter in step 25, and assists the walking where the wearer gets on the train. At this time, a warning is issued depending on the setting of the wearer.
なお、装着型ロボット1は、例えば、ホームに列車が入線している場合の投影像26のパターンを予め記憶装置に記憶しており、これに撮像した投影像26をマッチングすることによりホームに列車が入線していることを認識する。
The wearable robot 1 stores, for example, a pattern of a
図5は、装着型ロボット1が危険領域80で歩行支援制御に強制介入する手順の変形例を説明するためのフローチャートである。
この例では、装着型ロボット1は、駅のホームで装着者の歩行支援に強制介入する。また、照明100が送信する危険領域情報には、列車がホームに入線しているか否かを示す列車入線情報が含まれている。
FIG. 5 is a flowchart for explaining a modified example of the procedure in which the wearable robot 1 forcibly intervenes in the walking support control in the
In this example, the wearable robot 1 forcibly intervenes in the walking support of the wearer at the station platform. Further, the dangerous area information transmitted by the
まず、CPUは、無線通信装置10で照明100から送信される情報を受信することにより、現在位置が設備側通信範囲内であるか否かを判断し、判断結果をRAMに記憶する(ステップ50)。
より詳細には、CPUは、照明100から送信される情報を受信した場合には、設備側通信範囲内であると判断し、受信しない場合には、設備側通信範囲内でないと判断する。
First, the CPU determines whether or not the current position is within the equipment-side communication range by receiving information transmitted from the
More specifically, when receiving information transmitted from the
次に、RAMに記憶した判断結果が、設備側通信範囲内にいないという判断であった場合(ステップ50;N)、CPUは、ステップ50に戻る。
一方、RAMに記憶した判断結果が設備側通信範囲内にいるという判断であった場合(ステップ50;Y)、CPUは、RAMに記憶した情報を解析して列車が入線しているか否かを判断し、判断結果をRAMに臆する(ステップ55)。
より詳細には、CPUは、RAMに記憶した危険領域情報に含まれる列車入線情報を解析することによりホームに列車が入線しているか否かを判断する。
Next, when it is determined that the determination result stored in the RAM is not within the facility-side communication range (step 50; N), the CPU returns to step 50.
On the other hand, if the determination result stored in the RAM is a determination that it is within the equipment-side communication range (step 50; Y), the CPU analyzes the information stored in the RAM and determines whether or not the train is on line. Judgment is made and the judgment result is stored in the RAM (step 55).
More specifically, the CPU determines whether a train has entered the home by analyzing train entry information included in the dangerous area information stored in the RAM.
RAMに記憶した判断結果が、列車が入線していないとの判断であった場合(ステップ55;N)、CPUは、現在位置が立入不可の危険領域であると判断し(ステップ60)、トレースバック経路を計算してRAMに記憶する(ステップ65)。トレースバック経路は、図4で説明したものと同じである。
次に、CPUは、歩行アクチュエータ17の制御に強制介入し、トレースバック経路に沿って逆戻りするように装着者の第一歩目以降を制御する(ステップ70)。
If the determination result stored in the RAM is a determination that the train has not entered (
Next, the CPU forcibly intervenes in the control of the walking
CPUは、装着者の第一歩目以降について歩行アクチュエータ17を制御しつつ、照明100からの情報を受信することによって現在位置が設備側通信範囲内か否かを判断し(ステップ75)、設備側通信範囲内である場合には(ステップ75;Y)、ステップ55に戻り、設備側通信範囲内でない場合には(ステップ75;N)、強制的な制御を解放して処理を終了する(ステップ80)。
なお、列車が入線していないと判断した場合(ステップ55;Y)、CPUは、ステップ75に移行すると共に、歩行アクチュエータ17の制御への強制介入はせず、装着者の歩行を支援する。
The CPU determines whether or not the current position is within the equipment communication range by receiving information from the
If it is determined that the train is not connected (
このように、本変形例では、画像認識を用いずとも、危険領域情報に付随する列車入線情報によって列車の入線の有無を判断することにより、列車が入線していない場合は、危険領域80を立入不可の危険領域と判断し、列車が入線している場合は、危険領域80を立入不可の危険領域でないと判断することができる。
Thus, in this modification, without using image recognition, by determining whether or not a train has been entered based on the train entry information that accompanies the dangerous area information, if the train has not entered, the
以上に説明した実施の形態により、次の効果を得ることができる。
(1)装着型ロボット1は、装着者が、危険な領域に入り込んだ場合に、装着者の歩行意図に関係なく歩行アクチュエータ17を強制的に制御することができる。
(2)装着型ロボット1は、照明100からの通信によって装着者が危険領域80にいるか否かを判断することができ、例えば、画像認識によって前方が立入不可であった場合や、危険領域80が列車が入線していないことによるものであった場合に歩行アクチュエータ17を強制的に制御することができる。
(3)装着型ロボット1は、例えば、トレースバックさせるなどして装着者を危険領域から退出させることができる。
(4)装着型ロボット1は、危険回避のために歩行支援に強制的に介入するため、装着者の判断力や運動能力が衰えている場合であっても、装着者の歩行を適切にアシストすることができる。
According to the embodiment described above, the following effects can be obtained.
(1) When the wearer enters a dangerous area, the wearable robot 1 can forcibly control the walking
(2) The wearable robot 1 can determine whether or not the wearer is in the
(3) The wearable robot 1 can cause the wearer to leave the danger area, for example, by performing a traceback.
(4) Since the wearable robot 1 forcibly intervenes in walking support in order to avoid danger, even when the wearer's judgment and exercise ability are weakened, the wearable robot 1 appropriately assists the walking of the wearer. can do.
以上に説明した実施の形態により、次の構成を提供することができる。
装着型ロボット1は、歩行アシスト部2や連結部8によって装着者を支援するため、歩行支援対象者(装着者)の足部に力を作用させて歩行を支援する歩行支援手段を備えている。
また、駅のホームの危険領域80は、立入制限領域として機能し、装着型ロボット1は、照明100からの危険領域情報によって、現在位置が危険領域であるか否か判断するため、現在位置が立入制限領域であるか否かを判断する領域判断手段を備えている。
また、装着型ロボット1は、危険領域80が立入不可の危険領域であるか否かによって歩行アクチュエータ17の制御に介入するか否かを判断するため、前記領域判断手段で現在位置が立入制限領域であると判断された場合に、前記歩行支援手段の制御に介入するか否かを判断する介入判断手段を備えている。
また、装着型ロボット1は、介入が必要と判断した場合には、歩行制御に強制介入するため、前記介入判断手段に従って前記歩行支援手段の制御に介入する介入手段を備えている。
The following configurations can be provided by the embodiment described above.
The wearable robot 1 includes walking support means for supporting walking by applying a force to the foot of a walking support target person (wearer) in order to assist the wearer with the walking assist
Further, the
The wearable robot 1 determines whether or not to intervene in the control of the walking
In addition, the wearable robot 1 includes an intervention unit that intervenes in the control of the walking support unit according to the intervention determination unit in order to forcibly intervene in the walking control when it is determined that intervention is necessary.
装着型ロボット1は、照明100から危険領域情報を受信して現在位置が危険領域か否かを判断するため、現在位置が立入制限領域であるか否かを通知する立入制限領域情報(危険領域情報に相当)を受信する受信手段を備え、前記領域判断手段は、前記受信した立入制限領域情報を用いて現在位置が立入制限領域であるか否かを判断している。
The wearable robot 1 receives the dangerous area information from the
また、装着型ロボット1は、歩行支援制御に強制的に介入する場合、装着者の前進を阻止して停止させるため、前記介入手段は、前記歩行支援手段による前進を停止させている。 Further, when the wearable robot 1 forcibly intervenes in the walking support control, the intervention means stops the advance by the walking support means in order to prevent and stop the wearer from moving forward.
また、装着型ロボット1は、危険領域80が立入不可の危険領域であった場合、装着者を危険領域80の外部に退出するように装着者の歩行を誘導するため、前記介入手段は、前記歩行支援手段に前記立入制限領域外に強制的に誘導するように支援させている。
The wearable robot 1 guides the wearer to walk out of the
また、装着型ロボット1は、ナビゲーション装置12によって装着者の歩行経路を検出して記憶装置に記憶し、これを用いてトレースバック経路を計算して装着者を逆戻りさせるため、歩行経路を記憶する記憶手段を備え、前記介入手段は、前記記憶した歩行経路に沿って前記立入制限領域外に歩行させている。
In addition, the wearable robot 1 detects the walking route of the wearer by the
また、装着型ロボット1は、撮像ユニット9によって前方の歩行面の状態を撮像して画像認識することにより立入不可の危険領域であるか否かを判断し、立入不可の危険領域である場合に介入制御するため、前記立入制限領域における歩行面の状態から前記立入制限領域が立入禁止領域(立入不可の危険領域に相当)であるか否かを検出する検出手段を備え、前記介入判断手段は、前記立入制限領域が立入禁止領域であると検出された場合に介入すると判断している。 Also, the wearable robot 1 determines whether or not it is an inaccessible danger area by imaging the state of the front walking surface with the imaging unit 9 and recognizing the image. In order to perform intervention control, it comprises detection means for detecting whether or not the restricted entry area is a restricted entry area (corresponding to a restricted entry dangerous area) from the state of the walking surface in the restricted entry area, When it is detected that the restricted entry area is a restricted entry area, it is determined to intervene.
装着型ロボット1は、例えば、画像データから段差を認識することにより立入不可の危険領域であるか否かを判断するため、前記検出手段は、前記歩行面を撮像した画像データによって立入禁止領域であるか否かを検出している。 For example, the wearable robot 1 recognizes a step from the image data to determine whether or not it is an inaccessible danger area. For this reason, the detection means uses the image data obtained by capturing the walking surface in the inaccessible area. Whether or not there is detected.
また、変形例において、装着型ロボット1は、照明100から列車入線情報を受信して列車が入線しているか否かを判断し、列車が入線していない場合は立入不可の危険領域80と判断して退出し、列車が入線している場合は立入不可の危険領域80と判断せずに装着者の意図による歩行を支援するため、前記検出手段は、現在位置が立入禁止領域であることを通知する立入禁止領域情報(列車入線情報に相当)を受信することにより立入禁止領域であることを検出している。
Moreover, in the modification, the wearable robot 1 receives the train entry information from the
また、装着型ロボット1は、危険領域80が立入不可の危険領域でない場合、装着者に警報音を発するなどして警告することができるため、前記領域判断手段で現在位置が立入制限領域内であると判断した場合に、歩行支援対象者に警告する警告手段を備えている。
Further, since the wearable robot 1 can warn the wearer by making an alarm sound or the like when the
また、装着型ロボット1は、ECU16の記憶装置に、歩行支援対象者の足部に力を作用させて歩行を支援する歩行支援機能と、現在位置が立入制限領域であるか否かを判断する領域判断機能と、前記領域判断機能で現在位置が立入制限領域であると判断された場合に、前記歩行支援機能の制御に介入するか否かを判断する介入判断機能と、前記介入判断機能に従って前記歩行支援機能の制御に介入する介入機能と、をコンピュータで実現する歩行支援プログラムを記憶している。
Further, the wearable robot 1 determines a walking support function for supporting walking by applying a force to the foot of the walking support target in the storage device of the
1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
10 無線通信装置
12 ナビゲーション装置
15 装着ロボットシステム
16 ECU
17 歩行アクチュエータ
26 投影像
31 画面フレーム
40 段差
41 歩行面
51 PLC
52 CPU
53 ROM
55 発光ダイオード
70 ホーム
80 危険領域
100 照明
DESCRIPTION OF SYMBOLS 1
17
52 CPU
53 ROM
55
Claims (10)
現在位置が立入制限領域であるか否かを判断する領域判断手段と、
前記領域判断手段で現在位置が立入制限領域であると判断された場合に、前記歩行支援手段の制御に介入するか否かを判断する介入判断手段と、
前記介入判断手段に従って前記歩行支援手段の制御に介入する介入手段と、
を具備したことを特徴とする歩行支援装置。 Walking support means for supporting walking by applying a force to the foot of the walking support target;
Area determination means for determining whether or not the current position is an access restriction area;
An intervention determination means for determining whether or not to intervene in the control of the walking support means when it is determined by the area determination means that the current position is an access restriction area;
Intervention means for intervening in the control of the walking support means according to the intervention determination means;
A walking support device characterized by comprising:
前記領域判断手段は、前記受信した立入制限領域情報を用いて現在位置が立入制限領域であるか否かを判断することを特徴とする請求項1に記載の歩行支援装置。 Comprising receiving means for receiving access restriction area information for notifying whether or not the current position is an access restriction area;
The walking support device according to claim 1, wherein the area determination unit determines whether or not a current position is an access restriction area using the received entry restriction area information.
前記介入手段は、前記記憶した歩行経路に沿って前記立入制限領域外に歩行させることを特徴とする請求項4に記載の歩行支援装置。 Comprising storage means for storing the walking route;
The walking support apparatus according to claim 4, wherein the intervention means causes the walking to walk outside the access restriction area along the stored walking route.
前記介入判断手段は、前記立入制限領域が立入禁止領域であると検出された場合に介入すると判断することを特徴とする請求項1から請求項5までのうちの何れか1の請求項に記載の歩行支援装置。 Comprising detection means for detecting whether or not the restricted area is a restricted area from the state of the walking surface in the restricted area;
The said intervention judgment means judges that it intervenes when it detects that the said access restriction area | region is an entry prohibition area | region, The claim in any one of Claim 1 to 5 characterized by the above-mentioned. Walking support device.
現在位置が立入制限領域であるか否かを判断する領域判断機能と、
前記領域判断機能で現在位置が立入制限領域であると判断された場合に、前記歩行支援機能の制御に介入するか否かを判断する介入判断機能と、
前記介入判断機能に従って前記歩行支援機能の制御に介入する介入機能と、
をコンピュータで実現する歩行支援プログラム。 A walking support function that supports walking by applying force to the foot of the target person for walking support;
An area determination function for determining whether or not the current position is an access restriction area;
An intervention determination function for determining whether or not to intervene in the control of the walking support function when the current position is determined to be an access restriction area by the area determination function;
An intervention function for intervening in the control of the walking support function according to the intervention determination function;
A walking support program that uses a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010265193A JP2012115314A (en) | 2010-11-29 | 2010-11-29 | Walking support device and walking support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010265193A JP2012115314A (en) | 2010-11-29 | 2010-11-29 | Walking support device and walking support program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012115314A true JP2012115314A (en) | 2012-06-21 |
Family
ID=46498941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010265193A Pending JP2012115314A (en) | 2010-11-29 | 2010-11-29 | Walking support device and walking support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012115314A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014061269A1 (en) * | 2012-10-16 | 2014-04-24 | 株式会社ニコン | Muscular strength assisting device |
JP2015093188A (en) * | 2013-11-08 | 2015-05-18 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Walk-assistive robot and method of controlling walk-assistive robot |
JP2018130439A (en) * | 2017-02-17 | 2018-08-23 | ナブテスコ株式会社 | Movement assist device, management device, movement assist system, control method for movement assist device, and support method for movement assist device |
JP2023112229A (en) * | 2022-02-01 | 2023-08-14 | M・S・K株式会社 | Remote management system |
-
2010
- 2010-11-29 JP JP2010265193A patent/JP2012115314A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014061269A1 (en) * | 2012-10-16 | 2014-04-24 | 株式会社ニコン | Muscular strength assisting device |
EP2910229A4 (en) * | 2012-10-16 | 2016-08-03 | Nikon Corp | Muscular strength assisting device |
JPWO2014061269A1 (en) * | 2012-10-16 | 2016-09-05 | 株式会社ニコン | Strength aids |
JP2015093188A (en) * | 2013-11-08 | 2015-05-18 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Walk-assistive robot and method of controlling walk-assistive robot |
JP2018130439A (en) * | 2017-02-17 | 2018-08-23 | ナブテスコ株式会社 | Movement assist device, management device, movement assist system, control method for movement assist device, and support method for movement assist device |
JP2023112229A (en) * | 2022-02-01 | 2023-08-14 | M・S・K株式会社 | Remote management system |
JP7477093B2 (en) | 2022-02-01 | 2024-05-01 | M・S・K株式会社 | Remote Management System |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5526942B2 (en) | Robot apparatus, control method and program for robot apparatus | |
US7702420B2 (en) | Method for making mobile unit accompany objective person | |
US20190049955A1 (en) | Driver state recognition apparatus, driver state recognition system, and driver state recognition method | |
JP4440174B2 (en) | Mobile object subject accompaniment method and mobile object subject accompaniment apparatus | |
US10010301B2 (en) | Mobile X-ray imaging device | |
CN109963745B (en) | Notification device, autonomous vehicle, notification method, program, non-transitory recording medium, and notification system | |
JP5077017B2 (en) | Driving support device and pedestrian detection device | |
KR100854653B1 (en) | Localization system of the mobile robot using the charging station | |
US20190047417A1 (en) | Driver state recognition apparatus, driver state recognition system, and driver state recognition method | |
JP5035802B2 (en) | Robot and task execution system | |
JP2007160438A (en) | Legged mobile robot | |
JP2000153476A (en) | Leg type movable robot | |
JP2007199965A (en) | Autonomous mobile device | |
JP2012115314A (en) | Walking support device and walking support program | |
JP2009294753A (en) | Image processor and image processing method | |
WO2016039158A1 (en) | Mobile body control device and mobile body | |
JP2009174898A (en) | Moving body and environmental information generation method | |
JP2008186097A (en) | Autonomous moving system | |
JP2009176031A (en) | Autonomous mobile body, autonomous mobile body control system and self-position estimation method for autonomous mobile body | |
JP5633166B2 (en) | Robot and control method thereof | |
JP2007152472A (en) | Charging system, charging station and robot guidance system | |
JP2007190654A (en) | Leg-wheel robot | |
JP2012200318A (en) | Walking assist device and walking assist program | |
JP2012117833A (en) | Image recognition device, mounting type robot, and image recognition program | |
JP2010198205A (en) | Collision avoidance support device |