JP2015084129A - Guidance robot - Google Patents

Guidance robot Download PDF

Info

Publication number
JP2015084129A
JP2015084129A JP2013221742A JP2013221742A JP2015084129A JP 2015084129 A JP2015084129 A JP 2015084129A JP 2013221742 A JP2013221742 A JP 2013221742A JP 2013221742 A JP2013221742 A JP 2013221742A JP 2015084129 A JP2015084129 A JP 2015084129A
Authority
JP
Japan
Prior art keywords
obstacle
self
propelled body
pedestrian
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013221742A
Other languages
Japanese (ja)
Inventor
功幸 嵯峨山
Isayuki Sagayama
功幸 嵯峨山
和輝 飛田
Kazuteru Hida
和輝 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2013221742A priority Critical patent/JP2015084129A/en
Publication of JP2015084129A publication Critical patent/JP2015084129A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a guidance robot capable of safely guiding a pedestrian having difficulty in autonomous walking.SOLUTION: A distance image sensor 25 is included for detecting an obstacle (upper obstacle) existing in front of a self-propelled body 2 and above an upper end part of the self-propelled body 2 up to the height equivalent to the stature of a pedestrian. When the upper obstacle is detected, obstacle avoidance control is performed for avoiding contact with the obstacle. As the obstacle avoidance control, control for correcting a travel direction of the self-propelled body 2 to a direction for avoiding the obstacle, control for stopping travel off the self-propelled body 2, control for guiding by voice that the obstacle is close to the self-propelled body 2, and the like are performed.

Description

本発明は、自律歩行が困難な歩行者の走行を支援する案内用ロボットに関する。   The present invention relates to a guidance robot that supports the traveling of a pedestrian who is difficult to autonomously walk.

従来の案内用ロボットとしては、例えば特許文献1に記載の技術がある。この技術は、ロボットの頭部に設置したカメラで天井や壁の上部に設置した安全確認用のマークを検出しながら移動し、当該マークを検出しなくなったら移動を停止するものである。
また、他の案内用ロボットとしては、特許文献2に記載の技術がある。この技術は、前方の障害物を検出したとき、その障害物を避けるように移動するものである。
As a conventional guidance robot, for example, there is a technique described in Patent Document 1. This technology moves while detecting a safety confirmation mark installed on the ceiling or wall using a camera installed on the head of the robot, and stops moving when the mark is no longer detected.
As another guidance robot, there is a technique described in Patent Document 2. This technique moves so as to avoid an obstacle when a front obstacle is detected.

特開2010−176203号公報JP 2010-176203 A 特開2006−155039号公報JP 2006-155039 A

しかしながら、上記特許文献1に記載の技術にあっては、天井付近に設置された特定の形状のマークを検出するだけで、操作者の頭部付近の高さにある障害物を検出することはできない。また、上記特許文献2に記載の技術についても、前方の障害物を検出するだけで、操作者の頭部付近の高さにある障害物を検出することはできない。   However, in the technique described in Patent Document 1, it is not possible to detect an obstacle at a height near the operator's head only by detecting a mark with a specific shape installed near the ceiling. Can not. Also, with the technique described in Patent Document 2, it is not possible to detect an obstacle at a height in the vicinity of the operator's head only by detecting an obstacle in front.

このように、各特許文献に記載の技術では、ロボット上端よりも上方にある障害物を検出できないため、操作者の頭部付近の高さに障害物がある場合、ロボットは障害物の下を通過できるが、操作者は通過できずに障害物に接触するおそれがある。特に、目が不自由な人が操作者である場合には、この上方障害物への対策が必要である。
そこで、本発明は、自律歩行が困難な歩行者を安全に案内することができる案内用ロボットを提供することを課題としている。
As described above, the technology described in each patent document cannot detect an obstacle above the upper end of the robot. Therefore, when there is an obstacle near the operator's head, the robot moves under the obstacle. Although it can pass, the operator may not be able to pass and may touch an obstacle. In particular, when the visually impaired person is an operator, it is necessary to take measures against this upward obstacle.
Therefore, an object of the present invention is to provide a guidance robot that can safely guide a pedestrian who is difficult to autonomously walk.

上記課題を解決するために、本発明に係る案内用ロボットの一態様は、歩行者が把持して移動方向を入力する操作入力部と、車輪によって任意の方向に走行可能な自走体と、前記操作入力部で入力された移動方向に基づいて、前記自走体の走行を制御する走行制御部と、前記自走体の前方且つ前記自走体の上端部よりも上方で、前記歩行者の身長と同等の高さまでに存在する障害物を検出する上方障害物検出部と、前記上方障害物検出部で障害物を検出したとき、当該障害物との接触を回避するための障害物回避制御を行う障害物回避制御部と、を備えることを特徴としている。   In order to solve the above problems, an aspect of the guidance robot according to the present invention includes an operation input unit that a pedestrian holds and inputs a moving direction, a self-propelled body that can travel in any direction by wheels, Based on the movement direction input by the operation input unit, a traveling control unit that controls the traveling of the self-propelled vehicle, and the pedestrian in front of the self-propelled vehicle and above the upper end of the self-propelled vehicle. An obstacle detection unit for detecting an obstacle existing up to a height equal to the height of the vehicle, and obstacle avoidance for avoiding contact with the obstacle when the obstacle detection unit detects the obstacle And an obstacle avoidance control unit that performs control.

このように、自走体の前方且つ自走体の上端部よりも上方で、歩行者の身長と同等の高さまでに存在する障害物を検出し、障害物回避制御を行うので、歩行者の頭部付近の高さにある障害物との接触を回避することができる。そのため、例えば案内用ロボットは通過できるが歩行者は頭部が接触し通過できないような障害物が存在する状況でも、障害物と歩行者との接触を回避することができ、より安全に歩行者を案内することができる。   In this way, since obstacles that exist up to the height of the pedestrian in front of the self-propelled body and above the upper end of the self-propelled body are detected and obstacle avoidance control is performed, Contact with an obstacle at a height near the head can be avoided. Therefore, for example, even when there are obstacles that can pass the guidance robot but the pedestrian cannot touch the pedestrian, the contact between the obstacle and the pedestrian can be avoided. Can be guided.

また、上記の案内用ロボットにおいて、前記障害物回避制御部は、前記障害物回避制御として、前記障害物を回避する方向に、前記走行制御部による前記自走体の走行方向を補正する制御を行うことが好ましい。これにより、障害物との接触を回避しながら自走体の走行を継続することができる。
さらに、上記の案内用ロボットにおいて、前記障害物回避制御部は、前記障害物回避制御として、前記自走体の走行を停止させる制御を行うことが好ましい。これにより、障害物との接触を確実に回避することができる。
In the above guidance robot, the obstacle avoidance control unit performs control for correcting the traveling direction of the self-propelled body by the travel control unit in the direction of avoiding the obstacle as the obstacle avoidance control. Preferably it is done. Thereby, the traveling of the self-propelled body can be continued while avoiding contact with the obstacle.
Furthermore, in the above-described guidance robot, it is preferable that the obstacle avoidance control unit performs control for stopping the traveling of the self-propelled body as the obstacle avoidance control. Thereby, contact with an obstacle can be avoided reliably.

また、上記の案内用ロボットにおいて、前記障害物回避制御部は、前記障害物回避制御として、前記自走体に前記障害物が接近していることを音声で案内する制御を行うことが好ましい。これにより、歩行者に対して注意喚起を行うことができ、歩行者に障害物との接触を回避する動作を促すことができる。   In the above guiding robot, it is preferable that the obstacle avoidance control unit performs, as the obstacle avoidance control, voice guidance that the obstacle is approaching the self-propelled body. Thereby, it is possible to alert the pedestrian and to prompt the pedestrian to avoid contact with the obstacle.

本発明の案内用ロボットでは、自走体の前方且つ上方の障害物を検出可能であるため、操作者の頭部付近の高さにある障害物を検出し、当該障害物との接触を回避する制御を行うことができる。したがって、目が不自由な人が操作者である場合であっても、安全に案内することができる。   The guidance robot according to the present invention can detect obstacles in front of and above the self-propelled body, so it detects obstacles at a height near the operator's head and avoids contact with the obstacles. Can be controlled. Therefore, even when a visually impaired person is an operator, guidance can be performed safely.

本実施形態に係る案内用ロボットを示す斜視図である。It is a perspective view which shows the robot for guidance which concerns on this embodiment. 図1の正面図である。It is a front view of FIG. 図1の右側面図である。It is a right view of FIG. 図1の底面図である。It is a bottom view of FIG. 距離画像センサ(上方障害物センサ)の検出範囲を示す図である。It is a figure which shows the detection range of a distance image sensor (upper obstacle sensor). 距離画像センサ(上方障害物センサ)の検出範囲を示す図である。It is a figure which shows the detection range of a distance image sensor (upper obstacle sensor). 走行制御装置を示すブロック図である。It is a block diagram which shows a traveling control apparatus. 走行制御部の機能ブロック図である。It is a functional block diagram of a travel control part.

以下、本発明の実施形態を図面に基づいて説明する。
(構成)
図1は、本実施形態に係る案内用ロボットを示す斜視図、図2は正面図、図3は右側面図、図4は底面図である。
案内用ロボット1は、任意の方向に走行する自走体2を有する。この自走体2は、底面から見て前端部が尖った流線形状に形成され、且つ例えば案内用ロボット1の操作者(歩行者)の膝程度の高さを有する基台3を備えている。この基台3は、その後端面側の幅が操作者の肩幅以上に形成され、且つ後端面に前方側に凹む操作者の下肢を収容する凹部4が形成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Constitution)
1 is a perspective view showing a guidance robot according to this embodiment, FIG. 2 is a front view, FIG. 3 is a right side view, and FIG. 4 is a bottom view.
The guidance robot 1 has a self-propelled body 2 that travels in an arbitrary direction. This self-propelled body 2 includes a base 3 that is formed in a streamline shape with a sharp front end when viewed from the bottom and has a height that is about the knee of an operator (pedestrian) of the guiding robot 1, for example. Yes. The base 3 is formed with a width on the rear end face larger than the shoulder width of the operator, and a recess 4 is formed on the rear end face for accommodating the lower leg of the operator recessed forward.

基台3の底面には、前端側にキャスター5が旋回自在に配置され、後方端側の左右位置に駆動輪(車輪)6L及び6Rが回転自在に支持されている。これら駆動輪6L及び6Rの夫々は、車軸7L及び7Rの内側にプーリ8L及び8Rが固定されている。
そして、これらプーリ8L及び8Rと、各駆動輪6L及び6Rの前方側に配置した電動モータ9L及び9Rの回転軸に固定したプーリ10L及び10Rとの間に無端のタイミングベルト11L及び11Rが巻回されて、電動モータ9L及び9Rの回転軸の回転速度と同一回転速度で駆動輪6L及び6Rが回転駆動される。ここで、各電動モータ9L及び9Rには、無励磁状態でブレーキが作動する無励磁作動形ブレーキ12L及び12Rが設けられている。
On the bottom surface of the base 3, a caster 5 is pivotably disposed on the front end side, and driving wheels (wheels) 6L and 6R are rotatably supported at left and right positions on the rear end side. In these drive wheels 6L and 6R, pulleys 8L and 8R are fixed inside the axles 7L and 7R, respectively.
Endless timing belts 11L and 11R are wound between the pulleys 8L and 8R and the pulleys 10L and 10R fixed to the rotation shafts of the electric motors 9L and 9R disposed on the front side of the drive wheels 6L and 6R. Thus, the drive wheels 6L and 6R are rotationally driven at the same rotational speed as the rotational speeds of the rotating shafts of the electric motors 9L and 9R. Here, each of the electric motors 9L and 9R is provided with non-excitation actuating brakes 12L and 12R that operate the brake in a non-excited state.

このとき、電動モータ9L及び9Rの回転軸の回転速度を等しくすると、回転軸の回転方向に応じて基台3が前後方向に移動し、左側の駆動輪6Lの回転速度を右側の駆動輪6Rの回転速度より遅い回転加速度(又は速い回転速度)で駆動すると基台3が左旋回(又は右旋回する。
また、左側の駆動輪6L(又は右側の駆動輪6R)を停止させた状態で、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動すると信地左(又は右)旋回状態となる。
At this time, if the rotation speeds of the rotating shafts of the electric motors 9L and 9R are made equal, the base 3 moves in the front-rear direction according to the rotation direction of the rotating shaft, and the rotation speed of the left driving wheel 6L is changed to the right driving wheel 6R. When driven at a rotational acceleration (or faster rotational speed) slower than the rotational speed of the base 3, the base 3 turns left (or turns right).
In addition, when the right driving wheel 6R (or the left driving wheel 6L) is driven to rotate in the forward direction with the left driving wheel 6L (or the right driving wheel 6R) stopped, the left (or right) turning state is established. Become.

さらに、左側の駆動輪6L(又は右側の駆動輪6R)を逆回転駆動し、右側の駆動輪6R(又は左側の駆動輪6L)を正回転駆動する超信地左(又は右)旋回状態となる。
このように、左右の駆動輪6L及び6Rの回転速度を制御することにより、基台3を任意の方向に走行させることができる。
基台3には、その上面における前端側から後方側に傾斜延長する支持腕15が固定されている。この支持腕15の上端部には、基台3と平行に後方に基台3の凹部4の近傍位置まで延長する水平腕16が形成されている。
Further, the left driving wheel 6L (or the right driving wheel 6R) is reversely driven, and the right driving wheel 6R (or the left driving wheel 6L) is driven to rotate forward. Become.
Thus, the base 3 can be made to travel in an arbitrary direction by controlling the rotational speeds of the left and right drive wheels 6L and 6R.
A support arm 15 that is inclined and extended from the front end side to the rear side on the upper surface thereof is fixed to the base 3. A horizontal arm 16 is formed at the upper end of the support arm 15 so as to extend rearward in parallel with the base 3 to a position near the recess 4 of the base 3.

この水平腕16の上面における後端側には、走行方向を入力する操作入力部17が配置されている。操作入力部17は、操作者が一方の手指で把持することが可能なグリップ18と、このグリップ18を連結支持して、グリップ18に加えられたXYZ軸方向の入力を検出する六軸力センサ19とを備える。
基台3の先端側の側面には、例えば300度の角度範囲に渡って帯状の開口部21が形成されている。そして、この開口部21の先端部に対応する内側には、障害物検出センサとしてのスキャナ式レンジセンサ22が設けられている。このスキャナ式レンジセンサ22は、水平方向に後方側の90度の角度範囲を除く270度の角度範囲でレーザ光を使用して、下方(床上)にある障害物(以下、下方障害物という)までの距離を計測するものである。
On the rear end side of the upper surface of the horizontal arm 16, an operation input unit 17 for inputting the traveling direction is disposed. The operation input unit 17 includes a grip 18 that an operator can hold with one finger, and a six-axis force sensor that detects the input in the XYZ axial directions applied to the grip 18 by connecting and supporting the grip 18. 19.
On the side surface on the front end side of the base 3, for example, a band-shaped opening 21 is formed over an angle range of 300 degrees. A scanner range sensor 22 as an obstacle detection sensor is provided on the inner side corresponding to the tip of the opening 21. This scanner-type range sensor 22 uses a laser beam in an angle range of 270 degrees excluding a 90-degree angle range on the rear side in the horizontal direction, and is an obstacle below (on the floor) (hereinafter referred to as a downward obstacle). It measures the distance up to.

また、水平腕16の前端側には、障害物センサとしてのスキャナ式レンジセンサ23が設けられている。このスキャナ式レンジセンサ23も、スキャナ式レンジセンサ22と同様に、水平方向に後方側の90度の角度範囲を除く270度の角度範囲でレーザ光を使用して下方障害物までの距離を計測するものである。
また、支持腕15の上端側における裏面側には、障害物センサとしてのスキャナ式レンジセンサ24が設けられている。このスキャナ式レンジセンサ24は、例えば上方側の120度の角範囲を除く240度の角度範囲で斜め下側の障害物までの距離を計測するものである。
A scanner range sensor 23 as an obstacle sensor is provided on the front end side of the horizontal arm 16. Similarly to the scanner range sensor 22, the scanner range sensor 23 also measures the distance to the obstacle below by using laser light in an angle range of 270 degrees excluding the 90 degree angle range on the rear side in the horizontal direction. To do.
A scanner-type range sensor 24 as an obstacle sensor is provided on the back side of the upper end side of the support arm 15. This scanner-type range sensor 24 measures the distance to the obstacle on the diagonally lower side, for example, in an angular range of 240 degrees excluding the angular range of 120 degrees on the upper side.

さらに、案内用ロボット1の中央部付近である支持腕15の下端部の前面側には、上方障害物センサとしての距離画像センサ25が設けられている。この距離画像センサ25は、赤外線レーザによって前方且つ上方の空間に特定のパターンを投影し、それをカメラで撮影して対象物の位置と距離とを測定する、所謂デプスカメラである。距離画像センサ25は、案内用ロボット1の前方且つ上方にある障害物(以下、上方障害物という)を検出する。   Further, a distance image sensor 25 as an upper obstacle sensor is provided on the front side of the lower end portion of the support arm 15 that is near the center portion of the guiding robot 1. The distance image sensor 25 is a so-called depth camera that projects a specific pattern in a space above and above by an infrared laser and measures the position and distance of an object by photographing the pattern with a camera. The distance image sensor 25 detects an obstacle in front and above the guidance robot 1 (hereinafter referred to as an upper obstacle).

この距離画像センサ25の検出範囲は、図5に示すように、案内用ロボット1の側面視において、水平面に対して上方にθ1(例えば30°)〜θ2(例えば80°)の範囲で、且つ床面からH1(例えば2000mm)の高さまでの領域A1とする。すなわち、距離画像センサ25の投影範囲のうち、床面からH1の高さから天井までの高さ(床面からH(例えば2400mm)の高さ)までの領域A2は検出範囲外とする。   As shown in FIG. 5, the distance image sensor 25 has a detection range of θ1 (for example, 30 °) to θ2 (for example, 80 °) upward with respect to the horizontal plane in a side view of the guiding robot 1, and It is set as area | region A1 from the floor surface to the height of H1 (for example, 2000 mm). That is, in the projection range of the distance image sensor 25, the region A2 from the floor surface to the height from the height H1 to the ceiling (the height from the floor surface to H (for example, 2400 mm)) is outside the detection range.

ただし、θ2は80°までに限定されず、領域A1が案内用ロボット1の上部に重ならない範囲で可能な限り大きく確保しても良い。その場合は、操作者により近い障害物を検出することができる。
また、距離画像センサ25の検出範囲は、図6に示すように、案内用ロボットの上面視において、その最大幅がW1(例えば2000mm)となる領域A3とする。また、図6において、領域A4は、スキャナ式レンジセンサ22及び23の検出範囲である。
However, θ2 is not limited to 80 °, and may be as large as possible within a range where the region A1 does not overlap the upper portion of the guiding robot 1. In that case, an obstacle closer to the operator can be detected.
Further, as shown in FIG. 6, the detection range of the distance image sensor 25 is an area A3 where the maximum width is W1 (for example, 2000 mm) in the top view of the guidance robot. In FIG. 6, an area A <b> 4 is a detection range of the scanner range sensors 22 and 23.

2m以上の身長の操作者はあまりいないため、本実施形態では、距離画像センサ25の検出範囲(高さH1)を床から2000mmとしている。但し、この高さH1は、操作者の身長と同等の高さであればよく、操作者の身長に合わせて変更可能とする。
電動モータ9L及び9Rは、図7に示すように、走行制御装置30によって、駆動制御される。
Since there are not many operators having a height of 2 m or more, in this embodiment, the detection range (height H1) of the distance image sensor 25 is set to 2000 mm from the floor. However, this height H1 should just be the height equivalent to an operator's height, and can be changed according to an operator's height.
The electric motors 9L and 9R are drive-controlled by the travel control device 30, as shown in FIG.

この走行制御装置30は、図7に示すように、自走体2に内蔵するバッテリによって駆動される、例えばマイクロコンピュータ等の演算処理装置31を備えている。演算処理装置31は、センサ信号入力I/F61と、速度指令値出力I/F62と、回転角度位置入力I/F63と、音声出力I/F64とを備える。また、この演算処理装置31は、走行制御部51を備える。   As shown in FIG. 7, the travel control device 30 includes an arithmetic processing device 31 such as a microcomputer that is driven by a battery built in the self-propelled body 2. The arithmetic processing unit 31 includes a sensor signal input I / F 61, a speed command value output I / F 62, a rotation angle position input I / F 63, and an audio output I / F 64. Further, the arithmetic processing device 31 includes a travel control unit 51.

センサ信号入力I/F61には、操作入力部17の六軸力センサ19と、各スキャナ式レンジセンサ22〜24と、距離画像センサ25とが接続されている。そして、センサ信号入力I/F61は、六軸力センサ19から出力されるX,Y,Z軸の3軸方向に付与される力Fx、Fy及びFzと、X,Y,Z軸の3軸回りのモーメントMx、My及びMzとを読込む。また、センサ信号入力I/F61は、スキャナ式レンジセンサ22〜24から出力される障害物位置情報を読込むと共に、距離画像センサ25から出力される障害物位置情報を読込む。センサ信号入力I/F61は、読込んだ各種情報を走行制御部51へ出力する。   The sensor signal input I / F 61 is connected to the six-axis force sensor 19 of the operation input unit 17, the scanner type range sensors 22 to 24, and the distance image sensor 25. The sensor signal input I / F 61 includes forces Fx, Fy, and Fz that are applied from the six-axis force sensor 19 in the three-axis directions of the X, Y, and Z axes, and three axes of the X, Y, and Z axes. Read around moments Mx, My and Mz. The sensor signal input I / F 61 reads the obstacle position information output from the scanner range sensors 22 to 24 and the obstacle position information output from the distance image sensor 25. The sensor signal input I / F 61 outputs the read various information to the travel control unit 51.

速度指令値出力I/F62は、走行制御部51で生成した速度指令値を、モータドライバ65L及び65Rに出力する。ここで、モータドライバ65L及び65Rは、自走体2に内蔵するバッテリから電力が供給され、電動モータ9L及び9Rを駆動するためのものである。
回転角度位置入力I/F63は、電動モータ9L及び9Rの回転角度位置を検出するエンコーダ66L及び66Rから出力される回転角度位置情報を読込み、走行制御部51へ出力する。
音声出力I/F64は、走行制御部51で生成した音声案内情報をスピーカ67へ出力する。ここで、音声案内情報とは、障害物の接近を知らせる情報などを含む。
以下、走行制御部51について具体的に説明する。
The speed command value output I / F 62 outputs the speed command value generated by the travel control unit 51 to the motor drivers 65L and 65R. Here, the motor drivers 65L and 65R are for supplying electric power from a battery built in the self-propelled body 2 and driving the electric motors 9L and 9R.
The rotation angle position input I / F 63 reads the rotation angle position information output from the encoders 66L and 66R that detect the rotation angle positions of the electric motors 9L and 9R, and outputs the information to the travel control unit 51.
The voice output I / F 64 outputs the voice guidance information generated by the travel control unit 51 to the speaker 67. Here, the voice guidance information includes information that informs the approach of an obstacle.
Hereinafter, the traveling control unit 51 will be specifically described.

(走行制御部51の構成)
図8は、走行制御部51の機能ブロック図である。
この図8に示すように、走行制御部51は、走行方向算出部51aと、障害物検出部51bと、走行方向補正部51cと、モータ駆動制御部51dとを備える。
この走行制御部51は、操作者による操作入力部17の操作に基づいて電動モータ9L及び9Rに対する速度指令値を生成し、これを出力することで自走体2を走行制御するものである。また、走行制御部51は、自走体2の移動過程において、常時、周囲の障害物の有無を検出し、障害物を検出すると操作者に障害物が接近していることを音声や警報で知らせると共に、操作者が操作入力部17から指定した移動方向を、障害物を回避する方向に修正する障害物回避機能を有する。
(Configuration of traveling control unit 51)
FIG. 8 is a functional block diagram of the travel control unit 51.
As shown in FIG. 8, the travel control unit 51 includes a travel direction calculation unit 51a, an obstacle detection unit 51b, a travel direction correction unit 51c, and a motor drive control unit 51d.
The travel control unit 51 generates a speed command value for the electric motors 9L and 9R based on the operation of the operation input unit 17 by an operator, and outputs this to control the traveling of the self-propelled body 2. In addition, the traveling control unit 51 constantly detects the presence or absence of surrounding obstacles in the course of movement of the self-propelled body 2, and when an obstacle is detected, a voice or alarm indicates that the obstacle is approaching the operator. In addition to notifying, an obstacle avoidance function for correcting the movement direction designated by the operator from the operation input unit 17 to a direction to avoid the obstacle is provided.

先ず、走行方向算出部51aは、操作入力部17の六軸力センサ19から出力されるX,Y,Z軸に付与される力Fx,Fy及びFzと、X,Y,Z軸回りのモーメントMx,My及びMzを、操作入力情報として読込む。
次に走行方向算出部51aは、Z軸方向の力Fzと予め設定した閾値とを比較することで、操作者がグリップ18を押下したか否かを検出する。このとき、操作者がグリップ18を押下していない(Fz≦閾値)場合にはそのまま待機し、操作者がグリップ18を押下すると(Fz>閾値)、Y軸方向の力FyとZ軸回りのモーメントMzとに基づいて、自走体2の前後進速度V0[m/s]及び旋回速度ω0[rad/s]を算出する。
First, the traveling direction calculation unit 51a outputs forces Fx, Fy, and Fz applied to the X, Y, and Z axes output from the six-axis force sensor 19 of the operation input unit 17, and moments about the X, Y, and Z axes. Mx, My and Mz are read as operation input information.
Next, the traveling direction calculation unit 51a detects whether or not the operator has pressed the grip 18 by comparing the force Fz in the Z-axis direction with a preset threshold value. At this time, if the operator does not press down the grip 18 (Fz ≦ threshold), the operation waits as it is, and if the operator presses the grip 18 (Fz> threshold), the force Fy in the Y-axis direction and the Z axis around Based on the moment Mz, the forward / reverse speed V 0 [m / s] and the turning speed ω 0 [rad / s] of the self-propelled body 2 are calculated.

ここで、前後進速度V0は、自走体2の仮想質量をMとしたとき、例えば次式をもとに算出する。
0=∫(Fy/M)dt …………(1)
また、旋回速度ω0は、自走体2のZ軸回りの仮想慣性モーメントをIrzとしたとき、例えば次式をもとに算出する。
Here, the forward / reverse speed V 0 is calculated based on the following equation, for example, where M is the virtual mass of the self-propelled body 2.
V 0 = ∫ (Fy / M) dt (1)
Further, the turning speed ω 0 is calculated based on the following equation, for example, when Irz is the virtual moment of inertia of the self-propelled body 2 around the Z axis.

ω0=∫(Mz/Irz)dt …………(2)
そして、走行方向算出部51aは、算出した前後進速度V0及び旋回速度ω0をRAM等に記憶すると共に、これらを障害物検出部51b及び走行方向補正部51cに出力する。
障害物検出部51bは、障害物位置情報として、スキャン式レンジセンサ22及び23で測定したスキャン角度及び距離検出値を読込み、下方障害物の位置及び下方障害物までの距離を算出する。また、障害物検出部51bは、障害物位置情報として、距離画像センサ25で撮影した画像データを読込み、上方障害物の位置及び上方障害物までの距離を算出する。ここで、障害物が複数存在する場合には、各障害物について位置及び障害物までの距離を算出する。
ω 0 = ∫ (Mz / Irz) dt (2)
The traveling direction calculation unit 51a stores the calculated forward / reverse speed V 0 and the turning speed ω 0 in a RAM or the like, and outputs them to the obstacle detection unit 51b and the traveling direction correction unit 51c.
The obstacle detection unit 51b reads the scan angle and the distance detection value measured by the scan range sensors 22 and 23 as the obstacle position information, and calculates the position of the lower obstacle and the distance to the lower obstacle. Also, the obstacle detection unit 51b reads the image data captured by the distance image sensor 25 as the obstacle position information, and calculates the position of the upper obstacle and the distance to the upper obstacle. Here, when there are a plurality of obstacles, the position and the distance to the obstacle are calculated for each obstacle.

そして、障害物検出部51bは、走行方向算出部51aで記憶した前後進速度V0及び旋回速度ω0と、検出した障害物の位置及び距離とに基づいて、自走体2が下方障害物又は上方障害物に接触する可能性があるか否かを判定する。この判定結果は、走行方向補正部51cに出力される。
また、障害物検出部51bは、自走体2が障害物に接触する可能性があると判定すると、当該障害物への接触回避を目的として、操作者に障害物が接近していることを知らせるための音声案内情報を生成し、その音声案内情報をもとにスピーカ67から音声を出力する。
Then, the obstacle detection unit 51b determines that the self-propelled vehicle 2 is a lower obstacle based on the forward / reverse speed V 0 and the turning speed ω 0 stored in the traveling direction calculation unit 51a and the detected position and distance of the obstacle. Alternatively, it is determined whether or not there is a possibility of contact with an upper obstacle. This determination result is output to the traveling direction correction unit 51c.
When the obstacle detection unit 51b determines that the self-propelled body 2 may contact the obstacle, the obstacle detection unit 51b determines that the obstacle is approaching the operator for the purpose of avoiding contact with the obstacle. Voice guidance information for notification is generated, and voice is output from the speaker 67 based on the voice guidance information.

走行方向補正部51cは、障害物検出部51bで障害物に接触する可能性があると判定したとき、当該障害物を回避する方向に前後進速度V0及び旋回速度ω0を補正し、補正後の前後進速度V及び旋回速度ωをモータ駆動制御部51dに出力する。また、走行方向補正部51cは、障害物検出部51dで障害物に接触する可能性はないと判定した場合には、前後進速度V0及び旋回速度ω0をそのまま前後進速度V及び旋回速度ωとしてモータ駆動制御部51dに出力する。 When the obstacle detection unit 51b determines that there is a possibility of contact with the obstacle, the traveling direction correction unit 51c corrects the forward / reverse speed V 0 and the turning speed ω 0 in the direction to avoid the obstacle, and corrects the correction. The subsequent forward / reverse speed V and turning speed ω are output to the motor drive controller 51d. When the obstacle detection unit 51d determines that there is no possibility of contact with the obstacle, the traveling direction correction unit 51c uses the forward / reverse speed V 0 and the turning speed ω 0 as they are. It outputs to the motor drive control part 51d as (omega).

モータ駆動制御部51dは、前後進速度V及び旋回速度ωに基づいて、駆動輪6L及び6Rの車輪周速度V〔m/s〕及びV〔m/s〕を算出する。
=V+Lw・ω/2 …………(3)
=V−Lw・ω/2 …………(4)
The motor drive control unit 51d calculates the wheel peripheral speeds V L [m / s] and V R [m / s] of the drive wheels 6L and 6R based on the forward / reverse speed V and the turning speed ω.
V L = V + Lw · ω / 2 (3)
V R = V−Lw · ω / 2 (4)

ここで、Lwは、左右の駆動輪6L及び6Rの車輪間距離〔m〕である。そして、モータ駆動制御部51dは、上記(3)及び(4)をもとに算出した駆動輪6L及び6Rの車輪周速度V及びVに基づいて、電動モータ9L及び9Rの速度指令値VML及びVMRを算出し、これらを速度指令値出力I/F62を介してモータドライバ65L及び65Rに出力する。 Here, Lw is the distance [m] between the left and right drive wheels 6L and 6R. The motor drive control unit 51d, the above (3) and (4) a based on the wheel peripheral velocity V L and V R of the drive wheels 6L and 6R calculated based, electric motors 9L and 9R of the speed command value V ML and V MR are calculated and output to the motor drivers 65L and 65R via the speed command value output I / F 62.

なお、ここでは、走行制御部51の障害物回避制御として、障害物との接触を回避する方向に自走体2の走行方向を修正する制御を行う場合について説明したが、障害物を検出したとき、自走体2の走行を停止することで障害物との接触を回避するようにしてもよい。また、障害物を検出したとき、障害物との接触を回避可能な進行方向を、歩行者に音声で案内するようにしてもよい。   In addition, although the case where control for correcting the traveling direction of the self-propelled body 2 in the direction to avoid contact with the obstacle was described as the obstacle avoidance control of the traveling control unit 51, the obstacle was detected. When the self-propelled body 2 is stopped, contact with an obstacle may be avoided. Further, when an obstacle is detected, a traveling direction that can avoid contact with the obstacle may be guided to the pedestrian by voice.

以上のように、案内用ロボット1は、下方障害物に加えて上方障害物も検出可能に構成し、下方障害物又は上方障害物を検出すると、障害物との接触を回避するための障害物回避制御を行う。
なお、距離画像センサ25が上方障害物検出部に対応し、走行制御部51が障害物回避制御部に対応している。
As described above, the guiding robot 1 is configured to be able to detect an upper obstacle in addition to a lower obstacle. When a lower obstacle or an upper obstacle is detected, the obstacle for avoiding contact with the obstacle Perform avoidance control.
The distance image sensor 25 corresponds to the upper obstacle detection unit, and the travel control unit 51 corresponds to the obstacle avoidance control unit.

(動作)
次に、本実施形態の動作及び効果について説明する。
自律歩行が困難な歩行者が自走体2の後方側の凹部4に下肢収納するようにして自走体2の後方に立ち、図示しない始動スイッチをオン状態とすると、自走体2に内蔵するバッテリの電力が走行制御装置30及びモータドライバ65L及び65Rに供給され、自走体2が走行可能状態となる。このとき、歩行者(操作者)が操作入力部17のグリップ18を把持していない場合には、自走体2は停止状態を維持する。
(Operation)
Next, the operation and effect of this embodiment will be described.
When a pedestrian who is difficult to walk autonomously stands in the rear of the self-propelled body 2 so that the lower limb is stored in the recess 4 on the back side of the self-propelled body 2, and the start switch (not shown) is turned on, the pedestrian is built in the self-propelled body 2 The electric power of the battery to be supplied is supplied to the travel control device 30 and the motor drivers 65L and 65R, and the self-propelled body 2 becomes ready to travel. At this time, when the pedestrian (operator) does not hold the grip 18 of the operation input unit 17, the self-propelled body 2 maintains the stopped state.

この停止状態で、歩行者が操作入力部17のグリップ18を把持しながら進行方向へ押すと、走行制御部51は、その操作入力情報(力Fx,Fy及びFz、モーメントMx,My及びMz)を入力する。すると、走行制御部51は、入力した操作入力情報に基づいて前後進速度V及び旋回速度ωを算出し、これらに基づいて電動モータ9L及び9Rを駆動するための速度指令値をモータドライバ65L及び64Rに出力する。   In this stopped state, when the pedestrian pushes in the traveling direction while holding the grip 18 of the operation input unit 17, the travel control unit 51 displays the operation input information (forces Fx, Fy and Fz, moments Mx, My and Mz). Enter. Then, the traveling control unit 51 calculates the forward / reverse speed V and the turning speed ω based on the input operation input information, and based on these, the speed command value for driving the electric motors 9L and 9R is obtained as the motor driver 65L and To 64R.

これにより、自走体2は歩行者が指示した方向に走行する。すなわち、案内用ロボット1は、歩行者の明示的な操作があって初めて走行するようになっている。
このとき、スキャン式レンジセンサ22では、走行面に近い水平方向の領域(図6のエリアA4)で下方障害物を検出し、スキャン式レンジセンサ23では、歩行者の胸部位置に近い水平方向の領域(図6のエリアA4)で下方障害物を検出する。
Thereby, the self-propelled body 2 travels in the direction instructed by the pedestrian. That is, the guidance robot 1 travels only when there is an explicit operation by a pedestrian.
At this time, the scanning range sensor 22 detects a lower obstacle in a horizontal region close to the running surface (area A4 in FIG. 6), and the scanning range sensor 23 detects a horizontal obstacle close to the chest position of the pedestrian. A downward obstacle is detected in the area (area A4 in FIG. 6).

また、距離画像センサ25では、歩行者の胸部位置よりも上方であって、歩行者の頭頂部付近までの高さにある前方領域(図5のエリアA1、図6のエリアA3)で上方障害物を検出する。
そして、スキャン式レンジセンサ22,23及び距離画像センサ25の何れかで障害物を検出すると、走行制御部51は、歩行者に障害物の接近を音声で知らせる。また、走行制御部51は、歩行者が入力指示した進行方向を示す操作入力情報に基づいて算出した前後進速度V0及び旋回速度ω0を、障害物を回避する方向に補正し、それを最終的な前後進速度V及び旋回速度ωとして算出する。そして、算出した前後進速度V及び旋回速度ωに基づいて電動モータ9L及び9Rを駆動するための速度指令値を算出し、これをモータドライバ65L及び64Rに出力する。これにより、自走体2は、歩行者が指示した走行方向を、障害物を回避する方向に変更して走行する。
Further, in the distance image sensor 25, the upper obstacle is located in the front area (area A1 in FIG. 5 and area A3 in FIG. 6) that is above the chest position of the pedestrian and near the top of the pedestrian. Detect objects.
When the obstacle is detected by any of the scanning range sensors 22 and 23 and the distance image sensor 25, the traveling control unit 51 informs the pedestrian of the approach of the obstacle by voice. Further, the traveling control unit 51 corrects the forward / reverse speed V 0 and the turning speed ω 0 calculated based on the operation input information indicating the traveling direction instructed by the pedestrian so as to avoid the obstacle, and corrects it. The final forward / reverse speed V and the turning speed ω are calculated. Then, a speed command value for driving the electric motors 9L and 9R is calculated based on the calculated forward / reverse speed V and turning speed ω, and this is output to the motor drivers 65L and 64R. Thereby, the self-propelled body 2 travels by changing the traveling direction instructed by the pedestrian to a direction avoiding the obstacle.

また、走行の途中で操作入力部17のグリップ18へのZ軸方向の力Fzが無くなる(Fz≦閾値)と、走行制御部51は、歩行者がグリップ18から手を放したと判断し、自走体2を停止する。これにより、案内用ロボット1が常に歩行者の手の届く範囲にいるようにすることができる。
このように、本実施形態では、自走体2の周囲の床上にある下方障害物と、自走体2の前方且つ自走体2の上端部よりも上方で、歩行者の身長と同等の高さまでに存在する上方障害物を検出可能に構成する。そして、障害物を検出したとき、当該障害物との接触を回避するための障害物回避制御を行う。
Further, when the force Fz in the Z-axis direction on the grip 18 of the operation input unit 17 disappears during traveling (Fz ≦ threshold), the traveling control unit 51 determines that the pedestrian has released his hand from the grip 18, The self-propelled body 2 is stopped. As a result, the guidance robot 1 can always be within the reach of a pedestrian.
Thus, in the present embodiment, the lower obstacle on the floor around the self-propelled body 2 and the front of the self-propelled body 2 and above the upper end of the self-propelled body 2 are equivalent to the height of the pedestrian. An upper obstacle existing up to a height is detected. When an obstacle is detected, obstacle avoidance control for avoiding contact with the obstacle is performed.

歩行者の頭頂部付近に障害物がある場合、案内用ロボット1はその障害物の下を通過できるが歩行者は通過できない。このように歩行者の頭頂部付近にある障害物は、自走体2の周囲の床上にある下方障害物を検出するスキャン式レンジセンサ22及び23では検出できないため、本実施形態のように上方障害物を検出するセンサ(距離画像センサ25)を設置しないと、障害物回避制御を行うことができず、当該障害物と歩行者とが接触するおそれがある。   When there is an obstacle near the top of the pedestrian's head, the guiding robot 1 can pass under the obstacle, but the pedestrian cannot pass. Thus, the obstacle near the top of the pedestrian cannot be detected by the scanning range sensors 22 and 23 that detect the downward obstacle on the floor around the self-propelled body 2, so Unless a sensor (distance image sensor 25) for detecting an obstacle is installed, the obstacle avoidance control cannot be performed, and the obstacle and the pedestrian may come into contact with each other.

これに対して、本実施形態では、歩行者の頭頂部付近にある上方障害物を検出可能とするため、上方障害物と歩行者との接触を回避するための障害物回避制御を適切に作動することができる。したがって、より安全に歩行者を案内することができる。
ここで、上方障害物の検出範囲は、歩行者の身長と同等の高さまでとする。そのため、天井付近の凹凸を障害物として誤検出してしまうのを防止することができると共に、障害物データを減らして障害物回避の計算も減らすことができる。
In contrast, in this embodiment, obstacle avoidance control for avoiding contact between the upper obstacle and the pedestrian is appropriately operated in order to detect the upper obstacle near the top of the pedestrian. can do. Therefore, a pedestrian can be guided more safely.
Here, the detection range of the upper obstacle is set to a height equivalent to the height of the pedestrian. Therefore, it is possible to prevent erroneous detection of unevenness in the vicinity of the ceiling as an obstacle, and it is possible to reduce obstacle data and reduce the calculation of obstacle avoidance.

また、障害物回避制御として、自走体2の走行方向を、障害物を回避する方向に補正する制御を行うので、障害物との接触を回避しながら自走体の走行を継続することができる。さらに、障害物を検出したとき、障害物が接近していることを歩行者に音声で案内するので、歩行者に対して注意喚起を行うことができ、歩行者に障害物との接触を回避する動作を促すことができる。
なお、障害物を検出したとき、自走体2の走行を停止させる制御を行えば、障害物との接触を確実に回避することができる。
In addition, as the obstacle avoidance control, control is performed to correct the traveling direction of the self-propelled body 2 in a direction to avoid the obstacle, so that the traveling of the self-propelled body can be continued while avoiding contact with the obstacle. it can. In addition, when an obstacle is detected, the pedestrian is informed by voice that the obstacle is approaching, so the pedestrian can be alerted and the pedestrian can avoid contact with the obstacle Can be promoted.
In addition, when the obstacle is detected, if the control for stopping the traveling of the self-propelled body 2 is performed, the contact with the obstacle can be surely avoided.

(変形例)
上記実施形態においては、自走体2が走行するエリアの地図情報であるフロア形状図を予め記憶しておき、フロア内の自己位置の特定と目的地までの目標進行方向の決定とを自動で行いつつ、その目標進行方向を操作者(歩行者)に音声で案内する機能を設けてもよい。
(Modification)
In the above-described embodiment, a floor shape map that is map information of the area where the self-propelled body 2 travels is stored in advance, and identification of the self-position within the floor and determination of the target traveling direction to the destination are automatically performed. While performing, you may provide the function which guides the target advancing direction to an operator (pedestrian) by an audio | voice.

この場合、自走体2が有する車輪の回転量と自走体が走行するエリアの地図情報とに基づいて、自走体2の現在位置を推定する。これにより、建屋内にビーコンを設置したりGPS信号を受信したりすることなく、屋内で適切に自己位置を推定することができる。したがって、低コストでのナビゲーションが可能となる。また、歩行者が進むべき方向を音声で案内するので、目が不自由な人など自律走行が困難な歩行者を、当該歩行者が指定した目的地へ適切に案内することができる。   In this case, the current position of the self-propelled body 2 is estimated based on the rotation amount of the wheel of the self-propelled body 2 and the map information of the area where the self-propelled body travels. Thereby, a self position can be appropriately estimated indoors, without installing a beacon in a building or receiving a GPS signal. Therefore, navigation at a low cost is possible. Further, since the direction in which the pedestrian should travel is guided by voice, a pedestrian who is difficult to travel autonomously, such as a blind person, can be appropriately guided to the destination designated by the pedestrian.

さらに、この場合、ナビゲーションの開始に先立って、複数の目的地候補を1つずつ順番に音声で案内するようにすれば、目の不自由な歩行者が被案内者の場合にも、当該歩行者は適切に目的地を指定することができる。
このとき、1つの目的地候補を音声案内した後、被案内者が所定のボタンを押すごとに次の目的地候補を音声案内するようにする。そして、1つの目的地候補を音声案内した後、所定時間、ボタンが押されないとき、被案内者による目的地選択動作が行われたと判断して、そのとき音声案内した目的地候補を目的地に設定する。これにより、ボタン1つで次の目的地候補の案内開始の指示と目的地の確定とを行うことができる。すなわち、極力、被案内者が操作するボタンを少なくすることができ、目の不自由な歩行者が被案内者の場合に望ましい構造とすることができる。
Further, in this case, prior to the start of navigation, if a plurality of destination candidates are sequentially guided by voice one by one, even if the visually impaired pedestrian is a guided person, the walking The person can specify the destination appropriately.
At this time, after one destination candidate is voice-guided, the next destination candidate is voice-guided every time the guided person presses a predetermined button. Then, after voice guidance of one destination candidate, when a button is not pressed for a predetermined time, it is determined that a destination selection operation has been performed by the guided person, and the destination candidate voice-guided at that time is set as the destination. Set. Thereby, it is possible to instruct to start guidance for the next destination candidate and to confirm the destination with one button. That is, the number of buttons operated by the guided person can be reduced as much as possible, and a desirable structure can be obtained when a blind pedestrian is a guided person.

また、上記実施形態においては、上方障害物センサとして距離画像センサ25を採用する場合について説明したが、案内用ロボット1の上端部よりも上方且つ前方で、操作者の頭頂部付近までの高さにある障害物を検出可能なものであれば適用可能である。
さらに、上記実施形態においては、障害物センサとしてスキャン式レンジセンサ22,23を適用した場合について説明したが、超音波式センサ等の他の測距センサを適用することもできる。また、スキャン式レンジセンサに代えて、1方向にレーザ光を出射する測距センサをZ軸方向に回動させて走査するようにしてもよい。
Moreover, although the case where the distance image sensor 25 is employed as the upper obstacle sensor has been described in the above embodiment, the height to the vicinity of the top of the operator above and in front of the upper end of the guidance robot 1. Any obstacle can be applied as long as it can detect the obstacle.
Furthermore, although the case where the scanning range sensors 22 and 23 are applied as the obstacle sensors has been described in the above embodiment, other distance measuring sensors such as an ultrasonic sensor can also be applied. Further, instead of the scanning range sensor, scanning may be performed by rotating a distance measuring sensor that emits laser light in one direction in the Z-axis direction.

また、上記実施形態においては、自走体2として、前側にキャスター5を設置し、後輪側に駆動輪6L及び6Rを設ける場合について説明したが、前側の左右位置に駆動輪を配置し、後輪側にキャスターを配置するようにしてもよい。
さらに、上記実施形態においては、自走体2を2輪駆動する場合について説明したが、自動車のように前後に2輪ずつ配置し、前後の一方を転舵輪とすることにより、走行方向を制御するようにしてもよい。この場合でも転舵輪の転舵量及び転舵角に基づいて走行軌跡を算出することができる。
Moreover, in the said embodiment, although the caster 5 was installed in the front side as the self-propelled body 2 and the drive wheels 6L and 6R were provided in the rear wheel side, the drive wheels are arranged in the front left and right positions, A caster may be arranged on the rear wheel side.
Furthermore, although the case where the self-propelled body 2 is driven by two wheels has been described in the above embodiment, the traveling direction is controlled by arranging two wheels at the front and rear as in an automobile and using one of the front and rear as a steered wheel. You may make it do. Even in this case, the travel locus can be calculated based on the turning amount and turning angle of the steered wheels.

1…案内用ロボット、2…自走体、3…基台、4…凹部、5…キャスター、6L,6R…駆動輪、9L,9R…電動モータ、11L,11R…タイミングベルト、12L,12R…無励磁作動形ブレーキ、15…支持腕、16…水平腕、17…操作入力部、18…グリップ、19…六軸力センサ、22〜24…スキャン式レンジセンサ、25…距離画像センサ、30…走行制御装置、51…走行制御部、51a…障害物検出部、51b…走行方向算出部、51c…走行方向補正部、51d…モータ駆動制御部、61…センサ信号入力I/F、62…速度指令値出力I/F、63…回転速度位置入力I/F、64…音声出力I/F、65L,65R…モータドライバ、66L,66R…エンコーダ、67…スピーカ   DESCRIPTION OF SYMBOLS 1 ... Robot for guidance, 2 ... Self-propelled body, 3 ... Base, 4 ... Recessed part, 5 ... Caster, 6L, 6R ... Drive wheel, 9L, 9R ... Electric motor, 11L, 11R ... Timing belt, 12L, 12R ... Non-excitation actuating brake, 15 ... support arm, 16 ... horizontal arm, 17 ... operation input unit, 18 ... grip, 19 ... six-axis force sensor, 22-24 ... scan range sensor, 25 ... distance image sensor, 30 ... Travel control device 51 ... Travel control unit 51a ... Obstacle detection unit 51b ... Travel direction calculation unit 51c ... Travel direction correction unit 51d ... Motor drive control unit 61 ... Sensor signal input I / F, 62 ... Speed Command value output I / F, 63 ... Rotational speed position input I / F, 64 ... Audio output I / F, 65L, 65R ... Motor driver, 66L, 66R ... Encoder, 67 ... Speaker

Claims (4)

歩行者が把持して移動方向を入力する操作入力部と、
車輪によって任意の方向に走行可能な自走体と、
前記操作入力部で入力された移動方向に基づいて、前記自走体の走行を制御する走行制御部と、
前記自走体の前方且つ前記自走体の上端部よりも上方で、前記歩行者の身長と同等の高さまでに存在する障害物を検出する上方障害物検出部と、
前記上方障害物検出部で障害物を検出したとき、当該障害物との接触を回避するための障害物回避制御を行う障害物回避制御部と、を備えることを特徴とする案内用ロボット。
An operation input unit that a pedestrian grips and inputs a moving direction;
A self-propelled body that can travel in any direction by wheels,
Based on the movement direction input by the operation input unit, a travel control unit that controls the travel of the self-propelled body,
An upper obstacle detection unit that detects an obstacle existing in front of the self-propelled body and above the upper end portion of the self-propelled body, up to a height equivalent to the height of the pedestrian,
An obstacle avoidance control unit that performs obstacle avoidance control for avoiding contact with an obstacle when the upper obstacle detection unit detects the obstacle.
前記障害物回避制御部は、前記障害物回避制御として、前記障害物を回避する方向に、前記走行制御部による前記自走体の走行方向を補正する制御を行うことを特徴とする請求項1に記載の案内用ロボット。   The obstacle avoidance control unit performs control for correcting a traveling direction of the self-propelled body by the traveling control unit in a direction to avoid the obstacle as the obstacle avoidance control. Guide robot described in 1. 前記障害物回避制御部は、前記障害物回避制御として、前記自走体の走行を停止させる制御を行うことを特徴とする請求項1に記載の案内用ロボット。   The guidance robot according to claim 1, wherein the obstacle avoidance control unit performs control for stopping the traveling of the self-propelled body as the obstacle avoidance control. 前記障害物回避制御部は、前記障害物回避制御として、前記自走体に前記障害物が接近していることを音声で案内する制御を行うことを特徴とする請求項1〜3の何れか1項に記載の案内用ロボット。   4. The obstacle avoidance control unit, as the obstacle avoidance control, performs control for guiding by voice that the obstacle is approaching the self-propelled vehicle. The guidance robot according to item 1.
JP2013221742A 2013-10-25 2013-10-25 Guidance robot Pending JP2015084129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013221742A JP2015084129A (en) 2013-10-25 2013-10-25 Guidance robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013221742A JP2015084129A (en) 2013-10-25 2013-10-25 Guidance robot

Publications (1)

Publication Number Publication Date
JP2015084129A true JP2015084129A (en) 2015-04-30

Family

ID=53047709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221742A Pending JP2015084129A (en) 2013-10-25 2013-10-25 Guidance robot

Country Status (1)

Country Link
JP (1) JP2015084129A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107041718A (en) * 2016-02-05 2017-08-15 北京小米移动软件有限公司 Clean robot and its control method
JP2019105995A (en) * 2017-12-12 2019-06-27 株式会社豊田自動織機 Automatic operation forklift
JP2020149665A (en) * 2019-03-12 2020-09-17 ベアー ロボティックス コリア,インコーポレイテッド Robot for serving food and/or drinks
CN112223348A (en) * 2019-06-28 2021-01-15 坎德拉(深圳)科技创新有限公司 Indoor distribution robot
CN112959336A (en) * 2021-03-01 2021-06-15 河南大学 Two-wheeled robot based on sound source positioning path tracking function
CN113867366A (en) * 2021-11-02 2021-12-31 福建省海峡智汇科技有限公司 Mobile robot control method based on adaptive network fuzzy
CN117428790A (en) * 2023-12-19 2024-01-23 四川吉埃智能科技有限公司 Robot obstacle avoidance detection device and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1158271A (en) * 1997-08-25 1999-03-02 Denso Corp Mobile robot
JP2013101602A (en) * 2011-10-17 2013-05-23 Nsk Ltd Traveling device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1158271A (en) * 1997-08-25 1999-03-02 Denso Corp Mobile robot
JP2013101602A (en) * 2011-10-17 2013-05-23 Nsk Ltd Traveling device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107041718A (en) * 2016-02-05 2017-08-15 北京小米移动软件有限公司 Clean robot and its control method
JP2019105995A (en) * 2017-12-12 2019-06-27 株式会社豊田自動織機 Automatic operation forklift
JP2020149665A (en) * 2019-03-12 2020-09-17 ベアー ロボティックス コリア,インコーポレイテッド Robot for serving food and/or drinks
US11660758B2 (en) 2019-03-12 2023-05-30 Bear Robotics, Inc. Robots for serving food and/or drinks
CN112223348A (en) * 2019-06-28 2021-01-15 坎德拉(深圳)科技创新有限公司 Indoor distribution robot
CN112959336A (en) * 2021-03-01 2021-06-15 河南大学 Two-wheeled robot based on sound source positioning path tracking function
CN113867366A (en) * 2021-11-02 2021-12-31 福建省海峡智汇科技有限公司 Mobile robot control method based on adaptive network fuzzy
CN117428790A (en) * 2023-12-19 2024-01-23 四川吉埃智能科技有限公司 Robot obstacle avoidance detection device and method
CN117428790B (en) * 2023-12-19 2024-02-23 四川吉埃智能科技有限公司 Robot obstacle avoidance detection device and method

Similar Documents

Publication Publication Date Title
JP2015084129A (en) Guidance robot
JP6601001B2 (en) TRAVEL DEVICE, GUIDING ROBOT, AND TRAVEL DEVICE CONTROL METHOD
JP6656673B2 (en) Autonomous mobile system
JP5337408B2 (en) Autonomous mobile body and its movement control method
JP4823858B2 (en) Mobility performance test equipment
US8676420B2 (en) Electric vehicle and method for controlling the same
US20120166048A1 (en) Inverted pendulum type moving body
JP5761152B2 (en) Traveling device
JP2016024766A (en) Robot for guidance
JP6569342B2 (en) Mobile robot
JP2018120524A (en) Guide robot
JP2017033450A (en) Moving robot
JP5065206B2 (en) Mobile body, inverted mobile body, and control method thereof
JP2010167807A (en) Travel device and method of controlling the same
EP2019348A1 (en) Travel device for self-propelled device
JP5553220B2 (en) Moving body
JP2007168602A (en) Two-wheel traveling carriage
JP6604546B2 (en) Moving body
JP2007168603A (en) Coaxial two-wheel traveling carriage
JP6638348B2 (en) Mobile robot system
JP5304143B2 (en) Autonomous traveling control device, autonomous traveling control method, and self-propelled vehicle
JP2015083927A (en) Guidance robot
KR20130056655A (en) A counter moving method for collision avoidance of unmanned automatic vehicle
JP5915690B2 (en) Transport assist device
JP2005211463A (en) Self-propelled vacuum cleaner

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306