JP2017033450A - Moving robot - Google Patents

Moving robot Download PDF

Info

Publication number
JP2017033450A
JP2017033450A JP2015155216A JP2015155216A JP2017033450A JP 2017033450 A JP2017033450 A JP 2017033450A JP 2015155216 A JP2015155216 A JP 2015155216A JP 2015155216 A JP2015155216 A JP 2015155216A JP 2017033450 A JP2017033450 A JP 2017033450A
Authority
JP
Japan
Prior art keywords
floor
unit
moving body
height position
elevator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015155216A
Other languages
Japanese (ja)
Inventor
絢子 田淵
Ayako Tabuchi
絢子 田淵
和輝 飛田
Kazuteru Hida
和輝 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2015155216A priority Critical patent/JP2017033450A/en
Publication of JP2017033450A publication Critical patent/JP2017033450A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a moving robot capable of more easily determining a floor on which the robot gets off an elevator car without the need to attach equipment for determining a stop floor to a building.SOLUTION: A height position estimation unit 52h estimates a height position of a moving body 2 on the basis of a vertical acceleration of the moving body. Further, if it is determined that an elevator car on which the moving body gets is stopped, a stop floor estimation unit 52i compares the estimated height position with a height position of each floor and estimates a stop floor on which the elevator car is stopped. Moreover, if the estimated stop floor is a moving destination floor in moving among floors including a target route by an elevator, a moving control unit controls movement of the moving body such that the moving body gets off the elevator car.SELECTED DRAWING: Figure 8

Description

本発明は、移動ロボットに関する。   The present invention relates to a mobile robot.

従来、移動ロボットしては、例えば、特許文献1に記載の技術がある。この特許文献1に記載の技術では、エレベータによる移動中に、エレベータのかごが停止すると、エレベータの各階の扉に取り付けてある階数の識別タグを読み取る。そして、識別タグから読み取った階数が降車階であると判定した場合に、エレベータのかごから降車する。   Conventionally, as a mobile robot, for example, there is a technique described in Patent Document 1. In the technique described in Patent Document 1, when the elevator car stops during movement by the elevator, the identification tag of the number of floors attached to the door of each floor of the elevator is read. And when it determines with the number of floors read from the identification tag being a getting-off floor, it gets off from the elevator car.

特開2011−068453号公報JP 2011-068453 A

しかしながら、上記特許文献1に記載の従来技術では、エレベータの各階の扉に階数の識別タグ、つまり、停止階の判定用の機器を取り付ける必要がある。それゆえ、停止階の判定用の機器の取り付けの手間がかかり、設置コストが大きくなるという問題がある。
本発明は、上記のような点に着目し、建造物側に停止階の判定用の機器を取り付ける必要がなく、降車階をより容易に判定可能な移動ロボットを提供することを目的とする。
However, in the prior art described in Patent Document 1, it is necessary to attach an identification tag for the number of floors, that is, a device for determining a stop floor, to each elevator door. Therefore, there is a problem that it takes time to install the equipment for determining the stop floor, and the installation cost increases.
An object of the present invention is to provide a mobile robot capable of more easily determining a getting-off floor without attaching a device for determining a stop floor to the building side, paying attention to the above points.

上記課題を解決するために、本発明の一態様は、建造物内を移動可能な移動体と、移動体が移動する建造物内の地図情報に基づき、設定した目的地までの移動体の目標経路を生成する目標経路生成部と、移動体の現在位置を推定する現在位置推定部と、現在位置推定部で推定した現在位置、及び目標経路生成部で生成した目標経路に基づき、移動体の移動を制御する移動制御部と、移動体に作用する上下方向の加速度を検出する加速度検出部とを備え、目標経路生成部は、建造物が複数の階間を移動するかごを備えたエレベータを有している場合に、エレベータによる階間の移動を含む目標経路を生成し、現在位置推定部は、加速度検出部で検出した加速度に基づき、移動体の高さ位置を推定する高さ位置推定部と、移動体が乗車しているエレベータのかごが停止していると判定した場合に、高さ位置推定部で推定した高さ位置と建造物の各階の高さ位置とを比較して、エレベータのかごの停止階を推定する停止階推定部とを備え、移動制御部は、停止階推定部で推定した停止階が、目標経路に含まれているエレベータによる階間の移動における、移動先の階である場合に、エレベータのかごから降車するように移動体の移動を制御する。   In order to solve the above-described problem, according to one embodiment of the present invention, a mobile object that can move in a building and a target of the mobile object up to a set destination based on map information in the building in which the mobile object moves Based on the target route generation unit that generates a route, the current position estimation unit that estimates the current position of the moving object, the current position estimated by the current position estimation unit, and the target route generated by the target route generation unit, A movement control unit that controls movement and an acceleration detection unit that detects vertical acceleration acting on the moving body, and the target route generation unit includes an elevator including a car in which the building moves between a plurality of floors. If so, the target position including the movement between the floors by the elevator is generated, and the current position estimation unit estimates the height position of the moving body based on the acceleration detected by the acceleration detection unit. And the moving body is on board A stop that estimates the stop floor of an elevator car by comparing the height position estimated by the height position estimation unit with the height position of each floor of the building when it is determined that the beta car is stopped The movement control unit includes an elevator car when the stop floor estimated by the stop floor estimation unit is a destination floor in the movement between the floors by an elevator included in the target route. The movement of the moving body is controlled so as to get off the vehicle.

本発明の一態様によれば、移動ロボット単体で停止階を判定できる。そのため、建造物側に停止階の判定用の機器を取り付ける必要がなく、降車階をより容易に判定できる。   According to one aspect of the present invention, a stop floor can be determined by a single mobile robot. Therefore, it is not necessary to attach a stop floor determination device to the building side, and the getting-off floor can be determined more easily.

実施形態に係る案内用ロボットを表す斜視図である。It is a perspective view showing the robot for guidance concerning an embodiment. 図1の案内用ロボットの正面図である。It is a front view of the robot for guidance of FIG. 図1の案内用ロボットの側面図である。It is a side view of the guidance robot of FIG. 図1の案内用ロボットの底面図である。It is a bottom view of the guidance robot of FIG. 走行制御装置を表すブロック図である。It is a block diagram showing a traveling control apparatus. 天井マーカー検出センサによる検出状態を表す図である。It is a figure showing the detection state by a ceiling marker detection sensor. 移動制御部の機能ブロック図である。It is a functional block diagram of a movement control part. 統括制御部の機能ブロック図である。It is a functional block diagram of a general control part. エレベータブロックを表す図である。It is a figure showing an elevator block. 停止階推定処理を表すフローチャートである。It is a flowchart showing a stop floor estimation process. 変形例に係る統括制御部の機能ブロック図である。It is a functional block diagram of the integrated control part which concerns on a modification. 変形例に係る統括制御部の機能ブロック図である。It is a functional block diagram of the integrated control part which concerns on a modification.

以下、本発明の一実施形態について、図面を参照しつつ説明する。
本実施形態は、複数の階を有する建造物内において、視覚障害者等の被案内者を、設定した目的地まで案内する移動ロボット(以下、「案内用ロボット」とも呼ぶ)1に適用したものである。本実施形態では、案内用ロボット1の上下方向に延びている軸をZ軸、前後方向に延びている軸をY軸、左右方向に延びている軸をX軸として説明する。
なお、以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の形状、構造、配置等を下記のものに特定するものでない。本発明の技術的思想は、請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
This embodiment is applied to a mobile robot (hereinafter also referred to as “guidance robot”) 1 that guides a guided person such as a visually impaired person to a set destination in a building having a plurality of floors. It is. In the present embodiment, the axis extending in the vertical direction of the guiding robot 1 will be described as the Z axis, the axis extending in the front-rear direction as the Y axis, and the axis extending in the horizontal direction as the X axis.
The following embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention includes the shape, structure, arrangement, etc. of components. It is not specified to the following. The technical idea of the present invention can be variously modified within the technical scope defined by the claims described in the claims.

(構成)
図1〜図4に示すように、案内用ロボット1は、建造物内を移動可能な移動体2を備える。移動体2は、前側が細く、後側が被案内者の肩幅以上に広がったくさび形状に形成されている基台3を備える。基台3の後側には中央が凹んだ凹部4が設けられている。
基台3の底面には、前端側にキャスター5が旋回自在に配置され、後方端側の左右位置に駆動輪6L、6Rが回転自在に支持されている。駆動輪6L、6Rのそれぞれには、車軸7L、7Rを介してプーリ8L、8Rが固定されている。また、プーリ8L、8Rそれぞれには、電動モータ9L、9Rの回転軸に固定されたプーリ10L、10Rとの間に無端のタイミングベルト11L、11Rが巻回されている。そして、電動モータ9L、9Rそれぞれの回転軸の回転速度と同一回転速度で各駆動輪6L、6Rが回転駆動される。また、各電動モータ9L、9Rには、ギアヘッド12L、12Rが設けられている。
(Constitution)
As shown in FIGS. 1 to 4, the guidance robot 1 includes a moving body 2 that can move in a building. The moving body 2 includes a base 3 that is formed in a wedge shape having a narrow front side and a rear side wider than the shoulder width of the guided person. On the rear side of the base 3, a recess 4 having a recessed center is provided.
On the bottom surface of the base 3, a caster 5 is pivotably disposed on the front end side, and driving wheels 6L and 6R are rotatably supported at left and right positions on the rear end side. Pulleys 8L and 8R are fixed to the drive wheels 6L and 6R via axles 7L and 7R, respectively. Further, endless timing belts 11L and 11R are wound around pulleys 8L and 8R, respectively, between pulleys 10L and 10R fixed to the rotation shafts of electric motors 9L and 9R. Then, the drive wheels 6L and 6R are rotationally driven at the same rotational speed as the rotational speeds of the rotary shafts of the electric motors 9L and 9R. Each electric motor 9L, 9R is provided with a gear head 12L, 12R.

その際、左右の電動モータ9L、9Rの回転軸の回転速度を等しくすると、回転軸の回転方向に応じて基台3が前方向または後方向に移動する。また、左右の電動モータ9L、9Rの回転軸の回転速度を異ならせると、基台3が左方向または右方向に旋回する。
また、左側の電動モータ9Lを停止させた状態で、右側の電動モータ9Rのみを正回転駆動すると、信地左旋回状態となる。正回転駆動とは、駆動輪6L、6Rを前進方向に移動させる電動モータ9L、9Rの駆動状態である。また、右側の電動モータ9Rを停止させた状態で、左側の電動モータ9Lを正回転駆動すると、信地右旋回状態となる。
At that time, if the rotation speeds of the left and right electric motors 9L and 9R are equalized, the base 3 moves forward or backward depending on the rotation direction of the rotation shaft. Moreover, if the rotational speeds of the rotation shafts of the left and right electric motors 9L and 9R are varied, the base 3 turns leftward or rightward.
Further, if only the right electric motor 9R is driven to rotate in the forward direction with the left electric motor 9L stopped, a left-handed turning state is established. The forward rotation drive is a drive state of the electric motors 9L and 9R that move the drive wheels 6L and 6R in the forward direction. Further, when the left electric motor 9L is driven to rotate in the forward direction while the right electric motor 9R is stopped, the right turn state is established.

さらに、左側の電動モータ9Lを逆回転駆動し、右側の電動モータ9Rを正回転駆動すると、超信地左旋回状態となる。逆回転駆動とは、駆動輪6L、6Rを後進方向に移動させる電動モータ9L、9Rの駆動状態である。また、右側の電動モータ9Rを逆回転駆動し、左側の電動モータ9Lを正回転駆動すると、超信地右旋回状態となる。
このように、左右の電動モータ9L、9Rの回転状態を制御し、左右の駆動輪6L、6Rの回転状態を制御することで、移動体2の走行方向を制御することができる。
Further, when the left electric motor 9L is driven to rotate in the reverse direction and the right electric motor 9R is driven to rotate in the forward direction, a super-left turn state is established. The reverse rotation drive is a drive state of the electric motors 9L and 9R that move the drive wheels 6L and 6R in the reverse direction. Further, when the right electric motor 9R is driven to rotate in the reverse direction and the left electric motor 9L is driven to rotate in the forward direction, a super-right turn state is established.
Thus, the traveling direction of the moving body 2 can be controlled by controlling the rotation state of the left and right electric motors 9L and 9R and controlling the rotation state of the left and right drive wheels 6L and 6R.

なお、本実施形態では、移動体2の前端側にキャスター5を設け、後端側の左右位置に駆動輪6L、6Rを設ける例を示したが、他の構成を採用することもできる。例えば、前端側の左右位置に駆動輪を設け、後端側にキャスターを設ける構成としてもよい。
また、本実施形態では、左右の駆動輪6L、6Rの回転状態を制御することで、移動体2の走行方向を制御する例を示したが、他の構成を採用することもできる。例えば、自動車のように前側と後側のぞれぞれに2輪ずつ配置し、前側の2輪と後側の2輪の少なくとも一方を転舵輪とすることで、移動体2の走行方向を制御する構成としてもよい。
In this embodiment, the caster 5 is provided on the front end side of the movable body 2 and the drive wheels 6L and 6R are provided on the left and right positions on the rear end side. However, other configurations may be employed. For example, drive wheels may be provided at the left and right positions on the front end side, and casters may be provided on the rear end side.
Further, in the present embodiment, the example in which the traveling direction of the moving body 2 is controlled by controlling the rotation state of the left and right drive wheels 6L and 6R has been described, but other configurations may be employed. For example, two wheels are arranged on each of the front side and the rear side as in an automobile, and at least one of the two front wheels and the two rear wheels is a steered wheel, so that the traveling direction of the moving body 2 can be changed. It is good also as a structure to control.

なお、電動モータ9L、9Rには、モータドライバ67L、67Rと、エンコーダ68L、68Rとが更に設けられている(図5参照)。モータドライバ67L、67Rは、後述する走行制御装置30が出力した速度指令値に従って、電動モータ9L、9Rを駆動する。また、エンコーダ68L、68Rは、電動モータ9L、9Rの回転角度を検出し、検出結果(以下、「回転角度情報」とも呼ぶ)を走行制御装置30に出力する。   The electric motors 9L and 9R are further provided with motor drivers 67L and 67R and encoders 68L and 68R (see FIG. 5). The motor drivers 67L and 67R drive the electric motors 9L and 9R according to a speed command value output from the travel control device 30 described later. The encoders 68L and 68R detect the rotation angles of the electric motors 9L and 9R, and output the detection results (hereinafter also referred to as “rotation angle information”) to the travel control device 30.

基台3の上面の前側には、後側に傾斜して延びている支持腕15が固定されている。また、支持腕15の上部には、後方に延びている水平腕16が形成されている。さらに、水平腕16の上面の後側には、被案内者が把持するとともに、移動体2の前後進速度を入力する操作入力部17が配置されている。操作入力部17は、被案内者が一方の手指で把持することが可能なグリップ17aと、グリップ17aを連結支持して、グリップ17aに加えられた2軸方向の力を検出する力センサ17bとを備える。本実施形態では、2軸の一方をY軸とし、他方を、支持腕15と同様に後側に傾斜して伸びている軸(以下、「Z’軸」とも呼ぶ)とする(図3参照)。そして、力センサ17bは、検出結果(2軸方向の力Fy、Fz’。以下、「操作入力情報」とも呼ぶ)を走行制御装置30に出力する。   On the front side of the upper surface of the base 3, a support arm 15 that is inclined and extends rearward is fixed. Further, a horizontal arm 16 extending rearward is formed on the upper portion of the support arm 15. Further, on the rear side of the upper surface of the horizontal arm 16, an operation input unit 17 that is held by the guided person and that inputs the forward / reverse speed of the moving body 2 is disposed. The operation input unit 17 includes a grip 17a that a guided person can hold with one finger, a force sensor 17b that supports the grip 17a and detects a biaxial force applied to the grip 17a. Is provided. In the present embodiment, one of the two axes is the Y-axis, and the other is the axis that is inclined and extended to the rear side in the same manner as the support arm 15 (hereinafter also referred to as “Z′-axis”) (see FIG. 3). ). The force sensor 17 b then outputs the detection results (biaxial forces Fy, Fz ′; hereinafter also referred to as “operation input information”) to the travel control device 30.

なお、本実施形態では、力センサ17bが、Y軸方向の力と、Z’軸方向の力とを検出する例を示したが、他の構成を採用することもできる。例えば、力センサ17bが、X軸回りのモーメントMxと、Z’軸方向の力Fz’とを検出する構成としてもよい。
また、Z’軸を、後側に傾斜して伸びている軸とする例を示したが、他の構成を採用することもできる。例えば、Z’軸を、Z軸と同一方向に延びている軸としてもよい。
In the present embodiment, an example in which the force sensor 17b detects a force in the Y-axis direction and a force in the Z′-axis direction has been described, but other configurations may be employed. For example, the force sensor 17b may be configured to detect the moment Mx about the X axis and the force Fz ′ in the Z ′ axis direction.
In addition, although an example in which the Z ′ axis is an axis that is inclined and extends rearward has been described, other configurations may be employed. For example, the Z ′ axis may be an axis extending in the same direction as the Z axis.

さらに、水平腕16の上面の中央部には、被案内者を案内する目的地を選択する目的地選択部18が配置されている。目的地選択部18は、被案内者が一方の手指で押下することが可能な選択ボタン18aと、選択ボタン18aを連結支持して、選択ボタン18aの押下を検出する押しボタンスイッチ18bとを備える。そして、押しボタンスイッチ18bは、検出結果(以下、「選択情報」とも呼ぶ)を走行制御装置30に出力する。   Furthermore, a destination selection unit 18 for selecting a destination for guiding the guided person is arranged at the center of the upper surface of the horizontal arm 16. The destination selection unit 18 includes a selection button 18a that the guided person can press with one finger, and a push button switch 18b that connects and supports the selection button 18a and detects the pressing of the selection button 18a. . Then, the push button switch 18 b outputs a detection result (hereinafter also referred to as “selection information”) to the travel control device 30.

基台3の前端側の側面には、予め定められた比較的広い角度範囲(例えば、300deg)にわたって帯状の開口部19が形成されている。開口部19の内側には、スキャナ式レンジセンサ20が設けられている。スキャナ式レンジセンサ20は、レーザ光を使用して、下方に存在する障害物(以下、「下方障害物」とも呼ぶ)までの距離及びスキャン角度を検出する。また、水平腕16の前側には、スキャナ式レンジセンサ21が設けられている。スキャナ式レンジセンサ21は、レーザ光を使用して、センサ取り付け高さに存在する障害物までの距離及びスキャン角度を計測する。また、支持腕15の背面側には、スキャナ式レンジセンサ22が設けられている。スキャナ式レンジセンサ22は、レーザ光を使用して、斜め下側に存在する障害物までの距離及びスキャン角度を検出する。   A band-shaped opening 19 is formed on a side surface on the front end side of the base 3 over a predetermined relatively wide angle range (for example, 300 degrees). A scanner range sensor 20 is provided inside the opening 19. The scanner-type range sensor 20 detects a distance and a scan angle to an obstacle existing below (hereinafter also referred to as “downward obstacle”) using laser light. In addition, a scanner range sensor 21 is provided on the front side of the horizontal arm 16. The scanner range sensor 21 uses laser light to measure the distance to the obstacle and the scan angle that are present at the sensor mounting height. A scanner range sensor 22 is provided on the back side of the support arm 15. The scanner-type range sensor 22 detects the distance and the scan angle to an obstacle existing obliquely below using laser light.

また、支持腕15の下端部の前面側には、距離画像センサ23が設けられている。距離画像センサ23は、赤外線レーザによって前方上側の空間に特定のパターンを投影し、投影したパターンをカメラで撮影して障害物の位置と距離とを検出するデプスカメラである。距離画像センサ23は、案内用ロボット1の前方上側に存在する障害物(以下、「上方障害物」とも呼ぶ)までの距離及び角度を検出する。そして、スキャナ式レンジセンサ20、21、22と距離画像センサ23とは、検出結果(障害物までの距離及びスキャン角度。以下、「障害物位置情報」とも呼ぶ)を走行制御装置30に出力する。   A distance image sensor 23 is provided on the front side of the lower end portion of the support arm 15. The distance image sensor 23 is a depth camera that projects a specific pattern onto the space on the upper front side with an infrared laser and detects the position and distance of the obstacle by photographing the projected pattern with a camera. The distance image sensor 23 detects a distance and an angle to an obstacle (hereinafter also referred to as “upper obstacle”) existing on the upper front side of the guidance robot 1. The scanner range sensors 20, 21, 22 and the distance image sensor 23 output detection results (distance to the obstacle and scan angle; hereinafter also referred to as “obstacle position information”) to the travel control device 30. .

なお、本記実施形態では、レーザ光を使用するスキャナ式レンジセンサ20、21、22を用いる例を示したが、他の構成を採用することもできる。例えば、超音波等を使用する他の測距センサを用いてもよい。また、スキャナ式レンジセンサに代えて、1方向にレーザ光を出射する測距センサをZ軸方向に回動させて走査する構成としてもよい。
さらに、基台3の内部には、加速度検出部24が設けられている(図3参照)。加速度検出部24は、移動体2に作用する上下方向の加速度azを検出する。加速度azでは、上方向の加速度を正値とし、下方向の加速度を負値とする。そして、加速度検出部24は、検出結果(以下、「加速度情報」とも呼ぶ)を走行制御装置30に出力する。
In the present embodiment, an example in which the scanner range sensors 20, 21, and 22 that use laser light are used is shown, but other configurations may be employed. For example, other ranging sensors that use ultrasonic waves or the like may be used. Further, instead of the scanner-type range sensor, a range-finding sensor that emits laser light in one direction may be rotated in the Z-axis direction for scanning.
Further, an acceleration detector 24 is provided inside the base 3 (see FIG. 3). The acceleration detector 24 detects the vertical acceleration az acting on the moving body 2. In the acceleration az, an upward acceleration is a positive value, and a downward acceleration is a negative value. Then, the acceleration detection unit 24 outputs a detection result (hereinafter also referred to as “acceleration information”) to the travel control device 30.

また、水平腕16の前側には、天井マーカー検出センサ25が固定されている。天井マーカー検出センサ25は、図6に示すように、建造物やエレベータのかごの天井に設けられたマーカー100の設置箇所の位置(以下、「マーカー位置情報」とも呼ぶ)を検出する。マーカー100は、1つのブロック(後述)に1つ設置されその設置箇所の位置(マーカー位置情報)が印刷されている。例えば、2次元コードを採用できる。そして、天井マーカー検出センサ25は、検出したマーカー位置情報を走行制御装置30に出力する。   A ceiling marker detection sensor 25 is fixed on the front side of the horizontal arm 16. As shown in FIG. 6, the ceiling marker detection sensor 25 detects the position (hereinafter also referred to as “marker position information”) of the installation location of the marker 100 provided on the ceiling of the building or elevator car. One marker 100 is installed in one block (described later), and the position (marker position information) of the installation location is printed. For example, a two-dimensional code can be adopted. Then, the ceiling marker detection sensor 25 outputs the detected marker position information to the travel control device 30.

また、案内用ロボット1は、走行制御装置30を更に備える。
走行制御装置30は、バッテリによって駆動される演算処理装置31を備える。演算処理装置31としては、例えば、マイクロコンピュータを採用できる。演算処理装置31は、センサ信号入力I/F61と、速度指令値出力I/F62と、回転角度入力I/F63と、音声出力I/F64とを備える。また、演算処理装置31は、移動制御部51と、統括制御部52とを更に備える。
The guidance robot 1 further includes a travel control device 30.
The travel control device 30 includes an arithmetic processing device 31 that is driven by a battery. As the arithmetic processing unit 31, for example, a microcomputer can be employed. The arithmetic processing unit 31 includes a sensor signal input I / F 61, a speed command value output I / F 62, a rotation angle input I / F 63, and an audio output I / F 64. The arithmetic processing device 31 further includes a movement control unit 51 and an overall control unit 52.

センサ信号入力I/F61は、力センサ17bが出力した操作入力情報と、押しボタンスイッチ18bが出力した選択情報と、スキャナ式レンジセンサ20、21、22、及び距離画像センサ23が出力した障害物位置情報と、加速度検出部24が出力した加速度情報と、天井マーカー検出センサ25が出力したマーカー位置情報とを読み込む。そして、読み込んだ各種の情報を移動制御部51と統括制御部52とに出力する。   The sensor signal input I / F 61 includes operation input information output from the force sensor 17b, selection information output from the push button switch 18b, and obstacles output from the scanner range sensors 20, 21, 22, and the distance image sensor 23. The position information, the acceleration information output by the acceleration detection unit 24, and the marker position information output by the ceiling marker detection sensor 25 are read. Then, the read various information is output to the movement control unit 51 and the overall control unit 52.

さらに、速度指令値出力I/F62は、移動制御部51が出力した速度指令値をモータドライバ67L、67Rに出力する。また、回転角度入力I/F63は、エンコーダ68L、68Rが出力した回転角度情報を読み込む。そして、速度指令値出力I/F62は、読み込んだ回転角度情報を移動制御部51と統括制御部52とに出力する。
また、音声出力I/F64は、移動制御部51と統括制御部52とが出力した音声案内情報を読み込む。そして、音声出力I/F64は、読み込んだ音声案内情報をスピーカ69に出力させる。音声案内情報としては、例えば被案内者を進ませる方向、移動体2の現在位置またはこれから進行する領域の場所情報や環境情報、障害物に接触する可能性を報知する情報等がある。
Further, the speed command value output I / F 62 outputs the speed command value output from the movement control unit 51 to the motor drivers 67L and 67R. The rotation angle input I / F 63 reads the rotation angle information output from the encoders 68L and 68R. Then, the speed command value output I / F 62 outputs the read rotation angle information to the movement control unit 51 and the overall control unit 52.
The voice output I / F 64 reads voice guidance information output from the movement control unit 51 and the overall control unit 52. Then, the audio output I / F 64 causes the speaker 69 to output the read audio guidance information. The voice guidance information includes, for example, the direction in which the guided person is advanced, the current position of the moving body 2 or the location information or environmental information of the area to be advanced, information for notifying the possibility of contact with an obstacle, and the like.

(移動制御部51の構成)
次に、図7を参照し、移動制御部51について説明する。
図7に示すように、移動制御部51は、走行方向算出部51aと、障害物検出部51bと、走行方向補正部51cと、モータ駆動制御部51dとを備える。
走行方向算出部51aは、センサ信号入力I/F61が出力した操作入力情報(力Fy、Fz’)と、統括制御部52が出力した目標経路情報及び自己位置情報とを取得する。目標経路情報は、案内用ロボット1(移動体2)を走行させる目標経路に加え、場所情報(後述)及び環境情報(後述)を含む。目標経路としては、例えば、エレベータによる階の移動を含む経路がある。また、自己位置情報は、案内用ロボット1(移動体2)の現在位置を表す情報である。自己位置情報には、案内用ロボット1(移動体2)をエレベータのかごから降車させる指令(以下、「降車指令」とも呼ぶ)が付加可能となっている。
(Configuration of the movement control unit 51)
Next, the movement control unit 51 will be described with reference to FIG.
As shown in FIG. 7, the movement control unit 51 includes a traveling direction calculation unit 51a, an obstacle detection unit 51b, a traveling direction correction unit 51c, and a motor drive control unit 51d.
The traveling direction calculation unit 51a acquires the operation input information (forces Fy, Fz ′) output from the sensor signal input I / F 61 and the target route information and self-location information output from the overall control unit 52. The target route information includes location information (described later) and environment information (described later) in addition to the target route on which the guidance robot 1 (moving body 2) travels. As the target route, for example, there is a route including movement of a floor by an elevator. The self-position information is information representing the current position of the guidance robot 1 (moving body 2). A command for getting the guidance robot 1 (moving body 2) out of the elevator car (hereinafter, also referred to as “get-off command”) can be added to the self-location information.

また、走行方向算出部51aは、取得したZ’軸方向の力Fz’が予め定められた閾値よりも大きい(Fz’>閾値)と判定されるまで、つまり、被案内者がグリップ17aを押下したと判定されるまで待機状態とする。そして、Fz’>閾値と判定され、被案内者がグリップ17aを押下したと判定されると、Y軸方向の力Fyと自己位置情報と目標経路情報とに基づき、移動体2の前後進方向の進行速度である前後進速度V0[m/s]と旋回速度ω0[rad/s]とを算出する。そして、走行方向算出部51aは、算出した前後進速度V0及び旋回速度ω0を障害物検出部51b及び走行方向補正部51cに出力する。   In addition, the traveling direction calculation unit 51a presses the grip 17a until it is determined that the acquired Z′-axis direction force Fz ′ is larger than a predetermined threshold (Fz ′> threshold). It will be in a standby state until it is determined that it has been. When it is determined that Fz ′> threshold and it is determined that the guided person has pressed the grip 17a, the forward / backward direction of the moving body 2 is based on the force Fy in the Y-axis direction, the self-position information, and the target route information. The forward / reverse speed V0 [m / s] and the turning speed ω0 [rad / s], which are the traveling speeds of Then, the travel direction calculation unit 51a outputs the calculated forward / reverse speed V0 and the turning speed ω0 to the obstacle detection unit 51b and the travel direction correction unit 51c.

ここで、走行方向算出部51aは、Y軸方向の力Fyと移動体2の仮想質量Mとに基づき、下記(1)式に従って前後進速度V0を算出する。
V0=∫(Fy/M)dt …………(1)
続いて、走行方向算出部51aは、自己位置情報と目標経路情報とに基づき旋回角度θを決定する。続いて、走行方向算出部51aは、決定した旋回角度θと実験等によって求めた旋回角度と旋回半径との関係を表すデータとに基づき、旋回半径rを算出する。
Here, the traveling direction calculation unit 51a calculates the forward / reverse speed V0 according to the following equation (1) based on the force Fy in the Y-axis direction and the virtual mass M of the moving body 2.
V0 = ∫ (Fy / M) dt (1)
Subsequently, the traveling direction calculation unit 51a determines the turning angle θ based on the self position information and the target route information. Subsequently, the traveling direction calculation unit 51a calculates the turning radius r based on the determined turning angle θ and data representing the relationship between the turning angle and the turning radius obtained through experiments or the like.

続いて、走行方向算出部51aは、算出した前後進速度V0と、旋回半径rとに基づき、下式(2)に従って旋回速度ω0を算出する。
ω0=r/V0 …………(2)
その際、走行方向算出部51aは、自己位置情報に基づき、案内用ロボット1(移動体2)がエレベータのかごに乗車しているか否かを判定する。そして、走行方向算出部51aは、かごに乗車していると判定した場合、自己位置情報に降車指令が付加されていると判定されるまで待機状態とし、前後進速度V0及び旋回速度ω0の出力を停止させる。これにより、案内用ロボット1(移動体2)をエレベータのかご内にとどまらせる。
Subsequently, the traveling direction calculation unit 51a calculates the turning speed ω0 according to the following equation (2) based on the calculated forward / reverse speed V0 and the turning radius r.
ω0 = r / V0 (2)
At that time, the traveling direction calculation unit 51a determines whether or not the guidance robot 1 (the moving body 2) is in the elevator car based on the self-position information. When the traveling direction calculation unit 51a determines that the vehicle is in the car, the traveling direction calculation unit 51a waits until it is determined that the getting-off command is added to the self-position information, and outputs the forward / reverse speed V0 and the turning speed ω0. Stop. As a result, the guiding robot 1 (moving body 2) remains in the elevator car.

そして、自己位置情報に降車指令が付加されていると判定されると、待機状態を解除し、前後進速度V0及び旋回速度ω0の出力の停止を解除させる。ここで、降車指令は、停止階推定部52i(後述)で推定した停止階が、目標経路に含まれているエレベータによる階間の移動における、移動先の階であると判定された場合に、自己位置情報に付加される。続いて、走行方向算出部51aは、被案内者にエレベータからの降車を促す音声案内情報を生成する。続いて、走行方向算出部51aは、生成した音声案内情報を音声出力I/F64を介してスピーカ69に出力させ、被案内者にグリップ17aの押下を行わせる。これにより、グリップ17aの押下に応じ、目標経路に沿って移動し、案内用ロボット1(移動体2)がエレベータのかごから降車するように移動体2の移動を制御する。   When it is determined that the getting-off command is added to the self-position information, the standby state is canceled and the output of the forward / reverse speed V0 and the turning speed ω0 is stopped. Here, when it is determined that the stop floor estimated by the stop floor estimation unit 52i (described later) is the destination floor in the movement between the floors by the elevator included in the target route, It is added to the self-location information. Subsequently, the traveling direction calculation unit 51a generates voice guidance information that prompts the guided person to get off the elevator. Subsequently, the traveling direction calculation unit 51a outputs the generated voice guidance information to the speaker 69 via the voice output I / F 64, and causes the guided person to press the grip 17a. Thus, the movement of the moving body 2 is controlled so that the robot 1 (moving body 2) moves along the target route in response to the pressing of the grip 17a and gets off from the elevator car.

また、走行方向算出部51aは、取得した自己位置情報と、決定した旋回角度θ、つまり、進行方向における場所情報及び環境情報とを走行方向補正部51cに出力する。
障害物検出部51bは、センサ信号入力I/F61が出力した障害物位置情報を取得する。続いて、障害物検出部51bは、取得した障害物位置情報に基づき、障害物(下方障害物、上方障害物)の位置及び障害物までの距離を算出する。ここで、障害物が複数存在する場合には、各障害物について位置及び障害物までの距離を算出する。
In addition, the traveling direction calculation unit 51a outputs the acquired self-position information and the determined turning angle θ, that is, location information and environmental information in the traveling direction, to the traveling direction correction unit 51c.
The obstacle detection unit 51b acquires the obstacle position information output from the sensor signal input I / F 61. Subsequently, the obstacle detection unit 51b calculates the position of the obstacle (lower obstacle, upper obstacle) and the distance to the obstacle based on the acquired obstacle position information. Here, when there are a plurality of obstacles, the position and the distance to the obstacle are calculated for each obstacle.

続いて、障害物検出部51bは、算出した障害物の位置及び障害物までの距離と、走行方向算出部51aが出力した前後進速度V0及び旋回速度ω0とに基づき、移動体2が障害物(下方障害物、上方障害物)に接触する可能性があるか否かを判定する。そして、障害物検出部51bは、判定結果を走行方向補正部51cに出力する。また、障害物検出部51bは、移動体2が障害物に接触するための可能性があると判定した場合には、障害物に接触する可能性を報知する音声案内情報を生成する。続いて、障害物検出部51bは、生成した音声案内情報を音声出力I/F64を介してスピーカ69に出力させる。   Subsequently, the obstacle detection unit 51b determines that the moving body 2 is an obstacle based on the calculated position of the obstacle and the distance to the obstacle, and the forward / reverse speed V0 and the turning speed ω0 output by the traveling direction calculation unit 51a. It is determined whether or not there is a possibility of contact with (downward obstacle, upward obstacle). Then, the obstacle detection unit 51b outputs the determination result to the traveling direction correction unit 51c. In addition, when the obstacle detection unit 51b determines that there is a possibility that the moving body 2 is in contact with the obstacle, the obstacle detection unit 51b generates voice guidance information for notifying the possibility of contact with the obstacle. Subsequently, the obstacle detection unit 51b causes the speaker 69 to output the generated voice guidance information via the voice output I / F 64.

走行方向補正部51cは、障害物検出部51bで障害物(下方障害物、上方障害物)に接触する可能性があると判定した場合には、走行方向算出部51aが出力した前後進速度V0と旋回速度ω0とを障害物との接触を回避する方向に補正する。一方、走行方向補正部51cは、障害物検出部51bで障害物に接触する可能性がないと判定した場合には、走行方向算出部51aが出力した前後進速度V0と旋回速度ω0とを場所情報と環境情報とに基づき補正する。例えば、被案内者の歩行負荷が比較的大きい場所や環境であると判定した場合には、歩行負荷が比較的小さい場所や環境であると判定した場合に比べ、前後進速度V0と旋回速度ω0とを小さい速度に補正する。歩行負荷の比較的大きい場所としては、例えば、交差点、下りスロープがある。また、歩行負荷の比較的大きい環境としては、例えば、滑りやすい環境、人通りが多い環境がある。そして、走行方向補正部51cは、補正後の前後進速度V及び旋回速度ωをモータ駆動制御部51dに出力する。   When the traveling direction correction unit 51c determines that the obstacle detection unit 51b may contact an obstacle (downward obstacle, upward obstacle), the forward / reverse speed V0 output by the traveling direction calculation unit 51a. And the turning speed ω0 are corrected so as to avoid contact with the obstacle. On the other hand, when the traveling direction correction unit 51c determines that the obstacle detection unit 51b has no possibility of contacting the obstacle, the traveling direction correction unit 51c uses the forward / reverse speed V0 and the turning speed ω0 output by the traveling direction calculation unit 51a as the location. Correct based on information and environmental information. For example, when it is determined that the place or environment where the walking load of the guided person is relatively large, the forward / reverse speed V0 and the turning speed ω0 are compared to when it is determined that the place or environment where the walking load is relatively small. And correct to a smaller speed. Examples of places with a relatively large walking load include intersections and down slopes. In addition, examples of the environment with a relatively large walking load include a slippery environment and an environment with a lot of traffic. Then, the traveling direction correction unit 51c outputs the corrected forward / reverse speed V and turning speed ω to the motor drive control unit 51d.

なお、走行方向補正部51cは、障害物検出部51bで障害物に接触する可能性がないと判定した場合でも、場所情報と環境情報とに基づく補正が必要ないと判定した場合には、走行方向算出部51aが出力した前後進速度V0及び旋回速度ω0を補正後の前後進速度V及び旋回速度ωとしてそのままモータ駆動制御部51dに出力する。
モータ駆動制御部51dは、走行方向補正部51cが出力した前後進速度V及び旋回速度ωと左右の駆動輪6L、6Rの車輪間距離Lw[m]とに基づき、下式(3)に従って左右の駆動輪6L、6Rの車輪周速度VL、VR[m/s]の目標値を算出する。
In addition, even when the traveling direction correction unit 51c determines that there is no possibility of contact with the obstacle by the obstacle detection unit 51b, if the traveling direction correction unit 51c determines that the correction based on the location information and the environment information is not necessary, the traveling direction correction unit 51c The forward / reverse speed V0 and the turning speed ω0 output by the direction calculation unit 51a are output to the motor drive control part 51d as they are as the corrected forward / backward speed V and the turning speed ω.
The motor drive control unit 51d performs left and right according to the following equation (3) based on the forward / reverse speed V and the turning speed ω output from the travel direction correction unit 51c and the wheel distance Lw [m] between the left and right drive wheels 6L and 6R. Target values of the wheel peripheral speeds VL and VR [m / s] of the drive wheels 6L and 6R are calculated.

VLの目標値=V+Lw・ω/2
VRの目標値=V−Lw・ω/2 …………(3)
続いて、モータ駆動制御部51dは、算出した車輪周速度VL、VRの目標値を実現させる速度指令値を算出する。そして、モータ駆動制御部51dは、算出した速度指令値を速度指令値出力I/F62を介してモータドライバ67L、67Rに出力する。これにより、案内用ロボット1を目的地まで導くナビゲーションが可能となっている。
Target value of VL = V + Lw · ω / 2
Target value of VR = V−Lw · ω / 2 (3)
Subsequently, the motor drive control unit 51d calculates a speed command value for realizing the target values of the calculated wheel peripheral speeds VL and VR. Then, the motor drive control unit 51d outputs the calculated speed command value to the motor drivers 67L and 67R via the speed command value output I / F 62. Thereby, the navigation which guides the guidance robot 1 to the destination is possible.

(統括制御部52の構成)
次に、図8を参照し、統括制御部52について説明する。
図8に示すように、統括制御部52は、目的地設定部52aと、各階高さ記憶部52bと、現在位置推定部52cと、現在位置補正部52dと、目標経路生成部52fと、地図情報記憶部52eと、音声出力部52gとを備える。
(Configuration of general control unit 52)
Next, the overall control unit 52 will be described with reference to FIG.
As shown in FIG. 8, the overall control unit 52 includes a destination setting unit 52a, each floor height storage unit 52b, a current position estimation unit 52c, a current position correction unit 52d, a target route generation unit 52f, a map, An information storage unit 52e and an audio output unit 52g are provided.

目的地設定部52aは、センサ信号入力I/F61が出力した選択情報を取得する。そして、目的地設定部52aは、取得した選択情報を基に選択ボタン18aが押下されたと判定すると、予め定められた目的地の候補のリストから直前に選択された候補の次の候補を選択する。なお、目的地設定部52aは、始動スイッチがオン状態となった後初めて選択ボタン18aが押下されたと判定した場合には、目的地の候補のリストから最初の候補を選択する。また、目的地設定部52aは、目的地の候補がリストの最後の候補に達した場合には、目的地の候補のリストの最初の候補に戻って候補を選択する。続いて、目的地設定部52aは、選択した目的地の候補を報知するための音声案内情報を生成する。続いて、目的地設定部52aは、生成した音声案内情報を音声出力部52gに出力する。   The destination setting unit 52a acquires the selection information output from the sensor signal input I / F 61. If the destination setting unit 52a determines that the selection button 18a has been pressed based on the acquired selection information, the destination setting unit 52a selects the next candidate next to the candidate selected immediately before from the list of predetermined destination candidates. . When the destination setting unit 52a determines that the selection button 18a is pressed for the first time after the start switch is turned on, the destination setting unit 52a selects the first candidate from the list of destination candidates. When the destination candidate reaches the last candidate in the list, the destination setting unit 52a returns to the first candidate in the destination candidate list and selects the candidate. Subsequently, the destination setting unit 52a generates voice guidance information for notifying the selected destination candidate. Subsequently, the destination setting unit 52a outputs the generated voice guidance information to the voice output unit 52g.

一方、目的地設定部52aは、予め定められた一定時間、選択ボタン18aが押下されていないと判定される状態が続いた場合、目的地の選択動作を行ったと判定し、直前に選択された目的地の候補を目的地として設定する。そして、目的地設定部52aは、設定した目的地(以下、「目的地情報」とも呼ぶ)を目標経路生成部52fに出力する。
各階高さ記憶部52bは、建造物の各階の高さ位置を記憶している。具体的には、階と、その階の高さ位置とを対応付けて記憶している。各階の高さ位置としては、予め定められた基準面(例えば、建造物の1階の床面)から各階の床面までの高さを採用する。
On the other hand, the destination setting unit 52a determines that the destination selection operation has been performed when it is determined that the selection button 18a has not been pressed for a predetermined time, and has been selected immediately before. Set destination candidates as destinations. Then, the destination setting unit 52a outputs the set destination (hereinafter also referred to as “destination information”) to the target route generation unit 52f.
Each floor height storage unit 52b stores the height position of each floor of the building. Specifically, the floor and the height position of the floor are stored in association with each other. As the height position of each floor, a height from a predetermined reference plane (for example, the floor surface of the first floor of the building) to the floor surface of each floor is adopted.

現在位置推定部52cは、センサ信号入力I/F61が出力したマーカー位置情報を取得する。そして、現在位置推定部52cは、取得したマーカー位置情報に基づき、移動体2の現在位置(以下、「自己位置情報」とも呼ぶ)を推定する。具体的には、現在位置推定部52cは、マーカー位置情報(マーカー100の設置箇所の位置)を自己位置情報として現在位置補正部52dに出力する。   The current position estimation unit 52c acquires marker position information output from the sensor signal input I / F 61. Then, the current position estimation unit 52c estimates the current position of the moving body 2 (hereinafter also referred to as “self-position information”) based on the acquired marker position information. Specifically, the current position estimation unit 52c outputs the marker position information (the position of the marker 100 installation location) to the current position correction unit 52d as self-position information.

また、現在位置推定部52cは、高さ位置推定部52hと、停止階推定部52iと、移動速度推定部52jとを備える。高さ位置推定部52h、停止階推定部52i、及び移動速度推定部52jは、推定した移動体2の現在位置(自己位置情報)に基づき、案内用ロボット1(移動体2)がエレベータのかごに乗車しているか否かを判定する。そして、エレベータのかごに乗車していると判定した場合には、センサ信号入力I/F61が出力した加速度情報に基づき、エレベータのかごの停止階の推定や自己位置情報への降車指令の付加等を行う停止階推定処理を実行する。停止階推定処理の詳細については後述する。   The current position estimation unit 52c includes a height position estimation unit 52h, a stop floor estimation unit 52i, and a movement speed estimation unit 52j. The height position estimating unit 52h, the stop floor estimating unit 52i, and the moving speed estimating unit 52j are based on the estimated current position (self-position information) of the moving body 2, and the guidance robot 1 (moving body 2) is an elevator car. It is determined whether or not the vehicle is on. If it is determined that the vehicle is in the elevator car, based on the acceleration information output from the sensor signal input I / F 61, the elevator car is estimated to be at a stop floor, and an exit command is added to the self-position information. The stop floor estimation process is performed. Details of the stop floor estimation process will be described later.

現在位置補正部52dは、現在位置推定部52cが出力した自己位置情報と、センサ信号入力I/F61が出力した障害物位置情報とを取得する。続いて、現在位置補正部52dは、障害物位置情報に基づき、公知のパーティクルフィルタを用いて自己位置情報を補正する。これにより、現在位置補正部52dは、自己位置情報の精度を向上できる。そして現在位置補正部52dは、補正後の自己位置情報を目標経路生成部52fに出力する。   The current position correction unit 52d acquires the self-position information output from the current position estimation unit 52c and the obstacle position information output from the sensor signal input I / F 61. Subsequently, the current position correction unit 52d corrects the self-position information using a known particle filter based on the obstacle position information. Thereby, the current position correction unit 52d can improve the accuracy of the self-position information. Then, the current position correction unit 52d outputs the corrected self-position information to the target route generation unit 52f.

地図情報記憶部52eは、建造物内の各階の地図情報を記憶している。地図情報としては、各階の通路や部屋の形状等を表すフロア形状図を採用する。フロア形状図は、複数の小領域(以下、「ブロック」とも呼ぶ)に区分されている。各ブロックには、ブロックを一意に識別可能なブロック識別子が付されている。ここで、同一のエレベータのかごが上下動するブロック(以下、「エレベータブロック」とも呼ぶ)には、階数によらず、固定のブロック識別子、つまり、同一のブロック識別子が設定されている。例えば、図9の例では、エレベータブロックには、ブロック識別子として「16」が設定されている。   The map information storage unit 52e stores map information of each floor in the building. As the map information, a floor shape diagram representing the passage and room shape of each floor is adopted. The floor shape diagram is divided into a plurality of small areas (hereinafter also referred to as “blocks”). Each block is assigned a block identifier that can uniquely identify the block. Here, a fixed block identifier, that is, the same block identifier is set to a block in which the same elevator car moves up and down (hereinafter also referred to as an “elevator block”) regardless of the rank. For example, in the example of FIG. 9, “16” is set as the block identifier in the elevator block.

さらに、フロア形状図には、隣接ブロック情報と、場所情報と、環境情報とが付加されている。隣接ブロック情報としては、例えば、ブロックそれぞれに対して設定され、移動体2が行き来可能なブロックのブロック識別子を表す情報がある。例えば、図9の例では、ブロック識別子「15」のブロックに対しては識別子「11」「14」「16」「19」が設定されている。なお、エレベータブロックに対しては、エレベータの各階の扉に面したブロックのブロック識別子が設定される。例えば、図9の例では、ブロック識別子「16」のエレベータブロックに対しては識別子「15」「26」が設定されている。また、場所情報としては、例えば、交差点、スロープ等、場所に関する情報がある。さらに、環境情報としては、例えば、滑りやすい、人通りが多い等、環境に関する情報がある。   Further, adjacent block information, location information, and environment information are added to the floor shape diagram. As the adjacent block information, for example, there is information that is set for each block and represents a block identifier of a block that the mobile unit 2 can travel. For example, in the example of FIG. 9, identifiers “11”, “14”, “16”, and “19” are set for the block with the block identifier “15”. For the elevator block, a block identifier of the block facing the door on each floor of the elevator is set. For example, in the example of FIG. 9, identifiers “15” and “26” are set for the elevator block having the block identifier “16”. Moreover, as location information, there exists information regarding a location, such as an intersection and a slope, for example. Furthermore, as environmental information, there exists information regarding an environment, for example, it is easy to slip and there is much traffic.

目標経路生成部52fは、目的地設定部52aが出力した目的地情報と、現在位置補正部52dが出力した補正後の自己位置情報とを取得する。続いて、目標経路生成部52fは、取得した目的地情報と、補正後の自己位置情報と、地図情報記憶部52eが記憶している地図情報(隣接ブロック情報)とに基づき、案内用ロボット1(移動体2)の現在位置から目的地までの移動体2の目標経路を生成する。目標経路の生成方法としては、例えば、ダイクストラ法等、公知のアルゴリズムを採用できる。これにより、目標経路生成部52fは、建造物が複数の階間を移動するかごを備えたエレベータを有している場合に、案内用ロボット1(移動体2)の現在位置の階と異なる階に目的地が設定されると、エレベータによる階間の移動、つまり、目的地の階への移動を含む目標経路を生成する。   The target route generation unit 52f acquires the destination information output by the destination setting unit 52a and the corrected self-location information output by the current position correction unit 52d. Subsequently, the target route generation unit 52f is based on the acquired destination information, the corrected self-location information, and the map information (adjacent block information) stored in the map information storage unit 52e. A target route of the moving body 2 from the current position of the (moving body 2) to the destination is generated. As a method for generating the target route, for example, a known algorithm such as Dijkstra method can be adopted. Thereby, the target route generation unit 52f has a floor different from the floor at the current position of the guidance robot 1 (moving body 2) when the building has an elevator including a car that moves between a plurality of floors. When the destination is set, the target route including the movement between the floors by the elevator, that is, the movement of the destination to the floor is generated.

その際、目標経路として、地図情報記憶部52eが記憶している地図情報(場所情報、環境情報)に基づき、交差点、下りスロープ等、被歩行者の歩行負荷が比較的大きいブロックを可能な限り回避する経路を生成する構成としてもよい。そして、目標経路生成部52fは、生成した目標経路と、各ブロックの場所情報及び環境情報とを含む目標経路情報を現在位置推定部52cと移動制御部51(走行方向算出部51a)とに出力する。   At that time, as a target route, a block having a relatively large walking load on the person to be walked, such as an intersection or a descending slope, based on the map information (location information, environment information) stored in the map information storage unit 52e as much as possible. It is good also as a structure which produces | generates the path | route to avoid. Then, the target route generation unit 52f outputs the generated target route and target route information including the location information and environment information of each block to the current position estimation unit 52c and the movement control unit 51 (traveling direction calculation unit 51a). To do.

また、目標経路生成部52fは、移動体2の現在位置またはこれから進行する領域の場所情報や環境情報を報知するための音声案内情報を音声出力部52gに出力する。
音声出力部52gは、目的地設定部52a、目標経路生成部52fが出力した音声案内情報をスピーカ69に出力させる。これにより音声出力部52gは、場所情報と環境情報とを報知する。
In addition, the target route generation unit 52f outputs to the voice output unit 52g voice guidance information for notifying the current position of the moving body 2 or the location information and the environment information of the area to be advanced.
The voice output unit 52g causes the speaker 69 to output the voice guidance information output from the destination setting unit 52a and the target route generation unit 52f. Thereby, the voice output unit 52g notifies the location information and the environment information.

(停止階推定処理)
次に、図10を参照し、高さ位置推定部52h、停止階推定部52i、及び移動速度推定部52j(現在位置推定部52c)が実行する停止階推定処理について説明する。
図10に示すように、まず、ステップS100に移行して、高さ位置推定部52h及び移動速度推定部52jは、センサ信号入力I/F61が出力した加速度情報(上下方向の加速度az)に基づき、移動体2の上下方向への移動速度vzを推定する。具体的には、下記(4)式に従い、(az−g)を積分して移動速度vzを推定する。積分範囲は、案内用ロボット1がエレベータのかごに乗車した時刻、つまり、停止階推定処理の実行を開始した時刻tstartから現在の時刻tnowまでとする。ここで、gは重力加速度である。
(Stop floor estimation process)
Next, stop floor estimation processing executed by the height position estimation unit 52h, the stop floor estimation unit 52i, and the movement speed estimation unit 52j (current position estimation unit 52c) will be described with reference to FIG.
As shown in FIG. 10, first, the process proceeds to step S100, where the height position estimation unit 52h and the movement speed estimation unit 52j are based on acceleration information (vertical acceleration az) output from the sensor signal input I / F 61. The moving speed vz of the moving body 2 in the vertical direction is estimated. Specifically, according to the following equation (4), (az−g) is integrated to estimate the moving speed vz. The integration range is from the time when the guidance robot 1 gets into the elevator car, that is, from the time tstart when the stop floor estimation process is started to the current time tnow. Here, g is a gravitational acceleration.

Figure 2017033450
その際、高さ位置推定部52h及び移動速度推定部52jは、後述するステップS108で停止階が降車階ではないと判定され、このステップS100に戻った場合に、戻った時刻までの積分結果を「0」で置換して、移動速度vzの推定を行う構成としてもよい。
Figure 2017033450
At that time, the height position estimation unit 52h and the movement speed estimation unit 52j determine that the stop floor is not an unloading floor in step S108, which will be described later, and when returning to this step S100, the integration results up to the time of return are obtained. A configuration may be adopted in which the movement speed vz is estimated by replacing with “0”.

続いてステップS102に移行して、高さ位置推定部52hは、ステップS100で算出した移動速度vzに基づき、移動体2の高さ位置Hを算出する。具体的には、下記(5)式に従いvzを積分して高さ位置Hを算出する。積分範囲は、案内用ロボット1がエレベータのかごに乗車した時刻、つまり、停止階推定処理の実行を開始した時刻tstartから現在の時刻tnowまでとする。エレベータ停止時の高さ位置Hの算出には、積分範囲として、時刻tstartからエレベータのかごが停止した時刻tstopまでの期間を用いる。   Subsequently, the process proceeds to step S102, and the height position estimation unit 52h calculates the height position H of the moving body 2 based on the moving speed vz calculated in step S100. Specifically, the height position H is calculated by integrating vz according to the following equation (5). The integration range is from the time when the guidance robot 1 gets into the elevator car, that is, from the time tstart when the stop floor estimation process is started to the current time tnow. For calculation of the height position H when the elevator is stopped, a period from time tstart to time tstop when the elevator car stops is used as an integration range.

移動体2の高さ位置Hとしては、予め定められた基準面(例えば、建造物の1階の床面)から、移動体2の駆動輪6L、6Rが接地している位置までの高さを採用する。なお、案内用ロボット1(移動体2)がエレベータのかごに乗車した乗車階が1階ではない場合には、基準面から乗車階の床面までの高さ位置を下記(5)式の右辺側に更に加算する。エレベータのかごへの乗車階としては、前回の停止階推定処理の実行時にステップS108で判定された降車階を採用する。また、電源投入時(起動時)に案内用ロボット1の管理者に案内用ロボット1がいる階を入力させておき、案内用ロボット1の電源投入後(起動後)、最初に停止階推定処理が実行された場合には、その入力させた階を採用する。   The height position H of the moving body 2 is a height from a predetermined reference plane (for example, the floor surface on the first floor of the building) to a position where the driving wheels 6L and 6R of the moving body 2 are grounded. Is adopted. If the boarding floor on which the guiding robot 1 (moving body 2) gets in the elevator car is not the first floor, the height position from the reference plane to the floor of the boarding floor is the right side of the following equation (5) Further add to the side. As the elevator floor of the elevator car, the getting-off floor determined in step S108 when the previous stop floor estimation process is executed is adopted. In addition, when the power is turned on (at startup), the manager of the guidance robot 1 is made to input the floor on which the guidance robot 1 is located, and after the power is turned on (after startup), the first stop floor estimation process is performed. When is executed, the input floor is adopted.

Figure 2017033450
Figure 2017033450

その際、高さ位置推定部52hは、後述するステップS106でエレベータのかごの停止階が推定された後、ステップS108を経て、このステップS102に戻った場合に、戻った時刻までの積分結果を、停止階に対応した高さ位置で置換して、移動体2の高さ位置Hの推定を行う構成としてもよい。具体的には、高さ位置推定部52hは、各階高さ記憶部52bが記憶している各階高さから、停止階に対応した高さ位置を取得する。そして、取得した高さ位置を、戻った時刻までの積分結果として、高さ位置Hの推定を行う。   At that time, the height position estimation unit 52h, after estimating the elevator car stop floor in step S106, which will be described later, returns to this step S102 through step S108, the integration result up to the return time is obtained. The height position H of the moving body 2 may be estimated by replacing the height position corresponding to the stop floor. Specifically, the height position estimation unit 52h acquires the height position corresponding to the stop floor from each floor height stored in each floor height storage unit 52b. Then, the height position H is estimated using the acquired height position as an integration result up to the return time.

続いてステップS104に移行して、停止階推定部52iは、案内用ロボット1(移動体2)が乗車しているエレベータのかごが停止しているか否かを判定する。具体的には、停止階推定部52iは、ステップS100で算出した移動速度vzが「0」であるか否かを判定する。その際、停止階推定部52iは、移動速度vzの絶対値が予め定められた十分に小さい設定速度(≒0)以下であると判定した場合に、移動速度vzが「0」であると判定する構成としてもよい。これにより、加速度azに含まれる誤差により、加速度azから推定される上下方向の移動速度vzに誤差が含まれる場合にも、エレベータのかごの停止を適切に判定できる。そして、停止階推定部52iは、移動速度vzが「0」であると判定した場合には(Yes)、エレベータのかごが停止していると判定し、ステップS106に移行する。一方、停止階推定部52iは、移動速度vが「0」でないと判定した場合には(No)、エレベータが移動していると判定し、ステップS100に戻る。   Subsequently, the process proceeds to step S104, and the stop floor estimation unit 52i determines whether or not the elevator car on which the guidance robot 1 (moving body 2) is riding is stopped. Specifically, the stop floor estimation unit 52i determines whether or not the moving speed vz calculated in step S100 is “0”. At this time, the stop floor estimation unit 52i determines that the moving speed vz is “0” when it is determined that the absolute value of the moving speed vz is equal to or less than a predetermined sufficiently small set speed (≈0). It is good also as composition to do. Thus, even when the vertical movement speed vz estimated from the acceleration az includes an error due to the error included in the acceleration az, it is possible to appropriately determine whether the elevator car is stopped. If the stop floor estimation unit 52i determines that the moving speed vz is “0” (Yes), the stop floor estimation unit 52i determines that the elevator car is stopped and proceeds to step S106. On the other hand, when it is determined that the moving speed v is not “0” (No), the stop floor estimating unit 52i determines that the elevator is moving and returns to step S100.

続いてステップS106に移行して、停止階推定部52iは、ステップS102で算出した高さ位置Hと、各階高さ記憶部52bが記憶している建造物の各階の高さ位置とを比較して、エレベータのかごの停止階を推定する。具体的には、停止階推定部52iは、移動体2の高さ位置Hが、建造物の各階の高さ位置のいずれに最も近いかを判定し、最も近いと判定された高さ位置に対応した階を停止階と推定する。これにより、加速度azに含まれる誤差により、加速度azから推定される移動体2の高さ位置に各階高さ記憶部52bが記憶されている停止階の高さ位置からずれた場合にも、停止階を適切に推定できる。   Subsequently, the process proceeds to step S106, and the stop floor estimation unit 52i compares the height position H calculated in step S102 with the height position of each floor of the building stored in each floor height storage unit 52b. Estimate the stop floor of the elevator car. Specifically, the stop floor estimation unit 52i determines which of the height positions H of the moving body 2 is closest to each floor of the building, and sets the height position determined to be closest. Estimate the corresponding floor as a stop floor. Thus, even if the error included in the acceleration az deviates from the height position of the stop floor where each floor height storage unit 52b is stored at the height position of the moving body 2 estimated from the acceleration az, the stop is stopped. The floor can be estimated appropriately.

ここで、加速度azに1[%]の誤差が含まれると仮定し、移動体2の高さ位置Hに蓄積される蓄積誤差を評価する。例えば、速度0.75[m/sec]のエレベータで10[m](約3階分)移動する場合を考える。この場合、移動時間は13[sec]となるため、蓄積誤差を考慮した移動体2の高さ位置Heの算出式は、下記(6)式のように表される。   Here, it is assumed that the acceleration az includes an error of 1 [%], and an accumulation error accumulated at the height position H of the moving body 2 is evaluated. For example, consider a case in which an elevator with a speed of 0.75 [m / sec] moves 10 [m] (about 3 floors). In this case, since the moving time is 13 [sec], the calculation formula of the height position He of the moving body 2 in consideration of the accumulation error is expressed as the following formula (6).

Figure 2017033450
Figure 2017033450

これにより、H=10[m]より、蓄積誤差が1[m]ほどで済むことが確認できた。
続いてステップS108に移行して、停止階推定部52iは、目標経路生成部52fが出力した目標経路情報(目標経路)に基づき、案内用ロボット1(移動体2)の降車階を判定する。降車階としては、目標経路に含まれているエレベータによる階間の移動における、移動先の階を検出する。移動先の階としては、目的地の階を採用する。続いて、停止階推定部52iは、ステップS106で推定した停止階が、判定した降車階であるか否かを判定する。そして、停止階推定部52iは、推定した停止階が降車階であると判定した場合には(Yes)、ステップS110に移行する。一方、停止階推定部52iは、推定した停止階が降車階ではないと判定した場合には(No)、ステップS100に戻る。
As a result, it was confirmed that the accumulation error is about 1 [m] from H = 10 [m].
Subsequently, the process proceeds to step S108, and the stop floor estimation unit 52i determines the getting-off floor of the guidance robot 1 (moving body 2) based on the target route information (target route) output by the target route generation unit 52f. As the getting-off floor, the destination floor in the movement between the floors by the elevator included in the target route is detected. The destination floor is adopted as the destination floor. Subsequently, the stop floor estimation unit 52i determines whether or not the stop floor estimated in step S106 is the determined getting-off floor. If the stop floor estimation unit 52i determines that the estimated stop floor is the getting-off floor (Yes), the process proceeds to step S110. On the other hand, if the stop floor estimation unit 52i determines that the estimated stop floor is not the getting-off floor (No), the process returns to step S100.

ステップS110では、停止階推定部52iは、現在位置推定部52cが移動制御部51に出力する自己位置情報に降車指令を付加させた後、この停止階推定処理を終了する。
なお、本実施形態では、ステップS108及びS110の処理を、統括制御部52の停止階推定部52iが実行する例を示したが、他の構成を採用することもできる。例えば、移動制御部51が実行する構成としてもよい。
In step S110, the stop floor estimation unit 52i adds a getting-off command to the self-position information output from the current position estimation unit 52c to the movement control unit 51, and then ends the stop floor estimation process.
In the present embodiment, an example in which the processing of steps S108 and S110 is executed by the stop floor estimation unit 52i of the overall control unit 52 is shown, but other configurations may be employed. For example, it is good also as a structure which the movement control part 51 performs.

(動作その他)
次に、案内用ロボット1の動作について説明する。
案内用ロボット1(移動体2)による被案内者の案内中、被案内者によるグリップ17aの押下に従い、案内用ロボット1(移動体2)がエレベータのかごに乗車したとする。すると、天井マーカー検出センサ25が、エレベータのかごの天井に設置されたマーカー100のマーカー位置情報を検出し、検出されたマーカー100のマーカー位置情報を統括制御部52に出力する。続いて、統括制御部52の現在位置推定部52cが、出力されたマーカー位置情報、つまり、エレベータブロックの位置の情報を自己位置情報とする。
(Operation other)
Next, the operation of the guidance robot 1 will be described.
Assume that the guiding robot 1 (moving body 2) gets on the elevator car as the guided person presses the grip 17a during guidance of the guided person by the guiding robot 1 (moving body 2). Then, the ceiling marker detection sensor 25 detects marker position information of the marker 100 installed on the ceiling of the elevator car, and outputs the marker position information of the detected marker 100 to the overall control unit 52. Subsequently, the current position estimation unit 52c of the overall control unit 52 sets the output marker position information, that is, information on the position of the elevator block as self-position information.

その際、現在位置推定部52cでは、加速度検出部24が検出した移動体2の上下方向に作用する加速度az(加速度情報)に基づき、移動体2の上下方向への移動速度vz、及び移動体2の高さ位置Hが順次算出される(図10のステップS100、S102)。
ここで、エレベータが目的地の階と異なる階、つまり、移動体2の降車階と異なる階に停止したとする。すると、現在位置推定部52cが、エレベータのかごが停止していると判定し(図10のステップS104「Yes」)、算出した移動体2の高さ位置Hと建造物の各階の高さ位置とが比較され、エレベータのかごの停止階を推定し(図10のステップS106)、停止階が降車階ではないと判定する(図10のステップS108「No」)。これにより、移動制御部51に出力する自己位置情報には降車指令が付加されない。
At that time, in the current position estimation unit 52c, the moving speed vz of the moving body 2 in the vertical direction and the moving body based on the acceleration az (acceleration information) acting in the vertical direction of the moving body 2 detected by the acceleration detecting unit 24. The height position H of 2 is sequentially calculated (steps S100 and S102 in FIG. 10).
Here, it is assumed that the elevator stops at a different floor from the destination floor, that is, a floor different from the floor where the moving body 2 gets off. Then, the current position estimation unit 52c determines that the elevator car is stopped (step S104 “Yes” in FIG. 10), and the calculated height position H of the moving body 2 and the height position of each floor of the building. And the stop floor of the elevator car is estimated (step S106 in FIG. 10), and it is determined that the stop floor is not the getting-off floor (step S108 “No” in FIG. 10). Thereby, the getting-off command is not added to the self-position information output to the movement control unit 51.

続いて、現在位置補正部52dが、推定された自己位置情報を補正する。続いて、移動制御部51の走行方向算出部51aが、補正後の自己位置情報に降車指令が付加されていないと判定し、待機状態となり前後進速度V0及び旋回速度ω0の出力を停止する。これにより、案内用ロボット1(移動体2)は、移動せずエレベータ内にとどまる。また、被案内者は、移動体2がエレベータ内にとどまるため、グリップ17aの押下を停止する。   Subsequently, the current position correction unit 52d corrects the estimated self-position information. Subsequently, the traveling direction calculation unit 51a of the movement control unit 51 determines that the getting-off command is not added to the corrected self-position information, enters a standby state, and stops outputting the forward / reverse speed V0 and the turning speed ω0. Thereby, the guidance robot 1 (moving body 2) does not move and stays in the elevator. The guided person stops pressing the grip 17a because the moving body 2 stays in the elevator.

その後、エレベータが目的地の階、つまり、移動体2の降車階に停止したとする。すると、現在位置推定部52cが、停止階が降車階であると判定し(図10のステップS108「Yes」)、移動制御部51に出力する自己位置情報に降車指令を付加する(図10のステップS110)。それゆえ、移動制御部51の走行方向算出部51aが、補正後の自己位置情報に降車指令が付加されていると判定し、待機状態を解除し、前後進速度V0及び旋回速度ω0の出力の停止を解除する。続いて、走行方向算出部51aが、被案内者にエレベータからの降車を促す音声案内情報を生成し、生成した音声案内情報を音声出力I/F64を介してスピーカ69に出力させる。これにより、被案内者に、案内用ロボット1(移動体2)の移動を再開させる操作、つまり、グリップ17aの押下を行わせる。   After that, it is assumed that the elevator has stopped at the destination floor, that is, the exit floor of the moving body 2. Then, the current position estimating unit 52c determines that the stop floor is the getting-off floor (step S108 “Yes” in FIG. 10), and adds the getting-off command to the self-position information output to the movement control unit 51 (FIG. 10). Step S110). Therefore, the traveling direction calculation unit 51a of the movement control unit 51 determines that the getting-off command is added to the corrected self-position information, cancels the standby state, and outputs the forward / reverse speed V0 and the turning speed ω0. Release the stop. Subsequently, the traveling direction calculation unit 51a generates voice guidance information that prompts the guided person to get off the elevator, and outputs the generated voice guidance information to the speaker 69 via the voice output I / F 64. This causes the guided person to perform an operation of resuming the movement of the guiding robot 1 (moving body 2), that is, depressing the grip 17a.

ここで、被案内者が、グリップ17aの押下を再開したとする。すると、走行方向算出部51aが、前後進速度V0及び旋回速度ω0を走行方向補正部51cの出力を再開する。続いて、走行方向補正部51cが、前後進速度V0及び旋回速度ω0を補正する。続いて、モータ駆動制御部51dが、補正後の前後進速度V及び旋回速度ωに基づき、電動モータ9L、9Rを駆動するための速度指令値を速度指令値出力I/F62を介してモータドライバ67L、67Rに出力する。これにより、案内用ロボット1(移動体2)が、グリップ17aの押下に応じ、目標経路に沿って移動し、エレベータのかごから降車する。   Here, it is assumed that the guided person resumes pressing the grip 17a. Then, the traveling direction calculation unit 51a restarts the output of the traveling direction correction unit 51c with the forward / reverse speed V0 and the turning speed ω0. Subsequently, the traveling direction correction unit 51c corrects the forward / reverse speed V0 and the turning speed ω0. Subsequently, the motor drive control unit 51d sends a speed command value for driving the electric motors 9L and 9R to the motor driver via the speed command value output I / F 62 based on the corrected forward / reverse speed V and turning speed ω. Output to 67L and 67R. As a result, the guidance robot 1 (moving body 2) moves along the target route in response to the pressing of the grip 17a and gets off the elevator car.

このように、本実施形態では、現在位置推定部52cが、加速度検出部24で検出した加速度azに基づき、移動体2の高さ位置を推定する(図10のステップS101、S102)。また、移動体2が乗車しているエレベータのかごが停止していると判定した場合に、推定した高さ位置Hと建造物の各階の高さ位置とを比較して、エレベータのかごの停止階を推定する(図10のステップS106)。さらに、移動制御部51が、推定した停止階が、目標経路に含まれているエレベータによる階間の移動における、移動先の階である場合に、エレベータのかごから降車するように移動体2の移動を制御する。   Thus, in the present embodiment, the current position estimation unit 52c estimates the height position of the moving body 2 based on the acceleration az detected by the acceleration detection unit 24 (steps S101 and S102 in FIG. 10). When it is determined that the elevator car on which the moving body 2 is on is stopped, the estimated height position H is compared with the height position of each floor of the building to stop the elevator car. The floor is estimated (step S106 in FIG. 10). Furthermore, when the estimated stop floor is the destination floor in the movement between the elevators included in the target route, the movement control unit 51 causes the moving body 2 to get off from the elevator car. Control movement.

これにより、本実施形態によれば、案内用ロボット1単体で停止階を判定できる。そのため、建造物側に停止階の判定用の機器を取り付ける必要がなく、既存のエレベータを利用でき、設置コストの増大を抑制できる。これにより、降車階をより容易に判定できる。
ちなみに、例えばエレベータに通信装置を設置し、案内用ロボット1とエレベータとで通信を行い、停止階を判定する方法では、エレベータの改造が必要となり、既存のエレベータを利用できず、設置コストが増大するため、降車階の判定機能の実現が困難となる。
また、例えば、エレベータの各階の扉に取り付けた階数の識別タグを読み取って、停止階を判定する方法では、識別タグの取り付けの手間がかかり、設置コストが大きくなる。また、識別タグの読み取り不良が発生して、降車階の判定が困難となる可能性がある。
Thereby, according to this embodiment, a stop floor can be determined by the guidance robot 1 alone. Therefore, it is not necessary to attach a stop floor determination device to the building side, an existing elevator can be used, and an increase in installation cost can be suppressed. Thereby, alighting floor can be determined more easily.
By the way, for example, a method of installing a communication device in an elevator, communicating between the guidance robot 1 and the elevator, and determining the stop floor requires modification of the elevator, making it impossible to use the existing elevator and increasing the installation cost. Therefore, it is difficult to realize the function of determining the getting-off floor.
Further, for example, in the method of determining the stop floor by reading the identification tag of the number of floors attached to the doors of each floor of the elevator, it takes time to install the identification tag and the installation cost increases. In addition, a reading failure of the identification tag may occur and it may be difficult to determine the getting-off floor.

(本実施形態の効果)
本実施形態に係る発明は、次のような効果を奏する。
(1)本実施形態に係る案内用ロボット1では、高さ位置推定部52hは、加速度検出部24で検出した加速度azに基づき、移動体2の高さ位置を推定する。また、停止階推定部52iは、移動体2が乗車しているエレベータのかごが停止していると判定した場合に、推定した高さ位置Hと建造物の各階の高さ位置とを比較して、エレベータのかごの停止階を推定する。さらに、移動制御部51は、推定した停止階が、目標経路に含まれているエレベータによる階間の移動における、移動先の階(降車階)である場合に、エレベータのかごから降車するように移動体2の移動を制御する。
このような構成によれば、移動ロボット単体で停止階を判定できる。そのため、建造物側に停止階の判定用の機器を取り付ける必要がなく、降車階をより容易に判定できる。
(Effect of this embodiment)
The invention according to this embodiment has the following effects.
(1) In the guidance robot 1 according to the present embodiment, the height position estimation unit 52h estimates the height position of the moving body 2 based on the acceleration az detected by the acceleration detection unit 24. In addition, the stop floor estimation unit 52i compares the estimated height position H with the height position of each floor of the building when it is determined that the elevator car on which the moving body 2 is traveling is stopped. Estimate the stop floor of the elevator car. Furthermore, when the estimated stop floor is a destination floor (alighting floor) in the movement between floors by an elevator included in the target route, the movement control unit 51 gets off the elevator car. The movement of the moving body 2 is controlled.
According to such a configuration, the stop floor can be determined by a single mobile robot. Therefore, it is not necessary to attach a stop floor determination device to the building side, and the getting-off floor can be determined more easily.

(2)本実施形態に係る案内用ロボット1では、停止階推定部52iは、高さ位置推定部52hで推定した高さ位置Hが、建造物の各階の高さ位置のいずれに最も近いかを判定し、最も近いと判定された高さ位置に対応した階を停止階と推定する。
このような構成によれば、加速度azに含まれる誤差により、加速度azから推定される移動体2の高さ位置Hが停止階の高さ位置からずれても、停止階を適切に推定できる。
(2) In the guidance robot 1 according to the present embodiment, the stop floor estimation unit 52i is closest to the height position H of each floor of the building, which is estimated by the height position estimation unit 52h. And the floor corresponding to the height position determined to be closest is estimated as the stop floor.
According to such a configuration, even if the height position H of the moving body 2 estimated from the acceleration az deviates from the height position of the stop floor due to an error included in the acceleration az, the stop floor can be estimated appropriately.

(3)本実施形態に係る案内用ロボット1では、移動速度推定部52jは、加速度検出部24で検出した加速度azに基づき、移動体2の上下方向への移動速度vzを推定し、停止階推定部52iは、移動速度推定部52jで算出した移動速度vzが「0」であると判定した場合に、移動体2が乗車しているエレベータのかごが停止していると判定する。
このような構成によれば、エレベータの停止を容易に判定できる。
(3) In the guidance robot 1 according to the present embodiment, the moving speed estimation unit 52j estimates the moving speed vz of the moving body 2 in the vertical direction based on the acceleration az detected by the acceleration detecting unit 24, and stops the stop floor. When it is determined that the moving speed vz calculated by the moving speed estimating unit 52j is “0”, the estimating unit 52i determines that the elevator car on which the moving body 2 is on is stopped.
According to such a configuration, it is possible to easily determine whether the elevator is stopped.

(変形例)
(1)さらに、本実施形態では、マーカー100を用いて、移動体2の現在位置を推定する例を示したが、他の構成を採用することもできる。例えば、無線ビーコンを用いて、移動体2の現在位置を推定する構成としてもよい。具体的には、図11に示すように、案内用ロボット1は、建造物内の複数箇所に設置された無線送信機から送信される無線ビーコンを受信する無線受信部26を更に備える。そして、現在位置推定部52cが、無線受信部26で受信した無線ビーコンの電波強度に基づき、移動体2の現在位置を推定する。これにより、移動体2の現在位置を比較的容易に推定できる。
(Modification)
(1) Furthermore, in this embodiment, although the example which estimates the present position of the mobile body 2 using the marker 100 was shown, another structure is also employable. For example, it is good also as a structure which estimates the present position of the mobile body 2 using a radio beacon. Specifically, as illustrated in FIG. 11, the guidance robot 1 further includes a wireless reception unit 26 that receives wireless beacons transmitted from wireless transmitters installed at a plurality of locations in a building. Then, the current position estimation unit 52 c estimates the current position of the mobile body 2 based on the radio wave intensity of the wireless beacon received by the wireless reception unit 26. Thereby, the present position of the mobile body 2 can be estimated comparatively easily.

(2)また、例えば、屋内GPS(Global Positioning System)を用いて、移動体2の現在位置を推定する構成としてもよい。具体的には、図12に示すように、案内用ロボット1は、建造物内に設置された屋内GPS送信機から送信される屋内位置情報を受信する屋内位置情報受信部27を更に備える。屋内位置情報としては、例えば、建造物内における移動体2の現在位置の推定に用いられる情報(例えばGPS信号)がある。そして、現在位置推定部52cは、屋内位置情報受信部27で受信した屋内位置情報に基づき、移動体2の現在位置を推定する。これにより、移動体2の現在位置を比較的容易に推定できる。
(3)さらに、本実施形態では、被案内者を、設定した目的地まで案内する案内用ロボット1に適用する例を示したが、他の構成を採用することもできる。例えば、地図情報を基に移動を制御する(ナビゲーションする)自動搬送車や車椅子等に適用してもよい。
(2) Moreover, it is good also as a structure which estimates the present position of the mobile body 2 using indoor GPS (Global Positioning System), for example. Specifically, as shown in FIG. 12, the guidance robot 1 further includes an indoor position information receiving unit 27 that receives indoor position information transmitted from an indoor GPS transmitter installed in a building. As the indoor position information, for example, there is information (for example, GPS signal) used for estimating the current position of the moving body 2 in the building. Then, the current position estimating unit 52 c estimates the current position of the mobile body 2 based on the indoor position information received by the indoor position information receiving unit 27. Thereby, the present position of the mobile body 2 can be estimated comparatively easily.
(3) Furthermore, in this embodiment, although the example applied to the guidance robot 1 which guides a to-be-guided person to the set destination was shown, another structure can also be employ | adopted. For example, the present invention may be applied to an automated guided vehicle or a wheelchair that controls (navigates) movement based on map information.

1 案内用ロボット
2 移動体
24 加速度検出部
51 移動制御部
52d 現在位置補正部
52f 目標経路生成部
52h 高さ位置推定部
52i 停止階推定部
52j 移動速度推定部
DESCRIPTION OF SYMBOLS 1 Guide robot 2 Mobile body 24 Acceleration detection part 51 Movement control part 52d Current position correction | amendment part 52f Target path | route production | generation part 52h Height position estimation part 52i Stop floor estimation part 52j Movement speed estimation part

Claims (3)

建造物内を移動可能な移動体と、
前記移動体が移動する建造物内の地図情報に基づき、設定した目的地までの前記移動体の目標経路を生成する目標経路生成部と、
前記移動体の現在位置を推定する現在位置推定部と、
前記現在位置推定部で推定した現在位置、及び前記目標経路生成部で生成した目標経路に基づき、前記移動体の移動を制御する移動制御部と、
前記移動体に作用する上下方向の加速度を検出する加速度検出部とを備え、
前記目標経路生成部は、前記建造物が複数の階間を移動するかごを備えたエレベータを有している場合に、エレベータによる階間の移動を含む目標経路を生成し、
前記現在位置推定部は、前記加速度検出部で検出した加速度に基づき、前記移動体の高さ位置を推定する高さ位置推定部と、前記移動体が乗車しているエレベータのかごが停止していると判定した場合に、前記高さ位置推定部で推定した高さ位置と前記建造物の各階の高さ位置とを比較して、エレベータのかごの停止階を推定する停止階推定部とを備え、
前記移動制御部は、前記停止階推定部で推定した停止階が、前記目標経路に含まれているエレベータによる階間の移動における、移動先の階である場合に、エレベータのかごから降車するように前記移動体の移動を制御する移動ロボット。
A movable body that can move in the building;
A target route generating unit that generates a target route of the moving body to a set destination based on map information in a building in which the moving body moves;
A current position estimating unit for estimating a current position of the moving body;
Based on the current position estimated by the current position estimation unit and the target route generated by the target route generation unit, a movement control unit that controls the movement of the moving body;
An acceleration detection unit that detects vertical acceleration acting on the moving body,
The target route generation unit generates a target route including movement between floors by an elevator when the building has an elevator including a car that moves between a plurality of floors.
The current position estimation unit includes a height position estimation unit that estimates a height position of the moving body based on the acceleration detected by the acceleration detection unit, and an elevator car on which the moving body is on the stop. A stop floor estimation unit that estimates the stop floor of the elevator car by comparing the height position estimated by the height position estimation unit with the height position of each floor of the building. Prepared,
When the stop floor estimated by the stop floor estimation unit is a destination floor in the movement between floors by an elevator included in the target route, the movement control unit may get off from the elevator car. A mobile robot for controlling the movement of the mobile body.
前記停止階推定部は、前記高さ位置推定部で推定した高さ位置が、前記建造物の各階の高さ位置のいずれに最も近いかを判定し、最も近いと判定された高さ位置に対応した階を停止階と推定する請求項1に記載の移動ロボット。   The stop floor estimation unit determines which height position estimated by the height position estimation unit is the closest to the height position of each floor of the building, and the height position determined to be the closest The mobile robot according to claim 1, wherein the corresponding floor is estimated as a stop floor. 前記加速度検出部で検出した加速度に基づき、前記移動体の上下方向への移動速度を推定する移動速度推定部を更に備え、
前記停止階推定部は、前記移動速度推定部で推定した移動速度が「0」であると判定した場合に、前記移動体が乗車しているエレベータのかごが停止していると判定する請求項1または2に記載の移動ロボット。
Based on the acceleration detected by the acceleration detection unit, further comprising a movement speed estimation unit that estimates the movement speed of the moving body in the vertical direction,
The said stop floor estimation part determines with the car of the elevator in which the said mobile body is boarding stopping, when it determines with the movement speed estimated in the said movement speed estimation part being "0". The mobile robot according to 1 or 2.
JP2015155216A 2015-08-05 2015-08-05 Moving robot Pending JP2017033450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015155216A JP2017033450A (en) 2015-08-05 2015-08-05 Moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015155216A JP2017033450A (en) 2015-08-05 2015-08-05 Moving robot

Publications (1)

Publication Number Publication Date
JP2017033450A true JP2017033450A (en) 2017-02-09

Family

ID=57988269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015155216A Pending JP2017033450A (en) 2015-08-05 2015-08-05 Moving robot

Country Status (1)

Country Link
JP (1) JP2017033450A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019052027A (en) * 2017-09-15 2019-04-04 株式会社日立製作所 Support robot and building management system device interlocked therewith
CN110861094A (en) * 2019-12-09 2020-03-06 上海高仙自动化科技发展有限公司 Robot control method, robot, and readable storage medium
JPWO2020235004A1 (en) * 2019-05-21 2020-11-26
CN113788377A (en) * 2021-09-16 2021-12-14 北京云迹科技有限公司 Robot elevator taking detection method and device
CN113853279A (en) * 2019-05-28 2021-12-28 X开发有限责任公司 Robot configuration with three-dimensional lidar
JP7099579B1 (en) 2021-04-05 2022-07-12 三菱電機株式会社 Mobile control device, mobile cooperation device and mobile cooperation system
CN115043277A (en) * 2022-05-20 2022-09-13 浙江孚宝智能科技有限公司 Control method and system for robot to take elevator and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5917614A (en) * 1982-07-21 1984-01-28 Komatsu Ltd Device for detecting lifting distance of unattended travelling car
JPH05210414A (en) * 1992-01-30 1993-08-20 Sogo Keibi Hoshiyou Kk Method for moving mobile robot
JP2012196731A (en) * 2011-03-22 2012-10-18 Toyota Motor Corp System and method for controlling movement of robot
JP2014119293A (en) * 2012-12-14 2014-06-30 Fuji Xerox Co Ltd Information processor and information processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5917614A (en) * 1982-07-21 1984-01-28 Komatsu Ltd Device for detecting lifting distance of unattended travelling car
JPH05210414A (en) * 1992-01-30 1993-08-20 Sogo Keibi Hoshiyou Kk Method for moving mobile robot
JP2012196731A (en) * 2011-03-22 2012-10-18 Toyota Motor Corp System and method for controlling movement of robot
JP2014119293A (en) * 2012-12-14 2014-06-30 Fuji Xerox Co Ltd Information processor and information processing program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019052027A (en) * 2017-09-15 2019-04-04 株式会社日立製作所 Support robot and building management system device interlocked therewith
JPWO2020235004A1 (en) * 2019-05-21 2020-11-26
JP7417130B2 (en) 2019-05-21 2024-01-18 日本電信電話株式会社 Position measurement method, motion control method, and motion control system
CN113853279A (en) * 2019-05-28 2021-12-28 X开发有限责任公司 Robot configuration with three-dimensional lidar
US11607804B2 (en) 2019-05-28 2023-03-21 X Development Llc Robot configuration with three-dimensional lidar
JP2022534836A (en) * 2019-05-28 2022-08-04 エックス デベロップメント エルエルシー Robot configuration using 3D lidar
CN110861094A (en) * 2019-12-09 2020-03-06 上海高仙自动化科技发展有限公司 Robot control method, robot, and readable storage medium
JP2022159902A (en) * 2021-04-05 2022-10-18 三菱電機株式会社 Mobile body controller, mobile body cooperation device and mobile body cooperation system
CN115159293A (en) * 2021-04-05 2022-10-11 三菱电机株式会社 Mobile body control device, mobile body cooperation device, and mobile body cooperation system
JP7099579B1 (en) 2021-04-05 2022-07-12 三菱電機株式会社 Mobile control device, mobile cooperation device and mobile cooperation system
CN115159293B (en) * 2021-04-05 2024-04-05 三菱电机株式会社 Mobile body control device, mobile body cooperation device, and mobile body cooperation system
CN113788377A (en) * 2021-09-16 2021-12-14 北京云迹科技有限公司 Robot elevator taking detection method and device
CN115043277A (en) * 2022-05-20 2022-09-13 浙江孚宝智能科技有限公司 Control method and system for robot to take elevator and storage medium

Similar Documents

Publication Publication Date Title
JP2017033450A (en) Moving robot
JP6569342B2 (en) Mobile robot
CN107636546B (en) Autonomous moving system
JP6601001B2 (en) TRAVEL DEVICE, GUIDING ROBOT, AND TRAVEL DEVICE CONTROL METHOD
JP5498178B2 (en) Method for controlling unmanned mobile body and unmanned mobile body
KR101049906B1 (en) Autonomous mobile apparatus and method for avoiding collisions of the same
JP2016024766A (en) Robot for guidance
JP2015047298A (en) Walking assist moving body
KR20170133149A (en) Autonomy driving method and system based on road learning
JP6638348B2 (en) Mobile robot system
JP2018120524A (en) Guide robot
JP7229128B2 (en) vehicle controller
JP2015084129A (en) Guidance robot
JP2019078692A (en) Self-driving vehicle allocation system and self-driving vehicle
JP5291420B2 (en) Obstacle avoidance device and self-propelled vehicle
JP2015077862A (en) Parking support apparatus
US20190199110A1 (en) Transportation device storage and charging
WO2018074117A1 (en) Moving device and moving device management system
JP6413919B2 (en) Vehicle attitude control device
JP2015083927A (en) Guidance robot
WO2017164911A1 (en) Transportation device
JP2017068439A (en) Autonomous traveling system
JP7180218B2 (en) Autonomous cart
JP2020107045A (en) Control apparatus of vehicle, control method, control program, and vehicle
JP2000242335A (en) Autonomous travel robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204