JP2010277236A - Autonomously traveling robot, follow-up system using the same, and follow-up method - Google Patents

Autonomously traveling robot, follow-up system using the same, and follow-up method Download PDF

Info

Publication number
JP2010277236A
JP2010277236A JP2009127633A JP2009127633A JP2010277236A JP 2010277236 A JP2010277236 A JP 2010277236A JP 2009127633 A JP2009127633 A JP 2009127633A JP 2009127633 A JP2009127633 A JP 2009127633A JP 2010277236 A JP2010277236 A JP 2010277236A
Authority
JP
Japan
Prior art keywords
follower
follow
obstruction
losing sight
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009127633A
Other languages
Japanese (ja)
Other versions
JP5214539B2 (en
Inventor
Takao Kunihiro
孝生 國弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2009127633A priority Critical patent/JP5214539B2/en
Publication of JP2010277236A publication Critical patent/JP2010277236A/en
Application granted granted Critical
Publication of JP5214539B2 publication Critical patent/JP5214539B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To continuously follow up a follow-up object, even when such a phenomenon that the follow-up object is missed is generated in any environment other than a corner. <P>SOLUTION: An autonomously traveling robot is provided with: a missing decision means 34a for determining whether a follow-up object has been missed by a follow-up object detection unit 37: a follow-up object location estimation means 70b for, when it is determined that the follow-up object has been missed, estimating a follow-up object location after the follow-up object is missed; a shading decision means 70a for determining whether the follow-up object has been shaded by a shading body based on the follow-up traveling location before the follow-up object is missed and the relative location relationship of the follow-up object estimation location and the location of the shading body after the follow-up object is missed; a travel path generation means 100a for, when it is determined that the follow-up object has been shaded by the shading object, generating a travel path on which the follow-up object estimation location of the follow-up object is targeted; and a traveling means 110a for making the follow-up object move by a traveling mechanism along the generated travel path. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法に関する。   The present invention relates to an autonomous traveling robot, a follow-up system using the autonomous travel robot, and a follow-up method.

この種の自律走行ロボットとして、搬送ロボットとした名称で特許文献1に記載された構成のものがある。
特許文献1に記載されている従来の自律走行ロボットは、被追走体である誘導者を認識して所定距離を保って追尾する機能を有するものであり、前記誘導者及び周囲の障害物等を検知する検知手段と、走行手段と、前記走行手段を制御する走行制御部を具備し、前記走行制御部は、前記検知手段で誘導者を認識して追従する。
そして、検知部が誘導者を認識できなくなった場合、認識できなくなった場所の近傍に曲がり角の存在を認識すると、当該曲がり角を曲がるように走行手段を制御する構成のものである。
As this type of autonomous traveling robot, there is a configuration described in Patent Document 1 under the name of a transfer robot.
The conventional autonomous traveling robot described in Patent Document 1 has a function of recognizing a guider who is a follower and tracking it while maintaining a predetermined distance. The guider and surrounding obstacles, etc. And a travel control unit that controls the travel unit. The travel control unit recognizes and follows the guide by the detection unit.
And when a detection part becomes unable to recognize a guider, if the presence of a corner is recognized in the vicinity of the place which cannot be recognized, a run means will be controlled so that the corner may be turned.

特開2004‐126802号公報JP 2004-126802 A

しかしながら、特許文献1に記載の自律走行ロボットでは、この自律走行ロボットが誘導者を見失う事象が、曲がり角を曲がるという限定した環境に限られるものである。
すなわち、誘導者が曲がり角を曲がること以外において、誘導者を見失う事象が生じる場合、自律走行ロボットが誘導者を見失い、かつ、その近傍に曲がり角が存在するときには、当該自律走行ロボットは、誘導者を見失ったことに気づくことなく、従ってまた、誘導者の移動方向とは関わりなく、その曲がり角を曲がってしまうという問題がある。
However, in the autonomous traveling robot described in Patent Document 1, an event in which the autonomous traveling robot loses sight of the guide is limited to a limited environment in which a corner is turned.
That is, when an event occurs in which an inducer loses sight of a person other than turning a corner, when the autonomous traveling robot loses sight of the guide and there is a corner in the vicinity thereof, the autonomous traveling robot There is a problem that the user turns the corner without noticing that he / she has lost sight, and therefore, regardless of the direction of movement of the guide.

そこで本発明は、被追走体を見失う事象が曲がり角以外の環境において生じる場合であっても、被追走体への追走を継続して行うことができる自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法の提供を目的としている。   Therefore, the present invention uses an autonomous traveling robot and an autonomous traveling robot that can continue to follow a tracked object even when an event of losing sight of the tracked object occurs in an environment other than a corner. The purpose is to provide a follow-up system and a follow-up method.

上記目的を達成するための本発明の構成は、次のとおりである。
請求項1に記載した自律走行ロボットは、被追走体を検出するための被追走体検出部と、移動するための走行機構とを有し、被追走体の移動に自律して追走する自律走行ロボットにおいて、被追走体検出部によって、被追走体を見失ったか否かを判定する見失判定手段と、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、被追走体を見失う前の位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、走行経路を生成する走行経路生成手段と、生成した上記走行経路に沿い、走行機構により走行させる走行手段とを有することを特徴としている。
The configuration of the present invention for achieving the above object is as follows.
The autonomous traveling robot described in claim 1 has a follower detection unit for detecting the follower and a traveling mechanism for moving, and autonomously follows the movement of the follower. In the autonomous running robot that runs, the follower detection unit determines whether or not the follower is lost, and when it is determined that the follower is lost, Relative position estimation means for estimating the position of the follower after losing sight, the position before losing sight of the follower, the estimated position of the follower after losing sight of the follower, and the position of the interceptor Based on the specific positional relationship, the occlusion determination means for determining whether or not the follower is obstructed by the obstruction, and when it is determined that the follower is obstructed by the obstruction, Targeting the follower estimated position of the follower, a travel route generating means for generating a travel route, and the generated travel route Along, it is characterized by having a traveling means for traveling by the traveling mechanism.

請求項2に記載の自律走行ロボットは、請求項1に記載した被追走体を見失ったときの自己と遮視物の両位置を結ぶ第一の遮視判別用直線と、被追走体を見失う前の被追走体位置と、その被追走体を見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線とを生成する判別用直線生成手段が設けられており、遮視判定手段は、生成した第一,第二の遮視判別用直線どうしが交差するか否かを判定している。   According to a second aspect of the present invention, there is provided an autonomous traveling robot according to the first aspect of the present invention, comprising: A discriminant straight line generating means is provided for generating a follower body position before losing sight of the follower and a second occluding discrimination line connecting the follower body estimated position after losing sight of the follower. The occlusion determination means determines whether or not the generated first and second occlusion determination straight lines intersect each other.

請求項3に記載の追走システムは、請求項3に記載した被追走体と、この被追走体を検出するための被追走体検出部及び移動するための走行機構とを有し、被追走体の移動に自律して追走するものであり、被追走体検出部によって、被追走体を見失ったか否かを判定する見失判定手段と、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、被追走体を見失う前の被追走体位置、被追走体を見失った後の相対的な被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、走行経路を生成する走行経路生成手段と、生成した上記走行経路に沿い、走行機構により移動させる走行手段とを自律走行ロボットに設けたことを特徴としている。   The follow-up system according to claim 3 includes the follow-up body according to claim 3, a follow-up body detection unit for detecting the follow-up body, and a travel mechanism for moving. The follower is autonomously following the movement of the follower, and the follower detector detects whether the follower is lost or not, and the follower is lost. After losing sight of the follower, the position estimation means that estimates the position of the follower after losing sight of the follower, and the follower position before losing sight of the follower An occlusion determination means for determining whether or not the follower is obstructed by the obstruction based on the relative position relationship between the estimated position of the follower and the position of the obstruction; When it is determined that the follower is obstructed by the obstacle, a travel route is generated that generates a travel route with the follower estimated position of the follower as a target. Along a section, the generated the running path, and characterized by providing a traveling means for moving the autonomous mobile robot by the running mechanism.

請求項4に記載の追走方法は、被追走体に、自律走行ロボットを自律して追走させる追走方法において、被追走体を見失ったか否かを判定する見失判定ステップと、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定ステップと、被追走体を見失う前の被追走体位置、被追走体を見失った後の相対的な被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定ステップと、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、走行経路を生成する走行経路生成ステップと、走行機構により生成した上記走行経路に沿って移動させることを特徴としている。   The follow-up method according to claim 4, wherein in the follow-up method in which the follower is made to follow the autonomous running robot autonomously, the loss determination step of determining whether or not the follower is lost, If it is determined that the follower has been lost, a position estimation step for estimating the position of the follower after losing sight of the follower, the position of the follower before the follower is lost, Based on the relative positional relationship between the estimated position of the follower after losing sight of the runner and the position of the obstacle, it is determined whether or not the follower is blocked by the obstacle. An occlusion determination step, a travel route generation step for generating a travel route with the follower estimated position of the follower as a target when it is determined that the follower is obstructed by the obstruction, and a travel It is characterized by moving along the travel route generated by the mechanism.

請求項1〜4に記載した各発明によれば、被追走体を見失ったか否かを判定し、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定し、被追走体を見失う前の被追走体位置、被追走体を見失った後の相対的な被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する。
また、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として走行経路を生成し、走行機構により生成した上記走行経路に沿って移動させているので、被追走体を見失う事象が曲がり角以外の環境において生じる場合であっても、被追走体への追走を継続して行うことができる。
According to each of the inventions described in claims 1 to 4, it is determined whether or not the follower is lost. When it is determined that the follower is lost, the follower after losing the follower is lost. Estimated runner position, the position of the follower before losing sight of the follower, the relative position of the follower after losing sight of the follower, and the relative position of the obstacle Based on the relationship, it is determined whether or not the follower is obstructed by the obstacle.
Further, when it is determined that the follower is blocked by the obstacle, a travel route is generated targeting the follower estimated position of the follower and along the travel route generated by the travel mechanism. Since it is moved, even if the event of losing sight of the follower occurs in an environment other than a corner, it is possible to continue to follow the follower.

請求項2に記載の発明によれば、被追走体を見失ったときの自己と遮視物の両位置を結ぶ第一の遮視判別用直線と、被追走体を見失う前の被追走体位置と、その被追走体を見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線とを生成し、遮視判定手段が、生成した第一,第二の遮視判別用直線どうしが交差するか否かを判定しているので、被追走体が遮視物に遮られたことを容易確実に判別することができる。   According to the second aspect of the present invention, the first occlusion determination straight line connecting both the self and the obstruction object when the follower is lost, and the follower before the follower is lost. A second straight line for determining the occlusion that connects the runner position and the estimated position of the follower after losing sight of the follower; Since it is determined whether or not the straight lines for obscuration determination intersect, it can be easily and reliably determined that the follower is blocked by the obscured object.

本発明の一実施形態に係る自律走行ロボットを用いた追走システムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the follow-up system using the autonomous running robot which concerns on one Embodiment of this invention. 同上の自律走行ロボットの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an autonomous mobile robot same as the above. 図1に示す追走システムの詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the follow-up system shown in FIG. (A)は、同上の自律走行ロボットが遮視物を検出する動作を示す説明図、(B)は、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する原理を示す説明図である。(A) is explanatory drawing which shows the operation | movement in which an autonomous traveling robot same as the above detects an obstruction, (B) is after losing sight of the to-be-followed body before losing sight of the to-be-followed body. It is explanatory drawing which shows the principle which determines whether the to-be-followed body was obstruct | occluded by the obstruction based on the relative positional relationship of the to-be-followed body estimation position and the position of the obstruction. 遮視物に被追走者が遮られたことを検出するアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm which detects that a follower is obstruct | occluded by the obstruction. 同上の自律走行ロボットの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the autonomous running robot same as the above. (A)は、他例に係る遮視物に被追走者が遮られた様子を示す説明図、(B)は、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が他例に係る遮視物に遮られたか否かを判定する原理を示す説明図である。(A) is explanatory drawing which shows a mode that the follower is obstruct | occluded by the obstruction object which concerns on another example, (B) is the follower position and follower before losing sight of the follower. Based on the relative position relationship between the estimated position of the follower and the position of the obstruction after losing sight, the principle of determining whether the follower is obstructed by the obstruction according to another example It is explanatory drawing shown.

以下に、本発明を実施するための形態について、図面を参照して説明する。図1は、本発明の一実施形態に係る自律走行ロボットを用いた追走システムの概略構成を示す説明図、図2は、自律走行ロボットの概略構成を示すブロック図である。また、図3は、図1に示す追走システムの詳細な構成を示すブロック図である。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated with reference to drawings. FIG. 1 is an explanatory diagram illustrating a schematic configuration of a follow-up system using an autonomous traveling robot according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a schematic configuration of the autonomous traveling robot. FIG. 3 is a block diagram showing a detailed configuration of the follow-up system shown in FIG.

図1に示すように、本発明の一実施形態に係る自律走行ロボットを用いた追走システムAは、被追走体Bと、自律走行ロボットCとを有して構成されている。
本実施形態における被追走体Bは例えば人(以下、「被追走者」という。)であり、コントローラ10と、腕に装着した反射マーカ12とを装備している。
As shown in FIG. 1, a follow-up system A using an autonomous traveling robot according to an embodiment of the present invention includes a follower B and an autonomous traveling robot C.
The follower B in this embodiment is, for example, a person (hereinafter referred to as “follower”), and is equipped with a controller 10 and a reflective marker 12 attached to the arm.

コントローラ10は、図3に示すように、自律走行ロボットCから送信されるメッセージを聞くためのイヤホン11、コントローラ兼通信部13及び無線LAN14を有して構成されており、詳細を後述する自律走行ロボットCとの間において所要の通信を行うものである。   As shown in FIG. 3, the controller 10 includes an earphone 11 for listening to a message transmitted from the autonomous mobile robot C, a controller / communication unit 13, and a wireless LAN 14. Necessary communication is performed with the robot C.

自律走行ロボットCは、図1に示すように、円筒形の本体30の上部に略半球形の頭部31を搭載しているとともに、その本体30の下部に4つの走行輪32a(32a)、32b(32b)を配設した外観構成になっている。
なお、走行輪32a(32a)、32b(32b)は、図示しないモータ等を含む走行機構36により、所謂スキッドステア方式によってそれぞれ独立して回転駆動されるようになっている。
As shown in FIG. 1, the autonomous traveling robot C has a substantially hemispherical head 31 mounted on an upper portion of a cylindrical main body 30, and four traveling wheels 32 a (32 a), The external structure is provided with 32b (32b).
The traveling wheels 32a (32a) and 32b (32b) are independently driven to rotate by a traveling mechanism 36 including a motor (not shown) by a so-called skid steer method.

本体30の外殻には、この内部に区画形成した荷持収容部(図示しない)の開閉扉30aと、この開閉扉30aの上側位置に互いに所要の角度間隔で配列された複数のスピーカ30bとが設けられている。   The outer shell of the main body 30 includes an opening / closing door 30a of a cargo storage portion (not shown) defined in the interior thereof, and a plurality of speakers 30b arranged on the upper position of the opening / closing door 30a at predetermined angular intervals. Is provided.

頭部31は、これの頭頂部31aが全方位的に、また、移動方向α前側に横長方形領域31bがそれぞれ透明に区画形成されており、それらのうちの頭頂部31aの内側にPTZカメラ37、また、横長方形領域31bの内側に三次元レーザスキャナ35がそれぞれ内設されている。   The head portion 31 has a head portion 31a that is omnidirectional, and a horizontal rectangular region 31b that is transparently formed on the front side in the movement direction α. The PTZ camera 37 is formed inside the head portion 31a. In addition, a three-dimensional laser scanner 35 is provided inside the horizontal rectangular region 31b.

頭部31内には、ロボット位置・速度計測部40、走行路検出部50、被追走体位置・速度計測部60、ミッション環境評価部70、被追走体通信部80、行動制御部D、及び外部通報部90が配設されている。   In the head 31, there are a robot position / speed measurement unit 40, a traveling path detection unit 50, a follower position / speed measurement unit 60, a mission environment evaluation unit 70, a follower communication unit 80, and a behavior control unit D. And an external notification unit 90 are provided.

ロボット位置・速度計測部40は、図3に示すように、デットレコニング41、ロボットGPS(Global Positioning System)42、及びロボット速度演算部43を有して構成されている。
デットレコニング41は、走行情報に基づいて基準位置からの相対移動ベクトルを出力して、自己位置を推定するためのもであり、本実施形態においては例えばオドメトリを採用している。
As shown in FIG. 3, the robot position / speed measurement unit 40 includes a dead reckoning 41, a robot GPS (Global Positioning System) 42, and a robot speed calculation unit 43.
The dead reckoning 41 is for outputting a relative movement vector from the reference position based on the traveling information to estimate the self position. In the present embodiment, for example, odometry is employed.

ロボットGPS42は、自律走行ロボットCの自己位置を計測するためのものである。
ロボット速度演算部43は、所要のプログラムの実行により、
デットレコニング41からの出力情報と、ロボットGPS42からの位置情報に基づいて、自律走行ロボットCの移動速度を算出する機能を有している。この機能を「移動速度演算手段43a」という。
また、後述する被追走者Bを見失ったときの自己の位置を取得する機能。この機能を「ロボット位置取得手段43b」という。
The robot GPS 42 is for measuring the self-position of the autonomous traveling robot C.
The robot speed calculation unit 43 executes a required program,
Based on the output information from the dead reckoning 41 and the position information from the robot GPS 42, the moving speed of the autonomous traveling robot C is calculated. This function is referred to as “movement speed calculation means 43a”.
Moreover, the function which acquires the self position when the follower B mentioned later mentioned is lost. This function is referred to as “robot position acquisition means 43b”.

走行路検出部50は、上記した三次元レーザスキャナ35と、障害物検知・地図作成部51とを有して構成されている。
本実施形態においては、三次元レーザスキャナ35が、測距領域の測距データを取得するための測距部である。
The travel path detection unit 50 includes the above-described three-dimensional laser scanner 35 and an obstacle detection / map creation unit 51.
In the present embodiment, the three-dimensional laser scanner 35 is a distance measurement unit for acquiring distance measurement data of a distance measurement area.

障害物検知・地図作成部51は、所要のプログラムの実行により、次の機能を発揮する。
・測距部である三次元レーザスキャナ35により取得した測距データに基づいて、遮視物の位置を取得する機能。この機能を「遮視物位置取得手段51a」という。
The obstacle detection / map creation unit 51 exhibits the following functions by executing a required program.
A function of acquiring the position of the shielding object based on the distance measurement data acquired by the three-dimensional laser scanner 35 that is a distance measurement unit. This function is referred to as “obscured object position acquisition means 51a”.

・三次元レーザスキャナ35により取得した測距データに基づいて、走行の可否を判断することにより、障害物(遮視物)を含む環境地図を作成する機能。この機能を「地図作成手段51a」という。
例えば所定の高さを基準として、測距領域における移動可能領域、移動不可能領域及び障害物(遮視物)を含む環境地図を作成している。
A function for creating an environmental map including an obstacle (obstacle) by determining whether or not the vehicle can travel based on distance measurement data acquired by the three-dimensional laser scanner 35. This function is referred to as “map creation means 51a”.
For example, on the basis of a predetermined height, an environmental map including a movable area, a non-movable area, and an obstacle (obstacle) in the distance measurement area is created.

被追走体位置・速度計測部60は、上記したPTZカメラ37と、被追走体位置認識部34とを有して構成されている。
PTZカメラ37は、パンチルトズームレンズ一体型カメラのことであり、被追走者Bを撮影するためのものである。
The follower position / speed measurement unit 60 includes the above-described PTZ camera 37 and the follower position recognition unit 34.
The PTZ camera 37 is a pan / tilt / zoom lens integrated camera, and is used to photograph the follower B.

被追走体位置認識部34は、所要のプログラムの実行により、次の機能を有している。
・被追走体検出部であるPTZカメラ37によって、被追走者Bを見失ったか否かを判定する機能。この機能を「見失判定手段34a」という。
・被追走体検出部であるPTZカメラ37により、被追走者Bを見失うまでの、その被追走者Bの位置を取得する機能を有している。この機能を「被追走体位置取得手段34b」という。
The follower position recognition unit 34 has the following functions by executing a required program.
A function for determining whether or not the follower B is lost by the PTZ camera 37 which is the follower detection unit. This function is referred to as “missing judgment means 34a”.
-It has the function to acquire the position of the follower B until the follower B is missed by the PTZ camera 37 which is a follower detection unit. This function is referred to as “follower position acquisition means 34b”.

具体的には、撮影した被追走者Bの画像に含まれる反射マーカ12に基づいて、被追走者Bの位置(座標)を認識取得している。
なお、反射マーカとしては、発光マーカでもよく、また、反射マーカをLRFによって検出するようにしてもよい。
Specifically, the position (coordinates) of the follower B is recognized and acquired based on the reflection marker 12 included in the photographed image of the follower B.
The reflective marker may be a light emitting marker, or the reflective marker may be detected by LRF.

ミッション環境評価部70は、追走を実行する環境を評価し、その評価結果に基づいて、被追走者B及び周囲の人への告知情報を選択して報知する機能を有している。   The mission environment evaluation unit 70 has a function of evaluating the environment in which the follow-up is executed, and selecting and notifying the notification information to the follower B and the surrounding people based on the evaluation result.

・被追走者Bを見失う前の自己位置、被追走者Bを見失った後の被追走体推定位置及び被追走者Bの位置の相対的な位置関係に基づいて、その被追走者Bが遮視物130(図4(A),(B)参照)に遮られたか否かを判定する機能。この機能を「遮視判定手段70a」という。
本実施形態においては、下記の判別用直線生成手段70bによって生成した第一,第二の遮視判別用直線L1,L2どうしが交差するか否かを判定している。
-Based on the relative position of the follower B before losing sight of the follower B, the estimated position of the follower after losing sight of the follower B, and the position of the follower B, the follower B A function of determining whether or not the object 130 is blocked by the shielding object 130 (see FIGS. 4A and 4B). This function is referred to as “occlusion judging means 70a”.
In the present embodiment, it is determined whether or not the first and second occlusion determination straight lines L1 and L2 generated by the following determination straight line generation means 70b intersect each other.

・被追走者Bを見失ったと判定したときには、その被追走者Bを見失った後の自己位置を推定する機能。この機能を「被追走者位置推定手段70b」という。 A function for estimating the self-position after losing sight of the follower B when it is determined that the follower B has been lost. This function is referred to as “follower position estimation means 70b”.

・被追走者Bを見失ったときの自己と遮視物130の両位置を結ぶ第一の遮視判別用直線L1と、被追走者Bを見失う前の被追走体位置と、その被追走者Bを見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線L2とを生成する機能。この機能を「判別用直線生成手段70c」という。 First straight line for obscuration discrimination L1 that connects both the position of the subject and the shield 130 when the follower B is lost, the position of the follower before the follower B is lost, and the follower A function of generating a second obscuration discrimination straight line L2 connecting the estimated positions of the followers after losing sight of the runner B. This function is referred to as “discrimination line generation means 70c”.

・評価結果に基づいて、予め設定した複数の告知情報を選択する機能。この機能を「告知情報選択手段70d」という。
「告知情報」としては、第一の遮視判別用直線L1と第二の遮視判別用直線L2とが交差しないと判定した場合、すなわち、評価結果に対応した例えば「見失いました」や「停止します」等である。
A function for selecting a plurality of preset notification information based on the evaluation result. This function is referred to as “notification information selection means 70d”.
As the “notification information”, when it is determined that the first occluding determination straight line L1 and the second obscuring determining straight line L2 do not intersect, that is, for example, “lost” or “corresponding to the evaluation result” It will stop. "

・選択された告知情報を、被追走者B及び周囲の人に報知する機能。この機能を「告知情報報知手段70e」という。
具体的は、外部通報部90に配設したスピーカ30bや被追走者Bのイヤホン11を介して告知情報を報知している。
A function for notifying the follower B and surrounding people of the selected notification information. This function is referred to as “notification information notification means 70e”.
Specifically, the notification information is notified through the speaker 30b disposed in the external notification unit 90 and the earphone 11 of the follower B.

行動制御部Dは、経路生成部100、車体制御部110、及び車体駆動部120を有して構成されている。
経路生成部100は、所要のプログラムの実行により、次の機能を発揮する。
・被追走者Bが遮視物130に遮られると判定したときには、被追走者Bを見失った後の被追走者Bの推定座標位置を目標として走行経路を生成する機能。この機能を「走行経路生成手段100a」という。
本実施形態においては、上述した環境地図に基づき、ホテンシャル法や最急降下法等により走行経路を生成している。
The behavior control unit D includes a route generation unit 100, a vehicle body control unit 110, and a vehicle body drive unit 120.
The path generation unit 100 performs the following functions by executing a required program.
A function of generating a travel route targeting the estimated coordinate position of the follower B after losing sight of the follower B when it is determined that the follower B is blocked by the obstacle 130. This function is referred to as “travel route generation means 100a”.
In the present embodiment, the travel route is generated by the potential method, the steepest descent method, or the like based on the environmental map described above.

以下に、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する詳細な原理について、図4,5を参照して説明する。   The following is based on the relative position relationship between the position of the tracked object before losing sight of the tracked object, the estimated position of the tracked object after losing sight of the tracked object, and the position of the shielding object. A detailed principle for determining whether or not the follower is blocked by the obstacle is described with reference to FIGS.

図4(A)は、自律走行ロボットが遮視物を検出する動作を示す説明図、(B)は、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する原理を示す説明図、図5は、遮視物に被追走者が遮られたことを検出するアルゴリズムを説明するためのフローチャートである。   FIG. 4 (A) is an explanatory view showing the operation of the autonomous mobile robot detecting an obstacle, and FIG. 4 (B) shows the position of the follower before losing sight of the follower, after losing sight of the follower. FIG. 5 is an explanatory diagram showing the principle of determining whether or not the follower is obstructed by the obstruction based on the relative positional relationship between the estimated position of the follower and the position of the obstruction. It is a flowchart for demonstrating the algorithm which detects that a follower was interrupted by the obstruction.

ステップ1(図中、「S1」と略記する。以下同様。):三次元レーザスキャナ35の測距値の位相方向に関する微分値の大きな箇所を遮視物である建物130の角130bと認識する(図4(A)参照)。
なお、図中「b」はレーザ光軸、また、「β」は位相方向を示している。また、本実施形態においては、建物130の角130bを遮視物として説明するが、当該「角」に限るものではない。
Step 1 (abbreviated as “S1” in the figure. The same applies hereinafter): A portion having a large differential value with respect to the phase direction of the distance measurement value of the three-dimensional laser scanner 35 is recognized as the corner 130b of the building 130 which is an obstacle. (See FIG. 4A).
In the figure, “b” indicates the laser optical axis, and “β” indicates the phase direction. In the present embodiment, the corner 130b of the building 130 is described as an obstruction, but the present invention is not limited to the “corner”.

ステップ2:位相と測距値とにより、建物130の角130bの座標E(t+Δt)(図4(B)参照)を算出してステップ3に進む。
ステップ3:デッドレコニング41により、自律走行ロボットCの位置の座標P(t+Δt)を取得してステップ4に進む。
Step 2: A coordinate E (t + Δt) (see FIG. 4B) of the corner 130b of the building 130 is calculated from the phase and the distance measurement value, and the process proceeds to Step 3.
Step 3: By the dead reckoning 41, the coordinate P (t + Δt) of the position of the autonomous traveling robot C is acquired, and the process proceeds to Step 4.

なお、デッドレコニング41に代えて、GPS、環境地図を用いた自己位置推定によって自己位置の座標P(t+Δt)を計測するようにしてもよい。   Instead of dead reckoning 41, the self-position coordinates P (t + Δt) may be measured by self-position estimation using GPS and an environmental map.

ステップ4:図4(B)に示すライン(遮視判別用直線)L1を生成する。そのライン(遮視判別用直線)L1は、自律走行ロボットCの位置座標と、建物130の角130bの位置座標とを通る直線である。   Step 4: A line (a line for visual discrimination) L1 shown in FIG. 4B is generated. The line (a line for determining occlusion) L1 is a straight line that passes through the position coordinates of the autonomous mobile robot C and the position coordinates of the corner 130b of the building 130.

ステップ5:自律走行ロボットCから被追走者Bを見失う直前の、その被追走者Bの移動速度を算出する。
被追走者Bの移動速度V(t)=R(t)−R(t−Δt)
R(t)は、被追走者Bを見失う直前の位置座標。
R(t−Δt)は、被追走者Bを見失う前の一つ前の位置座標。
速度の算出は、過去複数点の平均等を使ってもよい。すなわち、見失う直前の速度が確からしく算出できればよい。
Step 5: Calculate the movement speed of the follower B immediately before losing sight of the follower B from the autonomous robot C.
Movement speed V (t) = R (t) −R (t−Δt) of the follower B
R (t) is the position coordinate immediately before the follower B is lost.
R (t−Δt) is the previous position coordinate before losing sight of the follower B.
The speed may be calculated using an average of a plurality of past points. That is, it is only necessary to accurately calculate the speed immediately before losing sight.

ステップ6:見失った時刻における被追走者Bの位置R(t+Δt)を推定する。
R(t+Δt)=R(t)+V(t)×Δt
なお、Δtは、演算周期である。
Step 6: Estimate the position R (t + Δt) of the follower B at the time of losing sight.
R (t + Δt) = R (t) + V (t) × Δt
Note that Δt is a calculation cycle.

ステップ7:図4(B)に示すラインL2を生成する。
すなわち、見失う直前の被追走者Bの位置座標R(t)と、見失ったときの時刻における被追走者Bの推定位置R(t+Δt)を結ぶライン(被追走者移動直線)L2を生成する。
Step 7: A line L2 shown in FIG. 4B is generated.
That is, a line (follower movement straight line) L2 connecting the position coordinates R (t) of the follower B immediately before losing and the estimated position R (t + Δt) of the follower B at the time when losing is generated is generated.

ステップ8:ラインL1とラインL2との交点の有無を判定する。
ステップ9:交点が存在すると判定した場合にはステップ10に進み、そうでなければステップ12に進む。
Step 8: It is determined whether or not there is an intersection between the line L1 and the line L2.
Step 9: If it is determined that an intersection exists, the process proceeds to Step 10; otherwise, the process proceeds to Step 12.

ステップ10:被追走者Bを見失った旨を報知して、ステップ11に進む。
ステップ11:走行機構36によって停止制御する。
ステップ12:移動目標点をR(t+Δt)に設定する。
Step 10: Notify that the follower B is lost, and go to Step 11.
Step 11: Stop control is performed by the traveling mechanism 36.
Step 12: Set the movement target point to R (t + Δt).

車体制御部110は、生成した走行経路に沿い、走行機構36によって移動させる機能。この機能を「走行手段110a」という。
具体的には、上記した走行輪32a(32a)、32b(32b)のそれぞれ回転数を決定する機能を有している。
車体駆動部120は、上記した走行機構36によって、走行輪32a(32a)、32b(32b)を、それぞれ決定した回転数だけ回転駆動する機能を有するものである。
The vehicle body control unit 110 has a function of being moved by the travel mechanism 36 along the generated travel route. This function is referred to as “running means 110a”.
Specifically, it has a function of determining the rotational speed of each of the traveling wheels 32a (32a) and 32b (32b).
The vehicle body drive unit 120 has a function of rotating the traveling wheels 32a (32a) and 32b (32b) by the determined number of rotations by the traveling mechanism 36 described above.

次に、自律走行ロボットの動作について、図6を参照して説明する。図6は、自律走行ロボットの動作を示すフローチャートである。
ロボット位置・速度計測部40のPTZカメラ37によって撮影した被追走者Bの画像から反射マーカ12を抽出し、反射マーカ12の抽出結果と環境地図内の障害物情報により、被追走者Bが位置する座標と移動速度を取得するとともに、三次元レーザスキャナ35による測距領域の幾何形状を計測し、例えば高さに基づく移動の可否を判定して、環境地図を作成する。また、ロボットGPS42によって自律走行ロボットCの座標を計測し、それらのデータがミッション環境評価部70に適宜出力される。
Next, the operation of the autonomous traveling robot will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the autonomous mobile robot.
The reflective marker 12 is extracted from the image of the follower B taken by the PTZ camera 37 of the robot position / velocity measuring unit 40, and the follower B is positioned based on the extraction result of the reflective marker 12 and the obstacle information in the environment map. In addition to acquiring the coordinates to be moved and the moving speed, the geometric shape of the distance measurement area by the three-dimensional laser scanner 35 is measured, and for example, whether or not the movement is possible based on the height is determined, and an environment map is created. Further, the coordinates of the autonomous traveling robot C are measured by the robot GPS 42, and those data are appropriately output to the mission environment evaluation unit 70.

ステップ1(図中、「Sa1」と略記する。以下同様。):時刻情報を更新して、ステップ2に進む。
ステップ2:ミッション環境評価部70において、ミッション環境評価を行う。
具体的には、被追走者Bの位置が検出できなかった場合、建物120に遮られたか又はその他の要因で被追走者を見失ったか否かを判定する。
なお、他の要因で被追走者を見失ったと判定した場合には、図5のステップ10に示すように、評価結果に対応した告知情報を報知する。
Step 1 (abbreviated as “Sa1” in the figure. The same applies hereinafter): Update the time information and go to Step 2.
Step 2: The mission environment evaluation unit 70 performs a mission environment evaluation.
Specifically, when the position of the follower B cannot be detected, it is determined whether the follower B is obstructed by the building 120 or other factors.
In addition, when it determines with having lost the follower for other reasons, as shown in step 10 of FIG. 5, the notification information corresponding to an evaluation result is alert | reported.

ステップ3:建物120に遮られたと判定した場合、図5のステップ12において説明したように、移動目標点を設定する。
ステップ4:上述した環境地図に基づいて、ホテンシャル場を生成する。
ステップ5:最急降下法により、走行経路を生成する。
Step 3: When it is determined that the building 120 is blocked, a moving target point is set as described in Step 12 of FIG.
Step 4: A potential field is generated based on the environmental map described above.
Step 5: A travel route is generated by the steepest descent method.

ステップ6:制動距離を算出する。
具体的には、自律走行ロボットCの制動距離+被追走者Bの位置及び自律走行ロボットCの位置計測誤差により、制動距離を算出する。これにより、最適な速度設定を行うことができる。
ステップ7:各走行輪の回転数の設定等の車両制御の演算を行う。
ステップ8:走行機構36によって移動する。
Step 6: Calculate the braking distance.
Specifically, the braking distance is calculated from the braking distance of the autonomous traveling robot C + the position of the follower B and the position measurement error of the autonomous traveling robot C. Thereby, optimal speed setting can be performed.
Step 7: Calculation of vehicle control such as setting of the rotation speed of each traveling wheel is performed.
Step 8: Move by the traveling mechanism 36.

なお、本発明は上述した実施形態に限るものではなく、次のような変形実施が可能である。
・本実施形態においては、遮視物として建物を例として説明するが、これに限るものではなく、次のような状況においても適用することができることは勿論である。図7(A)は、他例に係る遮視物に被追走者が遮られた様子を示す説明図、(B)は、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が他例に係る遮視物に遮られたか否かを判定する原理を示す説明図である。なお、上述した実施形態において説明したものと同等のものについては、それらと同一の符号を付して説明を省略する。
The present invention is not limited to the above-described embodiments, and the following modifications can be made.
-In this embodiment, although a building is demonstrated as an example as an obstruction, it is not restricted to this, Of course, it can apply also in the following situations. FIG. 7A is an explanatory view showing a state in which a follower is blocked by an obstruction according to another example, and FIG. 7B is a follower position and follower before losing sight of the follower. Based on the relative position relationship between the estimated position of the follower after losing sight of the body and the position of the shielding object, it is determined whether or not the following object is blocked by the shielding object according to another example. It is explanatory drawing which shows a principle. In addition, about the thing equivalent to what was demonstrated in embodiment mentioned above, the code | symbol same as them is attached | subjected and description is abbreviate | omitted.

図7(A)に示すように、他例に係る遮視物である自動車130の近傍で被追走者Bを見失った場合、その自動車130に遮られたか否かを判定する。
すなわち、上述したように、三次元レーザスキャナ35の測距値の位相方向に関する微分値の大きな箇所を自動車130の角130aと認識し、レーザの位相と測距値とにより、自動車130の角130aの座標を算出する。
そして、デッドレコニング41により、自律走行ロボットCの位置の座標を取得し、上記したライン(遮視判別用直線)L1を生成する。
また、自律走行ロボットCから被追走者Bを見失う前の、その被追走者Bの移動速度を算出し、見失った時刻における被追走者Bの位置を推定して、ラインL2を生成する。
そして、ラインL1とラインL2との交点の有無を判定することにより、自動車130に遮られたか否かを判定するのである。
As shown in FIG. 7A, when the follower B is lost in the vicinity of the automobile 130 which is an obstructing object according to another example, it is determined whether or not the automobile 130 is obstructed.
That is, as described above, a portion having a large differential value with respect to the phase direction of the distance measurement value of the three-dimensional laser scanner 35 is recognized as the corner 130a of the automobile 130, and the angle 130a of the automobile 130 is determined based on the laser phase and the distance measurement value. The coordinates of are calculated.
Then, the dead reckoning 41 acquires the coordinates of the position of the autonomous traveling robot C, and generates the above-described line (a line for determining the occlusion) L1.
Further, the movement speed of the follower B before losing sight of the follower B from the autonomous traveling robot C is calculated, and the position of the follower B at the time when the follower B is lost is estimated to generate the line L2.
Then, it is determined whether or not the vehicle 130 is obstructed by determining the presence or absence of an intersection between the line L1 and the line L2.

・上述した実施形態においては、被追走体として人を例として説明したが、これに限るものではなく、車両や他のロボット等をも含むものである。 In the above-described embodiment, the human being is described as an example of the follower. However, the present invention is not limited to this, and includes a vehicle and other robots.

34a 見失判定手段
34b 被追走体位置取得手段
35 測距部(三次元レーザスキャナ)
36 走行機構
37 被追走体検出部(PTZカメラ)
43a 移動速度演算手段
43b ロボット位置取得手段
70a 遮視判定手段
70b 被追走体位置推定手段
70c 判別用直線生成手段
100a 走行経路生成手段
110a 走行手段
130 障害物(遮視物)
A 追走システム
B 被追走体(被追走者)
C 自律走行ロボット
L1 第一の遮視判別用直線
L2 第二の遮視判別用直線
34a Missing determination means 34b Follower position acquisition means 35 Distance measuring unit (three-dimensional laser scanner)
36 Traveling mechanism 37 Tracked body detection unit (PTZ camera)
43a Movement speed calculation means 43b Robot position acquisition means 70a obscuration determination means 70b follower position estimation means 70c discrimination straight line generation means 100a travel route generation means 110a travel means 130 obstacle (obscuration object)
A Follower system B Follower (follower)
C Autonomous traveling robot L1 First straight line for visual discrimination L2 Second linear line for visual discrimination

Claims (4)

被追走体を検出するための被追走体検出部と、走行するための走行機構とを有し、被追走体の移動に自律して追走する自律走行ロボットにおいて、
被追走体見出部によって、被追走体を見失ったか否かを判定する見失判定手段と、
被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、
被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、
被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標とした走行経路を生成する走行経路生成手段と、
生成した上記走行経路に沿い、走行機構により移動させる走行手段とを有していることを特徴とする自律走行ロボット。
In an autonomous traveling robot having a follower detection unit for detecting a follower and a traveling mechanism for traveling and autonomously following the movement of the follower,
Loss determination means for determining whether or not the follower is lost by the follower finding part;
When it is determined that the follower has lost sight, position estimation means for estimating the follower position after losing sight of the follower,
Based on the relative position of the tracked object before losing sight of the tracked object, the estimated position of the tracked object after losing sight of the tracked object, and the position of the interceptor. An occlusion determination means for determining whether or not the object is obstructed by an obstruction;
When it is determined that the follower is obstructed by the obstructing object, a travel route generating means for generating a travel route targeting the follower estimated position of the follower,
An autonomous traveling robot comprising traveling means that is moved by a traveling mechanism along the generated traveling route.
被追走体を見失ったときの自己と遮視物の両位置を結ぶ第一の遮視判別用直線と、被追走体を見失う前の被追走体位置と、その被追走体を見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線とを生成する判別用直線生成手段が設けられており、
遮視判定手段は、生成した第一,第二の遮視判別用直線どうしが交差するか否かを判定することを特徴とする請求項1に記載の自律走行ロボット。
The first line for distinguishing obstruction that connects both the self and the position of the obstruction when the follower is lost, the position of the follower before losing sight of the follower, and the follower A discrimination straight line generating means for generating a second occlusive discrimination straight line connecting the estimated follower position after losing sight is provided,
2. The autonomous traveling robot according to claim 1, wherein the obscuration determining unit determines whether or not the generated first and second occluding determination straight lines intersect each other.
被追走体と、この被追走体を検出するための被追走体検出部及び移動するための走行機構とを有し、被追走体の移動に自律して追走する自律走行ロボットにおいて、
被追走体検出部によって、被追走体を見失ったか否かを判定する見失判定手段と、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標とした走行経路を生成する走行経路生成手段と、生成した上記走行経路に沿い、走行機構により移動させる走行手段とを自律走行ロボットに設けたことを特徴とする自律走行ロボットを用いた追走システム。
An autonomous traveling robot having a tracked body, a tracked body detection unit for detecting the tracked body, and a travel mechanism for moving, and autonomously tracking the movement of the tracked body In
When the follower detection unit determines whether the follower has been lost or not, and when it is determined that the follower has been lost, the follower after losing the follower Relative position of the position estimation means for estimating the body position, the position of the follower before losing sight of the follower, the estimated position of the follower after losing sight of the follower Based on the relationship, the obstruction determining means for determining whether or not the follower is obstructed by the obstruction, and when it is determined that the follower is obstructed by the obstruction, the follower The autonomous traveling robot is provided with a travel route generating means for generating a travel route targeting the estimated position of the follower and a travel means for moving the travel path along the generated travel route. A follow-up system using an autonomous robot.
被追走体に、自律走行ロボットを自律して追走させる追走方法において、
被追走体を見失ったか否かを判定する見失判定ステップと、
被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定ステップと、
被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定ステップと、
被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、遮視物側に回り込むための走行経路を生成する走行経路生成ステップと、
走行機構により生成した上記走行経路に沿って移動させることを特徴とする追走方法。
In the follow-up method to make the follower autonomously follow the autonomous running robot,
A loss determination step for determining whether or not the follower is lost;
When it is determined that the follower has lost sight, the position estimation step for estimating the follower position after losing sight of the follower,
Based on the relative position of the tracked object before losing sight of the tracked object, the estimated position of the tracked object after losing sight of the tracked object, and the position of the interceptor. An occlusion determination step for determining whether or not is obstructed by an obstruction;
A travel path generation step for generating a travel path for wrapping around the obstruction object with the target position of the follow-up object as a target when the follow-up object is determined to be obstructed by the obstruction object; ,
A follow-up method characterized by moving along the travel route generated by a travel mechanism.
JP2009127633A 2009-05-27 2009-05-27 Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method Active JP5214539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009127633A JP5214539B2 (en) 2009-05-27 2009-05-27 Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009127633A JP5214539B2 (en) 2009-05-27 2009-05-27 Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method

Publications (2)

Publication Number Publication Date
JP2010277236A true JP2010277236A (en) 2010-12-09
JP5214539B2 JP5214539B2 (en) 2013-06-19

Family

ID=43424160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009127633A Active JP5214539B2 (en) 2009-05-27 2009-05-27 Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method

Country Status (1)

Country Link
JP (1) JP5214539B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014092862A (en) * 2012-11-01 2014-05-19 Symtec Hozumi:Kk Follow-up carriage system
JP2018106312A (en) * 2016-12-23 2018-07-05 株式会社Zmp Mobile vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020749A (en) * 2007-07-12 2009-01-29 Toshiba Corp Robot control apparatus and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020749A (en) * 2007-07-12 2009-01-29 Toshiba Corp Robot control apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014092862A (en) * 2012-11-01 2014-05-19 Symtec Hozumi:Kk Follow-up carriage system
JP2018106312A (en) * 2016-12-23 2018-07-05 株式会社Zmp Mobile vehicle

Also Published As

Publication number Publication date
JP5214539B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
US11865708B2 (en) Domestic robotic system
JP5160322B2 (en) Autonomous mobile robot apparatus and control method for autonomous mobile robot apparatus
US10365657B2 (en) Autonomous moving object
US20160188977A1 (en) Mobile Security Robot
JP4871160B2 (en) Robot and control method thereof
KR101503418B1 (en) Semiautomatic parking machine
JP4351261B2 (en) Leader following vehicle
JP2008152600A (en) Moving route generation method, autonomous moving object, and autonomous moving object control system
JP4440174B2 (en) Mobile object subject accompaniment method and mobile object subject accompaniment apparatus
CN109416883A (en) Control method for vehicle and controller of vehicle
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
JP2008065755A (en) Mobile device
KR20110047505A (en) Apparaus and Method for Detecting Slip of a Mobile Robot
KR102500634B1 (en) Guide robot and operating method thereof
WO2019031168A1 (en) Mobile body and method for control of mobile body
JP2006134221A (en) Tracking mobile device
US20140297066A1 (en) Remote control system
JP4670807B2 (en) Travel route creation method, autonomous mobile body, and autonomous mobile body control system
JP2018185767A (en) Environment maintenance robot, and control program of the same
JP2017146945A (en) Lead robot
JP6825715B2 (en) Mobile vehicle
JP2007200070A (en) Mobile robot
JP6962027B2 (en) Mobile vehicle
US20200001877A1 (en) Determining Visibility Distances Based on a Dynamic Field of View of a Vehicle
CN112622774A (en) Vehicle and method for providing information around vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

R150 Certificate of patent or registration of utility model

Ref document number: 5214539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250