JP2010277236A - Autonomously traveling robot, follow-up system using the same, and follow-up method - Google Patents
Autonomously traveling robot, follow-up system using the same, and follow-up method Download PDFInfo
- Publication number
- JP2010277236A JP2010277236A JP2009127633A JP2009127633A JP2010277236A JP 2010277236 A JP2010277236 A JP 2010277236A JP 2009127633 A JP2009127633 A JP 2009127633A JP 2009127633 A JP2009127633 A JP 2009127633A JP 2010277236 A JP2010277236 A JP 2010277236A
- Authority
- JP
- Japan
- Prior art keywords
- follower
- follow
- obstruction
- losing sight
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 13
- 230000007246 mechanism Effects 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 230000008685 targeting Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 description 17
- 238000011156 evaluation Methods 0.000 description 9
- 239000003550 marker Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000002945 steepest descent method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 239000000411 inducer Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法に関する。 The present invention relates to an autonomous traveling robot, a follow-up system using the autonomous travel robot, and a follow-up method.
この種の自律走行ロボットとして、搬送ロボットとした名称で特許文献1に記載された構成のものがある。
特許文献1に記載されている従来の自律走行ロボットは、被追走体である誘導者を認識して所定距離を保って追尾する機能を有するものであり、前記誘導者及び周囲の障害物等を検知する検知手段と、走行手段と、前記走行手段を制御する走行制御部を具備し、前記走行制御部は、前記検知手段で誘導者を認識して追従する。
そして、検知部が誘導者を認識できなくなった場合、認識できなくなった場所の近傍に曲がり角の存在を認識すると、当該曲がり角を曲がるように走行手段を制御する構成のものである。
As this type of autonomous traveling robot, there is a configuration described in Patent Document 1 under the name of a transfer robot.
The conventional autonomous traveling robot described in Patent Document 1 has a function of recognizing a guider who is a follower and tracking it while maintaining a predetermined distance. The guider and surrounding obstacles, etc. And a travel control unit that controls the travel unit. The travel control unit recognizes and follows the guide by the detection unit.
And when a detection part becomes unable to recognize a guider, if the presence of a corner is recognized in the vicinity of the place which cannot be recognized, a run means will be controlled so that the corner may be turned.
しかしながら、特許文献1に記載の自律走行ロボットでは、この自律走行ロボットが誘導者を見失う事象が、曲がり角を曲がるという限定した環境に限られるものである。
すなわち、誘導者が曲がり角を曲がること以外において、誘導者を見失う事象が生じる場合、自律走行ロボットが誘導者を見失い、かつ、その近傍に曲がり角が存在するときには、当該自律走行ロボットは、誘導者を見失ったことに気づくことなく、従ってまた、誘導者の移動方向とは関わりなく、その曲がり角を曲がってしまうという問題がある。
However, in the autonomous traveling robot described in Patent Document 1, an event in which the autonomous traveling robot loses sight of the guide is limited to a limited environment in which a corner is turned.
That is, when an event occurs in which an inducer loses sight of a person other than turning a corner, when the autonomous traveling robot loses sight of the guide and there is a corner in the vicinity thereof, the autonomous traveling robot There is a problem that the user turns the corner without noticing that he / she has lost sight, and therefore, regardless of the direction of movement of the guide.
そこで本発明は、被追走体を見失う事象が曲がり角以外の環境において生じる場合であっても、被追走体への追走を継続して行うことができる自律走行ロボット、自律走行ロボットを用いた追走システム、及び追走方法の提供を目的としている。 Therefore, the present invention uses an autonomous traveling robot and an autonomous traveling robot that can continue to follow a tracked object even when an event of losing sight of the tracked object occurs in an environment other than a corner. The purpose is to provide a follow-up system and a follow-up method.
上記目的を達成するための本発明の構成は、次のとおりである。
請求項1に記載した自律走行ロボットは、被追走体を検出するための被追走体検出部と、移動するための走行機構とを有し、被追走体の移動に自律して追走する自律走行ロボットにおいて、被追走体検出部によって、被追走体を見失ったか否かを判定する見失判定手段と、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、被追走体を見失う前の位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、走行経路を生成する走行経路生成手段と、生成した上記走行経路に沿い、走行機構により走行させる走行手段とを有することを特徴としている。
The configuration of the present invention for achieving the above object is as follows.
The autonomous traveling robot described in claim 1 has a follower detection unit for detecting the follower and a traveling mechanism for moving, and autonomously follows the movement of the follower. In the autonomous running robot that runs, the follower detection unit determines whether or not the follower is lost, and when it is determined that the follower is lost, Relative position estimation means for estimating the position of the follower after losing sight, the position before losing sight of the follower, the estimated position of the follower after losing sight of the follower, and the position of the interceptor Based on the specific positional relationship, the occlusion determination means for determining whether or not the follower is obstructed by the obstruction, and when it is determined that the follower is obstructed by the obstruction, Targeting the follower estimated position of the follower, a travel route generating means for generating a travel route, and the generated travel route Along, it is characterized by having a traveling means for traveling by the traveling mechanism.
請求項2に記載の自律走行ロボットは、請求項1に記載した被追走体を見失ったときの自己と遮視物の両位置を結ぶ第一の遮視判別用直線と、被追走体を見失う前の被追走体位置と、その被追走体を見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線とを生成する判別用直線生成手段が設けられており、遮視判定手段は、生成した第一,第二の遮視判別用直線どうしが交差するか否かを判定している。 According to a second aspect of the present invention, there is provided an autonomous traveling robot according to the first aspect of the present invention, comprising: A discriminant straight line generating means is provided for generating a follower body position before losing sight of the follower and a second occluding discrimination line connecting the follower body estimated position after losing sight of the follower. The occlusion determination means determines whether or not the generated first and second occlusion determination straight lines intersect each other.
請求項3に記載の追走システムは、請求項3に記載した被追走体と、この被追走体を検出するための被追走体検出部及び移動するための走行機構とを有し、被追走体の移動に自律して追走するものであり、被追走体検出部によって、被追走体を見失ったか否かを判定する見失判定手段と、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、被追走体を見失う前の被追走体位置、被追走体を見失った後の相対的な被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、走行経路を生成する走行経路生成手段と、生成した上記走行経路に沿い、走行機構により移動させる走行手段とを自律走行ロボットに設けたことを特徴としている。 The follow-up system according to claim 3 includes the follow-up body according to claim 3, a follow-up body detection unit for detecting the follow-up body, and a travel mechanism for moving. The follower is autonomously following the movement of the follower, and the follower detector detects whether the follower is lost or not, and the follower is lost. After losing sight of the follower, the position estimation means that estimates the position of the follower after losing sight of the follower, and the follower position before losing sight of the follower An occlusion determination means for determining whether or not the follower is obstructed by the obstruction based on the relative position relationship between the estimated position of the follower and the position of the obstruction; When it is determined that the follower is obstructed by the obstacle, a travel route is generated that generates a travel route with the follower estimated position of the follower as a target. Along a section, the generated the running path, and characterized by providing a traveling means for moving the autonomous mobile robot by the running mechanism.
請求項4に記載の追走方法は、被追走体に、自律走行ロボットを自律して追走させる追走方法において、被追走体を見失ったか否かを判定する見失判定ステップと、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定ステップと、被追走体を見失う前の被追走体位置、被追走体を見失った後の相対的な被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定ステップと、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、走行経路を生成する走行経路生成ステップと、走行機構により生成した上記走行経路に沿って移動させることを特徴としている。 The follow-up method according to claim 4, wherein in the follow-up method in which the follower is made to follow the autonomous running robot autonomously, the loss determination step of determining whether or not the follower is lost, If it is determined that the follower has been lost, a position estimation step for estimating the position of the follower after losing sight of the follower, the position of the follower before the follower is lost, Based on the relative positional relationship between the estimated position of the follower after losing sight of the runner and the position of the obstacle, it is determined whether or not the follower is blocked by the obstacle. An occlusion determination step, a travel route generation step for generating a travel route with the follower estimated position of the follower as a target when it is determined that the follower is obstructed by the obstruction, and a travel It is characterized by moving along the travel route generated by the mechanism.
請求項1〜4に記載した各発明によれば、被追走体を見失ったか否かを判定し、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定し、被追走体を見失う前の被追走体位置、被追走体を見失った後の相対的な被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する。
また、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として走行経路を生成し、走行機構により生成した上記走行経路に沿って移動させているので、被追走体を見失う事象が曲がり角以外の環境において生じる場合であっても、被追走体への追走を継続して行うことができる。
According to each of the inventions described in claims 1 to 4, it is determined whether or not the follower is lost. When it is determined that the follower is lost, the follower after losing the follower is lost. Estimated runner position, the position of the follower before losing sight of the follower, the relative position of the follower after losing sight of the follower, and the relative position of the obstacle Based on the relationship, it is determined whether or not the follower is obstructed by the obstacle.
Further, when it is determined that the follower is blocked by the obstacle, a travel route is generated targeting the follower estimated position of the follower and along the travel route generated by the travel mechanism. Since it is moved, even if the event of losing sight of the follower occurs in an environment other than a corner, it is possible to continue to follow the follower.
請求項2に記載の発明によれば、被追走体を見失ったときの自己と遮視物の両位置を結ぶ第一の遮視判別用直線と、被追走体を見失う前の被追走体位置と、その被追走体を見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線とを生成し、遮視判定手段が、生成した第一,第二の遮視判別用直線どうしが交差するか否かを判定しているので、被追走体が遮視物に遮られたことを容易確実に判別することができる。 According to the second aspect of the present invention, the first occlusion determination straight line connecting both the self and the obstruction object when the follower is lost, and the follower before the follower is lost. A second straight line for determining the occlusion that connects the runner position and the estimated position of the follower after losing sight of the follower; Since it is determined whether or not the straight lines for obscuration determination intersect, it can be easily and reliably determined that the follower is blocked by the obscured object.
以下に、本発明を実施するための形態について、図面を参照して説明する。図1は、本発明の一実施形態に係る自律走行ロボットを用いた追走システムの概略構成を示す説明図、図2は、自律走行ロボットの概略構成を示すブロック図である。また、図3は、図1に示す追走システムの詳細な構成を示すブロック図である。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated with reference to drawings. FIG. 1 is an explanatory diagram illustrating a schematic configuration of a follow-up system using an autonomous traveling robot according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a schematic configuration of the autonomous traveling robot. FIG. 3 is a block diagram showing a detailed configuration of the follow-up system shown in FIG.
図1に示すように、本発明の一実施形態に係る自律走行ロボットを用いた追走システムAは、被追走体Bと、自律走行ロボットCとを有して構成されている。
本実施形態における被追走体Bは例えば人(以下、「被追走者」という。)であり、コントローラ10と、腕に装着した反射マーカ12とを装備している。
As shown in FIG. 1, a follow-up system A using an autonomous traveling robot according to an embodiment of the present invention includes a follower B and an autonomous traveling robot C.
The follower B in this embodiment is, for example, a person (hereinafter referred to as “follower”), and is equipped with a
コントローラ10は、図3に示すように、自律走行ロボットCから送信されるメッセージを聞くためのイヤホン11、コントローラ兼通信部13及び無線LAN14を有して構成されており、詳細を後述する自律走行ロボットCとの間において所要の通信を行うものである。
As shown in FIG. 3, the
自律走行ロボットCは、図1に示すように、円筒形の本体30の上部に略半球形の頭部31を搭載しているとともに、その本体30の下部に4つの走行輪32a(32a)、32b(32b)を配設した外観構成になっている。
なお、走行輪32a(32a)、32b(32b)は、図示しないモータ等を含む走行機構36により、所謂スキッドステア方式によってそれぞれ独立して回転駆動されるようになっている。
As shown in FIG. 1, the autonomous traveling robot C has a substantially
The traveling
本体30の外殻には、この内部に区画形成した荷持収容部(図示しない)の開閉扉30aと、この開閉扉30aの上側位置に互いに所要の角度間隔で配列された複数のスピーカ30bとが設けられている。
The outer shell of the
頭部31は、これの頭頂部31aが全方位的に、また、移動方向α前側に横長方形領域31bがそれぞれ透明に区画形成されており、それらのうちの頭頂部31aの内側にPTZカメラ37、また、横長方形領域31bの内側に三次元レーザスキャナ35がそれぞれ内設されている。
The
頭部31内には、ロボット位置・速度計測部40、走行路検出部50、被追走体位置・速度計測部60、ミッション環境評価部70、被追走体通信部80、行動制御部D、及び外部通報部90が配設されている。
In the
ロボット位置・速度計測部40は、図3に示すように、デットレコニング41、ロボットGPS(Global Positioning System)42、及びロボット速度演算部43を有して構成されている。
デットレコニング41は、走行情報に基づいて基準位置からの相対移動ベクトルを出力して、自己位置を推定するためのもであり、本実施形態においては例えばオドメトリを採用している。
As shown in FIG. 3, the robot position /
The
ロボットGPS42は、自律走行ロボットCの自己位置を計測するためのものである。
ロボット速度演算部43は、所要のプログラムの実行により、
デットレコニング41からの出力情報と、ロボットGPS42からの位置情報に基づいて、自律走行ロボットCの移動速度を算出する機能を有している。この機能を「移動速度演算手段43a」という。
また、後述する被追走者Bを見失ったときの自己の位置を取得する機能。この機能を「ロボット位置取得手段43b」という。
The
The robot
Based on the output information from the dead reckoning 41 and the position information from the
Moreover, the function which acquires the self position when the follower B mentioned later mentioned is lost. This function is referred to as “robot position acquisition means 43b”.
走行路検出部50は、上記した三次元レーザスキャナ35と、障害物検知・地図作成部51とを有して構成されている。
本実施形態においては、三次元レーザスキャナ35が、測距領域の測距データを取得するための測距部である。
The travel
In the present embodiment, the three-dimensional laser scanner 35 is a distance measurement unit for acquiring distance measurement data of a distance measurement area.
障害物検知・地図作成部51は、所要のプログラムの実行により、次の機能を発揮する。
・測距部である三次元レーザスキャナ35により取得した測距データに基づいて、遮視物の位置を取得する機能。この機能を「遮視物位置取得手段51a」という。
The obstacle detection / map creation unit 51 exhibits the following functions by executing a required program.
A function of acquiring the position of the shielding object based on the distance measurement data acquired by the three-dimensional laser scanner 35 that is a distance measurement unit. This function is referred to as “obscured object position acquisition means 51a”.
・三次元レーザスキャナ35により取得した測距データに基づいて、走行の可否を判断することにより、障害物(遮視物)を含む環境地図を作成する機能。この機能を「地図作成手段51a」という。
例えば所定の高さを基準として、測距領域における移動可能領域、移動不可能領域及び障害物(遮視物)を含む環境地図を作成している。
A function for creating an environmental map including an obstacle (obstacle) by determining whether or not the vehicle can travel based on distance measurement data acquired by the three-dimensional laser scanner 35. This function is referred to as “map creation means 51a”.
For example, on the basis of a predetermined height, an environmental map including a movable area, a non-movable area, and an obstacle (obstacle) in the distance measurement area is created.
被追走体位置・速度計測部60は、上記したPTZカメラ37と、被追走体位置認識部34とを有して構成されている。
PTZカメラ37は、パンチルトズームレンズ一体型カメラのことであり、被追走者Bを撮影するためのものである。
The follower position /
The
被追走体位置認識部34は、所要のプログラムの実行により、次の機能を有している。
・被追走体検出部であるPTZカメラ37によって、被追走者Bを見失ったか否かを判定する機能。この機能を「見失判定手段34a」という。
・被追走体検出部であるPTZカメラ37により、被追走者Bを見失うまでの、その被追走者Bの位置を取得する機能を有している。この機能を「被追走体位置取得手段34b」という。
The follower
A function for determining whether or not the follower B is lost by the
-It has the function to acquire the position of the follower B until the follower B is missed by the
具体的には、撮影した被追走者Bの画像に含まれる反射マーカ12に基づいて、被追走者Bの位置(座標)を認識取得している。
なお、反射マーカとしては、発光マーカでもよく、また、反射マーカをLRFによって検出するようにしてもよい。
Specifically, the position (coordinates) of the follower B is recognized and acquired based on the
The reflective marker may be a light emitting marker, or the reflective marker may be detected by LRF.
ミッション環境評価部70は、追走を実行する環境を評価し、その評価結果に基づいて、被追走者B及び周囲の人への告知情報を選択して報知する機能を有している。
The mission
・被追走者Bを見失う前の自己位置、被追走者Bを見失った後の被追走体推定位置及び被追走者Bの位置の相対的な位置関係に基づいて、その被追走者Bが遮視物130(図4(A),(B)参照)に遮られたか否かを判定する機能。この機能を「遮視判定手段70a」という。
本実施形態においては、下記の判別用直線生成手段70bによって生成した第一,第二の遮視判別用直線L1,L2どうしが交差するか否かを判定している。
-Based on the relative position of the follower B before losing sight of the follower B, the estimated position of the follower after losing sight of the follower B, and the position of the follower B, the follower B A function of determining whether or not the
In the present embodiment, it is determined whether or not the first and second occlusion determination straight lines L1 and L2 generated by the following determination straight line generation means 70b intersect each other.
・被追走者Bを見失ったと判定したときには、その被追走者Bを見失った後の自己位置を推定する機能。この機能を「被追走者位置推定手段70b」という。 A function for estimating the self-position after losing sight of the follower B when it is determined that the follower B has been lost. This function is referred to as “follower position estimation means 70b”.
・被追走者Bを見失ったときの自己と遮視物130の両位置を結ぶ第一の遮視判別用直線L1と、被追走者Bを見失う前の被追走体位置と、その被追走者Bを見失った後の被追走体推定位置を結ぶ第二の遮視判別用直線L2とを生成する機能。この機能を「判別用直線生成手段70c」という。
First straight line for obscuration discrimination L1 that connects both the position of the subject and the
・評価結果に基づいて、予め設定した複数の告知情報を選択する機能。この機能を「告知情報選択手段70d」という。
「告知情報」としては、第一の遮視判別用直線L1と第二の遮視判別用直線L2とが交差しないと判定した場合、すなわち、評価結果に対応した例えば「見失いました」や「停止します」等である。
A function for selecting a plurality of preset notification information based on the evaluation result. This function is referred to as “notification information selection means 70d”.
As the “notification information”, when it is determined that the first occluding determination straight line L1 and the second obscuring determining straight line L2 do not intersect, that is, for example, “lost” or “corresponding to the evaluation result” It will stop. "
・選択された告知情報を、被追走者B及び周囲の人に報知する機能。この機能を「告知情報報知手段70e」という。
具体的は、外部通報部90に配設したスピーカ30bや被追走者Bのイヤホン11を介して告知情報を報知している。
A function for notifying the follower B and surrounding people of the selected notification information. This function is referred to as “notification information notification means 70e”.
Specifically, the notification information is notified through the
行動制御部Dは、経路生成部100、車体制御部110、及び車体駆動部120を有して構成されている。
経路生成部100は、所要のプログラムの実行により、次の機能を発揮する。
・被追走者Bが遮視物130に遮られると判定したときには、被追走者Bを見失った後の被追走者Bの推定座標位置を目標として走行経路を生成する機能。この機能を「走行経路生成手段100a」という。
本実施形態においては、上述した環境地図に基づき、ホテンシャル法や最急降下法等により走行経路を生成している。
The behavior control unit D includes a
The
A function of generating a travel route targeting the estimated coordinate position of the follower B after losing sight of the follower B when it is determined that the follower B is blocked by the
In the present embodiment, the travel route is generated by the potential method, the steepest descent method, or the like based on the environmental map described above.
以下に、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する詳細な原理について、図4,5を参照して説明する。 The following is based on the relative position relationship between the position of the tracked object before losing sight of the tracked object, the estimated position of the tracked object after losing sight of the tracked object, and the position of the shielding object. A detailed principle for determining whether or not the follower is blocked by the obstacle is described with reference to FIGS.
図4(A)は、自律走行ロボットが遮視物を検出する動作を示す説明図、(B)は、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する原理を示す説明図、図5は、遮視物に被追走者が遮られたことを検出するアルゴリズムを説明するためのフローチャートである。 FIG. 4 (A) is an explanatory view showing the operation of the autonomous mobile robot detecting an obstacle, and FIG. 4 (B) shows the position of the follower before losing sight of the follower, after losing sight of the follower. FIG. 5 is an explanatory diagram showing the principle of determining whether or not the follower is obstructed by the obstruction based on the relative positional relationship between the estimated position of the follower and the position of the obstruction. It is a flowchart for demonstrating the algorithm which detects that a follower was interrupted by the obstruction.
ステップ1(図中、「S1」と略記する。以下同様。):三次元レーザスキャナ35の測距値の位相方向に関する微分値の大きな箇所を遮視物である建物130の角130bと認識する(図4(A)参照)。
なお、図中「b」はレーザ光軸、また、「β」は位相方向を示している。また、本実施形態においては、建物130の角130bを遮視物として説明するが、当該「角」に限るものではない。
Step 1 (abbreviated as “S1” in the figure. The same applies hereinafter): A portion having a large differential value with respect to the phase direction of the distance measurement value of the three-dimensional laser scanner 35 is recognized as the
In the figure, “b” indicates the laser optical axis, and “β” indicates the phase direction. In the present embodiment, the
ステップ2:位相と測距値とにより、建物130の角130bの座標E(t+Δt)(図4(B)参照)を算出してステップ3に進む。
ステップ3:デッドレコニング41により、自律走行ロボットCの位置の座標P(t+Δt)を取得してステップ4に進む。
Step 2: A coordinate E (t + Δt) (see FIG. 4B) of the
Step 3: By the
なお、デッドレコニング41に代えて、GPS、環境地図を用いた自己位置推定によって自己位置の座標P(t+Δt)を計測するようにしてもよい。
Instead of
ステップ4:図4(B)に示すライン(遮視判別用直線)L1を生成する。そのライン(遮視判別用直線)L1は、自律走行ロボットCの位置座標と、建物130の角130bの位置座標とを通る直線である。
Step 4: A line (a line for visual discrimination) L1 shown in FIG. 4B is generated. The line (a line for determining occlusion) L1 is a straight line that passes through the position coordinates of the autonomous mobile robot C and the position coordinates of the
ステップ5:自律走行ロボットCから被追走者Bを見失う直前の、その被追走者Bの移動速度を算出する。
被追走者Bの移動速度V(t)=R(t)−R(t−Δt)
R(t)は、被追走者Bを見失う直前の位置座標。
R(t−Δt)は、被追走者Bを見失う前の一つ前の位置座標。
速度の算出は、過去複数点の平均等を使ってもよい。すなわち、見失う直前の速度が確からしく算出できればよい。
Step 5: Calculate the movement speed of the follower B immediately before losing sight of the follower B from the autonomous robot C.
Movement speed V (t) = R (t) −R (t−Δt) of the follower B
R (t) is the position coordinate immediately before the follower B is lost.
R (t−Δt) is the previous position coordinate before losing sight of the follower B.
The speed may be calculated using an average of a plurality of past points. That is, it is only necessary to accurately calculate the speed immediately before losing sight.
ステップ6:見失った時刻における被追走者Bの位置R(t+Δt)を推定する。
R(t+Δt)=R(t)+V(t)×Δt
なお、Δtは、演算周期である。
Step 6: Estimate the position R (t + Δt) of the follower B at the time of losing sight.
R (t + Δt) = R (t) + V (t) × Δt
Note that Δt is a calculation cycle.
ステップ7:図4(B)に示すラインL2を生成する。
すなわち、見失う直前の被追走者Bの位置座標R(t)と、見失ったときの時刻における被追走者Bの推定位置R(t+Δt)を結ぶライン(被追走者移動直線)L2を生成する。
Step 7: A line L2 shown in FIG. 4B is generated.
That is, a line (follower movement straight line) L2 connecting the position coordinates R (t) of the follower B immediately before losing and the estimated position R (t + Δt) of the follower B at the time when losing is generated is generated.
ステップ8:ラインL1とラインL2との交点の有無を判定する。
ステップ9:交点が存在すると判定した場合にはステップ10に進み、そうでなければステップ12に進む。
Step 8: It is determined whether or not there is an intersection between the line L1 and the line L2.
Step 9: If it is determined that an intersection exists, the process proceeds to Step 10; otherwise, the process proceeds to Step 12.
ステップ10:被追走者Bを見失った旨を報知して、ステップ11に進む。
ステップ11:走行機構36によって停止制御する。
ステップ12:移動目標点をR(t+Δt)に設定する。
Step 10: Notify that the follower B is lost, and go to
Step 11: Stop control is performed by the traveling
Step 12: Set the movement target point to R (t + Δt).
車体制御部110は、生成した走行経路に沿い、走行機構36によって移動させる機能。この機能を「走行手段110a」という。
具体的には、上記した走行輪32a(32a)、32b(32b)のそれぞれ回転数を決定する機能を有している。
車体駆動部120は、上記した走行機構36によって、走行輪32a(32a)、32b(32b)を、それぞれ決定した回転数だけ回転駆動する機能を有するものである。
The vehicle
Specifically, it has a function of determining the rotational speed of each of the traveling
The vehicle
次に、自律走行ロボットの動作について、図6を参照して説明する。図6は、自律走行ロボットの動作を示すフローチャートである。
ロボット位置・速度計測部40のPTZカメラ37によって撮影した被追走者Bの画像から反射マーカ12を抽出し、反射マーカ12の抽出結果と環境地図内の障害物情報により、被追走者Bが位置する座標と移動速度を取得するとともに、三次元レーザスキャナ35による測距領域の幾何形状を計測し、例えば高さに基づく移動の可否を判定して、環境地図を作成する。また、ロボットGPS42によって自律走行ロボットCの座標を計測し、それらのデータがミッション環境評価部70に適宜出力される。
Next, the operation of the autonomous traveling robot will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the autonomous mobile robot.
The
ステップ1(図中、「Sa1」と略記する。以下同様。):時刻情報を更新して、ステップ2に進む。
ステップ2:ミッション環境評価部70において、ミッション環境評価を行う。
具体的には、被追走者Bの位置が検出できなかった場合、建物120に遮られたか又はその他の要因で被追走者を見失ったか否かを判定する。
なお、他の要因で被追走者を見失ったと判定した場合には、図5のステップ10に示すように、評価結果に対応した告知情報を報知する。
Step 1 (abbreviated as “Sa1” in the figure. The same applies hereinafter): Update the time information and go to Step 2.
Step 2: The mission
Specifically, when the position of the follower B cannot be detected, it is determined whether the follower B is obstructed by the
In addition, when it determines with having lost the follower for other reasons, as shown in
ステップ3:建物120に遮られたと判定した場合、図5のステップ12において説明したように、移動目標点を設定する。
ステップ4:上述した環境地図に基づいて、ホテンシャル場を生成する。
ステップ5:最急降下法により、走行経路を生成する。
Step 3: When it is determined that the
Step 4: A potential field is generated based on the environmental map described above.
Step 5: A travel route is generated by the steepest descent method.
ステップ6:制動距離を算出する。
具体的には、自律走行ロボットCの制動距離+被追走者Bの位置及び自律走行ロボットCの位置計測誤差により、制動距離を算出する。これにより、最適な速度設定を行うことができる。
ステップ7:各走行輪の回転数の設定等の車両制御の演算を行う。
ステップ8:走行機構36によって移動する。
Step 6: Calculate the braking distance.
Specifically, the braking distance is calculated from the braking distance of the autonomous traveling robot C + the position of the follower B and the position measurement error of the autonomous traveling robot C. Thereby, optimal speed setting can be performed.
Step 7: Calculation of vehicle control such as setting of the rotation speed of each traveling wheel is performed.
Step 8: Move by the traveling
なお、本発明は上述した実施形態に限るものではなく、次のような変形実施が可能である。
・本実施形態においては、遮視物として建物を例として説明するが、これに限るものではなく、次のような状況においても適用することができることは勿論である。図7(A)は、他例に係る遮視物に被追走者が遮られた様子を示す説明図、(B)は、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が他例に係る遮視物に遮られたか否かを判定する原理を示す説明図である。なお、上述した実施形態において説明したものと同等のものについては、それらと同一の符号を付して説明を省略する。
The present invention is not limited to the above-described embodiments, and the following modifications can be made.
-In this embodiment, although a building is demonstrated as an example as an obstruction, it is not restricted to this, Of course, it can apply also in the following situations. FIG. 7A is an explanatory view showing a state in which a follower is blocked by an obstruction according to another example, and FIG. 7B is a follower position and follower before losing sight of the follower. Based on the relative position relationship between the estimated position of the follower after losing sight of the body and the position of the shielding object, it is determined whether or not the following object is blocked by the shielding object according to another example. It is explanatory drawing which shows a principle. In addition, about the thing equivalent to what was demonstrated in embodiment mentioned above, the code | symbol same as them is attached | subjected and description is abbreviate | omitted.
図7(A)に示すように、他例に係る遮視物である自動車130の近傍で被追走者Bを見失った場合、その自動車130に遮られたか否かを判定する。
すなわち、上述したように、三次元レーザスキャナ35の測距値の位相方向に関する微分値の大きな箇所を自動車130の角130aと認識し、レーザの位相と測距値とにより、自動車130の角130aの座標を算出する。
そして、デッドレコニング41により、自律走行ロボットCの位置の座標を取得し、上記したライン(遮視判別用直線)L1を生成する。
また、自律走行ロボットCから被追走者Bを見失う前の、その被追走者Bの移動速度を算出し、見失った時刻における被追走者Bの位置を推定して、ラインL2を生成する。
そして、ラインL1とラインL2との交点の有無を判定することにより、自動車130に遮られたか否かを判定するのである。
As shown in FIG. 7A, when the follower B is lost in the vicinity of the
That is, as described above, a portion having a large differential value with respect to the phase direction of the distance measurement value of the three-dimensional laser scanner 35 is recognized as the
Then, the
Further, the movement speed of the follower B before losing sight of the follower B from the autonomous traveling robot C is calculated, and the position of the follower B at the time when the follower B is lost is estimated to generate the line L2.
Then, it is determined whether or not the
・上述した実施形態においては、被追走体として人を例として説明したが、これに限るものではなく、車両や他のロボット等をも含むものである。 In the above-described embodiment, the human being is described as an example of the follower. However, the present invention is not limited to this, and includes a vehicle and other robots.
34a 見失判定手段
34b 被追走体位置取得手段
35 測距部(三次元レーザスキャナ)
36 走行機構
37 被追走体検出部(PTZカメラ)
43a 移動速度演算手段
43b ロボット位置取得手段
70a 遮視判定手段
70b 被追走体位置推定手段
70c 判別用直線生成手段
100a 走行経路生成手段
110a 走行手段
130 障害物(遮視物)
A 追走システム
B 被追走体(被追走者)
C 自律走行ロボット
L1 第一の遮視判別用直線
L2 第二の遮視判別用直線
34a Missing determination means 34b Follower position acquisition means 35 Distance measuring unit (three-dimensional laser scanner)
36
43a Movement speed calculation means 43b Robot position acquisition means 70a obscuration determination means 70b follower position estimation means 70c discrimination straight line generation means 100a travel route generation means 110a travel means 130 obstacle (obscuration object)
A Follower system B Follower (follower)
C Autonomous traveling robot L1 First straight line for visual discrimination L2 Second linear line for visual discrimination
Claims (4)
被追走体見出部によって、被追走体を見失ったか否かを判定する見失判定手段と、
被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、
被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、
被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標とした走行経路を生成する走行経路生成手段と、
生成した上記走行経路に沿い、走行機構により移動させる走行手段とを有していることを特徴とする自律走行ロボット。 In an autonomous traveling robot having a follower detection unit for detecting a follower and a traveling mechanism for traveling and autonomously following the movement of the follower,
Loss determination means for determining whether or not the follower is lost by the follower finding part;
When it is determined that the follower has lost sight, position estimation means for estimating the follower position after losing sight of the follower,
Based on the relative position of the tracked object before losing sight of the tracked object, the estimated position of the tracked object after losing sight of the tracked object, and the position of the interceptor. An occlusion determination means for determining whether or not the object is obstructed by an obstruction;
When it is determined that the follower is obstructed by the obstructing object, a travel route generating means for generating a travel route targeting the follower estimated position of the follower,
An autonomous traveling robot comprising traveling means that is moved by a traveling mechanism along the generated traveling route.
遮視判定手段は、生成した第一,第二の遮視判別用直線どうしが交差するか否かを判定することを特徴とする請求項1に記載の自律走行ロボット。 The first line for distinguishing obstruction that connects both the self and the position of the obstruction when the follower is lost, the position of the follower before losing sight of the follower, and the follower A discrimination straight line generating means for generating a second occlusive discrimination straight line connecting the estimated follower position after losing sight is provided,
2. The autonomous traveling robot according to claim 1, wherein the obscuration determining unit determines whether or not the generated first and second occluding determination straight lines intersect each other.
被追走体検出部によって、被追走体を見失ったか否かを判定する見失判定手段と、被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定手段と、被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定手段と、被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標とした走行経路を生成する走行経路生成手段と、生成した上記走行経路に沿い、走行機構により移動させる走行手段とを自律走行ロボットに設けたことを特徴とする自律走行ロボットを用いた追走システム。 An autonomous traveling robot having a tracked body, a tracked body detection unit for detecting the tracked body, and a travel mechanism for moving, and autonomously tracking the movement of the tracked body In
When the follower detection unit determines whether the follower has been lost or not, and when it is determined that the follower has been lost, the follower after losing the follower Relative position of the position estimation means for estimating the body position, the position of the follower before losing sight of the follower, the estimated position of the follower after losing sight of the follower Based on the relationship, the obstruction determining means for determining whether or not the follower is obstructed by the obstruction, and when it is determined that the follower is obstructed by the obstruction, the follower The autonomous traveling robot is provided with a travel route generating means for generating a travel route targeting the estimated position of the follower and a travel means for moving the travel path along the generated travel route. A follow-up system using an autonomous robot.
被追走体を見失ったか否かを判定する見失判定ステップと、
被追走体を見失ったと判定したときには、その被追走体を見失った後の被追走体位置を推定する位置推定ステップと、
被追走体を見失う前の被追走体位置、被追走体を見失った後の被追走体推定位置及び遮視物の位置の相対的な位置関係に基づいて、その被追走体が遮視物に遮られたか否かを判定する遮視判定ステップと、
被追走体が遮視物に遮られたと判定したときには、その被追走体の被追走体推定位置を目標として、遮視物側に回り込むための走行経路を生成する走行経路生成ステップと、
走行機構により生成した上記走行経路に沿って移動させることを特徴とする追走方法。 In the follow-up method to make the follower autonomously follow the autonomous running robot,
A loss determination step for determining whether or not the follower is lost;
When it is determined that the follower has lost sight, the position estimation step for estimating the follower position after losing sight of the follower,
Based on the relative position of the tracked object before losing sight of the tracked object, the estimated position of the tracked object after losing sight of the tracked object, and the position of the interceptor. An occlusion determination step for determining whether or not is obstructed by an obstruction;
A travel path generation step for generating a travel path for wrapping around the obstruction object with the target position of the follow-up object as a target when the follow-up object is determined to be obstructed by the obstruction object; ,
A follow-up method characterized by moving along the travel route generated by a travel mechanism.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009127633A JP5214539B2 (en) | 2009-05-27 | 2009-05-27 | Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009127633A JP5214539B2 (en) | 2009-05-27 | 2009-05-27 | Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010277236A true JP2010277236A (en) | 2010-12-09 |
JP5214539B2 JP5214539B2 (en) | 2013-06-19 |
Family
ID=43424160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009127633A Active JP5214539B2 (en) | 2009-05-27 | 2009-05-27 | Autonomous traveling robot, follow-up system using autonomous traveling robot, and follow-up method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5214539B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014092862A (en) * | 2012-11-01 | 2014-05-19 | Symtec Hozumi:Kk | Follow-up carriage system |
JP2018106312A (en) * | 2016-12-23 | 2018-07-05 | 株式会社Zmp | Mobile vehicle |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009020749A (en) * | 2007-07-12 | 2009-01-29 | Toshiba Corp | Robot control apparatus and method |
-
2009
- 2009-05-27 JP JP2009127633A patent/JP5214539B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009020749A (en) * | 2007-07-12 | 2009-01-29 | Toshiba Corp | Robot control apparatus and method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014092862A (en) * | 2012-11-01 | 2014-05-19 | Symtec Hozumi:Kk | Follow-up carriage system |
JP2018106312A (en) * | 2016-12-23 | 2018-07-05 | 株式会社Zmp | Mobile vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP5214539B2 (en) | 2013-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11865708B2 (en) | Domestic robotic system | |
JP5160322B2 (en) | Autonomous mobile robot apparatus and control method for autonomous mobile robot apparatus | |
US10365657B2 (en) | Autonomous moving object | |
US20160188977A1 (en) | Mobile Security Robot | |
JP4871160B2 (en) | Robot and control method thereof | |
KR101503418B1 (en) | Semiautomatic parking machine | |
JP4351261B2 (en) | Leader following vehicle | |
JP2008152600A (en) | Moving route generation method, autonomous moving object, and autonomous moving object control system | |
JP4440174B2 (en) | Mobile object subject accompaniment method and mobile object subject accompaniment apparatus | |
CN109416883A (en) | Control method for vehicle and controller of vehicle | |
JP5310285B2 (en) | Self-position estimation apparatus and self-position estimation method | |
JP2008065755A (en) | Mobile device | |
KR20110047505A (en) | Apparaus and Method for Detecting Slip of a Mobile Robot | |
KR102500634B1 (en) | Guide robot and operating method thereof | |
WO2019031168A1 (en) | Mobile body and method for control of mobile body | |
JP2006134221A (en) | Tracking mobile device | |
US20140297066A1 (en) | Remote control system | |
JP4670807B2 (en) | Travel route creation method, autonomous mobile body, and autonomous mobile body control system | |
JP2018185767A (en) | Environment maintenance robot, and control program of the same | |
JP2017146945A (en) | Lead robot | |
JP6825715B2 (en) | Mobile vehicle | |
JP2007200070A (en) | Mobile robot | |
JP6962027B2 (en) | Mobile vehicle | |
US20200001877A1 (en) | Determining Visibility Distances Based on a Dynamic Field of View of a Vehicle | |
CN112622774A (en) | Vehicle and method for providing information around vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5214539 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |