JPH07271434A - Environment map preparing method by plural mobile robots - Google Patents

Environment map preparing method by plural mobile robots

Info

Publication number
JPH07271434A
JPH07271434A JP6060856A JP6085694A JPH07271434A JP H07271434 A JPH07271434 A JP H07271434A JP 6060856 A JP6060856 A JP 6060856A JP 6085694 A JP6085694 A JP 6085694A JP H07271434 A JPH07271434 A JP H07271434A
Authority
JP
Japan
Prior art keywords
coordinate system
individual
vector
robot
individual coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6060856A
Other languages
Japanese (ja)
Inventor
Hisayoshi Sugiyama
久佳 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6060856A priority Critical patent/JPH07271434A/en
Publication of JPH07271434A publication Critical patent/JPH07271434A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To prepare an entire environment map by synthesizing respective maps without damaging the merit of environment map preparation using plural robots. CONSTITUTION:Both robots A and B arrive at points Pa' and Pb' and get close each other, the robot A measures the position of the robot B and gets a vector (c) expressing the relative position with the robot A itself. Further, the robot A is provided with a vector (b) expressing the position of the robot B on an individual coordinate system Bxy from the robot B, calculates a vector (d) expressing the relative position of the individual coordinate system Bxy corresponding to an individual coordinate system Axy from the vectors (b) and (c) and a vector (a) expressing its own position on the individual coordinate system Axy, calculates a vector (e) expressing its own position on the individual coordinate system Bxy and replaces it with the vector (a) expressing its own position on the individual coordinate system Axy. The robot A converts the respective maps prepared on the individual coordinate system Axy to the maps based on the individual coordinate system Bxy.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の移動ロボット
(以下、単にロボットと呼ぶ)が、種々の物体が存在す
る環境内を同時に行動してその環境の地図を作成する場
合に、各々のロボットが個別の座標系に基づいて作成し
た地図を合成することによって環境全体の地図を生成す
る方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a case where a plurality of mobile robots (hereinafter, simply referred to as robots) simultaneously act in an environment in which various objects exist and create a map of the environment. The present invention relates to a method for generating a map of the entire environment by synthesizing maps created by a robot based on individual coordinate systems.

【0002】[0002]

【従来の技術】ロボットが、その周囲をとりまく環境に
関する地図を自らその環境内を行動して作成すること
を、ロボットの環境地図作成と呼ぶ。
2. Description of the Related Art A robot that creates a map of the environment surrounding it by acting in the environment itself is referred to as "robot environment map creation".

【0003】複数のロボットが環境地図作成を行なう場
合は、各々のロボットがまず最初に個々の座標系(個別
座標系と呼ぶ)を設定する。次に、ロボットが環境内を
行動し、その過程において周囲の物体をセンサーである
テレビカメラなどを用いて観測し、個別座標系上にそれ
らの物体の輪郭線を記入してゆく。ロボット自身の個別
座標系上の位置は、デッド・レコニングによって認識す
る。デッド・レコニングとは、ロボットがある基準点を
出発して移動する際、例えば車輪によって移動するなら
ば、その車輪の回転数に車輪の円周を乗じた値を移動距
離とみなして、基準点に対する自己の位置を認識する方
法である。
When a plurality of robots make an environmental map, each robot first sets an individual coordinate system (called an individual coordinate system). Next, the robot acts in the environment, and in the process, observes surrounding objects using a TV camera or the like as a sensor, and fills in contour lines of those objects on the individual coordinate system. The position of the robot itself on the individual coordinate system is recognized by dead reckoning. Dead reckoning means that when the robot starts from a certain reference point and moves, for example, if it moves by wheels, the value obtained by multiplying the rotation speed of the wheel by the circumference of the wheel is regarded as the movement distance, and the reference point This is a method of recognizing one's position with respect to.

【0004】このようにして各々のロボットが作成した
地図(個別地図と呼ぶ)をすべて合成することによっ
て、環境全体の地図が得られる。このとき、合成しよう
とする個別地図どうしは共通の座標系に基づいている必
要がある。したがって、各々のロボットが最初に設定し
た個別座標系が、個別地図どうしを合成する際には単一
の座標系に統合されている必要がある。
A map of the entire environment can be obtained by synthesizing all the maps (called individual maps) created by each robot in this way. At this time, the individual maps to be combined need to be based on a common coordinate system. Therefore, the individual coordinate system initially set by each robot needs to be integrated into a single coordinate system when synthesizing individual maps.

【0005】[0005]

【発明が解決しようとする課題】複数のロボットによる
環境地図作成に関する従来の技術においては、各ロボッ
トの個別座標系どうしが異なっている場合、それらを統
合して共通の座標系に変換する具体的な方法については
検討されていない。すなわち、すべての個別座標系は最
初から同一の座標系であることが前提になっている。
In the prior art relating to the environmental map creation by a plurality of robots, when the individual coordinate systems of the robots are different from each other, they are integrated and converted into a common coordinate system. No such method has been considered. That is, it is assumed that all individual coordinate systems are the same coordinate system from the beginning.

【0006】従来の技術においては全ての個別座標系を
同一座標系に統一しようとすれば、環境地図作成を開始
する時点においてすべてのロボットを同一場所に集めて
座標系を設定しなければならない。この方法は実現が困
難であるばかりか、複数のロボットの使用によって生ず
る利点、すなわち、複数のロボットが環境内の各々異な
る場所において作成した個別地図を合成することにより
環境地図作成に要する時間が大幅に短縮されるなどの利
点を十分に生かすことができないという問題がある。
In the prior art, if all the individual coordinate systems are to be unified to the same coordinate system, all the robots must be gathered at the same place and the coordinate system must be set at the time of starting the environment map creation. This method is not only difficult to implement, but also has the advantage of using multiple robots, that is, the time required to create an environmental map is increased by combining individual maps created by multiple robots at different locations in the environment. There is a problem that it is not possible to make full use of the advantages such as being shortened.

【0007】本発明の目的は、複数のロボットを用いた
環境地図作成の利点を損なうことなく個別座標系どうし
を統合し、個別地図どうしを合成して環境全体の地図を
作成する、複数の移動ロボットによる環境地図作成方法
を提供することにある。
An object of the present invention is to integrate a plurality of individual coordinate systems without compromising the advantage of creating an environment map using a plurality of robots, and combine the individual maps to create a map of the entire environment. It is to provide a method for creating an environmental map by a robot.

【0008】[0008]

【課題を解決するための手段】本発明の、複数の移動ロ
ボットによる環境地図作成方法は、第1のロボットが移
動中に、搭載したセンサーにより個別座標系が異なる第
2のロボットの接近を感知した時、第1のロボットは、
第2のロボットの位置をセンサーにより測定し、自己の
個別座標系である第1の座標系上の自己との相対位置を
表わすベクトルcを得、第2のロボットに対して、自己
の個別座標系である第2の座標系上の自己の位置を表わ
すベクトルbを送信させて、第1のロボットは、ベクト
ルcとベクトルbの逆ベクトル−bと第1の座標系上の
自己の位置を表わすベクトルaを加算することにより、
第2の座標系の第1の座標系に対する相対位置を表わす
ベクトルdを得るか、第1のロボットが第2のロボット
に対してベクトルcとベクトルaを送信し、第2のロボ
ットは、ベクトルcとベクトルaの逆ベクトル−aとベ
クトルbを加算することにより、第1の座標系の第2の
座標系に対する相対位置を表わすベクトルd’を得て、
一方の個別座標系を共通の個別座標系として他方の個別
座標系をこれに統合する座標系統合ステップを有し、各
ロボットは、搭載したセンサーにより自己の個別座標系
上の物体の位置を認識し、前記個別地図を作成し、個別
座標系が互いに異なる2台のロボットが互いに接近した
とき前記座標系統合ステップを実行して一方の個別座標
系を他方の個別座標系に統合し、該一方の個別座標系と
同じ個別座標系を有するロボットが他にある場合、前記
座標系統合ステップを実行して該ロボットの個別座標系
も前記他方の個別座標系に統合することを全てのロボッ
トが唯一の共通の個別座標系を持つまで繰り返し、各ロ
ボットは、自己の個別座標系上の物体の位置を表わすベ
クトルから、共通の個別座標系の自己の個別座標系に対
する相対位置を表わす、前記座標系統合ステップを求め
たベクトルdまたはd’を差し引き、物体の位置を表わ
すベクトルを共通の個別座標系上のベクトルに変換する
ことにより、自己の個別地図を共通の個別座標系上の個
別地図に変換する処理を前記座標系統合ステップで、ま
たは唯一の共通の個別座標系が求まった後行ない、唯一
の共通の個別座標系上の個別地図を統合する。
According to the method for creating an environment map by a plurality of mobile robots of the present invention, while the first robot is moving, the mounted sensor detects the approach of a second robot having a different individual coordinate system. When I did, the first robot
The position of the second robot is measured by a sensor, and a vector c representing the relative position to the self on the first coordinate system which is the individual coordinate system of the second robot is obtained. The first robot transmits the vector b representing the position of its own on the second coordinate system, which is the system, and the inverse vector −b of the vector c and the vector b, and its position on the first coordinate system. By adding the represented vector a,
The vector d representing the relative position of the second coordinate system to the first coordinate system is obtained, or the first robot sends the vector c and the vector a to the second robot, and the second robot uses the vector By adding c and the inverse vector −a of vector a and vector b, a vector d ′ representing the relative position of the first coordinate system to the second coordinate system is obtained,
Each robot has a coordinate system integration step that uses one individual coordinate system as a common individual coordinate system and integrates the other individual coordinate system into it.Each robot recognizes the position of the object on its own individual coordinate system by the mounted sensor. Then, the individual map is created, and when two robots having different individual coordinate systems approach each other, the coordinate system integration step is executed to integrate one individual coordinate system into the other individual coordinate system, If there are other robots that have the same individual coordinate system as the above individual coordinate system, all the robots are allowed to perform the coordinate system integrating step to integrate the individual coordinate system of the robot into the other individual coordinate system. Iterate until each robot has a common individual coordinate system of, and from the vector expressing the position of the object on its own individual coordinate system, each robot expresses the relative position of the common individual coordinate system with respect to its own individual coordinate system. By subtracting the vector d or d ′ obtained in the coordinate system integration step and converting the vector representing the position of the object into a vector on a common individual coordinate system, the individual map of the self is displayed on the common individual coordinate system. In the coordinate system integration step or after the unique common individual coordinate system is obtained, the individual maps on the unique common coordinate system are integrated.

【0009】[0009]

【作用】本発明の前提として、環境地図の作成を行なう
複数のロボット(以下、ロボット群と呼ぶ)のすべて
が、近傍に存在する他のロボットの位置を計測する計測
機能および計測した位置を含む情報を他のロボットに伝
える通信機能を備えることが必要である。
As a premise of the present invention, all of a plurality of robots (hereinafter, referred to as a robot group) for creating an environment map include a measurement function for measuring the positions of other robots in the vicinity and the measured position. It is necessary to have a communication function for transmitting information to other robots.

【0010】本発明の特徴の第1の特徴は、ロボット群
のうちの2台のロボットどうしが接近し、しかもそれぞ
れのロボットの個別座標系どうしが異なっているなら
ば、上記計測機能を用いて一方のロボット(計測ロボッ
トと呼ぶ)が他方のロボット(被測ロボットと呼ぶ)の
位置を計測し、得られた計測値に基づいて、一方のロボ
ットが自己の個別座標系を他方のロボットの個別座標系
と同一の座標系(共通の個別座標系)に変換することで
ある。このとき、個別座標系を変換するロボットは、計
測ロボットと被計測ロボットのいずれでもよい。
The first feature of the present invention is that if the two robots in the robot group come close to each other and the individual coordinate systems of the robots are different from each other, the above measuring function is used. One robot (called the measurement robot) measures the position of the other robot (called the measured robot), and based on the measured values, one robot sets its own individual coordinate system to that of the other robot. It is to convert to the same coordinate system as the coordinate system (common individual coordinate system). At this time, the robot that transforms the individual coordinate system may be either a measurement robot or a measured robot.

【0011】本発明の第2の特徴は、同一の個別座標系
を有する複数のロボット(同系ロボット群と呼ぶ)のう
ちの1台が、上記第1の特徴に示す操作によって自己の
個別座標系を変換したならば、同じ同系ロボット群に属
する他のすべてのロボットも各々の個別座標系を変換し
て、同系ロボット群内の個別座標系の同一性を保つとい
うことである。
A second feature of the present invention is that one of a plurality of robots having the same individual coordinate system (referred to as a group of robots of the same system) performs its own individual coordinate system by the operation described in the first feature. If is transformed, all other robots belonging to the same robot group also transform their respective individual coordinate systems to maintain the sameness of the individual coordinate systems in the same robot group.

【0012】なお、複数のロボットを用いることの利点
を生かすためには、それらの作成する個別地図の重複が
無いことが望ましい。したがって、環境地図作成を開始
する時点においては、個々のロボットは環境内に均等に
分散しているのが望ましい。環境内に均等に分散したロ
ボットは、各々の地点において個別座標系を設定した
後、個別地図の作成を開始する。したがって、環境地図
作成が開始される時点においては、個々のロボットの個
別座標系はすべて異なっている。第1の特徴により、こ
れらのロボットのうち2台のロボットが近接した場合、
両ロボットの個別座標系どうしが統合される。この結
果、2台のロボットからなる同系ロボット群は生ずる。
第2の特徴により、この同系ロボット群に含まれるロボ
ットの数が順次増えてゆき、最終的には、ロボット群が
一つの同系ロボット群になる、すなわち、すべての個別
座標系が統合される。すべての個別座標系が統合されれ
ば、ロボットの通信機能によって、各々の個別地図をロ
ボットどうしが伝え合い、あるいは各々の個別地図を人
間が集めて、それらを合成して環境全体の地図が生成さ
れる。
In order to take advantage of the use of a plurality of robots, it is desirable that the individual maps created by them do not overlap. Therefore, it is desirable that the individual robots are evenly distributed in the environment at the time of starting the environment map creation. The robots evenly distributed in the environment set the individual coordinate system at each point and then start to create individual maps. Therefore, the individual coordinate systems of the individual robots are all different at the time when the environmental map creation is started. According to the first feature, when two of these robots come close to each other,
The individual coordinate systems of both robots are integrated. As a result, a similar robot group consisting of two robots is generated.
According to the second feature, the number of robots included in this group of similar robots sequentially increases, and finally the group of robots becomes one group of similar robots, that is, all individual coordinate systems are integrated. If all the individual coordinate systems are integrated, the robot's communication function allows the robots to communicate each individual map, or humans collect each individual map and synthesize them to create a map of the entire environment. To be done.

【0013】[0013]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0014】図1は移動ロボットの一例を示す構成図で
ある。
FIG. 1 is a block diagram showing an example of a mobile robot.

【0015】このロボットは、センサーであるテレビカ
メラ1と、その支持台2と、計算機3と、無線通信機4
と、車輪5と、車輪5の駆動機構6と、フレーム7と、
信号ケーブル8,9,10からなる。テレビカメラ1は
支持台2に任意の方向に向けられるように設置されてい
る。無線通信機4は、他のロボットと情報の交信を行な
う。車輪5はフレーム7に固定され、計算機3が指示す
る任意の方向に駆動機構6によって、当該ロボットを移
動させる。信号ケーブル8は、計算機3の撮影指示をテ
レビカメラ1に伝え、テレビカメラ1が生成した画像信
号、およびテレビカメラ1の回転方向と角度とを計算機
3に伝達する信号路である。信号ケーブル9は計算機3
と無線通信機4との信号路である。信号ケーブル10は
計算機3が出力する移動情報を駆動機構6に伝達する信
号路である。計算機3は記憶装置を含み、本ロボットの
動作を実現するプログラムが格納されており、該プログ
ラムによりテレビカメラ1、無線通信機4、駆動機構6
を制御する。
This robot includes a television camera 1 which is a sensor, a supporting base 2 thereof, a computer 3 and a wireless communication device 4.
A wheel 5, a drive mechanism 6 for the wheel 5, a frame 7,
It consists of signal cables 8, 9 and 10. The TV camera 1 is installed on the support base 2 so as to be oriented in an arbitrary direction. The wireless communication device 4 communicates information with other robots. The wheels 5 are fixed to the frame 7, and the drive mechanism 6 moves the robot in an arbitrary direction instructed by the computer 3. The signal cable 8 is a signal path for transmitting a shooting instruction of the computer 3 to the television camera 1, and transmitting the image signal generated by the television camera 1 and the rotation direction and angle of the television camera 1 to the computer 3. Signal cable 9 is computer 3
Is a signal path between the wireless communication device 4 and the wireless communication device 4. The signal cable 10 is a signal path for transmitting the movement information output by the computer 3 to the drive mechanism 6. The computer 3 includes a storage device and stores a program that realizes the operation of the robot, and the television camera 1, the wireless communication device 4, and the drive mechanism 6 are stored by the program.
To control.

【0016】図2は図1に示したような構成の2台のロ
ボットA,Bからなるロボット群が、種々の物体が存在
する環境E内を移動して環境地図の作成を行なう際に、
個別座標系Axy,Bxyを統合する様子を上方から見た模
式図である。簡単のため、環境E内に存在する物体のう
ち、物体F以外のものの記載を省略した。
FIG. 2 shows a case where a robot group consisting of two robots A and B having the structure shown in FIG. 1 moves in an environment E where various objects exist to create an environment map.
It is the schematic diagram which looked at the mode which integrated the individual coordinate systems Axy and Bxy from the upper side. For the sake of simplicity, descriptions of objects existing in the environment E other than the object F are omitted.

【0017】ロボットA,Bは、最初に環境E内のたが
いに離れた地点PA ,PB にそれぞれ位置し、それぞれ
の地点PA,PBにおいて個別座標系AxyおよびBxyを設
定する。次に、ロボットA,Bは、先に説明したデッド
・レコニングを用いて各々の個別座標系Axy,Bxy上の
自己の位置を認識しながら環境E内を移動し、同時に周
囲に存在する物体をテレビカメラ1によって観測して個
別地図を作成する。
The robots A and B are respectively located at points P A and P B which are initially distant from each other in the environment E, and set individual coordinate systems A xy and B xy at the respective points P A and P B. . Next, the robots A and B move in the environment E while recognizing their positions on the individual coordinate systems A xy and B xy using the dead reckoning described above, and at the same time, they are present in the surroundings. The object is observed by the TV camera 1 to create an individual map.

【0018】ロボットAおよびBは、上記の操作を行な
いながらそれぞれ軌跡hおよびiに沿って環境E内を移
動し、地点PA′,PB′に到達して互いに近接する。両
ロボットがたがいに近接したことの認識は、ロボットが
他の近接したロボットの位置を計測する計測機能を用い
ることにより可能となる。計測機能は、例えば一方のロ
ボットが2台のテレビカメラを用いて他方のロボットを
ステレオ視するなどの方法によって実現することができ
る。
The robots A and B move in the environment E along the loci h and i while performing the above operations, reach the points P A ′ and P B ′, and approach each other. The recognition that both robots have approached each other is possible by using a measurement function that the robot measures the positions of other robots that are in close proximity. The measurement function can be realized by a method in which one robot uses two TV cameras to stereoscopically view the other robot, for example.

【0019】ロボットAは上記の機能を用いてロボット
Bの位置を計測し、自己との相対位置を表わすベクトル
cを得る。ロボットBは、自己の個別座標系Bxy上の位
置を表わすベクトルbをロボットAに伝える。ロボット
Aは、ベクトルcとベクトルbの逆ベクトル−bと個別
座標系Axy上の自己の位置を表わすベクトルaを加算し
て、個別座標系Bxyの個別座標系Axyに対する相対位置
を表わすベクトルdを得る。さらに、ロボットAは、ベ
クトルaと得られたベクトルdとの差分をとることによ
り、個別座標系Bxy上の自己の位置を表わすベクトルe
を求め、個別座標系Axy上の自己の位置を表わすベクト
ルaをベクトルeに置き換える。
The robot A measures the position of the robot B using the above function and obtains the vector c representing the relative position to itself. The robot B transmits to the robot A a vector b representing its own position on the individual coordinate system B xy . Robot A adds the vector a representing the self position on the inverse vector -b and individual coordinate system A xy of vector c and vector b, representing the relative position with respect to the individual coordinate system A xy of the individual coordinate system B xy Get the vector d. Further, the robot A takes a difference between the vector a and the obtained vector d to obtain a vector e representing the position of itself on the individual coordinate system B xy.
Then, the vector a representing the position of the self on the individual coordinate system A xy is replaced with the vector e.

【0020】また、ロボットAは、ロボットAとBがた
がいに近接した位置に到達する時点までに個別座標系A
xy上に作成した個別地図を、個別座標系Bxyに基づく地
図に変換する。例えば、物体Fの位置を個別座標系Axy
上のベクトルfによって表わしていたならば、ベクトル
fとベクトルdの差分をとることにより、個別座標系B
xy上のベクトルgを求め、ベクトルfをベクトルgに置
き換えることによって、個別座標系Axyに基づく物体F
の個別地図を、共通の個別座標系である個別座標系Bxy
に基づく個別地図に変換する。
Further, the robot A has the individual coordinate system A by the time when the robots A and B arrive at positions close to each other.
The individual map created on xy is converted into a map based on the individual coordinate system B xy . For example, if the position of the object F is the individual coordinate system A xy
If represented by the vector f above, the individual coordinate system B can be obtained by calculating the difference between the vector f and the vector d.
An object F based on the individual coordinate system A xy is obtained by finding a vector g on xy and replacing the vector f with the vector g.
The individual maps of the individual coordinate system B xy which is a common individual coordinate system
Convert to individual map based on.

【0021】以上の操作により、ロボットAは、自己の
個別座標系AxyをロボットBの個別座標系Bxyと同一の
ものに変換し、同時に自己の個別地図を個別座標系Bxy
に基づく地図に置き換えた。すなわち、環境Eの環境地
図を作成する2台のロボットAおよびBが、それぞれの
個別座標系どうしを統合したことになる。
By the above operation, the robot A converts its own individual coordinate system A xy into the same as the robot B's individual coordinate system B xy, and at the same time, its own individual map B xy.
Replaced with a map based on. That is, the two robots A and B that create the environment map of the environment E have integrated their individual coordinate systems.

【0022】なお、ロボットAはベクトルcおよびベク
トルaをロボットBに伝え、ロボットBはベクトルcと
ベクトルaの逆ベクトル−aとベクトルbを加算して、
個別座標系Axyの個別座標系Bxyに対する相対位置を表
わすベクトルd’を得、ベクトルbと得られたベクトル
d′の差分をとることにより、個別座標系Axy上の自己
の位置を表わすベクトルを求め、これを個別座標系Bxy
上の自己の位置を表わすベクトルbと置き換えてもよ
い。この場合、ロボットBは、個別座標系Bxy上に作成
した個別地図を、個別座標系Axyに基づく地図に変換す
ることになる。図3は、環境Eの環境地図を作成する4
台のロボットA,B,C,Dからなるロボット群が、そ
れぞれ軌跡j,k,l,mに沿って移動する過程におい
て、各自の個別座標系Axy,Bxy,Cxy,Dxyを統合す
る様子を上方から見た模式図である。簡単のため、環境
E内に存在する物体の記載を省略した。
The robot A transmits the vector c and the vector a to the robot B, and the robot B adds the inverse vector −a of the vector c and the vector a and the vector b,
A vector d'representing the relative position of the individual coordinate system A xy with respect to the individual coordinate system B xy is obtained, and the position of the self on the individual coordinate system A xy is represented by taking the difference between the vector b and the obtained vector d '. Find the vector and use it as the individual coordinate system B xy
It may be replaced with the vector b representing the self position above. In this case, the robot B will convert the individual map created on the individual coordinate system B xy into a map based on the individual coordinate system A xy . Figure 3 is for creating an environment map of environment E 4
In the process in which the robot group consisting of the robots A, B, C, D moves along the trajectories j, k, l, m, their individual coordinate systems A xy , B xy , C xy , D xy are set. It is the schematic diagram which looked at the state of integrating from the upper side. For simplicity, the description of the objects existing in the environment E is omitted.

【0023】4台のロボットA,B,C,Dは、最初、
環境E内のたがいに離れた場所に位置し、それぞれの場
所において個別座標系Axy,Bxy,Cxy,Dxyを設定す
る。次に、これらの4台のロボットA,B,C,Dは、
デッド・レコニングを用いて各々の個別座標系Axy,B
xy,Cxy,Dxy上の自己の位置を認識しながら環境E内
を移動し、同時に周囲に存在する物体をテレビカメラ1
によって観測して個別地図を作成する。
The four robots A, B, C and D are initially
They are located at places far apart from each other in the environment E, and individual coordinate systems A xy , B xy , C xy and D xy are set at the respective places. Next, these four robots A, B, C, D
Each individual coordinate system A xy , B using dead reckoning
The television camera 1 moves in the environment E while recognizing its own position on xy , C xy , and D xy , and at the same time, sees the surrounding objects
Observe and create an individual map.

【0024】ロボットAおよびBは、上記の操作を行な
いながらそれぞれ軌跡jおよびkに沿って環境E内を移
動し、地点P1 の近くにおいて互いに近接する。この地
点において両ロボットA,Bは、図2に関して述べた操
作を行ない、ロボットBは個別座標系Bxyを個別座標系
xyに統合する。この結果、個別座標系Axyを共通の個
別座標系とする同系ロボット群{A,B}が生ずる。一
方、ロボットCおよびDがそれぞれ軌跡l,mに沿って
環境E内を移動し、地点P2 の近くにおいて互いに近接
すると、地点P1 におけるロボットBと同様にしてロボ
ットDは自己の個別座標系Dxyを個別座標系Cxyに統合
する。この結果、個別座標系Cxyを共通の個別座標系と
する同系ロボット群{C,D}が生ずる。
The robots A and B move in the environment E along the trajectories j and k, respectively, while performing the above operations, and come close to each other near the point P 1 . At this point, both robots A and B perform the operations described with reference to FIG. 2, and robot B integrates the individual coordinate system B xy into the individual coordinate system A xy . As a result, the same group of robots {A, B} having the individual coordinate system A xy as a common individual coordinate system is generated. On the other hand, when the robots C and D move in the environment E along the trajectories 1 and m, respectively, and approach each other near the point P 2 , the robot D at the point P 1 receives its own individual coordinate system in the same manner as the robot B at the point P 1 . Integrate D xy into the individual coordinate system C xy . As a result, the same group of robots {C, D} having the individual coordinate system C xy as a common individual coordinate system is generated.

【0025】次に、ロボットAおよびDがそれぞれ軌跡
jおよびmに沿ってさらに移動し、地点P3 の近くにお
いてたがいに近接する。この地点においてロボットDは
個別座標系CxyをロボットAの個別座標系Axyに統合す
る。このとき、両ロボットA,Dはすでにロボット群
{A,B}および{C,D}にそれぞれ属しているの
で、後者のロボット群に属するロボットCは、図2に示
した操作を行なって個別座標系を変換する。すなわち、
ロボット群{C,D}のうちロボットDが個別座標系C
xyを個別座標系Axyに変換したので、同じロボット群に
属するロボットCもまた個別座標系Cxyを個別座標系A
xyに変換して、ロボット群内の個別座標系が同一である
状態を保つ。一方、ロボット群{A,B}に関しては、
いずれのロボットに関しても個別座標系を変換する必要
はない。
Next, the robots A and D further move along the trajectories j and m, respectively, and approach each other near the point P 3 . At this point, the robot D integrates the individual coordinate system C xy into the individual coordinate system A xy of the robot A. At this time, since the two robots A and D already belong to the robot groups {A, B} and {C, D}, respectively, the robot C belonging to the latter robot group performs the operation shown in FIG. Convert the coordinate system. That is,
In the robot group {C, D}, the robot D has an individual coordinate system C
Since xy is converted into the individual coordinate system A xy , the robot C belonging to the same robot group also changes the individual coordinate system C xy into the individual coordinate system A xy.
By converting to xy , the individual coordinate system in the robot group is kept the same. On the other hand, regarding the robot group {A, B},
It is not necessary to transform the individual coordinate system for any robot.

【0026】以上の操作によって、環境地図を作成する
4台のロボットA,B,C,Dからなる同系ロボット群
{A,B,C,D}が生じ、この結果、各ロボットA,
B,C,Dの個別座標系Axy,Bxy,Cxy,Dxyがすべ
て唯一の共通の個別座標系である個別座標系Axyに統合
された。この後、各ロボットA,B,C,Dは、作成し
た個別地図をたがいに伝え合うことによって合成し、環
境全体の地図を生成する。なお、各個別座標系に基づく
物体のベクトルを共通の個別座標系上のベクトルに変換
する操作は、個別座標系の変換が行なわれるたびに行な
ってもよいし、全ての個別座標系が唯一の共通の個別座
標系(この場合個別座標系Axy)に統合された後にまと
めて行なってもよい。
By the above operation, a group of similar robots {A, B, C, D} consisting of four robots A, B, C, D for creating an environment map is generated. As a result, each robot A,
The individual coordinate systems A xy , B xy , C xy , and D xy of B, C, and D are all integrated into an individual coordinate system A xy , which is the only common individual coordinate system. After that, each of the robots A, B, C, and D synthesizes the created individual maps by transmitting them to each other to generate a map of the entire environment. The operation of converting the vector of the object based on each individual coordinate system into the vector on the common individual coordinate system may be performed every time the conversion of the individual coordinate system is performed, or all the individual coordinate systems are unique. It may be performed after being integrated into a common individual coordinate system (in this case, the individual coordinate system A xy ).

【0027】[0027]

【発明の効果】以上説明したように、本発明は、座標系
統合ステップにより、個別座標系が異なるロボットの個
別座標系を順次統合してゆき、唯一の共通の個別座標系
とすることにより、複数のロボットを用いた環境地図作
成の利点を損なうことなく環境全体の地図を作成するこ
とが可能となる効果がある。
As described above, according to the present invention, in the coordinate system integration step, the individual coordinate systems of the robots having different individual coordinate systems are sequentially integrated to form the only common individual coordinate system. There is an effect that it is possible to create a map of the entire environment without losing the advantages of creating an environment map using a plurality of robots.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明で用いられる移動ロボットの一例の構造
を示す構成図である。
FIG. 1 is a configuration diagram showing a structure of an example of a mobile robot used in the present invention.

【図2】環境地図を作成する2台のロボットA,Bが、
個別座標系Axy,Bxyを統合する様子を上方から見た模
式図である。
[Fig. 2] Two robots A and B that create an environmental map
It is the schematic diagram which looked at the mode which integrated the individual coordinate systems Axy and Bxy from the upper side.

【図3】環境地図を作成する4台のロボットA,B,
C,Dが、個別座標系Axy,Bxy,Cxy,Dxyを統合す
る様子を上方から見た模式図である。
[Fig. 3] Four robots A, B, which create an environmental map
It is the schematic diagram which looked at the state which C and D integrated the individual coordinate system Axy , Bxy , Cxy , Dxy from the upper side.

【符号の説明】[Explanation of symbols]

A,B,C,D ロボット E 環境 F 物体 PA ,PA',PB ,PB',P1 ,P2 ,P3 地点 Axy,Bxy,Cxy,Dxy 個別座標系 a,b,c,d,e,f,g ベクトル h,i,j,k,l,m ロボットの軌跡A, B, C, D Robot E Environment F Object P A , P A ', P B , P B ', P 1 , P 2 , P 3 points A xy , B xy , C xy , D xy Individual coordinate system a , B, c, d, e, f, g vector h, i, j, k, l, m robot trajectory

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 各々が、方向選択可能な移動能力と、周
囲の状況を検出するセンサーを有し、相互に通信可能な
複数のロボットが、種々の物体が存在する環境内を個別
に同時に移動して各ロボットが独自に設定した個別座標
系を基準として当該ロボットの近傍の個別地図を作成
し、作成された個別地図を合成して該環境の全体の地図
を作成する、複数の移動ロボットによる環境地図作成方
法であって、 第1のロボットが移動中に、搭載したセンサーにより個
別座標系が異なる第2のロボットの接近を感知した時、
第1のロボットは、第2のロボットの位置をセンサーに
より測定し、自己の個別座標系である第1の座標系上の
自己との相対位置を表わすベクトルcを得、第2のロボ
ットに対して、自己の個別座標系である第2の座標系上
の自己の位置を表わすベクトルbを送信させて、第1の
ロボットは、ベクトルcとベクトルbの逆ベクトル−b
と第1の座標系上の自己の位置を表わすベクトルaを加
算することにより、第2の座標系の第1の座標系に対す
る相対位置を表わすベクトルdを得るか、第1のロボッ
トが第2のロボットに対してベクトルcとベクトルaを
送信し、第2のロボットは、ベクトルcとベクトルaの
逆ベクトル−aとベクトルbを加算することにより、第
1の座標系の第2の座標系に対する相対位置を表わすベ
クトルd’を得て、一方の個別座標系を共通の個別座標
系として他方の個別座標系をこれに統合する座標系統合
ステップを有し、 各ロボットは、搭載したセンサーにより自己の個別座標
系上の物体の位置を認識し、前記個別地図を作成し、 個別座標系が互いに異なる2台のロボットが互いに接近
したとき前記座標系統合ステップを実行して一方の個別
座標系を他方の個別座標系に統合し、該一方の個別座標
系と同じ個別座標系を有するロボットが他にある場合、
前記座標系統合ステップを実行して該ロボットの個別座
標系も前記他方の個別座標系に統合することを全てのロ
ボットが唯一の共通の個別座標系を持つまで繰り返し、 各ロボットは、自己の個別座標系上の物体の位置を表わ
すベクトルから、共通の個別座標系の自己の個別座標系
に対する相対位置を表わす、前記座標系統合ステップで
求めたベクトルdまたはd’を差し引き、物体の位置を
表わすベクトルを共通の個別座標系上のベクトルに変換
することにより、自己の個別地図を共通の個別座標系上
の個別地図に変換する処理を前記座標系統合ステップ
で、または唯一の共通の個別座標系が求まった後行な
い、 唯一の共通の個別座標系上の個別地図を統合する、複数
の移動ロボットによる環境地図作成方法。
1. A plurality of robots each having a direction-selectable moving ability and a sensor for detecting a surrounding situation and capable of communicating with each other move individually and simultaneously in an environment where various objects are present. Then, each robot creates an individual map in the vicinity of the robot based on the individual coordinate system set by itself, and combines the created individual maps to create a map of the entire environment. A method for creating an environment map, wherein when a sensor mounted on a first robot detects the approach of a second robot having a different individual coordinate system,
The first robot measures the position of the second robot with a sensor, obtains a vector c representing the relative position with respect to itself on the first coordinate system, which is the individual coordinate system of itself, and Then, the first robot transmits the vector b representing its own position on the second coordinate system, which is its own individual coordinate system, and the first robot makes the inverse vector −b of the vector c and the vector b.
And a vector a representing its own position on the first coordinate system are added to obtain a vector d representing the relative position of the second coordinate system with respect to the first coordinate system, or The vector c and the vector a are transmitted to the robot of the second coordinate system, and the second robot adds the inverse vector −a and the vector b of the vector c and the vector a to obtain the second coordinate system of the first coordinate system. The robot has a coordinate system integration step of obtaining a vector d'representing a relative position with respect to one of the individual coordinate systems as a common individual coordinate system and integrating the other individual coordinate system with it. Recognizing the position of an object on its own individual coordinate system, creating the individual map, and when two robots having different individual coordinate systems approach each other, the coordinate system integration step is executed to execute one of the individual coordinate systems. If integrated system to the other individual coordinate systems, there robot to another having the same individual coordinate system as one of the individual coordinate systems the,
Repeating the coordinate system integration step to integrate the individual coordinate system of the robot with the other individual coordinate system until all robots have a single common individual coordinate system. From the vector representing the position of the object on the coordinate system, the position of the object is represented by subtracting the vector d or d ′ obtained in the coordinate system integration step, which represents the relative position of the common individual coordinate system with respect to its own individual coordinate system. By converting the vector to a vector on a common individual coordinate system, the process of converting the own individual map to an individual map on a common individual coordinate system is performed in the coordinate system integration step, or at the only common individual coordinate system. After that, a method for creating an environmental map using multiple mobile robots that integrates individual maps on a single common individual coordinate system.
JP6060856A 1994-03-30 1994-03-30 Environment map preparing method by plural mobile robots Pending JPH07271434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6060856A JPH07271434A (en) 1994-03-30 1994-03-30 Environment map preparing method by plural mobile robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6060856A JPH07271434A (en) 1994-03-30 1994-03-30 Environment map preparing method by plural mobile robots

Publications (1)

Publication Number Publication Date
JPH07271434A true JPH07271434A (en) 1995-10-20

Family

ID=13154450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6060856A Pending JPH07271434A (en) 1994-03-30 1994-03-30 Environment map preparing method by plural mobile robots

Country Status (1)

Country Link
JP (1) JPH07271434A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100310617B1 (en) * 1999-07-12 2001-10-18 배종렬 Method of producing motion planning for troweling robot
WO2002005142A3 (en) * 2000-07-10 2002-05-30 Hrl Lab Llc Method and apparatus for terrain reasoning with distributed embedded processing elements
JP2002326176A (en) * 2001-04-25 2002-11-12 Sony Corp Robot device, method and device for image storage, control program, and recording medium
US6580979B2 (en) 2000-07-10 2003-06-17 Hrl Laboratories, Llc Method and apparatus for terrain reasoning with distributed embedded processing elements
JP2006146552A (en) * 2004-11-19 2006-06-08 Matsushita Electric Ind Co Ltd Mobile device
WO2011055711A1 (en) * 2009-11-06 2011-05-12 株式会社日立製作所 Mobile robot system
JP2012242967A (en) * 2011-05-17 2012-12-10 Fujitsu Ltd Map processing method, program and robot system
US8712679B1 (en) * 2010-10-29 2014-04-29 Stc.Unm System and methods for obstacle mapping and navigation
JP2017090239A (en) * 2015-11-10 2017-05-25 パイオニア株式会社 Information processing device, control method, program, and storage media
JP2018112432A (en) * 2017-01-10 2018-07-19 富士通株式会社 Measurement instrument, specific program, and specific method
JP2019057312A (en) * 2012-10-01 2019-04-11 アイロボット コーポレイション Adaptive mapping with spatial summaries of sensor data
CN109934918A (en) * 2019-03-08 2019-06-25 北京精密机电控制设备研究所 A kind of multirobot collaboration map method for reconstructing based on view tactile syncretizing mechanism
WO2019171916A1 (en) * 2018-03-05 2019-09-12 日本電気株式会社 Robot management system, robot management method, information processing device, information processing method and information processing program
JP2020042013A (en) * 2018-09-12 2020-03-19 百度在線網絡技術(北京)有限公司 Laser radar system-based ranging method, laser radar system-based ranging device, and computer-readable storage medium
JP2020073931A (en) * 2020-02-05 2020-05-14 パイオニア株式会社 Information processing device, control method, program, and storage media

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100310617B1 (en) * 1999-07-12 2001-10-18 배종렬 Method of producing motion planning for troweling robot
WO2002005142A3 (en) * 2000-07-10 2002-05-30 Hrl Lab Llc Method and apparatus for terrain reasoning with distributed embedded processing elements
US6580979B2 (en) 2000-07-10 2003-06-17 Hrl Laboratories, Llc Method and apparatus for terrain reasoning with distributed embedded processing elements
JP2002326176A (en) * 2001-04-25 2002-11-12 Sony Corp Robot device, method and device for image storage, control program, and recording medium
JP2006146552A (en) * 2004-11-19 2006-06-08 Matsushita Electric Ind Co Ltd Mobile device
WO2011055711A1 (en) * 2009-11-06 2011-05-12 株式会社日立製作所 Mobile robot system
JP5270767B2 (en) * 2009-11-06 2013-08-21 株式会社日立製作所 Mobile robot system
US8712679B1 (en) * 2010-10-29 2014-04-29 Stc.Unm System and methods for obstacle mapping and navigation
JP2012242967A (en) * 2011-05-17 2012-12-10 Fujitsu Ltd Map processing method, program and robot system
US10962376B2 (en) 2011-09-30 2021-03-30 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
JP2019057312A (en) * 2012-10-01 2019-04-11 アイロボット コーポレイション Adaptive mapping with spatial summaries of sensor data
JP2017090239A (en) * 2015-11-10 2017-05-25 パイオニア株式会社 Information processing device, control method, program, and storage media
JP2018112432A (en) * 2017-01-10 2018-07-19 富士通株式会社 Measurement instrument, specific program, and specific method
WO2019171916A1 (en) * 2018-03-05 2019-09-12 日本電気株式会社 Robot management system, robot management method, information processing device, information processing method and information processing program
JPWO2019171916A1 (en) * 2018-03-05 2021-02-04 日本電気株式会社 Robot management system, robot management method, information processing device, information processing method and information processing program
JP2020042013A (en) * 2018-09-12 2020-03-19 百度在線網絡技術(北京)有限公司 Laser radar system-based ranging method, laser radar system-based ranging device, and computer-readable storage medium
US11656356B2 (en) 2018-09-12 2023-05-23 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Ranging method based on laser radar system, device and readable storage medium
CN109934918A (en) * 2019-03-08 2019-06-25 北京精密机电控制设备研究所 A kind of multirobot collaboration map method for reconstructing based on view tactile syncretizing mechanism
CN109934918B (en) * 2019-03-08 2023-03-28 北京精密机电控制设备研究所 Multi-robot collaborative map reconstruction method based on visual and tactile fusion mechanism
JP2020073931A (en) * 2020-02-05 2020-05-14 パイオニア株式会社 Information processing device, control method, program, and storage media
JP2022066276A (en) * 2020-02-05 2022-04-28 ジオテクノロジーズ株式会社 Information processing device, control method, program, and storage media

Similar Documents

Publication Publication Date Title
JPH07271434A (en) Environment map preparing method by plural mobile robots
CN109079799B (en) Robot perception control system and control method based on bionics
KR101049266B1 (en) Mobile robot
KR101539270B1 (en) sensor fusion based hybrid reactive motion planning method for collision avoidance and autonomous navigation, recording medium and mobile robot for performing the method
US4956790A (en) Instruction system of remote-control robot
JP3880702B2 (en) Optical flow detection apparatus for image and self-position recognition system for moving object
CN110969663A (en) Static calibration method for external parameters of camera
KR20200142266A (en) System for recognizing object and method for recognizing object using the same
CN108801269B (en) Indoor cloud robot navigation system and method
JP2019125116A (en) Information processing device, information processing method, and program
Tian et al. RGB-D based cognitive map building and navigation
Melchiorre et al. Collison avoidance using point cloud data fusion from multiple depth sensors: a practical approach
JPH11213157A (en) Camera mounted mobile object
JP7131554B2 (en) Image processing device, image processing method, and program
JPH06131420A (en) Method and device for supporting construction
CN107941167B (en) Space scanning system based on unmanned aerial vehicle carrier and structured light scanning technology and working method thereof
CN115435784A (en) Device and method for building aerial work platform laser radar and inertial navigation fusion positioning image
CN116167919A (en) Laser point cloud data de-distortion method based on kernel ridge regression
JPH03501903A (en) Remote vehicle control
JP3657854B2 (en) Remote location observation equipment
CN115847491A (en) Space on-orbit maintenance robot target autonomous measurement method
WO2021106388A1 (en) Information processing device, information processing method, and information processing program
CN214480701U (en) Cloud robot control system based on Web webpage
JP7466144B2 (en) PROGRAM, AUTONOMOUS MOBILE DEVICE MANAGEMENT DEVICE, MANAGEMENT METHOD AND MANAGEMENT SYSTEM
Adams et al. Entry, Descent, and Landing GN&C System Evaluation via Cable-Driven Emulation Robotics