JP2024015640A - Multiple mobile robot control method, program, and multiple mobile robot control system - Google Patents

Multiple mobile robot control method, program, and multiple mobile robot control system Download PDF

Info

Publication number
JP2024015640A
JP2024015640A JP2022117848A JP2022117848A JP2024015640A JP 2024015640 A JP2024015640 A JP 2024015640A JP 2022117848 A JP2022117848 A JP 2022117848A JP 2022117848 A JP2022117848 A JP 2022117848A JP 2024015640 A JP2024015640 A JP 2024015640A
Authority
JP
Japan
Prior art keywords
robot
search range
mobile robots
multiple mobile
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022117848A
Other languages
Japanese (ja)
Inventor
宏樹 久継
アレックス益男 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022117848A priority Critical patent/JP2024015640A/en
Publication of JP2024015640A publication Critical patent/JP2024015640A/en
Pending legal-status Critical Current

Links

Images

Abstract

Figure 2024015640000001

【課題】従来に比べて探索効率を向上させることができる複数移動ロボットの制御方法および複数移動ロボット制御システムを提供する。
【解決手段】第一のロボット100の現在位置が不明な場合に、第一のロボット100の過去の移動位置軌跡、第一のロボット100の過去の位置推定における推定誤差範囲307、および移動量に基づいて、第一のロボット100についての第一探索範囲を決定し、第一のロボット100とは異なる第二のロボット200に対して、第一探索範囲の探索指令を送信し、第一探索範囲における第二のロボット200からのセンサ情報を受信し、第一のロボット100の現在位置を推定する。
【選択図】 図2

Figure 2024015640000001

The present invention provides a method for controlling multiple mobile robots and a system for controlling multiple mobile robots, which can improve search efficiency compared to conventional methods.
When the current position of the first robot 100 is unknown, the past movement position trajectory of the first robot 100, the estimated error range 307 in estimating the past position of the first robot 100, and the movement amount Based on this, a first search range for the first robot 100 is determined, a search command for the first search range is sent to a second robot 200 different from the first robot 100, and the first search range is determined based on the first search range. sensor information from the second robot 200 is received, and the current position of the first robot 100 is estimated.
[Selection diagram] Figure 2

Description

本発明は、複数移動ロボットの制御方法および複数移動ロボット制御システムに関する。 The present invention relates to a method for controlling multiple mobile robots and a system for controlling multiple mobile robots.

特許文献1には、管理サーバが自律移動ロボットのロボット情報を保持し、定期的に自律移動ロボットから位置情報を取得し、自律移動ロボットから救援の通知を受けた場合に配下のロボットに救援を指示し、救援指示を受けた救援ロボットは該当ロボットの探索を行い、被救援ロボットとの相対位置より被救援ロボットの絶対位置と方位を算出して被救援ロボットのリカバリを行う技術が記載されている。 Patent Document 1 discloses that a management server maintains robot information of an autonomous mobile robot, periodically acquires position information from the autonomous mobile robot, and sends subordinate robots to help when a rescue notification is received from the autonomous mobile robot. The rescue robot that receives the rescue instruction searches for the robot in question, calculates the absolute position and direction of the rescued robot from its relative position to the rescued robot, and recovers the rescued robot. There is.

特開2010-3240号公報Japanese Patent Application Publication No. 2010-3240

現在、工場や物流拠点、オフィスビルなどで、物品搬送や人案内、警備のために、同建屋内で複数台の自律移動ロボットが利用されている。このような自律移動ロボットにおいては、自己位置の推定にレーザセンサやカメラを用いるのが一般的である。 Currently, multiple autonomous mobile robots are being used in factories, logistics centers, office buildings, etc. to transport goods, guide people, and provide security. Such autonomous mobile robots generally use laser sensors or cameras to estimate their own position.

SLAM(Simultaneous Localization and Mapping)技術を用いた自律移動ロボットは、壁面形状など周囲環境の特徴点をセンシングして自己位置推定を行う。しかし、特徴の少ない空間や、周囲物体の配置変化により特徴が変動する環境では、位置推定に失敗し移動不能となる場合がある。 An autonomous mobile robot using SLAM (Simultaneous Localization and Mapping) technology estimates its own position by sensing feature points in the surrounding environment, such as the shape of a wall. However, in a space with few features or in an environment where features change due to changes in the arrangement of surrounding objects, position estimation may fail and movement may become impossible.

位置推定の失敗に対する回復手法の一例として、特許文献1が提案されている。特許文献1では、管理サーバ側で自律移動ロボットに探索指示を行い、探索を行わせる技術であるが、探索ロボットに探索させる領域を決定する方法に改善の余地があり、特に、探索効率に改善の余地があることが明らかとなった。 Patent Document 1 has been proposed as an example of a recovery method for a failure in position estimation. In Patent Document 1, the management server side issues a search instruction to an autonomous mobile robot to perform the search, but there is room for improvement in the method of determining the area to be searched by the search robot, and in particular, there is room for improvement in search efficiency. It became clear that there was room for

本発明は、従来に比べて探索効率を向上させることができる複数移動ロボットの制御方法および複数移動ロボット制御システムを提供する。 The present invention provides a method for controlling multiple mobile robots and a system for controlling multiple mobile robots that can improve search efficiency compared to conventional methods.

本発明は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、センサを搭載した複数の移動ロボットを制御する方法であって、第一のロボットの現在位置が不明な場合に、前記第一のロボットの過去の移動位置軌跡、前記第一のロボットの過去の位置推定における誤差情報、および移動量に基づいて、前記第一のロボットについての第一探索範囲を決定するステップと、前記第一のロボットとは異なる第二のロボットに対して、前記第一探索範囲の探索指令を送信するステップと、前記第一探索範囲における前記第二のロボットからのセンサ情報を受信し、前記第一のロボットの現在位置を推定するステップと、を有する。 The present invention includes a plurality of means for solving the above problems, and one example is a method for controlling a plurality of mobile robots equipped with sensors, in which the current position of the first robot is unknown. In this case, a first search range for the first robot is determined based on a past movement position trajectory of the first robot, error information in past position estimation of the first robot, and a movement amount. a step of transmitting a search command for the first search range to a second robot different from the first robot; and receiving sensor information from the second robot in the first search range. and estimating the current position of the first robot.

本発明によれば、従来に比べて探索効率を向上させることができることから、自律移動ロボットの作業効率の向上を図ることができる。上記以外の課題、構成および効果は、以下の実施例の説明により明らかにされる。 According to the present invention, since the search efficiency can be improved compared to the conventional method, it is possible to improve the work efficiency of an autonomous mobile robot. Problems, configurations, and effects other than those described above will be made clear by the description of the following examples.

実施例の複数移動ロボット制御システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a multiple mobile robot control system according to an embodiment. 実施例の複数移動ロボット制御方法における位置回復制御処理の例を示すフローチャートである。7 is a flowchart illustrating an example of position recovery control processing in the method for controlling multiple mobile robots according to the embodiment. 実施例の複数移動ロボット制御方法における探索範囲の決定方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for determining a search range in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における探索範囲の決定方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for determining a search range in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における探索範囲の決定方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for determining a search range in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における探索範囲の決定方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for determining a search range in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における探索範囲の決定方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for determining a search range in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における探索範囲の決定方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for determining a search range in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における障害物センサ情報を用いた探索範囲の限定の例を示す図である。FIG. 3 is a diagram illustrating an example of limiting a search range using obstacle sensor information in the multiple mobile robot control method of the embodiment. 実施例の複数移動ロボット制御方法における第二のロボットのセンサによる第一のロボットの認識方法の例を示す図である。FIG. 6 is a diagram illustrating an example of a method for recognizing a first robot using a sensor of a second robot in a method for controlling multiple mobile robots according to an embodiment. 実施例の複数移動ロボット制御方法における第一のロボットが受信するセンサ情報が固定センサによるものである例を示す図である。FIG. 3 is a diagram illustrating an example in which sensor information received by a first robot in the multiple mobile robot control method of the embodiment is based on a fixed sensor.

自律移動ロボットが位置推定に失敗した場合に、他の自律移動ロボットを用いて位置推定を回復させるための本発明の複数移動ロボットの制御方法、プログラム、および複数移動ロボット制御システムの実施例について図1乃至図11を用いて説明する。なお、本明細書で用いる図面において、同一のまたは対応する構成要素には同一、または類似の符号を付け、これらの構成要素については繰り返しの説明を省略する場合がある。 FIG. 1 is a diagram illustrating an embodiment of a multiple mobile robot control method, a program, and a multiple mobile robot control system of the present invention for recovering position estimation using another autonomous mobile robot when an autonomous mobile robot fails in position estimation. This will be explained using FIGS. 1 to 11. In the drawings used in this specification, the same or corresponding components are given the same or similar symbols, and repeated description of these components may be omitted.

センサを搭載した複数の自律移動可能な第一のロボット100,第二のロボット200を制御する制御方法、プログラム、制御システムでは、好適には管理サーバにより一定周期で収集したロストロボットの過去の移動軌跡と誤差情報、移動量を用いて探索範囲を決定し、最近傍の第二のロボット200を救助ロボットに選定し、救助ロボットのセンサ情報からロストロボットらしき物体を検出し、存在確度の高い領域に探索範囲を限定することで、素早くロストロボットを発見、認識する。認識したロストロボットの絶対位置をロストロボットに送信し位置を再設定することで位置推定の失敗から回復することが可能である。 In a control method, program, or control system for controlling a plurality of autonomously movable first robots 100 and second robots 200 equipped with sensors, it is preferable to use the past movements of lost robots collected at regular intervals by a management server. The search range is determined using the trajectory, error information, and movement amount, the second robot 200 closest to the robot is selected as the rescue robot, and an object that appears to be a lost robot is detected from the sensor information of the rescue robot, and an area with a high probability of existence is determined. Find and recognize lost robots quickly by limiting the search range to It is possible to recover from a position estimation failure by transmitting the recognized absolute position of the lost robot to the lost robot and resetting the position.

以下の実施例では、屋内平面環境を走行する工場内物品搬送ロボットを例に挙げる。図1に示す2台の移動ロボットのうち、第一のロボット100を位置推定に失敗したロボットとし、第二のロボット200を救助ロボットの役割とする場合の例で説明する。 In the following example, an in-factory article transport robot that travels in an indoor flat environment will be taken as an example. An example will be described in which, of the two mobile robots shown in FIG. 1, the first robot 100 is the robot whose position estimation has failed, and the second robot 200 is used as the rescue robot.

以下、本実施例について、構成、処理フローの順で説明する。 The present embodiment will be described below in the order of configuration and processing flow.

<構成>
図1は、本実施例によるシステムの構成図である。以下、これら各装置の概要をまず説明し、その詳細については処理フローを説明する際に後述する。
<Configuration>
FIG. 1 is a configuration diagram of a system according to this embodiment. Hereinafter, an overview of each of these devices will be explained first, and the details will be described later when explaining the processing flow.

図1に示す第一のロボット100は、地図情報を取得するセンサ101を搭載している。 A first robot 100 shown in FIG. 1 is equipped with a sensor 101 that acquires map information.

第一のロボット100の情報処理装置109は、センサ101により取得した地図情報を処理するセンサ処理部105と、センサ101情報と共有情報等によって自己位置を演算する自己位置演算部106と、第一のロボット100に組み込まれた車輪エンコーダなどの情報に基づき自己位置を取得する位置情報取得部107と、センサ101と自己位置演算部の情報から位置推定の失敗を判定する位置推定失敗判定部104と、第一のロボット100の走行を制御する走行制御部108を有している。これらの各部は、第一のロボット100の中央処理装置102が実行するプログラムで構成される。 The information processing device 109 of the first robot 100 includes a sensor processing unit 105 that processes map information acquired by the sensor 101, a self-position calculation unit 106 that calculates the self-position based on the sensor 101 information and shared information, and a first robot 100. a position information acquisition unit 107 that acquires the self-position based on information such as a wheel encoder built into the robot 100, and a position estimation failure determination unit 104 that determines the failure of position estimation from the information of the sensor 101 and the self-position calculation unit. , has a travel control section 108 that controls the travel of the first robot 100. Each of these parts is configured by a program executed by the central processing unit 102 of the first robot 100.

第一のロボット100の情報送受信部103は、管理サーバ1と地図情報を交換するために、ネットワーク8へ接続される。 The information transmitting/receiving unit 103 of the first robot 100 is connected to the network 8 in order to exchange map information with the management server 1.

第二のロボット200は、地図情報を取得するセンサ201を搭載している。 The second robot 200 is equipped with a sensor 201 that acquires map information.

第二のロボット200の情報処理装置209は、センサ201により取得した地図情報を処理するセンサ処理部205と、センサ201情報と共有情報等によって自己位置を演算する自己位置演算部206と、第二のロボット200に組み込まれた車輪エンコーダなどの情報に基づき自己位置を取得する位置情報取得部207と、センサ201と自己位置演算部の情報から位置推定の失敗を判定する位置推定失敗判定部204と、第二のロボット200の走行を制御する走行制御部208を有している。これらの各部は、第二のロボット200の中央処理装置202が実行するプログラムで構成される。 The information processing device 209 of the second robot 200 includes a sensor processing unit 205 that processes map information acquired by the sensor 201, a self-position calculation unit 206 that calculates the self-position based on the sensor 201 information and shared information, and a second robot 200. a position information acquisition unit 207 that acquires the self-position based on information such as a wheel encoder built into the robot 200, and a position estimation failure determination unit 204 that determines the failure of position estimation from the information of the sensor 201 and the self-position calculation unit. , has a travel control section 208 that controls the travel of the second robot 200. Each of these parts is configured by a program executed by the central processing unit 202 of the second robot 200.

第二のロボット200の情報送受信部203は、管理サーバ1と地図情報を交換するために、ネットワーク8へ接続される。 The information transmitting/receiving unit 203 of the second robot 200 is connected to the network 8 in order to exchange map information with the management server 1.

管理サーバ1は、情報処理装置7を有している。この管理サーバ1の情報処理装置7は、情報送受信部6と、主記憶装置5と、メモリ4と、地図情報表示部3を有しており、
第一探索範囲決定部、探索指令送信部、および推定部を構成する。メモリ4は、地図情報保持部41、位置範囲演算部42、探索命令管理部43、座標変換処理部44を有し、これらは管理サーバ1の中央処理装置(CPU:Central Processing Unit)2が実行するプログラムである。
The management server 1 has an information processing device 7. The information processing device 7 of the management server 1 includes an information transmitting/receiving section 6, a main storage device 5, a memory 4, and a map information display section 3.
It comprises a first search range determining section, a search command transmitting section, and an estimating section. The memory 4 includes a map information storage section 41, a position range calculation section 42, a search command management section 43, and a coordinate transformation processing section 44, which are executed by a central processing unit (CPU) 2 of the management server 1. This is a program to do this.

ネットワークと管理サーバ1の情報送受信部6がやり取りする地図情報は、地図情報保持部41により主記憶装置5に書き込まれる。主記憶装置5は、記憶媒体であり、HDD、SSD、Flashメモリであってもよい。ネットワーク8は無線LANによって構成されていてもよく、やり取りする地図情報はTCP/IPによるソケット通信を用いてもよい。 Map information exchanged between the network and the information transmitting/receiving section 6 of the management server 1 is written into the main storage device 5 by the map information holding section 41 . The main storage device 5 is a storage medium, and may be an HDD, SSD, or Flash memory. The network 8 may be configured by a wireless LAN, and the map information to be exchanged may use socket communication using TCP/IP.

なお、地図情報に関する情報通信は、ネットワークに接続された他のロボットと直接行ってもよく、ネットワークに接続されるロボットは、2台以上あってもよい。 Note that information communication regarding map information may be performed directly with other robots connected to the network, and there may be two or more robots connected to the network.

第一のロボット100のセンサ101や第二のロボット200のセンサ201は、例えば、LiDAR、RGB-Dカメラ、単眼カメラ、ステレオカメラ、全天球カメラ、赤外線カメラ、GPS等のうち、少なくとも1つ以上で構成され、異なる種類のセンサの組み合わせとすることができる。第一のロボット100や第二のロボット200は、これらセンサ101,201による高精度な位置推定が出来ている前提である。 The sensor 101 of the first robot 100 and the sensor 201 of the second robot 200 are, for example, at least one of LiDAR, RGB-D camera, monocular camera, stereo camera, omnidirectional camera, infrared camera, GPS, etc. The configuration described above can be a combination of different types of sensors. It is assumed that the first robot 100 and the second robot 200 can perform highly accurate position estimation using these sensors 101 and 201.

なお、第二のロボット200は本実施例では第一のロボット100と同じ構成であるが、異なる構成のロボットであってもよい。例えば、クローラ付き走行ロボットと、人型サービスロボットの通信においても成り立つ。 Although the second robot 200 has the same configuration as the first robot 100 in this embodiment, it may have a different configuration. For example, this also applies to communication between a crawler-equipped mobile robot and a humanoid service robot.

また、管理サーバ1についても、その機能を実現するための物理的なサーバがあってもよいし、それぞれのロボット内部に、プログラムがそれぞれ記憶され、その機能が第一のロボット100,第二のロボット200に搭載された中央処理装置102,202上で自律分散的に実行される形態であってもよい。 Further, the management server 1 may also include a physical server for realizing its functions, or programs may be stored inside each robot, and the functions may be implemented by the first robot 100 and the second robot. It may also be executed in an autonomous and decentralized manner on the central processing units 102 and 202 mounted on the robot 200.

管理サーバ1の各々の機能が第一のロボット100,第二のロボット200の内部にある場合、各々の第一のロボット100,第二のロボット200同士のアドホックなネットワーク構築により近くのロボット同士での情報交換のみでシステムが完結するため、設備へ無線ネットワークインフラを設置せずに運用ができるようになる。また、通信情報量の軽減による通信負荷軽減を図ることができる。 When each function of the management server 1 is inside the first robot 100 and the second robot 200, the ad-hoc network construction between the first robot 100 and the second robot 200 allows nearby robots to communicate with each other. Since the system can be completed by simply exchanging information, it can be operated without installing wireless network infrastructure in the equipment. Furthermore, it is possible to reduce the communication load by reducing the amount of communication information.

これに対し、管理サーバ1が独立した構成である場合は、第一のロボット100,第二のロボット200側の構成の簡略化などの効果が得られる。 On the other hand, when the management server 1 has an independent configuration, effects such as simplification of the configurations of the first robot 100 and the second robot 200 can be obtained.

共有される地図情報は、管理サーバ1の地図情報表示部3によって、ユーザが確認可能に構成されている。ここで、送受信される地図情報は、取得時刻、ロボットID、ロボット外観情報、自己位置座標、自己位置推定における推定誤差、オドメトリによる走行移動変量、他のロボットの認識ID、認識信頼度および自機との相対位置情報、ロスト検知フラグ、センサ種別、センサにより取得したロボット周囲の障害物マップが含まれる。 The map information to be shared is configured such that the map information display section 3 of the management server 1 allows the user to check it. Here, the map information sent and received includes the acquisition time, robot ID, robot appearance information, self-position coordinates, estimation error in self-position estimation, running movement variable by odometry, recognition ID of other robots, recognition reliability, and own robot. It includes relative position information, lost detection flag, sensor type, and obstacle map around the robot acquired by the sensor.

地図情報は、ロボットが走行する環境やシーンによって内容が異なる。例えば、オフィス内や倉庫、工場等の整備された屋内平面を移動するロボットの場合、上記地図情報の自己位置座標は、3次元の自己位置座標(x,y,θ)である。これに対し、落下物や地面に凹凸のある屋内未整備環境や屋外では、上記地図情報の自己位置座標は、6次元の自己位置座標(x,y,z,roll,pitch,yaw)が用いられる。 The contents of the map information vary depending on the environment and scene in which the robot runs. For example, in the case of a robot that moves on a well-maintained indoor plane in an office, warehouse, factory, etc., the self-position coordinates of the map information are three-dimensional self-position coordinates (x, y, θ). On the other hand, in an undeveloped indoor environment with falling objects or uneven ground, or outdoors, the self-position coordinates of the above map information are 6-dimensional self-position coordinates (x, y, z, roll, pitch, yaw). It will be done.

また、上記の地図情報の推定誤差は、例えば位置推定に失敗したロボットが移動していたと推定される範囲のことであり、モンテカルロ位置推定計算や、カルマンフィルタによる位置計算過程で得られる誤差楕円を用いることができる。 In addition, the estimation error of the above map information is, for example, the range in which a robot whose position estimation has failed is estimated to have moved, and uses the error ellipse obtained in the Monte Carlo position estimation calculation or the Kalman filter position calculation process. be able to.

以上で、本実施例のシステム構成の説明を終わる。引き続き、本実施例の処理フローを、これで用いられる情報を参照して説明する。 This concludes the explanation of the system configuration of this embodiment. Next, the processing flow of this embodiment will be explained with reference to the information used therein.

<処理フロー>
以下、本実施例の処理フローについて説明する。図2は、本実施例における位置推定の失敗からの回復のための動作制御処理を示すフローチャートである。好適には図1の管理サーバ1の情報処理装置7で処理される。
<Processing flow>
The processing flow of this embodiment will be described below. FIG. 2 is a flowchart showing operation control processing for recovery from a failure in position estimation in this embodiment. It is preferably processed by the information processing device 7 of the management server 1 in FIG.

また、本実施例では、複数の第一のロボット100,第二のロボット200は、その稼働中は、地図情報(自らの過去の移動位置軌跡、過去の位置推定における推定誤差範囲307(図4参照)、および移動量)を好適には一定周期で管理サーバ1に出力する。 In addition, in this embodiment, the plurality of first robots 100 and second robots 200 use map information (their own past movement position locus, estimated error range 307 in past position estimation (Fig. reference) and movement amount) are preferably output to the management server 1 at regular intervals.

図2において、ステップS200のように第一のロボット100が位置推定の失敗を検知した際には、ステップS201に遷移する。 In FIG. 2, when the first robot 100 detects a failure in position estimation as in step S200, the process moves to step S201.

このステップS200における位置推定の失敗の検知は、第一のロボット100の位置推定失敗判定部104が行う。自己位置演算部106により得られた推定誤差が予め設定した閾値を超えた場合、位置推定の失敗と判定し、管理サーバ1へ発報して走行を停止する。この他にも、計算処理のエラーにより位置推定に失敗した場合も位置推定の失敗と判定する。 The position estimation failure determination unit 104 of the first robot 100 detects the position estimation failure in step S200. If the estimation error obtained by the self-position calculation unit 106 exceeds a preset threshold, it is determined that the position estimation has failed, a notification is sent to the management server 1, and the vehicle stops running. In addition to this, if the position estimation fails due to an error in calculation processing, it is also determined that the position estimation has failed.

また、ロボットの自己位置推定においては、特徴点の誤マッチングによって誤った位置に推定結果が収束する場合がある。実際の誤差を推定誤差が表せていない場合、推定誤差情報のみを用いてロスト判定する方法では、誤った検知を行う課題がある。そのため、異なる種類の位置推定方法よる推定結果と比較することで位置推定の失敗を判定する手法が望ましい。 Furthermore, when estimating the robot's self-position, the estimation result may converge to an incorrect position due to incorrect matching of feature points. If the estimated error does not represent the actual error, the method of determining lost using only estimated error information has the problem of erroneous detection. Therefore, it is desirable to have a method of determining a failure in position estimation by comparing estimation results obtained by different types of position estimation methods.

次いで、ステップS201において、管理サーバ1は、第一のロボット100を除く他のロボットから得たセンサ情報を共有し、他のロボットのセンサで観測された第一のロボット100の絶対位置を用いて第一のロボット100の位置回復を試み、ステップS202において、共有情報だけで位置回復できたか否かを判定する。他のロボットのセンサの視野内に第一のロボット100が存在するなどの理由により位置回復できた場合は処理を完了させる。 Next, in step S201, the management server 1 shares sensor information obtained from other robots other than the first robot 100, and uses the absolute position of the first robot 100 observed by the sensors of the other robots. An attempt is made to recover the position of the first robot 100, and in step S202 it is determined whether or not the position can be recovered using only the shared information. If the position can be recovered because the first robot 100 exists within the field of view of another robot's sensor, the process is completed.

これに対し、他のロボットのセンサの視野内に第一のロボット100が存在しないなどの理由により位置回復できないと判定された場合は、位置回復のためにロストロボットを観測可能な位置まで第二のロボット200が移動する必要がある。この動作を探索と呼び、ステップS203以降が探索動作を表す。ロスト状態における推定誤差は不正確な場合も多いため、ステップS203では、物理的に存在しうる範囲を探索範囲(第一探索範囲)として設定する。 On the other hand, if it is determined that position recovery is not possible due to reasons such as the first robot 100 not being within the field of view of the sensor of another robot, the second robot 100 is moved to a position where the lost robot can be observed in order to recover the position. robot 200 needs to move. This operation is called a search, and steps after step S203 represent the search operation. Since the estimation error in the lost state is often inaccurate, in step S203, a physically possible range is set as a search range (first search range).

探索範囲の決定方法について、以下詳細に説明する。図3乃至図8は、探索範囲の決定と救助ロボットの選定の流れの一例を示す図である。 The method for determining the search range will be described in detail below. 3 to 8 are diagrams showing an example of the flow of determining a search range and selecting a rescue robot.

まず、図3に示すように、ロストロボットが物理的に存在しうる範囲を求めるために、ロストロボットの移動履歴情報を用いる。高精度に位置推定していた点では、推定誤差が小さくなるため、現在時刻から推定誤差履歴302を遡り、推定誤差301が信頼できる閾値を下回る点を、探索基準点とする。 First, as shown in FIG. 3, movement history information of the lost robot is used to determine the range in which the lost robot can physically exist. Since the estimation error is small at points where the position has been estimated with high accuracy, the estimation error history 302 is traced back from the current time, and a point where the estimation error 301 is less than a reliable threshold is set as a search reference point.

また、その時刻におけるロストロボットの位置を探索中心座標304とすると、その点から現在時刻までにオドメトリで移動した総移動距離303を半径rとした円で構成される領域305にロストロボットは存在している、といえる。 Furthermore, if the position of the lost robot at that time is the search center coordinate 304, the lost robot exists in an area 305 consisting of a circle whose radius is r and the total movement distance 303 traveled by odometry from that point to the current time. It can be said that it is.

さらに、現在時刻におけるロストロボットの推定誤差範囲、探索中心座標と現在時刻の推定位置との方位から、探索優先度の高い領域を決定する。移動量推定は、搬送用ロボット等の人による持ち上げが想定されにくい移動ロボットを前提に、車輪オドメトリによる移動量を用いる。 Furthermore, an area with a high search priority is determined based on the estimated error range of the lost robot at the current time and the direction between the search center coordinates and the estimated position at the current time. To estimate the amount of movement, we use the amount of movement determined by wheel odometry, assuming that the robot is a mobile robot that is unlikely to be lifted by a person, such as a transport robot.

実空間の探索範囲は、図4に示すように、ロストロボットが物理的に存在しうる領域305を領域S、ロストロボットの存在可能性のより高い領域306を領域S、ロストロボットの推定誤差範囲307を領域Sとして、式(1)の探索範囲S311(図7参照)として定義する。 As shown in FIG. 4, the search range in the real space includes an area 305 where a lost robot may physically exist as an area S 1 , an area 306 where there is a higher probability of a lost robot existing as an area S 2 , and an area 306 where a lost robot is likely to exist as an area S 2 . The error range 307 is defined as a region S 3 and the search range S a 311 (see FIG. 7) in equation (1).

Figure 2024015640000002
Figure 2024015640000002

ここで、Sは、地図形状から抽出した走行可能な領域310(図6参照)である。領域S,S,Sの定義について以下に示す。探索中心座標304とする信頼位置は、現在時刻tから誤差履歴を遡り、始めて推定誤差が閾値を下回る点の時刻tにおける位置推定の結果(xt1,yt1,θt1)である。信頼位置から現在位置までのオドメトリによる総移動距離303である半径rは式(2)で求められる。 Here, SM is a driveable area 310 (see FIG. 6) extracted from the map shape. The definitions of regions S 1 , S 2 , and S 3 are shown below. The reliable position used as the search center coordinates 304 is the result of position estimation (x t1 , y t1 , θ t1 ) at time t 1 , which is the first point at which the estimation error falls below the threshold value, tracing back the error history from the current time t. The radius r, which is the total distance traveled 303 by odometry from the trusted position to the current position, is determined by equation (2).

Figure 2024015640000003
Figure 2024015640000003

信頼位置(xt1,yt1)を中心とした半径rの円で構成される領域305が、ロボットが物理的に存在しうる領域Sである。さらに、探索範囲の中でも、存在可能性の高い領域として、信頼位置と現在位置を結ぶベクトルを中心に角度φだけ開いた扇型の領域306を優先度の高い領域Sに設定する。同様に、位置推定の計算で得られるロボット現在時刻における位置の推定誤差範囲と重なる範囲を優先度の高い領域S307とする。 An area 305 consisting of a circle with a radius r centered on the trusted position (x t1 , y t1 ) is an area S 1 in which the robot can physically exist. Further, within the search range, a fan-shaped area 306 that is open by an angle φ and centered on a vector connecting the trusted position and the current position is set as a high-priority area S2 , as an area with a high possibility of existence. Similarly, the range that overlaps with the estimated error range of the robot's position at the current time obtained by the position estimation calculation is set as a high-priority area S3 307.

探索すべき範囲は、これら設定された領域S,S,Sの和集合と、走行可能領域S310との積集合であるため、探索範囲は式(1)の探索範囲S311で与えられる。探索範囲S311を図示すると図7のようになる。また、過去に位置推定の失敗が発生した地図座標を管理サーバ1が記憶することで、地図上でロストが発生しやすいと判断される領域を作成し、領域Sに含め探索範囲の候補として用いてもよい。 Since the range to be searched is the product set of the union set of these set areas S 1 , S 2 , S 3 and the driveable area S M 310, the search range is the search range S a of formula (1). 311 is given. The search range S a 311 is illustrated in FIG. 7 . In addition, by storing the map coordinates where position estimation failures occurred in the past, the management server 1 creates areas on the map where it is determined that lost locations are likely to occur, and includes them in area S2 as candidates for the search range. May be used.

次に、式(1)で得た探索範囲領域を救助ロボットに探索させるための自律移動先座標として、図5に示すような「注目点」308,309を設定する。注目点308,309は、探索範囲領域内に等間隔で離散的に配置する。救助ロボットに搭載されたセンサによって、探索範囲を十分センシングできるように、センサの実用認識可能距離に基づいて注目点の配置間隔を設定する。 Next, "points of interest" 308 and 309 as shown in FIG. 5 are set as autonomous movement destination coordinates for causing the rescue robot to search the search range area obtained by equation (1). Points of interest 308 and 309 are discretely arranged at equal intervals within the search range area. The arrangement interval of points of interest is set based on the sensor's practical recognition distance so that the search range can be sufficiently sensed by the sensor mounted on the rescue robot.

本実施例では、カメラによって相手ロボットを高精度に認識可能な距離を注目点間距離dとして、探索範囲円内を満たすように配置する。 In this embodiment, the distance at which the camera can recognize the other robot with high accuracy is defined as the distance between points of interest d, and the robots are arranged so as to fill the search range circle.

注目点は、探索範囲Sの重なりから、その注目点の優先度を決定する。探索範囲Sのうち領域S,Sの部分の注目点308を第一優先度として最初に探索し、探索範囲Sのうち領域Sの部分の注目点309を第二優先度とする。 The priority of the point of interest is determined based on the overlap of the search ranges S. The points of interest 308 in areas S 2 and S 3 of the search range Sa are searched first as the first priority, and the points of interest 309 in the area S 1 of the search range S a are searched as the second priority. do.

次いで、ステップS204では、以上の手順で決定した探索範囲を探索する救助ロボットを決定する。決定方法について、以下詳細に説明する。 Next, in step S204, a rescue robot to search the search range determined in the above procedure is determined. The determination method will be explained in detail below.

現在時刻tにおいて、探索範囲中心座標の最近傍の座標にあるロボットを最近傍法によって抽出し、救助ロボットの役割を割り当てる。本実施例では、最近傍救助ロボットの選定には探索中心座標とのユークリッド距離を用いるが、開けた空間でない場合は、最近傍点が実走行距離で最短ではないため、グラフ探索アルゴリズム等を用いた経路計画で得た走行経路が最短なロボットへのタスク割当が望ましい。 At the current time t, the robot located at the coordinates closest to the center coordinates of the search range is extracted by the nearest neighbor method and assigned the role of a rescue robot. In this example, the Euclidean distance from the search center coordinates is used to select the nearest rescue robot, but if the space is not open, the nearest point is not the shortest in terms of actual travel distance, so a graph search algorithm etc. is used. It is desirable to assign tasks to the robot with the shortest travel route obtained through route planning.

また、他ロボットの搬送タスクへの影響を避けるため、タスクの空き状況と走行経路に基づいて救助ロボットを選定することが望ましい。 Furthermore, in order to avoid affecting the transportation tasks of other robots, it is desirable to select a rescue robot based on the availability of tasks and the travel route.

続いて、ステップS205では、図8に示すように、救助ロボットに対し初期に設定される探索目標の座標は、救助ロボット座標の最近傍に位置する注目点308を第一優先度の注目点312であり、最近傍法によって決定する。座標を受信した救助ロボットは、注目点までの移動経路を生成し、自律移動を行う。 Subsequently, in step S205, as shown in FIG. 8, the coordinates of the search target initially set for the rescue robot are the points of interest 308 located closest to the coordinates of the rescue robot, and the points of interest 312 of the first priority. and is determined by the nearest neighbor method. After receiving the coordinates, the rescue robot generates a travel route to the point of interest and moves autonomously.

この自律移動による探索中に、救助ロボットは、ステップS206のように、センシング結果によりロストロボットの認識に成功したか否かを判定し続ける。 During this autonomous movement search, the rescue robot continues to determine whether the lost robot has been successfully recognized based on the sensing results, as in step S206.

センシングにより第一のロボット100がセンサ視野内に入った時点で、ステップS206からステップS210に遷移し、第一のロボット100の絶対位置が修正されロストから回復する。 When the first robot 100 enters the field of view of the sensor due to sensing, the process transitions from step S206 to step S210, where the absolute position of the first robot 100 is corrected and recovered from the lost position.

これに対し、ステップS206でセンサ視野内に第一のロボット100が認識できない場合、ステップS207へ遷移して探索範囲(第二探索範囲)をすべて探索し終えたか否かを判定し、ステップS208の探索範囲の探索が終えるまで障害物センサ情報を用いた探索範囲の限定処理を実行する。ステップS208の障害物センサ情報を用いた探索範囲の限定方法について、以下詳細に説明する。 On the other hand, if the first robot 100 cannot be recognized within the sensor field of view in step S206, the process moves to step S207, where it is determined whether the entire search range (second search range) has been searched, and step S208 The search range limiting process using the obstacle sensor information is executed until the search range is completed. The method for limiting the search range using the obstacle sensor information in step S208 will be described in detail below.

図9は、救助ロボットの障害物センサ情報を用いた注目点の限定の例である。図9に示すように、探索動作において、救助ロボットがロストロボットを発見し、その位置姿勢を高精度に認識するためには、センサが十分な認識精度を発揮できるよう、物理的に接近する必要がある。 FIG. 9 is an example of limiting points of interest using obstacle sensor information of a rescue robot. As shown in Figure 9, in order for the rescue robot to discover the lost robot and recognize its position and orientation with high accuracy during the search operation, it is necessary to physically approach the lost robot so that the sensor can demonstrate sufficient recognition accuracy. There is.

そのため、これら接近距離の制約やセンサ視野角の制約のため、注目点を一つずつ観測するのでは非効率である。そこで、LiDAR等の観測可能領域が広域な障害物センサによって、初期にSLAMによって得られた地図形状には記録されていなかった障害物を抽出し、その障害物の占有領域が探索対象ロボットの外観形状に近い(テンプレート)の占有面積と近しいものを、「探索対象ロボットらしき物体」として認識し、その周囲のみに注目点を残す。障害物センサ情報によって、未占有領域が確認できた地図領域の注目点については削除することで、探索範囲を限定する。 Therefore, due to these limitations on approach distance and sensor viewing angle, it is inefficient to observe points of interest one by one. Therefore, an obstacle sensor with a wide observable area such as LiDAR is used to extract obstacles that were not recorded in the map shape initially obtained by SLAM, and the area occupied by the obstacle is determined by the appearance of the robot to be searched. Objects that are close to the occupied area of the shape (template) are recognized as ``objects that seem to be the robot to be searched,'' and points of interest are left only around them. The search range is limited by deleting points of interest in map areas where unoccupied areas have been confirmed based on the obstacle sensor information.

具体的には、救助ロボットのセンサによって生成された障害物占有マップ400から、既知の地図形状402の差をとることで、地図作成時には無かった新たな障害物401を抽出する。さらに、抽出した未知の障害物の中でも、探索対象ロボットのサイズに近い占有面積をもつ障害物110を抽出し、探索対象候補とする。抽出したロボットらしき未知物体403の周囲の注目点のみを残し、障害物マップ内の他の未占有領域の注目点は削除する。 Specifically, new obstacles 401 that were not present at the time of map creation are extracted from the obstacle occupancy map 400 generated by the sensor of the rescue robot by taking the difference between the known map shapes 402. Furthermore, among the extracted unknown obstacles, an obstacle 110 having an occupied area close to the size of the robot to be searched is extracted and set as a candidate to be searched. Only the points of interest around the extracted robot-like unknown object 403 are left, and the points of interest in other unoccupied areas in the obstacle map are deleted.

このほかにも、点群によるパターンマッチングや、深層学習による画像認識で、ロボット外観と類似度の高い物体を抽出したり、点群から線ハフ変換によるエッジ抽出等の処理を行って未知物体403を得ても良い。 In addition, pattern matching using point clouds and image recognition using deep learning can be used to extract objects with a high degree of similarity to the robot's appearance, and processes such as edge extraction using line Hough transform from point clouds can be performed to identify unknown objects. You can also get .

このように、第二探索範囲における第二のロボット200からのセンサ情報は、第二のロボット200が認識した第一のロボット100の位置情報とすることが望ましい。また、この位置情報を、第一のロボット100の外観情報を用いたテンプレートマッチング、点群マッチング、ARマーカ画像認識、深層学習による認識のいずれかによって推定した情報とすることが望ましい。 In this way, it is desirable that the sensor information from the second robot 200 in the second search range be the position information of the first robot 100 recognized by the second robot 200. Further, it is desirable that this positional information be information estimated by template matching using appearance information of the first robot 100, point cloud matching, AR marker image recognition, or recognition using deep learning.

次に、ステップS209について説明する。ステップS203で生成した探索範囲をすべて探索しても対象ロボットを発見できない場合、ステップS207からステップS209へ遷移する。具体的には、ステップS209では、探索の領域305の半径r(総移動距離303)の拡大を行い、その後にステップS203へ処理を戻して探索を続ける。 Next, step S209 will be explained. If the target robot cannot be found even after searching the entire search range generated in step S203, the process moves from step S207 to step S209. Specifically, in step S209, the radius r (total movement distance 303) of the search area 305 is expanded, and then the process returns to step S203 to continue the search.

探索範囲が広域にわたる場合、探索範囲をいくつかの領域に分けて、複数台のロボットによって探索してもよい。 When the search range is wide, the search range may be divided into several areas and searched by multiple robots.

また、一定の時間内にロボット群によって探索に成功しない場合、管理者への支援通知を行うことができる。 Additionally, if the robot group does not succeed in the search within a certain period of time, a support notification can be sent to the administrator.

続いて、ステップS206について、図10を用いて説明する。図10は、第二のロボット200のセンサ結果を用いて第一のロボット100を認識する例である。 Next, step S206 will be explained using FIG. 10. FIG. 10 is an example of recognizing the first robot 100 using the sensor results of the second robot 200.

第一のロボット100の認識は、ロボットの外観情報を用いた深層学習を用いた認識や、LiDARの点群マッチング501、画像特徴量のパターンマッチング、ARマーカ500の画像認識、音や光、ビーコンを用いた認識方法のいずれかを用いてもよい。これらの認識手法は、相対位置・姿勢が求められるものとする。また、これらセンサによる認識処理は、各ロボット内のセンサ処理部105,205で行ってもよいし、管理サーバ1で行っても良い。 Recognition of the first robot 100 includes recognition using deep learning using robot appearance information, LiDAR point cloud matching 501, pattern matching of image features, image recognition of AR markers 500, sound, light, and beacon recognition. You may use any of the recognition methods using These recognition methods require relative positions and orientations. Further, the recognition processing using these sensors may be performed by the sensor processing units 105 and 205 within each robot, or may be performed by the management server 1.

また、第一のロボット100の位置を認識するセンサは、図11のような、監視カメラ等の固定センサでもよく、センサの位置が既知であればよい。 Furthermore, the sensor that recognizes the position of the first robot 100 may be a fixed sensor such as a surveillance camera as shown in FIG. 11, as long as the position of the sensor is known.

最後に、ステップS210について説明する。ステップS210では、認識した救助ロボットと第一のロボット100との相対位置から、座標変換によって絶対位置を算出し、第一のロボット100へ送信する。ARマーカ認識を例とした、救助ロボットが認識した当該ロボットの位置は、以下座標変換式を用いて絶対位置に変換し、当該ロボットへ送信する。 Finally, step S210 will be explained. In step S210, an absolute position is calculated by coordinate transformation from the relative position of the recognized rescue robot and the first robot 100, and is transmitted to the first robot 100. Taking AR marker recognition as an example, the position of the rescue robot recognized by the robot is converted into an absolute position using the following coordinate transformation formula, and then transmitted to the robot.

座標変換は、管理サーバ1の座標変換処理部44で行う。地図原点をmapとして、第一のロボット100の絶対位置p=(x,y,θ)を算出する座標変換は,並進・回転を含む同次変換行列T∈R(4×4)を用いて式(3)、式(4)のように表せる。B_sensorは、ロボットセンサの取り付け位置、B_markerはマーカ設置位置、B_detect_markerは、認識したマーカ位置である。 The coordinate transformation is performed by the coordinate transformation processing unit 44 of the management server 1. The coordinate transformation to calculate the absolute position p A = (x, y, θ) of the first robot 100 using the map origin as the map uses a homogeneous transformation matrix T∈R (4×4) including translation and rotation. can be expressed as equations (3) and (4). B_sensor is the mounting position of the robot sensor, B_marker is the marker installation position, and B_detect_marker is the recognized marker position.

救助ロボット(B)から第一のロボット100(A)の観測では、以下のような式(3)のように定義される。 The observation from the rescue robot (B) to the first robot 100 (A) is defined as the following equation (3).

Figure 2024015640000004
Figure 2024015640000004

さらに、救助ロボットからの観測だけでなく、第一のロボット100のセンサで救助ロボットを観測できた場合も、以下の式(4)で絶対位置を算出可能である。 Furthermore, in addition to observation from the rescue robot, when the rescue robot can be observed by the sensor of the first robot 100, the absolute position can be calculated using the following equation (4).

第一のロボット100(A)から救助ロボット(B)の観測では、 In the observation from the first robot 100 (A) to the rescue robot (B),

Figure 2024015640000005
Figure 2024015640000005

これらで得られた絶対位置は、管理サーバ1によって第一のロボット100へ送信される。第一のロボット100は複数受信した絶対位置を確率的に融合し、尤もらしい位置に自己位置を再設定し、位置推定の失敗から回復する。 The absolute positions obtained in these ways are transmitted to the first robot 100 by the management server 1. The first robot 100 stochastically fuses a plurality of received absolute positions, resets its own position to a plausible position, and recovers from a position estimation failure.

本実施例では、発明を実施可能な最小構成である2台の移動ロボットを用いて説明したが、3台以上のロボットがある場合は、第三のロボットのセンサ情報も用いる。例えば、式(3)および式(4)は、Bを第三のロボットに置き換えても成り立つ。また、ロボットの位置関係により、第三のロボットは探索ロボットの役割にもなりうる。 Although this embodiment has been described using two mobile robots, which are the minimum configuration capable of implementing the invention, if there are three or more robots, sensor information from a third robot is also used. For example, equations (3) and (4) hold true even if B is replaced by a third robot. Furthermore, depending on the positional relationship of the robots, the third robot can also serve as an exploration robot.

本実施例では、救助ロボットは常に高精度に位置推定できている前提だが、実際は特徴の少ない空間へ進入した場合、救助ロボットの位置推定の精度も悪化することが考えられる。そのため、これを防ぐために救助ロボットを観測可能な第三のロボットを配置することが望ましい。 In this embodiment, it is assumed that the rescue robot can always estimate the position with high accuracy, but in reality, if the rescue robot enters a space with few features, the accuracy of the rescue robot's position estimation may deteriorate. Therefore, to prevent this, it is desirable to arrange a third robot that can observe the rescue robot.

他にも、救助ロボットは、例えばGPSや天井特徴を用いた位置推定方法など、ロストロボットとは異なるセンサや処理方法を持つことで、探索中に救助ロボットも位置推定の失敗を起こす可能性が低くなる。 In addition, rescue robots have different sensors and processing methods than lost robots, such as position estimation methods using GPS or ceiling features, so there is a possibility that rescue robots may also fail in position estimation during search. It gets lower.

更に、探索範囲は、位置推定の失敗が発生しやすいエリアであると想定される。このため、第三ロボットの走行経路を、第一探索範囲および第二探索範囲を除いて設定し、他ロボットをなるべく接近させない経路計画を行うことで、ロスト発生率を低減させることができる。この場合、探索完了後についても、位置推定に失敗したロストロボットが発見された領域をなるべく近づかない範囲と設定することができる。 Furthermore, the search range is assumed to be an area where position estimation failures are likely to occur. Therefore, by setting the travel route of the third robot excluding the first search range and the second search range and planning the route so that other robots do not approach as much as possible, it is possible to reduce the loss occurrence rate. In this case, even after the search is completed, the area in which the lost robot whose position estimation has failed can be set as a range from which the lost robot should not approach as much as possible.

以上で、本実施例の処理フローの説明を終了する。 This concludes the explanation of the processing flow of this embodiment.

なお、本発明は、この実施例に限定されず、各種変形例も含まれる。 Note that the present invention is not limited to this embodiment, and includes various modifications.

例えば、本発明には、自律移動ロボットの制御方法も含まれるが、この制御方法は移動ロボット自身が行ってもよいし、他の装置で行ってもよいし、さらに移動ロボットと他の装置が連携して行ってもよい。 For example, the present invention includes a method of controlling an autonomous mobile robot, but this control method may be performed by the mobile robot itself, or by another device, or may be performed by the mobile robot and another device. It may be done in collaboration.

また、移動ロボットの制御方法を実行するためのコンピュータプログラムやこれを格納する媒体も本発明に含まれる。 The present invention also includes a computer program for executing the mobile robot control method and a medium for storing the program.

次に、本実施例の効果について説明する。 Next, the effects of this embodiment will be explained.

上述した本実施例の複数ロボットの制御方法はセンサ101,201を搭載した複数の第一のロボット100,第二のロボット200を制御する方法であって、第一のロボット100の現在位置が不明な場合に、第一のロボット100の過去の移動位置軌跡、第一のロボット100の過去の位置推定における推定誤差範囲307、および移動量に基づいて、第一のロボット100についての第一探索範囲を決定し、第一のロボット100とは異なる第二のロボット200に対して、第一探索範囲の探索指令を送信し、第一探索範囲における第二のロボット200からのセンサ情報を受信し、第一のロボット100の現在位置を推定する。 The method of controlling a plurality of robots according to the present embodiment described above is a method of controlling a plurality of first robots 100 and second robots 200 equipped with sensors 101 and 201, and the current position of the first robot 100 is unknown. In this case, the first search range for the first robot 100 is determined based on the past movement position trajectory of the first robot 100, the estimated error range 307 in the past position estimation of the first robot 100, and the movement amount. determining, transmitting a search command for the first search range to a second robot 200 different from the first robot 100, receiving sensor information from the second robot 200 in the first search range, The current position of the first robot 100 is estimated.

例えば、第一のロボット100の現在位置を推定するステップでは、第一探索範囲における第二のロボット200からのセンサ情報を受信し、未知物体を抽出して、未知物体の周辺に第二探索範囲を限定し、第二のロボット200に対して第二探索範囲の探索指令を送信して、第二探索範囲における第二のロボット200からのセンサ情報を受信し、第一のロボット100の現在位置を推定する。 For example, in the step of estimating the current position of the first robot 100, sensor information from the second robot 200 in the first search range is received, an unknown object is extracted, and a second search range is set around the unknown object. , transmits a search command for a second search range to the second robot 200, receives sensor information from the second robot 200 in the second search range, and determines the current position of the first robot 100. Estimate.

本発明によれば、第一のロボット100が自己位置推定に失敗して、第二のロボット200との協調による探索によりロボット単体で位置推定の処理を回復させる際に、ロストロボットが存在する確率が高い領域に早い段階で探索範囲を限定することができるため、探索効率を向上させることができる。従って、従来に比べてロストロボットの位置回復を人介在を必要とせずに速やかに行うことができるようになる。 According to the present invention, when the first robot 100 fails to estimate its own position and recovers the position estimation process by itself through search in cooperation with the second robot 200, the probability that a lost robot exists is determined. Since the search range can be limited at an early stage to areas with high values, search efficiency can be improved. Therefore, the position of the lost robot can be recovered more quickly than before without requiring human intervention.

また、第二のロボット200として、第一探索範囲もしくは第二探索範囲の最近傍の第二のロボット200、またはタスクに空きのある第二のロボット200を用いるため、探索効率をより向上させることができる、あるいはロボットの作業効率の低下を最低限に抑制することができる。 Furthermore, since the second robot 200 is the second robot 200 closest to the first search range or the second search range, or the second robot 200 with available tasks, the search efficiency can be further improved. or the decline in the robot's work efficiency can be minimized.

更に、第一のロボット100が受信するセンサ情報は、第二のロボット200、第三ロボットまたは第一のロボット100,第二のロボット200が稼働する領域に設けられている固定センサからの情報であることで、自己位置の再設定の際の情報を多く、且つ高い精度とすることができるため、位置推定の失敗からの回復の更なる精度向上を図ることができる。 Further, the sensor information received by the first robot 100 is information from a fixed sensor provided in the area where the second robot 200, the third robot, or the first robot 100 and the second robot 200 operate. By doing so, it is possible to obtain a large amount of information at the time of resetting the self-position and to make it highly accurate, so that it is possible to further improve the accuracy of recovery from a failure in position estimation.

また、第二探索範囲を探索しても第一のロボット100を発見できない場合、第一探索範囲を拡大することにより、極力人の介在を避ける構成とすることができる。 Furthermore, if the first robot 100 cannot be found even after searching the second search range, the first search range can be expanded to avoid human intervention as much as possible.

更に、複数の第一のロボット100,第二のロボット200が、自らの過去の移動位置軌跡、過去の位置推定における推定誤差範囲307、および移動量を管理サーバ1に出力するステップを有することで、位置推定の失敗が生じた際に探索範囲を決定するための情報を予め把握しておくことができ、発見可能性の高い探索範囲の決定をより迅速に行うことができる。 Furthermore, the plurality of first robots 100 and second robots 200 have a step of outputting their past movement position trajectories, estimated error ranges 307 in past position estimation, and movement amounts to the management server 1. , information for determining a search range when a position estimation failure occurs can be grasped in advance, and a search range with a high possibility of discovery can be determined more quickly.

また、複数の第一のロボット100,第二のロボット200が、移動位置軌跡、推定誤差範囲307、および移動量を管理サーバ1に対して出力するステップを一定周期で実行することにより、探索範囲の決定に必要な情報に偏りが無くなり、高い確率で位置推定に失敗したロストロボットを発見することに寄与する探索範囲の決定が可能となる。 Furthermore, the plurality of first robots 100 and second robots 200 can perform the step of outputting the movement position locus, estimated error range 307, and movement amount to the management server 1 at regular intervals, so that the search range can be improved. This eliminates bias in the information necessary for determining the location of robots, and it becomes possible to determine a search range that contributes to finding lost robots whose position estimation has failed with a high probability.

更に、第二探索範囲における第二のロボット200からのセンサ情報は、第二のロボット200が認識した第一のロボット100の位置情報であること、特に位置情報は、第一のロボット100の外観情報を用いたテンプレートマッチング、点群マッチング、ARマーカ画像認識、深層学習による認識のいずれかによって推定した情報であることにより、少ない情報量で確実に位置推定を行うことができるようになる。 Further, the sensor information from the second robot 200 in the second search range is the position information of the first robot 100 recognized by the second robot 200, and in particular, the position information is based on the appearance of the first robot 100. Since the information is estimated by template matching using information, point cloud matching, AR marker image recognition, or recognition by deep learning, position estimation can be performed reliably with a small amount of information.

更に、各々のステップは、独立した中央処理装置2上、または第一のロボット100,第二のロボット200に搭載された中央処理装置102,202上で自律分散的に実行されることで、移動ロボット側の装置構成の軽減、あるいは管理サーバや通信負荷の軽減を図ることができる。 Furthermore, each step is executed in an autonomous decentralized manner on the independent central processing unit 2 or on the central processing units 102 and 202 mounted on the first robot 100 and the second robot 200, so that the movement It is possible to reduce the device configuration on the robot side or the management server and communication load.

また、第三ロボットの走行経路を、第一探索範囲および第二探索範囲を除いて設定することにより、追加で位置推定に失敗するロストロボットが生じることを抑制でき、作業効率の低下をより確実に避けることができる。 In addition, by setting the travel route of the third robot excluding the first search range and the second search range, it is possible to suppress the occurrence of additional lost robots whose position estimation fails, and more reliably prevent a decrease in work efficiency. can be avoided.

<その他>
なお、本発明は上記の実施例に限られず、種々の変形、応用が可能なものである。上述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。
<Others>
Note that the present invention is not limited to the above-described embodiments, and various modifications and applications are possible. The embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described.

1…管理サーバ
2…中央処理装置
3…地図情報表示部
4…メモリ
5…主記憶装置
6…情報送受信部
7…情報処理装置(第一探索範囲決定部、探索指令送信部、推定部)
8…ネットワーク
41…地図情報保持部
42…位置範囲演算部
43…探索命令管理部
44…座標変換処理部
100…第一のロボット(移動ロボット)
101,201…センサ
102,202…中央処理装置
103,203…情報送受信部
104,204…位置推定失敗判定部
105,205…センサ処理部
106,206…自己位置演算部
107,207…位置情報取得部
108,208…走行制御部
110…障害物
200…第二のロボット(移動ロボット)
301…推定誤差
302…推定誤差履歴
303…総移動距離
304…探索中心座標
305,306,310,311…領域
307…推定誤差範囲
308,309,312…注目点
400…障害物占有マップ
401…障害物
402…地図形状
403…未知物体
500…ARマーカ
501…点群マッチング
1... Management server 2... Central processing unit 3... Map information display section 4... Memory 5... Main storage device 6... Information transmitting/receiving section 7... Information processing device (first search range determining section, search command transmitting section, estimating section)
8...Network 41...Map information holding section 42...Position range calculation section 43...Search command management section 44...Coordinate transformation processing section 100...First robot (mobile robot)
101, 201...Sensors 102, 202...Central processing unit 103, 203...Information transmitting/receiving unit 104, 204...Position estimation failure determination unit 105, 205...Sensor processing unit 106, 206...Self position calculation unit 107, 207...Position information acquisition Sections 108, 208... Travel control section 110... Obstacle 200... Second robot (mobile robot)
301...Estimation error 302...Estimation error history 303...Total movement distance 304...Search center coordinates 305, 306, 310, 311...Area 307...Estimation error range 308, 309, 312...Point of interest 400...Obstacle occupancy map 401...Obstacle Object 402...Map shape 403...Unknown object 500...AR marker 501...Point cloud matching

Claims (13)

センサを搭載した複数の移動ロボットを制御する方法であって、
第一のロボットの現在位置が不明な場合に、前記第一のロボットの過去の移動位置軌跡、前記第一のロボットの過去の位置推定における誤差情報、および移動量に基づいて、前記第一のロボットについての第一探索範囲を決定するステップと、
前記第一のロボットとは異なる第二のロボットに対して、前記第一探索範囲の探索指令を送信するステップと、
前記第一探索範囲における前記第二のロボットからのセンサ情報を受信し、前記第一のロボットの現在位置を推定するステップと、を有する
複数移動ロボットの制御方法。
A method for controlling multiple mobile robots equipped with sensors, the method comprising:
When the current position of the first robot is unknown, based on the past movement position trajectory of the first robot, error information in the past position estimation of the first robot, and the amount of movement, determining a first search range for the robot;
transmitting a search command for the first search range to a second robot different from the first robot;
A method for controlling multiple mobile robots, comprising the steps of: receiving sensor information from the second robot in the first search range and estimating the current position of the first robot.
請求項1に記載の複数移動ロボットの制御方法において、
前記第一のロボットの現在位置を推定するステップでは、
前記第一探索範囲における前記第二のロボットからのセンサ情報を受信し、未知物体を抽出して、前記未知物体の周辺に第二探索範囲を限定し、前記第二のロボットに対して前記第二探索範囲の探索指令を送信し、
前記第二探索範囲における前記第二のロボットからのセンサ情報を受信し、前記第一のロボットの現在位置を推定する
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 1,
In the step of estimating the current position of the first robot,
Receive sensor information from the second robot in the first search range, extract an unknown object, limit a second search range to the vicinity of the unknown object, and send the second robot to the second robot. 2. Send a search command for the search range,
A method for controlling multiple mobile robots, comprising: receiving sensor information from the second robot in the second search range, and estimating the current position of the first robot.
請求項2に記載の複数移動ロボットの制御方法において、
前記第二のロボットとして、前記第一探索範囲もしくは前記第二探索範囲の最近傍の前記移動ロボット、またはタスクに空きのある前記移動ロボットを用いる
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
A method for controlling a plurality of mobile robots, wherein the mobile robot closest to the first search range or the second search range or the mobile robot with a vacant task is used as the second robot.
請求項2に記載の複数移動ロボットの制御方法において、
前記第一のロボットが受信するセンサ情報は、前記第二のロボット、第三ロボットまたは前記移動ロボットが稼働する領域に設けられている固定センサからの情報である
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
The sensor information received by the first robot is information from a fixed sensor provided in an area where the second robot, the third robot, or the mobile robot operates.
請求項2に記載の複数移動ロボットの制御方法において、
前記第二探索範囲を探索しても前記第一のロボットを発見できない場合、前記第一探索範囲を拡大する
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
If the first robot cannot be found even after searching the second search range, the first search range is expanded.
請求項2に記載の複数移動ロボットの制御方法において、
複数の前記移動ロボットが、自らの過去の移動位置軌跡、過去の位置推定における誤差情報、および移動量を管理サーバに出力するステップを有する
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
A method for controlling a plurality of mobile robots, comprising the step of the plurality of mobile robots outputting their past movement position trajectories, error information in past position estimation, and movement amounts to a management server.
請求項6に記載の複数移動ロボットの制御方法において、
複数の前記移動ロボットが、前記移動位置軌跡、前記誤差情報、および前記移動量を前記管理サーバに対して出力するステップを一定周期で実行する
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 6,
A method for controlling a plurality of mobile robots, wherein the plurality of mobile robots execute a step of outputting the movement position locus, the error information, and the movement amount to the management server at regular intervals.
請求項2に記載の複数移動ロボットの制御方法において、
前記第二探索範囲における前記第二のロボットからのセンサ情報は、前記第二のロボットが認識した前記第一のロボットの位置情報である
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
The sensor information from the second robot in the second search range is position information of the first robot recognized by the second robot.
請求項8に記載の複数移動ロボットの制御方法において、
前記位置情報は、前記第一のロボットの外観情報を用いたテンプレートマッチング、点群マッチング、ARマーカ画像認識、深層学習による認識のいずれかによって推定した情報である
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 8,
The position information is information estimated by template matching using appearance information of the first robot, point cloud matching, AR marker image recognition, or recognition by deep learning. A method for controlling multiple mobile robots.
請求項2に記載の複数移動ロボットの制御方法において、
各々の前記ステップは、独立した計算機上、または前記移動ロボットに搭載された計算機上で自律分散的に実行される
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
Each of the steps is executed in an autonomous and decentralized manner on an independent computer or on a computer mounted on the mobile robot.
請求項2に記載の複数移動ロボットの制御方法において、
第三ロボットの走行経路を、前記第一探索範囲および前記第二探索範囲を除いて設定する
複数移動ロボットの制御方法。
The method for controlling multiple mobile robots according to claim 2,
A method for controlling a plurality of mobile robots, wherein a traveling route of a third robot is set excluding the first search range and the second search range.
センサを搭載した複数の移動ロボットを制御するコンピュータに、
第一のロボットの現在位置が不明な場合に、前記第一のロボットの過去の移動位置軌跡、前記第一のロボットの過去の位置推定における誤差情報、および移動量に基づいて、前記第一のロボットについての第一探索範囲を決定するステップと、
前記第一のロボットとは異なる第二のロボットに対して、前記第一探索範囲の探索指令を送信するステップと、
前記第一探索範囲における前記第二のロボットからのセンサ情報を受信し、前記第一のロボットの現在位置を推定するステップと、を有する
プログラム。
A computer that controls multiple mobile robots equipped with sensors,
When the current position of the first robot is unknown, based on the past movement position trajectory of the first robot, error information in the past position estimation of the first robot, and the amount of movement, determining a first search range for the robot;
transmitting a search command for the first search range to a second robot different from the first robot;
A program comprising: receiving sensor information from the second robot in the first search range and estimating the current position of the first robot.
センサを搭載した複数の移動ロボットを制御するシステムであって、
第一のロボットの現在位置が不明な場合に、前記第一のロボットの過去の移動位置軌跡、前記第一のロボットの過去の位置推定における誤差情報、および移動量に基づいて、前記第一のロボットについての第一探索範囲を決定する第一探索範囲決定部と、
前記第一のロボットとは異なる第二のロボットに対して、前記第一探索範囲の探索指令を送信する探索指令送信部と、
前記第一探索範囲における前記第二のロボットからのセンサ情報を受信し、前記第一のロボットの現在位置を推定する推定部と、を有する
複数移動ロボット制御システム。
A system for controlling multiple mobile robots equipped with sensors,
When the current position of the first robot is unknown, based on the past movement position trajectory of the first robot, error information in the past position estimation of the first robot, and the amount of movement, a first search range determination unit that determines a first search range for the robot;
a search command transmitter that transmits a search command for the first search range to a second robot different from the first robot;
A multiple mobile robot control system, comprising: an estimation unit that receives sensor information from the second robot in the first search range and estimates the current position of the first robot.
JP2022117848A 2022-07-25 2022-07-25 Multiple mobile robot control method, program, and multiple mobile robot control system Pending JP2024015640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022117848A JP2024015640A (en) 2022-07-25 2022-07-25 Multiple mobile robot control method, program, and multiple mobile robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022117848A JP2024015640A (en) 2022-07-25 2022-07-25 Multiple mobile robot control method, program, and multiple mobile robot control system

Publications (1)

Publication Number Publication Date
JP2024015640A true JP2024015640A (en) 2024-02-06

Family

ID=89772621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022117848A Pending JP2024015640A (en) 2022-07-25 2022-07-25 Multiple mobile robot control method, program, and multiple mobile robot control system

Country Status (1)

Country Link
JP (1) JP2024015640A (en)

Similar Documents

Publication Publication Date Title
JP7353747B2 (en) Information processing device, system, method, and program
US11373395B2 (en) Methods and systems for simultaneous localization and calibration
EP3612906B1 (en) Method and system for environment map generation and alignment
EP3559772B1 (en) Localization of robotic vehicles
US20190114798A1 (en) Methods for finding the perimeter of a place using observed coordinates
WO2019190395A1 (en) Method and system for returning a displaced autonomous mobile robot to its navigational path
US10761541B2 (en) Localization with negative mapping
Ohradzansky et al. Multi-agent autonomy: Advancements and challenges in subterranean exploration
US11493930B2 (en) Determining changes in marker setups for robot localization
Cho et al. Map based indoor robot navigation and localization using laser range finder
KR101341204B1 (en) Device and method for estimating location of mobile robot using raiser scanner and structure
Alves et al. Localization and navigation of a mobile robot in an office-like environment
US11687086B2 (en) Autonomous robotic navigation in storage site
JP2024015640A (en) Multiple mobile robot control method, program, and multiple mobile robot control system
Babu et al. IoT enabled Robots with QR Code based localization
Murdan et al. Indoor positioning system simulation for a robot using radio frequency identification
WO2021049227A1 (en) Information processing system, information processing device, and information processing program
JP7062138B2 (en) Information processing equipment, information processing method, and information processing program
Tungadi et al. Discovering and restoring changes in object positions using an autonomous robot with laser rangefinders
WO2023119970A1 (en) Position estimation system
Lin et al. SLAM and navigation in indoor environments
KR102631315B1 (en) System capable of correcting location errors using real-time analysis and contrast between vision data and lidar data for the implementation of simultaneous localization and map-building technology
Yang et al. Recursive bayesian estimation using a topological map for indoor position tracking
US20230259134A1 (en) Information processing device, information processing method, and program
Zhang et al. Adaptive Optimal Multiple Object Tracking Based on Global Cameras for a Decentralized Autonomous Transport System