JP2007249735A - Robot location controller and robot self-location restoration method - Google Patents

Robot location controller and robot self-location restoration method Download PDF

Info

Publication number
JP2007249735A
JP2007249735A JP2006073960A JP2006073960A JP2007249735A JP 2007249735 A JP2007249735 A JP 2007249735A JP 2006073960 A JP2006073960 A JP 2006073960A JP 2006073960 A JP2006073960 A JP 2006073960A JP 2007249735 A JP2007249735 A JP 2007249735A
Authority
JP
Japan
Prior art keywords
robot
landmark
self
rfid tag
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006073960A
Other languages
Japanese (ja)
Other versions
JP4369439B2 (en
Inventor
Takashi Kyo
山 姜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006073960A priority Critical patent/JP4369439B2/en
Publication of JP2007249735A publication Critical patent/JP2007249735A/en
Application granted granted Critical
Publication of JP4369439B2 publication Critical patent/JP4369439B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for accurately recognizing and restoring a self-location and a direction even when a robot is in an error state and the self-location and the direction are lost. <P>SOLUTION: In the robot 1, when an RFID tag detection part 101 detects an RFID tag by an RFID reader 20, a location specifying part 102 specifies the location range of the robot 1 from the location of the detected RFID tag. When a landmark detection part 104 detects a landmark from an image imaged by a stereo camera 30, a location/direction specifying part 106 specifies the self-location of the robot 1 from the location and direction or the like of the detected landmark. When it is confirmed that the specified self-location of the robot is within the specified location range by a location collation part 108, a location restoration part 111 restores the robot 1 to an initial location or a work continuing location. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は,経路または地図情報に従って自律移動することができる移動ロボットの自己位置同定方法に係り,特に,ロボットがエラー状態から,グローバルなセンサー情報とロボットの視覚計測結果に基づいて初期位置または作業継続位置に回復することを可能としたロボット位置制御装置およびロボット自己位置回復方法に関する。   The present invention relates to a self-localization method for a mobile robot that can move autonomously according to route or map information, and in particular, from an error state, the initial position or work based on global sensor information and visual measurement results of the robot. The present invention relates to a robot position control device and a robot self-position recovery method that enable recovery to a continuous position.

自律的に移動することができるロボットは,深刻なエラー状態になったとき,地図または経路上の自己位置および向き情報を失い,目的位置または初期位置に移動することができなくなることがある。そのため,エラー状態になったときでも,自己位置および向きを正しく認識し,回復することができるようにする必要がある。   When a robot that can move autonomously enters a serious error state, it may lose its own position and orientation information on the map or route and cannot move to the target position or initial position. Therefore, it is necessary to be able to correctly recognize and recover from the self-position and orientation even when an error occurs.

移動ロボットが位置および方向を認識する従来技術としては,例えば下記の特許文献1,特許文献2に記載されたものがある。   As a prior art in which a mobile robot recognizes a position and a direction, for example, there are those described in Patent Document 1 and Patent Document 2 below.

特許文献1に記載された環境同定装置は,ランドマークが複数配置され,一意に特定可能な環境内を移動するロボット装置が複数の登録済みの環境から現在の環境を同定するものであり,現在の環境内のランドマークを認識し,ロボット装置自体の移動状態量を算出し,このランドマークおよび移動状態量に基づいて現在の環境におけるランドマークの位置情報を有する現在の環境地図を構築する環境地図構築部と,ランドマークの位置情報および環境IDからなる登録済み環境地図のデータベースを有する環境地図記憶部と,登録済み環境地図と現在の環境地図との類似度から現在の環境を同定する環境同定部と,新しい環境を探索する環境探索部とから構成される。   In the environment identification device described in Patent Document 1, a plurality of landmarks are arranged, and a robot device that moves in a uniquely identifiable environment identifies a current environment from a plurality of registered environments. An environment for recognizing landmarks in the environment, calculating the movement state quantity of the robot device itself, and constructing a current environment map having the landmark position information in the current environment based on the landmark and movement state quantity Environment that identifies the current environment from the similarity between the registered environment map and the current environment map, the map construction unit, the environment map storage unit having a registered environment map database composed of landmark position information and environment ID It consists of an identification unit and an environment search unit that searches for a new environment.

また,特許文献2に記載された移動ロボットの位置および方向認識方法では,速いサンプリング速度と制限的誤差範囲を有する安定した位置及び方向の認識を可能にするため,移動ロボットの現在位置に対する絶対座標と移動変位に対する相対座標を獲得し,絶対座標に相対座標を反映して現在の位置および方向を認識する。絶対座標を検出する方法としてはRFIDを利用し,相対座標を検出する方法としては,ロボットの移動速度を検出する速度センサーとロボットの進行方向を検出する方向センサーとを用いた推測航法装置を利用している。
特開2004−110802号公報 特開2004−21978号公報
Further, in the position and direction recognition method of the mobile robot described in Patent Document 2, the absolute coordinates with respect to the current position of the mobile robot are used in order to enable stable position and direction recognition with a fast sampling speed and a limited error range. And get the relative coordinates for the moving displacement, and reflect the relative coordinates to the absolute coordinates to recognize the current position and direction. RFID is used as a method for detecting absolute coordinates, and dead reckoning equipment using a speed sensor for detecting the moving speed of the robot and a direction sensor for detecting the moving direction of the robot is used as a method for detecting the relative coordinates. is doing.
JP 2004-110802 A Japanese Patent Laid-Open No. 2004-21978

上記特許文献1に記載された技術では,複数のランドマークの認識結果から環境地図を構築し,登録済みの環境地図との類似度から現在の環境を同定する。このような観測モデルを使用する方法では,位置同定の精度はモデルのパラメータに依存し,ランドマークの配置状況によっては,ロボットの位置および向きを精度よく認識できないことがある。また,ロボットがエラー状態になったときの回復方法については詳しい記載はない。   In the technique described in Patent Document 1, an environment map is constructed from the recognition results of a plurality of landmarks, and the current environment is identified from the similarity with the registered environment map. In such a method using an observation model, the accuracy of position identification depends on the parameters of the model, and the position and orientation of the robot may not be recognized accurately depending on the arrangement of landmarks. Also, there is no detailed description on how to recover when the robot enters an error state.

また,上記特許文献2に記載された技術では,オドメトリ法(推測航法)を使用しており,ロボットの走行距離が増加する場合には測定誤差が累積することになる。また,ロボットがエラー状態になったときの回復方法については考慮されていない。   In the technique described in Patent Document 2, the odometry method (dead reckoning navigation) is used, and measurement errors accumulate when the travel distance of the robot increases. Also, no consideration is given to how to recover when the robot enters an error state.

本発明は上記問題点の解決を図り,ロボットがエラー状態になり,自己位置および向きを失った場合でも,それらを精度よく認識し,回復することができるようにすることを目的とする。   SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems and to recognize and recover them accurately even when the robot is in an error state and loses its own position and orientation.

本発明は,上記課題を解決するため,ロボットがエラー状態になったときに,RFIDシステムを利用したグローバルな位置の検出と,ステレオカメラを用いたランドマークのステレオ計測による位置および向きの同定を行う。   In order to solve the above problems, the present invention performs global position detection using an RFID system when a robot enters an error state, and identification of a position and orientation by landmark stereo measurement using a stereo camera. Do.

具体的には,本発明は,ステレオカメラと,左右・上下に回転する頭部を持つ移動ロボットにおいて,以下の手段を用いる。
(1)ロボットの外部環境に,RFIDシステムを配置する。ロボットにはRFIDリーダを持たせる。
(2)外部環境の中で,床や壁に平面ランドマークを配置する。ランドマークは,あらかじめ登録した番号と向きを表示できるシンボルまたはパターンを使用し,カメラで撮像した画像中のランドマークを認識することにより,絶対位置と方向の両方を把握できるようにする。
(3)ロボットが自己位置を失ったとき,次のように自己位置および向きを同定する。
Specifically, the present invention uses the following means in a mobile robot having a stereo camera and a head that rotates horizontally and vertically.
(1) An RFID system is arranged in the external environment of the robot. The robot has an RFID reader.
(2) Place a planar landmark on the floor or wall in the external environment. The landmark uses a symbol or pattern that can display a number and orientation registered in advance, and recognizes the landmark in the image captured by the camera so that both the absolute position and the direction can be grasped.
(3) When the robot loses its own position, the self position and direction are identified as follows.

(3-1) RFIDシステムを使い,現在位置を取得する。  (3-1) Obtain the current position using the RFID system.

(3-2) 頭部を回転し,ステレオカメラによってランドマークを探索する。  (3-2) Rotate the head and search for landmarks with a stereo camera.

(3-3) 探索成功のとき,登録したランドマークの位置とRFIDリーダによって読み取ったRFIDの結果を再確認する。結果が妥当であれば,ランドマークの向きと相対位置情報を使い,ランドマークの位置に移動し,自己位置を同定する。  (3-3) When the search is successful, re-check the registered landmark position and the RFID result read by the RFID reader. If the result is valid, it uses the landmark direction and relative position information to move to the landmark position and identify its own position.

(3-4) 同定した位置から作業を再開する。または,初期位置に戻る。
(4)探索失敗のとき,管理者をランプの点灯,警告音の発出などにより呼び出す。管理者は,近くにあるランドマークの番号を利用し,位置と向き情報をロボットに指示する。ロボットは,これにより自動的にランドマークの位置に移動し,自己位置を同定する。
(3-4) Resume work from the identified position. Or return to the initial position.
(4) If the search fails, the administrator is called by lighting the lamp or issuing a warning sound. The manager uses the landmark numbers nearby to instruct the robot on position and orientation information. As a result, the robot automatically moves to the landmark position and identifies its own position.

具体的には,本発明は,自律的に移動を行うための移動手段と,RFIDタグの情報を読み取るRFIDリーダと,ステレオ画像を撮像するステレオカメラとを備えたロボットが自己位置を喪失したときに自己位置を回復する機能を有するロボット位置制御装置であって,ロボットの移動範囲に配置された複数のRFIDタグの情報とRFIDタグの位置との対応情報を記憶するRFIDタグ情報記憶手段と,ランドマークを一意に識別する識別情報とランドマークの位置との対応情報を記憶するランドマーク情報記憶手段と,RFIDリーダによって検出されたRFIDタグの情報をもとに,検出されたRFIDタグの位置をRFIDタグ情報記憶手段から取得し,取得されたRFIDタグの位置をもとに,ロボットの自己位置の範囲である位置範囲を特定する位置範囲特定手段と,ステレオカメラが撮像したステレオ画像から,ランドマークを検出するランドマーク検出手段と,検出されたランドマークが写ったステレオ画像から,ロボットと検出されたランドマークとの間の距離を計測する距離計測手段と,検出されたランドマークの識別情報をもとに,検出されたランドマークの位置をランドマーク情報記憶手段から取得し,検出されたランドマークに記載された方位を示す情報をもとに方位を求め,取得されたランドマークの位置と,求められた方位と,計測されたランドマークとの間の距離とをもとに,ロボットの自己位置を特定する自己位置特定手段と,特定された位置範囲と特定された自己位置とを照合し,特定された自己位置が特定された位置範囲内であると判断された場合に,特定された自己位置を同定する位置照合手段とを備えることを特徴とする。   Specifically, the present invention provides a robot equipped with a moving means for autonomously moving, an RFID reader that reads information from an RFID tag, and a stereo camera that captures a stereo image when the robot loses its own position. An RFID tag information storage means for storing correspondence information between the information of a plurality of RFID tags arranged in the movement range of the robot and the positions of the RFID tags; The position of the RFID tag detected based on the information of the RFID tag detected by the RFID reader and the landmark information storage means for storing the identification information for uniquely identifying the landmark and the corresponding information of the position of the landmark Is obtained from the RFID tag information storage means, and the range of the robot's own position is determined based on the acquired RFID tag position. Position range specifying means for specifying a position range, landmark detection means for detecting a landmark from a stereo image captured by a stereo camera, and a landmark detected as a robot from a stereo image in which the detected landmark is reflected Based on the identification information of the detected landmark and the distance measuring means for measuring the distance between the two, the position of the detected landmark is acquired from the landmark information storage means and described in the detected landmark The direction of the robot is determined based on the information indicating the calculated direction, and the robot's self-position is determined based on the position of the acquired landmark, the determined direction, and the distance between the measured landmark. The self-position specifying means to be identified is compared with the specified position range and the specified self-position, and it is determined that the specified self-position is within the specified position range. If it is, it characterized in that it comprises a position matching means for identifying the identified self-position.

これにより,管理者の介入がなくても,精度と信頼性の高い自己位置の回復を行うことが可能となる。   This makes it possible to perform highly accurate and reliable self-position recovery without administrator intervention.

また,本発明は,上記のロボット位置制御装置において,位置照合手段により自己位置を同定できない場合に,自己位置を同定できない旨の警報を出力する警報出力手段と,管理者によって位置が入力された場合に,入力された位置を自己位置として同定する位置入力手段とを備えることを特徴とする。   Further, the present invention provides an alarm output means for outputting an alarm indicating that the self-position cannot be identified when the self-position cannot be identified by the position collating means in the above robot position control device, and the position is inputted by the administrator. And a position input means for identifying the input position as a self-position.

また,本発明は,上記のロボット位置制御装置において,同定された自己位置をもとに,移動手段を制御することにより,ロボットをあらかじめ定められた初期位置または次にロボットが行うべき作業位置に移動させる位置回復手段を備えることを特徴とする。   Further, according to the present invention, in the above robot position control device, the robot is moved to a predetermined initial position or a work position to be performed next by controlling the moving means based on the identified self position. It is characterized by comprising position recovery means for moving.

本発明によれば,ロボットがエラー状態になったときに,外部グローバルなセンサー情報とロボットの視覚計測結果に基づいて,自己位置を同定し,初期位置(または作業継続位置)に回復する。したがって,管理者である人間が介入しなくても,ロボットは初期位置に戻ることができる。また,複数のセンサーを併用し,ロボットの視覚を利用したステレオ計測により自己位置を同定するので,精度と信頼性が高い。自己位置を回復することにより,連続的な自律走行制御が可能になる。または与えられた作業を継続することができる。   According to the present invention, when the robot is in an error state, the self-position is identified based on the external global sensor information and the visual measurement result of the robot, and is restored to the initial position (or work continuation position). Therefore, the robot can return to the initial position without human intervention as an administrator. In addition, since multiple sensors are used in combination and the self-location is identified by stereo measurement using the vision of the robot, accuracy and reliability are high. By recovering the self-position, continuous autonomous running control becomes possible. Or you can continue a given task.

以下,本発明の実施の形態について,図を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は,本発明の実施の形態によるロボットの機能構成例を示す図である。ロボット1は,ロボット位置制御部10,RFIDリーダ20,ステレオカメラ30,操作パネル40,モータ50,移動制御部51を備える。   FIG. 1 is a diagram showing a functional configuration example of a robot according to an embodiment of the present invention. The robot 1 includes a robot position control unit 10, an RFID reader 20, a stereo camera 30, an operation panel 40, a motor 50, and a movement control unit 51.

図2は,本実施の形態によるロボットのハードウェア構成例を示す図である。ロボット1は,CPU11,メモリ12,RFIDリーダ20,ステレオカメラ30,操作パネル40,モータ50,各種のセンサ60を備える。   FIG. 2 is a diagram illustrating a hardware configuration example of the robot according to the present embodiment. The robot 1 includes a CPU 11, a memory 12, an RFID reader 20, a stereo camera 30, an operation panel 40, a motor 50, and various sensors 60.

ロボット位置制御部10は,CPU11およびメモリ12からなるコンピュータであり,ロボット1の位置制御を行う。ロボット位置制御部10は,ロボット位置制御用のプログラム等によって実現されるRFIDタグ検出部101,位置特定部102,RFIDタグ情報記憶部103,ランドマーク検出部104,ステレオ計測処理部105,位置・方位特定部106,ランドマーク情報記憶部107,位置照合部108,警報出力部109,位置入力部110,位置回復部111を備える。   The robot position control unit 10 is a computer including a CPU 11 and a memory 12 and controls the position of the robot 1. The robot position control unit 10 includes an RFID tag detection unit 101, a position specification unit 102, an RFID tag information storage unit 103, a landmark detection unit 104, a stereo measurement processing unit 105, a position / An azimuth specifying unit 106, a landmark information storage unit 107, a position collation unit 108, an alarm output unit 109, a position input unit 110, and a position recovery unit 111 are provided.

RFIDタグ検出部101は,RFIDリーダ20によってRFIDタグから読み取られたタグIDを取得することにより,RFIDタグの検出を行う。   The RFID tag detection unit 101 detects the RFID tag by acquiring the tag ID read from the RFID tag by the RFID reader 20.

位置特定部102は,RFIDタグ検出部101によって検出されたRFIDタグのタグIDでRFIDタグ情報記憶部103を参照し,そのRFIDタグの位置を取得する。取得されたRFIDタグの位置をもとに,ロボット1の自己位置の範囲である位置範囲を特定する。   The position specifying unit 102 refers to the RFID tag information storage unit 103 with the tag ID of the RFID tag detected by the RFID tag detection unit 101, and acquires the position of the RFID tag. Based on the acquired position of the RFID tag, the position range which is the range of the robot 1's own position is specified.

図3は,RFIDタグ情報記憶部のデータ構造の例を示す図である。RFIDタグ情報記憶部103には,RFIDタグが持つタグIDとRFIDタグが設置された位置との対応情報が記憶されている。   FIG. 3 is a diagram illustrating an example of a data structure of the RFID tag information storage unit. The RFID tag information storage unit 103 stores correspondence information between the tag ID of the RFID tag and the position where the RFID tag is installed.

ランドマーク検出部104は,ステレオカメラ30によって撮像されたステレオ画像から,ランドマークを検出する。   The landmark detection unit 104 detects a landmark from the stereo image captured by the stereo camera 30.

ステレオ計測処理部105は,ランドマークが写ったステレオ画像をもとに,三角測量の原理に基づきロボット1からランドマークまでの距離を計測する。   The stereo measurement processing unit 105 measures the distance from the robot 1 to the landmark based on the principle of triangulation based on the stereo image in which the landmark is reflected.

位置・方位特定部106は,ランドマーク検出部104によって検出されたランドマークの識別マークでランドマーク情報記憶部107を参照し,そのランドマークの位置を取得する。また,ランドマーク検出部104によって検出されたランドマークの方位マークから,方位を求める。取得されたランドマークの位置や方位と,ステレオ計測処理部105によって計測されたロボット1からランドマークまでの距離とをもとに,ロボット1の自己位置を特定する。   The position / orientation specifying unit 106 refers to the landmark information storage unit 107 with the landmark identification mark detected by the landmark detection unit 104 and acquires the position of the landmark. Further, the direction is obtained from the direction mark of the landmark detected by the landmark detection unit 104. Based on the position and orientation of the acquired landmark and the distance from the robot 1 to the landmark measured by the stereo measurement processing unit 105, the self position of the robot 1 is specified.

図4は,ランドマークの例を示す図である。本実施の形態によるランドマークは,そのランドマークを一意に識別する識別マーク(図中丸付き数字)と,方位を示す方位マーク(図中三角形の方位指示)とから構成される。ここでは,三角形が上を向いたときに北方向を示しているものとし,そのランドマークを捉えたロボット1は,方位を示す三角形の向いた方向で,自らが向いている方位を求めるものとする。例えば,ロボット1が正面から図4のランドマークを捉えた場合,方位を示す三角形のマークが右を向いていることから,ロボット1が現在向いている方位が東であると判断できる。   FIG. 4 is a diagram illustrating an example of a landmark. The landmark according to the present embodiment is composed of an identification mark (numerical number in the figure) for uniquely identifying the landmark, and an orientation mark (direction indication of a triangle in the figure) indicating the orientation. Here, it is assumed that the triangle indicates the north direction when facing upward, and the robot 1 that captures the landmark obtains the direction in which the triangle indicates the direction in which the robot is facing. To do. For example, when the robot 1 captures the landmark of FIG. 4 from the front, the triangle mark indicating the azimuth is pointing to the right, so that the azimuth that the robot 1 is currently facing can be determined to be east.

図5は,ランドマーク情報記憶部のデータ構造の例を示す図である。ランドマーク情報記憶部107には,ランドマークを一意に識別する識別マークとランドマークが設置された位置との対応情報が記憶されている。なお,図5では,識別マークとしてランドマークの番号を示すパターンが示されているが,実際にはランドマーク情報記憶部107には,パターン認識結果の識別番号が記憶される。   FIG. 5 is a diagram illustrating an example of a data structure of the landmark information storage unit. The landmark information storage unit 107 stores correspondence information between an identification mark for uniquely identifying a landmark and a position where the landmark is installed. In FIG. 5, a pattern indicating a landmark number is shown as an identification mark, but in practice, the landmark information storage unit 107 stores an identification number of a pattern recognition result.

位置照合部108は,位置特定部102によって特定されたロボット1の位置範囲と,位置・方位特定部106によって特定されたロボット1の自己位置とを照合し,位置・方位特定部106によって特定されたロボット1の自己位置が,位置特定部102によって特定されたロボット1の位置範囲内であるかを判定する。位置・方位特定部106によって特定されたロボット1の自己位置が,位置特定部102によって特定されたロボット1の位置範囲内である場合には,位置・方位特定部106によって特定されたロボット1の自己位置を同定する。   The position collating unit 108 collates the position range of the robot 1 specified by the position specifying unit 102 with the self position of the robot 1 specified by the position / orientation specifying unit 106, and is specified by the position / orientation specifying unit 106. It is determined whether the self position of the robot 1 is within the position range of the robot 1 specified by the position specifying unit 102. If the robot 1 specified by the position / orientation specifying unit 106 is within the position range of the robot 1 specified by the position specifying unit 102, the robot 1 specified by the position / orientation specifying unit 106 Identify self-location.

警報出力部109は,ロボット1の自己位置が同定できない場合に,その旨を管理者に対して告知する。管理者に対して告知する方法としては,例えば,管理者のサーバに自己位置が検出されない旨を通知する,警告ランプを点灯させる,警報音を鳴らすなど,様々な方法が考えられる。   When the self-position of the robot 1 cannot be identified, the alarm output unit 109 notifies the manager to that effect. As a method of notifying the administrator, for example, various methods such as notifying the administrator's server that the self-position is not detected, turning on a warning lamp, and sounding an alarm sound are conceivable.

位置入力部110は,管理者によって指示された位置や方位の情報を入力する。管理者がロボットに位置や方位を指示する方法としては,例えば,無線LANを利用して管理者のサーバから遠隔操作で指示する方法や,操作パネルによって直接指示する方法などが考えられる。   The position input unit 110 inputs information on the position and direction designated by the administrator. As a method of instructing the position and direction of the robot by the administrator, for example, a method of instructing by remote operation from the administrator's server using a wireless LAN, a method of instructing directly by the operation panel, or the like can be considered.

ここで,無線LANを利用する場合の手順として,例えば,
1)ロボット1は,自己位置を同定できない場合に,周囲の画像を取得し,
2)取得された周囲の画像と現在実行中のシナリオ特定するシナリオIDとを,無線LANを利用して送信することにより,管理者のサーバに自己位置が同定できない旨を通知し,
3)管理者は,サーバに送られてきたロボット1の周囲の画像に移っている特徴点と,サーバに送られてきたシナリオIDに該当する地図データとを照合してロボット1の位置を特定し,サーバから無線LANを利用してその位置や方位の情報をロボット1に指示する, というような手順が用いられる。
Here, as a procedure when using a wireless LAN, for example,
1) When the robot 1 cannot identify its own position, it acquires a surrounding image,
2) Notifying the administrator's server that the self-location cannot be identified by transmitting the acquired surrounding image and the scenario ID for specifying the currently executed scenario using the wireless LAN,
3) The administrator identifies the position of the robot 1 by comparing the feature points transferred to the image around the robot 1 sent to the server with the map data corresponding to the scenario ID sent to the server. Then, a procedure is used in which the server 1 is instructed to the robot 1 of the position and orientation information using the wireless LAN.

また,操作パネル40を利用する場合の手順として,例えば,
1)ロボット1は,自己位置を同定できない場合に,警報を鳴らすことにより管理者を呼び出し,
2)管理者は,ロボット1の操作パネル40に現在実行中のシナリオの地図を表示し,
3)管理者は,あらかじめ登録されたランドマークを参考として,操作パネル40から位置や方位の情報をロボット1に指示する,
というような手順が用いられる。
As a procedure when using the operation panel 40, for example,
1) When the robot 1 cannot identify its own position, it calls an administrator by sounding an alarm,
2) The administrator displays a map of the scenario currently being executed on the operation panel 40 of the robot 1,
3) The administrator instructs the robot 1 on position and orientation information from the operation panel 40 with reference to the landmarks registered in advance.
The following procedure is used.

位置回復部111は,得られたロボット1の自己位置や方位の情報をもとに,モータ50を制御する移動制御部51に対して移動指示を出し,ロボット1を初期位置に戻す。なお,ロボット1を初期位置に戻さずに,作業継続位置に移動させ,作業を再開させるようにしてもよい。   The position recovery unit 111 issues a movement instruction to the movement control unit 51 that controls the motor 50 based on the obtained information on the self position and direction of the robot 1 and returns the robot 1 to the initial position. The robot 1 may be moved to the work continuation position without returning to the initial position, and the work may be resumed.

図6は,本実施の形態によるロボットの自己位置回復の概要を説明する図である。ロボット1は,深刻なエラー状態になり,自分の位置や方位などの情報を失うと,作業の目的位置や初期位置に移動することができなくなる。このとき,ロボット1は,自動的に自己位置の回復を図る。   FIG. 6 is a diagram for explaining an outline of self-position recovery of the robot according to the present embodiment. If the robot 1 enters a serious error state and loses information such as its position and direction, it cannot move to the target position or initial position of the work. At this time, the robot 1 automatically attempts to recover its own position.

ロボット1は,まず,RFIDリーダ20によって,周囲のRFIDタグ70からタグIDを検出する。RFIDタグ情報記憶部103を参照し,検出されたタグIDを持つRFIDタグ70の位置を取得する。RFIDリーダ20の読み取り範囲には限界があるため,RFIDタグ70からタグIDを検出するためには,RFIDタグ70から一定距離の範囲内にロボット1がいなければならない。すなわち,タグIDが検出できれば,そのタグIDを持つRFIDタグ70から一定距離の範囲内にロボット1が存在することになる。よって,検出されたタグIDを持つRFIDタグ70の位置から,ロボット1のおおよその位置範囲(図中,破線の半円の範囲)を特定することができる。   First, the robot 1 detects the tag ID from the surrounding RFID tag 70 by the RFID reader 20. With reference to the RFID tag information storage unit 103, the position of the RFID tag 70 having the detected tag ID is acquired. Since the reading range of the RFID reader 20 is limited, in order to detect the tag ID from the RFID tag 70, the robot 1 must be within a certain distance from the RFID tag 70. That is, if the tag ID can be detected, the robot 1 exists within a certain distance from the RFID tag 70 having the tag ID. Therefore, the approximate position range of the robot 1 (the range of the broken semicircle in the figure) can be specified from the position of the RFID tag 70 having the detected tag ID.

また,ロボット1は,ステレオカメラ30によって周囲を撮像し,撮像された画像からランドマーク71を検出する。ランドマーク情報記憶部107を参照し,検出されたランドマーク71の位置を取得する。撮像された画像はステレオ画像であるので,ロボット1からランドマーク71までの距離を計測することができる。また,ランドマーク71の方位を示すマークから,ロボット1から見てそのランドマーク71がどの方位にあるかを求めることができる。よって,撮像された画像に写ったランドマーク71の位置,距離,方位の情報から,ロボット1の自己位置を特定することができる。   Further, the robot 1 images the surroundings with the stereo camera 30 and detects the landmark 71 from the captured image. With reference to the landmark information storage unit 107, the position of the detected landmark 71 is acquired. Since the captured image is a stereo image, the distance from the robot 1 to the landmark 71 can be measured. Further, from the mark indicating the orientation of the landmark 71, it is possible to determine in which orientation the landmark 71 is located when viewed from the robot 1. Therefore, the self position of the robot 1 can be identified from the information on the position, distance, and direction of the landmark 71 in the captured image.

ロボット1は,RFIDタグ70の位置から特定された位置範囲とランドマーク71の位置から特定された自己位置とを照合し,ランドマーク71の位置から特定された自己位置が,RFIDタグ70の位置から特定された位置範囲内であれば,確度の高い自己位置が特定されたものと判断する。   The robot 1 collates the position range specified from the position of the RFID tag 70 with the self-position specified from the position of the landmark 71, and the self-position specified from the position of the landmark 71 is the position of the RFID tag 70. If it is within the position range specified from the above, it is determined that the self-position with high accuracy is specified.

RFIDタグ70が検出されなかった場合,ランドマーク71が検出されなかった場合,特定された自己位置の確度が低い場合などには,ロボット1を移動させ,RFIDタグ70の検出,ランドマーク71の検出,自己位置の特定を再度試みる。規定の条件が満たされるまでにロボット1の自己位置を特定できない場合には,その旨を管理者に告知する。なお,規定の条件とは,例えば,“自己位置の回復を始めてから5分”,“リトライ回数は5回まで”などといった条件である。管理者は,ロボット1からの告知を受けると,上述の無線LANや操作パネル40を用いた方法などにより,ロボット1に位置や方向の情報を入力する。   When the RFID tag 70 is not detected, the landmark 71 is not detected, or when the accuracy of the specified self-position is low, the robot 1 is moved to detect the RFID tag 70 and the landmark 71 Try again to detect and locate itself. When the self-position of the robot 1 cannot be specified until the specified condition is satisfied, the fact is notified to the administrator. The prescribed conditions are, for example, conditions such as “5 minutes from the start of self-position recovery”, “up to 5 retries”, and the like. Upon receiving the notification from the robot 1, the administrator inputs position and direction information to the robot 1 by the method using the wireless LAN or the operation panel 40 described above.

ロボット1は,自己位置と方位が特定されると,初期位置に移動する。あるいは,初期位置に移動せずに,作業継続位置に移動して作業を再開するようにしてもよい。   The robot 1 moves to the initial position when its own position and direction are specified. Alternatively, the work may be resumed by moving to the work continuation position without moving to the initial position.

図7は,ロボット自己位置回復処理フローチャートである。図7のフローチャートは,ロボット1が,自己位置を回復し,その後,初期位置に移動する場合のフローチャートである。   FIG. 7 is a flowchart of robot self-position recovery processing. The flowchart in FIG. 7 is a flowchart when the robot 1 recovers its own position and then moves to the initial position.

ロボット1は,エラーなどにより自己位置の情報を失うと,まず,RFIDリーダ20によるRFIDタグの検出を行う(ステップS10)。   When the robot 1 loses its own position information due to an error or the like, first, the RFID tag 20 detects the RFID tag (step S10).

RFIDタグが検出されれば(ステップS11),検出されたRFIDタグのタグIDをもとに,検出されたRFIDタグの位置をRFIDタグ情報記憶部103から取得する(ステップS12)。取得されたRFIDタグの位置から,位置範囲を特定する(ステップS13)。   If the RFID tag is detected (step S11), the position of the detected RFID tag is acquired from the RFID tag information storage unit 103 based on the tag ID of the detected RFID tag (step S12). A position range is specified from the acquired position of the RFID tag (step S13).

次に,ロボット1は,ランドマーク検出処理(後述の図8参照)を行う(ステップS14)。ランドマークが検出されれば(ステップS15),検出されたランドマークが写っている画像から,ランドマークまでの距離を計測する(ステップS16)。検出されたランドマークまでの距離と,検出されたランドマークの位置,方位とから,自己位置を特定する(ステップS17)。   Next, the robot 1 performs a landmark detection process (see FIG. 8 described later) (step S14). If the landmark is detected (step S15), the distance from the image in which the detected landmark is shown to the landmark is measured (step S16). The self position is specified from the distance to the detected landmark and the position and orientation of the detected landmark (step S17).

RFIDタグから特定された位置範囲と,ランドマークから特定された自己位置とを照合し(ステップS18),特定された自己位置が特定された位置範囲内であれば(ステップS19),特定された自己位置を同定し(ステップS20),ロボット1は,同定された自己位置から初期位置に移動し(ステップS21),処理を終了する。   The position range specified from the RFID tag and the self-position specified from the landmark are collated (step S18). If the specified self-position is within the specified position range (step S19), the specified position range is specified. The self-position is identified (step S20), the robot 1 moves from the identified self-position to the initial position (step S21), and the process ends.

ステップS11において,RFIDタグが検出できなければ,ランドマーク検出処理を行う(ステップS22)。ランドマークが検出されれば(ステップS23),検出されたランドマークが写っている画像から,ランドマークまでの距離を計測する(ステップS24)。検出されたランドマークまでの距離と,検出されたランドマークの位置,方位とから,自己位置を特定する(ステップS25)。   If the RFID tag cannot be detected in step S11, a landmark detection process is performed (step S22). If the landmark is detected (step S23), the distance from the image in which the detected landmark is reflected to the landmark is measured (step S24). The self position is specified from the distance to the detected landmark and the position and orientation of the detected landmark (step S25).

自己位置の探索が失敗したかを判定し(ステップS26),自己位置の探索が失敗であれば,警報を鳴らすなどにより管理者に対して自己位置の探索ができなかった旨を告知し(ステップS27),管理者からの位置や方位の指示を受け(ステップS28),指示された位置を自己位置として同定し(ステップS20),同定された自己位置から初期位置に移動し(ステップS21),処理を終了する。自己位置の探索が失敗でなければ,ロボット1は,位置を修正し(ステップS29),ステップS10に戻って再度自己位置の回復にトライする。このとき,ステップS25で自己位置が特定できていれば,それをもとに位置を修正する。   It is determined whether or not the self-position search has failed (step S26). If the self-position search has failed, a notification is made to the administrator that the self-position could not be found by sounding an alarm or the like (step S26). S27), receiving an instruction of the position and orientation from the manager (step S28), identifying the designated position as a self-position (step S20), moving from the identified self-position to the initial position (step S21), The process ends. If the search for the self position is not a failure, the robot 1 corrects the position (step S29), returns to step S10, and tries to recover the self position again. At this time, if the self-position can be specified in step S25, the position is corrected based on that.

ステップS15において,ランドマークが検出できなければ,自己位置の探索が失敗したかを判定し(ステップS26),自己位置の探索が失敗であれば,警報を鳴らすなどにより管理者に対して自己位置の探索ができなかった旨を告知し(ステップS27),管理者からの位置や方位の指示を受け(ステップS28),指示された位置を自己位置として同定し(ステップS20),同定された自己位置から初期位置に移動し(ステップS21),処理を終了する。自己位置の探索が失敗でなければ,ロボット1は,位置を修正し(ステップS29),ステップS10に戻って再度自己位置の回復にトライする。   If the landmark cannot be detected in step S15, it is determined whether or not the self-position search has failed (step S26). If the self-position search has failed, an alarm is sounded to the administrator. (Step S27), receives an instruction of the position and direction from the administrator (step S28), identifies the designated position as a self-position (step S20), and identifies the identified self The position is moved from the position to the initial position (step S21), and the process is terminated. If the search for the self position is not a failure, the robot 1 corrects the position (step S29), returns to step S10, and tries to recover the self position again.

ステップS19において,特定された自己位置が特定された位置範囲内でなければ,自己位置の探索が失敗したかを判定し(ステップS26),自己位置の探索が失敗であれば,警報を鳴らすなどにより管理者に対して自己位置の探索ができなかった旨を告知し(ステップS27),管理者からの位置や方位の指示を受け(ステップS28),指示された位置を自己位置として同定し(ステップS20),同定された自己位置から初期位置に移動し(ステップS21),処理を終了する。自己位置の探索が失敗でなければ,ロボット1は,位置を修正し(ステップS29),ステップS10に戻って再度自己位置の回復にトライする。このとき,ステップS17で特定された自己位置をもとに,位置を修正する。   In step S19, if the specified self-position is not within the specified position range, it is determined whether the self-position search has failed (step S26). If the self-position search fails, an alarm is sounded, etc. To notify the administrator that the self-position could not be searched (step S27), receives an instruction of the position and orientation from the administrator (step S28), and identifies the instructed position as the self-position (step S28). In step S20), the identified position is moved to the initial position (step S21), and the process is terminated. If the search for the self position is not a failure, the robot 1 corrects the position (step S29), returns to step S10, and tries to recover the self position again. At this time, the position is corrected based on the self-position specified in step S17.

なお,自己位置の探索失敗の判定は,例えば“リトライ回数は5回まで”などの規定の条件が満たされたかを判定することにより行う。   The determination of the self-location search failure is performed by determining whether a prescribed condition such as “up to 5 retries” is satisfied.

図8は,ランドマーク検出処理フローチャートである。ロボット1は,ステレオカメラ30によって撮像された画像からのランドマークの検出を行う(ステップS30)。   FIG. 8 is a landmark detection processing flowchart. The robot 1 detects the landmark from the image captured by the stereo camera 30 (step S30).

ランドマークが検出されれば(ステップS31),検出されたランドマークの識別マークをもとに,ランドマーク情報記憶部107から検出されたランドマークの位置情報を取得し(ステップS32),検出されたランドマークの方位マークから方位を求め(ステップS33),処理を終了する。   If the landmark is detected (step S31), the detected landmark position information is acquired from the landmark information storage unit 107 based on the detected landmark identification mark (step S32). The orientation is obtained from the orientation mark of the landmark (step S33), and the process is terminated.

ランドマークが検出できなければ(ステップS31),ステレオカメラ30をパン・チルト回転し(ステップS34),ランドマークの検出が失敗でなければ(ステップS35),ステップS30に戻って,再度ランドマークの検出にトライする。ランドマークの検出が失敗であれば(ステップS35),ランドマークの検出ができなかったものとして,処理を終了する。   If the landmark cannot be detected (step S31), the stereo camera 30 is rotated by pan / tilt (step S34). If the landmark detection is not failed (step S35), the process returns to step S30, and the landmark is detected again. Try detection. If the landmark detection fails (step S35), it is determined that the landmark has not been detected, and the process ends.

なお,ランドマークの検出失敗の判定は,例えば“リトライ回数は5回まで”などの規定の条件が満たされたかを判定することにより行う。   Note that the landmark detection failure is determined by determining whether a prescribed condition such as “up to 5 retries” is satisfied.

以上のようなロボット自己位置回復処理は,ロボットが内蔵するコンピュータと,そのコンピュータが読み取り可能な記録媒体に記録されたソフトウェアプログラムとによって実現することができる。   The robot self-position recovery processing as described above can be realized by a computer built in the robot and a software program recorded on a recording medium readable by the computer.

本発明の実施の形態によるロボットの機能構成例を示す図である。It is a figure which shows the function structural example of the robot by embodiment of this invention. 本実施の形態によるロボットのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the robot by this Embodiment. RFIDタグ情報記憶部のデータ構造の例を示す図である。It is a figure which shows the example of the data structure of a RFID tag information storage part. ランドマークの例を示す図である。It is a figure which shows the example of a landmark. ランドマーク情報記憶部のデータ構造の例を示す図である。It is a figure which shows the example of the data structure of a landmark information storage part. 本実施の形態によるロボットの自己位置回復の概要を説明する図である。It is a figure explaining the outline | summary of the self-position recovery of the robot by this Embodiment. ロボット自己位置回復処理フローチャートである。It is a robot self-position recovery process flowchart. ランドマーク検出処理フローチャートである。It is a landmark detection process flowchart.

符号の説明Explanation of symbols

1 ロボット
10 ロボット位置制御部
11 CPU
12 メモリ
20 RFIDリーダ
30 ステレオカメラ
40 操作パネル
50 モータ
51 移動制御部
101 RFIDタグ検出部
102 位置特定部
103 RFIDタグ情報記憶部
104 ランドマーク検出部
105 ステレオ計測処理部
106 位置・方位特定部
107 ランドマーク情報記憶部
108 位置照合部
109 警報出力部
110 位置入力部
111 位置回復部
1 Robot 10 Robot Position Control Unit 11 CPU
DESCRIPTION OF SYMBOLS 12 Memory 20 RFID reader 30 Stereo camera 40 Operation panel 50 Motor 51 Movement control part 101 RFID tag detection part 102 Position specification part 103 RFID tag information storage part 104 Landmark detection part 105 Stereo measurement processing part 106 Position / azimuth specification part 107 Land Mark information storage unit 108 Position verification unit 109 Alarm output unit 110 Position input unit 111 Position recovery unit

Claims (5)

自律的に移動を行うための移動手段と,RFIDタグの情報を読み取るRFIDリーダと,ステレオ画像を撮像するステレオカメラとを備えたロボットが自己位置を喪失したときに自己位置を回復する機能を有するロボット位置制御装置であって,
ロボットの移動範囲に配置された複数のRFIDタグの情報と各RFIDタグの位置との対応情報を記憶するRFIDタグ情報記憶手段と,
ランドマークを一意に識別する識別情報とランドマークの位置との対応情報を記憶するランドマーク情報記憶手段と,
前記RFIDリーダによって検出されたRFIDタグの情報をもとに,検出されたRFIDタグの位置を前記RFIDタグ情報記憶手段から取得し,取得されたRFIDタグの位置をもとに,前記ロボットの自己位置の範囲である位置範囲を特定する位置範囲特定手段と,
前記ステレオカメラが撮像したステレオ画像から,ランドマークを検出するランドマーク検出手段と,
前記検出されたランドマークが写ったステレオ画像から,前記ロボットと前記検出されたランドマークとの間の距離を計測する距離計測手段と,
前記検出されたランドマークの識別情報をもとに,前記検出されたランドマークの位置を前記ランドマーク情報記憶手段から取得し,前記検出されたランドマークに記載された方位を示す情報をもとに方位を求め,取得されたランドマークの位置と,求められた方位と,前記計測されたランドマークとの間の距離とをもとに,前記ロボットの自己位置を特定する自己位置特定手段と,
前記特定された位置範囲と前記特定された自己位置とを照合し,前記特定された自己位置が前記特定された位置範囲内であると判断された場合に,前記特定された自己位置を同定する位置照合手段とを備える
ことを特徴とするロボット位置制御装置。
Has a function of recovering its own position when a robot equipped with a moving means for autonomously moving, an RFID reader that reads information from an RFID tag, and a stereo camera that captures a stereo image loses its own position A robot position control device,
RFID tag information storage means for storing correspondence information between information of a plurality of RFID tags arranged in the movement range of the robot and the position of each RFID tag;
Landmark information storage means for storing correspondence information between identification information for uniquely identifying the landmark and the position of the landmark;
Based on the information of the RFID tag detected by the RFID reader, the position of the detected RFID tag is acquired from the RFID tag information storage means, and the robot's self is acquired based on the acquired position of the RFID tag. A position range specifying means for specifying a position range which is a position range;
Landmark detection means for detecting a landmark from a stereo image captured by the stereo camera;
Distance measuring means for measuring a distance between the robot and the detected landmark from a stereo image including the detected landmark;
Based on the identification information of the detected landmark, the position of the detected landmark is acquired from the landmark information storage means, and based on the information indicating the orientation described in the detected landmark. Self-position specifying means for determining the self-position of the robot based on the obtained position of the landmark, the obtained direction and the distance between the measured landmark and ,
The specified position range is compared with the specified self-position, and when it is determined that the specified self-position is within the specified position range, the specified self-position is identified. A robot position control device comprising: a position matching unit.
請求項1に記載されたロボット位置制御装置において,
前記位置照合手段により自己位置を同定できない場合に,自己位置を同定できない旨の警報を出力する警報出力手段と,
管理者によって位置が入力された場合に,入力された位置を自己位置として同定する位置入力手段とを備える
ことを特徴とするロボット位置制御装置。
The robot position control device according to claim 1,
An alarm output means for outputting an alarm indicating that the self-position cannot be identified when the self-position cannot be identified by the position matching means;
A robot position control device comprising: position input means for identifying the input position as a self-position when the position is input by an administrator.
請求項1または請求項2に記載されたロボット位置制御装置において,
前記同定された自己位置をもとに,前記移動手段を制御することにより,前記ロボットをあらかじめ定められた初期位置または次にロボットが行うべき作業位置に移動させる位置回復手段を備える
ことを特徴とするロボット位置制御装置。
In the robot position control device according to claim 1 or 2,
And a position recovery means for moving the robot to a predetermined initial position or a work position to be performed next by the robot by controlling the moving means based on the identified self-position. Robot position control device.
自律的に移動を行うための移動手段と,RFIDタグの情報を読み取るRFIDリーダと,ステレオ画像を撮像するステレオカメラと,ロボットの移動範囲に配置された複数のRFIDタグの情報と各RFIDタグの位置との対応情報を記憶するRFIDタグ情報記憶手段と,ランドマークを一意に識別する識別情報とランドマークの位置との対応情報を記憶するランドマーク情報記憶手段とを備えたロボットが,自己位置を喪失したときに行うロボット自己位置回復方法であって,
前記ロボットが,
前記RFIDリーダによってRFIDタグの情報を検出する過程と,
前記検出されたRFIDタグの情報をもとに,前記RFIDタグ情報記憶手段から前記検出されたRFIDタグの位置を取得する過程と,
前記取得されたRFIDタグの位置をもとに,前記ロボットの自己位置の範囲である位置範囲を特定する過程と,
前記ステレオカメラが撮像したステレオ画像から,ランドマークを検出する過程と,
前記検出されたランドマークの識別情報をもとに,前記ランドマーク情報記憶手段から前記検出されたランドマークの位置を取得する過程と,
前記検出されたランドマークに記載された方位を示す情報をもとに,方位を求める過程と,
前記検出されたランドマークが写ったステレオ画像から,前記ロボットと前記検出されたランドマークとの間の距離を計測する過程と,
前記取得されたランドマークの位置と,前記求められた方位と,前記計測されたランドマークとの間の距離とをもとに,前記ロボットの自己位置を特定する過程と,
前記特定された位置範囲と前記特定された自己位置とを照合し,前記特定された自己位置が前記特定された位置範囲内であると判断された場合に,前記特定された自己位置を同定する過程を有する
ことを特徴とするロボット自己位置回復方法。
Movement means for autonomously moving, an RFID reader that reads information on the RFID tag, a stereo camera that captures a stereo image, information on a plurality of RFID tags arranged in the movement range of the robot, and information on each RFID tag A robot having RFID tag information storage means for storing correspondence information with a position, and landmark information storage means for storing identification information for uniquely identifying a landmark and correspondence information with the position of the landmark is self-positioning. Robot self-position recovery method performed when loss of
The robot
Detecting RFID tag information by the RFID reader;
Acquiring the position of the detected RFID tag from the RFID tag information storage means based on the information of the detected RFID tag;
Identifying a position range that is a range of the robot's own position based on the position of the acquired RFID tag;
Detecting a landmark from a stereo image captured by the stereo camera;
Acquiring the position of the detected landmark from the landmark information storage means based on the identification information of the detected landmark;
A process for obtaining an orientation based on information indicating the orientation described in the detected landmark;
Measuring a distance between the robot and the detected landmark from a stereo image including the detected landmark;
Identifying the position of the robot on the basis of the position of the acquired landmark, the determined azimuth, and the distance between the measured landmark;
The specified position range is compared with the specified self-position, and when it is determined that the specified self-position is within the specified position range, the specified self-position is identified. A robot self-position recovery method characterized by comprising a process.
請求項4記載のロボット自己位置回復方法において,
前記同定された自己位置をもとに,前記移動手段を制御することにより,前記ロボットをあらかじめ定められた初期位置または次にロボットが行うべき作業位置に移動させる位置回復過程を有する
ことを特徴とするロボット自己位置回復方法。
The robot self-position recovery method according to claim 4,
A position recovery process for moving the robot to a predetermined initial position or a work position to be performed next by the robot by controlling the moving means based on the identified self-position; Robot self-position recovery method.
JP2006073960A 2006-03-17 2006-03-17 Robot position control device and robot self-position recovery method Expired - Fee Related JP4369439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006073960A JP4369439B2 (en) 2006-03-17 2006-03-17 Robot position control device and robot self-position recovery method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006073960A JP4369439B2 (en) 2006-03-17 2006-03-17 Robot position control device and robot self-position recovery method

Publications (2)

Publication Number Publication Date
JP2007249735A true JP2007249735A (en) 2007-09-27
JP4369439B2 JP4369439B2 (en) 2009-11-18

Family

ID=38593938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006073960A Expired - Fee Related JP4369439B2 (en) 2006-03-17 2006-03-17 Robot position control device and robot self-position recovery method

Country Status (1)

Country Link
JP (1) JP4369439B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003240A (en) * 2008-06-23 2010-01-07 Fujitsu Ltd Rescue robot system, rescue method, and rescue robot
US8600603B2 (en) 2008-12-17 2013-12-03 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
WO2016093241A1 (en) * 2014-12-09 2016-06-16 旭化成株式会社 Position/orientation detection device and position/orientation detection program
JP2016162013A (en) * 2015-02-27 2016-09-05 株式会社日立製作所 Self position estimation device and mobile entity
JP2017054182A (en) * 2015-09-07 2017-03-16 ヤマハ発動機株式会社 Automatic travel vehicle and automatic travel system including the same
CN107037806A (en) * 2016-02-04 2017-08-11 科沃斯机器人股份有限公司 Self-movement robot re-positioning method and the self-movement robot using this method
JP2017168055A (en) * 2016-03-18 2017-09-21 本田技研工業株式会社 Unmanned travel work vehicle
JP2017168058A (en) * 2016-03-18 2017-09-21 本田技研工業株式会社 Unmanned travel work vehicle
JP2017188067A (en) * 2016-04-01 2017-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Autonomous mobile body
CN108362203A (en) * 2018-03-02 2018-08-03 中信重工开诚智能装备有限公司 A kind of automatic positioning detectable substance system and method for wheeled crusing robot
US10040195B2 (en) 2016-06-21 2018-08-07 International Business Machines Corporation Recognizing a location of a robot shared in multiple data centers
KR20200052464A (en) * 2018-10-31 2020-05-15 한국철도기술연구원 Guidance Robot and Method for Moving Route Using Indoor Location Positioning by Braille Block
WO2020137685A1 (en) * 2018-12-27 2020-07-02 ソニー株式会社 Control device, control method, program, and control system
JP2020160646A (en) * 2019-03-26 2020-10-01 三菱ロジスネクスト株式会社 Transportation system
CN111795701A (en) * 2020-07-09 2020-10-20 上海有个机器人有限公司 Remote recovery positioning method and device for robot
WO2021066343A1 (en) * 2019-10-02 2021-04-08 삼성전자주식회사 Mobile robot and control method therefor
CN113190380A (en) * 2021-04-25 2021-07-30 珠海格力电器股份有限公司 Equipment relocation error recovery method and device, computer equipment and storage medium
US11914363B2 (en) 2021-02-17 2024-02-27 Toyota Jidosha Kabushiki Kaisha Mobile robot, transport system, method, and computer-readable medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582011A (en) * 2017-09-29 2019-04-05 凌子龙 A kind of terrestrial reference robot system positioned and its terrestrial reference and robot and robot terrestrial reference localization method that use
KR102411312B1 (en) * 2020-02-20 2022-06-22 주식회사 트위니 3D reconstruction system and method for mobile site using mobile robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418611A (en) * 1990-05-11 1992-01-22 Nippon Sharyo Seizo Kaisha Ltd Unmanned vehicle controller
JPH06131047A (en) * 1992-10-19 1994-05-13 Daifuku Co Ltd Travelling speed controller for package carrier
JPH0879164A (en) * 1994-08-30 1996-03-22 Nippondenso Co Ltd Communication method for mobile object identification device
JP2000172337A (en) * 1998-12-07 2000-06-23 Mitsubishi Electric Corp Autonomous mobile robot
JP2000214926A (en) * 1999-01-22 2000-08-04 Sogo Keibi Hosho Co Ltd Travel position detecting means for autonomous mobile
JP2002211709A (en) * 2001-01-12 2002-07-31 Murata Mach Ltd Position recognition system for carriage
JP2004021978A (en) * 2002-06-12 2004-01-22 Samsung Electronics Co Ltd Recognition device and method for position and direction of mobile robot
JP2004110802A (en) * 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2004230539A (en) * 2003-02-03 2004-08-19 National Institute Of Advanced Industrial & Technology Method and device for detecting position and attitude of object by robot
JP2006048614A (en) * 2004-08-02 2006-02-16 Yamaha Motor Co Ltd Unmanned drive traveling vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418611A (en) * 1990-05-11 1992-01-22 Nippon Sharyo Seizo Kaisha Ltd Unmanned vehicle controller
JPH06131047A (en) * 1992-10-19 1994-05-13 Daifuku Co Ltd Travelling speed controller for package carrier
JPH0879164A (en) * 1994-08-30 1996-03-22 Nippondenso Co Ltd Communication method for mobile object identification device
JP2000172337A (en) * 1998-12-07 2000-06-23 Mitsubishi Electric Corp Autonomous mobile robot
JP2000214926A (en) * 1999-01-22 2000-08-04 Sogo Keibi Hosho Co Ltd Travel position detecting means for autonomous mobile
JP2002211709A (en) * 2001-01-12 2002-07-31 Murata Mach Ltd Position recognition system for carriage
JP2004021978A (en) * 2002-06-12 2004-01-22 Samsung Electronics Co Ltd Recognition device and method for position and direction of mobile robot
JP2004110802A (en) * 2002-08-26 2004-04-08 Sony Corp Device, method for identifying environment, program, recording medium and robot device
JP2004230539A (en) * 2003-02-03 2004-08-19 National Institute Of Advanced Industrial & Technology Method and device for detecting position and attitude of object by robot
JP2006048614A (en) * 2004-08-02 2006-02-16 Yamaha Motor Co Ltd Unmanned drive traveling vehicle

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003240A (en) * 2008-06-23 2010-01-07 Fujitsu Ltd Rescue robot system, rescue method, and rescue robot
US8600603B2 (en) 2008-12-17 2013-12-03 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
JPWO2016093241A1 (en) * 2014-12-09 2017-09-21 旭化成株式会社 Position / orientation detection device and position / orientation detection program
WO2016093241A1 (en) * 2014-12-09 2016-06-16 旭化成株式会社 Position/orientation detection device and position/orientation detection program
US10451424B2 (en) 2014-12-09 2019-10-22 Asahi Kasei Kabushiki Kaisha Position and azimuth detecting device
US9881379B2 (en) 2015-02-27 2018-01-30 Hitachi, Ltd. Self-localization device and movable body
JP2016162013A (en) * 2015-02-27 2016-09-05 株式会社日立製作所 Self position estimation device and mobile entity
JP2017054182A (en) * 2015-09-07 2017-03-16 ヤマハ発動機株式会社 Automatic travel vehicle and automatic travel system including the same
CN107037806A (en) * 2016-02-04 2017-08-11 科沃斯机器人股份有限公司 Self-movement robot re-positioning method and the self-movement robot using this method
JP2017168055A (en) * 2016-03-18 2017-09-21 本田技研工業株式会社 Unmanned travel work vehicle
JP2017168058A (en) * 2016-03-18 2017-09-21 本田技研工業株式会社 Unmanned travel work vehicle
CN107203206A (en) * 2016-03-18 2017-09-26 本田技研工业株式会社 Unmanned traveling Operation Van
CN107203207A (en) * 2016-03-18 2017-09-26 本田技研工业株式会社 Unmanned traveling Operation Van
JP2017188067A (en) * 2016-04-01 2017-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Autonomous mobile body
US10040195B2 (en) 2016-06-21 2018-08-07 International Business Machines Corporation Recognizing a location of a robot shared in multiple data centers
CN108362203A (en) * 2018-03-02 2018-08-03 中信重工开诚智能装备有限公司 A kind of automatic positioning detectable substance system and method for wheeled crusing robot
KR20200052464A (en) * 2018-10-31 2020-05-15 한국철도기술연구원 Guidance Robot and Method for Moving Route Using Indoor Location Positioning by Braille Block
KR102168458B1 (en) * 2018-10-31 2020-10-21 한국철도기술연구원 Guidance Robot and Method for Moving Route Using Indoor Location Positioning by Braille Block
WO2020137685A1 (en) * 2018-12-27 2020-07-02 ソニー株式会社 Control device, control method, program, and control system
JP2020160646A (en) * 2019-03-26 2020-10-01 三菱ロジスネクスト株式会社 Transportation system
WO2021066343A1 (en) * 2019-10-02 2021-04-08 삼성전자주식회사 Mobile robot and control method therefor
EP4019205A4 (en) * 2019-10-02 2022-11-09 Samsung Electronics Co., Ltd. Mobile robot and control method therefor
US11564348B2 (en) 2019-10-02 2023-01-31 Samsung Electronics Co., Ltd. Moving robot and method of controlling the same
CN111795701A (en) * 2020-07-09 2020-10-20 上海有个机器人有限公司 Remote recovery positioning method and device for robot
CN111795701B (en) * 2020-07-09 2022-06-21 上海有个机器人有限公司 Remote recovery positioning method and device for robot
US11914363B2 (en) 2021-02-17 2024-02-27 Toyota Jidosha Kabushiki Kaisha Mobile robot, transport system, method, and computer-readable medium
CN113190380A (en) * 2021-04-25 2021-07-30 珠海格力电器股份有限公司 Equipment relocation error recovery method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP4369439B2 (en) 2009-11-18

Similar Documents

Publication Publication Date Title
JP4369439B2 (en) Robot position control device and robot self-position recovery method
KR101948728B1 (en) Method and system for collecting data
KR101782057B1 (en) Apparatus for building map and method thereof
Atia et al. A low-cost lane-determination system using GNSS/IMU fusion and HMM-based multistage map matching
KR101072876B1 (en) Method and apparatus for estimating position in a mobile robot
US8781732B2 (en) Apparatus and method for recognizing position of moving object
CN105486311A (en) Indoor robot positioning navigation method and device
EP2017573B1 (en) Estimation device, estimation method and estimation program for estimating a position of mobile unit
EP2495632A1 (en) Map generating and updating method for mobile robot position recognition
KR20170088228A (en) Map building system and its method based on multi-robot localization
JP5016399B2 (en) Map information creation device and autonomous mobile device equipped with the map information creation device
JP2012084149A (en) Navigation of mobile divice
EP2049308A1 (en) System and method for calculating location using a combination of odometry and landmarks
KR101341204B1 (en) Device and method for estimating location of mobile robot using raiser scanner and structure
KR102006291B1 (en) Method for estimating pose of moving object of electronic apparatus
JP2005315746A (en) Own position identifying method, and device therefor
JP2011150443A (en) Robot and robot system
KR20090025822A (en) Method and position data generator for self-localization of robot by using landmark and wireless lan, and robot by using same
Fairfield et al. Mobile robot localization with sparse landmarks
JP2009070357A (en) Guiding system for mobile body
JP4462173B2 (en) Autonomous mobile device
JP2009052924A (en) Mobile system
US9014964B2 (en) Navigation apparatus capable of providing real-time navigation images
US20190094025A1 (en) Apparatus and method for localising a vehicle
Lee et al. Robust self-localization of ground vehicles using artificial landmark

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090827

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130904

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees