JP2003345438A - Mobile robot - Google Patents

Mobile robot

Info

Publication number
JP2003345438A
JP2003345438A JP2002156371A JP2002156371A JP2003345438A JP 2003345438 A JP2003345438 A JP 2003345438A JP 2002156371 A JP2002156371 A JP 2002156371A JP 2002156371 A JP2002156371 A JP 2002156371A JP 2003345438 A JP2003345438 A JP 2003345438A
Authority
JP
Japan
Prior art keywords
mobile robot
information
map
map information
furniture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002156371A
Other languages
Japanese (ja)
Inventor
Shintaro Kumano
信太郎 熊野
Masahito Takuhara
雅人 宅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002156371A priority Critical patent/JP2003345438A/en
Publication of JP2003345438A publication Critical patent/JP2003345438A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile robot that modifies map information by itself without depending on a human being to modify the map information every time if a position occupied by the object is frequently changed. <P>SOLUTION: The mobile robot 1 keeps an interim map information for the deployment of objects, detects an inaccurate data within the interim map information due to the mobile robot movement (S4-Y), measures the object, the position of which corresponds to the inaccurate data, and modifies the foregoing interim map on the basis of the foregoing measurement. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、移動ロボットに関
し、特に移動ロボットが有する地図情報を自らが修正す
ることができる移動ロボットに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot, and more particularly to a mobile robot capable of correcting map information of the mobile robot.

【0002】[0002]

【従来の技術】自分の周りの環境を自分の持つ各種セン
サにより検出し、移動する移動ロボットが知られてい
る。このような移動ロボットは、自分のセンサで障害物
の検出、目標対象の判断(主人の識別)などをする機能
を有する。また、移動ロボットは、移動経路を判断しな
がら離れた目標に移動することができる。移動ロボット
が目標に移動する場合、自分が記憶している地図と、自
分のセンサで検出できる情報から移動経路を決定する場
合がある。一度決定した移動経路上に障害物がある場合
は、障害物を検出した時点で移動経路を修正しながら目
標へ移動する。
2. Description of the Related Art There is known a mobile robot which moves by detecting its surrounding environment by various sensors provided by the user. Such a mobile robot has a function of detecting an obstacle with its own sensor, determining a target object (identifying a master), and the like. In addition, the mobile robot can move to a distant target while judging the movement route. When a mobile robot moves to a target, a mobile route may be determined from a map stored by the mobile robot and information that can be detected by its own sensor. If there is an obstacle on the once determined moving route, the robot moves to the target while correcting the moving route when the obstacle is detected.

【0003】上記において、移動ロボットが記憶してお
くべき地図は、当該移動ロボットが用いられる場所の地
図であり、例えば、一般家庭などに用いられる場合に
は、その部屋における家具の配置を含むレイアウトの情
報が移動ロボットに記憶されている必要がある。
[0003] In the above description, the map to be stored by the mobile robot is a map of a place where the mobile robot is used. For example, when the mobile robot is used in a general home or the like, a layout including furniture arrangement in the room is used. Must be stored in the mobile robot.

【0004】ここで、移動ロボットに記憶される地図
は、事前に人間によって定義された地図であることが
考えられる。もしくは、移動ロボットがその部屋等を
実際に移動してぶつかった(行けなかった)場所を記憶
していくことで、その部屋の地図を構成することが考え
られる。
Here, the map stored in the mobile robot may be a map defined by a human in advance. Alternatively, it is conceivable that a map of the room is constructed by storing a place where the mobile robot actually moves in the room or the like and hits (is not able to go).

【0005】上記では、例えば一般家庭において、ベ
ッドやたんすなど、ほとんど移動しない家具へは対応で
きるものの、CDケースや雑誌受け、カラーBOX等比
較的頻繁に設置位置が変わる(模様替えする)ものにつ
いては、その都度人間が入力し直さないといけないとい
う問題があった。
[0005] In the above, for example, in a general home, furniture that hardly moves, such as a bed or a wardrobe, can be used, but a CD case, a magazine tray, a color BOX, or the like whose installation position changes (changes pattern) relatively frequently, such as a case. However, there is a problem that a human has to re-input each time.

【0006】上記では、移動ロボットが行けない範囲
の境界を地図上に完成させるためには、その部屋等の壁
際を伝わり移動する等の不自然かつ邪魔になる運動をそ
の移動ロボットが行う必要があった。移動ロボットが実
際に移動して行けなかったと認識(検出)するのは、点
(局所的な場所)の情報でしか無いため、移動ロボット
が行けない範囲(エリア)を決定するには、その点を複
数集めて輪郭を形成する必要がある。
[0006] In the above, in order to complete the boundary of the range where the mobile robot cannot go on the map, it is necessary for the mobile robot to perform an unnatural and obstructive motion such as moving along the wall of the room or the like. there were. Recognition (detection) that the mobile robot could not actually move and could not go is based only on the information of the point (local place), so in order to determine the area (area) where the mobile robot can not go, the point Must be collected to form a contour.

【0007】移動ロボットが日常的な動作の中で、自ら
が有する地図情報を修正できることが望まれている。比
較的頻繁に位置が変わる物体がある場合に、その位置が
変わるたびに人間が地図情報を修正することなく移動ロ
ボットが自ら地図情報を修正できることが望まれてい
る。移動ロボットが効率良く自ら地図情報を修正できる
ことが望まれている。移動ロボットが人間(主人)の指
令に従う行動に影響を与えることなく、精度の良い地図
情報が得られることが望まれている。
It is desired that a mobile robot can correct its own map information in daily operations. If there is an object whose position changes relatively frequently, it is desired that the mobile robot can correct the map information by itself without the human having to correct the map information every time the position changes. It is desired that a mobile robot can efficiently correct map information by itself. It is desired that accurate map information can be obtained without affecting the behavior of the mobile robot according to the command of the human (master).

【0008】[0008]

【発明が解決しようとする課題】本発明の目的は、移動
ロボットが日常的な動作の中で、自らが有する地図情報
を修正できる移動ロボットを提供することにある。本発
明の他の目的は、比較的頻繁に位置が変わる物体がある
場合に、その位置が変わるたびに人間が地図情報を修正
することなく移動ロボットが自ら地図情報を修正できる
移動ロボットを提供することにある。本発明の更に他の
目的は、移動ロボットが効率良く自ら地図情報を修正で
きる移動ロボットを提供することにある。本発明の更に
他の目的は、移動ロボットが人間(主人)の指令に従う
行動に影響を与えることなく、精度の良い地図情報が得
られることができる移動ロボットを提供することにあ
る。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile robot which can correct its own map information in a daily operation. Another object of the present invention is to provide a mobile robot in which, when there is an object whose position changes relatively frequently, the mobile robot can correct the map information by itself without a human correcting the map information every time the position changes. It is in. Still another object of the present invention is to provide a mobile robot that can efficiently correct map information by itself. Still another object of the present invention is to provide a mobile robot capable of obtaining accurate map information without affecting the behavior of the mobile robot according to a command of a human (master).

【0009】[0009]

【課題を解決するための手段】以下に、[発明の実施の
形態]で使用する番号・符号を用いて、課題を解決する
ための手段を説明する。これらの番号・符号は、[特許
請求の範囲]の記載と[発明の実施の形態]の記載との
対応関係を明らかにするために付加されたものである
が、[特許請求の範囲]に記載されている発明の技術的
範囲の解釈に用いてはならない。
Means for solving the problem will be described below using the numbers and symbols used in the embodiments of the present invention. These numbers and symbols are added to clarify the correspondence between the description of [Claims] and the description of [Embodiments of the Invention]. It should not be used to interpret the technical scope of the described invention.

【0010】本発明の移動ロボット(1)は、物体の配
置に関する仮の地図情報を有する移動ロボット(1)で
あって、前記移動ロボット(1)は、前記移動ロボット
(1)の移動により前記仮の地図情報に不正確な部分が
あることを検出したとき(S4−Y)に、前記不正確な
部分に対応する前記物体を計測し、前記計測の結果に基
づいて、前記仮の地図情報を修正する。
A mobile robot (1) according to the present invention is a mobile robot (1) having temporary map information relating to an arrangement of an object, and the mobile robot (1) is moved by the mobile robot (1). When detecting that there is an incorrect portion in the provisional map information (S4-Y), the object corresponding to the incorrect portion is measured, and the provisional map information is measured based on the measurement result. To correct.

【0011】本発明の移動ロボット(1)において、前
記仮の地図情報は、前記移動ロボット(1)の移動範囲
に置かれ得る標準的な前記物体のサイズ及び配置場所の
少なくとも一方が格納されたデータベース(91)の情
報に基づいて作成される。
[0011] In the mobile robot (1) of the present invention, the temporary map information stores at least one of a standard size and an arrangement location of the standard object that can be placed in a movement range of the mobile robot (1). It is created based on the information of the database (91).

【0012】本発明の移動ロボット(1)において、前
記仮の地図情報には、長期的にその位置が固定される前
記物体の情報が登録されている。
[0012] In the mobile robot (1) of the present invention, information of the object whose position is fixed for a long term is registered in the temporary map information.

【0013】本発明の移動ロボット(1)において、前
記移動ロボット(1)が前記仮の地図情報を修正すると
きには、前記計測の結果に基づいて、前記仮の地図情報
に含まれる前記物体のサイズ及び位置の少なくとも一方
の情報を修正する。
In the mobile robot (1) of the present invention, when the mobile robot (1) corrects the temporary map information, the size of the object included in the temporary map information is determined based on the measurement result. And at least one of the position information is corrected.

【0014】本発明の移動ロボット(1)において、前
記仮の地図情報には、前記仮の地図情報に含まれる前記
物体が実際の状況と合致している可能性の高さを示す情
報が含まれている。
[0014] In the mobile robot (1) of the present invention, the temporary map information includes information indicating a high possibility that the object included in the temporary map information matches an actual situation. Have been.

【0015】本発明の移動ロボット(1)において、前
記仮の地図情報のうち前記修正された前記物体は、前記
情報において、前記可能性の高さが低く設定される。
[0015] In the mobile robot (1) of the present invention, the possibility of the corrected object in the temporary map information is set low in the information.

【0016】本発明の移動ロボット(1)において、前
記仮の地図情報に登録された前記長期的にその位置が固
定される前記物体は、前記情報において、前記可能性の
高さが高く設定される。
[0016] In the mobile robot (1) of the present invention, the object registered in the temporary map information whose position is fixed for a long time has a high possibility of being set in the information. You.

【0017】本発明の移動ロボット(1)において、前
記移動ロボット(1)は、前記可能性の高さが低い前記
物体を計測し、前記計測の結果に基づいて、前記可能性
の高さが低い前記物体に関する前記仮の地図情報を修正
する。
[0017] In the mobile robot (1) of the present invention, the mobile robot (1) measures the object having a low possibility, and based on the result of the measurement, determines the height of the possibility. Modify the temporary map information for the low object.

【0018】本発明の移動ロボット(1)において、前
記移動ロボット(1)は、所定時間の間、指令を受けな
いとき(S31−Y)に、前記可能性の高さが低い前記
物体を計測し、前記計測の結果に基づいて、前記可能性
の高さが低い前記物体に関する前記仮の地図情報を修正
する。
In the mobile robot (1) of the present invention, when the mobile robot (1) does not receive a command for a predetermined time (S31-Y), it measures the object having a low possibility. Then, based on the result of the measurement, the temporary map information relating to the object having a low possibility is corrected.

【0019】ロボットは、家庭内に置かれ得る標準的な
家具のサイズのみ、もしくはほとんど移動しないベッド
等の位置を事前情報として要求する。これにより、移動
の頻繁な小型家具を都度人間が入力するという手間がか
からない。
The robot requests only standard furniture size that can be placed in the home or the position of a bed or the like that hardly moves as prior information. This eliminates the need for a human to input small furniture that is frequently moved each time.

【0020】ロボットは、家庭内に置かれ得る標準的な
家具のサイズを知識として持ち、試行錯誤の動きの中で
ぶつかった(行けなかった)場合にはその場所に標準サ
イズの家具がある、という仮定を作成してMAP上に置
く。これにより、上述のように家具の境界を抽出する
ための伝わり移動等の不自然な動きが不要となる。
The robot has knowledge of the size of standard furniture that can be placed in the home, and if it encounters (cannot go) in a trial and error movement, there is standard size furniture at that location. Is created and placed on the MAP. This eliminates the need for unnatural movements such as transmission movements for extracting furniture boundaries as described above.

【0021】試行錯誤の動きの中で、仮定して配置した
家具のサイズと矛盾する衝突(あるべきところに家具の
エッジが無かった、無い筈のところにあった等)を検知
すると、その仮定の修正を行う。仮定の修正は、(a)
家具位置の修正、(b)家具サイズの修正、(c)自己
位置の修正がある。
In the course of trial and error, when a collision that is inconsistent with the size of the furniture that is supposed to be placed (there was no furniture edge where it should have been, or it should have been missing, etc.), the assumption was made. Make corrections. The correction of the assumption is (a)
Furniture position correction, (b) furniture size correction, and (c) self-position correction.

【0022】上記(a)、(b)、(c)をどういう方
針で採用するかは色々あるが、基本的には移動ロボット
が保有する外界認識能力と関連付けて行う。すなわち、
移動ロボットに視覚センサがあり、対象のサイズが推定
できる場合には、その推定結果に基づいて自分の持って
いるサイズの知識を修正すべきかをまずチェックする。
但し、視覚センサでは、物の影等とその物自身との判別
が難しく、誤検知が起き易い。そこで、天井などに移動
ロボットが自己位置を確認するためのマーク(部屋の位
置と自分の位置との紐付け用のマーク)等があり、それ
を利用できる場合(例えば、部屋の天井に、メッシュ状
に区分けされてなりシリアル番号が割り当てられた複数
の区画が設けられており、移動ロボットが移動中に何か
にぶつかった場合に、その場所の真上に対応する天井の
区画のシリアル番号から位置を検出する)には、自己位
置をチェックする、等である。家具にバーコードのよう
に情報(サイズ、種類、重さ等)を含んだIDタグが付
いている場合には、移動ロボットがぶつかった家具の情
報と自己のMAPの最も整合のとれない情報は何かを評
価することが考えられる。
There are various ways to adopt the above (a), (b), and (c), but basically, it is performed in association with the external recognition ability possessed by the mobile robot. That is,
If the mobile robot has a visual sensor and the size of the target can be estimated, it is first checked whether the knowledge of the size of the mobile robot should be corrected based on the estimation result.
However, with a visual sensor, it is difficult to distinguish a shadow of an object from the object itself, and erroneous detection is likely to occur. Therefore, there is a mark on the ceiling etc. for the mobile robot to confirm its own position (a mark for linking the position of the room to its own position), etc., and if it can be used (for example, a mesh on the ceiling of the room, If the mobile robot collides with something while moving, it will be divided into a plurality of sections with a serial number assigned to it. To detect the position), the self-position is checked, and the like. If the furniture has an ID tag containing information (size, type, weight, etc.), such as a barcode, the information on the furniture that the mobile robot collided with the information on the most inconsistent MAP of its own MAP is It is possible to evaluate something.

【0023】[0023]

【発明の実施の形態】添付図面を参照して、本発明によ
る移動ロボットシステムの実施の形態が以下に説明され
る。なお、本実施形態に関連する技術が、本発明者によ
る特願2002−101319号に示されている。
Embodiments of a mobile robot system according to the present invention will be described below with reference to the accompanying drawings. A technique related to the present embodiment is disclosed in Japanese Patent Application No. 2002-101319 by the present inventor.

【0024】図6に本実施形態の移動ロボットシステム
の構成が示される。本実施形態の移動ロボットシステム
は、例えば、一般家庭の生活支援又は介護等として用い
られることができる。本実施形態の移動ロボットシステ
ムは、移動ロボット1と固定センサ2で構成される。
FIG. 6 shows the configuration of the mobile robot system according to the present embodiment. The mobile robot system according to the present embodiment can be used, for example, as living support or nursing care for a general household. The mobile robot system according to the present embodiment includes a mobile robot 1 and a fixed sensor 2.

【0025】移動ロボット1は、自分の周りの状況を判
断するためのセンサ群10、表現機構20、移動するま
たは物を掴むための動作機構30、入力情報処理機構4
0、行動情報処理機構41、通信情報処理機構42を備
える。
The mobile robot 1 has a sensor group 10 for judging a situation around the mobile robot 1, an expression mechanism 20, an operation mechanism 30 for moving or grasping an object, and an input information processing mechanism 4.
0, a behavior information processing mechanism 41, and a communication information processing mechanism 42.

【0026】センサ群10は、自分の周りの状況を判断
するためのセンサで、カメラ11、超音波距離計12、
音声感知機、赤外線探知機、アーム等に取付けられる重
量感知機等に代表される。センサ群10は、センサで検
出した情報を入力情報処理機構40へ送信する。
The sensor group 10 is a sensor for judging a situation around the user, and includes a camera 11, an ultrasonic distance meter 12,
It is represented by a voice detector, an infrared detector, a weight detector attached to an arm or the like. The sensor group 10 transmits information detected by the sensor to the input information processing mechanism 40.

【0027】表現機構20は、固定センサ2に自分の位
置を検出してもらうため、もしくは主人に自分の位置や
情報を伝えるために表現する機構で、LED21に代表
される発光器や音声発信機22等に代表される。具体的
には、移動ロボット1が頭頂部のLED21を発光させ
ることで、固定センサ2に自分の位置を知らせる場合で
ある。また、表現機構20として、液晶画面による文字
や図形の表示、アームや移動ロボットの部位の動きによ
る表現機構も使用できる。表現機構20は、行動情報処
理機構41の指令により表現行動を実施する。
An expression mechanism 20 is a mechanism for causing the fixed sensor 2 to detect its own position or for transmitting its own position and information to the master. 22 mag. Specifically, this is a case where the mobile robot 1 notifies the fixed sensor 2 of its own position by causing the LED 21 at the top of the head to emit light. Further, as the expression mechanism 20, an expression mechanism based on movement of an arm or a part of a mobile robot can be used, such as display of characters and figures on a liquid crystal screen. The expression mechanism 20 performs an expression action according to a command from the action information processing mechanism 41.

【0028】動作機構30は、移動ロボットが移動する
ための手段、物を掴んだり保持したりする手段で、アー
ム31、脚32、車輪、キャタピラ等に代表される。さ
らに、センサ群10の向きを変えるための動作(例え
ば、首を回してカメラ11が撮影する範囲を変える動
作)を行なう場合もある。動作機構30は、行動情報処
理機構41の指令により動作を実施する。
The operation mechanism 30 is a means for the mobile robot to move, a means for grasping or holding an object, and is represented by an arm 31, a leg 32, a wheel, a caterpillar and the like. Furthermore, an operation for changing the direction of the sensor group 10 (for example, an operation of turning the neck to change the range where the camera 11 captures an image) may be performed. The operation mechanism 30 performs an operation according to a command from the behavior information processing mechanism 41.

【0029】入力情報処理機構40は、情報処理を行な
う装置でコンピュータに代表される。入力情報処理機構
40は、センサ群10および固定センサ2からの情報を
受信し、処理して、行動情報処理機構41へ情報を送信
する。具体的には、カメラ11の映像から映っている人
間の個人認証(誰であるかの判断)や障害物の有無や位
置の検出、超音波距離計12の情報から障害物までの距
離や位置の計測、音声感知機の情報から自分が呼ばれて
いることの感知または誰の声かの判断等のための処理を
することができる。
The input information processing mechanism 40 is a device for performing information processing, and is represented by a computer. The input information processing mechanism 40 receives and processes information from the sensor group 10 and the fixed sensor 2, and transmits the information to the behavior information processing mechanism 41. More specifically, the personal identification of a person (judgment of who) is detected from the image of the camera 11, the presence / absence and position of an obstacle, and the distance and position of the obstacle from the information of the ultrasonic rangefinder 12. Measurement, the detection of the person being called from the information of the voice sensor, the determination of the voice of the user, and the like.

【0030】行動情報処理機構41は、情報処理を行な
う装置で、コンピュータに代表される。行動情報処理機
構41は、入力情報処理機構40および固定センサ2か
らの情報により動作計画を決定し、動作機構30に動作
指令を送信する。また、行動情報処理機構41は移動ロ
ボット1が移動する範囲の地図を記憶し、移動実績のデ
ータから自分の位置データを更新しながら自分の現在の
位置を把握している。また、図1から図4を参照して後
述するように、行動情報処理機構41は、自らが地図の
データ(情報)を修正することができる。さらに、固定
センサ2からの情報を通信情報処理機構42を介して入
手し、記憶している地図のデータを更新することができ
る。さらに、何らかの情報が必要となった場合、入力情
報処理機構40を介してセンサ群10へ、または、通信
情報処理機構42を介して固定センサ2へ必要な情報を
入手するように指令を与えることができる。
The behavior information processing mechanism 41 is a device for performing information processing, and is represented by a computer. The behavior information processing mechanism 41 determines an operation plan based on information from the input information processing mechanism 40 and the fixed sensor 2, and transmits an operation command to the operation mechanism 30. Further, the behavior information processing mechanism 41 stores a map of a range in which the mobile robot 1 moves, and grasps its own current position while updating its own position data from the data of the movement result. Further, as described later with reference to FIGS. 1 to 4, the behavior information processing mechanism 41 can correct the map data (information) by itself. Further, information from the fixed sensor 2 can be obtained via the communication information processing mechanism 42, and the stored map data can be updated. Further, when any information is needed, a command is issued to the sensor group 10 via the input information processing mechanism 40 or to the fixed sensor 2 via the communication information processing mechanism 42 so as to obtain necessary information. Can be.

【0031】通信情報処理機構42は、固定センサ2と
通信をする通信機である。通信情報処理機構42は、固
定センサ2から、自分の周りの状況や移動経路上の情
報、主人の位置、主人の状況等の情報を受信し、移動ロ
ボットの入力情報処理機構40、行動情報処理機構41
へ送信する。その他、固定センサ2との間で必要な情報
の送受信を行なう。
The communication information processing mechanism 42 is a communication device for communicating with the fixed sensor 2. The communication information processing mechanism 42 receives, from the fixed sensor 2, information about the situation around the subject, the information on the moving route, the position of the master, the status of the master, and the like. Mechanism 41
Send to In addition, necessary information is transmitted to and received from the fixed sensor 2.

【0032】ここで、行動情報処理機構41に記憶され
る上記地図について説明する。図5に示すように、移動
ロボット1は、自己が移動する部屋の内部の上記地図の
データを例えば平面図を示すデータとして有している。
図5の地図において、符号81は、その部屋を示し、丸
印は移動ロボット1の位置を示し、符号82、83の四
角印は、それぞれ家具の配置と大きさを示している。
Here, the map stored in the behavior information processing mechanism 41 will be described. As shown in FIG. 5, the mobile robot 1 has the above-mentioned map data inside the room in which the mobile robot 1 moves, for example, as data showing a plan view.
In the map of FIG. 5, reference numeral 81 indicates the room, circles indicate the position of the mobile robot 1, and squares 82 and 83 indicate the arrangement and size of furniture, respectively.

【0033】上記地図は、移動ロボット1が学習するこ
とにより適宜修正される。以下に、図1を参照して、そ
の地図情報の修正について説明する。なお、図1は、通
常時の機能フローを示している。ここで、通常時とは、
図4を参照して後述するように、移動ロボット1に対し
て所定時間、指令が無く移動ロボット1が積極学習を行
う場合を除いた時間帯を意味する。
The above map is appropriately modified by learning by the mobile robot 1. Hereinafter, the correction of the map information will be described with reference to FIG. FIG. 1 shows a function flow in a normal state. Here, the normal time is
As described later with reference to FIG. 4, this means a time period excluding a case where there is no command for the mobile robot 1 and the mobile robot 1 performs active learning without a command.

【0034】ステップS1に示すように、行動情報処理
機構41に記憶される上記地図の作成に際しては、事前
にMAP用データベース91が作成されている。MAP
用データベース91では、家庭に置かれ得る標準的な家
具のサイズ、配置場所(窓際、壁際、部屋の中央部な
ど)に関する一般的な情報が格納されている。また、M
AP用データベース91には、その移動ロボット1が導
入される家庭にある家具のサイズなど、当該家庭(移動
ロボット1が導入される対象)に特化した情報が格納さ
れている。そのMAP用データベース91は、移動ロボ
ット1が保有している。
As shown in step S1, when the above-mentioned map stored in the behavior information processing mechanism 41 is created, the MAP database 91 is created in advance. MAP
The database 91 stores general information on the size and location of standard furniture that can be placed at home (by windows, by walls, in the center of rooms, etc.). Also, M
The AP database 91 stores information specific to the home (the target where the mobile robot 1 is introduced), such as the size of furniture in the home where the mobile robot 1 is introduced. The MAP database 91 is held by the mobile robot 1.

【0035】次に、上記MAP用データベース91を用
いるとともに、その移動ロボット1が導入される家庭に
ある家具のうち長期的に設置位置が固定され移動される
ことが無い家具(ベッドなど)の位置を登録することに
より、行動情報処理機構41に事前地図が登録される
(ステップS2)。
Next, while using the MAP database 91, the position of furniture (such as a bed) which is fixed and is not moved for a long time among furniture in the home where the mobile robot 1 is introduced. Is registered in the action information processing mechanism 41 (step S2).

【0036】より具体的には、ステップS2の事前地図
の作成に際して、MAP用データベース91の上記一般
的な情報は、次のように用いられる。即ち、移動ロボッ
ト1は、一般家庭内に置かれ得る標準的な家具のサイズ
及び配置場所を上記MAP用データベース91に知識と
して持っている。そして、事前地図の作成に際しては、
移動ロボット1は、初期設定用として、部屋等で試行錯
誤の動きを行い、ぶつかった(行けなかった)場合に
は、その場所に、MAP用データベース91に格納され
た標準サイズの家具がある、という仮定をして、事前地
図上に置く。これにより、上記のように家具の境界を
抽出するための伝わり移動等の不自然な動きが不要とな
る。この事前地図は、仮の地図であり、移動ロボット1
が次に述べるように学習を繰り返すことにより、精度の
高い地図情報に更新されていく。
More specifically, the above-mentioned general information in the MAP database 91 is used as follows when creating the preliminary map in step S2. In other words, the mobile robot 1 has the size and location of standard furniture that can be placed in a general household as knowledge in the MAP database 91. And when creating the pre-map,
The mobile robot 1 performs a trial and error movement in a room or the like for initial setting, and when it hits (fails to go), there is a standard size furniture stored in the MAP database 91 at that location. And put it on the map in advance. This eliminates the need for unnatural movements such as transmission movements for extracting furniture boundaries as described above. This preliminary map is a temporary map, and the mobile robot 1
Is updated to highly accurate map information by repeating learning as described below.

【0037】上記事前地図が作成された後、ステップS
3に示すように、移動ロボット1は、その部屋等での移
動動作を行う。次いで、ステップS4に示すように、移
動ロボット1は、その移動動作の過程又はその移動動作
の結果において、現在、移動ロボット1の行動情報処理
機構41に登録されている地図(ここでは上記事前地
図)との矛盾(情報の不一致)があるか否かを判定す
る。その判定の結果、矛盾が無いと判定された場合に
は、ステップS3に戻り、移動動作を繰り返す。
After the advance map is created, step S
As shown in FIG. 3, the mobile robot 1 performs a moving operation in the room or the like. Next, as shown in step S4, the mobile robot 1 uses the map (here, the above-described pre-map) registered in the behavior information processing mechanism 41 of the mobile robot 1 in the process of the mobile operation or the result of the mobile operation. ) Is determined (inconsistency of information). If it is determined that there is no contradiction, the process returns to step S3, and the moving operation is repeated.

【0038】ステップS4の判定の結果、移動ロボット
1が矛盾があると判定された場合(ステップS4−Y)
には、移動ロボット1が何かの物体に衝突したか否かの
有無を判定する(ステップS5)。ここで、衝突とは、
移動ロボット1が移動中に物体とぶつかることだけでは
なく、周囲の物体の有無を計測する距離センサの範囲内
に物体があると検知されることも含む。
As a result of the determination in step S4, when it is determined that the mobile robot 1 has a contradiction (step S4-Y).
In step S5, it is determined whether the mobile robot 1 has collided with any object. Here, collision means
This includes not only that the mobile robot 1 collides with an object while moving, but also that an object is detected within the range of a distance sensor that measures the presence or absence of a surrounding object.

【0039】ステップS5の結果、衝突があると判定さ
れた場合(ステップS5−Y)には、ステップS6に進
む。ここで、衝突があると判定された場合とは、移動ロ
ボット1に登録された最新の地図(ここでは、上記事前
地図)によれば、何も無い筈である場所で衝突が起きた
場合である。
If it is determined in step S5 that there is a collision (step S5-Y), the process proceeds to step S6. Here, the case where it is determined that there is a collision is a case where a collision occurs in a place where there should be nothing according to the latest map registered in the mobile robot 1 (here, the above-mentioned preliminary map). is there.

【0040】ステップS6では、移動ロボット1は、そ
の衝突した位置(部屋内の場所)、及び、その衝突時に
物体に対して移動ロボット1がどの向きから衝突したか
を示す、衝突位置・向き情報を移動ロボット1の内部に
記録する。次に、ステップS7に進む。
In step S6, the mobile robot 1 collides with the collision position (location in the room) and the collision position / direction information indicating the direction from which the mobile robot 1 collided with the object at the time of the collision. Is recorded inside the mobile robot 1. Next, the process proceeds to step S7.

【0041】ステップS7では、移動ロボット1は、現
在の地図(上記最新の地図)をチェックし、ステップS
5で衝突有りと判定した衝突の原因となる家具(間違い
と思われる家具:衝突原因家具)を選定する。次に、ス
テップS8に進む。
In step S7, the mobile robot 1 checks the current map (the latest map), and checks in step S7.
The furniture causing the collision determined as having the collision in step 5 (furniture that seems to be wrong: furniture causing the collision) is selected. Next, the process proceeds to step S8.

【0042】ステップS8では、移動ロボット1は、上
記衝突原因家具とその周囲を計測する。ステップS8で
は、上記衝突原因家具のサイズと、位置(向きを含む)
と、その周囲の状況が計測される。なお、移動ロボット
1は、現在の地図(上記最新の地図)上での自己位置を
常に把握している。
In step S8, the mobile robot 1 measures the furniture causing the collision and its surroundings. In step S8, the size and the position (including the direction) of the furniture causing the collision are described.
And the surrounding situation is measured. The mobile robot 1 always knows its position on the current map (the latest map).

【0043】次に、移動ロボット1は、ステップS9に
進み、ステップS8の計測結果に基づいて、上記最新の
地図を修正すると共に、確信度を修正する。なお、ステ
ップS9の内容については、図2を参照して後述する。
Next, the mobile robot 1 proceeds to step S9 and corrects the latest map and the certainty factor based on the measurement result of step S8. The contents of step S9 will be described later with reference to FIG.

【0044】一方、移動ロボット1は、上記ステップS
5での判定の結果、衝突無しと判定した場合には、現在
の地図(上記最新の地図)をチェックし、そこにあるべ
き家具(間違いと思われる家具:矛盾原因家具)を特定
する(ステップS10)。次に、ステップS11に進
む。ここで、衝突がないと判定された場合とは、移動ロ
ボット1に登録された最新の地図(ここでは、上記事前
地図)によれば、あるべきところに家具(のエッジ)が
無かった場合である。
On the other hand, the mobile robot 1
If it is determined that there is no collision as a result of the determination in step 5, the current map (the latest map described above) is checked, and furniture that should be there (furniture that seems to be wrong: furniture that causes inconsistency) is specified (step). S10). Next, the process proceeds to step S11. Here, when it is determined that there is no collision, according to the latest map registered in the mobile robot 1 (here, the above-mentioned preliminary map), there is no furniture (edge) in a place where it should be. is there.

【0045】移動ロボット1は、ステップS11におい
て、上記矛盾原因家具とその周囲を計測する。この計測
において、矛盾原因家具は、現在の地図(上記最新の地
図)に含まれているので、その地図上での矛盾原因家具
の位置(向きを含む)と、上記矛盾原因家具のサイズ
と、位置(向きを含む)と、その周囲の状況が計測され
る。なお、移動ロボット1は、現在の地図(上記最新の
地図)上での自己位置を常に把握している。
In step S11, the mobile robot 1 measures the inconsistency furniture and its surroundings. In this measurement, the conflict cause furniture is included in the current map (the latest map), so the position (including the direction) of the conflict cause furniture on the map, the size of the conflict cause furniture, and The position (including the direction) and surrounding conditions are measured. The mobile robot 1 always knows its position on the current map (the latest map).

【0046】次に、移動ロボット1は、ステップS9に
進み、ステップS11の計測結果に基づいて、上記最新
の地図を修正すると共に、確信度を修正する。そのステ
ップS9の後は、ステップS3に戻る。なお、ステップ
S9の内容については、図2を参照して次に説明する。
Next, the mobile robot 1 proceeds to step S9, and based on the measurement result of step S11, corrects the latest map and corrects the certainty factor. After step S9, the process returns to step S3. The content of step S9 will be described next with reference to FIG.

【0047】図2のステップS21に示すように、移動
ロボット1は、上記図1のステップS8及びS11の計
測結果に基づいて、現在の地図(上記最新の地図)と実
際の状況との矛盾状態の把握を行う。
As shown in step S21 in FIG. 2, the mobile robot 1 determines the contradiction between the current map (the latest map) and the actual situation based on the measurement results in steps S8 and S11 in FIG. To understand.

【0048】次いで、ステップS22に示すように、移
動ロボット1は、ステップS21の結果(上記図1のス
テップS8及びS11の計測結果)に基づいて、現在の
地図(上記最新の地図)と実際の状況(衝突原因家具又
は矛盾原因家具)とは、その家具サイズに矛盾があるか
否かを判定する(ステップS22)。
Next, as shown in step S22, the mobile robot 1 compares the current map (the latest map) with the actual map based on the result of the step S21 (the measurement results in steps S8 and S11 in FIG. 1). The situation (the furniture causing the collision or the furniture causing the inconsistency) determines whether there is any inconsistency in the furniture size (step S22).

【0049】そのステップS22の判定の結果、家具サ
イズに矛盾があると判定された場合(ステップS22−
Y)には、移動ロボット1は、現在の地図(上記最新の
地図)の該当する家具サイズを修正する(ステップS2
3)。次に、ステップS24に進む。ステップS24で
は、家具配置の確信度を修正する。
If it is determined in step S22 that the furniture sizes are inconsistent (step S22-
In Y), the mobile robot 1 corrects the furniture size corresponding to the current map (the latest map) (step S2).
3). Next, the process proceeds to step S24. In step S24, the degree of certainty of the furniture arrangement is corrected.

【0050】ここで、図3を参照して、家具サイズの修
正(ステップS23)及び家具配置の確信度の修正(ス
テップS24)について説明する。図3は、ステップS
23の家具サイズの修正とそれに伴う確信度の修正を示
している。
The modification of the furniture size (step S23) and the modification of the degree of certainty of the furniture arrangement (step S24) will be described with reference to FIG. FIG.
23 shows the modification of the furniture size of 23 and the modification of the degree of certainty accompanying it.

【0051】図3(a)、(b)は、移動ロボット1が
有する上記地図のデータ(上記地図情報)を示してい
る。同図のデータは、移動ロボット1がいる部屋の平面
図に対応している。同図において、家具92,93,9
4a、94b、95に施されたハッチングの向きは、上
記確信度を示している。
FIGS. 3A and 3B show the map data (the map information) of the mobile robot 1. The data in the figure corresponds to a plan view of a room where the mobile robot 1 is located. In the figure, furniture 92, 93, 9
The directions of hatching applied to 4a, 94b, and 95 indicate the above-mentioned certainty factors.

【0052】図3(a)、(b)は、移動ロボット1
が、自らが有する上記地図のデータのうち、ベッド9
2、93の配置(サイズ、位置及び向き)に関するデー
タは、実際の状況と合致している可能性(確信度)が4
段階中で最も高いと認識していることを示している。ま
た、符号95で示す家具は、上記4段階中で2番目に低
い確信度であることが示されている。
FIGS. 3A and 3B show the mobile robot 1.
Is one of the beds 9
Data regarding the arrangement (size, position, and orientation) of 2, 93 has a possibility (convergence) of 4 that matches the actual situation.
It indicates that it is recognized as the highest among the stages. The furniture indicated by reference numeral 95 has the second lowest certainty factor among the above four levels.

【0053】上記ステップS2のように、上記事前地図
には、ベッド92、93の位置が、長期的に設置位置が
固定され移動されることが無いとして登録されている。
このことに対応して、移動ロボット1は、ベッド92、
93に関する地図情報の確信度は高いと認識している。
As in step S2, the positions of the beds 92 and 93 are registered in the pre-map as long as the installation positions are fixed and will not be moved in the long term.
In response to this, the mobile robot 1 has a bed 92,
It is recognized that the degree of certainty of the map information regarding 93 is high.

【0054】ここで、移動ロボット1にて確信度が高い
と認定された家具(ここではベッド92、93)は、移
動ロボット1が上記ステップS8又はS11の計測を行
うときの基準位置として用いられることができる。
Here, furniture (here, beds 92 and 93) recognized as having a high degree of certainty by the mobile robot 1 is used as a reference position when the mobile robot 1 performs the measurement in step S8 or S11. be able to.

【0055】図3(a)は、上記ステップS5の判定の
結果、矢印Y1に示される移動ロボット1の移動動作の
結果、衝突有りと判定された場合を示している。その場
合には、移動ロボット1は、上記ステップS7に示すよ
うに、現在の地図をチェックした結果、上記衝突原因家
具として符号94aに示す家具を特定し、その衝突原因
家具94aに関して上記ステップS8の計測を行う。そ
の後、ステップS9及び図2の地図の修正・確信度の修
正を行った結果を示すのが図3(b)である。
FIG. 3A shows a case where it is determined that there is a collision as a result of the moving operation of the mobile robot 1 indicated by the arrow Y1 as a result of the determination in step S5. In that case, as shown in step S7, the mobile robot 1 identifies the furniture indicated by reference numeral 94a as the collision-causing furniture as a result of checking the current map, and determines the furniture 94a in step S8 with respect to the collision-causing furniture 94a. Perform measurement. After that, FIG. 3B shows the result of the correction of the map and the certainty factor of step S9 and FIG.

【0056】図3(b)は、移動ロボット1が図2に示
す順に各ステップを行った結果、ステップS22にて、
家具94aのサイズに矛盾があると判定したケースを示
している。即ち、図3(b)では、図3(a)の家具9
4aのサイズは、実際のサイズよりも短いと判断して
(図3(a)のデータに従って動作したら衝突が起きた
為)、符号94bに示すようにその家具のサイズが大き
くなるように修正された様子が示されている(ステップ
S23)。その修正された地図情報において、その家具
のサイズが大きくされる方向は、ステップS6にて記録
した衝突の位置及び向きに対応する方向(図3(b)の
左方向)である。また、その修正された地図情報におい
て、当該家具のサイズをどの程度大きくするかは、MA
P用データベース91に格納された標準サイズ又は移動
ロボット1が導入される家庭の家具のサイズの情報に基
づいて求められる。
FIG. 3B shows that the mobile robot 1 performs each step in the order shown in FIG.
The case where it is determined that the size of the furniture 94a is inconsistent is shown. That is, in FIG. 3B, the furniture 9 of FIG.
It is determined that the size of the furniture 4a is smaller than the actual size (because a collision has occurred if the operation is performed according to the data of FIG. 3A), and the size of the furniture is corrected to be increased as indicated by reference numeral 94b. Is shown (step S23). In the corrected map information, the direction in which the size of the furniture is increased is the direction (the left direction in FIG. 3B) corresponding to the position and the direction of the collision recorded in step S6. In addition, in the corrected map information, how much the size of the furniture is increased depends on MA.
It is obtained based on the information on the standard size stored in the P database 91 or the size of the household furniture into which the mobile robot 1 is introduced.

【0057】また、上記ステップS24では、図3
(a)及び図3(b)に示すように、上記家具サイズが
修正された家具の配置の確信度を下げる(上記4段階中
下から2番目から最下位に)。家具サイズが修正された
直後の場合には、上記のように、家具のサイズの修正幅
(どの程度大きくするか)は、MAP用データベース9
1のデータに基づいて推測された値に過ぎず、また、衝
突(ステップS5)の原因が真に家具94b(94a)
にあるのか否かが明らかでない(例えば、新たな家具が
導入されたことや家具の模様替えが行われたことも考え
られる)から、確信度は降格される。そのステップS2
4の次には、ステップS25に進む。
In step S24, FIG.
As shown in FIG. 3A and FIG. 3B, the reliability of the arrangement of the furniture whose furniture size has been corrected is reduced (from the second to the lowest in the four stages). Immediately after the furniture size is corrected, as described above, the correction width of the furniture size (how much to increase) is determined by the MAP database 9.
1 and the cause of the collision (step S5) is truly the furniture 94b (94a).
Is not clear (for example, new furniture may have been introduced or furniture may have been remodeled), so the confidence is demoted. Step S2
After step 4, the process proceeds to step S25.

【0058】なお、その後に、移動ロボット1が家具9
4bの位置を一回又は複数回移動した結果(ステップS
3)、現在の地図(上記最新の地図)との矛盾が無かっ
た場合(ステップS4−N)には、その家具94bの確
信度を格上げ(現在の最下位から下から2番目に)する
ことができる。
After that, the mobile robot 1 moves the furniture 9
4b is moved one or more times (step S4).
3) If there is no inconsistency with the current map (the latest map) (step S4-N), the certainty factor of the furniture 94b is upgraded (from the current lowest order to the second lowest). Can be.

【0059】一方、上記ステップS22の判定の結果、
家具サイズに矛盾は無いと判定された場合(ステップS
22−N)には、ステップS25に進む。ステップS2
5では、移動ロボット1は、ステップS21の結果(上
記図1のステップS8及びS11の計測結果)に基づい
て、現在の地図(上記最新の地図)と実際の状況(衝突
原因家具又は矛盾原因家具)とは、その家具の位置に矛
盾があるか否かを判定する。
On the other hand, as a result of the determination in step S22,
If it is determined that there is no inconsistency in the furniture size (step S
22-N), the process proceeds to step S25. Step S2
In step 5, based on the result of step S21 (the measurement results of steps S8 and S11 in FIG. 1), the mobile robot 1 compares the current map (the latest map) with the actual situation (the furniture causing the collision or the furniture causing the contradiction). ) Determines whether or not there is a contradiction in the position of the furniture.

【0060】そのステップS25の判定の結果、家具の
位置に矛盾があると判定された場合(ステップS25−
Y)には、移動ロボット1は、現在の地図(上記最新の
地図)の該当する家具の位置を修正する(ステップS2
6)。ステップS26での家具位置の修正も、ステップ
S23の家具サイズの修正と同様に、MAP用データベ
ース91に格納された標準家具又はその移動ロボット1
が導入される家庭に設置された家具のサイズ、配置場所
等のデータに基づいて行う。次に、ステップS27に進
み、家具配置の確信度を修正する。ステップS27で
は、その位置が修正された家具の確信度が下げられる。
As a result of the determination in step S25, when it is determined that there is a contradiction in the position of the furniture (step S25-
In Y), the mobile robot 1 corrects the position of the corresponding furniture on the current map (the latest map) (step S2).
6). The correction of the furniture position in step S26 is similar to the correction of the furniture size in step S23, and the standard furniture stored in the MAP database 91 or its mobile robot 1
Is performed based on data such as the size and location of furniture installed in the home where the is introduced. Next, the process proceeds to step S27 to correct the certainty factor of the furniture arrangement. In step S27, the certainty factor of the furniture whose position has been corrected is reduced.

【0061】一方、ステップS25の判定の結果、家具
の位置に矛盾が無いと判定された場合(ステップS25
−N)には、ステップS28に進む。ステップS28で
は、移動ロボット1は、ステップS21の結果(上記図
1のステップS8及びS11の計測結果)に基づいて、
現在の地図(上記最新の地図)と実際の状況(衝突原因
家具又は矛盾原因家具)とは、自己(移動ロボット1)
の位置に矛盾があるか否かを判定する。
On the other hand, if it is determined in step S25 that there is no inconsistency in the furniture position (step S25).
In step (-N), the process proceeds to step S28. In step S28, the mobile robot 1 determines, based on the result of step S21 (the measurement results of steps S8 and S11 in FIG. 1).
The current map (the latest map described above) and the actual situation (furniture that caused collision or furniture that caused inconsistency) are the same
It is determined whether or not there is a contradiction in the position of.

【0062】そのステップS28の判定の結果、自己の
位置に矛盾があると判定された場合(ステップS28−
Y)には、移動ロボット1は、現在の地図(上記最新の
地図)の自己の位置を修正する(ステップS29)。次
に、ステップS30に進む。ステップS30では、ステ
ップ21の理由が自己位置の矛盾にあり、家具に理由は
無いことが分かった為、家具の確信度を上げる。
As a result of the determination in step S28, when it is determined that there is a contradiction in its own position (step S28-
In Y), the mobile robot 1 corrects its position on the current map (the latest map) (step S29). Next, the process proceeds to step S30. In step S30, it is found that the reason of step 21 is inconsistency of the self-position and there is no reason for the furniture, so that the degree of certainty of the furniture is increased.

【0063】次に、図4を参照して、積極学習時の機能
フローについて説明する。
Next, a functional flow at the time of active learning will be described with reference to FIG.

【0064】まず、ステップS31に示すように、移動
ロボット1は、所定時間、指令が無い(暇な)状態か否
かを判断する。その判断の結果、所定時間の間、指令が
無い状態ではないと判断された場合(ステップS31−
N)には、図4に示す積極学習は行わず、図1の通常時
の機能フローのみを行う。
First, as shown in step S31, the mobile robot 1 determines whether there is no command (free time) for a predetermined time. As a result of the determination, when it is determined that there is no command for a predetermined time (step S31-
In N), the active learning shown in FIG. 4 is not performed, and only the normal function flow of FIG. 1 is performed.

【0065】一方、ステップS31の判断の結果、所定
時間の間、指令が無い状態であると判断した場合(ステ
ップS31−Y)には、ステップS32に進む。ステッ
プS32では、現在の地図(上記最新の地図)におい
て、上記確信度の小さい家具を探索し、抽出する。次い
で、ステップS33に進む。
On the other hand, if the result of determination in step S31 is that there is no command for a predetermined time (step S31-Y), the flow proceeds to step S32. In step S32, furniture with a low degree of certainty is searched for and extracted from the current map (the latest map). Next, the process proceeds to step S33.

【0066】ステップS33では、移動ロボット1は、
ステップS32にて抽出した家具の周辺を移動する。次
いで、ステップS34に進む。
In step S33, the mobile robot 1
Move around the furniture extracted in step S32. Next, the process proceeds to step S34.

【0067】ステップS34では、図1に示した通常時
と同様の機能フロー(ステップS3〜S11)に基づい
て、上記確信度の小さい家具について、現在の地図(上
記最新の地図)の修正を行う。なお、その後に、移動ロ
ボット1が上記確信度の小さい家具の位置を一回又は複
数回移動した結果(ステップS3)、現在の地図(上記
最新の地図)との矛盾が無かった場合(ステップS4−
N)には、その上記確信度の小さい家具の確信度を格上
げすることができる。
In step S34, a current map (the latest map) is corrected for furniture having a small degree of certainty based on the same functional flow (steps S3 to S11) as in the normal case shown in FIG. . After that, as a result of the mobile robot 1 moving the position of the furniture having a low degree of certainty once or more times (step S3), there is no inconsistency with the current map (the latest map) (step S4). −
In N), the certainty factor of the furniture having the small certainty factor can be upgraded.

【0068】本実施形態において、移動ロボット1が自
己位置を認識するためには、以下のような工夫がなされ
ている。天井などには、移動ロボット1が自己位置を確
認するためのマーク(部屋の位置と自分の位置との紐付
け用のマーク)等が設けられている。即ち、例えば、部
屋の天井に、メッシュ状に区分けされてなりシリアル番
号が割り当てられた複数の区画が設けられている。移動
ロボット1は、移動ロボット1が移動中に何かにぶつか
った場合に、その場所の真上に対応する天井の区画のシ
リアル番号に基づいて、そのぶつかった位置を検出す
る。
In the present embodiment, in order for the mobile robot 1 to recognize its own position, the following measures are taken. On the ceiling or the like, a mark (mark for linking the position of the room and the position of the room) with which the mobile robot 1 confirms its position is provided. That is, for example, on the ceiling of a room, there are provided a plurality of sections which are divided in a mesh shape and are assigned serial numbers. When the mobile robot 1 collides with something while moving, the mobile robot 1 detects the collision position based on the serial number of the section of the ceiling corresponding directly above the place.

【0069】また、家具にバーコードのように情報(サ
イズ、種類、重さ等)を含んだIDタグが付いている場
合には、移動ロボット1がステップS7又はS10を行
うときに、家具のID情報と、移動ロボット1が有する
現在の地図(上記最新の地図)の最も整合のとれない情
報は何かを評価することで、上記衝突原因家具又は上記
矛盾原因家具を特定することができる。
If the furniture has an ID tag including information (size, type, weight, etc.), such as a bar code, when the mobile robot 1 performs step S7 or S10, the furniture is displayed. By evaluating what is the most inconsistent information between the ID information and the current map (the latest map) of the mobile robot 1, it is possible to identify the furniture causing the collision or the furniture causing the inconsistency.

【0070】また、移動ロボット1は、ステップS6に
て家具との衝突位置を記録する場合、その家具と衝突し
た位置は、壁(位置が固定の物)との間の距離として検
出可能である。
When recording the collision position with the furniture in step S6, the mobile robot 1 can detect the collision position with the furniture as a distance from a wall (an object whose position is fixed). .

【0071】移動ロボット1は、上記のように、家庭内
に配置した後の家具の配置を学習することができ、地図
の情報を修正(更新)することができる。その学習は、
(半)自動化されている。これにより、障害物を回避し
た移動を行うことができる。
As described above, the mobile robot 1 can learn the arrangement of furniture after being placed in the home, and can correct (update) map information. The learning is
(Semi) automated. Thereby, it is possible to perform the movement avoiding the obstacle.

【0072】固定センサ2は、担当する空間の情報を入
手するため設置されている。固定センサ2は、担当する
空間のできるだけ広い範囲を把握できる位置に設置され
ることが好ましい。また、移動ロボット1のセンサ群1
0と違う視点で情報を検出できることが好ましい。具体
的には、固定センサ2は、担当する部屋の天井等に設置
される場合等がある。移動ロボット1が、複数の空間を
移動する場合は、空間毎に固定センサ2が設置される場
合がある。具体的には、複数の部屋の各々に固定センサ
2が設置される場合等がある。また、一つの空間であっ
ても、空間が広く一つの固定センサ2では全体をカバー
できない場合、検出する情報の精度を上げたい場合、検
出する情報の目的毎に適当な対象の近くに固定センサ2
を設置する場合等は、複数の固定センサ2が設置される
場合がある。
The fixed sensor 2 is installed to obtain information on the space in charge. It is preferable that the fixed sensor 2 is installed at a position where the fixed sensor 2 can grasp the widest possible range of the assigned space. Also, the sensor group 1 of the mobile robot 1
It is preferable that information can be detected from a viewpoint different from zero. Specifically, the fixed sensor 2 may be installed on a ceiling or the like of a room in charge. When the mobile robot 1 moves in a plurality of spaces, a fixed sensor 2 may be installed for each space. Specifically, the fixed sensor 2 may be installed in each of a plurality of rooms. Also, even if it is a single space, if the whole space cannot be covered by one fixed sensor 2 or if it is desired to improve the accuracy of the information to be detected, the fixed sensor 2 2
For example, a plurality of fixed sensors 2 may be installed.

【0073】固定センサ2は、固定センサ2が担当する
空間の情報を検出するセンサ群50、表現機構60、入
力情報処理機構70、行動情報処理機構71、通信情報
処理機構72を備える。
The fixed sensor 2 includes a sensor group 50 for detecting information on the space in which the fixed sensor 2 is in charge, an expression mechanism 60, an input information processing mechanism 70, a behavior information processing mechanism 71, and a communication information processing mechanism 72.

【0074】センサ群50は、固定センサ2が設置され
ている空間の情報を検出するためのセンサで、魚眼カメ
ラ51、超音波距離計52、音声感知機、赤外線探知機
等、に代表される。センサ群50は、センサで検出した
情報を入力情報処理機構70へ送信する。
The sensor group 50 is a sensor for detecting information on the space where the fixed sensor 2 is installed, and is represented by a fish-eye camera 51, an ultrasonic distance meter 52, a voice detector, an infrared detector, and the like. You. The sensor group 50 transmits information detected by the sensor to the input information processing mechanism 70.

【0075】表現機構60は、移動ロボット1に固定セ
ンサ2の位置を教えたり、移動ロボット1を光や音声で
誘導したりする機構で、LED61に代表される発光
器、音声発信機等に代表される。表現機構60は、行動
情報処理機構71の指令により表現行動を実施する。ま
た、表現機構60は主人に指令の受信の状況を伝えるこ
とができる。具体的には、移動ロボット1が離れた場所
にいる場合に、主人の指令を固定センサ2が認識した場
合、固定センサ2のLED61が点灯する、さらに、指
令を移動ロボット1に送信できた場合、LED61が消
灯する。また、移動ロボット1に何らかの異常が発生し
ている場合、LED61が点滅するといったように、固
定センサ2が情報を主人に伝えることができる。
The expression mechanism 60 is a mechanism for teaching the position of the fixed sensor 2 to the mobile robot 1 and for guiding the mobile robot 1 by light or voice, and is typically a light-emitting device represented by an LED 61, a voice transmitter, or the like. Is done. The expression mechanism 60 performs an expression action according to a command from the action information processing mechanism 71. In addition, the expression mechanism 60 can inform the master of the status of receiving the command. Specifically, when the mobile robot 1 is at a remote location, the fixed sensor 2 recognizes the command of the master, the LED 61 of the fixed sensor 2 is turned on, and the command can be transmitted to the mobile robot 1. , The LED 61 turns off. In addition, when any abnormality occurs in the mobile robot 1, the fixed sensor 2 can transmit information to the master such that the LED 61 blinks.

【0076】入力情報処理機構70は、情報処理を行な
う装置でコンピュータに代表される。入力情報処理機構
70は、センサ50および移動ロボット1からの情報を
受信し、処理して、行動情報処理機構71へ、または通
信情報処理機構72を介して移動ロボット1へ情報を送
信する。具体的には、入力情報処理機構70は、カメラ
51の映像や超音波距離計52の情報から目標物や障害
物の有無および位置を計測したり、音声感知機の情報か
ら誰かが移動ロボット1を呼んでいることを感知した
り、または誰の声か判断したりすることができる。ま
た、本システムが特定の対象を監視しているときは、入
力情報処理機構70はその対象の異常の有無を判断する
機能を有することもできる。
The input information processing mechanism 70 is a device for performing information processing, and is represented by a computer. The input information processing mechanism 70 receives and processes information from the sensor 50 and the mobile robot 1, and transmits the information to the behavior information processing mechanism 71 or to the mobile robot 1 via the communication information processing mechanism 72. Specifically, the input information processing mechanism 70 measures the presence / absence and position of a target or an obstacle from the image of the camera 51 or the information of the ultrasonic rangefinder 52, or detects whether the mobile robot 1 , Or judge who's calling. Further, when the present system is monitoring a specific target, the input information processing mechanism 70 may have a function of determining whether or not there is an abnormality in the target.

【0077】行動情報処理機構71は、情報処理を行な
う装置で、コンピュータに代表される。行動情報処理機
構71は、入力情報処理機構70および移動ロボット1
からの情報により移動ロボット1の行動計画の適否を判
断する。また、行動情報処理機構71は担当する空間の
地図を記憶し、入力情報処理機構70の情報から、地図
上の障害物の位置などの情報を更新することができる。
さらに、行動情報処理機構71は入力情報処理機構70
および移動ロボット1からの情報により移動ロボット1
の位置、主人の位置などを地図上で把握している。ま
た、上記図1〜図4を参照して説明した、移動ロボット
1が有する地図の情報を、通信情報処理機構42から通
信情報処理機構72を介して固定センサ2が受信し、行
動情報処理機構71に記憶することができる。これによ
り、最新の地図が移動ロボット1と固定センサ2とで共
有化される。さらに、行動情報処理機構71は移動ロボ
ット1へ固定センサ2の位置を知らせる時や、移動ロボ
ット1を誘導する時は、表現機構60へ必要な指示を与
える。
The behavior information processing mechanism 71 is a device for performing information processing, and is represented by a computer. The behavior information processing mechanism 71 includes the input information processing mechanism 70 and the mobile robot 1
Of the mobile robot 1 is determined based on the information from the mobile robot 1. Further, the behavior information processing mechanism 71 stores a map of a space in charge, and can update information such as the position of an obstacle on the map from information of the input information processing mechanism 70.
Further, the behavior information processing mechanism 71 is
And mobile robot 1 based on information from mobile robot 1
And the location of the master on the map. In addition, the fixed sensor 2 receives the information of the map of the mobile robot 1 from the communication information processing mechanism 42 via the communication information processing mechanism 72 as described with reference to FIGS. 71. Thereby, the latest map is shared by the mobile robot 1 and the fixed sensor 2. Further, the behavior information processing mechanism 71 gives a necessary instruction to the expression mechanism 60 when notifying the position of the fixed sensor 2 to the mobile robot 1 or guiding the mobile robot 1.

【0078】通信情報処理機構72は、移動ロボット1
と通信をする通信機である。通信情報処理機構72は、
移動ロボット1から、行動計画、移動ロボット1の周り
の情報、動作計画、を受信し入力情報処理機構70、行
動情報処理機構71へ送信する。その他、移動ロボット
1との間で必要な情報の送受信を行なう。
The communication information processing mechanism 72 is a mobile robot 1
A communication device that communicates with The communication information processing mechanism 72
The mobile robot 1 receives an action plan, information around the mobile robot 1, and an action plan, and transmits them to the input information processing mechanism 70 and the behavior information processing mechanism 71. In addition, necessary information is transmitted to and received from the mobile robot 1.

【0079】次に、図7を参照して、移動ロボット1
が、部屋4で使用される場合について説明される。固定
センサ2は、部屋4の死角のない大局的な情報を検出す
るため部屋4の天井に設置されている。固定センサ2
は、部屋4内の移動ロボット1が移動する時の障害物と
移動の目的地となる目標3の位置を検出することができ
る。
Next, referring to FIG.
Is used in the room 4. The fixed sensor 2 is installed on the ceiling of the room 4 to detect global information without blind spots in the room 4. Fixed sensor 2
Can detect an obstacle when the mobile robot 1 moves in the room 4 and a position of a target 3 which is a destination of the movement.

【0080】移動ロボット1がドア7から部屋4に入っ
てきて、目標3に移動する場合が説明される。移動ロボ
ット1は、部屋4の地図を記憶している。はじめに移動
ロボット1が記憶している地図には部屋4の大きさと、
既知の障害物5−1、5−2が含まれているが、目標3
の位置と移動可能な未知の障害物6−1〜3の位置は含
まれていない。但し、上述したように、図1〜図4を動
作を行うことにより、移動ロボット1は、未知の障害物
6−1〜3の位置の情報が含まれるように修正された地
図情報を有することができる。
The case where the mobile robot 1 enters the room 4 from the door 7 and moves to the target 3 will be described. The mobile robot 1 stores a map of the room 4. First, the map stored by the mobile robot 1 includes the size of the room 4,
Known obstacles 5-1 and 5-2 are included, but target 3
And the positions of the movable obstacles 6-1 to 6-3 which are movable are not included. However, as described above, by performing the operations shown in FIGS. 1 to 4, the mobile robot 1 has map information corrected so as to include information on the positions of the unknown obstacles 6-1 to 3. Can be.

【0081】固定センサ2が無い場合、移動ロボット1
は、センサ群10の音声センサで音声(主人の呼び声)
を検出し、入力情報処理機構40で自分が呼ばれている
ことを認識し、音声の方向などから、自分のカメラ11
などのセンサ群10で目標3を探索する。しかし、この
場合、既知の障害物5−1で目標への視界は遮られてい
るため、カメラ11での目標の検出はできない。従っ
て、移動ロボットは音声センサで音の発せられた方向を
判断しながら、かつ、既知の障害物5−1と自分のセン
サで検出した未知の障害物6−1を避けながら移動す
る。しかし、既知の障害物5−1で視界が遮られて検出
できなかった未知の障害物6−2、6−3が移動の障害
となる場合がある。このような場合は、移動ロボット1
だけでよりよい移動経路を確実に決定することはできな
い。
When there is no fixed sensor 2, the mobile robot 1
Is voice (voice of master) by voice sensor of sensor group 10
Is detected by the input information processing mechanism 40, and the camera 11
The target 3 is searched for by the sensor group 10. However, in this case, since the view to the target is blocked by the known obstacle 5-1, the target cannot be detected by the camera 11. Therefore, the mobile robot moves while judging the direction in which the sound is emitted by the voice sensor and avoiding the known obstacle 5-1 and the unknown obstacle 6-1 detected by its own sensor. However, unknown obstacles 6-2 and 6-3 that could not be detected because the visibility was blocked by the known obstacle 5-1 may become obstacles to movement. In such a case, the mobile robot 1
Alone cannot reliably determine a better travel route.

【0082】そこで、移動ロボット1は固定センサ2と
無線で交信し、部屋4の情報を得る。固定センサ2は、
部屋4の情報を収集する。固定センサ2は、目標3の位
置、既知の障害物の位置5−1、5−2、未知の障害物
の位置6−1〜3、及び移動ロボットの1位置を検出し
移動ロボット1に送信する。移動ロボット1は、移動を
開始する前に、記憶している部屋4の地図を固定センサ
2の情報により更新し、最新の地図から移動経路を決定
する。そして、移動ロボット1は、固定センサ2では検
出できなかった障害物等(物体の影がある場合に、その
影とその物体自身との識別は難しい)を検出するため、
センサ群10で周囲を確認しながら、移動経路に沿って
移動を開始する。上述したように、移動ロボット1は、
図1〜図4に対応する動作を行い、地図情報を修正す
る。必要があれば、固定センサ2と移動ロボット1は交
信を行い、障害物の位置の変更情報や移動ロボット1の
位置情報の修正などを行なう。
The mobile robot 1 wirelessly communicates with the fixed sensor 2 to obtain information on the room 4. The fixed sensor 2 is
Gather information about room 4. The fixed sensor 2 detects the position of the target 3, the positions 5-1 and 5-2 of the known obstacles, the positions 6-1 to 3 of the unknown obstacles, and one position of the mobile robot and transmits them to the mobile robot 1. I do. Before starting the movement, the mobile robot 1 updates the stored map of the room 4 based on the information of the fixed sensor 2 and determines the movement route from the latest map. The mobile robot 1 detects obstacles and the like that cannot be detected by the fixed sensor 2 (if there is a shadow of the object, it is difficult to distinguish the shadow from the object itself).
The user starts moving along the movement path while checking the surroundings with the sensor group 10. As described above, the mobile robot 1
The operation corresponding to FIGS. 1 to 4 is performed to correct the map information. If necessary, the fixed sensor 2 and the mobile robot 1 communicate with each other, and change information on the position of the obstacle or the position information of the mobile robot 1 is corrected.

【0083】固定センサ2を使用することにより、移動
ロボット1は、誤った経路を選択することを避けること
ができる。また、移動ロボット1は、固定センサ2と自
分のセンサ群10からの情報を使用することにより、大
局的な情報と接近した情報を使用することができ、精度
の高い障害物や目標3の検出をすることができる。
By using the fixed sensor 2, the mobile robot 1 can avoid selecting an incorrect route. In addition, the mobile robot 1 can use global information and information approached by using information from the fixed sensor 2 and its own sensor group 10, and detect highly accurate obstacles and targets 3. Can be.

【0084】上記のように、移動ロボット1は、部屋内
の家具の配置を(半)自動的に学習するため、未知の家
具(障害物)があっても、その家具をも反映した地図に
修正することができる。
As described above, since the mobile robot 1 automatically learns the arrangement of furniture in a room (semi-), even if there is an unknown furniture (obstacle), the mobile robot 1 creates a map reflecting the furniture. Can be modified.

【0085】なお、上記においては、移動ロボット1
は、固定センサ2と共に用いられるとしたが、図1〜図
5に示すように、地図情報の修正及び確信度の修正につ
いては、移動ロボット1が単独で実施することができ
る。
In the above description, the mobile robot 1
Is used together with the fixed sensor 2, but as shown in FIGS. 1 to 5, the correction of the map information and the correction of the certainty factor can be independently performed by the mobile robot 1.

【0086】[0086]

【発明の効果】本発明の移動ロボットは、比較的頻繁に
位置が変わる物体がある場合に、その位置が変わるたび
に人間が地図情報を修正することなく移動ロボットが自
ら地図情報を修正することができる。
According to the mobile robot of the present invention, when there is an object whose position changes relatively frequently, each time the position changes, the mobile robot corrects the map information by itself without the human having to correct the map information. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明の一実施形態の移動ロボットが
地図情報を更新するときの通常時の機能フローを示すフ
ローチャートである。
FIG. 1 is a flowchart showing a normal function flow when a mobile robot of one embodiment of the present invention updates map information.

【図2】図2は、本発明の一実施形態の移動ロボットが
地図情報を更新するときの通常時の他の機能フローを示
すフローチャートである。
FIG. 2 is a flowchart illustrating another function flow in a normal state when the mobile robot according to the embodiment of the present invention updates map information.

【図3】図3(a)は、本発明の一実施形態の移動ロボ
ットが、地図情報のうち家具サイズを修正する場合の修
正前の地図情報を示す平面図であり、図3(b)は、図
3(a)の修正後に対応する地図情報を示す平面図であ
る。
FIG. 3A is a plan view illustrating map information before correction when the mobile robot according to the embodiment of the present invention corrects a furniture size in the map information, and FIG. FIG. 4 is a plan view showing map information corresponding to the corrected state in FIG.

【図4】図4は、本発明の一実施形態の移動ロボットが
地図情報を更新するときの積極学習時の機能フローを示
すフローチャートである。
FIG. 4 is a flowchart showing a functional flow at the time of active learning when the mobile robot of the embodiment of the present invention updates map information.

【図5】図5は、本発明の一実施形態の移動ロボットが
地図情報を有している状態を模式的に示す模式図であ
る。
FIG. 5 is a schematic diagram schematically showing a state in which the mobile robot according to the embodiment of the present invention has map information.

【図6】図6は、本発明の一実施形態の移動ロボットシ
ステムの構成を示す概略図である。
FIG. 6 is a schematic diagram illustrating a configuration of a mobile robot system according to an embodiment of the present invention.

【図7】図7は、本発明の一実施形態の移動ロボットシ
ステムが使用される状況を示す概略図である。
FIG. 7 is a schematic diagram showing a situation in which the mobile robot system according to the embodiment of the present invention is used.

【符号の説明】[Explanation of symbols]

1 移動ロボット 2 固定センサ 3 目標,目的地、主人 4 部屋(空間) 5−1〜3 既知の障害物 6−1〜3 未知の障害物 7 ドア 10 (ロボットの)センサ群 11 (ロボットの)カメラ 12 (ロボットの)超音波距離計 20 (ロボットの)表現機構 21 (ロボットの)LED 22 (ロボットの)音声発声器 30 動作機構 31 アーム 32 脚 40 (ロボットの)入力情報処理機構 41 (ロボットの)行動情報処理機構 42 (ロボットの)通信情報処理機構 50 (固定センサの)センサ群 51 (固定センサの)カメラ 52 (固定センサの)超音波距離計 60 (固定センサの)表現機構 61 (固定センサの)LED 70 (固定センサの)入力情報処理機構 71 (固定センサの)行動情報処理機構 72 (固定センサの)通信情報処理機構 91 MAP用データベース 1 Mobile robot 2 Fixed sensor 3 goals, destinations, master 4 rooms (space) 5-1-3 Known obstacles 6-1-3 unknown obstacle 7 door 10 (Robot) sensors 11 (Robot) Camera 12 (Robot) Ultrasonic Rangefinder 20 Expression mechanism (of robot) 21 (Robot) LED 22 (Robot) Voice utterance 30 Operating mechanism 31 arm 32 legs 40 (Robot) input information processing mechanism 41 (robot) behavior information processing mechanism 42 Communication information processing mechanism (of robot) 50 sensors (of fixed sensors) 51 (fixed sensor) camera 52 (Fixed Sensor) Ultrasonic Rangefinder 60 Expression Mechanism (of Fixed Sensor) 61 LED (of fixed sensor) 70 (fixed sensor) input information processing mechanism 71 Behavior information processing mechanism (of fixed sensor) 72 Communication information processing mechanism (of fixed sensor) 91 MAP database

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3C007 CS08 KS12 KS36 KT01 KV11 KV18 KX02 LW12 MT08 WB21 5H301 AA02 AA10 CC03 CC06 CC10 DD07 FF08 FF13 GG03 GG09 GG10 GG19 LL01 LL08 LL11 LL14 MM09 QQ06    ────────────────────────────────────────────────── ─── Continuation of front page    F term (reference) 3C007 CS08 KS12 KS36 KT01 KV11                       KV18 KX02 LW12 MT08 WB21                 5H301 AA02 AA10 CC03 CC06 CC10                       DD07 FF08 FF13 GG03 GG09                       GG10 GG19 LL01 LL08 LL11                       LL14 MM09 QQ06

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 物体の配置に関する仮の地図情報を有す
る移動ロボットであって、 前記移動ロボットは、前記移動ロボットの移動により前
記仮の地図情報に不正確な部分があることを検出したと
きに、前記不正確な部分に対応する前記物体を計測し、
前記計測の結果に基づいて、前記仮の地図情報を修正す
る移動ロボット。
1. A mobile robot having temporary map information relating to an arrangement of an object, wherein the mobile robot detects that there is an inaccurate part in the temporary map information due to the movement of the mobile robot. Measuring the object corresponding to the incorrect portion;
A mobile robot that corrects the temporary map information based on a result of the measurement.
【請求項2】 請求項1記載の移動ロボットにおいて、 前記仮の地図情報は、前記移動ロボットの移動範囲に置
かれ得る標準的な前記物体のサイズ及び配置場所の少な
くとも一方が格納されたデータベースの情報に基づいて
作成される移動ロボット。
2. The mobile robot according to claim 1, wherein the temporary map information is stored in a database in which at least one of a standard size and an arrangement location of the standard object that can be placed in a movement range of the mobile robot is stored. Mobile robot created based on information.
【請求項3】 請求項1または2に記載の移動ロボット
において、 前記仮の地図情報には、長期的にその位置が固定される
前記物体の情報が登録されている移動ロボット。
3. The mobile robot according to claim 1, wherein information on the object whose position is fixed for a long time is registered in the temporary map information.
【請求項4】 請求項1から3のいずれか1項に記載の
移動ロボットにおいて、 前記移動ロボットが前記仮の地図情報を修正するときに
は、前記計測の結果に基づいて、前記仮の地図情報に含
まれる前記物体のサイズ及び位置の少なくとも一方の情
報を修正する移動ロボット。
4. The mobile robot according to claim 1, wherein the mobile robot corrects the temporary map information based on a result of the measurement when correcting the temporary map information. A mobile robot that corrects information on at least one of a size and a position of the included object.
【請求項5】 請求項1から4のいずれか1項に記載の
移動ロボットにおいて、 前記仮の地図情報には、前記仮の地図情報に含まれる前
記物体が実際の状況と合致している可能性の高さを示す
情報が含まれている移動ロボット。
5. The mobile robot according to claim 1, wherein the object included in the temporary map information matches an actual situation in the temporary map information. A mobile robot that contains information indicating the height of sex.
【請求項6】 請求項5記載の移動ロボットにおいて、 前記仮の地図情報のうち前記修正された前記物体は、前
記情報において、前記可能性の高さが低く設定される移
動ロボット。
6. The mobile robot according to claim 5, wherein the height of the possibility of the corrected object in the temporary map information is set low in the information.
【請求項7】 請求項5または6に記載の移動ロボット
において、 前記仮の地図情報に登録された前記長期的にその位置が
固定される前記物体は、前記情報において、前記可能性
の高さが高く設定される移動ロボット。
7. The mobile robot according to claim 5, wherein the object registered in the tentative map information and whose position is fixed for a long time is higher in the information. Mobile robot that is set high.
【請求項8】 請求項5または6に記載の移動ロボット
において、 前記移動ロボットは、前記可能性の高さが低い前記物体
を計測し、前記計測の結果に基づいて、前記可能性の高
さが低い前記物体に関する前記仮の地図情報を修正する
移動ロボット。
8. The mobile robot according to claim 5, wherein the mobile robot measures the object having the low possibility, and based on a result of the measurement, measures the height of the possibility. A mobile robot that corrects the temporary map information regarding the object having a low level.
【請求項9】 請求項8記載の移動ロボットにおいて、 前記移動ロボットは、所定時間の間、指令を受けないと
きに、前記可能性の高さが低い前記物体を計測し、前記
計測の結果に基づいて、前記可能性の高さが低い前記物
体に関する前記仮の地図情報を修正する移動ロボット。
9. The mobile robot according to claim 8, wherein the mobile robot measures the object having a low possibility when the command is not received for a predetermined time, and outputs the result of the measurement. A mobile robot that corrects the temporary map information about the object having a low possibility based on the temporary map information.
JP2002156371A 2002-05-29 2002-05-29 Mobile robot Withdrawn JP2003345438A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002156371A JP2003345438A (en) 2002-05-29 2002-05-29 Mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002156371A JP2003345438A (en) 2002-05-29 2002-05-29 Mobile robot

Publications (1)

Publication Number Publication Date
JP2003345438A true JP2003345438A (en) 2003-12-05

Family

ID=29772635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002156371A Withdrawn JP2003345438A (en) 2002-05-29 2002-05-29 Mobile robot

Country Status (1)

Country Link
JP (1) JP2003345438A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, method for managing robot, and program
JP2012089174A (en) * 2012-02-08 2012-05-10 Fuji Soft Inc Robot and program of information processor
JP2013114500A (en) * 2011-11-29 2013-06-10 Hitachi Ltd Service control system and service system
JP2013222446A (en) * 2012-04-19 2013-10-28 Toyota Central R&D Labs Inc Obstruction detection device and mobile body therewith
WO2013162096A1 (en) * 2012-04-25 2013-10-31 주식회사 하이로시 Travelling robot and method for controlling travelling robot
JP2014211775A (en) * 2013-04-19 2014-11-13 株式会社日立産機システム Arrangement information creating method and mobile robot
JP2015521771A (en) * 2012-06-27 2015-07-30 ロブアート ゲーエムベーハーROBART GmbH Interaction between mobile robot and alarm equipment
DE102017206433A1 (en) 2016-04-20 2017-10-26 Toyota Jidosha Kabushiki Kaisha Automatic travel control system of a mobile object
JP2017208040A (en) * 2016-05-20 2017-11-24 トヨタ自動車株式会社 Automatic operation control system for mobile entity
JP2017207821A (en) * 2016-05-16 2017-11-24 トヨタ自動車株式会社 Automatic operation control system for mobile entity
EP3293487A1 (en) 2016-04-19 2018-03-14 Toyota Jidosha Kabushiki Kaisha Data structure of environment map, environment map preparing system and method, and environment map updating system and method
WO2019216016A1 (en) * 2018-05-09 2019-11-14 ソニー株式会社 Information processing device, information processing method, and program
JP2021103593A (en) * 2017-06-30 2021-07-15 カシオ計算機株式会社 Autonomous mobile device, map information processing method, and program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140533A1 (en) * 2009-06-01 2010-12-09 株式会社日立製作所 Robot control system, robot control terminal, robot control method and program
CN102449568A (en) * 2009-06-01 2012-05-09 株式会社日立制作所 Robot control system, robot control terminal, robot control method and program
US9242378B2 (en) 2009-06-01 2016-01-26 Hitachi, Ltd. System and method for determing necessity of map data recreation in robot operation
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, method for managing robot, and program
JP2013114500A (en) * 2011-11-29 2013-06-10 Hitachi Ltd Service control system and service system
JP2012089174A (en) * 2012-02-08 2012-05-10 Fuji Soft Inc Robot and program of information processor
JP2013222446A (en) * 2012-04-19 2013-10-28 Toyota Central R&D Labs Inc Obstruction detection device and mobile body therewith
WO2013162096A1 (en) * 2012-04-25 2013-10-31 주식회사 하이로시 Travelling robot and method for controlling travelling robot
US9984558B2 (en) 2012-06-27 2018-05-29 RobArt GmbH Interaction between a mobile robot and an alarm installation
JP2015521771A (en) * 2012-06-27 2015-07-30 ロブアート ゲーエムベーハーROBART GmbH Interaction between mobile robot and alarm equipment
JP2014211775A (en) * 2013-04-19 2014-11-13 株式会社日立産機システム Arrangement information creating method and mobile robot
US10260892B2 (en) 2016-04-19 2019-04-16 Toyota Jidosha Kabushiki Kaisha Data structure of environment map, environment map preparing system and method, and environment map updating system and method
EP3293487A1 (en) 2016-04-19 2018-03-14 Toyota Jidosha Kabushiki Kaisha Data structure of environment map, environment map preparing system and method, and environment map updating system and method
DE102017206433A1 (en) 2016-04-20 2017-10-26 Toyota Jidosha Kabushiki Kaisha Automatic travel control system of a mobile object
US10310511B2 (en) 2016-04-20 2019-06-04 Toyota Jidosha Kabushiki Kaisha Automatic driving control system of mobile object
JP2017207821A (en) * 2016-05-16 2017-11-24 トヨタ自動車株式会社 Automatic operation control system for mobile entity
JP2017208040A (en) * 2016-05-20 2017-11-24 トヨタ自動車株式会社 Automatic operation control system for mobile entity
JP2021103593A (en) * 2017-06-30 2021-07-15 カシオ計算機株式会社 Autonomous mobile device, map information processing method, and program
WO2019216016A1 (en) * 2018-05-09 2019-11-14 ソニー株式会社 Information processing device, information processing method, and program
JPWO2019216016A1 (en) * 2018-05-09 2021-05-13 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
JP7375748B2 (en) 2018-05-09 2023-11-08 ソニーグループ株式会社 Information processing device, information processing method, and program
US11847822B2 (en) 2018-05-09 2023-12-19 Sony Corporation Information processing device and information processing method

Similar Documents

Publication Publication Date Title
US20230409032A1 (en) Method for controlling an autonomous, mobile robot
JP2003345438A (en) Mobile robot
JP6849330B2 (en) Map generation method, self-position estimation method, robot system, and robot
KR101708061B1 (en) Control apparatus, control method and recording medium
WO2019138836A1 (en) Information processing device, information processing system, information processing method, and program
EP2249999B1 (en) Methods for repurposing temporal-spatial information collected by service robots
JP2020106513A (en) Drift correction for industrial augmented reality applications
JP4148276B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND PROGRAM RECORDING MEDIUM
JP2019525342A (en) How to control an autonomous mobile robot
JP5566892B2 (en) Tracking and observation robot
CN106339001A (en) Map Production Method, Mobile Robot, And Map Production System
EP3867019B1 (en) Anti-collision safety measures for a modular robot
JP2007249735A (en) Robot location controller and robot self-location restoration method
CN107368071A (en) A kind of abnormal restoring method and electronic equipment
JP2019041261A (en) Image processing system and setting method of image processing system
WO2017038012A1 (en) Mapping method, localization method, robot system, and robot
JP2018106695A (en) Method of operating autonomously traveling transfer vehicle
KR101415297B1 (en) A method for creating a robot map and using robot map and robot having robot map
KR102023699B1 (en) Method for recognition of location and setting route by cord recognition of unmanned movility, and operation system
JP2007017175A (en) Vehicle-mounted information terminal
KR20130122231A (en) Robot navigation using rfid shortest path and its driving method
KR101437916B1 (en) Method for drawing a map by ultrasonic sensor and mobile robot using the same
EP4052103B1 (en) Object handling in an absolute coordinate system
KR20100056178A (en) Apparatus and method for estimating position using the relative locating
JP2018063679A (en) Position estimation system and method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802