JP2005339408A - Self-traveling robot and its control method - Google Patents

Self-traveling robot and its control method Download PDF

Info

Publication number
JP2005339408A
JP2005339408A JP2004160325A JP2004160325A JP2005339408A JP 2005339408 A JP2005339408 A JP 2005339408A JP 2004160325 A JP2004160325 A JP 2004160325A JP 2004160325 A JP2004160325 A JP 2004160325A JP 2005339408 A JP2005339408 A JP 2005339408A
Authority
JP
Japan
Prior art keywords
robot
self
wall
obstacle
propelled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004160325A
Other languages
Japanese (ja)
Inventor
Tomotaka Miyazaki
友孝 宮崎
Masabumi Tamura
正文 田村
Shunichi Kawabata
俊一 川端
Taku Yoshimi
卓 吉見
Hideki Ogawa
秀樹 小川
Daisuke Yamamoto
大介 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004160325A priority Critical patent/JP2005339408A/en
Publication of JP2005339408A publication Critical patent/JP2005339408A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically generate map information of all region parts of each room in a house and improve efficiency of a predetermined work to be performed subsequently. <P>SOLUTION: This self-traveling robot 1 is constituted so as to make a robot main body 15 perform self-traveling by shifting a virtual surface 11 to be formed at a predetermined interval from the inner wall surface of a wall 14 in the house 12 inward by every circulation while repeatedly making a robot main body 15 go around along the virtual surface 11. Furthermore, the self-traveling robot 1 is constituted so that the position of the wall 14 and the position of an obstacle 56 at the center part of a room distant from the wall 14 are acquired on the basis of traveling routes R1, R2 in the house 12 where the robot 15 performs self-traveling and the map information of all regions of the house 12 is generated. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、一般の住宅、会社及び公共施設等の屋内環境において使用可能な自走式ロボット及びその制御方法に関する。   The present invention relates to a self-propelled robot that can be used in an indoor environment such as a general house, company, or public facility, and a control method thereof.

ロボット本体の底部に駆動輪やクリーナの吸引口を備え、一般の住宅、会社及び公共施設等の屋内環境において、自律走行しながら清掃作業を行う自律走行ロボットが知られている(例えば、特許文献1参照)。   2. Description of the Related Art An autonomous traveling robot that includes a driving wheel and a cleaner suction port at the bottom of a robot body and performs a cleaning operation while autonomously traveling in an indoor environment such as a general house, company, or public facility is known (for example, Patent Documents). 1).

上記した自律走行ロボットでは、例えば部屋の内壁に沿ってロボット本体を一周させ、その一周した際の走行経路から決定される清掃領域を複数に分割する。さらに、このロボットでは、分割された清掃領域に対応させた走行計画を立案し、この走行計画に基づいて例えばジグザグ走行しながら複数の分割領域の清掃を順次行うものである。したがって、この自律走行ロボットでは、清掃すべき領域が複雑な形状であっても未清掃領域を発生させることのない清掃作業を実現する。
特開2003−345437号公報
In the autonomous traveling robot described above, for example, the robot body is made a round along the inner wall of the room, and the cleaning area determined from the running route when the round is made is divided into a plurality of areas. Further, in this robot, a travel plan corresponding to the divided cleaning areas is created, and a plurality of divided areas are sequentially cleaned while, for example, zigzag traveling based on the travel plans. Therefore, this autonomous mobile robot realizes a cleaning operation that does not generate an uncleaned area even if the area to be cleaned has a complicated shape.
JP 2003-345437 A

しかしながら、上述した自律走行ロボットは、実際の作業中、すなわち清掃作業中に例えば壁から離間して置かれた障害物を検出した場合、この清掃作業中にはじめて、この障害物の存在を認識する。したがって、この自律走行ロボットでは、新たな障害物の存在を認識したこの時点で上記走行計画等を再設定する必要が生じ、これにより作業効率の面で課題を抱えていると言える。   However, when the above-described autonomous traveling robot detects an obstacle placed away from the wall during the actual work, that is, during the cleaning work, for example, the presence of the obstacle is recognized only during the cleaning work. . Therefore, in this autonomous traveling robot, it is necessary to reset the traveling plan and the like at this point in time when the presence of a new obstacle is recognized, and thus it can be said that there is a problem in terms of work efficiency.

そこで本発明は、このような課題を解決するためになされたもので、特定の領域内における全ての領域部分の地図情報を自動生成して、例えばその後行うべき所定の作業の作業効率を高めることができる自走式ロボット及びその制御方法の提供を目的とする。   Therefore, the present invention has been made to solve such a problem, and automatically generates map information of all area portions in a specific area, for example, to increase the work efficiency of a predetermined work to be performed thereafter. The purpose of the present invention is to provide a self-propelled robot and a control method thereof.

上記目的を達成するために、本発明に係る自走式ロボットは、特定の領域を包囲する壁の内壁面から所定の間隔を空けて形成される仮想面に沿ってロボット本体を繰り返し周回させつつ1周回毎に該仮想面を内側にシフトさせるようにして該ロボット本体を自走させるロボット自走手段と、前記ロボット自走手段により前記特定の領域内を自走した前記ロボット本体の走行ルートを記憶する記憶手段と、前記記憶手段の記憶内容に基づいて、前記壁の位置及び前記走行ルート上にある障害物の位置を取得する位置情報取得手段と、前記位置情報取得手段により取得された位置情報に基づいて、前記特定の領域内の地図情報を生成する地図情報生成手段とを具備することを特徴とする。   In order to achieve the above object, a self-propelled robot according to the present invention repeatedly circulates a robot body along a virtual plane formed at a predetermined interval from an inner wall surface of a wall surrounding a specific area. Robot self-running means for self-running the robot main body so as to shift the virtual plane inward every round, and a travel route of the robot main body self-running in the specific area by the robot self-running means Storage means for storing, position information acquisition means for acquiring the position of the wall and the position of the obstacle on the travel route based on the storage contents of the storage means, and the position acquired by the position information acquisition means And map information generating means for generating map information in the specific area based on the information.

また、本発明の自走式ロボットは、前記ロボット自走手段が、前記ロボット本体の自走方向の前方又は側方に位置する壁を含む障害物を検出する検出手段と、前記検出手段により、前記壁から離間する障害物が前記走行ルート上で検出された場合、前記ロボット本体がこの障害物を周回するように前記ロボット自走手段を制御する走行ルート変更手段とをさらに具備することを特徴とする。
すなわち、これらの発明によれば、特定の領域内における周囲の地図情報を得ることにのみならず、特定の領域内における全ての領域部分の地図情報を自動生成するので、この特定領域内の例えば中央部分に障害物等が置かれていることを予め把握できるので、例えば、その後行うべき所定の作業の作業効率を向上させることができる。
Further, in the self-propelled robot of the present invention, the robot self-propelling means detects an obstacle including a wall located in front of or side of the robot main body in the self-propelling direction, and the detection means, When an obstacle that is separated from the wall is detected on the travel route, the robot main body further includes a travel route changing unit that controls the robot self-propelled unit so that the robot body goes around the obstacle. And
That is, according to these inventions, not only to obtain surrounding map information in a specific area, but also automatically generate map information of all area parts in the specific area. Since it can be grasped in advance that an obstacle or the like is placed in the central portion, for example, the work efficiency of a predetermined work to be performed thereafter can be improved.

さらに、本発明の自走式ロボットは、前記位置情報取得手段が、前記検出手段により、前記走行ルート上で前記ロボット本体における前記壁側と相対する方向に障害物が検出された場合、この障害物の検出が継続されている期間中、この障害物と前記ロボット本体との離間距離の計測を行う距離計測手段をさらに具備することを特徴とする。
つまり、この発明によれば、壁から離間する障害物の位置情報を効率良く取得できるので、地図情報の生成を迅速に行うことができる。
Furthermore, in the self-propelled robot according to the present invention, when the position information acquisition unit detects an obstacle in the direction opposite to the wall side of the robot body on the travel route by the detection unit, The apparatus further comprises a distance measuring means for measuring a distance between the obstacle and the robot body during the period in which the detection of the object is continued.
That is, according to the present invention, the position information of the obstacle that is separated from the wall can be acquired efficiently, so that the map information can be generated quickly.

また、本発明の自走式ロボットは、前記地図情報生成手段により生成された前記地図情報には、前記ロボット本体の前記仮想面に沿った周回を開始させる所定の基準位置、及びこの周回走行で得られた前記走行ルートが少なくとも記憶され、さらに、前記地図情報を参照しつつ前記ロボット本体を自走させる地図走行実行手段と、前記地図走行実行手段により自走を行うロボット本体の前記地図情報上における前記基準位置からの相対的な位置を取得する第1のロボット位置取得手段と、前記検出手段により検出される前記壁の位置に基づいて、前記特定の領域上の基準位置からの相対的なロボットの位置を取得する第2のロボット位置取得手段と、前記第1及び第2のロボット位置取得手段により各々取得されたロボットの位置を比較する位置情報比較手段と、前記位置情報比較手段による比較結果が不一致であった場合、前記ロボット自走手段による前記仮想面に沿った前記ロボット本体の周回走行を再開させる周回走行再開手段と、前記周回走行再開手段により前記特定の領域内を新たに自走して得られた前記ロボット本体の走行ルートと、前記地図情報として記憶されている走行ルートとをパターン照合するパターン照合手段と、前記パターン照合手段による前記パターン照合で一致が得られた場合、前記ロボット本体の自己位置同定を行う自己位置同定手段とを具備することを特徴とする。
すなわち、この発明によれば、自動生成された地図情報に基づいて特定領域内を自走中にロボット本体の自己位置の認識ができなくなった場合でも、自動的に自己位置同定を行うことができる。これにより、当該特定領域内において例えばロボット本体の位置情報を得るための補助手段であるマーカを設置すること等が不要となる。
In the self-propelled robot according to the present invention, the map information generated by the map information generating means includes a predetermined reference position for starting a lap along the virtual plane of the robot body, and the lap run. The obtained travel route is stored at least, and map travel execution means for making the robot body self-run while referring to the map information, and on the map information of the robot body that self-runs by the map travel execution means A first robot position acquisition means for acquiring a relative position from the reference position in the position, and a relative position from the reference position on the specific area based on the position of the wall detected by the detection means. The second robot position acquisition means for acquiring the position of the robot is compared with the positions of the robot respectively acquired by the first and second robot position acquisition means. If the comparison result between the position information comparison means and the position information comparison means does not match, the round traveling restart means for resuming the round traveling of the robot body along the virtual plane by the robot self-running means, and the round A pattern matching unit that pattern-matches a travel route of the robot body newly obtained by self-running within the specific area by a travel resuming unit and a travel route stored as the map information; And self-position identification means for performing self-position identification of the robot body when a match is obtained by the pattern matching by means.
In other words, according to the present invention, even when the self-position of the robot body cannot be recognized while traveling in a specific area based on automatically generated map information, self-position identification can be automatically performed. . Thereby, it is not necessary to install a marker as auxiliary means for obtaining position information of the robot body in the specific area.

さらに、本発明の自走式ロボットでは、前記特定の領域上に設けられた前記基準位置は、前記ロボット自走手段により定められる前記仮想面に沿った位置にあることを特徴とする。これにより、上記のようにして、自己位置同定ができなかった場合でも、ロボット本体が仮想面に沿った周回走行を継続するうちに、ロボット本体の位置情報を得られる基準位置に帰還することができる。   Furthermore, in the self-propelled robot of the present invention, the reference position provided on the specific area is located along the virtual plane defined by the robot self-propelling means. As a result, even when the self-position identification cannot be performed as described above, the robot main body can return to the reference position where the position information of the robot main body can be obtained while continuing the circular traveling along the virtual plane. it can.

さらに、本発明の自走式ロボットの制御方法は、特定の領域を包囲する壁の内壁面から所定の間隔を空けて形成される仮想面に沿ってロボット本体を繰り返し周回させつつ該仮想面を1周回毎に内側にシフトさせるようにして該ロボット本体を自走させるステップと、前記特定の領域内を自走させた前記ロボット本体の走行ルートを記憶装置に記憶するステップと、前記記憶装置の記憶内容に基づいて、前記壁の位置及び前記走行ルート上にある障害物の位置を取得するステップと、前記取得された位置情報に基づいて、前記特定の領域内の地図情報を生成するステップとを有することを特徴とする。   Further, according to the control method of the self-propelled robot of the present invention, the virtual surface is repeatedly circulated along the virtual surface formed at a predetermined interval from the inner wall surface of the wall surrounding the specific region. A step of self-running the robot main body so as to shift inward every round, a step of storing a travel route of the robot main body self-propelled in the specific area in a storage device, Acquiring the position of the wall and the position of an obstacle on the travel route based on the stored content; generating map information in the specific area based on the acquired position information; It is characterized by having.

また、本発明の自走式ロボットの制御方法は、前記ロボット本体の自走方向の前方又は側方に位置する壁を含む障害物を検出する検出ステップと、前記検出ステップにより、前記壁から離間する障害物が前記走行ルート上で検出された場合、前記ロボット本体がこの障害物を周回するように該ロボットの走行ルートを変更するステップとをさらに有することを特徴とする。
さらに、本発明の自走式ロボットの制御方法は、前記検出ステップにより、前記走行ルート上で前記ロボット本体における前記壁側と相対する方向に障害物が検出された場合、この障害物の検出が継続されている期間中、この障害物と前記ロボット本体との離間距離の計測を行うステップをさらに有することを特徴とする。
Further, the control method of the self-propelled robot according to the present invention includes a detection step of detecting an obstacle including a wall located in front of or side of the robot body in the self-propelling direction, and the detection step separates from the wall. When an obstacle to be detected is detected on the travel route, the robot main body further includes a step of changing the travel route of the robot so as to go around the obstacle.
Furthermore, in the control method of the self-propelled robot of the present invention, when an obstacle is detected in the direction opposite to the wall side in the robot body on the travel route by the detection step, the obstacle is detected. The method further includes a step of measuring a separation distance between the obstacle and the robot body during the continuing period.

また、本発明の自走式ロボットの制御方法は、前記地図情報には、前記ロボット本体の前記仮想面に沿った周回を開始させる所定の基準位置、及びこの周回走行で得られた前記走行ルートが少なくとも記憶され、さらに、前記地図情報を参照しつつ前記ロボット本体を自走させるステップと、前記自走を行うロボット本体の前記地図情報上の前記基準位置からの相対的な位置を取得する第1のロボット位置取得ステップと、前記検出ステップで検出される前記壁の位置に基づいて、前記特定の領域上の基準位置からの相対的なロボットの位置を取得する第2のロボット位置取得ステップと、前記第1及び第2のロボット位置取得ステップにより各々取得されたロボットの位置を比較照合するステップと、前記比較照合結果が不一致であった場合、前記仮想面に沿った前記ロボット本体の周回走行を再開させるステップと、前記特定の領域内を新たに周回走行させて得られた前記ロボット本体の走行ルートと、前記地図情報として記憶されている走行ルートとをパターン照合するステップと、前記パターン照合で一致が得られた場合、前記ロボット本体の自己位置同定を行う自己位置同定手段とを具備することを特徴とする。
さらに、本発明の自走式ロボットの制御方法は、前記特定の領域上に設けられた前記基準位置が、前記仮想面に沿った位置にあることを特徴とする。
In the control method of the self-propelled robot according to the present invention, the map information includes a predetermined reference position for starting a round along the virtual plane of the robot body, and the travel route obtained by the round travel. Is stored, and further includes a step of making the robot body self-run while referring to the map information, and a step of acquiring a relative position from the reference position on the map information of the robot body performing the self-run. A first robot position acquisition step, and a second robot position acquisition step for acquiring a relative robot position from a reference position on the specific region based on the wall position detected in the detection step. When the robot position acquired in the first and second robot position acquisition steps is compared and verified, and the comparison result is inconsistent. , The step of resuming the round travel of the robot body along the virtual plane, the travel route of the robot body obtained by a new round travel in the specific area, and the map information are stored. The method includes a step of pattern matching with a travel route, and a self-position identifying means for performing self-position identification of the robot body when a match is obtained by the pattern matching.
Furthermore, the control method for a self-propelled robot according to the present invention is characterized in that the reference position provided on the specific area is located along the virtual plane.

このように本発明によれば、特定の領域内における全ての領域部分の地図情報を予め自動生成することでき、例えばその後行うべき所定の作業の作業効率を高めることが可能な自走式ロボット及びその制御方法を提供することができる。   As described above, according to the present invention, map information of all area portions in a specific area can be automatically generated in advance, and for example, a self-propelled robot capable of improving the work efficiency of a predetermined work to be performed thereafter, The control method can be provided.

以下、本発明を実施するための最良の形態を図面に基づき説明する。
図1は、本発明の実施形態に係る自走式ロボットの外観を示す斜視図、図2は、この自走式ロボットの構成を機能的に示すブロック図、図3は、この自走式ロボットによる住居内の地図生成動作(1巡回目)を説明するための平面図である。
The best mode for carrying out the present invention will be described below with reference to the drawings.
FIG. 1 is a perspective view showing the appearance of a self-propelled robot according to an embodiment of the present invention, FIG. 2 is a block diagram functionally showing the configuration of the self-propelled robot, and FIG. 3 is this self-propelled robot. It is a top view for demonstrating the map generation operation | movement (1st round) in a residence by.

図1及び図2に示すように、本実施形態に係る自走式(自律走行式)ロボット1は、主に、自身の外郭を形成する筐体(ロボット本体)15と、後に詳述する地図データに基づいて、この筐体15を含むロボット本体の自律的な移動を行う(走行させる)ための移動機構(車輪)16と、移動機構(車輪)16の駆動源となるバッテリ17と、室内の壁や室内に置かれている物品までの距離を測定するための複数の距離センサ18と、室内の巡回中に走行経路にあらわれる凹部を検知するための複数の落下防止センサ19等とを備えている。   As shown in FIGS. 1 and 2, the self-propelled (autonomous traveling) robot 1 according to the present embodiment mainly includes a housing (robot body) 15 that forms its outline and a map that will be described in detail later. Based on the data, a moving mechanism (wheel) 16 for autonomously moving (running) the robot body including the housing 15, a battery 17 serving as a drive source for the moving mechanism (wheel) 16, A plurality of distance sensors 18 for measuring the distance to a wall or an article placed in the room, and a plurality of fall-preventing sensors 19 for detecting a recess appearing in the travel path during a tour in the room. ing.

上記距離センサ18は、非接触方式のセンサである例えば超音波センサやレーザ距離センサ等であって、図1に示すように、ロボット1の自走方向である自身の前方(後述するスピーカ20の取付方向)と両側部(左右)とに少なくとも1つずつ配置されている。落下防止センサ19は、例えばフォトセンサ等の非接触方式のセンサ等であって、ロボット1の両側部(左右)と前方に少なくとも1つずつ配置されている。ここで、ロボット1は、外部から電源を供給するための配線を持たず、上記バッテリ17で動作する。つまり、ロボット1は、住居12内の所定の基準位置に設置された充電ステーション(図示せず)へ定期的に戻り、このステーションの充電用の電極に対し、自身のバッテリ17を接触させることで、自動充電を行うように構成されている。   The distance sensor 18 is a non-contact type sensor, for example, an ultrasonic sensor, a laser distance sensor, or the like, and as shown in FIG. At least one is disposed in each of the (attachment direction) and both sides (left and right). The fall prevention sensor 19 is a non-contact type sensor such as a photo sensor, for example, and is disposed at least one on each side (left and right) and forward of the robot 1. Here, the robot 1 does not have wiring for supplying power from the outside, and operates with the battery 17. That is, the robot 1 periodically returns to a charging station (not shown) installed at a predetermined reference position in the residence 12, and makes its battery 17 contact the charging electrode of this station. It is configured to perform automatic charging.

さらに、ロボット1は、図1及び図2に示すように、筐体15の外側部分に、カメラ部21と、ディスプレイ(LCD)22を備える表示部23と、操作ボタン24と、マイク25と、スピーカ20と、通信アンテナ26を含む通信部27とを備え、筐体15の内部に、画像処理部28と、人物認証部29と、音声認識部30と、移動制御部31と、記憶部32と、これらのハードウェアを統括的に制御する統括制御部33とを備える。   Further, as shown in FIGS. 1 and 2, the robot 1 includes a camera unit 21, a display unit 23 including a display (LCD) 22, an operation button 24, a microphone 25, A speaker 20 and a communication unit 27 including a communication antenna 26 are provided, and an image processing unit 28, a person authentication unit 29, a voice recognition unit 30, a movement control unit 31, and a storage unit 32 are provided inside the housing 15. And an overall control unit 33 that controls these hardware in an integrated manner.

カメラ部21は、ロボット1の周囲の状況を捕捉する。画像処理部28は、カメラ部21によって捕捉された映像を画像処理してデジタル画像に変換する。ここで、本実施形態においては、住居12に居住する複数の居住者が、ユーザに該当する。つまり、記憶部32には、住居12に居住する複数のユーザの顔画像が顔辞書として予め登録されている。したがって、人物認証部29は、統括制御部33の制御下で、顔辞書内のユーザの顔画像と、カメラ部21及び画像処理部28を通じて撮像された顔画像とを比較照合することで、複数のユーザの中から、1人のユーザを判別(特定)し、ユーザの人物認証を行う。無論、撮像された顔画像が顔辞書にない場合には、非ユーザ(非居住者)として判断される。   The camera unit 21 captures the situation around the robot 1. The image processing unit 28 performs image processing on the video captured by the camera unit 21 and converts it into a digital image. Here, in this embodiment, a plurality of residents residing in the residence 12 correspond to users. That is, in the storage unit 32, face images of a plurality of users who live in the residence 12 are registered in advance as a face dictionary. Therefore, under the control of the overall control unit 33, the person authentication unit 29 compares and collates the user's face image in the face dictionary with the face image captured through the camera unit 21 and the image processing unit 28, so that One user is discriminated (identified) from among the users, and user authentication of the user is performed. Of course, when the captured face image is not in the face dictionary, it is determined as a non-user (non-resident).

移動制御部31は、移動機構(車輪)16の駆動を制御する。また、移動制御部31は、移動機構(車輪)16によるロボット1の変位量(車輪回転数)や、ロボット本体に内蔵されたジャイロより得られるデータに基づいて、基準位置(充電ステーションの位置)Stに対してのロボット1の現在位置(自己位置)を取得するための情報を生成する。表示部23は、ユーザに対する可視的なガイダンス情報として画像やメッセージをディスプレイ22に表示する。スピーカ20は、ユーザに対し音声によるメッセージや報知音等を出力する。操作ボタン24は、スピーカ20や表示部23より出力される情報に基づいて、ユーザがキー操作により情報を入力するための操作部である。通信部27は、例えばネットワークを通じて接続された他の電子機器との間で情報のやり取りを行うために設けられている。マイク25は、ロボット1の周囲の音や人物の発する声を集音する。音声認識部30は、マイク25により集音された人物の声を音声認識する。   The movement control unit 31 controls driving of the movement mechanism (wheel) 16. Further, the movement control unit 31 determines the reference position (position of the charging station) based on the displacement amount (wheel rotation speed) of the robot 1 by the movement mechanism (wheel) 16 and data obtained from the gyro built in the robot body. Information for acquiring the current position (self position) of the robot 1 with respect to St is generated. The display unit 23 displays an image and a message on the display 22 as visible guidance information for the user. The speaker 20 outputs a voice message or notification sound to the user. The operation button 24 is an operation unit for a user to input information by key operation based on information output from the speaker 20 or the display unit 23. The communication unit 27 is provided, for example, for exchanging information with other electronic devices connected through a network. The microphone 25 collects sounds around the robot 1 and voices of people. The voice recognition unit 30 recognizes the voice of the person collected by the microphone 25 as a voice.

記憶部32には、上述した人物認証のための顔辞書の他、地図情報(本実施形態ではこの地図情報の自走生成方法を例示)35と、この地図情報35を生成するための自走式ロボット1本体の走行の決まりを記憶する走行ルール34とが主に記憶されている。ここで、後に詳述する地図情報35には、窓51等を複数備える住居(特定の領域)12内のリビング52、ダイニングキッチン53、子供部屋54、寝室55等の各部屋の壁14の位置、部屋間の出入口、家具の位置等を上記基準位置からの座標位置(X,Y座標)で示す位置情報が主に記憶されている。   In the storage unit 32, in addition to the face dictionary for personal authentication described above, map information (in this embodiment, a self-running generation method of this map information is exemplified) 35, and self-running for generating this map information 35 The travel rules 34 for storing the rules of travel of the main body of the robot 1 are mainly stored. Here, in the map information 35 described in detail later, the position of the wall 14 of each room such as the living room 52, the dining kitchen 53, the child room 54, the bedroom 55, etc. in the house (specific area) 12 having a plurality of windows 51 and the like. Position information indicating the entrance / exit between rooms, the position of furniture, and the like by the coordinate position (X, Y coordinate) from the reference position is mainly stored.

また、自走式ロボット1は、住宅、会社事務所、及び公共施設等の屋内環境において、所定の作業、つまり、画像の変化や、音の変化を検知することにより侵入者を見つけ威嚇、通報したり、屋内の火、煙の発生を見つけ通報するような防犯、防災用途等に例えば用いられる。したがって、自走式ロボット1は、住居12内で自立的な移動を行うために上記地図情報35が必要になり、この地図情報35の自動生成機能を有する。   The self-propelled robot 1 detects an intruder by detecting a predetermined work, that is, a change in an image or a sound in an indoor environment such as a house, a company office, or a public facility. For example, it is used for crime prevention, disaster prevention, etc. for detecting and reporting the occurrence of indoor fire and smoke. Therefore, the self-propelled robot 1 needs the map information 35 in order to perform autonomous movement in the residence 12, and has an automatic generation function of the map information 35.

次に、自走式ロボット1による住居12内の1巡回目の地図生成動作を上記走行ルール34の説明も兼ねて上記図3の住居12内の平面図、及び図4のフローチャートに基づき詳述する。ここで、図4は、主に統括制御部33が行う処理を示すものである。
すなわち、自走式ロボット1が、基準位置(充電ステーション)Stを出発した時点から走行ルール34に従ったロボット本体(筐体)15の移動制御が開始される(S1)。ロボット本体(筐体)15の左側の距離センサ18により壁14の左側面までの距離を測り、その距離が一定になるように保ちながら左側壁面に沿って走行する。ここで、左側面に壁14が無く下面が凹状態になっている場合には(S2)、落下防止センサ19により下面凹部の段差境界線を検知しながら、境界線に沿って走行し(S3)、凹部領域を通過する(S4)。
Next, the map generation operation of the first round in the residence 12 by the self-propelled robot 1 will be described in detail based on the plan view in the residence 12 of FIG. 3 and the flowchart of FIG. To do. Here, FIG. 4 mainly shows processing performed by the overall control unit 33.
That is, the movement control of the robot main body (housing) 15 according to the traveling rule 34 is started from the time when the self-propelled robot 1 departs from the reference position (charging station) St (S1). The distance sensor 18 on the left side of the robot body (housing) 15 measures the distance to the left side surface of the wall 14 and travels along the left wall surface while keeping the distance constant. Here, when the wall 14 is not present on the left side surface and the lower surface is concave (S2), the fall prevention sensor 19 detects the step boundary line of the lower surface recess and travels along the boundary line (S3). ), Passing through the recessed area (S4).

また、走行途中で、前方が突当りになっている場合(S5)、前方の距離センサ18により検知し、ある一定の距離になった位置で、右方向へ旋回を開始し(S6)、前方に突当りがなくなったことが検出されると右旋回が停止する(S7)。つまり、部屋の角位置の場合は約90度の右旋回になるが、その場所の状況に合わせて旋回角度は調整される。   Further, when the vehicle is in the middle of traveling (S5), it is detected by the front distance sensor 18 and starts turning rightward at a certain distance (S6). When it is detected that the bump has been lost, the right turn is stopped (S7). That is, in the case of the corner position of the room, a right turn of about 90 degrees is made, but the turn angle is adjusted according to the situation of the place.

さらに、壁14の内壁面に対しロボット本体15の左側面が沿うように走行している途中で、壁14からのこの左側面までの距離が範囲外に変化した場合(急激に大きくなった場合や計測不能になった場合)(S8)、左方向への旋回を開始する(S9)。この際、左側の下面が凹状態でないことを落下防止センサ19で確認しながら旋回する。左旋回の角度は、部屋の状況により様々であるが、左側の壁端に沿って円弧を描きながら旋回を行う。最大旋回角度は180度になる。壁14からのロボット本体15の左側面までの距離が範囲内となったら左旋回が停止する(S10)。ここで、統括制御部33は、このような1巡回の走行ルートR1上の各ポイント、つまり停止した位置や旋回位置等で、走行データ(基準位置からの走行距離、ロボット本体のジャイロデータによる向き[角度])、及びカメラ部による捕捉画像を記憶部32に記録して行く。さらに、この後、左側の壁面までの距離を一定に保ちながら走行が継続され、スタートした基準位置Stへ戻ると走行データの収集が終了し、走行を停止させる。その後、収集した走行データを基に地図データの形に編集して、まず住居12内の周囲の地図情報が生成される。   Furthermore, when the distance from the wall 14 to the left side of the robot main body 15 is running so that the left side of the robot body 15 is along the inner wall of the wall 14 (when the distance rapidly increases) If the measurement becomes impossible) (S8), the turning to the left is started (S9). At this time, the vehicle turns while confirming with the fall prevention sensor 19 that the lower surface on the left side is not concave. The angle of left turn varies depending on the situation of the room, but turns while drawing an arc along the left wall edge. The maximum turning angle is 180 degrees. When the distance from the wall 14 to the left side of the robot body 15 is within the range, the left turn is stopped (S10). Here, the overall control unit 33 uses the travel data (the travel distance from the reference position, the direction based on the gyro data of the robot body) at each point on the travel route R1, such as the stopped position and the turning position. [Angle]) and an image captured by the camera unit are recorded in the storage unit 32. Further, after that, the traveling is continued while keeping the distance to the left wall surface constant, and when returning to the starting reference position St, the collection of traveling data is finished and the traveling is stopped. Thereafter, the map data is edited into map data based on the collected travel data, and first, map information around the dwelling 12 is generated.

次に、自走式ロボット1による住居12内の2巡回目及びそれ以降の(3〜)巡回目の地図生成動作を図5の住居12内の平面図、及び図6の主に統括制御部33が行う処理を示すフローチャートに基づき説明を行う。
上記図3に示した地図の生成により、住居12内の周囲の地図情報は生成できるが、壁14から離れた位置にある物(家具やベッド等)の位置データ情報が不足している。それらの位置データを得るため、以下の方法により地図生成を実施する。走行ルール34に従う上記1巡回目の走行により周囲地図データを生成した後、2巡回目以降の走行を継続し、地図生成を続行する。
Next, the map generation operation of the second round in the residence 12 by the self-propelled robot 1 and the subsequent (3-) rounds of the map generation operation is illustrated in the plan view in the residence 12 in FIG. A description will be given based on the flowchart showing the processing performed by 33.
Although the map information shown in FIG. 3 can be used to generate map information around the dwelling 12, the position data information of objects (furniture, beds, etc.) located away from the wall 14 is insufficient. In order to obtain such position data, map generation is performed by the following method. After the surrounding map data is generated by the first traveling according to the traveling rule 34, the second and subsequent traveling is continued and the map generation is continued.

2巡回目以降では、まず巡回回数が取得され(S21)、ロボット本体15の左の壁14までの離間距離が設定される(S22)。つまり、自走式ロボット1の自走(走行)制御は、住居12の各部屋を包囲する壁(住居12自体の外郭を形成する壁、及び出入口を有する各部屋の隔壁を含む)14の内壁面から所定の間隔を空けて形成される仮想面11に沿ってロボット本体15を繰り返し周回させつつ1周回毎に該仮想面11を内側にシフトさせるようにして該ロボット本体を自走させるようにして行われる。
上記離間距離の設定後、自走式ロボット1は、基準位置Stをスタートして(S23)、さらに走行ルール34に従い走行し(S24)、2巡回の走行ルートR2上の各ポイント、つまり停止した位置や旋回位置等で、走行データ(基準位置からの走行距離、ロボット本体のジャイロデータによる向き[角度])、及びカメラ部による捕捉画像を記憶部32に記録して行く。
In the second and subsequent rounds, the number of rounds is first acquired (S21), and the separation distance to the left wall 14 of the robot body 15 is set (S22). That is, the self-propelled (running) control of the self-propelled robot 1 is performed within the walls (including the walls that form the outline of the dwelling 12 itself and the partition walls of each room having an entrance / exit) that surround each room of the dwelling 12. While the robot body 15 is repeatedly circulated along the virtual surface 11 formed at a predetermined interval from the wall surface, the virtual surface 11 is shifted inward for each turn so that the robot body self-runs. Done.
After setting the above separation distance, the self-propelled robot 1 starts the reference position St (S23), further travels according to the travel rule 34 (S24), and stops at each point on the two-round travel route R2, that is, stops. The travel data (travel distance from the reference position, orientation [angle] based on gyro data of the robot body), and captured image by the camera unit are recorded in the storage unit 32 at the position, turning position, and the like.

ここで、1巡回目の走行と異なる点について説明する。
走行ルール34に従い走行するものの、左側面、前方までの距離を1巡回目より長く保ちながら走行する(周回走行の基準となる前記仮想面を一巡回目よりも内側にシフトさせた状態で自走する)。ここで、2巡回目において、壁までの保つ距離は、1巡回目で保った距離に、ロボットの横幅を加算した距離以下にする。これにより、走行範囲の漏れをなくすことができる。
Here, differences from the first round of traveling will be described.
Although the vehicle travels according to the travel rule 34, it travels while keeping the distance from the left side to the front longer than the first round (runs in a state where the virtual plane that is the reference for the round trip is shifted inward from the first round). ). Here, in the second round, the distance to the wall is set to be equal to or smaller than the distance obtained by adding the lateral width of the robot to the distance kept in the first round. Thereby, the leakage of a driving range can be eliminated.

1巡回目と異なる位置で、前方に突当りを検知した場合は(S25)、障害物(家具等の物品)56があると判断でき(S26)一旦停止する。ここからは、左側面までの距離は1巡回目と同じ距離に保ちながら走行ルール34に従い、障害物56の周囲を走行し(S27)、周回が完了した後(S28)、走行データ(主にロボット本体15が障害物56を周回した走行ルート)を記録する。障害物を1周回したことは、ロボット本体15の向きが360度回転したことと、走行距離の積算から元の場所に戻ったことで判断する。障害物の回りを周回完了した後、障害物56を避けながら、2巡回目の上記離間距離を再設定し同様の走行を続ける(S29)。   When a collision is detected in a forward position at a position different from the first round (S25), it can be determined that there is an obstacle (article such as furniture) 56 (S26) and temporarily stops. From here, the distance to the left side is maintained around the obstacle 56 according to the driving rule 34 while keeping the same distance as the first round (S27), and after the lap is completed (S28), the driving data (mainly The travel route in which the robot body 15 orbits the obstacle 56) is recorded. The fact that the obstacle has been turned once is determined by the fact that the direction of the robot body 15 has rotated 360 degrees and the return to the original location from the accumulated travel distance. After completing the lap around the obstacle, while avoiding the obstacle 56, the separation distance for the second round is reset and the same running is continued (S29).

このような走行方法により、住居12内の各部屋を走行し、スタートした基準位置へ戻ると(S30)、走行ルートR2の走行軌跡を含む走行データの収集は終了し、基準位置で走行を停止する。この後、収集したデータを基に、1巡回目で生成した地図データへ追加編集を行い、2巡回目の自動地図生成が完了となる。さらに、左側面、前方までの距離を長く保ちながら(前記仮想面11を1、2巡回目よりも順次内側にシフトさせて行き)上記した巡回走行を順次繰り返す。ここで、巡回回数は、左側面、前方までの保つ距離が、最も広い部屋の長手方向の長さに対し充分な距離になった時点で、住居12内の全域をカバーしたと判断できるため、その巡回で地図情報35の生成は完了となる(S31)。なお、小さい部屋や狭い通路は、左側面及び前方までの距離を長く保つと走行できなくなるため、各場所の周囲壁面間(縦、横)の距離の半分の距離を最大とし、調整しながら走行する。   By traveling in each room in the house 12 by such a traveling method and returning to the starting reference position (S30), the collection of traveling data including the traveling locus of the traveling route R2 is finished, and the traveling is stopped at the reference position. To do. Thereafter, the map data generated in the first round is additionally edited based on the collected data, and the automatic map generation in the second round is completed. Furthermore, the above-mentioned traveling is sequentially repeated while keeping the distance to the left side and the front side long (the virtual surface 11 is sequentially shifted inward from the first and second rounds). Here, the number of patrols can be determined to have covered the entire area in the residence 12 when the distance to the left side and the front is sufficient for the length in the longitudinal direction of the widest room, The generation of the map information 35 is completed by the patrol (S31). Small rooms and narrow passages cannot run if the distance to the left side and the front is kept long, so the distance between the surrounding wall surfaces (vertical and horizontal) of each location is maximized and adjusted while adjusting. To do.

このような自走式ロボット1の巡回走行により、住居12内における各部屋の周囲の地図情報を得ることにのみならず、住居12内の各部屋の全領域部分の地図情報を自動生成するので、この壁14から離間した部屋の例えば中央部分に障害物56等が置かれていることを予め把握できるので、その後行うべき例えば防犯や防災等に関する作業の作業効率を高めることができる。   By such a traveling of the self-propelled robot 1, not only the map information around each room in the residence 12 is obtained, but also the map information of the entire area of each room in the residence 12 is automatically generated. Since it is possible to grasp in advance that the obstacle 56 or the like is placed in, for example, the central portion of the room separated from the wall 14, it is possible to improve the work efficiency of work relating to crime prevention or disaster prevention that should be performed thereafter.

次に、図3及び図5等を用いて説明した地図生成動作と異なる他の地図生成動作を図7に基づき説明する。
基本的な走行方法は、図3及び図5に示した地図情報の自動生成方法とほぼ同様である。
自走式ロボット1は、基準位置Stをスタートし、走行ルール34に従い走行する。
各ポイント、つまり停止した位置や旋回位置等で、走行データ(基準位置からの走行距離、ロボット本体のジャイロデータによる向き[角度])、及びカメラ部による捕捉画像を記憶部32に記録して行き、住居12内の各部屋の地図情報を自動生成する。
Next, another map generation operation different from the map generation operation described with reference to FIGS. 3 and 5 will be described with reference to FIG.
The basic travel method is almost the same as the automatic map information generation method shown in FIGS.
The self-propelled robot 1 starts the reference position St and travels according to the travel rule 34.
At each point, that is, at the stopped position, turning position, etc., the travel data (the travel distance from the reference position, the orientation [angle] according to the gyro data of the robot body), and the captured image by the camera unit are recorded in the storage unit 32. The map information of each room in the residence 12 is automatically generated.

以下、図3及び図5に示した地図情報の自動生成方法と異なる点についてのみ説明をする。
すなわち、走行ルール34による走行時に、壁側とは反対側の距離センサ(本例では、右側の距離センサ18)により距離を測定し記憶する。住居12内の1巡回を完了し、基準位置Stへ戻ったら、走行により生成した周囲地図と、右側の距離データとを照合し、離間距離を定める左側の壁と対向する壁からロボット本体までの距離L2より、右側の距離センサ18にて測定された距離L1が短い場合は、障害物56があると判断できる。その障害物56の位置データを地図情報へ追加し、地図の生成が完了となる。詳細には、この障害物56の検出が右側の距離センサ18により継続されている期間中、この障害物56とロボット本体15との離間距離の計測を行う。これにより、壁14から離間する障害物56の位置情報を効率良く取得できるので、地図情報の生成を迅速に行うことができる。
Hereinafter, only differences from the map information automatic generation method shown in FIGS. 3 and 5 will be described.
That is, during traveling according to the traveling rule 34, the distance is measured and stored by the distance sensor opposite to the wall side (in this example, the right distance sensor 18). After completing one round in the residence 12 and returning to the reference position St, the surrounding map generated by the traveling and the distance data on the right side are collated, and the robot body from the wall facing the left wall defining the separation distance to the robot body If the distance L1 measured by the right distance sensor 18 is shorter than the distance L2, it can be determined that there is an obstacle 56. The position data of the obstacle 56 is added to the map information, and the generation of the map is completed. Specifically, while the detection of the obstacle 56 is continued by the distance sensor 18 on the right side, the separation distance between the obstacle 56 and the robot body 15 is measured. Thereby, since the positional information on the obstacle 56 that is separated from the wall 14 can be acquired efficiently, map information can be generated quickly.

次に、自走式ロボット1による自己位置同定方法と基準位置Stへの帰還方法について図8、及び図9のフローチャートに基づき説明を行う。
自走式ロボット1は、上記方法により生成した地図情報に基づいて、住居12内を走行し、防犯、防災に関する作業を実行する。その過程において、ロボット自身の実空間位置が地図データ上のどこに位置しているのか判断できなくなる場合がある。
例えば、地図データ上では部屋の壁14に突き当たる位置まできていると認識しているはずであるのに、距離センサ18による壁14までの計測データが大きく壁近辺まで至っていない場合や、反対に地図データ上では部屋の中央に位置していると認識しているはずであるのに、実空間ではロボット本体15が壁14に接近し過ぎ、状況によっては壁14に接触してしまう場合等がある。つまり、自走式ロボット1の地図情報35上の自己位置は、移動機構(車輪)16の回転数とジャイロのデータにて行っているが、走行に伴う車輪の滑り等により発生する位置誤差の積算、及びジャイロの角度誤差の積算により発生する。地図情報35上のロボットの自己位置の認識と実空間上のロボットの位置との間にズレが生じてしまうと、それ以降ロボットの正確な位置制御ができなくなる。
Next, a self-position identification method by the self-propelled robot 1 and a return method to the reference position St will be described based on the flowcharts of FIGS. 8 and 9.
The self-propelled robot 1 travels inside the residence 12 based on the map information generated by the above method, and performs work related to crime prevention and disaster prevention. In the process, it may be impossible to determine where the real space position of the robot itself is located on the map data.
For example, the map data should recognize that the position has reached the wall 14 of the room, but the measurement data up to the wall 14 by the distance sensor 18 is not large enough to reach the vicinity of the wall. Although it should be recognized that it is located at the center of the room on the map data, the robot body 15 may be too close to the wall 14 in the real space and may contact the wall 14 depending on the situation. is there. In other words, the self-position on the map information 35 of the self-propelled robot 1 is determined by the rotational speed of the moving mechanism (wheel) 16 and the gyro data. This occurs due to integration and integration of the gyro angle error. If a deviation occurs between the recognition of the robot's own position on the map information 35 and the position of the robot in the real space, accurate position control of the robot cannot be performed thereafter.

そこで、このような課題を解消するために、自走式ロボット1の自己位置同定を行う。 以下、その方法について説明を行う。
図8及び図9に示すように、統括制御部33は、ロボット本体15における地図情報35上の自己位置と実空間上の位置との間に不一致が生じたと判断した場合(S51)、まず、ロボット本体15を直進走行させ(S52)、壁面までの距離が、走行ルールで決められている所定の離間距離となった位置で(S53)、ロボット本体15を停止する。この際、前方の下面に凹段差があった場合は、段差の直前位置で停止する。
Therefore, in order to solve such a problem, self-position identification of the self-propelled robot 1 is performed. The method will be described below.
As shown in FIGS. 8 and 9, when the overall control unit 33 determines that a mismatch has occurred between the self position on the map information 35 in the robot body 15 and the position in the real space (S 51), first, The robot main body 15 travels straight (S52), and the robot main body 15 is stopped at a position where the distance to the wall surface is a predetermined separation distance determined by the travel rules (S53). At this time, if there is a concave step on the front lower surface, the vehicle stops at a position immediately before the step.

そこから先は、前述した走行ルール34に従い走行する(S54)。自己位置を見失った時点以降の走行データを記録して行き、上記各ポイント(停止位置や旋回位置等)で予め生成している地図データとパターン照合を行う(S55)。パターンが一致した時点で(S55のYES)、地図データ上の自己位置と実空間上の位置の修正を実行でき、ポイントP1にて自己位置同定が完了する(S56)。各ポイントにおいてのパターン照合は、走行ルートR3との比較を基本に行うが、カメラ部21により撮像した画像が、地図生成時の記録画像と一致しているかの判断を加えることも可能である。これにより、走行ルートの似通った場所が複数あって、パターン照合が一致するまでの走行距離が長くなる場合、画像の比較も行うことで、早い時点で自己位置同定を完了させることができる。   From there, the vehicle travels according to the travel rule 34 described above (S54). The travel data after the time when the self-position is lost is recorded, and pattern matching is performed with the map data generated in advance at each point (stop position, turning position, etc.) (S55). When the patterns match (YES in S55), the self-position on the map data and the position on the real space can be corrected, and the self-position identification is completed at the point P1 (S56). Pattern matching at each point is performed based on comparison with the travel route R3, but it is also possible to add a judgment as to whether the image captured by the camera unit 21 matches the recorded image at the time of map generation. As a result, when there are a plurality of places where the travel routes are similar and the travel distance until the pattern matching is matched becomes longer, the self-position identification can be completed at an early point in time by comparing the images.

また、自走式ロボット1では、住居12内に設けられた基準位置Stは、前述した地図生成時の巡回走行により定められる周回ルート(前記ロボット本体15が周回する仮想面に沿った位置)上に設けられている。これにより、上記した方法で自己位置同定ができなかった場合でも、ロボット本体が前記仮想面に沿った周回走行(走行ルートR4に示されるような経路になる走行)を継続するうちに、ロボット本体15の位置情報が得られる基準位置Stに帰還することができる。   In the self-propelled robot 1, the reference position St provided in the residence 12 is on the circulation route (position along the virtual plane around which the robot body 15 circulates) determined by the above-described traveling at the time of map generation. Is provided. As a result, even when the self-position identification cannot be performed by the above-described method, the robot main body continues to travel around the virtual plane (travel along the route shown by the travel route R4). It is possible to return to the reference position St where 15 position information is obtained.

以上、本発明を実施の形態により具体的に説明したが、本発明は前記実施形態にのみ限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。例えば、上述した実施形態では、ロボット本体15の左側方の壁を検出しながら、主に外回りで住居12内を周回して行くものであったが、これに代えて、ロボット本体15の右側方の壁を検出しながら、主に内回りで住居12内を周回走行させるように自走式ロボット1を構成してもよい。   Although the present invention has been specifically described above by the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention. For example, in the above-described embodiment, while the left side wall of the robot body 15 is detected, the inside of the residence 12 is mainly rotated around the outside, but instead, the right side of the robot body 15 is The self-propelled robot 1 may be configured so as to run around the dwelling 12 mainly inward while detecting the wall.

本発明の実施形態に係る自走式ロボットの外観を示す斜視図。The perspective view which shows the external appearance of the self-propelled robot which concerns on embodiment of this invention. 図1の自走式ロボットの構成を機能的に示すブロック図Functional block diagram of the configuration of the self-propelled robot of FIG. 図1の自走式ロボットによる住居内の1巡回目の地図生成動作を説明するための平面図。The top view for demonstrating map generation operation | movement of the 1st round in the residence by the self-propelled robot of FIG. 図3の地図生成動作に対応する処理を示すフローチャート。The flowchart which shows the process corresponding to the map production | generation operation | movement of FIG. 図1の自走式ロボットによる住居内の2巡回目及びそれ以降の地図生成動作を説明するための平面図。The top view for demonstrating the map generation operation | movement after the 2nd round in a residence by the self-propelled robot of FIG. 1, and its subsequent. 図5の地図生成動作に対応する処理を示すフローチャート。The flowchart which shows the process corresponding to the map production | generation operation | movement of FIG. 図3及び図5に示す地図生成動作と異なる他の地図作成動作を説明するための平面図。FIG. 6 is a plan view for explaining another map creation operation different from the map generation operation shown in FIGS. 3 and 5. 図1の自走式ロボットによる自己位置同定方法を行う際の動作を説明するための平面図。The top view for demonstrating the operation | movement at the time of performing the self-position identification method by the self-propelled robot of FIG. 図8の自己位置同定方法を行う際の動作に対応する処理を示すフローチャート。The flowchart which shows the process corresponding to the operation | movement at the time of performing the self-position identification method of FIG.

符号の説明Explanation of symbols

1…自走式ロボット、11…仮想面、12…住居、14…壁、15…筐体、18…距離センサ、19…落下防止センサ、31…移動制御部、32…記憶部、33…統括制御部、34…走行ルール、35…地図情報、R4…帰還ルート、St…基準位置(充電ステーション)。   DESCRIPTION OF SYMBOLS 1 ... Self-propelled robot, 11 ... Virtual surface, 12 ... Housing, 14 ... Wall, 15 ... Housing, 18 ... Distance sensor, 19 ... Fall prevention sensor, 31 ... Movement control part, 32 ... Memory | storage part, 33 ... Supervision Control unit, 34 ... running rules, 35 ... map information, R4 ... return route, St ... reference position (charging station).

Claims (10)

特定の領域を包囲する壁の内壁面から所定の間隔を空けて形成される仮想面に沿ってロボット本体を繰り返し周回させつつ1周回毎に該仮想面を内側にシフトさせるようにして該ロボット本体を自走させるロボット自走手段と、
前記ロボット自走手段により前記特定の領域内を自走した前記ロボット本体の走行ルートを記憶する記憶手段と、
前記記憶手段の記憶内容に基づいて、前記壁の位置及び前記走行ルート上にある障害物の位置を取得する位置情報取得手段と、
前記位置情報取得手段により取得された位置情報に基づいて、前記特定の領域内の地図情報を生成する地図情報生成手段と
を具備することを特徴とする自走式ロボット。
The robot body is configured such that the virtual surface is shifted inward every round while the robot body is repeatedly circulated along a virtual surface formed at a predetermined interval from the inner wall surface of the wall surrounding the specific region. Robot self-propelled means to self-propel,
Storage means for storing a travel route of the robot body that has self-propelled within the specific area by the robot self-propelled means;
Position information acquisition means for acquiring the position of the wall and the position of the obstacle on the travel route based on the storage content of the storage means;
A self-propelled robot, comprising: map information generating means for generating map information in the specific area based on the position information acquired by the position information acquiring means.
前記ロボット自走手段は、
前記ロボット本体の自走方向の前方又は側方に位置する壁を含む障害物を検出する検出手段と、
前記検出手段により、前記壁から離間する障害物が前記走行ルート上で検出された場合、前記ロボット本体がこの障害物を周回するように前記ロボット自走手段を制御する走行ルート変更手段と
をさらに具備することを特徴とする請求項1記載の自走式ロボット。
The robot self-propelled means is
Detecting means for detecting an obstacle including a wall located in front or side of the robot body in a self-running direction;
A travel route changing means for controlling the robot self-propelling means so that the robot body circulates the obstacle when an obstacle moving away from the wall is detected by the detection means on the travel route; The self-propelled robot according to claim 1, further comprising:
前記位置情報取得手段は、
前記検出手段により、前記走行ルート上で前記ロボット本体における前記壁側と相対する方向に障害物が検出された場合、この障害物の検出が継続されている期間中、この障害物と前記ロボット本体との離間距離の計測を行う距離計測手段をさらに具備することを特徴とする請求項2記載の自走式ロボット。
The position information acquisition means includes
When an obstacle is detected in the direction opposite to the wall side of the robot main body on the travel route by the detecting means, the obstacle and the robot main body are detected during a period in which the detection of the obstacle is continued. The self-propelled robot according to claim 2, further comprising distance measuring means for measuring a separation distance from the robot.
前記地図情報生成手段により生成された前記地図情報には、前記ロボット本体の前記仮想面に沿った周回を開始させる所定の基準位置、及びこの周回走行で得られた前記走行ルートが少なくとも記憶され、
さらに、前記地図情報を参照しつつ前記ロボット本体を自走させる地図走行実行手段と、
前記地図走行実行手段により自走を行うロボット本体の前記地図情報上における前記基準位置からの相対的な位置を取得する第1のロボット位置取得手段と、
前記検出手段により検出される前記壁の位置に基づいて、前記特定の領域上の基準位置からの相対的なロボットの位置を取得する第2のロボット位置取得手段と、
前記第1及び第2のロボット位置取得手段により各々取得されたロボットの位置を比較する位置情報比較手段と、
前記位置情報比較手段による比較結果が不一致であった場合、前記ロボット自走手段による前記仮想面に沿った前記ロボット本体の周回走行を再開させる周回走行再開手段と、
前記周回走行再開手段により前記特定の領域内を新たに自走して得られた前記ロボット本体の走行ルートと、前記地図情報として記憶されている走行ルートとをパターン照合するパターン照合手段と、
前記パターン照合手段による前記パターン照合で一致が得られた場合、前記ロボット本体の自己位置同定を行う自己位置同定手段と
を具備することを特徴とする請求項2記載の自走式ロボット。
The map information generated by the map information generating means stores at least a predetermined reference position for starting a round along the virtual plane of the robot body and the travel route obtained by the round travel,
Furthermore, a map travel execution means for self-running the robot body while referring to the map information,
First robot position acquisition means for acquiring a relative position from the reference position on the map information of the robot body that self-runs by the map running execution means;
Second robot position acquisition means for acquiring a relative robot position from a reference position on the specific region based on the position of the wall detected by the detection means;
Position information comparison means for comparing the positions of the robots respectively acquired by the first and second robot position acquisition means;
If the comparison result by the position information comparison means is inconsistent, the round traveling restarting means for restarting the round traveling of the robot body along the virtual plane by the robot self-running means;
A pattern matching unit that pattern-matches a travel route of the robot body that is newly obtained by self-running within the specific area by the circular travel resume unit, and a travel route that is stored as the map information;
The self-propelled robot according to claim 2, further comprising self-position identifying means for performing self-position identification of the robot body when a match is obtained by the pattern matching by the pattern matching means.
前記特定の領域上に設けられた前記基準位置は、前記ロボット自走手段により定められる前記仮想面に沿った位置にあることを特徴とする請求項4記載の自走式ロボット。   5. The self-propelled robot according to claim 4, wherein the reference position provided on the specific area is located along the virtual plane defined by the robot self-propelling means. 特定の領域を包囲する壁の内壁面から所定の間隔を空けて形成される仮想面に沿ってロボット本体を繰り返し周回させつつ該仮想面を1周回毎に内側にシフトさせるようにして該ロボット本体を自走させるステップと、
前記特定の領域内を自走させた前記ロボット本体の走行ルートを記憶装置に記憶するステップと、
前記記憶装置の記憶内容に基づいて、前記壁の位置及び前記走行ルート上にある障害物の位置を取得するステップと、
前記取得された位置情報に基づいて、前記特定の領域内の地図情報を生成するステップと
を有することを特徴とする自走式ロボットの制御方法。
The robot main body is configured to shift the virtual surface inward every round while rotating the robot main body repeatedly around a virtual surface formed at a predetermined interval from the inner wall surface of the wall surrounding the specific region. The step of running
Storing a travel route of the robot body that has self-traveled in the specific area in a storage device;
Obtaining the position of the wall and the position of an obstacle on the travel route based on the storage content of the storage device;
Generating map information in the specific area based on the acquired position information. A control method for a self-propelled robot, comprising:
前記ロボット本体の自走方向の前方又は側方に位置する壁を含む障害物を検出する検出ステップと、
前記検出ステップにより、前記壁から離間する障害物が前記走行ルート上で検出された場合、前記ロボット本体がこの障害物を周回するように該ロボットの走行ルートを変更するステップと
をさらに有することを特徴とする請求項6記載の自走式ロボットの制御方法。
A detection step of detecting an obstacle including a wall located in front or side of the robot body in a self-running direction;
When the obstacle separated from the wall is detected on the travel route by the detecting step, the robot body further includes a step of changing the travel route of the robot so as to go around the obstacle. The method for controlling a self-propelled robot according to claim 6.
前記検出ステップにより、前記走行ルート上で前記ロボット本体における前記壁側と相対する方向に障害物が検出された場合、この障害物の検出が継続されている期間中、この障害物と前記ロボット本体との離間距離の計測を行うステップをさらに有することを特徴とする請求項7記載の自走式ロボットの制御方法。   When an obstacle is detected in the direction opposite to the wall side of the robot main body on the travel route by the detection step, the obstacle and the robot main body are detected while the obstacle is being detected. The method for controlling a self-propelled robot according to claim 7, further comprising a step of measuring a separation distance from the robot. 前記地図情報には、前記ロボット本体の前記仮想面に沿った周回を開始させる所定の基準位置、及びこの周回走行で得られた前記走行ルートが少なくとも記憶され、
さらに、前記地図情報を参照しつつ前記ロボット本体を自走させるステップと、
前記自走を行うロボット本体の前記地図情報上の前記基準位置からの相対的な位置を取得する第1のロボット位置取得ステップと、
前記検出ステップで検出される前記壁の位置に基づいて、前記特定の領域上の基準位置からの相対的なロボットの位置を取得する第2のロボット位置取得ステップと、
前記第1及び第2のロボット位置取得ステップにより各々取得されたロボットの位置を比較照合するステップと、
前記比較照合結果が不一致であった場合、前記仮想面に沿った前記ロボット本体の周回走行を再開させるステップと、
前記特定の領域内を新たに周回走行させて得られた前記ロボット本体の走行ルートと、前記地図情報として記憶されている走行ルートとをパターン照合するステップと、
前記パターン照合で一致が得られた場合、前記ロボット本体の自己位置同定を行う自己位置同定手段と
を具備することを特徴とする請求項7記載の自走式ロボットの制御方法。
In the map information, at least a predetermined reference position for starting a round along the virtual plane of the robot body and the travel route obtained by the round travel are stored,
Furthermore, the step of self-running the robot body while referring to the map information,
A first robot position acquisition step of acquiring a relative position from the reference position on the map information of the robot body performing the self-running;
A second robot position acquisition step of acquiring a relative robot position from a reference position on the specific region based on the position of the wall detected in the detection step;
Comparing and collating the positions of the robots respectively acquired by the first and second robot position acquisition steps;
If the comparison result is a mismatch, resuming the round travel of the robot body along the virtual plane;
Pattern matching between the travel route of the robot body obtained by newly traveling in the specific area and the travel route stored as the map information;
The self-propelled robot control method according to claim 7, further comprising: self-position identifying means for performing self-position identification of the robot body when a match is obtained by the pattern matching.
前記特定の領域上に設けられた前記基準位置は、前記仮想面に沿った位置にあることを特徴とする請求項9記載の自走式ロボットの制御方法。   The self-propelled robot control method according to claim 9, wherein the reference position provided on the specific region is located along the virtual plane.
JP2004160325A 2004-05-28 2004-05-28 Self-traveling robot and its control method Withdrawn JP2005339408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004160325A JP2005339408A (en) 2004-05-28 2004-05-28 Self-traveling robot and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004160325A JP2005339408A (en) 2004-05-28 2004-05-28 Self-traveling robot and its control method

Publications (1)

Publication Number Publication Date
JP2005339408A true JP2005339408A (en) 2005-12-08

Family

ID=35492879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004160325A Withdrawn JP2005339408A (en) 2004-05-28 2004-05-28 Self-traveling robot and its control method

Country Status (1)

Country Link
JP (1) JP2005339408A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310866A (en) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd Robot using absolute azimuth and map creation method using it
KR100791384B1 (en) 2006-07-05 2008-01-07 삼성전자주식회사 Method for dividing regions by feature points and apparatus thereof and mobile cleaning robot
JP2008305255A (en) * 2007-06-08 2008-12-18 Panasonic Electric Works Co Ltd Map information generation unit, and autonomous moving unit having the same
KR100877072B1 (en) * 2007-06-28 2009-01-07 삼성전자주식회사 Method and apparatus of building map for a mobile robot and cleaning simultaneously
US7554282B2 (en) 2006-09-28 2009-06-30 Kabushiki Kaisha Toshiba Method of controlling movement of robot, mobile robot, and computer program product
JP2011233149A (en) * 2010-04-26 2011-11-17 Lg Electronics Inc Robot cleaner, remote monitoring system using robot cleaner and remote monitoring method using robot cleaner
JP2012011200A (en) * 2010-07-01 2012-01-19 Vorwerk & Co Interholding Gmbh Self-propelled device and method for operating such device
JP2012096028A (en) * 2010-11-03 2012-05-24 Lg Electronics Inc Robot cleaner and controlling method of the same
JP2016134145A (en) * 2015-01-22 2016-07-25 株式会社日本総合研究所 Walking barrier point determination system and autonomous traveling unit thereof
JP2017146742A (en) * 2016-02-16 2017-08-24 東芝ライフスタイル株式会社 Autonomous travelling body
WO2018070354A1 (en) * 2016-10-14 2018-04-19 富士フイルム株式会社 Image-capturing plan generation device, image-capturing plan generation method, and program
JP2019023848A (en) * 2017-05-01 2019-02-14 サビオーク インコーポレイテッドSavioke, Inc. Computer system and method for automatic mapping by robot
JP2019517077A (en) * 2016-05-19 2019-06-20 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. How to automatically generate waypoints for imaging shelves in a store
JP2020030477A (en) * 2018-08-20 2020-02-27 富士ゼロックス株式会社 Self-propelled mobile apparatus, information processing apparatus and program
WO2020100265A1 (en) * 2018-11-15 2020-05-22 本田技研工業株式会社 Autonomous work machine, control method for autonomous work machine, and program
JP2020085547A (en) * 2018-11-19 2020-06-04 株式会社日建設計総合研究所 Data measurement system and building facility control system
CN111474937A (en) * 2020-04-29 2020-07-31 绵阳市朝育机械有限公司 Farming robot walking control system and method based on Beidou positioning
CN111531536A (en) * 2020-05-06 2020-08-14 上海高仙自动化科技发展有限公司 Robot control method, robot, electronic device, and readable storage medium
CN111941418A (en) * 2019-05-15 2020-11-17 苏州科瓴精密机械科技有限公司 Control method of self-moving robot and self-moving robot system
KR20210005925A (en) * 2018-11-30 2021-01-15 넥스트브이피유 (상하이) 코포레이트 리미티드 Map building and location tracking of robots
US11341454B2 (en) 2016-05-19 2022-05-24 Simbe Robotics, Inc. Method for tracking placement of products on shelves in a store
CN115016509A (en) * 2022-08-02 2022-09-06 深圳博鹏智能科技有限公司 Cleaning robot control method and control system
WO2023286839A1 (en) * 2021-07-15 2023-01-19 住友重機械工業株式会社 Device and program for configuring operation of autonomous traveling vehicle, storage medium for storing operation configuration program, and operation configuration method

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310866A (en) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd Robot using absolute azimuth and map creation method using it
KR100791384B1 (en) 2006-07-05 2008-01-07 삼성전자주식회사 Method for dividing regions by feature points and apparatus thereof and mobile cleaning robot
US7554282B2 (en) 2006-09-28 2009-06-30 Kabushiki Kaisha Toshiba Method of controlling movement of robot, mobile robot, and computer program product
JP2008305255A (en) * 2007-06-08 2008-12-18 Panasonic Electric Works Co Ltd Map information generation unit, and autonomous moving unit having the same
KR100877072B1 (en) * 2007-06-28 2009-01-07 삼성전자주식회사 Method and apparatus of building map for a mobile robot and cleaning simultaneously
US8843245B2 (en) 2010-04-26 2014-09-23 Lg Electronics Inc. Robot cleaner and remote monitoring system using the same
JP2011233149A (en) * 2010-04-26 2011-11-17 Lg Electronics Inc Robot cleaner, remote monitoring system using robot cleaner and remote monitoring method using robot cleaner
JP2012011200A (en) * 2010-07-01 2012-01-19 Vorwerk & Co Interholding Gmbh Self-propelled device and method for operating such device
US8705842B2 (en) 2010-11-03 2014-04-22 Lg Electronics Inc. Robot cleaner and controlling method of the same
JP2012096028A (en) * 2010-11-03 2012-05-24 Lg Electronics Inc Robot cleaner and controlling method of the same
JP2016134145A (en) * 2015-01-22 2016-07-25 株式会社日本総合研究所 Walking barrier point determination system and autonomous traveling unit thereof
JP2017146742A (en) * 2016-02-16 2017-08-24 東芝ライフスタイル株式会社 Autonomous travelling body
JP2019517077A (en) * 2016-05-19 2019-06-20 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. How to automatically generate waypoints for imaging shelves in a store
US11341454B2 (en) 2016-05-19 2022-05-24 Simbe Robotics, Inc. Method for tracking placement of products on shelves in a store
US10742874B2 (en) 2016-10-14 2020-08-11 Fujifilm Corporation Imaging plan generation device, imaging plan generation method, and program
WO2018070354A1 (en) * 2016-10-14 2018-04-19 富士フイルム株式会社 Image-capturing plan generation device, image-capturing plan generation method, and program
JPWO2018070354A1 (en) * 2016-10-14 2019-08-15 富士フイルム株式会社 Imaging plan generation apparatus, imaging plan generation method, and program
JP2019023848A (en) * 2017-05-01 2019-02-14 サビオーク インコーポレイテッドSavioke, Inc. Computer system and method for automatic mapping by robot
JP2020030477A (en) * 2018-08-20 2020-02-27 富士ゼロックス株式会社 Self-propelled mobile apparatus, information processing apparatus and program
US11559892B2 (en) 2018-08-20 2023-01-24 Fujifilm Business Innovation Corp. Self-propelled travelling apparatus, information processing apparatus, and non-transitory computer readable medium
JP7180198B2 (en) 2018-08-20 2022-11-30 富士フイルムビジネスイノベーション株式会社 Self-propelled mobile device, information processing device and program
CN110858351A (en) * 2018-08-20 2020-03-03 富士施乐株式会社 Self-propelled mobile device, information processing device, and computer-readable recording medium
US11927964B2 (en) * 2018-11-15 2024-03-12 Honda Motor Co., Ltd. Autonomous work machine, method of controlling the same, and storage medium
WO2020100265A1 (en) * 2018-11-15 2020-05-22 本田技研工業株式会社 Autonomous work machine, control method for autonomous work machine, and program
US20210263521A1 (en) * 2018-11-15 2021-08-26 Honda Motor Co., Ltd. Autonomous work machine, method of controlling the same, and storage medium
JP2020085547A (en) * 2018-11-19 2020-06-04 株式会社日建設計総合研究所 Data measurement system and building facility control system
JP7437873B2 (en) 2018-11-19 2024-02-26 株式会社日建設計総合研究所 Data measurement system and building equipment control system
KR102433743B1 (en) * 2018-11-30 2022-08-18 넥스트브이피유 (상하이) 코포레이트 리미티드 Map building and location tracking of robots
KR20210005925A (en) * 2018-11-30 2021-01-15 넥스트브이피유 (상하이) 코포레이트 리미티드 Map building and location tracking of robots
CN111941418A (en) * 2019-05-15 2020-11-17 苏州科瓴精密机械科技有限公司 Control method of self-moving robot and self-moving robot system
CN111941418B (en) * 2019-05-15 2024-03-08 苏州科瓴精密机械科技有限公司 Control method of self-moving robot and self-moving robot system
CN111474937A (en) * 2020-04-29 2020-07-31 绵阳市朝育机械有限公司 Farming robot walking control system and method based on Beidou positioning
CN111531536A (en) * 2020-05-06 2020-08-14 上海高仙自动化科技发展有限公司 Robot control method, robot, electronic device, and readable storage medium
WO2023286839A1 (en) * 2021-07-15 2023-01-19 住友重機械工業株式会社 Device and program for configuring operation of autonomous traveling vehicle, storage medium for storing operation configuration program, and operation configuration method
CN115016509A (en) * 2022-08-02 2022-09-06 深圳博鹏智能科技有限公司 Cleaning robot control method and control system

Similar Documents

Publication Publication Date Title
JP2005339408A (en) Self-traveling robot and its control method
JP7356566B2 (en) Mobile robot and its control method
US11700989B2 (en) Mobile robot using artificial intelligence and controlling method thereof
CN108247647B (en) Cleaning robot
TWI757570B (en) Robot cleaners and controlling method thereof
JP7149502B2 (en) AUTONOMOUS MOBILE VACUUM CLEANER, CLEANING METHOD USING AUTONOMOUS MOBILE VACUUM CLEANER, AND PROGRAM FOR AUTONOMOUS MOBILE VACUUM CLEANER
JP7194914B2 (en) AUTONOMOUS MOBILE VACUUM CLEANER, CLEANING METHOD USING AUTONOMOUS MOBILE VACUUM CLEANER, AND PROGRAM FOR AUTONOMOUS MOBILE VACUUM CLEANER
JP2022540906A (en) Mobile robot and its control method
EP3048502B1 (en) Robot cleaner and method for controlling robot cleaner
KR101366860B1 (en) Mobile robot and controlling method of the same
JP2019121365A (en) Cooperative and persistent mapping of mobile cleaning robot
JP2019525342A (en) How to control an autonomous mobile robot
TWI664948B (en) Electric sweeper
JP2004299025A (en) Mobile robot control device, mobile robot control method and mobile robot control program
JP7007108B2 (en) Vacuum cleaner
KR20190035376A (en) A robot cleaner and control method thereof
JP2003036116A (en) Autonomous travel robot
JP6757593B2 (en) Self-propelled electronic equipment
KR102423573B1 (en) A robot cleaner using artificial intelligence and control method thereof
KR102290983B1 (en) Controlling method for Artificial intelligence Moving robot
TWI837507B (en) Moving robot system
US10983525B2 (en) Moving robot, control method for moving robot, control system for moving robot
JP2019107400A (en) Self-propelled vacuum cleaner
KR101303161B1 (en) Mobile robot and controlling method of the same
JP2018075192A (en) Vacuum cleaner

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807