JP2020509500A - Control method of autonomous mobile robot - Google Patents

Control method of autonomous mobile robot Download PDF

Info

Publication number
JP2020509500A
JP2020509500A JP2019547460A JP2019547460A JP2020509500A JP 2020509500 A JP2020509500 A JP 2020509500A JP 2019547460 A JP2019547460 A JP 2019547460A JP 2019547460 A JP2019547460 A JP 2019547460A JP 2020509500 A JP2020509500 A JP 2020509500A
Authority
JP
Japan
Prior art keywords
robot
area
virtual
map
blocking area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019547460A
Other languages
Japanese (ja)
Other versions
JP2020509500A5 (en
Inventor
ハロルド アルテス
ハロルド アルテス
デイヴィッド コンティ
デイヴィッド コンティ
クレストフ フレウーデンタラー
クレストフ フレウーデンタラー
ドミニク シーサラー
ドミニク シーサラー
ラインハルド ボーゲル
ラインハルド ボーゲル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robart GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102017104428.0A external-priority patent/DE102017104428A1/en
Priority claimed from DE102017104427.2A external-priority patent/DE102017104427A1/en
Application filed by Robart GmbH filed Critical Robart GmbH
Publication of JP2020509500A publication Critical patent/JP2020509500A/en
Publication of JP2020509500A5 publication Critical patent/JP2020509500A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Abstract

【課題】自律移動ロボットの動作、特に遮断領域の操作を簡単かつ堅牢にすること。【解決手段】センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記センサから取得した測定データに基づいて障害物を検出し、検出された障害物の位置を決定するステップと、前記検出された障害物との衝突を避けるように前記ロボットを制御するステップと、を有し、前記地図は、少なくとも1つの仮想遮断領域が示された地図データを含み、前記少なくとも1つの仮想遮断領域は、ロボットを制御する際に、実際に検出された障害物を同じように考慮されることを特徴とする方法。【選択図】図2An object of the present invention is to make the operation of an autonomous mobile robot, particularly, the operation of a blocking area simple and robust. A method for controlling an autonomous mobile robot configured to independently navigate in a robot use area using a sensor and a map, wherein an obstacle is detected based on measurement data obtained from the sensor. Detecting and determining the position of the detected obstacle; and controlling the robot to avoid collision with the detected obstacle, wherein the map comprises at least one virtual obstruction. A method comprising the step of displaying map data in which an area is indicated, wherein said at least one virtual occlusion area is taken into account in the control of the robot in the same way as to an actually detected obstacle. [Selection diagram] FIG.

Description

本明細書は、自律移動ロボットの分野、特に自律移動サービスロボットの安全な動作に関する。   This specification relates to the field of autonomous mobile robots, and more particularly to the safe operation of autonomous mobile service robots.

近年、自律移動ロボット、特にサービスロボットは、ますます個人の家庭で使用されている。可能な応用には、例えば、床面を掃除および/または拭く掃除ロボット、又はパトロール中に侵入者や火災などの潜在的な危険を検出する監視ロボットが含まれる。   In recent years, autonomous mobile robots, especially service robots, have been increasingly used in personal homes. Possible applications include, for example, a cleaning robot that cleans and / or wipes the floor, or a surveillance robot that detects potential dangers such as intruders and fires during patrols.

ユーザが必要とする要件は、例えばロボットが、使用される領域のすべての重要な点に到達し、その仕事を行うことにある。特定のアプリケーションによっては、ロボットの個々の領域を遮断することが有利な場合がある。多くの小物がロボットの動きを妨げたり、ロボットによって損傷したりする可能性があるため、例えば、ロボットが子供の遊び場を避けることが望ましい場合がある。   The requirement that the user needs is, for example, that the robot has reached all the important points of the used area and does its job. For certain applications, it may be advantageous to block individual areas of the robot. For example, it may be desirable for a robot to avoid a children's playground because many small objects can hinder or be damaged by the robot.

米国特許出願公開公報 US 2014316636US Patent Application Publication US 2014316636 欧州特許出願公開公報 EP 3079030European Patent Application Publication EP 3079030 ドイツ特許出願公開公報 DE 102015006014German patent application DE 102015006014

既知の解決策により、ユーザは、ロボットの使用領域にマークを付けることができる。ロボットはそれをセンサで検出でき、マークはロボットに遮断領域を示す。一つの例は、赤外線信号を発する一種の「灯台」である。ただし、この解決法は独自の電源(たとえば、バッテリ)に依存しているため、信頼性が制限される場合がある。さらに、赤外線信号は正確に位置合わせする必要があり、範囲が制限される。別の例としては、ロボットが検出できる磁気テープがある。磁気テープは、床面に置いたり接着したりする。ロボットが磁気テープを認識した場合、その上を走行しない。これらの解決法はすべて、ユーザの生活空間の設計の自由を制限し、非常に柔軟性に欠けるという欠点がある。   The known solution allows the user to mark the area of use of the robot. The robot can detect it with a sensor, and the mark indicates the blocking area to the robot. One example is a kind of "lighthouse" that emits infrared signals. However, this solution relies on its own power source (eg, a battery), which may limit reliability. In addition, infrared signals must be accurately aligned, which limits their range. Another example is a magnetic tape that can be detected by a robot. The magnetic tape is placed on or adhered to the floor. If the robot recognizes the magnetic tape, it will not run on it. All of these solutions have the disadvantage that they limit the user's freedom of designing the living space and are very inflexible.

後続の使用の際に使用するために使用領域の地図を保存および管理する自律移動ロボットの場合、仮想の遮断領域を地図に直接記録できる。これらは、たとえば、ロボットが通過してはならない仮想境界にすることができる。この純粋に仮想の遮断領域の利点は、ロボットの周囲に追加のマーキングを必要としないことである。ただし、ユーザのエラー、またはロボットの測定および走行エラーにより、ユーザが実際にロボットを遮断することを意図した領域に、ロボットが存在し、意図しない損傷を引き起こす可能性がある。さらに、仮想遮断領域の入力はできるだけシンプルである必要があるが、わかりやすいものでなければならない。   In the case of an autonomous mobile robot that stores and manages a map of the area of use for subsequent use, the virtual interrupted area can be recorded directly on the map. These can be, for example, virtual boundaries that the robot must not pass through. The advantage of this purely virtual blocking area is that it does not require additional markings around the robot. However, due to a user error or a robot measurement and running error, the robot may be present in an area where the user actually intends to shut off the robot, causing unintended damage. In addition, the input of the virtual blocking area must be as simple as possible, but it must be easy to understand.

本発明の根底にある目的は、自律移動ロボットの動作、特に遮断領域の操作を簡単かつ堅牢にすることである。   The object underlying the present invention is to make the operation of an autonomous mobile robot, in particular the operation of the blocking area, simple and robust.

上記の目的は、請求項1、6、18、24、30、34、37および58に記載の方法、請求項66に記載の自律移動ロボット、および請求項27および61に記載のシステムによって達成される。様々な実施形態およびさらなる発展が従属請求項の主題である。   The above object is achieved by a method according to claims 1, 6, 18, 24, 30, 34, 37 and 58, an autonomous mobile robot according to claim 66, and a system according to claims 27 and 61. You. Various embodiments and further developments are the subject of the dependent claims.

センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法が記載される。実施形態によれば、この方法は、前記センサから取得した測定データに基づいて障害物を検出し、検出された障害物の位置を決定するステップと、前記検出された障害物との衝突を避けるように前記ロボットを制御するステップと、を有し、前記地図は、少なくとも1つの仮想遮断領域が示された地図データを含み、前記少なくとも1つの仮想遮断領域は、ロボットを制御する際に、実際に検出された障害物を同じように考慮されることを特徴としている。   A method for controlling an autonomous mobile robot configured to uniquely navigate within a robot usage area using sensors and a map is described. According to an embodiment, the method includes detecting an obstacle based on measurement data obtained from the sensor, determining a position of the detected obstacle, and avoiding a collision with the detected obstacle. Controlling the robot such that the map includes map data indicating at least one virtual blocking area, and the at least one virtual blocking area is used when controlling the robot. Is characterized in that obstacles detected in the same manner are considered in the same manner.

さらに、自律移動ロボットを制御する方法が記載され、このロボットは、センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成され、前記地図は、少なくとも1つの仮想境界線を有し、前記少なくとも1つの仮想境界は、前記少なくとも1つの仮想境界の第1の側と第2の側を区別できるような方向を有し、前記ロボットのナビゲートの際に前記境界線の前記第1の側から来る第1の方向における前記境界線の横切りは回避される一方、前記ロボットのナビゲートの際に前記境界線の前記第2の側から来る第2の方向における前記境界線の横切りは許可される。   Furthermore, a method for controlling an autonomous mobile robot is described, wherein the robot is configured to uniquely navigate within a robot usage area using sensors and a map, wherein the map defines at least one virtual boundary line. The at least one virtual boundary has a direction such that a first side and a second side of the at least one virtual boundary can be distinguished, and the navigating of the robot includes Crossing of the boundary line in a first direction coming from a first side is avoided, while navigating the robot while moving the boundary line in a second direction coming from the second side of the boundary line. Crossing is allowed.

さらに、自律移動ロボットの制御の方法が記載され、自律移動ロボットは、センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成され、前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図は、少なくとも1つの仮想遮断領域を含み得る。一実施形態の方法は、事前定義可能な基準に基づいて、遮断領域がアクティブであるか非アクティブであるかを検査するステップを、有し、前記ロボットはアクティブな遮断領域のみを考慮し、その結果、前記アクティブな遮断領域を走行しない。   Furthermore, a method of controlling an autonomous mobile robot is described, wherein the autonomous mobile robot is configured to independently navigate in a robot usage area using a sensor and an electronic map, and the robot is configured to self-locate in the map. May be periodically determined, and the map may include at least one virtual blocking area. The method of an embodiment comprises the step of checking whether the blocking area is active or inactive based on a predefinable criterion, wherein the robot considers only the active blocking area, As a result, the vehicle does not travel in the active cutoff region.

一実施形態によれば前記方法は、通信接続を介して別のロボットから仮想遮断領域を表すデータを受信するステップと、受信したデータに基づいて、前記ロボットの地図に仮想遮断領域を保存するステップと、を有する。   According to one embodiment, the method comprises: receiving data representing a virtual occlusion region from another robot via a communication connection; and storing the virtual occlusion region on a map of the robot based on the received data. And

さらに、自律移動ロボットと外部デバイスとを有するシステムが記載される。前記ロボットは、地図データに基づいて自身の環境を自動的にナビゲートし、前記ロボットが自動的には自身を解放できない状況を検出し、この検出に応じて前記ロボットの状態を設定するように構成されている。前記外部デバイスは、少なくとも1つの通信接続を介して前記ロボットに問い合わせを送信して、前記ロボットの状態を照会するように構成されている。前記ロボットは、さらに、前記外部デバイスからの問い合わせの受信時の前記ロボットの状態が、前記ロボットが自動的に自身を解放できない状況を示す場合、所定の時間、光学及び/又は音響信号を発するように構成されている。   Further, a system having an autonomous mobile robot and an external device is described. The robot automatically navigates its environment based on the map data, detects a situation in which the robot cannot automatically release itself, and sets the state of the robot in response to this detection. It is configured. The external device is configured to send an inquiry to the robot via at least one communication connection to query the status of the robot. The robot may further emit an optical and / or acoustic signal for a predetermined time if the state of the robot at the time of receiving the inquiry from the external device indicates that the robot cannot release itself automatically. Is configured.

さらに、センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法が記載される。前記ロボットは、地図内の自身の位置を定期的に決定し、前記地図は、少なくとも3つの異なる分類領域を含むことが可能である。一例では、この方法は、前記センサを用いて前記ロボットにより自身の位置を決定するステップと、前記ロボットが前記少なくとも3つの異なる分類領域のいずれかにあることを検査するステップと、を有し、前記ロボットが前記少なくとも3つの異なる分類領域の第1の領域にある場合、自動的にナビゲートしてタスクを実行し、前記ロボットが前記少なくとも3つの異なる分類領域の第2の領域にある場合、自動的にナビゲートしてタスクを実行せず、前記少なくとも3つの異なる分類領域の第3の領域は、前記ロボットが自動的に走行しない仮想遮断領域である。   Further, a method for controlling an autonomous mobile robot configured to uniquely navigate within a robot usage area using sensors and an electronic map is described. The robot periodically determines its position in a map, and the map may include at least three different classification regions. In one example, the method comprises: determining a position of the robot using the sensor to determine its position; and checking that the robot is in any of the at least three different classification regions. Automatically navigating to perform a task if the robot is in a first area of the at least three different classification areas, and if the robot is in a second area of the at least three different classification areas; A third area of the at least three different classification areas that does not automatically navigate to perform a task is a virtual blocking area in which the robot does not automatically travel.

少なくとも2つの自律移動ロボット間で情報を交換する方法が記載され、前記少なくとも2つのロボットのそれぞれは、センサと電子地図を使用してロボット使用領域を自律的にナビゲートし、地図を自動的に作成および更新するように構成されている。ロボットはそれぞれ、少なくとも1つの他のロボットに情報を送信できる通信モジュールを備えておいる。一実施形態によれば、この方法は、第1のロボットの第1の地図の座標を第2のロボットの第2の地図の座標への変換操作を自動的に決定するステップと、前記第1のロボットから前記第2のロボットに位置関連情報を送信するステップと、前記変換操作を使用して、前記第1の地図の座標の位置関連情報の座標を前記第2の地図の座標に変換するステップと、を有する。さらなる実施形態は、ここに記載の方法を実行するために構成されたロボットに関する。   A method for exchanging information between at least two autonomous mobile robots is described, wherein each of the at least two robots autonomously navigates a robot usage area using a sensor and an electronic map, and automatically maps the map. Configured to create and update. Each robot has a communication module that can transmit information to at least one other robot. According to one embodiment, the method includes automatically determining an operation of transforming a first robot's first map coordinates into a second robot's second map coordinates; Transmitting position-related information from the first robot to the second robot; and converting the coordinates of the position-related information of the coordinates of the first map into the coordinates of the second map using the conversion operation. And Further embodiments relate to a robot configured to perform the methods described herein.

自律移動ロボットのロボット使用領域を表す電子地図に仮想遮断領域を入力する方法が記載される。一実施形態では、この方法は、前記仮想遮断領域を定義するためにヒューマンマシンインターフェイスからのユーザ入力を受け入れるステップと、前記ユーザ入力を評価するステップであって、前記ユーザ入力が少なくとも1つの事前定義された基準を満たしているかどうかが検査されるステップと、前記ユーザ入力の評価に基づいて、前記仮想遮断領域を前記地図に保存するかどうか、および/またはどの幾何学的形式で保存するかを決定するステップと、を有する。   A method of inputting a virtual cut-off area into an electronic map representing a robot use area of an autonomous mobile robot is described. In one embodiment, the method comprises accepting user input from a human-machine interface to define the virtual occlusion region; and evaluating the user input, wherein the user input comprises at least one predefined Checking whether the virtual criterion is stored on the map and / or in what geometric form, based on the evaluation of the user input, Determining.

センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法が記載される。前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図は、前記ロボットが走行しない、少なくとも1つの仮想遮断領域を含み得る。一実施形態によれば、この方法は、前記ロボットの機能が危険にさらされているか制限されている前記ロボット使用領域をナビゲートする際に危険領域を検出するステップと、検出された危険領域を取り囲む遮断領域を自動的に定義するステップと、前記遮断領域を前記地図に保存するステップと、を有する。さらなる実施形態は、ここに記載の方法を実行するために構成されたロボットに関する。   A method for controlling an autonomous mobile robot configured to uniquely navigate within a robot usage area using sensors and an electronic map is described. The robot periodically determines its position in the map, and the map may include at least one virtual blocking area where the robot does not travel. According to one embodiment, the method comprises the steps of: detecting a dangerous area when navigating the robot usage area where the function of the robot is at risk or limited; Automatically defining a surrounding blocking area; and storing the blocking area on the map. Further embodiments relate to a robot configured to perform the methods described herein.

地図データに基づいてロボット使用領域を自動的にナビゲートするように構成された自律移動ロボットと、前記ロボット使用領域内の床面または物体に情報を投影するように構成されたプロジェクタと、を有するシステムが記載される。前記システムは、前記地図データから位置関連情報を関連位置とともに抽出し、前記位置関連情報を前記プロジェクタによって前記床面または前記床面にある物体の対応する位置に投影するように構成されている。   An autonomous mobile robot configured to automatically navigate a robot use area based on map data, and a projector configured to project information onto a floor or an object in the robot use area. A system is described. The system is configured to extract position-related information from the map data together with a relevant position, and project the position-related information by the projector onto a corresponding position of the floor or an object on the floor.

最後に、自律移動ロボットが記載される。一実施形態では、前記ロボットは、地図データに基づいてロボット使用領域を自動的にナビゲートし、ヒューマンマシンインターフェイスを介してユーザから位置関連情報を受信し、これに基づいてロボット経路を決定し、これに沿って移動するように構成されている。前記ロボットが前記ロボット経路を移動中または移動した後、ユーザから入力された前記位置関連情報は破棄されるか、有効と認められて前記地図データと共に永続的に保存される。   Finally, an autonomous mobile robot is described. In one embodiment, the robot automatically navigates a robot usage area based on map data, receives position-related information from a user via a human-machine interface, determines a robot path based on the information, It is configured to move along this. After or after the robot moves along the robot path, the location-related information input by the user is discarded or recognized as valid and is permanently stored with the map data.

自律移動ロボットの動作、特に遮断領域の操作が簡単かつ堅牢になる。   The operation of the autonomous mobile robot, particularly the operation of the blocking area, becomes simple and robust.

ネットワーク接続を介して通信できる自律移動ロボット、ヒューマンマシンインターフェイスおよびサーバを備えたシステムを示す図である。FIG. 2 is a diagram illustrating a system including an autonomous mobile robot, a human-machine interface, and a server that can communicate via a network connection. 自律移動ロボットの構造および他の(外部)デバイスとの通信可能性を示すブロック図である。It is a block diagram which shows the structure of an autonomous mobile robot, and the communication possibility with another (external) device. ヒューマンマシンインターフェイス上に表示される地図によって仮想遮断領域を定義する際に位置関連情報を入力するためのいくつかの可能性を概略的に示す図である。FIG. 4 schematically illustrates some possibilities for inputting location-related information when defining a virtual blocking area by a map displayed on a human-machine interface. ロボットによって最大寸法を容易に検出することができない障害物の周囲の仮想遮断領域を示す図である。FIG. 4 is a diagram illustrating a virtual cutoff area around an obstacle where the maximum dimension cannot be easily detected by the robot. 仮想遮断領域などの位置関連情報を床面に投影することにより表現する例を示す図である。FIG. 9 is a diagram illustrating an example in which position-related information such as a virtual blocking area is expressed by projecting the information on a floor. 仮想境界線を使用して階段または障害物などの危険箇所を保護する例を示す図である。It is a figure showing an example which protects a dangerous place, such as a stairway or an obstacle, using a virtual boundary line. 例えば、仮想遮断領域などの位置関連情報が交換される、2つのロボットの情報交換の例を示した図である。FIG. 7 is a diagram illustrating an example of information exchange between two robots in which position-related information such as a virtual blocking area is exchanged. 仮想遮断区域から外へ向かうように自律移動ロボットがナビゲートする異なるアプローチを視覚化した図である。FIG. 4 is a visualization of different approaches for an autonomous mobile robot to navigate out of a virtual block area.

本発明は、図に示される例を参照してより詳細に説明される。図は必ずしも縮尺通りではなく、本発明は提示された態様に限定されない。むしろ、本発明の根底にある原理を表すことに重点が置かれている。   The invention will be explained in more detail with reference to the examples shown in the figures. The figures are not necessarily to scale and the invention is not limited to the embodiments presented. Rather, emphasis is placed on representing the principles underlying the invention.

サービスロボットとして自律移動ロボットは、ロボットの使用領域の清掃や監視、ロボット使用領域内(アパートなど)の物の輸送などの1つ以上のタスクを自動的に実行する。本明細書で説明する実施形態は、清掃ロボットに関する。ただし、本発明は、清掃ロボットに限定されるものではなく、自律移動ロボットが、定義された使用領域でタスクを実行し、地図で自動的に移動(またはナビゲート)できるアプリケーションに適用できる。   As a service robot, an autonomous mobile robot automatically performs one or more tasks such as cleaning and monitoring a robot usage area and transporting an object in the robot usage area (such as an apartment). The embodiments described herein relate to a cleaning robot. However, the present invention is not limited to a cleaning robot, and can be applied to an application in which an autonomous mobile robot executes a task in a defined use area and can automatically move (or navigate) on a map.

図1Aは、自律移動ロボット100がワイヤレスネットワーク(WLAN)であるホームネットワークへ組み入れられた例を示している。本実施形態では、WLANアクセスポイント501により、ロボット100は、インターネット500に到達可能な外部コンピュータ502(例えば、クラウドサーバ)と同様に、ヒューマンマシンインターフェイス(HMI)200と通信することができる。図1Bは、例として、図1Aの自律移動ロボット100の様々なユニット(モジュール)のブロック図を示す。この場合、ユニットは独立したモジュールでも、ロボットを制御するソフトウェアの一部でもよい。ロボット100の挙動を担当するソフトウェア(制御ソフトウェアモジュール151およびナビゲーションモジュール152を含む、図1B参照)は、ロボット100の制御ユニット150上で(対応するプロセッサ155およびメモリ156により)実行され得る。制御ユニット150は、外部コンピュータの助けを借りて、少なくとも部分的にいくつかの動作を実行することができる。すなわち、制御ユニット150が必要とする計算能力は、例えばホームネットワークまたはインターネット(クラウド)を介して到達可能な外部コンピュータに少なくとも部分的に外部委託することができる。   FIG. 1A shows an example in which the autonomous mobile robot 100 is incorporated in a home network that is a wireless network (WLAN). In the present embodiment, the WLAN access point 501 allows the robot 100 to communicate with the human-machine interface (HMI) 200, similarly to the external computer 502 (for example, a cloud server) that can reach the Internet 500. FIG. 1B shows, by way of example, a block diagram of various units (modules) of the autonomous mobile robot 100 of FIG. 1A. In this case, the unit may be an independent module or a part of software for controlling the robot. Software responsible for the behavior of the robot 100 (including the control software module 151 and the navigation module 152, see FIG. 1B) may be executed (by a corresponding processor 155 and memory 156) on the control unit 150 of the robot 100. The control unit 150 may perform some operations, at least in part, with the help of an external computer. That is, the computing power required by the control unit 150 can be at least partially outsourced to an external computer reachable, for example, via a home network or the Internet (cloud).

ロボットは本質的に自律的に動作する。例えば、ユーザとの多数の対話なしで作業を可能にするために、ロボットは、タスクの完了後に自動的に戻る基地局110を持っている。これで、例えば、ロボットは、バッテリを充電したり、(掃除ロボットの場合に)集めた汚れを処分したりできる。   Robots operate essentially autonomously. For example, the robot has a base station 110 that automatically returns after completing a task to enable work without multiple interactions with the user. This allows, for example, the robot to charge the battery or (in the case of a cleaning robot) dispose of the collected dirt.

自律移動ロボット100は、例えば電動機、変速機および車輪を有する駆動ユニット170を含み、それによりロボット100は、少なくとも理論的には、その使用領域の各点を目指すことができる。駆動ユニット170は、例えば、制御ユニットから受信したコマンドまたは信号をロボット100の動きに変換するように設計することができる。   The autonomous mobile robot 100 includes a drive unit 170 having, for example, an electric motor, a transmission and wheels, so that the robot 100 can at least theoretically aim at each point of its area of use. The drive unit 170 can be designed, for example, to convert commands or signals received from the control unit into movements of the robot 100.

自律移動ロボット100は、ヒューマンマシンインターフェイス(HMI)200および/または他の外部デバイス300への通信接続145を確立するための通信ユニット140を含む。通信接続は、例えば、直接無線接続(例えば、ブルートゥース(登録商標))、ローカル無線ネットワーク接続(例えば、WLANまたはZigBee)、またはインターネット接続(例えば、クラウドサービスへ)であってもよい。ヒューマンマシンインターフェイス200は、自律移動ロボット100に関する情報(例えば、バッテリの状態、現在の作業指示、地図データ(すなわち、地図に格納された情報、したがって位置関連情報)、例えば清掃地図など)およびユーザコマンドを表示することができ、自律移動ロボット100の作業指示を受け付けることができる。   The autonomous mobile robot 100 includes a communication unit 140 for establishing a communication connection 145 to a human-machine interface (HMI) 200 and / or another external device 300. The communication connection may be, for example, a direct wireless connection (eg, Bluetooth®), a local wireless network connection (eg, WLAN or ZigBee), or an Internet connection (eg, to a cloud service). The human-machine interface 200 includes information about the autonomous mobile robot 100 (eg, battery status, current work instructions, map data (ie, information stored on the map, and thus location-related information), such as a cleaning map, etc.) and user commands. Can be displayed, and a work instruction of the autonomous mobile robot 100 can be accepted.

ヒューマンマシンインターフェイス200の例は、タブレットPC、スマートフォン、スマートウォッチ、コンピュータ又はスマートテレビである。ヒューマンマシンインターフェイス200は、ロボットに直接統合することもでき、それにより、例えば、キーを叩くこと、ジェスチャ、および/または音声入出力を介してロボットを操作することができる。外部デバイス300の例は、計算および/またはデータが委託されるコンピュータおよびサーバ、追加情報を提供する外部センサ、または、自律移動ロボット100と協力し、又は情報を交換する他の家電(例えば、他の自律移動ロボット100B)である。   Examples of the human machine interface 200 are a tablet PC, a smart phone, a smart watch, a computer or a smart TV. The human-machine interface 200 can also be integrated directly with the robot, such that it can operate the robot via, for example, hitting keys, gestures, and / or voice input / output. Examples of external devices 300 are computers and servers to which calculations and / or data are entrusted, external sensors that provide additional information, or other appliances that cooperate with or exchange information with autonomous mobile robot 100 (eg, other Autonomous mobile robot 100B).

自律移動ロボット100は、床面を洗浄するための洗浄ユニット(例えば、ブラシ、吸引装置)または物体を把持および輸送するための把持アームなどの作業ユニット160を有してもよい。テレプレゼンスロボットや監視ロボットなど、場合によっては、別のユニットを使用して目的のタスクを実行し、作業ユニット160は不要である。したがって、テレプレゼンスロボットは、互いに遠く離れた複数の人の間の通信を可能にするために、例えば、マイク、カメラ、およびスクリーンからなるマルチメディアユニットを備え、ヒューマンマシンインターフェイス200に結合された通信ユニット140を有する。監視ロボットでは、異常なイベント(例:火災、照明、不正な人など)がセンサを使用して監視走行で検出され、この情報が、たとえば、ユーザまたは制御ポイントに通知される。   The autonomous mobile robot 100 may have a work unit 160 such as a cleaning unit (for example, a brush or a suction device) for cleaning a floor or a gripping arm for gripping and transporting an object. In some cases, another unit, such as a telepresence robot or a surveillance robot, is used to perform the desired task, and the working unit 160 is unnecessary. Thus, the telepresence robot comprises a multimedia unit consisting of, for example, a microphone, a camera, and a screen, and enables a communication unit coupled to the human-machine interface 200 to enable communication between a plurality of persons far apart from each other. It has a unit 140. In the surveillance robot, an abnormal event (eg, fire, lighting, unauthorized person, etc.) is detected in surveillance traveling using a sensor, and this information is notified to, for example, a user or a control point.

自律移動ロボット100は、様々なセンサ、例えば、ロボット使用領域内の障害物の位置またはその他のナビゲーション特徴(例えばランドマーク)などのロボットの環境(環境)についての情報を取得するための1つ以上のセンサなどのセンサユニット120を備える。環境に関する情報を取得するためのセンサは、たとえば、放射信号の三角測量または通過時間測定によって距離を測定する光学および/または音響センサなど、ロボットの環境内の物体(たとえば、壁、障害物など)までの距離を測定するアクティブセンサ(三角測量センサ、3Dカメラ、レーザースキャナ、超音波センサ)である。適切なセンサの他の典型的な例は、カメラなどの受動センサ、障害物検出用の触覚センサ、地上距離センサ(たとえば、立ち下がりエッジ、階段の段差の検出など)、走行距離計などの速度および/または進んだ距離を決定するセンサ、ロボットの位置と動きの変化を決定する慣性センサ(加速度センサ、ヨーレートセンサ)、車輪と地面の接触を検出する車輪接触スイッチである。   The autonomous mobile robot 100 may include one or more sensors to obtain information about the robot's environment (environment), such as the location of obstacles or other navigation features (eg, landmarks) within the robot usage area. And a sensor unit 120 such as a sensor. Sensors for obtaining information about the environment include objects (eg, walls, obstacles, etc.) in the robot's environment, such as optical and / or acoustic sensors that measure distance by triangulation or transit time measurement of the emitted signal. Active sensors (triangulation sensors, 3D cameras, laser scanners, ultrasonic sensors) that measure the distance to the camera. Other typical examples of suitable sensors are passive sensors such as cameras, tactile sensors for obstacle detection, ground distance sensors (eg, detecting falling edges, stair steps, etc.), speeds such as odometers, etc. And / or sensors for determining the distance traveled, inertial sensors (acceleration sensors, yaw rate sensors) for determining changes in the position and movement of the robot, and wheel contact switches for detecting contact between the wheels and the ground.

前述の制御ユニット150は、自律移動ロボット100がその使用領域で自律的に移動し、タスクを達成するのに必要なすべての機能を提供するように構成されてもよい。 この目的のために、制御ユニット150は、ロボット100の制御ソフトウェア(図1B、制御ソフトウェアモジュール151を参照)を実行するために、例えばプロセッサ155およびメモリ156を含む。制御ユニット150は、センサユニット120および通信ユニット140から供給された情報に基づいて、作業ユニット160および駆動ユニット170に対する制御コマンドまたは制御信号を生成する。駆動ユニットは、これらの制御信号または制御コマンドをロボットの動きに変換できる。制御ソフトウェアモジュール151は、物体認識および作業スケジューリングのためのソフトウェア機能を含み得る。ロボットが自律的にタスクを実行できるように、ナビゲーションモジュール152が別のソフトウェアモジュールとして提供される。ナビゲーションモジュール152は、ロボットのナビゲーション(例えば、地図管理、地図ベースの経路計画、地図内のロボットの自己位置特定、SLAMアルゴリズムなど)のためのソフトウェア機能を含み得る。もちろん、制御ソフトウェアモジュール151およびナビゲーションモジュールは、相互作用し、情報を共有し、共同作業することができる。これにより、ロボットは、たとえばランドマークなどのナビゲーション特徴を使用して、環境内で方向を決めてナビゲートできる。ナビゲーションモジュール152は、例えば、障害物回避戦略(障害物回避アルゴリズム)、同時位置特定およびマッピング(SLAM)アルゴリズム、および/またはロボット使用領域の1つ以上の地図とともに動作する。特に、障害物はセンサ測定により検出され、その位置が決定される。障害物の位置は、地図データの形式で保存できる。これらの方法自体は既知であるため、ここでは説明を省略する。   The control unit 150 described above may be configured such that the autonomous mobile robot 100 moves autonomously in its area of use and provides all functions necessary to accomplish a task. To this end, the control unit 150 includes, for example, a processor 155 and a memory 156 for executing control software of the robot 100 (see FIG. 1B, control software module 151). The control unit 150 generates a control command or a control signal for the working unit 160 and the drive unit 170 based on the information supplied from the sensor unit 120 and the communication unit 140. The drive unit can convert these control signals or commands into robot movements. The control software module 151 may include software functions for object recognition and task scheduling. The navigation module 152 is provided as a separate software module so that the robot can perform tasks autonomously. The navigation module 152 may include software features for robot navigation (eg, map management, map-based path planning, robot self-localization within a map, SLAM algorithm, etc.). Of course, the control software module 151 and the navigation module can interact, share information, and collaborate. This allows the robot to navigate and navigate in the environment using navigation features such as landmarks. The navigation module 152 operates, for example, with one or more maps of obstacle avoidance strategies (obstacle avoidance algorithms), simultaneous localization and mapping (SLAM) algorithms, and / or robot usage areas. In particular, obstacles are detected by sensor measurements and their positions are determined. The position of the obstacle can be stored in the form of map data. Since these methods are already known, the description is omitted here.

ロボット使用領域の地図は、使用中にロボットによって、または使用の開始時に既存の地図を使用して再作成できる。既存の地図は、偵察走行などの以前の使用中にロボット自体によって作成されたものでも、別のロボットおよび/または人間によって提供されたものでもよく、たとえば不揮発性メモリ156に永続的に保存される。あるいは、永続的に保存されるロボット領域の地図は、ロボットの外部、たとえばロボットのユーザの家庭内のコンピュータ(タブレットPC、ホームサーバなど)またはインターネット経由でアクセス可能なコンピュータ(たとえば、クラウドサーバ)に保存され得る。図1の例では、地図はナビゲーションモジュール152に含まれている。ロボットが使用する地図は通常、電子地図であり、電子地図には通常、位置関連情報を表す地図データのコレクションが含まれている。したがって、地図は地図データとともに複数のデータレコードを表し、地図データには、線や他の幾何学的物体(領域要素など)などの位置関連情報を含めることができる。これらの線は、例えば 障害物の輪郭(ロボットによって検出された)を表す。ただし、地図データには、幾何学的物体とロボット使用領域内の位置だけでなく、地図に入力された物体の意味とその属性に関する情報も含まれる。たとえば、1つ以上の属性(プロパティ)を地図に入力された物体に割り当てることができる。したがって、地図の特定の(部分的な)エリアには、「未掃除」または「掃除済み」および/または「カーペット」または「寄木張り」および/または「障害物によってブロックされた」などの属性を割り当てることができる。他の属性は、例えば(分割)エリアを「キッチン」として分類すること、領域を掃除すべき時間間隔を割り当てることが含まれ得る。   The map of the robot usage area can be recreated by the robot during use or by using an existing map at the start of use. The existing map may have been created by the robot itself during a previous use, such as a reconnaissance run, or may have been provided by another robot and / or a human, and is permanently stored in, for example, non-volatile memory 156. . Alternatively, the permanently stored map of the robot area is stored outside the robot, for example, on a computer (tablet PC, home server, etc.) in the home of the robot user or a computer accessible via the Internet (eg, a cloud server). Can be saved. In the example of FIG. 1, the map is included in the navigation module 152. The map used by the robot is typically an electronic map, which typically includes a collection of map data representing location-related information. Thus, a map represents a plurality of data records along with map data, which can include location-related information such as lines and other geometric objects (such as area elements). These lines represent, for example, the contour of the obstacle (detected by the robot). However, the map data includes not only the geometrical object and the position in the robot use area, but also information about the meaning and the attribute of the object input to the map. For example, one or more attributes (properties) can be assigned to objects entered on the map. Therefore, certain (partial) areas of the map may have attributes such as "not cleaned" or "cleaned" and / or "carpet" or "parquet" and / or "blocked by obstacles". Can be assigned. Other attributes may include, for example, classifying the (split) area as "kitchen" and assigning a time interval during which the area should be cleaned.

一般に、ロボット100によって使用可能な電子地図は、ロボットの使用領域およびこの使用領域におけるロボットに関連する環境に関する位置関連情報を格納するための地図データのコレクションである。地図に保存できる位置関連情報の1つのタイプは、ロボット使用領域内の物体の位置に関する情報である。そのような物体は、たとえば 壁、ドア、家具、ロボットが(少なくとも理論的には)衝突する可能性のあるその他の可動および不動の物体である。また、ロボット基地局110は、地図に記録された物体であり得る。物体(障害物)の位置は通常、座標によって定義される。別のタイプの地図データは、例えば、どのエリア部分が処理、特に掃除されたか、またはその動作中にロボットがどの位置(ロボットエリア内)に接近したかなど、ロボット100のタスクの実行に関する位置関連情報である。別のタイプの位置関連情報は、ロボット使用領域を複数の空間やサブ領域に分割することである。この分割は、ロボット100により自動的に、またはユーザの助けを借りて実行され得る。ユーザは、手動で分割を行うか、自動的に実行された分割を手動で修正できる。また、空間の名称(例:「部屋1」、「部屋2」、「廊下」、「キッチン」、「リビングルーム」、「ベッドルーム」など)を地図データに含めることができる。家の異なる階などの様々なロボット使用領域を、異なる地図に格納できる。   In general, an electronic map that can be used by the robot 100 is a collection of map data for storing location-related information about the robot's use area and the environment associated with the robot in this use area. One type of location-related information that can be stored on a map is information about the location of an object within the robot usage area. Such objects are, for example, walls, doors, furniture, and other movable and immovable objects that a robot may (at least theoretically) collide with. Further, the robot base station 110 may be an object recorded on a map. The position of an object (obstacle) is usually defined by coordinates. Another type of map data is location-related for performing tasks of the robot 100, such as, for example, which area parts have been processed, particularly cleaned, or which position (in the robot area) the robot has approached during its operation. Information. Another type of position-related information is to divide the robot usage area into a plurality of spaces and sub-areas. This division may be performed automatically by the robot 100 or with the aid of a user. The user can make the split manually or manually modify the split performed automatically. In addition, space names (eg, “room 1”, “room 2”, “hallway”, “kitchen”, “living room”, “bedroom”, etc.) can be included in the map data. Various robot usage areas, such as different floors of a house, can be stored on different maps.

さらに、ナビゲーションモジュール152は、仮想遮断領域Sを地図内にマークできるように構成され、ロボットは、ナビゲーション中にロボットが、この領域を自動的に走行および/または通過しない。これは、例えば、仮想遮断領域Sとしてマークされた領域が、ロボット制御ユニット150によって、まるで遮断領域Sがロボット100の使用領域における障害物であるかのように扱われる場合に起こる。したがって、遮断領域Sがロボット100によって走行されることを防止するために、ロボット100の制御ユニット150は、障害物回避アルゴリズムとも呼ばれる障害物回避戦略を利用することができ、これは、検出された障害物の位置に基づいて、これらの障害物との衝突が回避されるようにロボットを制御するように構成される。地図データと共に格納された仮想遮断領域Sに基づいて、1つまたは複数の遮断領域の位置を決定することができる。これらの位置は、実際の障害物がこの位置に立っているかのように障害物回避戦略で使用され得る。これにより、ロボット100が仮想遮断領域Sを自動的に走行および/または通過しないように扱われる。これを次の例で説明する。   Furthermore, the navigation module 152 is configured such that the virtual blocking area S can be marked in the map, so that the robot does not automatically run and / or pass through this area during navigation. This occurs, for example, when the area marked as the virtual cutoff area S is treated by the robot control unit 150 as if the cutoff area S is an obstacle in the use area of the robot 100. Therefore, to prevent the blocking area S from being traveled by the robot 100, the control unit 150 of the robot 100 can utilize an obstacle avoidance strategy, also called an obstacle avoidance algorithm, which is detected. It is configured to control the robot based on the position of the obstacle such that collision with these obstacles is avoided. Based on the virtual blocking area S stored with the map data, the position of one or more blocking areas can be determined. These locations can be used in an obstacle avoidance strategy as if a real obstacle were standing at this location. Thereby, the robot 100 is handled so as not to automatically travel and / or pass through the virtual cutoff area S. This will be explained with the following example.

例1:自律移動ロボットを御する簡単な方法では、ロボットは測定された距離や障害物との相対位置に直接応答する。たとえば、ロボットは障害物の前1cmになるまでまっすぐに走行し、その後方向を変える。自律移動ロボットを制御するこれらの方法を仮想遮断領域に適用するために、地図内のロボットの位置が決定され、地図内の遮断領域の位置に基づいて、(仮想遮断領域への)距離および/または相対位置が決定される。これは適切な時間間隔で繰り返される。   Example 1: In a simple way to control an autonomous mobile robot, the robot responds directly to measured distances and relative positions to obstacles. For example, the robot travels straight until it is 1 cm in front of the obstacle and then changes direction. To apply these methods of controlling an autonomous mobile robot to a virtual occlusion region, the position of the robot in the map is determined, and based on the position of the occlusion region in the map, the distance (to the virtual occlusion region) and / or Alternatively, the relative position is determined. This is repeated at appropriate time intervals.

例2:自律移動ロボットを制御する別の方法では、ロボットは障害物の位置を、たとえば距離測定によって決定し、その位置及び、例えば、地図内の障害物の輪郭を地図に入力する。地図に基づいて、障害物の周囲を走行し、衝突が回避されるようにロボットの経路計画が行われる。自律移動ロボットを制御するこれらの方法を仮想遮断領域に適用するために、地図内の遮断領域の位置は、少なくとも経路計画中には障害物の位置として扱われる。   Example 2: In another method of controlling an autonomous mobile robot, the robot determines the position of the obstacle, for example by distance measurement, and enters the position and, for example, the contour of the obstacle in the map into the map. On the basis of the map, the route of the robot is planned so as to travel around the obstacle and avoid collision. In order to apply these methods of controlling an autonomous mobile robot to a virtual occlusion area, the position of the occlusion area in the map is treated as an obstacle position at least during path planning.

例3:自律移動ロボットを制御する別の方法では、地図に基づいて作業スケジューリングが実行される。例えば、床処理をするロボット(たとえば、吸引、掃く、または拭き取り用の清掃ロボット)の場合、作業する床面は作業する領域内で決定される。これは、処理前および/または処理中に実行し得る。さらに、処理中に、処理されるべき床面のどれが実際に処理されたかを決定することができる。処理すべき床面を決定する際、障害物が存在する床部分や障害物によりアクセスできない床部分は、処理する必要がない、または処理することができないことが考慮される。自律移動ロボットを制御するこれらの方法を仮想遮断領域に適用するために、少なくとも作業スケジューリング中の地図内の遮断領域の位置は、障害物の位置として扱われる。これは、特に、障害物が占める表面などの遮断領域が占める表面は、処理される表面に追加されないことを意味する。   Example 3: In another method of controlling an autonomous mobile robot, work scheduling is performed based on a map. For example, in the case of a robot that performs floor treatment (for example, a cleaning robot that suctions, sweeps, or wipes), the floor on which to work is determined in the area to be worked. This may be performed before and / or during processing. Further, during processing, it can be determined which of the floor surfaces to be processed was actually processed. When determining the floor surface to be treated, it is considered that a floor part where an obstacle exists or a floor part which cannot be accessed due to the obstacle does not need to be treated or cannot be treated. In order to apply these methods of controlling an autonomous mobile robot to a virtual occlusion area, at least the position of the occlusion area in the map during work scheduling is treated as an obstacle position. This means, in particular, that the surface occupied by the blocking area, such as the surface occupied by obstacles, is not added to the surface to be treated.

例4:場合によっては、制御方法の一部のみについて、遮断領域を実際の障害物として処理することが有利な場合がある。多くの商用ホームロボットは、円形であるため、障害物にぶつかるリスクなしにその場で回転できる。1つ以上の角(特に実質的に三角形)などのより複雑な幾何学的形状の場合、これは保証されなくなる。このため、衝突を起こさないようにロボットを制御するには、回転後および回転中に衝突が発生するかどうか、その場所における回転ごとにチェックする必要がある。このようなロボットの制御を簡単化するために、ロボットの並進運動の際に仮想遮断領域を障害物として扱い、その場でのロボットの回転中には遮断領域を無視することが提案される(実際の障害物とは対照的に)。   Example 4: In some cases, it may be advantageous to treat the blocking area as a real obstacle for only part of the control method. Many commercial home robots are circular and can rotate on-the-fly without the risk of hitting obstacles. For more complex geometries, such as one or more corners (especially substantially triangles), this is no longer guaranteed. Therefore, in order to control the robot so as not to cause a collision, it is necessary to check whether or not a collision occurs after the rotation and during the rotation for each rotation in the place. In order to simplify the control of such robots, it is proposed to treat the virtual blocking area as an obstacle during the translational movement of the robot and ignore the blocking area during rotation of the robot on the spot ( In contrast to real obstacles).

一般に、仮想遮断領域Sは、ロボットが走行してはならない床面である。床面は、仮想境界Bと実際の障害物に囲まれている場合がある。場合によっては、たとえば、ロボットが開いた(家の)ドアを通過するのを防ぐために、仮想境界Bがロボット展開領域を閉じることがある。どちらの場合も、仮想境界Bは、ロボットが走行可能な領域を、ロボットが自由に走行できる領域とロボットの走行が禁止される領域とを区分することを特徴としている。   Generally, the virtual blocking area S is a floor surface on which the robot must not travel. The floor may be surrounded by a virtual boundary B and an actual obstacle. In some cases, for example, a virtual boundary B may close the robot deployment area to prevent the robot from passing through an open (house) door. In either case, the virtual boundary B is characterized in that the region where the robot can travel is divided into a region where the robot can travel freely and a region where the robot is prohibited from traveling.

仮想遮断領域Sは、例えば、仮想境界Bを格納することにより、または地図データを有する床面として格納することができる。例えば、地図データは、ロボット使用領域がセルのグリッドによって表される占有グリッドマップの形式で格納され、各セルについて特定のセルが障害物で占められているかどうかの情報が格納される。地図内の遮断領域Sをマークするには、遮断領域Sに属するセルを適切に占有されているセルとしてマークする。   The virtual blocking area S can be stored, for example, by storing a virtual boundary B or as a floor with map data. For example, the map data is stored in the form of an occupancy grid map in which the robot use area is represented by a grid of cells, and information on whether or not a specific cell is occupied by an obstacle for each cell is stored. To mark a blocked area S in the map, cells belonging to the blocked area S are marked as appropriately occupied cells.

仮想遮断領域Sは、円形、正方形、長方形、または正多角形などの幾何学的な基本図形として保存でき、これにより、必要な保存スペースが削減されるという利点がある。たとえば、円の場合には、中心の位置と半径が保存で十分である。仮想遮断領域Sのより複雑な幾何学的形状を可能にするために、仮想遮断領域Sの仮想境界Bは、例えば、ポリラインの形で保存することができる。仮想境界Bに対し、ロボットを遮断する必要のある床領域を保存することもできる。この目的のために、仮想境界Bに対して向きを保存でき、ロボットが仮想境界Bのどちら側にいるか、または、いる必要があるかを区別できる(たとえば、常に境界Bの右側)。特に、ロボットが第1の方向または第2の方向から(すなわち、例えば、左または右から)仮想境界Bに接近するかどうかを判別することができ、第2の方向は第1の方向と反対である。これは、たとえば、ポリラインを、開始点と終了点を持つ有向セグメントまたはベクトルとして保存することにより行われる。したがって、たとえば、境界Bの右側を通過可能と定義できる。   The virtual cut-off area S can be stored as a geometric basic figure such as a circle, a square, a rectangle, or a regular polygon, which has the advantage that the required storage space is reduced. For example, in the case of a circle, conservation of the center position and radius is sufficient. To allow for more complex geometric shapes of the virtual occlusion region S, the virtual boundaries B of the virtual occlusion region S can be stored, for example, in the form of polylines. For the virtual boundary B, a floor area where the robot needs to be blocked can be stored. For this purpose, the orientation can be preserved with respect to the virtual boundary B, so that it is possible to distinguish on which side of the virtual boundary B the robot needs to be (for example always on the right side of the boundary B). In particular, it can be determined whether the robot approaches the virtual boundary B from a first direction or a second direction (ie, for example, from left or right), where the second direction is opposite to the first direction. It is. This is done, for example, by storing the polyline as a directed segment or vector having a start point and an end point. Therefore, for example, it can be defined that the right side of the boundary B can pass.

仮想境界Bは、遮断された床面から自由走行可能な床面に乗り越えられるように扱われるが、反対方向は遮断される。すなわち、ロボットが仮想境界Bに第1の方向から(たとえば、右から)近づくと、仮想境界Bは、ロボットが自動的に走行および/または通過しないと考える。例えば、仮想境界Bは(上述のように)障害物として扱われる。したがって、ロボットは、ナビゲーションのために障害物回避アルゴリズムを使用し、この障害物回避アルゴリズムは、ロボットが境界によって定義された遮断領域に近づく場合(つまり、右から来る場合)、ロボットのセンサによって検出された実際の障害物の実際の境界と同じ方法で仮想境界Bを考慮する。ロボットが第2の反対方向(左からなど)から仮想境界Bに近づくと、効果は無い。ロボットは仮想境界Bを通過できる。   The virtual boundary B is handled so as to be able to get over the free-flowing floor from the blocked floor, but is blocked in the opposite direction. That is, when the robot approaches the virtual boundary B from a first direction (eg, from the right), the virtual boundary B considers that the robot does not automatically travel and / or pass. For example, virtual boundary B is treated as an obstacle (as described above). Thus, the robot uses an obstacle avoidance algorithm for navigation, which is detected by the robot's sensor when the robot approaches an occluded area defined by the boundary (ie when coming from the right). Consider the virtual boundary B in the same way as the real boundary of the real obstacle shown. If the robot approaches the virtual boundary B from a second opposite direction (such as from the left), there is no effect. The robot can pass through the virtual boundary B.

この時点で、仮想遮断領域の永続的な区切りに加えて、このような仮想境界Bも一時的に使用できる。たとえば、ロボットが特定のタスク(クリーニングなど)を実行する部分領域を区切るために使用できる。仮想境界Bは、ロボットがタスクを完了するか中断するまでアクティブになる。これには、ロボットが処理対象の領域に進入できるという利点がある。ロボットを処理対象の領域に保持するために、追加の複雑な制御手順は必要ない(この例では、処理対象領域外のすべてが仮想遮断領域として定義されているため)。最も単純なケースでは、障害物回避戦略と閉空間でタスクを完了するための戦略のみがロボットコントローラ150によって使用される。   At this point, such a virtual boundary B can also be used temporarily, in addition to the permanent delimitation of the virtual blocking area. For example, it can be used to delimit sub-regions where a robot performs a particular task (such as cleaning). Virtual boundary B is active until the robot completes or interrupts the task. This has the advantage that the robot can enter the area to be processed. No additional complex control procedures are required to keep the robot in the area to be processed (since everything outside the area to be processed is defined as a virtual blocking area in this example). In the simplest case, only the obstacle avoidance strategy and the strategy for completing the task in a closed space are used by the robot controller 150.

(仮想遮断領域の定義)仮想遮断領域Sを地図データに追加するには、ユーザ入力はヒューマンマシンインターフェイス200(HMI)を介して行われる。仮想遮断領域SについてユーザがHMI200に入力した情報は、事前定義可能な基準に従って評価される。例えば、この評価に基づいて、遮断領域Sが保存されているか、および/またはどのような形で保存されているかを決定することができる。この手順は、図2に示す以下の例に示されている。   (Definition of Virtual Blocking Area) In order to add the virtual blocking area S to the map data, user input is performed through the human machine interface 200 (HMI). Information input by the user to the HMI 200 for the virtual blocking area S is evaluated according to predefinable criteria. For example, it can be determined based on this evaluation whether the blocking area S is stored and / or in what form. This procedure is illustrated in the following example shown in FIG.

図2は、例として、HMI200(例えば、タブレットPC)を介した仮想遮断領域Sの入力を示している。この目的のために、HMI200は、人間が理解できる地図の形式で地図データを表示するように適合されている。この地図に、ユーザは新しく定義される仮想遮断領域Sに関する情報を入力できる。   FIG. 2 illustrates, as an example, input of the virtual cutoff region S via the HMI 200 (for example, a tablet PC). To this end, the HMI 200 is adapted to display map data in the form of a human-readable map. On this map, the user can enter information about the newly defined virtual blocking area S.

図2(A)は、正方形、長方形、平行四辺形、円などの(2次元の)幾何学的形状による新しい遮断領域Sの入力を示している。サイズと方向は、たとえば、HMI200のタッチスクリーン201上のユーザの指の位置によって決定される。基本図形の向きは、ユーザが決定できる。あるいは、向きは、地図データに少なくとも部分的に基づいて決定されてもよい。例えば、基本形状(例えば、正方形)の1つのサイドを近くの壁に平行に並べることができる。遮断領域Sの位置およびサイズは、ユーザによって決定されてもよく、または既存の地図データに基づいて少なくとも部分的に決定されてもよい。したがって、例えば、部屋の隅に登録された仮想遮断領域Sは、壁で閉じるように拡大および/または移動することができる。これは、壁と遮断領域Sの間の領域が、ロボットがナビゲーションするのに必要とするスペースよりも狭い場合に特に有効である。   FIG. 2A shows the input of a new blocking area S by a (two-dimensional) geometrical shape such as a square, a rectangle, a parallelogram, and a circle. The size and direction are determined, for example, by the position of the user's finger on the touch screen 201 of the HMI 200. The direction of the basic graphic can be determined by the user. Alternatively, the orientation may be determined based at least in part on the map data. For example, one side of a basic shape (eg, a square) can be parallel to a nearby wall. The position and size of the blocking area S may be determined by the user, or may be determined at least partially based on existing map data. Therefore, for example, the virtual blocking area S registered in the corner of the room can be enlarged and / or moved so as to be closed by the wall. This is particularly effective when the area between the wall and the blocking area S is smaller than the space required for the robot to navigate.

図2(B)は、仮想境界Bによる遮断領域の設定を示している。たとえば、ユーザは、仮想境界Bを直線または(開いたまたは閉じた)多角形の形で定義することで、ロボットが部屋の隅にアクセスすることを拒否できる。そのように定義された遮断領域Sは、仮想境界Bと壁によって定義される。タッチスクリーンでのユーザの入力に対して、仮想境界Bによって床面を遮断すべきか、また場合によっては、どの床面を遮断すべきかが分析される。例えば、ユーザが入力した仮想境界Bが、地図に表示されているロボット使用領域を少なくとも2つの連続したサブ領域に分割するかどうかが、HMI200によって検査できる。これは、たとえば、仮想境界Bが閉じた多角形チェインで表される場合、または仮想境界Bが2つ以上の障害物(たとえば、部屋の隅に交わる2つの壁)を接続する場合である。この場合、ロボット使用領域の分割領域には、仮想境界Bを通過することなく、分割領域内の位置からロボットが到達できるすべての可能な位置が含まれる。この到達可能性は、たとえば、経路計画アルゴリズムを使用して決定できる。ロボット100のための仮想境界Bによってそれぞれが閉じられる2つのドアのある部屋など、ロボット使用領域を少なくとも2つの分割領域(仮想遮断領域Sとロボット使用領域の残りの部分)に分割するために複数の線(仮想境界Bのセグメント)が必要になる場合がある。   FIG. 2B shows the setting of the cutoff region by the virtual boundary B. For example, a user can deny a robot access to a corner of a room by defining a virtual boundary B in the form of a straight line or a polygon (open or closed). The so-defined blocking area S is defined by the virtual boundary B and the wall. In response to a user input on the touch screen, it is analyzed whether the virtual boundary B should block the floor, and in some cases, which floor should be blocked. For example, the HMI 200 can check whether or not the virtual boundary B input by the user divides the robot use area displayed on the map into at least two consecutive sub-areas. This is the case, for example, when the virtual boundary B is represented by a closed polygon chain, or when the virtual boundary B connects two or more obstacles (for example, two walls intersecting a corner of a room). In this case, the divided region of the robot use region includes all possible positions that the robot can reach from positions in the divided region without passing through the virtual boundary B. This reachability can be determined, for example, using a path planning algorithm. To divide the robot use area into at least two divided areas (virtual cutoff area S and the rest of the robot use area), such as a room with two doors each closed by a virtual boundary B for robot 100 (A segment of the virtual boundary B) may be required.

ロボット使用領域が少なくとも2つの連続する部分に細分化されている場合、どの連続する部分を遮断する必要があるかが自動的に確認される。これの可能な基準は、基地局110および/またはロボット100が位置する最大の連続部分が使用領域とみなされ、それに応じて他のすべての連続する部分が仮想遮断領域Sとして格納されることである。   If the robot usage area is subdivided into at least two consecutive parts, it is automatically determined which consecutive parts need to be cut off. A possible criterion for this is that the largest contiguous part where the base station 110 and / or the robot 100 is located is considered as the area of use, and all other contiguous parts are stored accordingly as the virtual blocking area S. is there.

新たに作成される仮想遮断領域Sについて明確な決定を自動的に行うことができない場合(たとえば、ユーザ入力が不明瞭、もっともらしくない、またはあいまいなため)、ユーザに警告および/または照会を行うことができる。例えば、ユーザは、ロボットの基地局110が置いてある領域、例えば、図2(B)に示される部屋の右上隅を遮断領域として定義することができる。ユーザ入力の分析では、大きな部分と非常に小さな部分(部屋の隅)があり、ロボット100の基地局110の小さな部分にあると判断されるであろう。この区分はもっともらしくないと見なすことができ、ユーザが実際に遮断したい領域が不明確である。ユーザは、HMI200を介して(たとえば、タッチスクリーン上のメッセージによって)この事実を知ることができ、部屋の誤ったコーナを間違えて遮断したことをユーザに判断する機会を与える。あるいは、自動的に決定された部分領域から、新しく作成される1つ以上の仮想遮断領域Sを選択できる。場合によっては、ユーザは、基地局を新しい位置に設定し、適切なユーザ入力によってロボット100に通知することができる。   If a definitive decision cannot be made automatically for the newly created virtual blocking area S (e.g., because the user input is ambiguous, illegible or ambiguous), a warning and / or inquiry to the user is made. be able to. For example, the user can define an area where the base station 110 of the robot is located, for example, the upper right corner of the room shown in FIG. Analysis of the user input will determine that there is a large portion and a very small portion (the corner of the room) and that it is in a small portion of the base station 110 of the robot 100. This segmentation can be considered plausible, and the area that the user actually wants to block is unclear. The user can be informed of this fact via the HMI 200 (eg, by a message on the touch screen), giving the user an opportunity to determine that he accidentally shut off the wrong corner of the room. Alternatively, one or more newly created virtual cutoff areas S can be selected from the automatically determined partial areas. In some cases, the user can set the base station to a new location and notify robot 100 with appropriate user input.

図2(C)は、ユーザが仮想遮断領域を定義する方法の別の例を示している。それによれば、ユーザは、平面マーキングによって仮想遮断領域Sを定義することができる。これは、たとえば、指の拭う動作によって起こる。ここでのユーザの入力は非常に粗く、仮想遮断領域の適切な仮想境界Bがどこにあるか分析する必要がある。これは、たとえば、平面マークの周りに凸包を形成するか、平面マークを1つ以上の長方形(または他の基本的な幾何学的図形)で覆うことによって行われる。これは、たとえば、エリアマークを囲む最小領域の長方形にすることができる。さらに、地図データに保存されている障害物も考慮することができる。たとえば、長方形の片側を近くの障害物(壁など)に平行に配置することができる。   FIG. 2C illustrates another example of a method in which a user defines a virtual cutoff region. According to this, the user can define the virtual blocking area S by the planar marking. This occurs, for example, by a finger wiping action. The input of the user here is very coarse, and it is necessary to analyze where the appropriate virtual boundary B of the virtual blocking area is. This is done, for example, by forming a convex hull around the planar mark or by covering the planar mark with one or more rectangles (or other basic geometric figures). This can be, for example, a rectangle of the smallest area surrounding the area mark. Further, obstacles stored in the map data can also be considered. For example, one side of the rectangle can be placed parallel to a nearby obstacle (such as a wall).

図2(D)は、ユーザが仮想遮断領域を定義する方法の別の例を示している。これによれば、ユーザは障害物(壁など)または別のランドマークに基づいて遮断領域を設定できる。例えば、タッチスクリーン上の障害物に触れ、障害物から所望の距離をドラッグして、仮想遮断領域Sを広げる。この手順により、ロボット100がそれぞれの障害物まで一定の距離を維持するように、仮想遮断領域Sを定義するのは簡単である。追加または代替として、ユーザは障害物までの距離(85cmなど)を直接設定することもできる。ユーザの入力を分析して、ユーザが入力したパラメータ(たとえば障害物までの距離)、指定された障害物、および場合によっては他の隣接する障害物から仮想境界B、したがって仮想遮断領域Sを明確に決定できるかどうかを判断する必要がある。   FIG. 2D shows another example of a method in which a user defines a virtual cutoff region. According to this, the user can set the blocking area based on an obstacle (such as a wall) or another landmark. For example, the user touches an obstacle on the touch screen and drags a desired distance from the obstacle to expand the virtual cutoff area S. According to this procedure, it is easy to define the virtual cutoff area S so that the robot 100 maintains a certain distance to each obstacle. Additionally or alternatively, the user can directly set the distance to the obstacle (eg, 85 cm). Analyzing the user's input to define the virtual boundary B and thus the virtual occlusion region S from the parameters entered by the user (e.g. distance to obstacles), specified obstacles and possibly other adjacent obstacles It is necessary to judge whether it can be determined.

障害物(特に壁)から一定の距離で定義される仮想遮断領域Sは、必ずしも障害物の全長に沿って延びる必要はない。ユーザは、遮断領域をさらに制限できる。これは、たとえば連結を使用して実行できる。例えば、部屋のコーナの領域を(2つの壁で)遮断するために、ユーザは第1の壁までの第1の距離と第2の壁までの第2の距離を決めることができる。このように定義されたこれら2つの領域の連結(共通部分)は、所望の遮断領域Sである。これは、仮想遮断領域がユーザによって非常に正確に決定できるという特定の利点を有する。   The virtual blocking area S defined at a certain distance from an obstacle (particularly a wall) does not necessarily need to extend along the entire length of the obstacle. The user can further restrict the blocking area. This can be done, for example, using concatenation. For example, to occlude a corner area of a room (with two walls), a user can determine a first distance to a first wall and a second distance to a second wall. The connection (intersection) of these two regions thus defined is the desired blocking region S. This has the particular advantage that the virtual blocking area can be determined very accurately by the user.

ロボット100が、ユーザが定義可能な距離を遵守すべき障害物は、必ずしも壁である必要はない。例として、図3(A)は、自律移動ロボット100のベース部がナビゲートするのが難しく、検出するのが難しいバースツールHを示す図である。図3(B)に示すように、障害物Hとして検出できるバースツールの部分から始まる仮想遮断領域Sを定義すると、ロボット100がバースツールHのベース部を将来的に自動的に回避するという有利な点がある場合がある。この場合、遮断面は、例えば、バースツールのベース部の位置とサイズに基づいて中心と直径が決まる円である。バースツールの位置は固定されていないため、そのように定義された遮断領域Sにも固定位置はない。むしろ、遮断領域Sの位置は、ロボット100のセンサ測定値に基づいて、ロボットの使用の際に決定される。たとえば、カメラと画像認識を備えたロボットは、バースツールをそれとして認識することができる。または、地図データと共に保存することもできる。たとえば、(バースツールの検出可能な部分Hに対応する)所定のサイズの障害物の周囲の(バースツールが通常ある)部分領域では、障害物の周りの仮想遮断領域Sを考慮する必要がある。仮想遮断領域は地図内の絶対座標ではなく、障害物に対して相対的に保存される。障害物の位置が変化すると、それに応じて仮想遮断領域が移動する。   The obstacle that the robot 100 must observe the user-definable distance does not necessarily have to be a wall. As an example, FIG. 3A is a diagram illustrating a bar stool H in which the base of the autonomous mobile robot 100 is difficult to navigate and difficult to detect. As shown in FIG. 3B, defining a virtual cut-off region S starting from a bar stool portion that can be detected as an obstacle H is advantageous in that the robot 100 automatically avoids the base portion of the bar stool H in the future. There may be points. In this case, the blocking surface is, for example, a circle whose center and diameter are determined based on the position and size of the base portion of the bar stool. Since the position of the bar stool is not fixed, there is no fixed position in the so-defined blocking area S as well. Rather, the position of the blocking area S is determined during use of the robot based on sensor measurements of the robot 100. For example, a robot with a camera and image recognition can recognize a bar stool as such. Alternatively, it can be stored together with the map data. For example, in a partial area around an obstacle of a given size (corresponding to the detectable part H of the bar stool) (where the bar stool is usually), it is necessary to take into account the virtual blocking area S around the obstacle. . The virtual blocking area is not stored in absolute coordinates in the map, but is stored relative to the obstacle. When the position of the obstacle changes, the virtual blocking area moves accordingly.

ここで説明するアプローチでは、仮想遮断領域Sの位置は、ロボットナビゲーションに使用されるグローバル座標系のグローバル座標ではなく、障害物またはランドマークに対するローカル参照(つまり相対)で保存される。このようにして、この場合、仮想遮断領域Sは現在のセンサ測定に基づいているので、仮想遮断領域Sの堅牢な考慮及び仮想遮断領域Sに沿った正確な走行が可能になる。したがって、例として、ユーザは、任意の壁に平行な幅がわずか数センチメートル(たとえば、5cm)の領域を遮断できる。バースツール(図3を参照)の例のように、この地図内の障害物またはランドマークの位置の変化に伴って移動する仮想遮断領域Sを定義できる。位置の変更は、例えば、環境内の障害物の移動(例えば、押し動かすこと)により、または地図データにプロットされた位置の修正(例えば、測定誤差の)により達成され得る。   In the approach described here, the position of the virtual blocking area S is stored not in the global coordinates of the global coordinate system used for robot navigation, but in a local reference (that is, relative) to an obstacle or a landmark. In this way, in this case, since the virtual blocking area S is based on the current sensor measurement, a robust consideration of the virtual blocking area S and accurate running along the virtual blocking area S are possible. Thus, by way of example, a user can block an area that is only a few centimeters wide (eg, 5 cm) parallel to any wall. As in the example of the bar stool (see FIG. 3), it is possible to define a virtual blocking area S that moves in accordance with a change in the position of an obstacle or a landmark in the map. The change in position may be achieved, for example, by moving (eg, pushing) an obstacle in the environment or by modifying the position plotted in the map data (eg, of a measurement error).

仮想遮断領域Sに関する情報の入力は、地図表示のみに基づく必要はない。例えば、HMI200は、ユーザのジェスチャを認識するように構成されてもよい。たとえば、ユーザは仮想遮断領域Sの輪郭を(遮断領域上で)直接記述できる。たとえば、ジェスチャを検出するには、ロボットに統合できるカメラまたは3Dカメラを使用する。この際に、ユーザの入力は、仮想境界Bと遮断領域Sを決定するために、ユーザがどの場所に位置するか、およびユーザの適切なジェスチャが示す場所について分析する必要がある。   The input of the information on the virtual cutoff area S does not need to be based only on the map display. For example, the HMI 200 may be configured to recognize a user gesture. For example, the user can directly describe the outline of the virtual blocking area S (on the blocking area). For example, to detect gestures, use a camera or 3D camera that can be integrated into the robot. At this time, in order to determine the virtual boundary B and the blocking area S, the user's input needs to analyze where the user is located and the location indicated by the appropriate gesture of the user.

さらなるオプションとして、ロボット100の学習走行中に仮想遮断領域Sに関する情報を入力することもでき、入力情報の分析は、ロボットの現在の位置および向きも考慮に入れられる。したがって、ユーザは、ロボット100が自身の使用領域を初めて探索している間に、回避すべき領域を示すことができる。これは、たとえば、ロボットの位置と向きに応じて行われる。したがって、ユーザは、たとえば、「ストップ、このコーナを走行するな」と音声入力することによって、ロボットが現在向かっている部屋のコーナの領域が仮想遮断領域であることを指摘することができる。同様に、ユーザは、ロボットに、ロボットが探索した障害物に対してユーザが決定した距離を維持するように指示することができる。この情報の入力は、(リモートコントロールやタブレットPCなどの)HMI200の事前定義コマンドを介して行うことができる。上述のように、(代替的または追加的に)情報の入力は、ロボット100またはHMI200に統合されたマイクロフォン、または外部マイクロフォンを介して記録および分析される音声コマンドの形で行うこともできる。代替的または追加的に、情報を入力するためのさらなる補助手段を使用することができる。たとえば、線を生成するように構成されたレーザーポインターを使用して、床面に線を投影できる。ロボットは、例えばカメラでその位置と延び方を検出し、作成された地図データとともに仮想遮断領域Sの仮想境界Bとして保存できる。代替的または追加的に、磁気テープや赤外線バリアなどの従来のマーキングを学習走行中に使用して、走行してはならない領域についてロボットに通知することができる。ロボットは、センサを使用して延び方を探索し、作成された地図データとともに対応する仮想遮断領域Sを保存する。これにより、学習走行後に再びマーカーを削除することができる。   As a further option, information about the virtual blocking area S can be input during the learning run of the robot 100, and the analysis of the input information also takes into account the current position and orientation of the robot. Therefore, the user can indicate an area to be avoided while the robot 100 is searching for its own use area for the first time. This is performed, for example, according to the position and orientation of the robot. Therefore, the user can point out that the area of the corner of the room where the robot is currently heading is the virtual cut-off area, for example, by voice inputting “Stop, do not run this corner”. Similarly, the user can instruct the robot to maintain a distance determined by the user with respect to the obstacle searched by the robot. The input of this information can be done via a predefined command of the HMI 200 (such as a remote control or tablet PC). As mentioned above, the input of information (alternatively or additionally) can also take place in the form of voice commands recorded and analyzed via a microphone integrated into the robot 100 or the HMI 200 or via an external microphone. Alternatively or additionally, further aids for inputting information can be used. For example, a line can be projected onto the floor using a laser pointer configured to generate the line. The robot can detect its position and how it extends by using, for example, a camera, and store it as a virtual boundary B of the virtual cut-off area S together with the created map data. Alternatively or additionally, conventional markings, such as magnetic tape or infrared barriers, can be used during the learning run to inform the robot about areas that must not be run. The robot searches for how to extend using the sensor, and stores the corresponding virtual cut-off area S together with the generated map data. Thus, the marker can be deleted again after the learning travel.

ユーザ定義の遮断領域の確認−ユーザから受信した情報に基づいて作成された仮想遮断領域Sは、ロボットの予期しない望ましくない動作を引き起こす可能性がある。したがって、どれだけユーザが希望する仮想遮断領域Sが決定されたかに関連してユーザが入力した情報を分析するだけでなく、遮断領域がロボットの機能にどのように影響するかも重要である。この目的のために、例えば、複数の基準をチェックすることができ、それらの非履行(または違反)の場合、仮想遮断領域Sの保管は拒否されるか、ユーザによる明示的な確認後にのみ行われる。その前に、仮想遮断領域Sの保存が行われない理由に関する対応する情報をユーザに送信することができる。   Confirmation of user-defined occlusion region-The virtual occlusion region S created based on the information received from the user may cause unexpected and undesirable behavior of the robot. Therefore, it is important not only to analyze the information input by the user in relation to how much the virtual blocking area S desired by the user has been determined, but also how the blocking area affects the function of the robot. For this purpose, for example, a number of criteria can be checked, and in the case of their non-performance (or violation), the storage of the virtual interception area S is rejected or performed only after explicit confirmation by the user. Will be Before that, corresponding information on the reason why the virtual blocking area S is not saved can be sent to the user.

したがって、例えば、ロボットが部分的におよび/または完全に新たに作成される仮想遮断領域Sに位置するかどうかをチェックすることができる。そうである場合、ユーザは、ロボット100がそれをどのように処理すべきかを通知され、尋ねられてもよい。したがって、仮想遮断領域Sの保存を省略することができる。あるいは、ユーザは仮想遮断領域Sを保存し、ロボットにそれを離れるように指示できる。別の代替では、ユーザは、ロボット100を停止させ、後で遮断領域からそれを取り出すように指示することができる。   Thus, for example, it can be checked whether the robot is located partially and / or completely in the newly created virtual blocking area S. If so, the user may be notified and asked how the robot 100 should handle it. Therefore, storage of the virtual cutoff area S can be omitted. Alternatively, the user can save the virtual blocking area S and instruct the robot to leave it. In another alternative, the user may instruct the robot 100 to stop and later remove it from the occluded area.

さらに、仮想遮断領域Sを考慮して、ロボットが計画されたタスクを有効に実行できるかどうか、および/またはロボット機能の重要な場所に自律的に接近できるかどうかを確認できる。これには、例えば、ロボット100がその現在位置から基地局110に近づくことができ、基地局110が遮断領域にないことが含まれる。加えて、例えば、現在のロボット位置および/または基地局110から出発して、遮断領域に属さないロボット使用領域に邪魔されることなくさらに接近できるかどうかをチェックすることができる。したがって、たとえば、この遮断領域Sにより、たとえば事前定義可能な最大サイズよりも大きい使用領域の別の領域にアクセスできない場合、大きな迂回を介してのみ到達できる場合、仮想遮断領域Sの保存を防止できる。特に、ロボット使用領域は、例えば住居の部屋またはその一部に対応する複数の分割領域に細分することができる。このような分割領域が仮想遮断Sによりアクセスできなくなった(つまりブロックされた)場合、ユーザにこれを通知できる。ユーザは、ロボット使用領域の厳しい制限にもかかわらず、仮想遮断領域Sの保存を再度確認して、永続的に保存する可能性を得ることができる。   Furthermore, it is possible to check whether the robot can effectively execute the planned task and / or can autonomously approach the important place of the robot function in consideration of the virtual blocking area S. This includes, for example, that the robot 100 can approach the base station 110 from its current location and that the base station 110 is not in a blocked area. In addition, it is possible to check, for example, starting from the current robot position and / or the base station 110, whether it is possible to gain further unobstructed access to the robot use area that does not belong to the blocking area. Therefore, for example, if the blocked area S cannot access another area of the used area larger than the maximum size that can be defined in advance, if it can be reached only through a large detour, for example, the storage of the virtual blocked area S can be prevented. . In particular, the robot use area can be subdivided into a plurality of divided areas corresponding to, for example, a room of a house or a part thereof. When such a divided area cannot be accessed (that is, is blocked) by the virtual block S, the user can be notified of this. The user can reconfirm the storage of the virtual cut-off area S despite the severe restrictions on the robot usage area, and obtain the possibility of permanent storage.

特定の領域に到達できるかまたはブロックされるかを判断するには、既知の経路計画アルゴリズムを使用できる。したがって、例えば、新たに作成された仮想遮断領域が考慮され、それ自体で走行および/または通過できない場合、現在のロボット位置から基地局110までの経路が存在するかどうかを判定することができる。同様の方法で、ロボット使用領域のすべての部分について、基地局からこの部分領域への経路が存在するかどうかを判断できる。特に、この領域へ接続する廊下が事前定義可能なしきい値よりも狭い場合、地図の領域は使用不可またはブロックされていると見なされる。たとえば、しきい値は、ロボットの直径に加えて、ロボットが安全で信頼性の高い廊下のナビゲーションと制御を行うために必要な安全マージンに対応する。この安全マージンは、ナビゲーションモジュール152の最大位置特定不確実性に対応する場合があり、これは、例えば、SLAM方法の間に決定される。   Known path planning algorithms can be used to determine whether a particular area can be reached or blocked. Thus, for example, if a newly created virtual blocking area is considered and cannot travel and / or pass by itself, it can be determined whether a path from the current robot position to the base station 110 exists. In a similar manner, it can be determined whether or not a route from the base station to this partial area exists for all parts of the robot use area. In particular, if the corridor connecting to this area is smaller than a predefinable threshold, the area of the map is considered to be unusable or blocked. For example, the threshold value, in addition to the diameter of the robot, corresponds to the safety margin required for the robot to navigate and control a safe and reliable corridor. This safety margin may correspond to the maximum location uncertainty of the navigation module 152, which is determined, for example, during the SLAM method.

ロボット領域の別の部分領域が仮想遮断領域Sによってアクセス不能になっていることが検出された場合、仮想遮断領域Sのわずかな修正によってアクセス不能な部分領域が再びアクセス可能になるかどうかをさらにチェックできる。たとえば、地図を介してデータを入力することはしばしば不正確であり、わずかに変更された遮断領域は依然としてユーザの希望とニーズを満たしている。たとえば、遮断領域Sによって制限されている、その背後の領域への廊下がロボット自体と同じ幅しかない場合、遮断領域をわずかに縮小することで、背後にある領域へのアクセスが可能になる。たとえば、仮想遮断領域Sのわずかな変更が基準を満たしているかどうかを確認するために、仮想境界Bは移動または変形される。たとえば、仮想境界が(開いたまたは閉じた)多角形チェインによって与えられる場合、この多角形チェインの頂点を移動できる。   If it is detected that another partial area of the robot area is inaccessible by the virtual obstruction area S, it is further determined whether a slight modification of the virtual obstruction area S makes the inaccessible partial area accessible again. You can check. For example, entering data via a map is often inaccurate, and a slightly modified occlusion region still meets the wishes and needs of the user. For example, if the corridor to the area behind it, which is limited by the blocking area S, is only as wide as the robot itself, a slight reduction in the blocking area allows access to the area behind. For example, the virtual boundary B is moved or deformed to check whether a slight change in the virtual blocking area S meets the criteria. For example, if a virtual boundary is provided by a polygon chain (open or closed), the vertices of this polygon chain can be moved.

(作業依頼の無い領域)自律移動ロボット100が損傷を引き起こす可能性がある領域
が常に仮想遮断領域Sとしてロボット100によるナビゲーションから完全に除外されるわけではない。例えば、これは、ロボット100が掃除するすべての部屋を結ぶ廊下であり得る。この廊下はロボット100が走行する必要がある。そうしないと、他の部屋でタスクを実行できないからである。さらに、廊下では靴がよく置かれていることがあり、その靴ひもが回転ブラシなどのアクチュエータに巻き付くことがある。その結果、一方で、靴が損傷する可能性があり、ロボット100は、そのタスクを実行する際に妨げられる可能性がある。別の例は、ロボット100がブラシなどのアクチュエータによって処理することができない繊細なカーペットが、ロボット100が回避できない中央領域に配置される場合である。
(Area without Work Request) An area where the autonomous mobile robot 100 may cause damage is not always completely excluded from the navigation by the robot 100 as the virtual cutoff area S. For example, this may be a hallway connecting all the rooms that the robot 100 cleans. This corridor requires the robot 100 to travel. Otherwise, the task cannot be performed in another room. In addition, shoes are often placed in the corridors, and the shoelaces may wrap around an actuator such as a rotating brush. As a result, on the one hand, the shoes may be damaged and the robot 100 may be hindered in performing its task. Another example is when a delicate carpet that the robot 100 cannot handle with an actuator such as a brush is placed in a central area that the robot 100 cannot avoid.

説明されている問題を考慮すると、廊下を自律処理から除外することが役立つ場合がある。したがって、ロボットは、仮想領域の少なくとも3つのカテゴリを区別するように構成できる。第1のカテゴリの仮想領域では、ロボットは定義されたタスクを自動的にナビゲートして実行できる。第2のカテゴリの仮想領域では、ロボットは自律的にナビゲートできるが、タスクの独立した実行はされない。第3のカテゴリの領域は、上述した遮断領域である。ロボット100をナビゲートするとき、ロボット100が3番目のカテゴリの領域を独立して走行および/または通過しないように考慮される。   Given the issues described, it may be helpful to exclude corridors from autonomous processing. Thus, the robot can be configured to distinguish at least three categories of the virtual area. In the first category of virtual areas, the robot can automatically navigate and execute defined tasks. In the second category of virtual areas, the robot can autonomously navigate, but does not perform tasks independently. The area of the third category is the above-mentioned blocking area. When navigating the robot 100, care is taken that the robot 100 does not independently travel and / or pass through a third category of area.

仮想領域の定義は、例えば、遮断領域Sに関して上述したように、ユーザによって行われる。特に、(ロボットまたはHMIによって)ユーザに、ロボットの機能を損なうかもしれない仮想遮断領域を走行する、その処理を除外するように自動的に提案できる。つまり、遮断領域は、通常は移動できるが床面の処理をしない第2のカテゴリの領域になる。さらに、ユーザが逆の指示をするまでは、領域は第1のカテゴリに属している(つまり、走行性と仕事の実行性に関する制限がない)と想定できる。   The definition of the virtual area is performed by the user, for example, as described above for the blocking area S. In particular, the user can be automatically suggested (by the robot or the HMI) to exclude the process of traveling through a virtual obstruction area that might impair the function of the robot. That is, the cut-off area is an area of the second category that can normally move but does not process the floor surface. Further, it can be assumed that the region belongs to the first category (that is, there is no restriction on the traveling performance and the work execution) until the user gives the reverse instruction.

さらに、ロボットは、タスクを実行するときに、処理から除外された領域(第2のカテゴリ)を可能な限りまれに、かつ、直接、走行する。したがって、ロボットは、ロボット使用領域の背後の領域に到達するために、タスクに必要な場合にのみこの領域を走行する。そして、ロボットのタスクが可能な限り完了した場合にのみ、ロボットはこの領域に戻る。この領域を横断するとき、最短および/または最速の方法を使用するように注意が払われる。代替的または追加的に、障害物までの所定の最小距離を可能な限り保つ経路を選択することもできる。ロボットが、この最小距離の2倍未満の距離にある2つの障害物の間を通過する必要があるために最小距離を維持できない場合、両方の障害物までの距離をできるだけ大きく選択する経路、特に両方の障害物の中間を通過する経路が選択される。そのような経路を実現するための方法はそれ自体知られている。たとえば、経路計画はコスト関数を使用でき、これでは、特に障害物までの距離に基づいてコストを決定でき、最終的に最小コストの経路がロボット制御に使用される。代替的または追加的に、リアクティブ制御モード(たとえば、仮想力場(VFF))を使用でき、これでは、ロボットが周囲の障害物の距離に直接応答する。   Furthermore, the robot travels as rarely and directly as possible in the area (second category) excluded from the processing when performing the task. Therefore, the robot travels in this area only when necessary for a task to reach the area behind the robot usage area. Then, the robot returns to this area only when the task of the robot is completed as much as possible. When traversing this area, care is taken to use the shortest and / or fastest methods. Alternatively or additionally, a route may be selected that keeps a predetermined minimum distance to the obstacle as far as possible. If the robot cannot maintain the minimum distance because it needs to pass between two obstacles that are less than twice this minimum distance, the path to select the distance to both obstacles as large as possible, especially A path that passes between the two obstacles is selected. Methods for realizing such a path are known per se. For example, path planning can use a cost function, in which costs can be determined based on, among other things, distance to obstacles, and the least cost path is ultimately used for robot control. Alternatively or additionally, a reactive control mode (eg, virtual force field (VFF)) can be used, in which the robot responds directly to the distance of surrounding obstacles.

後者は、たとえば、コスト関数を使用してタスク計画で実現できる。たとえば、処理から除外された領域を走行するコストは、処理される領域を走行するコストよりもはるかに高く設定される。たとえば、処理から除外された領域での1メートルの移動は、処理すべき領域での10メートルの移動と評価される。そうすることで、ロボットは処理から除外される領域を回避するために、大幅な迂回も行うことを受け入れる。経路計画自体にコスト関数を使用するという概念はよく知られている。   The latter can be realized, for example, in a task plan using a cost function. For example, the cost of traveling in the region excluded from the processing is set to be much higher than the cost of traveling in the region to be processed. For example, a one meter move in an area excluded from processing is evaluated as a ten meter move in the area to be processed. In doing so, the robot accepts that it will also make significant detours to avoid areas that are excluded from processing. The concept of using a cost function for the path planning itself is well known.

(遮断領域の表示)仮想遮断領域Sの重要な側面は、ユーザが自分の設定の効果をすばやく、簡単に、そして直接見ることである。これは、とりわけ、たとえば、ヒューマンマシンインターフェイスのディスプレイが地図の形式で用いられる。この地図は、ロボット使用領域の簡略化された表現であり、したがって不正確である可能性があるため、仮想遮断領域Sの仮想境界Bの直接再入力が有利である。また、仮想境界を使用したユーザ定義部分領域の入力(たとえば、後でクリーニングするためにこれらをすばやく選択するため)や、処理される領域に直接入力するなど、他のユーザ入力でも、ここで説明する手順が有利である。   (Display of Blocking Area) An important aspect of the virtual blocking area S is that the user can quickly, easily and directly see the effect of his settings. This is used, for example, where the display of a human-machine interface is in the form of a map. Since this map is a simplified representation of the robot usage area and therefore may be incorrect, direct re-entry of the virtual boundary B of the virtual blocking area S is advantageous. Also described here are other user inputs, such as entering user-defined subregions using virtual boundaries (eg, to quickly select them for later cleaning), or directly entering the region to be processed. This procedure is advantageous.

一例によれば、ロボット100は、最初に、例えば仮想遮断領域に関する位置関連情報を、ユーザのヒューマンマシンインターフェイス200から受信する。ユーザが入力したこの位置関連情報から、たとえば遮断領域Sの仮想境界Bを表す1つまたは複数の線(たとえば、長方形、開いたまたは閉じた多角形チェインなど)が決定される(図2を参照)。前述のように、ロボット使用領域の地図の表現は、実際の環境の不正確な抽象である。したがって、HMI200を介して定義された遮断領域の影響について、より現実的なフィードバック(地図表現よりも現実的)をユーザに提供することが望まれる。ユーザ定義の遮断領域Sを考慮して、ロボットは経路を決定し、その経路を追従することができる。経路は1回、数回、またはユーザが中断するまで通過できる。例えば、ロボットは、遮断領域が走行および/または通過されないように、遮断領域Sの仮想境界Bに沿って移動することができる。   According to an example, the robot 100 first receives location-related information, for example, regarding a virtual occlusion region, from the user's human-machine interface 200. From this position-related information entered by the user, one or more lines (eg, rectangles, open or closed polygon chains, etc.) representing, for example, a virtual boundary B of the blocking area S are determined (see FIG. 2). ). As mentioned above, the representation of the map of the robot usage area is an inaccurate abstraction of the real environment. Therefore, it is desirable to provide more realistic feedback (more realistic than a map representation) to the user about the effect of the blocking area defined via the HMI 200. In consideration of the user-defined blocking area S, the robot can determine a route and follow the route. The path can be passed once, several times, or until interrupted by the user. For example, the robot can move along a virtual boundary B of the blocking area S so that the blocking area does not travel and / or pass.

上述の視覚化のやり方は、遮断領域だけでなく、分割領域でも可能である。ロボット使用領域の新しく定義された分割領域(たとえば、部屋の一部)では、ロボットは分割領域の(仮想)境界に沿って直接移動できる。たとえば、掃除するユーザ定義領域(部屋内)で、ロボットが作業対象領域内の仮想境界に沿って移動して、どの領域が処理されるかをユーザに示すことができる。この現実的なデモンストレーションを通じて、ユーザに自分の入力の影響について直接的な印象が与えられる。ユーザは、HMI200を介して入力情報またはそこから導き出された地図データ(例えば、多角形チェーン)を永続的に保存し、将来のロボット制御に使用できる。さらに、ユーザは、自分の入力が望みのロボットの動作を生成しないことを認識し、入力を修正したり、新しい位置関連情報を入力したりする機会を有する。ユーザ入力の修正は、新しい修正されたロボット経路に直接変換できる(ロボットによる新しいデモンストレーション用に)。   The above-described visualization method can be applied not only to the occluded area but also to the divided area. In a newly defined sub-region (eg, part of a room) of the robot usage region, the robot can move directly along the (virtual) boundary of the sub-region. For example, in a user-defined area (in a room) to be cleaned, the robot can move along a virtual boundary within the work area to indicate to the user which area is to be processed. This realistic demonstration gives the user a direct impression of the effects of his input. The user can permanently store the input information or the map data (eg, polygon chain) derived therefrom via the HMI 200 and use it for future robot control. In addition, the user recognizes that his input does not produce the desired robotic motion and has the opportunity to modify the input or enter new location-related information. Modifications of user input can be directly translated into new modified robot paths (for new demonstrations with robots).

ユーザに自分の入力に関する迅速かつ簡単で直接的なフィードバックを提供する別の方法は、環境に情報を直接投影することである。このために、たとえば、可動式ミラーと光源としての1つ以上のレーザを使用して描かれる、線、形状、パターン、または画像を環境(たとえば、床面)に具体的に投影するレーザープロジェクターが使用される。プロジェクタは、空間内の固定位置、自律移動ロボット100、または別の自律移動ロボット100Bに取り付けることができる。   Another way to provide users with quick, easy and direct feedback on their input is to project information directly into the environment. To this end, for example, laser projectors that specifically project lines, shapes, patterns, or images, drawn using a movable mirror and one or more lasers as light sources, onto an environment (eg, a floor surface) are described. used. The projector can be mounted on a fixed location in space, on the autonomous mobile robot 100, or on another autonomous mobile robot 100B.

図4に示される例では、プロジェクタ190は、自動車ロボット100上に配置されるか、それと一体化される。図示の構成には、プロジェクタ190をロボット場内の(ほぼ)任意の場所に運搬できるという利点がある。特に、ロボット100は、適切な場所まで移動することができ、そこから投影を行うことができる。したがって、地図データとセンサデータに基づいて、障害物によって乱されることなく、ロボット使用領域(特に床面)の所望の場所に必要な情報を投影できる位置を決定できる。この位置で、所望の場所への邪魔されない投影が、新しい障害物または周囲に立っているユーザによって不可能であると判定された場合、ロボット100は、地図データおよびセンサデータに基づいて代替の適切な位置を探索することができる。   In the example shown in FIG. 4, the projector 190 is arranged on or integrated with the automobile robot 100. The configuration shown has the advantage that the projector 190 can be transported to (almost) any location in the robot field. In particular, the robot 100 can move to an appropriate place and perform projection therefrom. Therefore, based on the map data and the sensor data, it is possible to determine a position where necessary information can be projected to a desired place in the robot use area (particularly, the floor) without being disturbed by an obstacle. At this location, if it is determined that unobstructed projection to the desired location is not possible by the new obstacle or the user standing around, the robot 100 will take an alternative appropriate based on the map and sensor data. You can search for a suitable location.

このアプローチの特徴は、場所関連情報(境界線、遮断領域を表す基本幾何図形など)を関連する場所に直接投影できるため、ユーザに具体的にわかりやすく提示できることである。投影の計算のために、ロボット使用領域内のロボット100の位置および向きが使用される。位置と方向は、自律移動ロボットの機能により高精度に知ることが可能である。加えて、ロボット100内またはロボット100上で使用されるプロジェクタ190の位置および向きは、ロボットの構造により既に知られている。これから、ロボットの環境(特に床面)で地図データによって決定されたポイントに到達するように、どのようにして光線を環境に投影するか(またはどのようにミラーおよび/またはレーザを制御するか)を決定できる。したがって、地図データから位置関連情報を抽出し、これをロボット使用領域内の対応する実際の位置にプロジェクタで表示することが可能である。   A feature of this approach is that location-related information (such as a boundary line, a basic geometric figure representing an occluded area, etc.) can be directly projected to the relevant location, and thus can be presented to the user in a concrete and easy-to-understand manner. For the calculation of the projection, the position and orientation of the robot 100 in the robot usage area are used. The position and direction can be known with high accuracy by the function of the autonomous mobile robot. In addition, the position and orientation of the projector 190 used in or on the robot 100 is already known by the structure of the robot. From now on, how to project light rays into the environment (or how to control mirrors and / or lasers) to reach points determined by map data in the robot's environment (especially the floor) Can be determined. Therefore, it is possible to extract the position-related information from the map data and display this at the corresponding actual position in the robot use area by the projector.

上述の方法で、例えば仮想境界B(たとえば、図2Bを参照)は、床面に直接投影することでユーザに視覚化できる。追加的または代替的に、仮想遮断領域Sは、床面への直接投影によりユーザに見えるようにすることができる。同様に、たとえば清掃する表面またはユーザ定義の部分領域を表す。加えて、プロジェクタ190の助けを借りて、特にロボット100によって作成された他の地図データを、ロボット使用領域に直接投影することができる。これは、例えば、ロボット100によって掃除されたばかりの領域、または次に掃除される領域であり得る。たとえば、ユーザは拭き取ったばかりの領域に関して滑る危険性を警告される。   In the manner described above, for example, a virtual boundary B (see, for example, FIG. 2B) can be visualized to the user by projecting it directly onto the floor. Additionally or alternatively, the virtual blocking area S can be made visible to the user by direct projection on the floor. Similarly, it represents, for example, a surface to be cleaned or a user-defined partial area. In addition, with the help of the projector 190, other map data, especially created by the robot 100, can be projected directly onto the robot usage area. This may be, for example, an area that has just been cleaned by the robot 100 or an area that will be cleaned next. For example, the user is warned of the danger of slipping on the area that has just been wiped.

一実施形態によれば、プロジェクタ190によって表示される情報は、ロボット100の現在位置および(オプションで)その速度および/またはその現在実行されているタスクから直接決定することができる。したがって、たとえば、ロボットの直接的に計画された経路を床面に投影することができる。その結果、ユーザがロボットの動作を予測可能で、作業の望ましくない妨害を回避できる。   According to one embodiment, the information displayed by the projector 190 can be determined directly from the current position of the robot 100 and (optionally) its speed and / or its currently executing task. Thus, for example, a direct planned path of the robot can be projected on the floor. As a result, the user can predict the operation of the robot, and can avoid undesired disturbance of the work.

遮断領域の自動生成−仮想遮断領域Sは、HMI200を介した入力によってユーザが必ずしも定義する必要はない。自律移動ロボット100は、例えば、危険領域をそのようなものとして認識し、これに基づいて、掲出された危険領域を将来、回避するために、遮断領域Sを独立して定義するように構成されている。リスクのある領域は、主にロボットの機能に影響を与える領域、またはロボットにとって危険な領域である。たとえば、ロボットは、センサを使用しての走行か、ナビゲーション機能を分析することだけで、そのような領域を検出できる。これは、図5に示される以下の例により詳細に説明される。   Automatic Generation of Blocking Region-The virtual blocking region S need not necessarily be defined by the user through input via the HMI 200. The autonomous mobile robot 100 is configured to, for example, recognize the danger area as such, and independently define the cutoff area S based on this, in order to avoid the posted danger area in the future. ing. The at-risk region is a region that mainly affects the function of the robot or a region that is dangerous to the robot. For example, a robot can detect such an area simply by running using a sensor or analyzing a navigation function. This is explained in more detail by the following example shown in FIG.

図5(A)は、ロボットが走行によってのみ検出できる危険領域の例として、立ち下がりエッジ(階段の階段など)を示している。典型的には、ロボットは、底部にそのような立ち下がりエッジを検出するために床センサ121を備えている。これらは、立ち下がりエッジに間に合うように停止し、落下を回避できるように、ロボット100に配置される。しかしながら、誤動作(センサの汚れなど)は常に発生する可能性があり、その結果、ロボット100は立ち下がりエッジを認識せず、したがって立ち下がりエッジを越えて移動し、落下する可能性がある(図5(B)参照)。   FIG. 5A shows a falling edge (such as a staircase) as an example of a danger area that can be detected only by traveling by the robot. Typically, the robot is equipped with a floor sensor 121 at the bottom to detect such a falling edge. These are arranged on the robot 100 so as to stop in time for the falling edge and avoid falling. However, malfunctions (such as dirt on the sensor) may always occur, and as a result, the robot 100 may not recognize the falling edge, and thus may move beyond the falling edge and fall (see FIG. 5 (B)).

例えば、図5(B)に示す事故を避けるためにように、ロボット100は、例えば、使用(例えば、学習実行またはタスクの初期実行、例えば、清掃)の際に、それ自体既知の方法で(例えば、センサ121により)立ち下がりエッジを検出し、それに従って回避するように構成されてもよい。ロボットの例示的な軌道は、例えば図5(C)に示す。この場合、ロボット100は、床センサ121がそれを検出するまで、立ち下がりエッジを部分的に移動し、測定点Mの位置が決定されて記憶される。その後、これらの測定点Mおよびオプションで移動軌跡T、仮想境界Bおよび/または仮想遮断領域Sなどの他の環境および地図データに基づいて、ロボットが遮断領域を考慮して立ち下がりエッジの位置(特に測定ポイント)への最小距離d(例えば、1cm)を維持する(図5(D)を参照)。これにより、ロボットは立ち下がりエッジに沿って掃除し、立ち下がりエッジを越えて移動しないようにナビゲートできる。特に、仮想遮断領域Sを考慮して、床立ち下がりセンサ121をトリガーする必要がないようにナビゲートし、それにより、誤動作による落下の危険を最小限に抑える。   For example, to avoid the accident shown in FIG. 5B, the robot 100 may be used in a manner known per se, for example, during use (eg, learning execution or initial execution of a task, eg, cleaning) ( For example, it may be configured to detect the falling edge (by the sensor 121) and avoid it accordingly. An exemplary trajectory of the robot is shown, for example, in FIG. In this case, the robot 100 partially moves the falling edge until the floor sensor 121 detects it, and the position of the measurement point M is determined and stored. Then, based on these measurement points M and optionally other environment and map data, such as the trajectory T, the virtual boundary B and / or the virtual blocking area S, the robot takes into account the blocking area the position of the falling edge ( Particularly, the minimum distance d (for example, 1 cm) to the measurement point is maintained (see FIG. 5D). This allows the robot to clean along the falling edge and navigate so that it does not move beyond the falling edge. In particular, navigating so as not to need to trigger the floor falling sensor 121 taking into account the virtual blocking area S, thereby minimizing the risk of falling due to malfunction.

仮想境界Bを決定する際、十分に調査された立ち下がりエッジの測定ポイントMの位置がロボット直径よりも小さい最大距離を持っていることを考慮する(そうでない場合、ロボットは2つの測定ポイントの間を通過し、走行可能な領域または別の領域を認識でき、または、立ち下がりエッジの検出を受け取る)。立ち下がりエッジは、(走行できない)領域を完全に囲むか、障害物(壁、図5(C)を参照)によって取り囲まれる場合がある。それに応じて、測定点Mの位置が1つずつ接続される。場合によっては、このようにして得られた線は、隣接する障害物まで(例えば、壁に向かって)延長されてもよい。このようにして得られた線は、運転できない表面からロボットによって走行される表面を区切る。すでに移動したエリアの方向へのラインのシフトは、上記の結果、すなわち、仮想境界Bにつながる。これは、仮想境界Bを構築して立ち下がりエッジからの安全を確保する多くの方法の1つにすぎない。別の可能性は、各測定点Mが、ロボットの半径と安全距離dに対応する半径を持つ円を定義することである。重なり合う円は遮断領域にまとめられる。関連する仮想境界Bは、外側の輪郭を平滑化することで得られる(例:(ペアで)凸包)。この場合、ナビゲーション中、ロボットは点(ロボットのほぼ円形の外側輪郭の中心)であると想定できる。   In determining the virtual boundary B, consider that the position of the well-measured falling edge measurement point M has a maximum distance that is less than the robot diameter (otherwise, the robot will have two measurement points). Pass between them, and can recognize a runnable area or another area or receive detection of a falling edge). The falling edge may completely surround the (unable to travel) area or may be surrounded by an obstacle (wall, see FIG. 5C). Accordingly, the positions of the measurement points M are connected one by one. In some cases, the line thus obtained may be extended to an adjacent obstacle (eg, toward a wall). The line thus obtained delimits the surface driven by the robot from the surface that cannot be driven. A shift of the line in the direction of the already moved area leads to the above result, namely the virtual boundary B. This is just one of many ways to construct a virtual boundary B to ensure safety from falling edges. Another possibility is that each measuring point M defines a circle with a radius corresponding to the radius of the robot and the safety distance d. The overlapping circles are grouped in a cut-off area. The associated virtual boundary B is obtained by smoothing the outer contour (eg: convex hull (in pairs)). In this case, during navigation, the robot can be assumed to be a point (center of the robot's substantially circular outer contour).

ロボットが遮断領域を独立して定義できる状況の別の例は、ロボットが認識できない障害物、または認識するのが難しい障害物に関するものである。たとえば、ロボットは、障害物検出および地図作成のために、(たとえば光)信号を発し、障害物からの反射を受信するアクティブセンサを使用する。たとえば、ガラスのドアなどの透明な障害物、鏡などの反射障害物、または放射信号の範囲外にある障害物(低い障害物など)は認識できないか、認識が困難である。ロボットは、これらの障害物を、たとえば触覚センサ(障害物との物理的接触を検出するセンサ)を使用して、ロボットが触れたときに検出する。しかし、ロボットの障害物との頻繁で繰り返す衝突は、ユーザによって望ましいことではない。したがって、ロボットは、ロボット使用中(学習走行またはタスクの実行)に触覚(タッチ)でのみ検出可能で、非接触(たとえば、光学センサによる)では認識できない障害物の位置を決定するように構成できる。これらの位置から、ロボットが仮想遮断領域を考慮して障害物までの所定の距離d(たとえば1cm)を持ち触れないように、仮想遮断領域Sまたは仮想境界Bが生成される(立ち下がりエッジを使用した上記の例に類似)。このやり方により、ロボットは接触せずに障害物の周囲を掃除することができる。これにより、衝突によってロボットまたは障害物が損傷するリスクが最小限に抑えられる。   Another example of a situation where the robot can independently define the occlusion region relates to obstacles that the robot cannot recognize or difficult to recognize. For example, robots use active sensors that emit (eg, light) signals and receive reflections from obstacles for obstacle detection and mapping. For example, transparent obstacles, such as glass doors, reflective obstacles, such as mirrors, or obstacles that are outside the range of the radiated signal (such as low obstacles) are not recognizable or difficult to recognize. The robot detects these obstacles when the robot touches them using, for example, a tactile sensor (a sensor that detects physical contact with the obstacle). However, frequent and repetitive collisions with the robot's obstacles are not desirable by the user. Therefore, the robot can be configured to determine the position of an obstacle that can only be detected by touch (touch) while the robot is in use (learning or executing a task) and cannot be recognized by non-contact (for example, by an optical sensor). . From these positions, a virtual cutoff area S or a virtual boundary B is generated so that the robot does not touch and hold a predetermined distance d (for example, 1 cm) to an obstacle in consideration of the virtual cutoff area (falling edge Similar to the above example used). In this manner, the robot can clean around obstacles without contact. This minimizes the risk of damage to the robot or obstacle due to a collision.

ロボットが遮断領域を独立して定義できる状況の3番目の例は、ロボットがナビゲートするのが難しい領域に関係する。これは例えば、テーブルと椅子の脚など多くの小さな障害物がその上にある高パイルカーペットである。カーペットを通る走行はひどく妨げられ、同時にロボットにとってテーブルと椅子の脚は実際にはロボットが非常に正確にナビゲートしなければならない迷路であるため、この状況はロボットが処理するのが困難である。そのため、ロボットがこの状況から抜け出せないか、またはこの状況から長い時間が経過した後にのみ、ロボットがこの状況から抜け出せるということが起こり得る。ロボットはこの問題のある領域を、例えば、車輪のスリップの増加および/または多くの走行操作に、この領域で通常よりも長い時間、従事していることにより検出できる。効率を高めるために、この領域を遮断領域にすることができ、これにより、ロボットが後続の操作でこの位置でスタックしたり、多くの時間とエネルギを消費したりするリスクが最小限に抑えられる。たとえば、この領域の掃除は、ユーザによる明示的な指示の後にのみ行われる。   A third example of a situation where a robot can independently define an occluded area involves areas where it is difficult for the robot to navigate. This is, for example, a high pile carpet with many small obstacles on it, such as table and chair legs. This situation is difficult for the robot to handle, as traveling through the carpet is severely hindered, while at the same time the table and chair legs are actually mazes for the robot to navigate very accurately. . Thus, it may happen that the robot cannot get out of this situation, or that the robot can get out of this situation only after a long time has passed from this situation. The robot can detect this problem area by, for example, engaging in increased wheel slip and / or many driving maneuvers for a longer period of time in this area. To increase efficiency, this area can be a blocking area, which minimizes the risk that the robot will get stuck in this position in subsequent operations or consume a lot of time and energy . For example, cleaning of this area is performed only after an explicit instruction by the user.

自動作成された仮想遮断領域Sが地図データと共に永続的に保存される前に、ユーザに表示できる。これにより、仮想遮断領域Sが提案どおりに永続的に保存されるかどうか、または後続の使用でロボットがこの領域に移動する必要があるかどうか(警告にもかかわらず)を決定できる。   Before the automatically created virtual blocking area S is permanently stored with the map data, it can be displayed to the user. This makes it possible to determine whether the virtual blocking area S is permanently saved as proposed, or whether the robot needs to move to this area for subsequent use (albeit with a warning).

自動生成された仮想遮断領域の位置は、ロボットが簡単に検出できるランドマークにリンクできる。例えば、図5(D)の仮想境界Bは、境界となる壁の間の接続線として保存され得る。この場合、例えば、エッジは容易に認識可能なランドマークとして機能し、これに関して仮想遮断領域Sが保存される。すなわち、遮断領域Sまたは境界線Bの位置は、地図内の検出可能なランドマーク(例えば、壁)の位置に相対的に保存される。容易に検出可能なランドマークと直接リンクすることにより、仮想遮断領域Sの位置は、ロボットをナビゲートするためのグローバル地図の座標としてのみ知られている場合よりも、ナビゲーション中にはるかに正確かつ堅牢に考慮される。   The position of the automatically generated virtual blocking area can be linked to a landmark that can be easily detected by the robot. For example, the virtual boundary B in FIG. 5D can be stored as a connection line between walls serving as boundaries. In this case, for example, the edge functions as an easily recognizable landmark, for which the virtual blocking area S is stored. That is, the position of the blocking area S or the boundary line B is stored relatively to the position of a detectable landmark (for example, a wall) in the map. By directly linking to easily detectable landmarks, the position of the virtual occlusion region S is much more accurate and more accurate during navigation than if only known as global map coordinates for navigating the robot. Considered robustly.

(他のデバイスによって定義される遮断領域)第1の自律移動ロボット100が仮想遮断領域Sを作成する場合、それが1つまたは複数の他のロボットに渡されることが意味をなす場合がある。同様に、ロボット100は、外部装置300から、特に第2の自律移動ロボット100Bから仮想遮断領域Sを受け取ることができる。この状況は、例として図6に示されている。この場合、第1のロボット100は、仮想遮断領域Sを作成することが可能で、仮想遮断領域Sを作成した第1のロボット100ではなく、1つまたは複数の他のロボット(たとえば第2のロボット100B)によって(たとえば排他的に)考慮され得る。仮想遮断領域Sに関する情報を交換するために、関係デバイス(第1のロボット100および第2のロボット100B)は、通信ユニット140(図1B参照)を介して確立され得る通信接続を使用する。   (Blockage Area Defined by Other Devices) When the first autonomous mobile robot 100 creates the virtual blockage area S, it may make sense to pass it to one or more other robots. Similarly, the robot 100 can receive the virtual blocking area S from the external device 300, particularly from the second autonomous mobile robot 100B. This situation is shown in FIG. 6 as an example. In this case, the first robot 100 can create the virtual cut-off area S, and not the first robot 100 that has created the virtual cut-off area S, but one or more other robots (for example, the second robot 100). (Eg, exclusively) by the robot 100B). To exchange information about the virtual blocking area S, the involved devices (first robot 100 and second robot 100B) use a communication connection that can be established via a communication unit 140 (see FIG. 1B).

また、第2のロボット100Bは、同様に、ロボット使用領域を表す地図データを有してもよい。これらは、第1のロボット100が使用するデータ、または第2のロボット100Bが保持、更新、および/または解釈したデータと同じデータであり得る。ロボット100、100Bが異なるデータソースを使用する場合、第1のロボット100の地図データに関する位置情報の座標は、第2のロボット100Bの地図データに関する位置情報の座標に変換することができる(逆も同様)。この変換は、ロボット100、100Bの1つ、またはPCやクラウドサーバーなどの外部コンピューティングデバイスで自動的に実行できる。(座標)変換のパラメータは、たとえば、壁の位置などの利用可能なナビゲーション特徴に基づいた最小二乗法によって自動的に決定できる。最も単純なケースでは、2次元地図の(座標)変換は、変位(シフト)(2つのパラメータ)と回転(1つのパラメータ)を記述する3つのパラメータで構成される。たとえば、センサの(体系的な)測定エラー、または3次元マップを検出するために、より複雑な変換が考えられる。例えば、第1のロボットの距離を測定するためのセンサは、第2のロボットの距離センサよりもシステマティックに距離をより小さく測定する場合がある。これは、追加のスケーリングパラメータで補正できる。別の例では、座標変換を計算するために、基地局(または他のナビゲーション機能)の両方の地図に格納されている姿勢(方向を含む位置)を使用することができる。第1のロボットの地図に保存されている姿勢が、第2のロボットの地図に保存されている姿勢から(わずかではあるが)ずれていると仮定する。しかし、両方の地図が同じ実際の基地局(同じ実際のナビゲーション特徴)であるため、変換操作(たとえば、シフトと回転)は2つの姿勢から導出できる。   Similarly, the second robot 100B may have map data representing a robot use area. These may be the same data used by the first robot 100 or the data held, updated, and / or interpreted by the second robot 100B. When the robots 100 and 100B use different data sources, the coordinates of the position information on the map data of the first robot 100 can be converted into the coordinates of the position information on the map data of the second robot 100B (and vice versa). Similar). This conversion can be performed automatically on one of the robots 100, 100B, or on an external computing device such as a PC or cloud server. The parameters of the (coordinate) transformation can be determined automatically, for example, by a least squares method based on available navigation features, such as the position of the wall. In the simplest case, the (coordinate) transformation of a two-dimensional map consists of three parameters describing displacement (shift) (two parameters) and rotation (one parameter). For example, more complex transformations are conceivable to detect sensory (systematic) measurement errors or three-dimensional maps. For example, a sensor for measuring the distance of a first robot may systematically measure a smaller distance than a distance sensor of a second robot. This can be corrected with additional scaling parameters. In another example, attitudes (positions including directions) stored on both maps of the base station (or other navigation function) can be used to calculate the coordinate transformation. Assume that the pose stored in the map of the first robot is (albeit slightly) deviated from the pose stored in the map of the second robot. However, since both maps are the same real base station (the same real navigation features), the transformation operation (eg, shift and rotation) can be derived from the two poses.

少なくとも2つの自律移動ロボット100と100Bの間で情報が交換される例示的な方法では、両方のロボット100と100Bは、センサと電子地図を使用してロボット使用領域内で自律的にナビゲートし、地図を自律的に作成、更新するように構成されている。ロボット100および100Bの両方は、外部デバイス(例えば、サーバ)を介して直接的または間接的に他のロボットに情報を送信できるようにする通信モジュール(図1B、通信ユニット140を参照)を有する。本例によれば、第1のロボット100の第1の地図の座標から第2のロボット100Bの第2の地図の座標への変換動作は自動的に算出される。これは、2つのロボットのいずれか、または外部デバイス(サーバなど)で起こり得る。位置関連情報(地図データ)は、ロボットの1つ(ロボット100など)から他のロボット(ロボット100Bなど)に送信される。送信前(ロボット100内)または送信後(ロボット100B内)または送信中(情報を送信する外部装置内)に、第1の地図の座標の位置関連情報を第2の地図の座標に変換操作を用いて変換される。   In an exemplary method in which information is exchanged between at least two autonomous mobile robots 100 and 100B, both robots 100 and 100B autonomously navigate within the robot usage area using sensors and electronic maps. It is configured to create and update maps autonomously. Both robots 100 and 100B have a communication module (see FIG. 1B, communication unit 140) that allows information to be transmitted directly or indirectly to other robots via external devices (eg, servers). According to the present example, the conversion operation from the coordinates of the first map of the first robot 100 to the coordinates of the second map of the second robot 100B is automatically calculated. This can occur on either of the two robots or on an external device (such as a server). The position-related information (map data) is transmitted from one of the robots (such as the robot 100) to another robot (such as the robot 100B). Before the transmission (in the robot 100), after the transmission (in the robot 100B), or during the transmission (in the external device for transmitting information), the operation of converting the position-related information of the coordinates of the first map into the coordinates of the second map is performed. Is converted using

上述のユーザ定義の仮想遮断領域Sと、機能障害および/または危険領域(第1のロボット100で検出)に基づいて自動的に生成される仮想遮断領域Sに加えて、ロボットとのやり取りにおいて、作業使用(タスクを実行するためのロボット使用)に基づく仮想遮断領域Sを使用することができる。   In addition to the above-mentioned user-defined virtual cut-off area S and the virtual cut-off area S automatically generated based on the functional failure and / or danger area (detected by the first robot 100), A virtual blocking area S based on work use (use of a robot to execute a task) can be used.

例えば、ユーザは、ミルクなどの液体をこぼして、拭き掃除ロボットに水たまりを取り除くにするよう依頼する。図6に示される例では、第1のロボット100は、作業モジュールが床を湿らせて拭くように構成された拭き掃除ロボットとして構成されている。第1のロボットが拭き作業に従事している間、他のロボット(ロボット100Bなど)が水たまりを通り抜けて液体を分散すべきではない。さらに、他のロボットは、拭き取ったばかりの(したがって濡れている)領域を走行すべきでない。第1のロボット100は、ユーザ入力および場合によっては、さらなるセンサ測定に基づいて、掃除される領域を決定することになる。このロボットは、家庭の他のロボットに、掃除されるこの領域が(例えば、一時的に)仮想遮断領域Sとして扱われるべきであると伝えることができる。   For example, the user spills a liquid such as milk and asks the wiping robot to remove the puddle. In the example shown in FIG. 6, the first robot 100 is configured as a wiping robot configured so that the work module moistens and wipes the floor. While the first robot is engaged in the wiping operation, other robots (such as robot 100B) should not disperse the liquid through the puddle. Furthermore, other robots should not travel in areas that have just been wiped (and therefore wet). The first robot 100 will determine the area to be cleaned based on user input and possibly further sensor measurements. This robot can tell other robots in the home that this area to be cleaned should be treated (for example temporarily) as a virtual blocking area S.

拭き掃除ロボット100がその活動を完了した後、仮想遮断領域Sが再び解放されることを示す通知を他のロボット100Bに送信することができる。代替的または追加的に、仮想遮断領域Sは、自動的に経過時間も持つことができる。拭き掃除ロボット100は、例えば、拭き掃除が新たに行われ、したがってまだ湿った領域Wを他のロボットのために所定の時間、遮断領域Sとして定義し、その領域Wを遮断できる(図6参照)。この時間が経過した後、他のロボット100Bは自動的に仮想遮断領域Sをクリアすることができる。   After the wiping robot 100 completes its activity, a notification indicating that the virtual blocking area S is released again can be transmitted to the other robot 100B. Alternatively or additionally, the virtual blocking area S can also have an elapsed time automatically. The wiping robot 100 can, for example, define a region W that has been newly wiped and thus still wet, as a blocking region S for another robot for a predetermined time, and block that region W (see FIG. 6). After this time has elapsed, the other robot 100B can automatically clear the virtual cutoff area S.

(遮断領域のアクティブ化/非アクティブ化)ユーザは、ロボット100が常に仮想遮断領域Sを考慮することを望まない場合がある。同時に、ユーザが仮想遮断領域Sを常に削除して作成したくない場合もある。したがって、基準を設定し、それに基づいて自律移動ロボット100をナビゲートする際に仮想遮断領域Sを考慮するかどうかを決定することが有用であり得る。つまり、ロボットは、特定の基準に基づいて、仮想遮断領域Sを自主的に走行・通過するか否かを決定できる。   (Activation / Deactivation of Blocking Area) The user may not want the robot 100 to always consider the virtual blocking area S. At the same time, the user may not always want to delete and create the virtual cutoff area S. Therefore, it may be useful to set a criterion and determine whether to take into account the virtual blocking area S when navigating the autonomous mobile robot 100 based thereon. That is, the robot can determine whether to independently travel or pass through the virtual cutoff area S based on a specific criterion.

例えば、ユーザがタスクまたは所定の時間の間、遮断領域Sを明示的に(例えば、HMI200によって)解放しない限り、ロボット100は常に仮想遮断領域Sを考慮してもよい。例えば、仮想遮断領域Sは、遊び場として使用される住居の一部であり、自動運転中または床掃除などの自給式活動中にロボット100を損なう玩具の形の小さな物体がしばしばある。ユーザは、この遊び場を、折を見て掃除することができ、すぐにまたは次の作業動作時に掃除することを望むことができる。例えば、ユーザは、HMI200を介してロボット100に、仮想遮断領域Sをすぐに掃除する必要があることを通知することができる。ロボットは、この作業動作のために仮想遮断領域Sを走行し、清掃する。仮想境界Bは、たとえば、清掃する領域の境界として使用できる。後の作業動作では、遮断領域Sが再び考慮される。   For example, the robot 100 may always consider the virtual blocking area S unless the user explicitly releases (eg, by the HMI 200) the blocking area S for a task or a predetermined time. For example, the virtual blocking area S is part of a dwelling that is used as a playground, and there are often small toy-shaped objects that damage the robot 100 during self-driving or self-contained activities such as floor cleaning. The user may wish to clean the playground at times, and may wish to clean it immediately or during the next work operation. For example, the user can notify the robot 100 via the HMI 200 that the virtual blocking area S needs to be cleaned immediately. The robot travels and cleans the virtual blocking area S for this work operation. The virtual boundary B can be used, for example, as a boundary of an area to be cleaned. In later work operations, the blocking area S is again considered.

代替的または追加的に、ユーザは、ロボットに、次の作業操作(特に住居の清掃)中に仮想遮断領域Sが非アクティブであることを知らせることができる。ロボットは、たとえば、仮想遮断領域Sが格納されていないかのように走行し、自動的に清掃することができる。あるいは、ロボットは、仮想境界Bに応じて、仮想遮断領域を固有の清掃すべき部分領域として解釈し、個別に処理できる。この場合、たとえば、優先順位を上げて、仮想遮断領域は走行されることができる。また、この場所で予期しない問題が発生する可能性があり、ロボットの作業が中断されることが予想されるため仮想遮断領域は作業の最後の部分領域として走行することもできる。   Alternatively or additionally, the user can inform the robot that the virtual blocking area S is inactive during the next work operation (especially house cleaning). For example, the robot can travel as if the virtual blocking area S is not stored, and can automatically clean the virtual blocking area S. Alternatively, according to the virtual boundary B, the robot can interpret the virtual cutoff region as a unique partial region to be cleaned and process it individually. In this case, for example, the virtual interrupted area can be driven with an increased priority. Also, an unexpected problem may occur at this location, and it is expected that the operation of the robot will be interrupted, so that the virtual cutoff area can run as the last partial area of the operation.

代替的または追加的に、ユーザは、仮想遮断領域Sが事前定義可能な時間の間非アクティブであることをロボットに通知することができる。たとえば、子供部屋のプレイコーナで頻繁に遊ぶ子供が数時間または数日間不在となる状況がある。この時間中、ロボットは、自律作業計画において、仮想遮断領域Sとしてマークされたプレイコーナを考慮することができる。ユーザが指定した時間が経過すると、仮想遮断領域Sは再び自動的にアクティブになるため、ロボットによって考慮される。   Alternatively or additionally, the user can notify the robot that the virtual blocking area S is inactive for a predefinable time. For example, there are situations in which children who frequently play in a play corner in a children's room are absent for hours or days. During this time, the robot can consider play corners marked as virtual blocking areas S in the autonomous work plan. After the time specified by the user has elapsed, the virtual blocking area S is automatically activated again and is taken into account by the robot.

別の例では、仮想遮断領域Sのアクティブ化/非アクティブ化は、カレンダ機能により自動的に制御される。たとえば、ユーザは夜に寝室をロボットが走行するように制御したくない場合がある。ただし、日中は、たとえばロボットが寝室を掃除することになっている。この場合、例えば、仮想遮断Sはアクティブである時間がカレンダに記録され、したがって、仮想遮断領域Sは自動的に走行・通過しないように自律移動ロボット100によって考慮される。たとえば、夜の間、21時から9時まで、寝室をロボットから遮断することができる。   In another example, activation / deactivation of the virtual blocking area S is automatically controlled by a calendar function. For example, the user may not want to control the robot to travel in the bedroom at night. However, during the day, for example, the robot is to clean the bedroom. In this case, for example, the time during which the virtual block S is active is recorded in the calendar, so that the virtual block area S is considered by the autonomous mobile robot 100 so as not to run or pass automatically. For example, the bedroom can be shut off from the robot during the night from 21:00 to 9:00.

カレンダ制御は、自動化により一定レベルのユーザの快適さを提供するが、柔軟性がない。前の例で寝室を遮断する目的は、眠っているユーザの邪魔を避けることである。したがって、遮断領域のアクティビティをユーザのアクティビティに直接リンクすると効果的である。ただし、特に眠っているユーザの例では、可能であれば、ユーザが(まだ)眠っているかどうかを確認するために、ロボットが寝室走行すべきでない。たがって、日用品などの他のデバイス300、センサ、および/または他のロボットなどに基づいて、仮想遮断領域Sが考慮されている(アクティブ)かどうか(たとえば、ロボットが寝室に入ることを許可されているかどうか)が判断される。したがって、たとえば、睡眠トラッカのアクティビティ、ベッドセンサ、またはアクティビティトラッカのスリープモード、スマートウォッチまたは他のウェアラブルのフィットネストラッカの助けを借りてユーザが眠っているかどうかを判断できる。また、電動歯ブラシのアクティビティを使用することができる。たとえば、夜に電動歯ブラシを使用する場合、仮想遮断領域をアクティブにし、朝に電動歯ブラシを使用する場合、仮想遮断領域を非アクティブにすることができる。仮想遮断領域Sのアクティビティが外部デバイス300の状態および/または情報に基づいて決定される多数の他のシナリオが考えられる。   Calendar control provides a certain level of user comfort through automation, but is inflexible. The purpose of blocking the bedroom in the previous example is to avoid disturbing the sleeping user. Therefore, it is effective to link the activity in the blocking area directly to the activity of the user. However, especially in the example of a sleeping user, if possible, the robot should not travel in the bedroom to see if the user is (still) asleep. Thus, based on other devices 300, such as household items, sensors, and / or other robots, etc., whether the virtual blocking area S is considered (active) (eg, the robot is allowed to enter the bedroom) Is determined). Thus, for example, the sleep tracker's activity, bed sensor, or sleep mode of the activity tracker, a smart watch or other wearable fitness tracker can be used to determine if the user is asleep. Also, the activity of an electric toothbrush can be used. For example, when the electric toothbrush is used at night, the virtual cutoff region can be activated, and when the electric toothbrush is used in the morning, the virtual cutoff region can be deactivated. Numerous other scenarios are conceivable in which the activity of the virtual blocking area S is determined based on the state and / or information of the external device 300.

さらに、仮想遮断領域Sのアクティブ化/非アクティブ化は、ロボットの状態および/または活動に依存し得る。たとえば、ロボットには、さまざまなや乾式清掃、湿式清掃に適したさまざまな清掃モジュールが搭載可能である。この場合、遮断領域のアクティビティは、使用する清掃モジュールによって異なる。例えば、湿式洗浄モジュールが作動しているとき、カーペットまたは他の水に敏感な床表面は、仮想遮断領域Sとして扱われてもよい。ロボットの状態および/または活動に応じた仮想遮断領域Sのアクティブ化/非アクティブ化の別の例は、家庭内支援のための運搬ロボットに関するものである。たとえば、ロボットは開口のあるグラスで飲み物を運ぶことができる。この場合、ロボットは不均一な床面、例えば、カーペットの端を避けるべきである。これを実現するために、カーペットを、ロボットが飲料を輸送する限りアクティブな遮断領域として定義することができる。   Further, activation / deactivation of the virtual blocking area S may depend on the state and / or activity of the robot. For example, a robot can be equipped with various cleaning modules suitable for various dry and wet cleanings. In this case, the activity of the blocking area depends on the cleaning module used. For example, carpets or other water-sensitive floor surfaces may be treated as virtual blocking areas S when the wet cleaning module is operating. Another example of activation / deactivation of the virtual blocking area S according to the state and / or activity of the robot relates to a transport robot for home support. For example, a robot can carry a drink in an open glass. In this case, the robot should avoid uneven floor surfaces, for example, carpet edges. To achieve this, the carpet can be defined as a blocking area that is active as long as the robot transports the beverage.

自律移動ロボットが、特に仮想遮断領域Sで作業を実行する間、自律移動ロボット100をナビゲートするときに仮想遮断領域Sが考慮されるかどうかの決定の基礎が変化する可能性がある。言い換えれば、遮断領域を考慮する必要があるかどうかのチェックは、作業中または作業の計画中であっても、継続的に、または少なくとも定期的に行うことができる。そのようなチェックで、考慮されるべき遮断領域が追加されたとロボットが判断した場合、ロボット100の現在位置が仮想遮断領域S内に位置することが起こり得る。この場合、たとえば、ロボットが停止し、ユーザの指示を待つことができる。代わりに、ロボットはこの領域の外に出るように走行できる。あるいは、ロボットは、仮想遮断領域がアクティブになる前に、その領域で現在のタスクを完全にまたは少なくとも部分的に完了してもよい。この目的のために、たとえば、タスクの完了に必要な時間を決定できる。この時間が事前定義可能な最大値よりも小さい場合、タスクは終了し、遮断領域のアクティブ化はこの時間だけ遅延する。   While the autonomous mobile robot performs work, particularly in the virtual blocking area S, the basis for determining whether the virtual blocking area S is considered when navigating the autonomous mobile robot 100 may change. In other words, the check whether the blocking area needs to be taken into account can be performed continuously or at least periodically, even during the work or the planning of the work. In such a check, if the robot determines that a blocking area to be considered has been added, the current position of the robot 100 may be located within the virtual blocking area S. In this case, for example, the robot stops and can wait for a user's instruction. Alternatively, the robot can travel out of this area. Alternatively, the robot may complete or at least partially complete the current task in the virtual blocking area before the area becomes active. For this purpose, for example, the time required to complete the task can be determined. If this time is less than the predefinable maximum, the task ends and the activation of the blocking area is delayed by this time.

(遮断領域内のロボット)通常、(仮想)遮断領域Sは、たとえばナビゲーション中に実際の障害物と見なされることにより、ロボットによって確実に回避される。このアプローチは、自律移動ロボット100が十分な精度で地図内の位置を知っている限り機能する。ただし、たとえば、ユーザが部分領域を定義し、ロボットがこの部分領域にいる間にこれを遮断領域として識別する場合、ロボットは仮想遮断領域Sに入り込む可能性がありうる。ロボット100が自身の位置を常に正確に知るとは限らないため、別の問題が発生する可能性がある。その結果、ロボットは(知らずに)仮想境界上を気付かずに通過する可能性がある。その場合、ロボットは遮断領域に移動して損傷を引き起こす可能性がある。衝突を避けるナビゲーションを試みた場合でも、ロボットは障害物と衝突する可能性がある。ただし、ロボットは衝突によりナビゲーションエラーに気づき、それに応じてナビゲーション戦略を調整する場合がある。仮想遮断領域には、即時のフィードバックはない(物理的な衝突のため)。したがって、仮想遮断領域の処理におけるこのようなエラーに対してロボットの動作を堅牢にするために、追加の対策が必要である。以下に例を挙げて説明する。   (Robot in Blocking Region) Usually, the (virtual) blocking region S is reliably avoided by the robot, for example, by being regarded as an actual obstacle during navigation. This approach works as long as the autonomous mobile robot 100 knows its location in the map with sufficient accuracy. However, if, for example, the user defines a partial area and identifies this as a blocking area while the robot is in this partial area, the robot may be able to enter the virtual blocking area S. Since the robot 100 does not always know its own position accurately, another problem may occur. As a result, the robot may pass unknowingly (virtually) over the virtual boundary. In that case, the robot may move to the blocking area and cause damage. Even when attempting to avoid collision, the robot may collide with obstacles. However, the robot may notice a navigation error due to the collision and adjust the navigation strategy accordingly. There is no immediate feedback in the virtual blocking area (due to physical collisions). Therefore, additional measures are needed to make the operation of the robot robust against such errors in the processing of the virtual blocking area. An example will be described below.

仮想遮断領域Sを堅牢に処理する1つの可能性は、(上記のように)一方向の通過が防止されるように仮想境界Bを処理することである。その結果、ロボット100は、遮断領域への進入を回避しながら、常に仮想遮断領域を離れることができる。言い換えれば、ロボットの地図に描かれた仮想境界線Bは一方向にのみ機能する。仮想境界は一方向に通過できるが、他の方向では通過できない。   One possibility for robust processing of the virtual blocking area S is to process the virtual boundary B such that one-way passage is prevented (as described above). As a result, the robot 100 can always leave the virtual blocking area while avoiding entry into the blocking area. In other words, the virtual boundary line B drawn on the map of the robot functions only in one direction. The virtual boundary can pass in one direction but not in the other.

代替的または追加的に、ロボットが完全にまたは部分的に遮断領域S内にいるかどうかを確認することができる。このチェックに応じて、ロボットが遮断領域Sを離れるか留まるかを決定できる。たとえば、遮断領域は、エッジ領域とコア領域に分割できる。ロボットが少なくとも部分的にコア領域にある場合、ロボットは停止する。ロボットが遮断領域Sのエッジ領域にのみ配置されている場合、ロボットは遮断領域Sの外に移動しようとする。遮断領域Sのこの機能(エッジ領域とコア領域への細分化)は、比喩的に「ソフトウォール」として知られている。つまり、ロボットがナビゲートの際に遮断領域が「ハード」な壁の効果を持たず、ロボットが入ることができるが、その後、可能な限り境界領域から出ようとするソフトな遷移領域としての効果を有する。ユーザに問題を通知し、ユーザからの指示を待つために、例えば、メッセージをヒューマンマシンインターフェイス200に送信する。   Alternatively or additionally, it can be ascertained whether the robot is completely or partially within the blocking area S. According to this check, it can be determined whether the robot leaves or stays in the blocking area S. For example, the blocking region can be divided into an edge region and a core region. If the robot is at least partially in the core area, the robot stops. If the robot is located only in the edge area of the blocking area S, the robot attempts to move out of the blocking area S. This function of the blocking area S (subdivision into edge areas and core areas) is figuratively known as a "soft wall". In other words, when the robot navigates, the blocking area does not have the effect of a “hard” wall, and the robot can enter, but then as a soft transition area that tries to exit the boundary area as much as possible Having. For example, a message is transmitted to the human-machine interface 200 to notify the user of the problem and wait for an instruction from the user.

この確認は、ロボットの位置が再決定されるたびにナビゲーション中も継続できる。さらに、たとえば、ユーザまたは別のデバイスによって新しい仮想遮断領域Sが定義および/またはアクティブ化されている場合、この確認を実行できる。ロボットが新しく作成された仮想遮断領域Sにある場合、遮断領域Sがユーザなどによって確認されるまで保存を拒否できる。追加または代替として、ロボットは自動的に遮断領域Sから外に出るように操作される。追加または代替として、遮断領域Sを生成するデバイス(またはユーザ)に、ロボットが新しく作成された遮断領域Sにあることを通知することができる。さらに、ロボットが新しく作成された遮断領域Sを離れることができるかどうか、およびその方法についての問い合わせを、遮断領域Sを生成したデバイス(HMI200など)またはユーザに送信できる。たとえば、ユーザはロボットが遮断領域から出る優先方向を指定できる。または、ユーザはロボットを停止して、手で遮断領域から運び出すことができる。   This confirmation can be continued during navigation each time the position of the robot is re-determined. Furthermore, this confirmation can be performed, for example, if a new virtual blocking area S has been defined and / or activated by the user or another device. If the robot is in the newly created virtual blocking area S, the storage can be refused until the blocking area S is confirmed by a user or the like. Additionally or alternatively, the robot is operated to automatically exit the blocking area S. Additionally or alternatively, the device (or user) that creates the blocking area S can be notified that the robot is in the newly created blocking area S. Further, an inquiry as to whether the robot can leave the newly created blocking area S and how to do so can be sent to the device (such as the HMI 200) or the user that created the blocking area S. For example, the user can specify a preferred direction for the robot to exit the blocking area. Alternatively, the user can stop the robot and carry it out of the blocking area by hand.

既存の非アクティブな遮断領域Sの場合、遮断領域Sに結びつけられたアクション情報を保存できる。たとえば、寝室は、ユーザが寝るときにアクティブになる遮断領域Sとして定義できる。この場合、遮断領域Sがアクティブとなった後、ロボットは遮断領域Sを自動的に離れることができる。他の場合では、遮断領域が再び非アクティブになるか、ユーザが介入するまでロボットが停止することが望ましい場合がある。   In the case of the existing inactive blocking area S, the action information associated with the blocking area S can be stored. For example, a bedroom can be defined as a blocking area S that becomes active when the user sleeps. In this case, the robot can automatically leave the blocking area S after the blocking area S is activated. In other cases, it may be desirable for the robot to stop until the blocking area becomes inactive again or the user intervenes.

自律移動ロボット100の動作シナリオはまた、ユーザによって手動で移動されることを含む場合があり、通常、ロボットは電子地図内の自身の位置に関する情報を失う結果となる。その後、ロボットは再びグローバルな自己位置決定によってその位置を決定できる。このため、ロボット100は、そのセンサを使用して環境に関するデータを収集し、これらを既存の地図データと比較するため、その環境内で動く。ロボットは、グローバルな自己位置特定中に、地図データに対する実際の位置に関する情報をほとんど、またはまったく持たないため、不注意で遮断領域Sに進入する可能性がある。したがって、保存された地図データに基づいたグローバルな自己位置確認の後、ロボットが仮想遮断領域Sにいるかどうかをチェックすることが重要である。   The operating scenario of the autonomous mobile robot 100 may also include being moved manually by a user, typically resulting in the robot losing information about its location in the electronic map. The robot can then determine its position again by global self-positioning. Thus, the robot 100 moves within the environment to collect data about the environment using the sensors and compare them with existing map data. Since the robot has little or no information about its actual position relative to the map data during global self-localization, it may enter the blocking area S inadvertently. Therefore, it is important to check whether or not the robot is in the virtual cut-off area S after the global self-localization based on the stored map data.

自己位置特定中に、位置特定仮説(つまり、ロボットが位置する可能性のあるセンサと地図データに基づく仮説、たとえば確率モデルで決定される)に基づいて、ロボットは仮想遮断領域Sまたはその近傍にいるかどうかを確認できる。この情報に基づいて、仮想遮断領域を不注意に走行するリスク(つまり、可能性)を減らすために、ロボットは探査走行を、そのグローバルな自己位置特定に適合させることができる。地図内のロボットの(グローバル)自己位置特定の確率に基づく位置特定の仮説はそれ自体既知であるため、これ以上説明しない。この例で重要なのは、ロボットが自己位置探索中に自分の位置を知らない場合、特定の地図位置の確率のみを決定できることである。ロボットは、遮断領域内にある確率を確認することもできる。この確率に応じて、ロボットは現在の経路を適合できる。たとえば、ロボットが特定の経路に沿って移動しているときにロボットが遮断領域Sにいる確率を仮定すると、確率が再び低下するまで移動方向を変更できる。   During self-localization, the robot moves to or near the virtual cut-off region S based on a position-determining hypothesis (ie, a hypothesis based on sensors and map data where the robot may be located, for example, determined by a probability model). You can check whether it is. Based on this information, the robot can adapt the exploration run to its global self-localization to reduce the risk (ie, possibility) of inadvertently running through the virtual occlusion region. The localization hypothesis based on the (global) self-localization probability of the robot in the map is known per se and will not be further described. What is important in this example is that if the robot does not know its position during self-location, it can only determine the probability of a particular map position. The robot can also check the probability of being in the blocking area. Depending on this probability, the robot can adapt the current route. For example, assuming the probability that the robot is in the blocking area S when the robot is moving along a specific route, the moving direction can be changed until the probability decreases again.

ロボット100が遮断領域Sにあるかどうかを確認することに加えて、ロボット100の経路は、グローバルな自己位置特定中に記録することができる。この記録された経路を使用して、遮断領域から抜け出すことができる。たとえば、ロボットは、遮断領域を離れたか、確かに離れることができるまで、記録された経路を逆走できる。   In addition to determining whether the robot 100 is in the blocking area S, the path of the robot 100 can be recorded during global self-localization. Using this recorded path, it is possible to escape from the blocking area. For example, the robot can reverse the recorded path until it has left or is able to leave the occluded area.

例えば、この領域を(例外的に)掃除したいので、ユーザは移動中にロボットを意図的または誤って仮想遮断領域Sに置くことができる。ユーザがロボットを下ろした位置から開始して、ロボットはグローバルな自己位置特定を開始する(上記を参照)。グローバルな自己位置特定の実行中に移動および記録された距離に基づいて、ロボットの開始位置を決定することができ、したがって、ユーザが仮想遮断領域Sでロボット100をスタートさせたかどうかを決定することができる。その後、ロボットは、仮想遮断領域Sでユーザ指定のタスクを実行できる。さらに、ロボットは、HMI200を介してユーザに対応する情報(警告メッセージなど)を送信できる。   For example, the user wants to (exceptionally) clean this area, so that the user can intentionally or accidentally place the robot in the virtual blocking area S while moving. Starting from the position where the user has lowered the robot, the robot initiates a global self-localization (see above). Based on the distance traveled and recorded during the execution of the global self-localization, the starting position of the robot can be determined, thus determining whether the user has started the robot 100 in the virtual blocking area S Can be. Thereafter, the robot can execute a user-specified task in the virtual blocking area S. Further, the robot can transmit corresponding information (such as a warning message) to the user via the HMI 200.

ロボットが遮断領域から外に移動するかどうか、およびどのように遮断領域から外に移動するか決定するために、個別にまたは組み合わせて使用できるさまざまなアプローチがある。図7(A)および図7(B)において、仮想遮断領域Sは、第1の領域Saと第2の領域Sbとに分割されている。ロボットが第1の分割領域Saにいるとき、ロボットは停止する(緊急停止)。ロボットが第2の分割領域Sbにある場合、ロボットは仮想境界Bを超えて遮断領域外にでるように走行する。仮想遮断領域Sの分割は、例えば、仮想境界Bから始まって、距離d(例えばロボットの幅)以内のすべての点が第2の分割領域Sbに属するように行われる。つまり、ロボットは、境界Bから所定の距離よりも離れている場合に緊急停止を実行し、境界Bに近いときには、自律的に遮断領域Sから脱出する。仮想遮断領域Sの分割は、例えば、ユーザ入力に基づいて行うことができる。これには、遮断領域を遵守することの重要性を含めることができる。遮断領域を遵守することが非常に重要な場合、第2の分割領域Sbの幅dは、非常に狭い(たとえば1cm)か、完全に省くように選択できる。   There are various approaches that can be used individually or in combination to determine whether and how a robot will move out of an occluded area. In FIG. 7A and FIG. 7B, the virtual blocking area S is divided into a first area Sa and a second area Sb. When the robot is in the first divided area Sa, the robot stops (emergency stop). When the robot is in the second divided area Sb, the robot travels so as to cross the virtual boundary B and go out of the cutoff area. The division of the virtual cutoff region S is performed so that, for example, starting from the virtual boundary B, all points within a distance d (for example, the width of the robot) belong to the second division region Sb. That is, the robot performs an emergency stop when the robot is farther than the predetermined distance from the boundary B, and autonomously escapes from the blocking area S when the robot is near the boundary B. The division of the virtual cutoff region S can be performed based on, for example, a user input. This can include the importance of complying with the blocking area. If it is very important to adhere to the blocking area, the width d of the second divided area Sb can be chosen to be very narrow (for example 1 cm) or omitted entirely.

ロボットが遮断領域から外に移動する別のアプローチは、仮想力場(VFF(virtual force-field))分析に基づいている。力場分析は、計画消費なしで(つまり、ロボットの経路を事前に計画せずに)ロボットを反応的に制御する(それ自体、知られている)方法である。この目的のために、センサの測定値とロボットの目標に基づいて、ロボットに「作用する」仮想力場が決定(計算)される。この関連では、力と力場という用語は比喩的である。そのため、ロボットに作用する物理的な力ではなく、仮想的な力である。しかしながら、ロボットの制御ユニット150(図1B参照)はこれらの仮想力を計算するように構成されており、ロボットはこれらの力に応答することができる(例えば、ロボットに作用する仮想力な方向に後退する)。物理的な力場と同様に、さまざまなソース(障害物、ロボットの目標)の仮想力場を加算することができる。ロボットの現在の位置と方向に結果として生じる仮想力の方向と大きさに基づいて、駆動ユニットの制御コマンドが作成される。ロボットの制御はセンサ測定値に直接反応し、追加の計画消費はない。この力場分析は、例えば(ソフトウォールの場合)遮断領域Sのエッジ領域から外へロボットを効率的にナビゲートするために使用される。   Another approach in which a robot moves out of an occlusion region is based on virtual force-field (VFF) analysis. Force field analysis is a method of controlling a robot reactively (known per se) without planned consumption (ie, without pre-planning the robot's path). For this purpose, a virtual force field "acting" on the robot is determined (calculated) based on the sensor readings and the robot's goals. In this connection, the terms force and force field are figurative. Therefore, it is not a physical force acting on the robot, but a virtual force. However, the robot's control unit 150 (see FIG. 1B) is configured to calculate these virtual forces, and the robot can respond to these forces (eg, in the direction of the virtual force acting on the robot). fall back). As with physical force fields, virtual force fields from various sources (obstacles, robot targets) can be added. Control commands for the drive unit are created based on the direction and magnitude of the resulting virtual force at the current position and direction of the robot. The control of the robot reacts directly to the sensor readings and there is no additional planned consumption. This force field analysis is used, for example (in the case of a soft wall), to efficiently navigate the robot out of the edge area of the blocking area S.

図7(C)に例として示されるように、例えば常に仮想境界線Bの次の点を指す仮想力場(力ベクトルVによって概略的に表される)は、仮想遮断領域Sで考慮に入れることができる。このアプローチは、たとえば不正確に知られているロボットの位置が原因で、ナビゲーション中にロボットが遮断領域Sに進入した場合、遮断領域Sからロボットを迅速に外に移動させるのに特に適している。さらに、ロボットが正確な既知の位置で仮想遮断領域を走行しないように、力場を非常に大きく選択することができる。たとえば、実際の障害物と同様に選択されるため、障害物との衝突が大幅に回避される。   As shown by way of example in FIG. 7C, for example, a virtual force field (represented schematically by a force vector V) always pointing to the next point of the virtual boundary line B is taken into account in the virtual cut-off region S. be able to. This approach is particularly suitable for quickly moving the robot out of the blocking area S if the robot enters the blocking area S during navigation, for example, due to incorrectly known positions of the robot. . In addition, the force field can be selected very large so that the robot does not travel in the virtual known area at the exact known position. For example, the selection is made in the same way as the actual obstacle, so that collision with the obstacle is largely avoided.

別のアプローチは、ロボットの計画された経路のコストに基づいてロボットを制御するために最低コストの経路を選択するものである。たとえば、遮断領域S内でのロボットの移動が走行される距離ごとに一定量が「コスト」としてかかり、遮断領域Sの外側の移動がコストを発生させない場合、これによりコストが最小化されて遮断領域Sから外に出る最短経路が選択される。したがって、ロボットは、「コスト」を最小限に抑えるために、遮断領域から外に出る最短経路を選択する。この関連における「コスト」という用語は、比喩的に理解されるべきであり、重み係数とも呼ばれる。   Another approach is to select the lowest cost path to control the robot based on the cost of the robot's planned path. For example, if a certain amount is taken as “cost” for each distance traveled by the robot within the cutoff area S, and movement outside the cutoff area S does not generate a cost, the cost is minimized and cutoff is performed. The shortest path out of the area S is selected. Thus, the robot selects the shortest path out of the blocking area to minimize "cost". The term "cost" in this context should be understood figuratively and is also called a weighting factor.

図7(D)は、例として、仮想遮断領域Sに至る経路のコスト関数の経過を示している。遮断領域Sの外の道はコストがかからない。仮想境界Bを通過する場合、基本コストC0が発生し得る。その後、移動距離に比例してコストが増加する。もちろん、他のコスト関数も使用できる。コストが所定の最大値Cmを下回る計画可能なパスがない場合、ロボットを停止し、たとえば緊急停止状態にすることができる。その結果、前述の仮想遮断領域Sの分割が暗黙的に達成される。   FIG. 7D shows the progress of the cost function of the route to the virtual cutoff area S as an example. Roads outside the blocking area S are inexpensive. When passing through the virtual boundary B, a basic cost C0 may occur. Thereafter, the cost increases in proportion to the moving distance. Of course, other cost functions can be used. If there is no schedulable path whose cost is below the predetermined maximum value Cm, the robot can be stopped, for example in an emergency stop state. As a result, the above-described division of the virtual cutoff region S is achieved implicitly.

上記のアプローチでは、仮想境界Bは柔らかい壁(ソフトウォール)のように振る舞う。柔らかい壁は、その境界が固定されていないという事実によって特徴付けられるが、しなやかなゴムバンドのようなものである。一方、実際の障害物のような硬い壁は、通り抜けることができず(実際の障害物に衝突するため)、提供されない。ロボットはすぐに停止する。前述のコストベースのアプローチに関して、これは、たとえば、仮想境界Bに違反する計画された経路のコストがロボットの他の可能なすべての動きのコストよりも低い場合、仮想境界B、したがって遮断領域を(部分的に)ナビゲートできることを意味する。例えば、仮想遮断領域Sを走行する基本コストC0が最大値Cmと同じからそれより大きくなるように選択される場合、計画された方法で遮断領域を走行することは許可されない。図7(D)に示されるように、仮想遮断領域Sの基本コストC0が最大値Cmよりも小さく設定される場合、遮断領域を計画通りに走行することが可能である。これは、たとえば、ロボットが障害物の間に挟まっている場合、または障害物の背後の領域に到達するために障害物と仮想境界Bの間に限られたスペースしかない場合に必要である。「ハード」仮想壁の場合、仮想遮断領域S内のすべての動きは最大コストが割当られ、ハード仮想壁の背後にある遮断領域内を移動することはできない。   In the above approach, virtual boundary B behaves like a soft wall. Soft walls are characterized by the fact that their boundaries are not fixed, but are like flexible rubber bands. On the other hand, a hard wall, such as a real obstacle, cannot pass through (because it collides with a real obstacle) and is not provided. The robot stops immediately. With respect to the cost-based approach described above, this means that, for example, if the cost of the planned path that violates the virtual boundary B is lower than the cost of all other possible movements of the robot, the virtual boundary B and thus the occluded area It means that you can (partly) navigate. For example, if the basic cost C0 for traveling in the virtual blocking area S is selected to be the same as or larger than the maximum value Cm, traveling in the blocking area in a planned manner is not permitted. As shown in FIG. 7D, when the basic cost C0 of the virtual blocking area S is set smaller than the maximum value Cm, it is possible to travel in the blocking area as planned. This is necessary, for example, if the robot is sandwiched between obstacles, or if there is only a limited space between the obstacle and the virtual boundary B to reach the area behind the obstacle. In the case of a "hard" virtual wall, all movement within the virtual occlusion region S is assigned a maximum cost and cannot move within the occlusion region behind the hard virtual wall.

本発明のさらなる実施形態では、ロボット100が仮想遮断領域Sに配置されていることが検査により示された後、ロボット100は停止する。ユーザにはこのエラーが通知され、ユーザがロボットを別の場所に移動できるようになるまで、またはロボットが遮断領域Sを離れるまで、ロボットをこの時点で停止するかどうかの決定がユーザに委任される。ユーザは、(たとえば、HMI200を使用して)遮断領域Sから出る経路を指示または提案することができる。したがって、ユーザは、ロボットを直接(リモート)制御するか、たとえば経路のポイントや大まかな方向を指定でき、これに基づいて、ロボットは仮想遮断領域Sの外へ自動的に走行する。たとえば、ロボットがそれを超えて遮断領域Sを離れるように制御される仮想境界Bを設定できる。これは、異なる仮想境界を超えてそこから去ることのできる領域の場合に役立つ。たとえば、この目的でユーザに現在の地図を表示できる。加えて、例えば、ロボットは、その画像がヒューマンマシンインターフェイス200に送信されるカメラを有し、ユーザは、これらの画像に基づいて仮想遮断領域から安全な経路を指し示すことができる。   In a further embodiment of the present invention, after inspection indicates that the robot 100 is located in the virtual blocking area S, the robot 100 stops. The user is notified of this error and is delegated to the user whether to stop the robot at this point until the user can move the robot to another location or until the robot leaves the blocking area S. You. The user can indicate or suggest a route to exit the blocking area S (eg, using the HMI 200). Therefore, the user can directly (remotely) control the robot or specify, for example, a point on the route or a rough direction, and based on this, the robot automatically runs out of the virtual cutoff area S. For example, a virtual boundary B that is controlled so that the robot leaves the blocking area S beyond it can be set. This is useful in the case of areas that can cross and leave different virtual boundaries. For example, a current map can be displayed to the user for this purpose. In addition, for example, the robot has a camera whose images are transmitted to the human-machine interface 200, and the user can point a safe route from the virtual occlusion region based on these images.

(ロボットが助けを求める)ロボットが誤って仮想遮断領域Sに侵入し、遮断領域Sを離れる上記の可能性が存在しない場合、ユーザにとって望ましくない動作を回避するためにロボットは停止(緊急停止)し、ユーザの介入を待つ。同じことは、ロボットが自動的に自由に走行できない場合や、ロボットが動かなくなる場合にも当てはまる。たとえば、ロボットは、ロボットがタスクを実行しているときに部屋のドアが閉められることにより、部屋のユーザによって不注意に閉じ込められる可能性があり、これによりロボットは、タスクの終了後に基地局に帰れなくなる可能性がある。他の例としては、ロボットが床のケーブルに絡まる場合、回転ブラシのようなロボットのアクチュエータの1つがブロックされている場合、ロボットが2つの障害物の間に挟まっている場合、さらに移動しようとする場合に縁から落下する危険が迫っている場合、ロボットの機能のために重要なセンサがたとえば汚染によってデータを送らないか、限られたデータのみしか送らない場合、または他のセキュリティ上危険な状況な場合が挙げられる。   If there is no such possibility that the robot accidentally enters the virtual blocking area S (the robot seeks help) and leaves the blocking area S, the robot stops (emergency stop) to avoid undesired movements for the user. And wait for user intervention. The same is true if the robot cannot automatically move freely or if it stops moving. For example, a robot can be inadvertently locked in by a room user by closing a room door while the robot is performing a task, which causes the robot to return to a base station after the task is complete. You may not be able to return. Other examples are when the robot gets entangled in cables on the floor, when one of the robot's actuators, such as a rotating brush, is blocked, when the robot is pinched between two obstacles, and tries to move further If the danger of falling off the edge is imminent, sensors that are important for the function of the robot do not send data due to contamination, for example, or send only limited data, or other security hazards. There are situations.

ロボットの状態を「緊急停止」などの特別なモードに設定して、ユーザが望む可能性のあるタスクの通常の中断または停止と区別するのが一般的である。内部ロボット状態「緊急停止」は、すべてのアクチュエータ(特に作業ユニット160および駆動ユニット170)が停止し、ユーザの(たとえば手動の)介入によってのみ再起動できることを意味する。この場合のユーザの介入は、たとえば、ロボットがどのようにしてこの状況から抜け出すかに関するコマンドの送信(たとえば、HMI200を用いて)である。場合によっては、センサのクリーニングやブロックされたアクチュエータの解放など、ユーザによる手動の介入が必要になる場合がある。   It is common to set the state of the robot to a special mode, such as "emergency stop", to distinguish it from a normal interruption or stop of a task that a user may want. The internal robot state "Emergency stop" means that all actuators (especially working unit 160 and drive unit 170) are stopped and can only be restarted by user (eg, manual) intervention. The user's intervention in this case is, for example, sending a command (eg, using the HMI 200) on how the robot exits this situation. In some cases, manual intervention by the user may be required, such as cleaning the sensor or releasing a blocked actuator.

HMI200(または他の外部デバイス300)は、通信ユニット140を介してロボットの状態を調べることができ、それにより、ユーザに問題を通知することができる。さらに、ロボットは、「緊急停止」状態中に可聴および/または視覚(緊急)信号を発することができるため、ユーザはロボットを簡単に見つけて解放することができる。   The HMI 200 (or other external device 300) can check the status of the robot via the communication unit 140 and thereby notify the user of the problem. Further, the robot can emit audible and / or visual (emergency) signals during an "emergency stop" condition, so that the user can easily find and release the robot.

しかしながら、自律移動ロボット100が継続的に信号を送信し、それにより、ユーザが家にいない間にバッテリが急速になくなるという問題が生じ得る。ユーザが到着するまでに、バッテリが空になり、ロボットが電源を切り、信号を送信できなくなる可能性がある。さらに、連続する音響信号によって隣人が妨害される可能性がある。ユーザは家にいることができるが、ロボットの問題に取り組む時間がない場合もある。この場合も、継続的に送信される信号が妨害となる。   However, the autonomous mobile robot 100 continuously transmits signals, which may cause a problem that the battery runs out rapidly while the user is not at home. By the time the user arrives, the battery may be depleted and the robot may turn off and lose signal. Furthermore, neighbors can be disturbed by continuous acoustic signals. The user can be at home, but may not have the time to tackle robot problems. In this case as well, the continuously transmitted signal interferes.

したがって、ユーザがデバイスに関心がある場合にのみ、緊急信号を送信するのが適切である。したがって、ロボットの状態が外部デバイス300(例えば、HMI200)を介して問い合わせられ、ロボットが前述の「緊急停止」状態を有する場合、音響および/または光学信号を送信することができる。たとえば、スマートフォンやタブレットPCのアプリを介してロボットのステータスを確認できる。特に、ロボットのステータス情報の取得は、プログラムの開始時に自動的に実行できる。または、アプリにメニュー項目を含めることもでき、このメニュー項目の呼び出しにより、ロボットのステータス情報を呼び出すことができる。さらに、ロボットは、サーバ502を介してHMI200にプッシュメッセージを送信するように構成されてもよい。   Therefore, it is appropriate to send an emergency signal only when the user is interested in the device. Thus, the status of the robot can be interrogated via the external device 300 (eg, HMI 200) and if the robot has the aforementioned "emergency stop" status, acoustic and / or optical signals can be transmitted. For example, the status of the robot can be confirmed via an application on a smartphone or tablet PC. In particular, the acquisition of robot status information can be performed automatically at the start of the program. Alternatively, a menu item can be included in the application, and the status information of the robot can be called by calling the menu item. Further, the robot may be configured to send a push message to the HMI 200 via the server 502.

たとえば、ロボットが問題を認識し、ステータスを「緊急停止」に設定すると、近くのユーザがロボットを支援できるように、緊急信号が所定の時間送信される。たとえば、5分間、助けが来ない場合、ロボットは、外部デバイス300を介してロボット100のステータスがポーリングされるまで、省電力モードに切り替えられる(たとえば、通信ユニット140を除くすべてのセンサとアクチュエータをオフにする)。   For example, when the robot recognizes a problem and sets the status to "emergency stop", an emergency signal is transmitted for a predetermined time so that a nearby user can assist the robot. For example, if no help is received for 5 minutes, the robot is switched to a power saving mode until the status of the robot 100 is polled via the external device 300 (eg, all sensors and actuators except the communication unit 140 are switched off). Turn off).

ユーザはスマートフォンやタブレットPCを簡単に持ち運ぶことができ、ロボットを世界中からの制御を可能にする(インターネット経由など)。しかしながら、ロボット100の状態の問い合わせにおいてユーザが家にいない場合、ロボットによる緊急信号の送信は不要である。したがって、たとえば、緊急信号が送信されるかどうかに関する決定では、ステータスを照会するデバイスの場所、したがってユーザの場所が考慮される。たとえば、ステータスを要求するデバイスの位置がロボット使用領域内またはロボット使用領域の近くにある場合にのみ、緊急信号が送信される。ロボット100は、異なるデータに基づいて外部デバイス(例えば、HMI200)の位置を決定してもよい。ロボットが、例えば外部デバイスに問い合わせを送信すると、外部デバイスは、外部デバイスがロボット使用領域内にあるかどうかを示す応答メッセージを送信する。外部デバイスは、GPSセンサを使用して位置を特定するように構成できる。また、外部デバイスがログインしているWLANのSSID(Service Set Identifier)により、外部デバイスの推論される(おおよその)場所を示すこともできる。ロボットは、問い合わせを送信する代わりに、外部デバイスが近くにあるかどうかを独自に検出するように構成することもできる。例えば、ロボット100は、それ自体と外部デバイスが同じWLANにログインしているかどうかを判定することができる。その場合、ロボットは外部デバイス(およびユーザ)が近くにいて緊急信号を送信していると想定する。ここで説明する例では、緊急信号は、ロボット自体によって直接生成され、ユーザが直接(技術機器の支援なしで)知覚できる(たとえば、光学または可聴)信号である。   The user can easily carry a smartphone or tablet PC, and can control the robot from all over the world (eg, via the Internet). However, when the user is not at home in the inquiry about the state of the robot 100, the transmission of the emergency signal by the robot is unnecessary. Thus, for example, the determination as to whether an emergency signal is transmitted takes into account the location of the device for which status is queried, and thus the location of the user. For example, the emergency signal is transmitted only when the position of the device requesting the status is within or near the robot use area. The robot 100 may determine the position of the external device (for example, the HMI 200) based on different data. When the robot transmits an inquiry to, for example, an external device, the external device transmits a response message indicating whether the external device is in the robot usage area. The external device can be configured to locate using a GPS sensor. Also, the inferred (approximate) location of the external device can be indicated by the SSID (Service Set Identifier) of the WLAN to which the external device is logged in. Instead of sending a query, the robot can be configured to independently detect whether an external device is nearby. For example, the robot 100 can determine whether itself and an external device are logged in to the same WLAN. In that case, the robot assumes that an external device (and user) is nearby and is sending an emergency signal. In the example described here, the emergency signal is a signal that is generated directly by the robot itself and that can be perceived (eg, optical or audible) directly (without the assistance of technical equipment) by the user.

たとえば、携行可能な外部デバイスは、その位置を決定してロボットに通知できる。これは、たとえば、GPSなどの衛星ベースの全地球測位システム、モバイルネットワークからの情報、またはWLAN情報により行われる。特に、ロボットが接続されているローカルWLANを介したHMI200の直接的な到達可能性は、ユーザが自宅にいることを非常によく示している。   For example, a portable external device can determine its location and notify the robot. This is done, for example, with satellite-based global positioning systems such as GPS, information from mobile networks, or WLAN information. In particular, the direct reachability of the HMI 200 via the local WLAN to which the robot is connected is very good indication that the user is at home.

ロボットは、デバイスからのステータス要求が自宅のWi-Fiなどのローカルネットワークから発信されたものか、インターネット経由で通信されたものかを判断することで、ユーザが自宅にいるかどうかも判断できる。インターネットを介した通信接続は通常、クラウドサービス(図1のサーバ502を参照)を介して行われるため、ローカル接続とは明確に区別できる。たとえば、ローカルネットワークを介したステータス要求の場合、ロボットは緊急信号を発信できるが、インターネットを介した要求では、これは実行されない。   The robot can determine whether the user is at home by determining whether the status request from the device is transmitted from a local network such as Wi-Fi at home or communicated via the Internet. Communication connections over the Internet are typically made via a cloud service (see server 502 in FIG. 1) and are therefore clearly distinguishable from local connections. For example, in the case of a status request via the local network, the robot can issue an emergency signal, but in the case of a request via the Internet, this is not performed.

さらに、他のセンサを使用してユーザの存在を検出できる。たとえば、ロボットに取り付けられたマイクは周囲の騒音を拾い、そこからユーザが家にいるか、家に出入りしているかを推測できる。他の多くの外部センサとデバイスは、ユーザの存在と不在に関する情報を持ち、ロボットと共有する場合がある。例えば、電子ドアロックおよび/またはそれに接続された警報システムは、ユーザが電子ドアロックをアクティブまたは非アクティブしたときに、ロボットに情報を送信する。   Furthermore, the presence of the user can be detected using other sensors. For example, a microphone attached to the robot picks up ambient noise, from which it can be inferred whether the user is at home or in and out of the house. Many other external sensors and devices have information about the presence and absence of the user and may share it with the robot. For example, an electronic door lock and / or an alarm system connected thereto transmits information to the robot when a user activates or deactivates the electronic door lock.

B…仮想境界
H…障害物
M…測定ポイント
S…仮想遮断領域
Sa、Sb…分割領域
T…移動軌跡
V…力ベクトル
W…領域
100、100B…自律移動ロボット
110…基地局
120…センサユニット
121…床センサ
140…通信ユニット
145…通信接続
150…制御ユニット
151…制御ソフトウェアモジュール
152…ナビゲーションモジュール
155…プロセッサ
156…メモリ
156…不揮発性メモリ
160…作業ユニット
170…駆動ユニット
190…プロジェクタ
200…ヒューマンマシンインターフェイス
201…タッチスクリーン
300…外部デバイス
500…インターネット
501…アクセスポイント
502…サーバ
B: virtual boundary H: obstacle M: measurement point S: virtual cutoff area Sa, Sb: divided area T: moving trajectory V: force vector W: area 100, 100B: autonomous mobile robot 110: base station 120: sensor unit 121 ... floor sensor 140 ... communication unit 145 ... communication connection 150 ... control unit 151 ... control software module 152 ... navigation module 155 ... processor 156 ... memory 156 ... nonvolatile memory 160 ... working unit 170 ... drive unit 190 ... projector 200 ... human machine Interface 201 Touch screen 300 External device 500 Internet 501 Access point 502 Server

Claims (68)

センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、
前記センサから取得した測定データに基づいて障害物を検出し、検出された障害物の位置を決定するステップと、
前記検出された障害物との衝突を避けるように前記ロボットを制御するステップと、
を有し、
前記地図は、少なくとも1つの仮想遮断領域が示された地図データを含み、前記少なくとも1つの仮想遮断領域は、ロボットを制御する際に、実際に検出された障害物を同じように考慮されることを特徴とする方法。
A method of controlling an autonomous mobile robot configured to uniquely navigate within a robot usage area using a sensor and a map,
Detecting an obstacle based on the measurement data obtained from the sensor, and determining the position of the detected obstacle;
Controlling the robot to avoid collision with the detected obstacle;
Has,
The map may include map data indicating at least one virtual obstruction region, and the at least one virtual obstruction region may similarly consider an actually detected obstacle when controlling the robot. A method characterized by the following.
前記ロボットは、自身の固有の位置を決定し、前記自身の固有の位置と前記地図に基づいて前記ロボットとの前記仮想遮断領域の相対位置を計算し、前記仮想遮断領域は、実際に検出された障害物と同じように前記ロボットによって処理されることを特徴とする請求項1に記載の方法。   The robot determines its own unique position, calculates a relative position of the virtual cutoff region with the robot based on the own unique position and the map, and the virtual cutoff region is actually detected. 2. The method according to claim 1, wherein the robot is processed by the robot in the same manner as an obstacle that has been lost. 検出された障害物の決定された位置を地図に保存するステップと、
前記ロボットによって前記ロボットの位置を決定するステップと、
前記地図に格納された障害物を迂回して目的地への経路を計画する経路計画アルゴリズムを使用するステップであって、前記仮想遮断領域を前記地図内に保存された障害物として扱うステップと、をさらに有することを特徴とする請求項1又は請求項2に記載の方法。
Saving the determined position of the detected obstacle on a map;
Determining the position of the robot by the robot;
Using a route planning algorithm to plan a route to a destination around an obstacle stored in the map, wherein the virtual blocking area is treated as an obstacle stored in the map; The method according to claim 1 or 2, further comprising:
遮断領域の位置は、前記地図に登録されたランドマークに対する相対位置として保存されることを特徴とする請求項1乃至請求項3の何れか一項に記載の方法。   4. The method according to claim 1, wherein the position of the blocking area is stored as a relative position to a landmark registered on the map. 5. ここで、仮想遮断領域は、ロボットが横切ってはならない境界線によって定義され、および/または仮想遮断領域は、ロボットが走行してはならない領域によって定義されることを特徴とする請求項1乃至請求項4の何れか一項に記載の方法。   Here, the virtual blocking area is defined by a boundary line that the robot must not cross, and / or the virtual blocking area is defined by an area that the robot must not travel. Item 5. The method according to any one of Items 4 to 6. センサと地図データを使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、
前記地図データは、少なくとも1つの仮想境界線を有し、前記少なくとも1つの仮想境界線は、前記少なくとも1つの仮想境界線の第1の側と第2の側とを区別できるような方向を有し、
前記ロボットのナビゲートの際に前記境界線の前記第1の側から来る第1の方向における前記境界線の横切りは回避され、
前記ロボットのナビゲートの際に前記境界線の前記第2の側から来る第2の方向における前記境界線の横切りは許可される
ことを特徴とする方法。
A method for controlling an autonomous mobile robot configured to uniquely navigate within a robot usage area using sensors and map data,
The map data has at least one virtual boundary line, and the at least one virtual boundary line has a direction that can distinguish a first side and a second side of the at least one virtual boundary line. And
Traversing the boundary line in a first direction coming from the first side of the boundary line while navigating the robot is avoided;
A method wherein the traversal of the boundary in a second direction coming from the second side of the boundary during navigation of the robot is permitted.
仮想境界線は、前記ロボットの作業中に前記ロボットによって処理されるロボット使用領域を残りのロボット使用領域から区別して境界を付けるために、前記地図データに一時的にのみ含められ、
前記仮想境界線の向きは、前記ロボットは、処理されるべき領域に移動できるが、その領域から離れることはできない向きである
ことを特徴とする請求項6に記載の方法。
A virtual boundary line is only temporarily included in the map data in order to distinguish and attach a robot use area processed by the robot during the operation of the robot from the remaining robot use areas,
The method according to claim 6, wherein the orientation of the virtual boundary line is such that the robot can move to an area to be processed but cannot leave the area.
前記ロボットが前記境界線の前記第1の側にいる場合に、前記ロボットは、ナビゲーションの際に前記ロボットの前記センサによって検出される、実際の障害物の輪郭と同じように仮想境界線を考慮する障害物回避アルゴリズムを使用することを特徴とする請求項6又は請求項7に記載の方法。   When the robot is on the first side of the boundary, the robot considers the virtual boundary as detected by the sensor of the robot during navigation, as well as the contour of a real obstacle. The method according to claim 6 or 7, wherein an obstacle avoidance algorithm is used. 前記仮想境界線は、その位置が一時的又は永続的に前記地図データに保存される、開いた又は閉じた多角形チェインによって構成され、
前記仮想境界線は、オプションとして、前記地図データに含まれる1つ以上の実際の障害物の1つ以上の輪郭とともに、前記ロボット使用領域内の仮想遮断領域に境界を付ける
ことを特徴とする請求項6乃至請求項8のうちの何れか一項に記載の方法。
The virtual boundary line is constituted by an open or closed polygon chain whose position is temporarily or permanently stored in the map data,
The virtual boundary line optionally borders one or more contours of one or more real obstacles included in the map data with a virtual occlusion region in the robot usage region. The method according to any one of claims 6 to 8.
前記境界線は、実際の障害物の検出された輪郭に対して定義された距離で延び、前記ロボットは定義された距離よりも前記障害物に近づかないことを特徴とする請求項6乃至9の何れか一項に記載の方法。   10. The method of claim 6, wherein the boundary extends for a defined distance relative to a detected contour of an actual obstacle, and the robot does not approach the obstacle more than a defined distance. A method according to any one of the preceding claims. 前記境界線の位置は、前記実際の障害物に対する相対位置として保存されることを特徴とうする請求項10に記載の方法。   The method according to claim 10, wherein the position of the boundary line is stored as a position relative to the actual obstacle. センサと地図データを使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図データは、少なくとも1つの仮想遮断領域を含み、前記方法は、
前記地図に保存されている情報に基づいて、前記ロボットが少なくとも部分的に仮想遮断領域にあるかどうかを検査するステップを、
有する。
A method for controlling an autonomous mobile robot configured to independently navigate a robot usage area using a sensor and map data, wherein the robot periodically determines its own position in the map. Wherein the map data comprises at least one virtual occlusion region, and wherein the method comprises:
Checking, based on the information stored in the map, whether the robot is at least partially in a virtual occlusion region,
Have.
前記ロボットが前記ロボット使用領域を移動しているときにグローバルな自己位置特定を実行するステップをさらに有し、前記ロボットが移動した経路を保存し、
前記グローバルな自己位置特定の実行中または完了後に、前記ロボットが少なくとも部分的に遮断領域内にいるどうかの検査が行われ、かつ、
前記ロボットは、仮想遮断領域にいると判断するとすぐに、前記仮想遮断領域から安全に離れることができるまで、少なくとも格納された経路に沿って後退し、又は、
前記ロボットは、前記自己位置特定の開始時にすでに仮想遮断領域にいたと判断するとすぐに、前記遮断領域で事前定義されたタスクの実行を開始する
ことを特徴とする請求項12に記載の方法。
Performing a global self-localization when the robot is moving in the robot usage area, storing a path that the robot has moved,
During or after completion of the global self-localization, a check is performed to determine whether the robot is at least partially within an occluded area; and
As soon as the robot determines that it is in the virtual blocking area, it retreats at least along the stored path until it can safely leave the virtual blocking area, or
The method of claim 12, wherein the robot starts executing a predefined task in the blocking area as soon as it determines that it is already in the virtual blocking area at the start of the self-localization.
前記ロボットが前記ロボット使用領域を移動するときにグローバルな自己位置特定を実行するステップであって、前記ロボットの現在の位置に関する1つ以上の位置特定仮説を確立し、各位置特定仮説について、それらが仮想遮断領域にあるか仮想遮断領域の近くにあるかを決定するステップと、
前記ロボットが前記遮断領域を離れるか、前記遮断領域までの距離が長くなるように前記ロボットを制御するステップと、
を有することを特徴とする請求項12に記載の方法。
Performing a global self-localization as the robot moves through the robot usage area, establishing one or more localization hypotheses for the current location of the robot, and for each localization hypothesis, Determining whether is in or near the virtual blocking area;
Controlling the robot such that the robot leaves the blocking area or the distance to the blocking area increases,
13. The method according to claim 12, comprising:
検査により前記ロボットが仮想遮断領域にいることが明らかになった場合、前記ロボットは、事前定義可能な基準に従って、前記ロボットが停止するか、または遮断領域を離れるかを決定することを特徴とする請求項12乃至請求項14の何れか一項に記載の方法。   If the inspection reveals that the robot is in a virtual occlusion area, the robot determines, according to a predefinable criterion, whether the robot stops or leaves the occlusion area. The method according to any one of claims 12 to 14. 前記遮断領域はエッジ領域とコア領域に分割され、前記事前定義可能な基準は、前記ロボットが前記コア領域にあるか前記エッジ領域にあるかであることを特徴とする請求項15に記載の方法。   16. The method of claim 15, wherein the cutoff region is divided into an edge region and a core region, and the predefinable criterion is whether the robot is in the core region or the edge region. Method. 前記ロボットは、前記遮断領域を離れることを決定した後、力場解析によって前記遮断領域から外へ離れるようにナビゲートすることを特徴とする請求項15又は請求項16に記載の方法。   17. The method of claim 15 or claim 16, wherein the robot navigates away from the blocking area by force field analysis after determining to leave the blocking area. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を規則に決定し、地図データは、少なくとも1つの仮想遮断領域を含み、前記方法は、
事前定義可能な基準に基づいて、遮断領域がアクティブであるか非アクティブであるかを検査するステップを、
有し、
前記ロボットはアクティブな遮断領域のみを考慮し、その結果、前記アクティブな遮断領域を走行しないことを特徴とする方法。
A method for controlling an autonomous mobile robot configured to independently navigate a robot usage area using a sensor and an electronic map, wherein the robot determines its own position in the map in a regular manner. , The map data includes at least one virtual occluded area, wherein the method comprises:
Checking whether the blocking area is active or inactive based on pre-definable criteria;
Have
The method wherein the robot considers only the active blocking area and, as a result, does not travel in the active blocking area.
遮断領域がアクティブであるかどうかの基準は、現在の時刻、又は、その開始を、ヒューマンマシンインターフェイス上でユーザ入力によって定義できる、事前定義された時間間隔の経過であることを特徴とする請求項18に記載の方法。   The criterion for whether the occluded area is active is the current time or the elapse of a predefined time interval, the start of which can be defined by a user input on a human-machine interface. 19. The method according to 18. 遮断領域がアクティブであるかどうかの基準は、前記ロボットが特定のタスクを実行することであることを特徴とする請求項18又は請求項19に記載の方法。   20. The method according to claim 18 or claim 19, wherein the criterion as to whether the blocking area is active is that the robot performs a specific task. 遮断領域がアクティブであるかどうかの基準は、他のロボットが特定のタスクを実行することであることを特徴とする請求項18乃至請求項20の何れか一項に記載の方法。   21. The method according to any one of claims 18 to 20, wherein the criterion of whether the blocking area is active is that another robot performs a specific task. 遮断領域がアクティブであるかどうかの基準は、前記遮断領域が外部デバイス、特にヒューマンマシンインターフェイスによってアクティブまたは非アクティブとしてマークされたかどうかであることを特徴とする請求項18乃至請求項21の何れか一項に記載の方法。   22. The method according to claim 18, wherein the criterion as to whether the blocking area is active is whether the blocking area is marked as active or inactive by an external device, in particular a human-machine interface. A method according to claim 1. 前記ロボットは、以前に非アクティブな遮断領域がアクティブになり、前記ロボットが遮断領域にあると判断すると、前記ロボットは、前記遮断領域を離れる、および/または前記遮断領域での作業を終了することを特徴とする請求項18乃至請求項22の何れか一項に記載の方法。   The robot may leave the blocking area and / or terminate work in the blocking area if the robot previously determined that the inactive blocking area has been activated and the robot is in the blocking area. The method according to any one of claims 18 to 22, characterized in that: センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、地図データは、前記ロボットが自動的には走行しない、少なくとも1つの仮想遮断領域を含み、前記方法は、
通信接続を介して別のロボットから仮想遮断領域を表すデータを受信するステップと、
受信したデータに基づいて、前記ロボットの地図に仮想遮断領域を保存するステップと、
を有することを特徴とする方法。
A method for controlling an autonomous mobile robot configured to independently navigate in a robot usage area using a sensor and an electronic map, wherein the robot periodically determines its own position in the map. And the map data includes at least one virtual occlusion region, wherein the robot does not automatically travel, the method comprising:
Receiving data representing a virtual blocking area from another robot via a communication connection;
Storing a virtual blocking area on a map of the robot based on the received data;
A method comprising:
前記仮想遮断領域を表す前記データは、現在実行中またはすでに完了した作業に応じて、特に作業中に処理すべきまたはすでに処理された領域に応じて、前記別のロボットによって生成されることを特徴とする請求項24に記載の方法。   The data representing the virtual blocking area is generated by the another robot according to the work currently being performed or already completed, particularly according to the area to be processed or already processed during the work. The method according to claim 24, wherein 前記通信接続を介して前記別のロボットから受信したメッセージに応答して、または所定の時間が経過した後に、以前に保存された遮断領域を削除するステップを有することを特徴とする請求項24又は請求項25に記載の方法。   25. The method according to claim 24, further comprising the step of deleting a previously stored blocking area in response to a message received from the another robot via the communication connection or after a predetermined time has elapsed. A method according to claim 25. 自律移動ロボットと外部デバイスとを有するシステムであって、
前記ロボットは、地図データに基づいて自身の環境を自動的にナビゲートし、
前記ロボットが自動的には自身を解放できない状況を検出し、
この検出に応じて前記ロボットの状態を設定するように
構成され、
前記外部デバイスは、
少なくとも1つの通信接続を介して前記ロボットに問い合わせを送信して、前記ロボットの状態を照会するように
構成され、
前記ロボットは、さらに、前記外部デバイスからの問い合わせの受信時の前記ロボットの状態が、前記ロボットが自動的には自身を解放できない状況を示す場合、所定の時間、光学及び/又は音響信号を発するように
構成されている
ことを特徴とするシステム。
A system having an autonomous mobile robot and an external device,
The robot automatically navigates its environment based on map data,
Detecting a situation where the robot cannot release itself automatically,
It is configured to set the state of the robot according to the detection,
The external device includes:
Configured to send an inquiry to the robot via at least one communication connection to query the status of the robot;
The robot further emits an optical and / or acoustic signal for a predetermined time if the state of the robot at the time of receiving the inquiry from the external device indicates that the robot cannot release itself automatically. The system characterized by being comprised as follows.
前記ロボットは、前記外部デバイスの位置を決定し、前記外部デバイスの決定された位置に応じて前記光学及び/又は音響信号を発し、前記外部デバイスが前記ロボットの使用領域又はその近くにいる場合にのみ前記信号を送信するように構成されていることを特徴とする請求項27に記載のシステム。   The robot determines the position of the external device and emits the optical and / or acoustic signals according to the determined position of the external device, and when the external device is in or near the use area of the robot. 28. The system of claim 27, wherein the system is configured to only transmit the signal. 前記システムは、ユーザの存在を検出し、ユーザが存在する場合にのみ信号を送信するように構成されていることを特徴とする請求項27又は請求項28に記載のシステム。   29. The system of claim 27 or claim 28, wherein the system is configured to detect the presence of a user and transmit a signal only when a user is present. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、地図データは、少なくとも3つの異なる分類領域を含むことが可能で、前記方法は、
前記センサを用いて前記ロボットにより自身の位置を決定するステップと、
前記ロボットが前記少なくとも3つの異なる分類領域のいずれかにあることを検査するステップと、
を有し、
前記ロボットが前記少なくとも3つの異なる分類領域の第1の領域にある場合、自動的にナビゲートしてタスクを実行し、
前記ロボットが前記少なくとも3つの異なる分類領域の第2の領域にある場合、自動的にナビゲートするが、タスクを実行せず、
前記少なくとも3つの異なる分類領域の第3の領域は、前記ロボットが自動的に走行しない仮想遮断領域である
ことを特徴とする方法。
A method for controlling an autonomous mobile robot configured to independently navigate in a robot usage area using a sensor and an electronic map, wherein the robot periodically determines its own position in the map. And the map data can include at least three different classification regions, wherein the method comprises:
Determining its position by the robot using the sensor;
Testing that the robot is in any of the at least three different classification regions;
Has,
Automatically navigating to perform a task when the robot is in a first of the at least three different classification areas;
If the robot is in the second of the at least three different classification areas, it automatically navigates but does not perform a task,
The method of claim 3, wherein a third one of the at least three different classification areas is a virtual blocking area where the robot does not automatically travel.
前記第2の領域を横断するために、前記ロボットは、可能な限り短い経路または可能な限り速い経路を決定することを特徴とする請求項30に記載の方法。   31. The method of claim 30, wherein the robot determines a path as short as possible or as fast as possible to traverse the second area. 前記ロボットのナビゲーションの際に、前記ロボットの経路または作業過程を計画するためにコスト関数が使用され、前記第2の領域の移動のコストは、前記第1の領域の移動コストよりも高いことを特徴とする請求項30又は請求項31に記載の方法。   When navigating the robot, a cost function is used to plan the path or work process of the robot, and that the cost of moving the second area is higher than the cost of moving the first area. A method according to claim 30 or claim 31, characterized in that: 前記ロボットは、前記ロボットが現在のタスクを完了したとき、および/またはタスクを遂行するために前記第2の領域を横切る必要があるときにのみ前記第2の領域を走行することを特徴とする請求項30乃至請求項32のいずれか一項に記載の方法。   The robot travels in the second area only when the robot has completed a current task and / or needs to cross the second area to perform a task. A method according to any one of claims 30 to 32. 少なくとも2つの自律移動ロボット間で情報を交換する方法であって、
前記少なくとも2つのロボットのそれぞれは、センサと電子地図を使用してロボット使用領域を自律的にナビゲートし、地図を自動的に作成および更新するように構成されており、
前記ロボットはそれぞれ、少なくとも1つの他のロボットに情報を送信できる通信モジュールを備えており、前記方法は、
第1のロボットの第1の地図の座標を第2のロボットの第2の地図の座標への変換操作を自動的に決定するステップと、
第1のロボットから第2のロボットに位置関連情報を送信するステップと、
前記変換操作を使用して、前記第1の地図の座標の位置関連情報の座標を前記第2の地図の座標に変換するステップと、
を有する方法。
A method of exchanging information between at least two autonomous mobile robots,
Each of the at least two robots is configured to autonomously navigate a robot usage area using sensors and an electronic map, and to automatically create and update the map;
The robots each include a communication module capable of transmitting information to at least one other robot, the method comprising:
Automatically determining the operation of converting the coordinates of the first map of the first robot into the coordinates of the second map of the second robot;
Transmitting position-related information from the first robot to the second robot;
Using the conversion operation to convert the coordinates of the position-related information of the coordinates of the first map into the coordinates of the second map;
Having a method.
前記変換操作を自動的に決定するステップは、
基地局などの同じナビゲーション特徴の前記第1の地図に格納された第1の姿勢と、第2の地図に格納された第2の姿勢に基づいて前記変換操作を計算するステップを有することを特徴とする請求項34に記載の方法。
Automatically determining the conversion operation,
Calculating the conversion operation based on a first attitude stored on the first map and a second attitude stored on a second map of the same navigation feature, such as a base station. 35. The method of claim 34, wherein
前記変換操作は、シフト、回転、およびオプションで、スケーリングを含むことを特徴とする請求項34又は請求項35に記載の方法。   36. The method of claim 34 or claim 35, wherein the transform operation includes shifting, rotating, and, optionally, scaling. 自律移動ロボットのロボット使用領域の電子地図に仮想遮断領域を入力する方法であって、
前記仮想遮断領域を定義するためにヒューマンマシンインターフェイスからのユーザ入力を受け入れるステップと、
前記ユーザ入力を評価するステップであって、前記ユーザ入力が少なくとも1つの事前定義された基準を満たしているかどうかが検査されるステップと、
前記ユーザ入力の評価に基づいて、前記仮想遮断領域を前記地図に保存するかどうか、および/またはどの幾何学的形式で保存するかを決定するステップと、
を有する方法。
A method of inputting a virtual blocking area on an electronic map of a robot use area of an autonomous mobile robot,
Accepting user input from a human-machine interface to define the virtual barrier area;
Evaluating the user input, wherein it is checked whether the user input meets at least one predefined criterion;
Determining whether to store the virtual occlusion region on the map and / or in what geometric form based on the evaluation of the user input;
Having a method.
前記ヒューマンマシンインターフェイスが前記地図を表示し、前記ユーザ入力が表示された前記地図に基づくことを特徴とする請求項37に記載の方法。   The method of claim 37, wherein the human machine interface displays the map and the user input is based on the displayed map. 前記ヒューマンマシンインターフェイスは、タッチスクリーンを備えたポータブルデバイスであり、前記ユーザ入力は前記タッチスクリーンを介して行われることを特徴とする請求項38に記載の方法。   39. The method of claim 38, wherein the human-machine interface is a portable device with a touch screen, and wherein the user input is made through the touch screen. 前記ユーザ入力は、前記地図に含まれる領域をマークする表面情報であり、前記ユーザ入力を評価するステップは、前記地図内でマークされた領域を表す幾何学的基本形状を決定するステップを含むことを特徴とする請求項37乃至請求項39のいずれか一項に記載の方法。   The user input is surface information that marks an area included in the map, and the step of evaluating the user input includes determining a geometric basic shape representing the marked area in the map. The method according to any one of claims 37 to 39, characterized in that: 前記ユーザ入力は境界線を表す線情報であり、
前記ユーザ入力を評価するステップは、前記境界線と前記地図に格納された、障害物の輪郭に基づいて前記遮断領域を決定するステップを含むことを特徴とする請求項37乃至請求項40のいずれか一項に記載の方法。
The user input is line information representing a boundary line,
41. The method according to claim 37, wherein the step of evaluating the user input includes the step of determining the cutoff region based on the outline of the obstacle stored on the boundary line and the map. The method according to claim 1.
前記境界線は2つの障害物の輪郭を接続するか、1つの障害物の輪郭に2つの異なる場所で接触し、前記ロボット使用領域は2つの分割領域に分割されることを特徴とする請求項41に記載の方法。   The robot according to claim 1, wherein the boundary connects the outline of two obstacles or touches the outline of one obstacle at two different places, and the robot use area is divided into two divided areas. 42. The method according to 41. 前記2つの分割領域のうち小さい方の分割領域が仮想遮断領域として定義されることを特徴とする請求項42に記載の方法。   43. The method of claim 42, wherein the smaller of the two sub-regions is defined as a virtual cut-off region. 前記2つの分割領域のうち、前記ロボットおよび/または基地局が配置されていない領域は、仮想遮断領域として定義されることを特徴とする請求項42に記載の方法。   43. The method of claim 42, wherein an area of the two divided areas where the robot and / or the base station is not located is defined as a virtual blocking area. 前記ロボットと前記基地局が異なる分割領域にある場合、ヒューマンマシンインターフェイスを介してユーザに警告メッセージが出力されることを特徴とする請求項44に記載の方法。   The method of claim 44, wherein if the robot and the base station are in different sub-regions, a warning message is output to a user via a human-machine interface. 前記境界線は閉じた多角形チェインであり、前記多角形チェインによって閉じられた領域は仮想遮断領域として定義されることを特徴とする請求項41乃至請求項45のいずれか一項に記載の方法。   The method according to any one of claims 41 to 45, wherein the boundary is a closed polygon chain, and an area closed by the polygon chain is defined as a virtual occlusion area. . 前記ユーザ入力を評価するステップは、前記ユーザ入力によって定義された遮断領域の形状、サイズ、および位置の少なくとも1つに基づいていることを特徴とする請求項37乃至請求項46のいずれか一項に記載の方法。   47. The method of claim 37, wherein the step of evaluating the user input is based on at least one of a shape, a size, and a position of the occlusion region defined by the user input. The method described in. 前記仮想遮断領域の前記位置、前記サイズ、または前記形状のために前記ロボットがもはや通過できないロボット使用領域の領域は、仮想遮断領域に自動的に追加されることを特徴とする請求項47に記載の方法。   48. The area of the robot use area where the robot can no longer pass because of the position, the size, or the shape of the virtual occlusion area is automatically added to the virtual occlusion area. the method of. 前記ユーザ入力を評価するステップは、前記ユーザ入力によって定義された前記遮断領域を、壁などの障害物の前記地図に格納された輪郭と位置合わせするステップを含むことを特徴とする請求項37乃至請求項48のいずれか一項に記載の方法。   The method of claim 37, wherein evaluating the user input comprises aligning the occluded area defined by the user input with an outline stored on the map of an obstacle, such as a wall. 49. The method according to any one of claims 48. 前記ユーザ入力によって定義された前記遮断領域の位置は、前記地図に登録されたランドマークに対する相対位置として保存されることを特徴とする請求項37乃至請求項49のいずれか一項に記載の方法。   The method according to any one of claims 37 to 49, wherein the position of the blocking area defined by the user input is stored as a relative position to a landmark registered on the map. . 前記ユーザ入力を評価するステップは、前記地図に既に保存されている障害物を検出するステップと、前記障害物からの距離を決定するステップとを有し、
前記遮断領域は、すでに前記地図に格納されている検出された障害物から所定の距離で延びる境界線によって定義されることを特徴とする請求項37乃至請求項50のいずれか一項に記載の方法。
Evaluating the user input includes detecting an obstacle already stored on the map, and determining a distance from the obstacle,
51. The method according to any one of claims 37 to 50, wherein the blocking area is defined by a boundary line extending a predetermined distance from a detected obstacle already stored in the map. Method.
前記少なくとも1つの事前定義された基準は、その要件が満たされない場合、前記ロボットが前記地図内の前記仮想遮断領域を自動的に保存しないという要件が含まれ、
ユーザはヒューマンマシンインターフェイスを介して、前記要件が満たされていないことを通知され、
前記仮想遮断領域は、ヒューマンマシンインターフェイスを介したさらなるユーザ入力があった後に初めて確認のために保存される
ことを特徴とする請求項37乃至請求項51のいずれか一項に記載の方法。
The at least one predefined criterion includes a requirement that the robot not automatically save the virtual occlusion region in the map if the requirement is not met;
The user is informed via the human-machine interface that said requirement is not met,
52. The method according to any one of claims 37 to 51, wherein the virtual occlusion region is saved for confirmation only after further user input via a human-machine interface.
前記少なくとも1つの事前定義された基準は、少なくとも次の要件、すなわち、前記ロボットは、遮断領域が考慮されると、前記ロボット使用領域の事前定義された位置に到達できることが含まれることを特徴とする請求項52に記載の方法。   The at least one predefined criterion may include at least the following requirements: that the robot can reach a predefined position in the robot usage area, when an obstruction area is considered. 53. The method according to claim 52. 前記要件が満たされているかどうかが検査され、この検査においては、前記ロボットの現在位置又は、たとえば基地局の位置などの所定の開始位置から事前定義された位置までの経路を計画するために経路計画アルゴリズムが使用されることを特徴とする請求項53に記載の方法。   A check is made as to whether the requirements are fulfilled, in which a path is planned to plan a path from the current position of the robot or a predetermined starting position, for example the position of a base station, to a predefined position. The method of claim 53, wherein a planning algorithm is used. 前記少なくとも1つの事前定義された基準には、
(1)前記仮想遮断領域が考慮される際に、前記ロボットは基地局に到達可能であること、
(2)前記ロボットが前記仮想遮断領域の外側にあること、
(3)前記仮想遮断領域に属しておらず、前記仮想遮断領域なしで到達できる前記ロボット使用領域の領域は、前記仮想遮断領域が考慮される場合でも前記ロボットが到達可能であることの要件のうちの少なくとも1つの要件が含まれることを特徴とする請求項52乃至請求項54の何れか一項に記載の方法。
The at least one predefined criterion includes:
(1) the robot can reach a base station when the virtual blocking area is considered;
(2) the robot is outside the virtual blocking area;
(3) The area of the robot use area that does not belong to the virtual cut-off area and can be reached without the virtual cut-off area is a condition that the robot can reach even when the virtual cut-off area is considered. 55. The method according to any one of claims 52 to 54, wherein at least one of the requirements is included.
前記要件が満たされていない場合に、前記仮想遮断領域の変更により前記要件が満たされるかを検査するステップを更に含む請求項52乃至請求項55のいずれか一項に記載の方法。   56. The method according to any one of claims 52 to 55, further comprising, if the requirement is not satisfied, checking whether the requirement is satisfied by changing the virtual blocking area. 前記仮想遮断領域の変更は、前記仮想遮断領域および/または前記仮想遮断領域の境界のシフト、回転、および歪みの少なくとも1つの操作を含むことを特徴とする請求項56に記載の方法。   57. The method of claim 56, wherein changing the virtual occlusion region comprises manipulating at least one of shifting, rotating, and distorting the virtual occlusion region and / or boundaries of the virtual occlusion region. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図は、前記ロボットがナビゲートする際に走行しない、少なくとも1つの仮想遮断領域を含み、前記方法は、
前記ロボットの機能が危険にさらされているか制限されている前記ロボット使用領域をナビゲートする際に危険領域を検出するステップと、
検出された危険領域を取り囲む遮断領域を自動的に定義するステップと、
前記遮断領域を前記地図に保存するステップと、
を有することを特徴とする方法。
A method for controlling an autonomous mobile robot configured to independently navigate in a robot usage area using a sensor and an electronic map, wherein the robot periodically determines its own position in the map. Wherein the map includes at least one virtual occlusion region that the robot does not travel when navigating;
Detecting a danger area when navigating the robot use area where the function of the robot is at risk or restricted;
Automatically defining a blockage area surrounding the detected danger area;
Saving the blocking area on the map;
A method comprising:
前記危険領域の検出は、学習走行および/または使用中に実行され、その際に前記ロボットは前記ロボット使用領域の地図を作成し、前記地図は、前記ロボットのその後の使用の際にも使用されることを特徴とする請求項58に記載の方法。   The detection of the danger area is performed during learning running and / or during use, wherein the robot creates a map of the robot use area, and the map is also used during subsequent use of the robot. 59. The method of claim 58, wherein 前記危険領域は、立ち下がりエッジ、前記ロボットが接触なしには検出できない障害物、前記ロボットの動きに高い程度のスリップが含まれる領域の少なくとも1つを含むことを特徴とする請求項58または請求項59に記載の方法。   59. The dangerous area as claimed in claim 58 or claim 58, wherein the dangerous area includes at least one of a falling edge, an obstacle that the robot cannot detect without contact, and an area where the movement of the robot includes a high degree of slip. 60. The method according to item 59. 地図データに基づいてロボット使用領域を自動的にナビゲートするように構成された自律移動ロボットと、
前記ロボット使用領域内の床面または物体に情報を投影するように構成されたプロジェクタと、
を有するシステムであって、
前記システムは、前記地図データから位置関連情報を関連位置とともに抽出し、前記位置関連情報を前記プロジェクタによって前記床面または前記床面にある物体の対応する位置に投影するように構成されているシステム。
An autonomous mobile robot configured to automatically navigate a robot usage area based on map data,
A projector configured to project information on a floor or an object in the robot use area,
A system having
The system is configured to extract position-related information from the map data together with a related position, and project the position-related information by the projector onto a corresponding position of the floor or an object on the floor. .
前記プロジェクタは、前記自律移動ロボットまたは別のロボット上に配置されることを特徴とする請求項61に記載のシステム。   The system of claim 61, wherein the projector is located on the autonomous mobile robot or another robot. 前記システムは、前記ロボットの現在の位置および/または向きに基づいて投影すべき情報を決定するように構成されることを特徴とする請求項61または請求項62に記載のシステム。   63. The system of claim 61 or claim 62, wherein the system is configured to determine information to project based on a current position and / or orientation of the robot. 前記自律移動ロボットまたは前記別のロボットは、前記位置関連情報の投影を行う方向を含む位置を決定するように構成されていることを特徴とする請求項62に記載のシステム。   63. The system of claim 62, wherein the autonomous mobile robot or the another robot is configured to determine a location that includes a direction in which to project the location-related information. 前記位置関連情報は、仮想遮断領域、仮想境界線、清掃すべき領域、または清掃されていない領域であることを特徴とする請求項61乃至請求項64のいずれか一項に記載のシステム。   The system according to any one of claims 61 to 64, wherein the position-related information is a virtual blocking area, a virtual boundary line, an area to be cleaned, or an area that has not been cleaned. 自律移動ロボットであって、
前記ロボットは、地図データに基づいてロボット使用領域を自動的にナビゲートするように構成され、
前記ロボットは、ヒューマンマシンインターフェイスを介してユーザから位置関連情報を受信し、これに基づいてロボット経路を決定し、これに沿って移動するように構成されており、
前記ロボットが前記ロボット経路を移動中または移動した後、ユーザのさらなる入力に応じて、前記位置関連情報を、破棄するか、前記地図データと共に永続的に保存する
ことを特徴とする自律移動ロボット。
An autonomous mobile robot,
The robot is configured to automatically navigate a robot use area based on map data,
The robot is configured to receive position-related information from a user via a human-machine interface, determine a robot path based on the information, and move along the robot path.
An autonomous mobile robot, wherein the position-related information is discarded or permanently stored together with the map data according to a further input of a user after or after the robot moves on the robot path.
前記位置関連情報は、表面領域、特に仮想遮断領域を表し、それに基づいて決定された前記ロボット経路は、前記表面領域の境界に沿って延びることを特徴とする請求項66に記載のロボット。   67. The robot according to claim 66, wherein the position related information represents a surface area, particularly a virtual occlusion area, and the robot path determined based on the information extends along a boundary of the surface area. 前記ロボット経路は、前記ロボットが完全に前記表面領域内で走行するか、完全に前記表面領域の外側で走行するか、又は、前記境界上で走行するように前記表面領域の前記境界に沿って延びることを特徴とする請求項67に記載のロボット。   The robot path may be along the boundary of the surface area such that the robot runs entirely within the surface area, runs completely outside the surface area, or runs on the boundary. The robot of claim 67 extending.
JP2019547460A 2017-03-02 2018-02-27 Control method of autonomous mobile robot Pending JP2020509500A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102017104428.0 2017-03-02
DE102017104428.0A DE102017104428A1 (en) 2017-03-02 2017-03-02 Method for controlling an autonomous, mobile robot
DE102017104427.2A DE102017104427A1 (en) 2017-03-02 2017-03-02 Method for controlling an autonomous, mobile robot
DE102017104427.2 2017-03-02
PCT/EP2018/054807 WO2018158248A2 (en) 2017-03-02 2018-02-27 Method for controlling an autonomous, mobile robot

Publications (2)

Publication Number Publication Date
JP2020509500A true JP2020509500A (en) 2020-03-26
JP2020509500A5 JP2020509500A5 (en) 2021-03-18

Family

ID=61521507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019547460A Pending JP2020509500A (en) 2017-03-02 2018-02-27 Control method of autonomous mobile robot

Country Status (5)

Country Link
US (2) US11709489B2 (en)
EP (2) EP3590014B1 (en)
JP (1) JP2020509500A (en)
CN (1) CN110709790A (en)
WO (1) WO2018158248A2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054647A1 (en) * 2020-09-08 2022-03-17 村田機械株式会社 Traveling region determination method and autonomous traveling body
WO2022114847A1 (en) * 2020-11-27 2022-06-02 삼성전자주식회사 Electronic device and control method therefor
WO2023287105A1 (en) * 2021-07-14 2023-01-19 엘지전자 주식회사 Mobile robot
WO2023043117A1 (en) * 2021-09-17 2023-03-23 네이버랩스 주식회사 Robot-friendly building, and method and system for controlling robot traveling in building
KR102529661B1 (en) * 2021-11-29 2023-05-08 주식회사 와이즈오토모티브 Driving environment construction apparatus and method
WO2023089886A1 (en) * 2021-11-18 2023-05-25 パナソニックIpマネジメント株式会社 Traveling map creating device, autonomous robot, method for creating traveling map, and program
WO2023157345A1 (en) * 2022-02-21 2023-08-24 パナソニックIpマネジメント株式会社 Traveling map creation device, autonomous robot, method for creating traveling map, and program
WO2023171685A1 (en) * 2022-03-07 2023-09-14 U-Star合同会社 Transaction management method and transaction management system

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10265859B2 (en) 2016-02-09 2019-04-23 Cobalt Robotics Inc. Mobile robot with removable fabric panels
US11445152B2 (en) 2018-08-09 2022-09-13 Cobalt Robotics Inc. Security automation in a mobile robot
US11772270B2 (en) 2016-02-09 2023-10-03 Cobalt Robotics Inc. Inventory management by mobile robot
US11724399B2 (en) 2017-02-06 2023-08-15 Cobalt Robotics Inc. Mobile robot with arm for elevator interactions
DE102017105540A1 (en) * 2017-03-15 2018-09-20 Vorwerk & Co. Interholding Gmbh Method for operating a self-propelled soil tillage implement
CN108803589A (en) * 2017-04-28 2018-11-13 深圳乐动机器人有限公司 Robot virtual wall system
US11274929B1 (en) * 2017-10-17 2022-03-15 AI Incorporated Method for constructing a map while performing work
CN107566743B (en) * 2017-10-30 2019-10-11 珠海市一微半导体有限公司 The video monitoring method of mobile robot
CN212278869U (en) * 2017-11-14 2021-01-05 苏州宝时得电动工具有限公司 From mobile device and intelligent lawn mower
WO2019209877A1 (en) 2018-04-23 2019-10-31 Sharkninja Operating Llc Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest
WO2019212240A1 (en) * 2018-05-04 2019-11-07 Lg Electronics Inc. A plurality of robot cleaner and a controlling method for the same
KR102100476B1 (en) 2018-05-04 2020-05-26 엘지전자 주식회사 A plurality of robot cleaner and a controlling method for the same
KR102015498B1 (en) * 2018-06-27 2019-10-23 엘지전자 주식회사 A plurality of autonomous cleaner and a controlling method for the same
WO2020014495A1 (en) * 2018-07-13 2020-01-16 Irobot Corporation Mobile robot cleaning system
CN110733033B (en) * 2018-07-19 2023-03-24 科沃斯机器人股份有限公司 Robot control method, robot, and storage medium
US11460849B2 (en) * 2018-08-09 2022-10-04 Cobalt Robotics Inc. Automated route selection by a mobile robot
US10835096B2 (en) * 2018-08-30 2020-11-17 Irobot Corporation Map based training and interface for mobile robots
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
JP2020075032A (en) * 2018-11-09 2020-05-21 東芝ライフスタイル株式会社 Autonomic type vacuum cleaner
CN111360808B (en) * 2018-12-25 2021-12-17 深圳市优必选科技有限公司 Method and device for controlling robot to move and robot
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
WO2020146352A1 (en) * 2019-01-08 2020-07-16 R-Go Robotics Ltd. System and method for monitoring movements
JP6764138B2 (en) * 2019-03-28 2020-09-30 日本電気株式会社 Management method, management device, program
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
US11531343B1 (en) * 2019-04-22 2022-12-20 Amazon Technologies, Inc. System for user interactions with an autonomous mobile device
JP7188279B2 (en) * 2019-05-29 2022-12-13 トヨタ自動車株式会社 Machine learning methods and mobile robots
US11537137B2 (en) * 2019-06-18 2022-12-27 Lg Electronics Inc. Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof
US11694563B2 (en) * 2019-07-09 2023-07-04 Here Global B.V. Method and apparatus to control one or more drones based on real-time or predictive position information
KR102298582B1 (en) * 2019-07-12 2021-09-08 엘지전자 주식회사 Artificial intelligence robot for determining cleaning route using sensor data and method for the same
US11288883B2 (en) * 2019-07-23 2022-03-29 Toyota Research Institute, Inc. Autonomous task performance based on visual embeddings
US11409279B1 (en) * 2019-09-26 2022-08-09 Amazon Technologies, Inc. Autonomously motile device with remote control
JP2021071814A (en) * 2019-10-29 2021-05-06 ソニー株式会社 Information processing apparatus, information processing method, and information processing program
US11507103B2 (en) * 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
SE544024C2 (en) * 2020-03-03 2021-11-09 Husqvarna Ab Robotic work tool system and method for redefining a work area perimeter
US11810160B1 (en) * 2020-03-27 2023-11-07 United Services Automobile Association Building mapping tools
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
CN111552286A (en) * 2020-04-22 2020-08-18 深圳市优必选科技股份有限公司 Robot and movement control method and device thereof
CN113757829B (en) * 2020-05-27 2022-09-27 广东美的制冷设备有限公司 Control method of air purifier, electronic device and computer readable storage medium
CN111815739B (en) * 2020-07-02 2023-09-01 科沃斯机器人股份有限公司 Travel method, self-mobile device and computer readable storage medium
DE102020208893A1 (en) 2020-07-16 2022-01-20 BSH Hausgeräte GmbH Control of a cleaning robot
JP7471953B2 (en) * 2020-08-13 2024-04-22 株式会社東芝 Inspection system and inspection method
CN114468845B (en) * 2020-10-23 2023-01-20 好样科技有限公司 Self-walking device and control method thereof
CN112405530B (en) * 2020-11-06 2022-01-11 齐鲁工业大学 Robot vision tracking control system and control method based on wearable vision
US11673581B2 (en) 2020-12-11 2023-06-13 Waymo Llc Puddle occupancy grid for autonomous vehicles
DE102020215846B3 (en) * 2020-12-14 2022-01-27 BSH Hausgeräte GmbH Control of a tillage machine
CN112596654B (en) * 2020-12-25 2022-05-17 珠海格力电器股份有限公司 Data processing method, data processing device, electronic equipment control method, device, equipment and electronic equipment
CN112902839B (en) * 2021-01-21 2022-05-20 华中科技大学 Machining allowance measuring method and system based on point laser displacement sensor
CN113693521B (en) * 2021-02-10 2023-05-05 北京石头创新科技有限公司 Automatic cleaning equipment control method and device, medium and electronic equipment
CN113091749B (en) * 2021-04-12 2022-08-23 上海大学 Walking navigation and repositioning method of humanoid robot in complex unknown maze environment
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
EP4184272A1 (en) * 2021-11-18 2023-05-24 Mobile Industrial Robots A/S A method for navigating an autonomous mobile robot
CN114415654A (en) * 2021-12-01 2022-04-29 上海思岚科技有限公司 Method and equipment for generating escaping path
GB2613620A (en) * 2021-12-10 2023-06-14 Dyson Technology Ltd Method for edge cleaning
SE2151621A1 (en) * 2021-12-25 2023-06-26 Husqvarna Ab Improved navigation for a robotic work tool system
CN114343507A (en) * 2022-01-28 2022-04-15 深圳市优必选科技股份有限公司 Map data generation method and device and sweeping robot
CN116736837A (en) * 2022-03-03 2023-09-12 追觅创新科技(苏州)有限公司 Map updating method for self-mobile device, self-mobile device and storage medium
JP2023151723A (en) * 2022-04-01 2023-10-16 オムロン株式会社 System, method, and program of managing environmental map associated with work place where moving mechanism moves
CN116859937A (en) * 2023-07-28 2023-10-10 北京小米机器人技术有限公司 Robot control method, control device, electronic device, and storage medium

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069475A (en) * 2001-08-27 2003-03-07 Yaskawa Electric Corp Drive assisting device for unattended truck
JP2005124753A (en) * 2003-10-22 2005-05-19 Sharp Corp Self-propelling type vacuum cleaner
JP2005304553A (en) * 2004-04-16 2005-11-04 Funai Electric Co Ltd Cleaner
JP2008140159A (en) * 2006-12-01 2008-06-19 Matsushita Electric Works Ltd Autonomous moving unit
JP2009123045A (en) * 2007-11-16 2009-06-04 Toyota Motor Corp Traveling robot and method for displaying dangerous range of traveling robot
JP2009301247A (en) * 2008-06-12 2009-12-24 Hitachi Appliances Inc Virtual wall system for autonomous moving robot
JP2010066932A (en) * 2008-09-09 2010-03-25 Murata Machinery Ltd Route planning unit and autonomous mobile device
WO2011074165A1 (en) * 2009-12-17 2011-06-23 村田機械株式会社 Autonomous mobile device
JP2011175393A (en) * 2010-02-24 2011-09-08 Toyota Motor Corp Route planning apparatus, autonomous mobile robot, and method for planning movement path
JP2016087106A (en) * 2014-11-05 2016-05-23 シャープ株式会社 Cleaning support device and cleaner
JP2016186748A (en) * 2015-03-27 2016-10-27 本田技研工業株式会社 Controller for unmanned work vehicle
JP2016192040A (en) * 2015-03-31 2016-11-10 株式会社日本総合研究所 Self-propelled traveling device, management device, and walking obstacle place determination system
US20160335497A1 (en) * 2015-05-11 2016-11-17 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
JP2016201095A (en) * 2015-04-09 2016-12-01 アイロボット コーポレイション Restricting movement of mobile robot

Family Cites Families (276)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3478824D1 (en) 1983-10-26 1989-08-03 Automax Kk Control system for mobile robot
JPS61251809A (en) 1985-05-01 1986-11-08 Hitachi Ltd Automatic focus adjusting device
US4777416A (en) 1986-05-16 1988-10-11 Denning Mobile Robotics, Inc. Recharge docking system for mobile robot
US5377106A (en) 1987-03-24 1994-12-27 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for navigating an unmanned vehicle and a vehicle for the same
JPH0313611A (en) 1989-06-07 1991-01-22 Toshiba Corp Automatic cleaner
US5109566A (en) 1990-06-28 1992-05-05 Matsushita Electric Industrial Co., Ltd. Self-running cleaning apparatus
US5260710A (en) 1991-01-31 1993-11-09 Stanley Electric Co., Ltd. Vehicular optical-radar apparatus
JP3198532B2 (en) 1991-05-14 2001-08-13 松下電器産業株式会社 Self-propelled vacuum cleaner
JPH0680203A (en) 1992-03-24 1994-03-22 East Japan Railway Co Control method for floor surface cleaning robot
CA2115859C (en) 1994-02-23 1995-12-26 Brian Dewan Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
DE4421805C1 (en) 1994-06-22 1995-08-17 Siemens Ag Orientation motion and control of autonomous mobile robot
JP3346513B2 (en) 1994-07-01 2002-11-18 ミノルタ株式会社 Map storage method and route creation method using the map
BE1008470A3 (en) 1994-07-04 1996-05-07 Colens Andre Device and automatic system and equipment dedusting sol y adapted.
US5995884A (en) 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
FR2763726B1 (en) 1997-05-20 2003-01-17 Bouchaib Hoummadi METHOD FOR MANAGING ROAD TRAFFIC BY VIDEO CAMERA
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
EP1172719B1 (en) 1997-11-27 2004-02-11 Solar & Robotics S.A. Improvements to mobile robots and their control system
KR20010041694A (en) 1998-03-10 2001-05-25 칼 하인쯔 호르닝어 Optical sensor system for detecting the position of an object
IL124413A (en) 1998-05-11 2001-05-20 Friendly Robotics Ltd System and method for area coverage with an autonomous robot
ES2207955T3 (en) 1998-07-20 2004-06-01 THE PROCTER & GAMBLE COMPANY ROBOTIC SYSTEM.
ATE268196T1 (en) 1999-06-17 2004-06-15 Solar & Robotics S A AUTOMATIC DEVICE FOR COLLECTING ITEMS
GB9917232D0 (en) 1999-07-23 1999-09-22 Notetry Ltd Method of operating a floor cleaning device
JP4207336B2 (en) 1999-10-29 2009-01-14 ソニー株式会社 Charging system for mobile robot, method for searching for charging station, mobile robot, connector, and electrical connection structure
US7155308B2 (en) 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
US6594844B2 (en) 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
JP2002085305A (en) 2000-09-12 2002-03-26 Toshiba Tec Corp Robot cleaner and robot cleaner system
DE60021775T2 (en) 2000-12-11 2006-04-20 Mitsubishi Denki K.K. OPTICAL DISTANCE SENSOR
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US6883201B2 (en) 2002-01-03 2005-04-26 Irobot Corporation Autonomous floor-cleaning robot
JP3594016B2 (en) 2001-01-30 2004-11-24 日本電気株式会社 Robot program execution method, robot system and program processing device
RU2220643C2 (en) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Automatic cleaning apparatus, automatic cleaning system and method for controlling of system (versions)
EP1408729B1 (en) 2001-05-28 2016-10-26 Husqvarna AB Improvement to a robotic lawnmower
EP2287696B1 (en) 2001-06-12 2018-01-10 iRobot Corporation Method and system for multi-code coverage for an autonomous robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
EP1441632B1 (en) 2001-09-26 2013-05-01 F. Robotics Acquisitions Ltd. Robotic vacuum cleaner
DE10204223B4 (en) 2002-01-31 2004-05-06 Infineon Technologies Ag Housing for a coupling arrangement for coupling in and / or coupling out optical signals
JP2004133882A (en) 2002-05-10 2004-04-30 Royal Appliance Mfg Co Autonomous multi-platform robot system
JP2003330543A (en) 2002-05-17 2003-11-21 Toshiba Tec Corp Charging type autonomous moving system
JPWO2004032086A1 (en) 2002-10-04 2006-02-02 富士通株式会社 Robot system and autonomous robot
DE10261787B3 (en) 2002-12-23 2004-01-22 Alfred Kärcher Gmbh & Co. Kg Mobile tillage device
KR100561855B1 (en) 2002-12-30 2006-03-16 삼성전자주식회사 Robot localization system
US20050010331A1 (en) 2003-03-14 2005-01-13 Taylor Charles E. Robot vacuum with floor type modes
US7805220B2 (en) 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
US7756322B2 (en) 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US20070061041A1 (en) 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
EP1533629A3 (en) 2003-11-21 2006-05-24 Siemens Aktiengesellschaft Distance measurement with a mobile terminal
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE102004004505B9 (en) 2004-01-22 2010-08-05 Alfred Kärcher Gmbh & Co. Kg Soil cultivation device and method for its control
JP4264009B2 (en) 2004-01-23 2009-05-13 シャープ株式会社 Self-propelled vacuum cleaner
KR20140092417A (en) 2004-01-28 2014-07-23 아이로보트 코퍼레이션 Debris sensor for cleaning apparatus
JP2005211359A (en) 2004-01-30 2005-08-11 Funai Electric Co Ltd Autonomous traveling robot cleaner system
JP3841220B2 (en) 2004-01-30 2006-11-01 船井電機株式会社 Autonomous traveling robot cleaner
EP1721279B1 (en) 2004-02-03 2009-11-18 F. Robotics Aquisitions Ltd. Robot docking station and robot for use therewith
KR100506097B1 (en) 2004-02-04 2005-08-03 삼성전자주식회사 Method and apparatus for making magnetic field map and method and apparatus for checking pose of the moving body using the map
US20060020369A1 (en) 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
JP2005270413A (en) 2004-03-25 2005-10-06 Funai Electric Co Ltd Self-propelled vacuum cleaner
JP2007530978A (en) 2004-03-29 2007-11-01 エヴォリューション ロボティクス インコーポレイテッド Position estimation method and apparatus using reflected light source
JP4436186B2 (en) 2004-05-12 2010-03-24 アルパイン株式会社 Navigation device and map display method
JP4377744B2 (en) 2004-05-13 2009-12-02 本田技研工業株式会社 Robot controller
US9008835B2 (en) 2004-06-24 2015-04-14 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
KR100641113B1 (en) 2004-07-30 2006-11-02 엘지전자 주식회사 Mobile robot and his moving control method
KR100645379B1 (en) 2004-10-29 2006-11-15 삼성광주전자 주식회사 A robot controlling system and a robot control method
US7389156B2 (en) 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
EP2289384B1 (en) 2005-02-18 2013-07-03 iRobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
KR100638220B1 (en) 2005-04-23 2006-10-27 엘지전자 주식회사 Position sensing device of mobile robot and robot cleaner equipped with it
JP4455417B2 (en) 2005-06-13 2010-04-21 株式会社東芝 Mobile robot, program, and robot control method
DE102005041980B4 (en) 2005-09-05 2015-01-15 Robert Bosch Gmbh Electro-optical measuring device
JP5188977B2 (en) 2005-09-30 2013-04-24 アイロボット コーポレイション Companion robot for personal interaction
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
US7441298B2 (en) 2005-12-02 2008-10-28 Irobot Corporation Coverage robot mobility
ES2522926T3 (en) 2005-12-02 2014-11-19 Irobot Corporation Autonomous Cover Robot
WO2008013568A2 (en) 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
DE102006007764A1 (en) 2006-02-20 2007-08-23 Sick Ag Optoelectronic device and method for its operation
KR100988736B1 (en) 2006-03-15 2010-10-20 삼성전자주식회사 Home network system and method for moving the shortest path of autonomous mobile robot
US7483151B2 (en) 2006-03-17 2009-01-27 Alpineon D.O.O. Active 3D triangulation-based imaging method and device
EP2027806A1 (en) 2006-04-04 2009-02-25 Samsung Electronics Co., Ltd. Robot cleaner system having robot cleaner and docking station
KR100735565B1 (en) 2006-05-17 2007-07-04 삼성전자주식회사 Method for detecting an object using structured light and robot using the same
KR100791382B1 (en) 2006-06-01 2008-01-07 삼성전자주식회사 Method for classifying and collecting of area features as robot's moving path and robot controlled as the area features, apparatus and method for composing user interface using area features
US20130302132A1 (en) * 2012-05-14 2013-11-14 Kiva Systems, Inc. System and Method for Maneuvering a Mobile Drive Unit
US8355818B2 (en) 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
KR100791384B1 (en) 2006-07-05 2008-01-07 삼성전자주식회사 Method for dividing regions by feature points and apparatus thereof and mobile cleaning robot
KR100791386B1 (en) 2006-08-18 2008-01-07 삼성전자주식회사 Method and system of cell decomposition in mobile robot
US8996172B2 (en) 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
KR100815545B1 (en) 2006-12-06 2008-03-20 삼성광주전자 주식회사 The method of charging service robot
KR100791389B1 (en) 2006-12-26 2008-01-07 삼성전자주식회사 Apparatus and method for measuring distance using structured light
DE102007003024A1 (en) 2007-01-20 2008-07-31 Sick Ag Triangulation sensor with distance determination from light spot position and shape
CN101033971B (en) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 Mobile robot map building system and map building method thereof
WO2008113098A1 (en) 2007-03-21 2008-09-25 Commonwealth Scientific And Industrial Reserach Organisation Method for planning and executing obstacle-free paths for rotating excavation machinery
DE102007016802B3 (en) 2007-04-05 2008-05-15 Miele & Cie. Kg Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track
DE102007016913A1 (en) 2007-04-05 2008-10-09 Inmach Intelligente Maschinen Gmbh Method for running a work surface
KR101160393B1 (en) 2007-05-09 2012-06-26 아이로보트 코퍼레이션 Compact autonomous coverage robot
US20090048727A1 (en) 2007-08-17 2009-02-19 Samsung Electronics Co., Ltd. Robot cleaner and control method and medium of the same
KR20090019338A (en) 2007-08-20 2009-02-25 삼성전자주식회사 Optical sensor
KR101330734B1 (en) 2007-08-24 2013-11-20 삼성전자주식회사 Robot cleaner system having robot cleaner and docking station
DE202007014849U1 (en) 2007-10-24 2008-01-17 Pepperl + Fuchs Gmbh Optoelectronic sensor for detecting objects in a surveillance area
KR101415879B1 (en) 2008-01-04 2014-07-07 삼성전자 주식회사 Method and apparatus for docking moving robot
KR20090077547A (en) 2008-01-11 2009-07-15 삼성전자주식회사 Method and apparatus of path planning for a mobile robot
DE102008014912B4 (en) 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Automatically movable floor dust collector
JP4909930B2 (en) 2008-03-28 2012-04-04 日立アプライアンス株式会社 Self-propelled cleaning system
US8194233B2 (en) 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
CN104248395B (en) 2008-04-24 2018-06-22 艾罗伯特公司 The positioning of mobile product, position control and the application of navigation system enabled for robot
DE102008028931A1 (en) 2008-06-18 2009-12-24 BSH Bosch und Siemens Hausgeräte GmbH Robot i.e. dust collecting robot, drive movement controlling method, involves stopping drive movement of robot during determination of coordinate values based on comparison of coordinate values of virtual partial region and/or virtual wall
CN101387514B (en) 2008-08-28 2010-07-28 上海科勒电子科技有限公司 Distance detecting induction device
BRPI1006814A2 (en) * 2009-01-17 2016-04-12 Boomerang Systems Inc variable displacement positioning antennae set for enhanced guidance of automatically guided vehicles (agvs)
KR101553654B1 (en) 2009-02-13 2015-10-01 삼성전자 주식회사 Mobile robot and method for moving of mobile robot
DE102009001734A1 (en) 2009-03-23 2011-02-24 Robert Bosch Gmbh optics carrier
JP5506225B2 (en) 2009-03-30 2014-05-28 セーレン株式会社 How to recycle advertising sheets
US9037294B2 (en) 2009-06-12 2015-05-19 Samsung Electronics Co., Ltd. Robot cleaner and control method thereof
US8428776B2 (en) 2009-06-18 2013-04-23 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
KR101672787B1 (en) 2009-06-19 2016-11-17 삼성전자주식회사 Robot cleaner and docking station and robot cleaner system having the same and control method thereof
DE102009059214A1 (en) 2009-08-12 2011-02-17 Vorwerk & Co. Interholding Gmbh Automatically movable device and method for the route guidance of such a device
DE102009041362A1 (en) 2009-09-11 2011-03-24 Vorwerk & Co. Interholding Gmbh Method for operating a cleaning robot
JP6162955B2 (en) 2009-11-06 2017-07-12 アイロボット コーポレイション Method and system for completely covering a surface with an autonomous robot
DE102009052629A1 (en) 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Method for controlling a robot
KR101626984B1 (en) 2009-11-16 2016-06-02 엘지전자 주식회사 Robot cleaner and controlling method of the same
US8892251B1 (en) 2010-01-06 2014-11-18 Irobot Corporation System and method for autonomous mopping of a floor surface
DE102010000174B4 (en) 2010-01-22 2022-09-01 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Method for cleaning a room using an automatically movable cleaning device
KR101686170B1 (en) 2010-02-05 2016-12-13 삼성전자주식회사 Apparatus for planning traveling path and method thereof
DE102010000317A1 (en) 2010-02-05 2011-08-11 Vorwerk & Co. Interholding GmbH, 42275 Method for cleaning room by using automatically movable cleaning device, involves registering rectangle to be projected in room with longest possible dimensions by using algorithm
KR101649645B1 (en) 2010-02-08 2016-08-22 엘지전자 주식회사 Robot cleaner and controlling method thereof
JP2011181997A (en) 2010-02-26 2011-09-15 Brother Industries Ltd Communication device and program
DE102010000607B4 (en) 2010-03-02 2022-06-15 Vorwerk & Co. Interholding Gmbh Household vacuum cleaner that can be used as a base station for an automatically movable suction and/or sweeping device
KR20110119118A (en) 2010-04-26 2011-11-02 엘지전자 주식회사 Robot cleaner, and remote monitoring system using the same
KR101487778B1 (en) 2010-05-11 2015-01-29 삼성전자 주식회사 Sensing system and moving robot having the same
US20110295423A1 (en) * 2010-05-27 2011-12-01 Noel Wayne Anderson Condition based keep-out for machines
US8442682B2 (en) 2010-05-28 2013-05-14 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous robot charging stations and methods
DE102010017211A1 (en) 2010-06-02 2011-12-08 Vorwerk & Co. Interholding Gmbh Method for cleaning floor e.g. hard floor in household area, involves holding cleaning tool and/or cleaning agent or cleaning fluid in base station via floor cleaning device for cleaning different regions of floor, after recognizing stain
DE102010017689A1 (en) 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Automatically movable device and method for orientation of such a device
JP5560978B2 (en) 2010-07-13 2014-07-30 村田機械株式会社 Autonomous mobile
KR101483541B1 (en) 2010-07-15 2015-01-19 삼성전자주식회사 Autonomous cleaning device, maintenance station and cleaning system having them
DE102010033768A1 (en) 2010-08-09 2012-02-09 Dürr Systems GmbH Control system and control method for a robot
DE102011050357A1 (en) 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Method for controlling i.e. guiding, movable household floor cleaning device e.g. sucking robot, involves recording and processing light signal such that transmission of light signal to cleaning area is controlled
CN101945325B (en) 2010-08-13 2016-04-27 厦门雅迅网络股份有限公司 A kind of friend's cognitive method based on architecture
CN102407522B (en) 2010-09-19 2014-03-26 泰怡凯电器(苏州)有限公司 Intelligent robot system and charging butting method thereof
KR20120043865A (en) 2010-10-27 2012-05-07 주식회사 케이티 System, method and apparatus for providing robot interaction services using location information of mobile communication terminal
KR101750340B1 (en) 2010-11-03 2017-06-26 엘지전자 주식회사 Robot cleaner and controlling method of the same
KR101752190B1 (en) 2010-11-24 2017-06-30 삼성전자주식회사 Robot cleaner and method for controlling the same
WO2012099694A1 (en) 2010-12-30 2012-07-26 Irobot Corporation Coverage robot navigation
EP3026423A3 (en) 2010-12-30 2016-08-31 iRobot Corporation Debris monitoring in a dust bin
JP5746378B2 (en) 2011-02-05 2015-07-08 アップル インコーポレイテッド Method and apparatus for mobile location determination
US20120215380A1 (en) 2011-02-23 2012-08-23 Microsoft Corporation Semi-autonomous robot that supports multiple modes of navigation
US8779391B2 (en) 2011-03-03 2014-07-15 Teckni-Corp Sterilization system with ultraviolet emitter for eradicating biological contaminants
DE102011006062B4 (en) 2011-03-24 2023-05-25 RobArt GmbH Procedure for autonomous inspection of an environment or processing of ground surfaces
KR101842460B1 (en) 2011-04-12 2018-03-27 엘지전자 주식회사 Robot cleaner, and remote monitoring system and method of the same
KR101850386B1 (en) 2011-04-19 2018-04-19 엘지전자 주식회사 Robot cleaner and controlling method of the same
US9220386B2 (en) 2011-04-29 2015-12-29 Irobot Corporation Robotic vacuum
KR101760950B1 (en) 2011-05-17 2017-07-24 엘지전자 주식회사 Controlling mehtod of network system
JP5399525B2 (en) 2011-06-29 2014-01-29 シャープ株式会社 Optical distance measuring device and electronic device
DE102011051729A1 (en) 2011-07-11 2013-01-17 Alfred Kärcher Gmbh & Co. Kg Self-propelled floor cleaning device
TW201305761A (en) 2011-07-21 2013-02-01 Ememe Robot Co Ltd An autonomous robot and a positioning method thereof
US8761933B2 (en) 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
KR101366860B1 (en) 2011-09-20 2014-02-21 엘지전자 주식회사 Mobile robot and controlling method of the same
JP5348215B2 (en) 2011-09-29 2013-11-20 カシオ計算機株式会社 Information acquisition apparatus, information acquisition method, information acquisition program, and information acquisition system
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
KR101910382B1 (en) 2011-12-08 2018-10-22 엘지전자 주식회사 Automatic moving apparatus and manual operation method thereof
JP2013146302A (en) 2012-01-17 2013-08-01 Sharp Corp Self-propelled electronic device
DE102012100406A1 (en) 2012-01-19 2013-07-25 Vorwerk & Co. Interholding Gmbh Automatically movable device and method for operating such a device
US8982217B1 (en) 2012-01-31 2015-03-17 Google Inc. Determining states and modifying environments according to states
DE102012201870A1 (en) 2012-02-08 2013-08-08 RobArt GmbH Method for automatically triggering a self-localization
KR101984214B1 (en) 2012-02-09 2019-05-30 삼성전자주식회사 Apparatus and method for controlling cleaning in rototic cleaner
CN202540304U (en) * 2012-03-26 2012-11-21 天津商业大学 Conveying robot capable of tracking
US9146560B2 (en) 2012-03-30 2015-09-29 Irobot Corporation System and method for implementing force field deterrent for robot
CN102738862B (en) 2012-06-13 2014-12-03 杭州瓦瑞科技有限公司 Automatic charging system for movable robot
DE102012211071B3 (en) 2012-06-27 2013-11-21 RobArt GmbH Interaction between a mobile robot and an alarm system
DE102012105608A1 (en) 2012-06-27 2014-01-02 Miele & Cie. Kg Self-propelled cleaning device and method for operating a self-propelled cleaning device
JP5809753B2 (en) 2012-07-24 2015-11-11 シャープ株式会社 Optical distance measuring device and electronic device
US8855914B1 (en) 2012-08-31 2014-10-07 Neato Robotics, Inc. Method and apparatus for traversing corners of a floored area with a robotic surface treatment apparatus
DE102012109004A1 (en) 2012-09-24 2014-03-27 RobArt GmbH Robots and methods for autonomous inspection or processing of floor surfaces
TWI459170B (en) 2012-10-04 2014-11-01 Ind Tech Res Inst A moving control device and an automatic guided vehicle with the same
JP2015535373A (en) 2012-10-05 2015-12-10 アイロボット コーポレイション Robot management system and method for using it to determine the attitude of a docking station including a mobile robot
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US20140128093A1 (en) 2012-11-06 2014-05-08 Qualcomm Incorporated Portal transition parameters for use in mobile device positioning
TWI481980B (en) 2012-12-05 2015-04-21 Univ Nat Chiao Tung Electronic apparatus and navigation method thereof
KR101428877B1 (en) 2012-12-05 2014-08-14 엘지전자 주식회사 A robot cleaner
KR20140073854A (en) 2012-12-07 2014-06-17 주식회사 유진로봇 Obstacle detect system using psd scanner in vaccum robot
DE102012112036B4 (en) 2012-12-10 2023-06-07 Miele & Cie. Kg Self-propelled tillage implement and method for navigating a self-propelled tillage implement
DE102012112035A1 (en) 2012-12-10 2014-06-12 Miele & Cie. Kg Robot vacuum cleaner operating method, involves transferring processing date to vacuum cleaner in operation of robot vacuum cleaner as result of processing control information returns to cleaner for activation of cleaner by individual
KR102058918B1 (en) 2012-12-14 2019-12-26 삼성전자주식회사 Home monitoring method and apparatus
US9903130B2 (en) 2012-12-22 2018-02-27 Maytronics Ltd. Autonomous pool cleaning robot with an external docking station
US8880340B2 (en) 2013-01-04 2014-11-04 The Boeing Company Augmented mobile platform localization
DE102013100192A1 (en) 2013-01-10 2014-07-10 Miele & Cie. Kg Self-propelled robot and method for distance determination in a self-propelled robot
US9233472B2 (en) 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US9375847B2 (en) 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
WO2014113091A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Environmental management systems including mobile robots and methods using same
GB2509991B (en) 2013-01-22 2015-03-11 Dyson Technology Ltd Docking station for a mobile robot
GB2509990B (en) 2013-01-22 2014-12-10 Dyson Technology Ltd Docking station for a mobile robot
GB2509989B (en) 2013-01-22 2015-03-04 Dyson Technology Ltd Docking station for a mobile robot
KR101450569B1 (en) 2013-03-05 2014-10-14 엘지전자 주식회사 Robot cleaner
KR101490170B1 (en) 2013-03-05 2015-02-05 엘지전자 주식회사 Robot cleaner
KR101450537B1 (en) 2013-03-05 2014-10-14 엘지전자 주식회사 Robot cleaner
WO2014138472A2 (en) 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
JP6088858B2 (en) 2013-03-12 2017-03-01 シャープ株式会社 Self-propelled equipment
JP6424200B2 (en) * 2013-03-15 2018-11-14 エムティーディー プロダクツ インコーポレイテッド Autonomous mobile work system including variable reflection base station
JP2014197294A (en) 2013-03-29 2014-10-16 株式会社日立産機システム Position identification device and mobile robot having the same
KR102071575B1 (en) 2013-04-23 2020-01-30 삼성전자 주식회사 Moving robot, user terminal apparatus, and control method thereof
CN104117987B (en) 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 Mobile robot
DE102013104399A1 (en) 2013-04-30 2014-10-30 Vorwerk & Co. Interholding Gmbh Base station for a self-moving device
DE102013104547A1 (en) 2013-05-03 2014-11-06 Miele & Cie. Kg Self-propelled tillage implement and optical system for a self-propelled tillage implement
GB2513912B (en) 2013-05-10 2018-01-24 Dyson Technology Ltd Apparatus for guiding an autonomous vehicle towards a docking station
CN104161487B (en) 2013-05-17 2018-09-04 恩斯迈电子(深圳)有限公司 Mobile device
KR20140145648A (en) 2013-06-13 2014-12-24 삼성전자주식회사 Cleaning robot and method for controlling the same
KR102124509B1 (en) * 2013-06-13 2020-06-19 삼성전자주식회사 Cleaning robot and method for controlling the same
KR101534005B1 (en) 2013-07-16 2015-07-06 주식회사 유진로봇 System for cleaning user defined area using cleaning robot and method thereof
EP3030943B1 (en) 2013-08-06 2020-10-07 Robart GmbH Method for operating a floor-cleaning device and floor-cleaning device
JP5897517B2 (en) 2013-08-21 2016-03-30 シャープ株式会社 Autonomous mobile
CN104460663A (en) 2013-09-23 2015-03-25 科沃斯机器人科技(苏州)有限公司 Method for controlling cleaning robot through smart phone
EP2863177A1 (en) 2013-10-18 2015-04-22 AEVO GmbH Method of calculation a path for use in a vehicle
US20150115138A1 (en) 2013-10-25 2015-04-30 Avago Technologies General Ip (Singapore) Pte. Ltd. Sensing Device With A Shield
KR102152641B1 (en) 2013-10-31 2020-09-08 엘지전자 주식회사 Mobile robot
KR102095817B1 (en) 2013-10-31 2020-04-01 엘지전자 주식회사 Mobile robot, charging apparatus for the mobile robot, and mobile robot system
EP2870852A1 (en) 2013-11-11 2015-05-13 Honda Research Institute Europe GmbH Lawn mower with network communication
EP3069203B1 (en) 2013-11-12 2020-07-01 Husqvarna AB Improved navigation for a robotic working tool
CN103699123B (en) 2013-12-02 2016-05-25 北京工业大学 A kind of robot navigation method based on three electromagnetic sensors
WO2015082017A1 (en) 2013-12-06 2015-06-11 Alfred Kärcher Gmbh & Co. Kg Cleaning system
EP3084540B1 (en) 2013-12-19 2021-04-14 Aktiebolaget Electrolux Robotic cleaning device and operating method
KR102118049B1 (en) 2013-12-19 2020-06-09 엘지전자 주식회사 robot cleaner, robot cleaner system and a control method of the same
KR102116596B1 (en) 2013-12-19 2020-05-28 에이비 엘렉트로룩스 Robotic vacuum cleaner with side brush moving in spiral pattern
CN203672362U (en) 2013-12-31 2014-06-25 科沃斯机器人科技(苏州)有限公司 Laser distance measurement device and self-moving robot with same
KR102118051B1 (en) 2014-01-17 2020-06-02 엘지전자 주식회사 robot cleaning system and charge method of the same
KR102158695B1 (en) 2014-02-12 2020-10-23 엘지전자 주식회사 robot cleaner and a control method of the same
KR102072387B1 (en) 2014-03-20 2020-02-03 삼성전자주식회사 Robot cleaner and method for controlling the same
DE102014012811B4 (en) 2014-03-27 2017-09-21 Miele & Cie. Kg Floor cleaning apparatus and method and system for determining a floor plan by a self-propelled floor cleaning device
CN104972462B (en) 2014-04-14 2017-04-19 科沃斯机器人股份有限公司 Obstacle avoidance walking method of self-moving robot
KR101578864B1 (en) 2014-04-25 2015-12-29 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR101578884B1 (en) 2014-04-25 2015-12-29 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR101578861B1 (en) 2014-04-25 2015-12-21 에브리봇 주식회사 Distance sensor, robot cleaner and control method thereof
KR101578878B1 (en) 2014-05-07 2015-12-21 에브리봇 주식회사 Distance sensor device, robot cleaner and control method thereof
JP5676039B1 (en) 2014-05-28 2015-02-25 シャープ株式会社 Self-propelled device, control method for self-propelled device, and control program for self-propelled device
CN105334847B (en) 2014-06-26 2021-07-27 科沃斯机器人股份有限公司 Self-moving robot
DE102014110104B4 (en) 2014-07-18 2016-12-15 eyeworkers interactive GmbH System for controlling mobile mobile units
DE102014110265A1 (en) 2014-07-22 2016-01-28 Vorwerk & Co. Interholding Gmbh Method for cleaning or processing a room by means of a self-moving device
US10211191B2 (en) 2014-08-06 2019-02-19 Pixart Imaging Inc. Image module package with transparent sub-assembly
CN106575121B (en) 2014-08-06 2020-04-03 阿尔弗雷德·卡赫欧洲两合公司 Method for treating ground surface and ground treatment device
DE102014111217A1 (en) 2014-08-06 2016-02-11 Vorwerk & Co. Interholding Gmbh Floor cleaning device for dry and damp cleaning and method for operating a self-propelled floor cleaning device
KR102306709B1 (en) 2014-08-19 2021-09-29 삼성전자주식회사 Robot cleaner, control apparatus, control system, and control method of robot cleaner
WO2016028021A1 (en) 2014-08-20 2016-02-25 삼성전자주식회사 Cleaning robot and control method therefor
KR102527645B1 (en) 2014-08-20 2023-05-03 삼성전자주식회사 Cleaning robot and controlling method thereof
JP5819498B1 (en) 2014-08-27 2015-11-24 シャープ株式会社 Autonomous mobile body and autonomous mobile body system
JP6325946B2 (en) 2014-08-27 2018-05-16 東芝ライフスタイル株式会社 Autonomous vehicle
DE102014113040A1 (en) 2014-09-10 2016-03-10 Miele & Cie. Kg Method for operating a household appliance system
KR102431994B1 (en) 2014-09-24 2022-08-16 삼성전자주식회사 Cleaning robot and controlling method thereof
WO2016048077A1 (en) 2014-09-24 2016-03-31 삼성전자주식회사 Cleaning robot and method for controlling cleaning robot
CN105527961A (en) 2014-09-30 2016-04-27 科沃斯机器人有限公司 Self-propelled surface-traveling robot system and method for returning to primary charging base
US9798328B2 (en) 2014-10-10 2017-10-24 Irobot Corporation Mobile robot area cleaning
CN104765362B (en) 2014-11-07 2017-09-29 深圳市银星智能科技股份有限公司 A kind of local cleaning modes of clean robot
WO2016077703A1 (en) 2014-11-13 2016-05-19 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
US9788698B2 (en) 2014-12-10 2017-10-17 Irobot Corporation Debris evacuation for cleaning robots
US10444756B2 (en) 2014-12-11 2019-10-15 Husqvarna Ab Navigation for a robotic working tool
US9420741B2 (en) 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
DE102014226084A1 (en) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Method for mapping a working surface for autonomous robotic vehicles
EP3234713B1 (en) 2014-12-16 2022-06-15 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
TWI533101B (en) * 2015-01-23 2016-05-11 cheng-xiang Yan System and Method of Restricting Robot Action
KR101640706B1 (en) 2015-01-28 2016-07-18 엘지전자 주식회사 Vacuum cleaner
KR102404258B1 (en) 2015-02-06 2022-06-02 삼성전자주식회사 Apparatus for returning of robot and returning method thereof
CN104634601B (en) 2015-02-09 2017-07-25 杭州市质量技术监督检测院 The detection means and method of clean robot clean-up performance
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
DE102015006014A1 (en) * 2015-05-13 2016-11-17 Universität Bielefeld Soil cultivation device and method for its navigation and swarm of tillage equipment and methods for their joint navigation
CN105045098B (en) 2015-05-29 2017-11-21 希美埃(芜湖)机器人技术有限公司 A kind of control method of Control During Paint Spraying by Robot track automatic creation system
US9919425B2 (en) 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
EP3156873B2 (en) 2015-10-15 2023-04-05 Honda Research Institute Europe GmbH Autonomous vehicle with improved simultaneous localization and mapping function
DE102015119501A1 (en) 2015-11-11 2017-05-11 RobArt GmbH Subdivision of maps for robot navigation
CN105425801B (en) 2015-12-10 2018-06-12 长安大学 Intelligent cleaning robot and its clean method based on advanced Path Planning Technique
CN105990876B (en) 2015-12-21 2019-03-01 小米科技有限责任公司 Charging pile, identification method and device thereof and automatic cleaning equipment
KR20170077756A (en) * 2015-12-28 2017-07-06 삼성전자주식회사 Cleaning robot and controlling method thereof
CN105467398B (en) 2015-12-31 2018-08-21 上海思岚科技有限公司 Scan distance-measuring equipment
CN105527619B (en) 2016-02-05 2018-07-17 上海思岚科技有限公司 A kind of Laser Distance Measuring Equipment
DE102016102644A1 (en) 2016-02-15 2017-08-17 RobArt GmbH Method for controlling an autonomous mobile robot
US10845817B1 (en) * 2016-08-11 2020-11-24 Ali Ebrahimi Afrouzi System and method for confining robotic devices
EP3957447A1 (en) * 2016-09-14 2022-02-23 iRobot Corporation Systems and methods for configurable operation of a robot based on area classification
CN106527424B (en) 2016-09-20 2023-06-09 深圳银星智能集团股份有限公司 Mobile robot and navigation method for mobile robot
US11246292B2 (en) * 2019-05-30 2022-02-15 Infinity Collar Llc System for providing a dynamic portable virtual boundary

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069475A (en) * 2001-08-27 2003-03-07 Yaskawa Electric Corp Drive assisting device for unattended truck
JP2005124753A (en) * 2003-10-22 2005-05-19 Sharp Corp Self-propelling type vacuum cleaner
JP2005304553A (en) * 2004-04-16 2005-11-04 Funai Electric Co Ltd Cleaner
JP2008140159A (en) * 2006-12-01 2008-06-19 Matsushita Electric Works Ltd Autonomous moving unit
JP2009123045A (en) * 2007-11-16 2009-06-04 Toyota Motor Corp Traveling robot and method for displaying dangerous range of traveling robot
JP2009301247A (en) * 2008-06-12 2009-12-24 Hitachi Appliances Inc Virtual wall system for autonomous moving robot
JP2010066932A (en) * 2008-09-09 2010-03-25 Murata Machinery Ltd Route planning unit and autonomous mobile device
WO2011074165A1 (en) * 2009-12-17 2011-06-23 村田機械株式会社 Autonomous mobile device
JP2011175393A (en) * 2010-02-24 2011-09-08 Toyota Motor Corp Route planning apparatus, autonomous mobile robot, and method for planning movement path
JP2016087106A (en) * 2014-11-05 2016-05-23 シャープ株式会社 Cleaning support device and cleaner
JP2016186748A (en) * 2015-03-27 2016-10-27 本田技研工業株式会社 Controller for unmanned work vehicle
JP2016192040A (en) * 2015-03-31 2016-11-10 株式会社日本総合研究所 Self-propelled traveling device, management device, and walking obstacle place determination system
JP2016201095A (en) * 2015-04-09 2016-12-01 アイロボット コーポレイション Restricting movement of mobile robot
US20160335497A1 (en) * 2015-05-11 2016-11-17 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054647A1 (en) * 2020-09-08 2022-03-17 村田機械株式会社 Traveling region determination method and autonomous traveling body
WO2022114847A1 (en) * 2020-11-27 2022-06-02 삼성전자주식회사 Electronic device and control method therefor
WO2023287105A1 (en) * 2021-07-14 2023-01-19 엘지전자 주식회사 Mobile robot
WO2023043117A1 (en) * 2021-09-17 2023-03-23 네이버랩스 주식회사 Robot-friendly building, and method and system for controlling robot traveling in building
WO2023089886A1 (en) * 2021-11-18 2023-05-25 パナソニックIpマネジメント株式会社 Traveling map creating device, autonomous robot, method for creating traveling map, and program
KR102529661B1 (en) * 2021-11-29 2023-05-08 주식회사 와이즈오토모티브 Driving environment construction apparatus and method
WO2023157345A1 (en) * 2022-02-21 2023-08-24 パナソニックIpマネジメント株式会社 Traveling map creation device, autonomous robot, method for creating traveling map, and program
WO2023171685A1 (en) * 2022-03-07 2023-09-14 U-Star合同会社 Transaction management method and transaction management system
JP7345228B1 (en) 2022-03-07 2023-09-15 U-Star合同会社 Transaction management method and transaction management system

Also Published As

Publication number Publication date
EP3590014B1 (en) 2021-11-17
US11709489B2 (en) 2023-07-25
US20230409032A1 (en) 2023-12-21
US20200150655A1 (en) 2020-05-14
WO2018158248A3 (en) 2018-12-13
WO2018158248A2 (en) 2018-09-07
EP3974934A1 (en) 2022-03-30
EP3590014A2 (en) 2020-01-08
CN110709790A (en) 2020-01-17

Similar Documents

Publication Publication Date Title
US20230409032A1 (en) Method for controlling an autonomous, mobile robot
EP3785093B1 (en) Robot contextualization of map regions
US11262200B2 (en) Boolean satisfiability (SAT) reduction for geometry and kinematics agnostic multi-agent planning
US11373395B2 (en) Methods and systems for simultaneous localization and calibration
JP2021535485A (en) Searching for areas where robots are used by autonomous mobile robots
CN109998421B (en) Mobile cleaning robot assembly and durable mapping
EP3460614B1 (en) Combined robot and cruising path generation method therefor
CN111433697A (en) Motion planning for autonomous mobile robots
KR102478975B1 (en) Robot navigation using 2d and 3d path planning
JP2019525342A (en) How to control an autonomous mobile robot
US9323250B2 (en) Time-dependent navigation of telepresence robots
CN111149072A (en) Magnetometer for robot navigation
JP6636260B2 (en) Travel route teaching system and travel route teaching method for autonomous mobile object
US20200397202A1 (en) Floor treatment by means of an autonomous mobile robot
JP2019534516A (en) How to operate an autonomous mobile robot
CN112352207A (en) Autonomous mobile robot and control method thereof
RU139571U1 (en) DEVICE FOR ORIENTATION AND NAVIGATION OF A MOBILE ROBOT TROLLEY WHEN MOVING IT ON A HORIZONTAL SURFACE IN A SPECIFIED ROOM
TWI808480B (en) Moving robot, moving robot system and method of performing collaborative driving in moving robot system
TWI789896B (en) Moving robot system and method of performing collaborative driving of moving robots
TWI804973B (en) Moving robot, moving robot system that drives in a zone to be cleaned and method of performing collaborative driving thereof
KR102408327B1 (en) AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales
TWI803965B (en) Moving robot, moving robot system and method of performing collaborative driving thereof
US20230371769A1 (en) Moving robot system
TWI837507B (en) Moving robot system
WO2023276187A1 (en) Travel map creation device, travel map creation method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230314