JP2020509500A - 自律移動ロボットの制御方法 - Google Patents

自律移動ロボットの制御方法 Download PDF

Info

Publication number
JP2020509500A
JP2020509500A JP2019547460A JP2019547460A JP2020509500A JP 2020509500 A JP2020509500 A JP 2020509500A JP 2019547460 A JP2019547460 A JP 2019547460A JP 2019547460 A JP2019547460 A JP 2019547460A JP 2020509500 A JP2020509500 A JP 2020509500A
Authority
JP
Japan
Prior art keywords
robot
area
virtual
map
blocking area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019547460A
Other languages
English (en)
Other versions
JP2020509500A5 (ja
Inventor
ハロルド アルテス
ハロルド アルテス
デイヴィッド コンティ
デイヴィッド コンティ
クレストフ フレウーデンタラー
クレストフ フレウーデンタラー
ドミニク シーサラー
ドミニク シーサラー
ラインハルド ボーゲル
ラインハルド ボーゲル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robart GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102017104427.2A external-priority patent/DE102017104427A1/de
Priority claimed from DE102017104428.0A external-priority patent/DE102017104428A1/de
Application filed by Robart GmbH filed Critical Robart GmbH
Publication of JP2020509500A publication Critical patent/JP2020509500A/ja
Publication of JP2020509500A5 publication Critical patent/JP2020509500A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】自律移動ロボットの動作、特に遮断領域の操作を簡単かつ堅牢にすること。【解決手段】センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記センサから取得した測定データに基づいて障害物を検出し、検出された障害物の位置を決定するステップと、前記検出された障害物との衝突を避けるように前記ロボットを制御するステップと、を有し、前記地図は、少なくとも1つの仮想遮断領域が示された地図データを含み、前記少なくとも1つの仮想遮断領域は、ロボットを制御する際に、実際に検出された障害物を同じように考慮されることを特徴とする方法。【選択図】図2

Description

本明細書は、自律移動ロボットの分野、特に自律移動サービスロボットの安全な動作に関する。
近年、自律移動ロボット、特にサービスロボットは、ますます個人の家庭で使用されている。可能な応用には、例えば、床面を掃除および/または拭く掃除ロボット、又はパトロール中に侵入者や火災などの潜在的な危険を検出する監視ロボットが含まれる。
ユーザが必要とする要件は、例えばロボットが、使用される領域のすべての重要な点に到達し、その仕事を行うことにある。特定のアプリケーションによっては、ロボットの個々の領域を遮断することが有利な場合がある。多くの小物がロボットの動きを妨げたり、ロボットによって損傷したりする可能性があるため、例えば、ロボットが子供の遊び場を避けることが望ましい場合がある。
米国特許出願公開公報 US 2014316636 欧州特許出願公開公報 EP 3079030 ドイツ特許出願公開公報 DE 102015006014
既知の解決策により、ユーザは、ロボットの使用領域にマークを付けることができる。ロボットはそれをセンサで検出でき、マークはロボットに遮断領域を示す。一つの例は、赤外線信号を発する一種の「灯台」である。ただし、この解決法は独自の電源(たとえば、バッテリ)に依存しているため、信頼性が制限される場合がある。さらに、赤外線信号は正確に位置合わせする必要があり、範囲が制限される。別の例としては、ロボットが検出できる磁気テープがある。磁気テープは、床面に置いたり接着したりする。ロボットが磁気テープを認識した場合、その上を走行しない。これらの解決法はすべて、ユーザの生活空間の設計の自由を制限し、非常に柔軟性に欠けるという欠点がある。
後続の使用の際に使用するために使用領域の地図を保存および管理する自律移動ロボットの場合、仮想の遮断領域を地図に直接記録できる。これらは、たとえば、ロボットが通過してはならない仮想境界にすることができる。この純粋に仮想の遮断領域の利点は、ロボットの周囲に追加のマーキングを必要としないことである。ただし、ユーザのエラー、またはロボットの測定および走行エラーにより、ユーザが実際にロボットを遮断することを意図した領域に、ロボットが存在し、意図しない損傷を引き起こす可能性がある。さらに、仮想遮断領域の入力はできるだけシンプルである必要があるが、わかりやすいものでなければならない。
本発明の根底にある目的は、自律移動ロボットの動作、特に遮断領域の操作を簡単かつ堅牢にすることである。
上記の目的は、請求項1、6、18、24、30、34、37および58に記載の方法、請求項66に記載の自律移動ロボット、および請求項27および61に記載のシステムによって達成される。様々な実施形態およびさらなる発展が従属請求項の主題である。
センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法が記載される。実施形態によれば、この方法は、前記センサから取得した測定データに基づいて障害物を検出し、検出された障害物の位置を決定するステップと、前記検出された障害物との衝突を避けるように前記ロボットを制御するステップと、を有し、前記地図は、少なくとも1つの仮想遮断領域が示された地図データを含み、前記少なくとも1つの仮想遮断領域は、ロボットを制御する際に、実際に検出された障害物を同じように考慮されることを特徴としている。
さらに、自律移動ロボットを制御する方法が記載され、このロボットは、センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成され、前記地図は、少なくとも1つの仮想境界線を有し、前記少なくとも1つの仮想境界は、前記少なくとも1つの仮想境界の第1の側と第2の側を区別できるような方向を有し、前記ロボットのナビゲートの際に前記境界線の前記第1の側から来る第1の方向における前記境界線の横切りは回避される一方、前記ロボットのナビゲートの際に前記境界線の前記第2の側から来る第2の方向における前記境界線の横切りは許可される。
さらに、自律移動ロボットの制御の方法が記載され、自律移動ロボットは、センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成され、前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図は、少なくとも1つの仮想遮断領域を含み得る。一実施形態の方法は、事前定義可能な基準に基づいて、遮断領域がアクティブであるか非アクティブであるかを検査するステップを、有し、前記ロボットはアクティブな遮断領域のみを考慮し、その結果、前記アクティブな遮断領域を走行しない。
一実施形態によれば前記方法は、通信接続を介して別のロボットから仮想遮断領域を表すデータを受信するステップと、受信したデータに基づいて、前記ロボットの地図に仮想遮断領域を保存するステップと、を有する。
さらに、自律移動ロボットと外部デバイスとを有するシステムが記載される。前記ロボットは、地図データに基づいて自身の環境を自動的にナビゲートし、前記ロボットが自動的には自身を解放できない状況を検出し、この検出に応じて前記ロボットの状態を設定するように構成されている。前記外部デバイスは、少なくとも1つの通信接続を介して前記ロボットに問い合わせを送信して、前記ロボットの状態を照会するように構成されている。前記ロボットは、さらに、前記外部デバイスからの問い合わせの受信時の前記ロボットの状態が、前記ロボットが自動的に自身を解放できない状況を示す場合、所定の時間、光学及び/又は音響信号を発するように構成されている。
さらに、センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法が記載される。前記ロボットは、地図内の自身の位置を定期的に決定し、前記地図は、少なくとも3つの異なる分類領域を含むことが可能である。一例では、この方法は、前記センサを用いて前記ロボットにより自身の位置を決定するステップと、前記ロボットが前記少なくとも3つの異なる分類領域のいずれかにあることを検査するステップと、を有し、前記ロボットが前記少なくとも3つの異なる分類領域の第1の領域にある場合、自動的にナビゲートしてタスクを実行し、前記ロボットが前記少なくとも3つの異なる分類領域の第2の領域にある場合、自動的にナビゲートしてタスクを実行せず、前記少なくとも3つの異なる分類領域の第3の領域は、前記ロボットが自動的に走行しない仮想遮断領域である。
少なくとも2つの自律移動ロボット間で情報を交換する方法が記載され、前記少なくとも2つのロボットのそれぞれは、センサと電子地図を使用してロボット使用領域を自律的にナビゲートし、地図を自動的に作成および更新するように構成されている。ロボットはそれぞれ、少なくとも1つの他のロボットに情報を送信できる通信モジュールを備えておいる。一実施形態によれば、この方法は、第1のロボットの第1の地図の座標を第2のロボットの第2の地図の座標への変換操作を自動的に決定するステップと、前記第1のロボットから前記第2のロボットに位置関連情報を送信するステップと、前記変換操作を使用して、前記第1の地図の座標の位置関連情報の座標を前記第2の地図の座標に変換するステップと、を有する。さらなる実施形態は、ここに記載の方法を実行するために構成されたロボットに関する。
自律移動ロボットのロボット使用領域を表す電子地図に仮想遮断領域を入力する方法が記載される。一実施形態では、この方法は、前記仮想遮断領域を定義するためにヒューマンマシンインターフェイスからのユーザ入力を受け入れるステップと、前記ユーザ入力を評価するステップであって、前記ユーザ入力が少なくとも1つの事前定義された基準を満たしているかどうかが検査されるステップと、前記ユーザ入力の評価に基づいて、前記仮想遮断領域を前記地図に保存するかどうか、および/またはどの幾何学的形式で保存するかを決定するステップと、を有する。
センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法が記載される。前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図は、前記ロボットが走行しない、少なくとも1つの仮想遮断領域を含み得る。一実施形態によれば、この方法は、前記ロボットの機能が危険にさらされているか制限されている前記ロボット使用領域をナビゲートする際に危険領域を検出するステップと、検出された危険領域を取り囲む遮断領域を自動的に定義するステップと、前記遮断領域を前記地図に保存するステップと、を有する。さらなる実施形態は、ここに記載の方法を実行するために構成されたロボットに関する。
地図データに基づいてロボット使用領域を自動的にナビゲートするように構成された自律移動ロボットと、前記ロボット使用領域内の床面または物体に情報を投影するように構成されたプロジェクタと、を有するシステムが記載される。前記システムは、前記地図データから位置関連情報を関連位置とともに抽出し、前記位置関連情報を前記プロジェクタによって前記床面または前記床面にある物体の対応する位置に投影するように構成されている。
最後に、自律移動ロボットが記載される。一実施形態では、前記ロボットは、地図データに基づいてロボット使用領域を自動的にナビゲートし、ヒューマンマシンインターフェイスを介してユーザから位置関連情報を受信し、これに基づいてロボット経路を決定し、これに沿って移動するように構成されている。前記ロボットが前記ロボット経路を移動中または移動した後、ユーザから入力された前記位置関連情報は破棄されるか、有効と認められて前記地図データと共に永続的に保存される。
自律移動ロボットの動作、特に遮断領域の操作が簡単かつ堅牢になる。
ネットワーク接続を介して通信できる自律移動ロボット、ヒューマンマシンインターフェイスおよびサーバを備えたシステムを示す図である。 自律移動ロボットの構造および他の(外部)デバイスとの通信可能性を示すブロック図である。 ヒューマンマシンインターフェイス上に表示される地図によって仮想遮断領域を定義する際に位置関連情報を入力するためのいくつかの可能性を概略的に示す図である。 ロボットによって最大寸法を容易に検出することができない障害物の周囲の仮想遮断領域を示す図である。 仮想遮断領域などの位置関連情報を床面に投影することにより表現する例を示す図である。 仮想境界線を使用して階段または障害物などの危険箇所を保護する例を示す図である。 例えば、仮想遮断領域などの位置関連情報が交換される、2つのロボットの情報交換の例を示した図である。 仮想遮断区域から外へ向かうように自律移動ロボットがナビゲートする異なるアプローチを視覚化した図である。
本発明は、図に示される例を参照してより詳細に説明される。図は必ずしも縮尺通りではなく、本発明は提示された態様に限定されない。むしろ、本発明の根底にある原理を表すことに重点が置かれている。
サービスロボットとして自律移動ロボットは、ロボットの使用領域の清掃や監視、ロボット使用領域内(アパートなど)の物の輸送などの1つ以上のタスクを自動的に実行する。本明細書で説明する実施形態は、清掃ロボットに関する。ただし、本発明は、清掃ロボットに限定されるものではなく、自律移動ロボットが、定義された使用領域でタスクを実行し、地図で自動的に移動(またはナビゲート)できるアプリケーションに適用できる。
図1Aは、自律移動ロボット100がワイヤレスネットワーク(WLAN)であるホームネットワークへ組み入れられた例を示している。本実施形態では、WLANアクセスポイント501により、ロボット100は、インターネット500に到達可能な外部コンピュータ502(例えば、クラウドサーバ)と同様に、ヒューマンマシンインターフェイス(HMI)200と通信することができる。図1Bは、例として、図1Aの自律移動ロボット100の様々なユニット(モジュール)のブロック図を示す。この場合、ユニットは独立したモジュールでも、ロボットを制御するソフトウェアの一部でもよい。ロボット100の挙動を担当するソフトウェア(制御ソフトウェアモジュール151およびナビゲーションモジュール152を含む、図1B参照)は、ロボット100の制御ユニット150上で(対応するプロセッサ155およびメモリ156により)実行され得る。制御ユニット150は、外部コンピュータの助けを借りて、少なくとも部分的にいくつかの動作を実行することができる。すなわち、制御ユニット150が必要とする計算能力は、例えばホームネットワークまたはインターネット(クラウド)を介して到達可能な外部コンピュータに少なくとも部分的に外部委託することができる。
ロボットは本質的に自律的に動作する。例えば、ユーザとの多数の対話なしで作業を可能にするために、ロボットは、タスクの完了後に自動的に戻る基地局110を持っている。これで、例えば、ロボットは、バッテリを充電したり、(掃除ロボットの場合に)集めた汚れを処分したりできる。
自律移動ロボット100は、例えば電動機、変速機および車輪を有する駆動ユニット170を含み、それによりロボット100は、少なくとも理論的には、その使用領域の各点を目指すことができる。駆動ユニット170は、例えば、制御ユニットから受信したコマンドまたは信号をロボット100の動きに変換するように設計することができる。
自律移動ロボット100は、ヒューマンマシンインターフェイス(HMI)200および/または他の外部デバイス300への通信接続145を確立するための通信ユニット140を含む。通信接続は、例えば、直接無線接続(例えば、ブルートゥース(登録商標))、ローカル無線ネットワーク接続(例えば、WLANまたはZigBee)、またはインターネット接続(例えば、クラウドサービスへ)であってもよい。ヒューマンマシンインターフェイス200は、自律移動ロボット100に関する情報(例えば、バッテリの状態、現在の作業指示、地図データ(すなわち、地図に格納された情報、したがって位置関連情報)、例えば清掃地図など)およびユーザコマンドを表示することができ、自律移動ロボット100の作業指示を受け付けることができる。
ヒューマンマシンインターフェイス200の例は、タブレットPC、スマートフォン、スマートウォッチ、コンピュータ又はスマートテレビである。ヒューマンマシンインターフェイス200は、ロボットに直接統合することもでき、それにより、例えば、キーを叩くこと、ジェスチャ、および/または音声入出力を介してロボットを操作することができる。外部デバイス300の例は、計算および/またはデータが委託されるコンピュータおよびサーバ、追加情報を提供する外部センサ、または、自律移動ロボット100と協力し、又は情報を交換する他の家電(例えば、他の自律移動ロボット100B)である。
自律移動ロボット100は、床面を洗浄するための洗浄ユニット(例えば、ブラシ、吸引装置)または物体を把持および輸送するための把持アームなどの作業ユニット160を有してもよい。テレプレゼンスロボットや監視ロボットなど、場合によっては、別のユニットを使用して目的のタスクを実行し、作業ユニット160は不要である。したがって、テレプレゼンスロボットは、互いに遠く離れた複数の人の間の通信を可能にするために、例えば、マイク、カメラ、およびスクリーンからなるマルチメディアユニットを備え、ヒューマンマシンインターフェイス200に結合された通信ユニット140を有する。監視ロボットでは、異常なイベント(例:火災、照明、不正な人など)がセンサを使用して監視走行で検出され、この情報が、たとえば、ユーザまたは制御ポイントに通知される。
自律移動ロボット100は、様々なセンサ、例えば、ロボット使用領域内の障害物の位置またはその他のナビゲーション特徴(例えばランドマーク)などのロボットの環境(環境)についての情報を取得するための1つ以上のセンサなどのセンサユニット120を備える。環境に関する情報を取得するためのセンサは、たとえば、放射信号の三角測量または通過時間測定によって距離を測定する光学および/または音響センサなど、ロボットの環境内の物体(たとえば、壁、障害物など)までの距離を測定するアクティブセンサ(三角測量センサ、3Dカメラ、レーザースキャナ、超音波センサ)である。適切なセンサの他の典型的な例は、カメラなどの受動センサ、障害物検出用の触覚センサ、地上距離センサ(たとえば、立ち下がりエッジ、階段の段差の検出など)、走行距離計などの速度および/または進んだ距離を決定するセンサ、ロボットの位置と動きの変化を決定する慣性センサ(加速度センサ、ヨーレートセンサ)、車輪と地面の接触を検出する車輪接触スイッチである。
前述の制御ユニット150は、自律移動ロボット100がその使用領域で自律的に移動し、タスクを達成するのに必要なすべての機能を提供するように構成されてもよい。 この目的のために、制御ユニット150は、ロボット100の制御ソフトウェア(図1B、制御ソフトウェアモジュール151を参照)を実行するために、例えばプロセッサ155およびメモリ156を含む。制御ユニット150は、センサユニット120および通信ユニット140から供給された情報に基づいて、作業ユニット160および駆動ユニット170に対する制御コマンドまたは制御信号を生成する。駆動ユニットは、これらの制御信号または制御コマンドをロボットの動きに変換できる。制御ソフトウェアモジュール151は、物体認識および作業スケジューリングのためのソフトウェア機能を含み得る。ロボットが自律的にタスクを実行できるように、ナビゲーションモジュール152が別のソフトウェアモジュールとして提供される。ナビゲーションモジュール152は、ロボットのナビゲーション(例えば、地図管理、地図ベースの経路計画、地図内のロボットの自己位置特定、SLAMアルゴリズムなど)のためのソフトウェア機能を含み得る。もちろん、制御ソフトウェアモジュール151およびナビゲーションモジュールは、相互作用し、情報を共有し、共同作業することができる。これにより、ロボットは、たとえばランドマークなどのナビゲーション特徴を使用して、環境内で方向を決めてナビゲートできる。ナビゲーションモジュール152は、例えば、障害物回避戦略(障害物回避アルゴリズム)、同時位置特定およびマッピング(SLAM)アルゴリズム、および/またはロボット使用領域の1つ以上の地図とともに動作する。特に、障害物はセンサ測定により検出され、その位置が決定される。障害物の位置は、地図データの形式で保存できる。これらの方法自体は既知であるため、ここでは説明を省略する。
ロボット使用領域の地図は、使用中にロボットによって、または使用の開始時に既存の地図を使用して再作成できる。既存の地図は、偵察走行などの以前の使用中にロボット自体によって作成されたものでも、別のロボットおよび/または人間によって提供されたものでもよく、たとえば不揮発性メモリ156に永続的に保存される。あるいは、永続的に保存されるロボット領域の地図は、ロボットの外部、たとえばロボットのユーザの家庭内のコンピュータ(タブレットPC、ホームサーバなど)またはインターネット経由でアクセス可能なコンピュータ(たとえば、クラウドサーバ)に保存され得る。図1の例では、地図はナビゲーションモジュール152に含まれている。ロボットが使用する地図は通常、電子地図であり、電子地図には通常、位置関連情報を表す地図データのコレクションが含まれている。したがって、地図は地図データとともに複数のデータレコードを表し、地図データには、線や他の幾何学的物体(領域要素など)などの位置関連情報を含めることができる。これらの線は、例えば 障害物の輪郭(ロボットによって検出された)を表す。ただし、地図データには、幾何学的物体とロボット使用領域内の位置だけでなく、地図に入力された物体の意味とその属性に関する情報も含まれる。たとえば、1つ以上の属性(プロパティ)を地図に入力された物体に割り当てることができる。したがって、地図の特定の(部分的な)エリアには、「未掃除」または「掃除済み」および/または「カーペット」または「寄木張り」および/または「障害物によってブロックされた」などの属性を割り当てることができる。他の属性は、例えば(分割)エリアを「キッチン」として分類すること、領域を掃除すべき時間間隔を割り当てることが含まれ得る。
一般に、ロボット100によって使用可能な電子地図は、ロボットの使用領域およびこの使用領域におけるロボットに関連する環境に関する位置関連情報を格納するための地図データのコレクションである。地図に保存できる位置関連情報の1つのタイプは、ロボット使用領域内の物体の位置に関する情報である。そのような物体は、たとえば 壁、ドア、家具、ロボットが(少なくとも理論的には)衝突する可能性のあるその他の可動および不動の物体である。また、ロボット基地局110は、地図に記録された物体であり得る。物体(障害物)の位置は通常、座標によって定義される。別のタイプの地図データは、例えば、どのエリア部分が処理、特に掃除されたか、またはその動作中にロボットがどの位置(ロボットエリア内)に接近したかなど、ロボット100のタスクの実行に関する位置関連情報である。別のタイプの位置関連情報は、ロボット使用領域を複数の空間やサブ領域に分割することである。この分割は、ロボット100により自動的に、またはユーザの助けを借りて実行され得る。ユーザは、手動で分割を行うか、自動的に実行された分割を手動で修正できる。また、空間の名称(例:「部屋1」、「部屋2」、「廊下」、「キッチン」、「リビングルーム」、「ベッドルーム」など)を地図データに含めることができる。家の異なる階などの様々なロボット使用領域を、異なる地図に格納できる。
さらに、ナビゲーションモジュール152は、仮想遮断領域Sを地図内にマークできるように構成され、ロボットは、ナビゲーション中にロボットが、この領域を自動的に走行および/または通過しない。これは、例えば、仮想遮断領域Sとしてマークされた領域が、ロボット制御ユニット150によって、まるで遮断領域Sがロボット100の使用領域における障害物であるかのように扱われる場合に起こる。したがって、遮断領域Sがロボット100によって走行されることを防止するために、ロボット100の制御ユニット150は、障害物回避アルゴリズムとも呼ばれる障害物回避戦略を利用することができ、これは、検出された障害物の位置に基づいて、これらの障害物との衝突が回避されるようにロボットを制御するように構成される。地図データと共に格納された仮想遮断領域Sに基づいて、1つまたは複数の遮断領域の位置を決定することができる。これらの位置は、実際の障害物がこの位置に立っているかのように障害物回避戦略で使用され得る。これにより、ロボット100が仮想遮断領域Sを自動的に走行および/または通過しないように扱われる。これを次の例で説明する。
例1:自律移動ロボットを御する簡単な方法では、ロボットは測定された距離や障害物との相対位置に直接応答する。たとえば、ロボットは障害物の前1cmになるまでまっすぐに走行し、その後方向を変える。自律移動ロボットを制御するこれらの方法を仮想遮断領域に適用するために、地図内のロボットの位置が決定され、地図内の遮断領域の位置に基づいて、(仮想遮断領域への)距離および/または相対位置が決定される。これは適切な時間間隔で繰り返される。
例2:自律移動ロボットを制御する別の方法では、ロボットは障害物の位置を、たとえば距離測定によって決定し、その位置及び、例えば、地図内の障害物の輪郭を地図に入力する。地図に基づいて、障害物の周囲を走行し、衝突が回避されるようにロボットの経路計画が行われる。自律移動ロボットを制御するこれらの方法を仮想遮断領域に適用するために、地図内の遮断領域の位置は、少なくとも経路計画中には障害物の位置として扱われる。
例3:自律移動ロボットを制御する別の方法では、地図に基づいて作業スケジューリングが実行される。例えば、床処理をするロボット(たとえば、吸引、掃く、または拭き取り用の清掃ロボット)の場合、作業する床面は作業する領域内で決定される。これは、処理前および/または処理中に実行し得る。さらに、処理中に、処理されるべき床面のどれが実際に処理されたかを決定することができる。処理すべき床面を決定する際、障害物が存在する床部分や障害物によりアクセスできない床部分は、処理する必要がない、または処理することができないことが考慮される。自律移動ロボットを制御するこれらの方法を仮想遮断領域に適用するために、少なくとも作業スケジューリング中の地図内の遮断領域の位置は、障害物の位置として扱われる。これは、特に、障害物が占める表面などの遮断領域が占める表面は、処理される表面に追加されないことを意味する。
例4:場合によっては、制御方法の一部のみについて、遮断領域を実際の障害物として処理することが有利な場合がある。多くの商用ホームロボットは、円形であるため、障害物にぶつかるリスクなしにその場で回転できる。1つ以上の角(特に実質的に三角形)などのより複雑な幾何学的形状の場合、これは保証されなくなる。このため、衝突を起こさないようにロボットを制御するには、回転後および回転中に衝突が発生するかどうか、その場所における回転ごとにチェックする必要がある。このようなロボットの制御を簡単化するために、ロボットの並進運動の際に仮想遮断領域を障害物として扱い、その場でのロボットの回転中には遮断領域を無視することが提案される(実際の障害物とは対照的に)。
一般に、仮想遮断領域Sは、ロボットが走行してはならない床面である。床面は、仮想境界Bと実際の障害物に囲まれている場合がある。場合によっては、たとえば、ロボットが開いた(家の)ドアを通過するのを防ぐために、仮想境界Bがロボット展開領域を閉じることがある。どちらの場合も、仮想境界Bは、ロボットが走行可能な領域を、ロボットが自由に走行できる領域とロボットの走行が禁止される領域とを区分することを特徴としている。
仮想遮断領域Sは、例えば、仮想境界Bを格納することにより、または地図データを有する床面として格納することができる。例えば、地図データは、ロボット使用領域がセルのグリッドによって表される占有グリッドマップの形式で格納され、各セルについて特定のセルが障害物で占められているかどうかの情報が格納される。地図内の遮断領域Sをマークするには、遮断領域Sに属するセルを適切に占有されているセルとしてマークする。
仮想遮断領域Sは、円形、正方形、長方形、または正多角形などの幾何学的な基本図形として保存でき、これにより、必要な保存スペースが削減されるという利点がある。たとえば、円の場合には、中心の位置と半径が保存で十分である。仮想遮断領域Sのより複雑な幾何学的形状を可能にするために、仮想遮断領域Sの仮想境界Bは、例えば、ポリラインの形で保存することができる。仮想境界Bに対し、ロボットを遮断する必要のある床領域を保存することもできる。この目的のために、仮想境界Bに対して向きを保存でき、ロボットが仮想境界Bのどちら側にいるか、または、いる必要があるかを区別できる(たとえば、常に境界Bの右側)。特に、ロボットが第1の方向または第2の方向から(すなわち、例えば、左または右から)仮想境界Bに接近するかどうかを判別することができ、第2の方向は第1の方向と反対である。これは、たとえば、ポリラインを、開始点と終了点を持つ有向セグメントまたはベクトルとして保存することにより行われる。したがって、たとえば、境界Bの右側を通過可能と定義できる。
仮想境界Bは、遮断された床面から自由走行可能な床面に乗り越えられるように扱われるが、反対方向は遮断される。すなわち、ロボットが仮想境界Bに第1の方向から(たとえば、右から)近づくと、仮想境界Bは、ロボットが自動的に走行および/または通過しないと考える。例えば、仮想境界Bは(上述のように)障害物として扱われる。したがって、ロボットは、ナビゲーションのために障害物回避アルゴリズムを使用し、この障害物回避アルゴリズムは、ロボットが境界によって定義された遮断領域に近づく場合(つまり、右から来る場合)、ロボットのセンサによって検出された実際の障害物の実際の境界と同じ方法で仮想境界Bを考慮する。ロボットが第2の反対方向(左からなど)から仮想境界Bに近づくと、効果は無い。ロボットは仮想境界Bを通過できる。
この時点で、仮想遮断領域の永続的な区切りに加えて、このような仮想境界Bも一時的に使用できる。たとえば、ロボットが特定のタスク(クリーニングなど)を実行する部分領域を区切るために使用できる。仮想境界Bは、ロボットがタスクを完了するか中断するまでアクティブになる。これには、ロボットが処理対象の領域に進入できるという利点がある。ロボットを処理対象の領域に保持するために、追加の複雑な制御手順は必要ない(この例では、処理対象領域外のすべてが仮想遮断領域として定義されているため)。最も単純なケースでは、障害物回避戦略と閉空間でタスクを完了するための戦略のみがロボットコントローラ150によって使用される。
(仮想遮断領域の定義)仮想遮断領域Sを地図データに追加するには、ユーザ入力はヒューマンマシンインターフェイス200(HMI)を介して行われる。仮想遮断領域SについてユーザがHMI200に入力した情報は、事前定義可能な基準に従って評価される。例えば、この評価に基づいて、遮断領域Sが保存されているか、および/またはどのような形で保存されているかを決定することができる。この手順は、図2に示す以下の例に示されている。
図2は、例として、HMI200(例えば、タブレットPC)を介した仮想遮断領域Sの入力を示している。この目的のために、HMI200は、人間が理解できる地図の形式で地図データを表示するように適合されている。この地図に、ユーザは新しく定義される仮想遮断領域Sに関する情報を入力できる。
図2(A)は、正方形、長方形、平行四辺形、円などの(2次元の)幾何学的形状による新しい遮断領域Sの入力を示している。サイズと方向は、たとえば、HMI200のタッチスクリーン201上のユーザの指の位置によって決定される。基本図形の向きは、ユーザが決定できる。あるいは、向きは、地図データに少なくとも部分的に基づいて決定されてもよい。例えば、基本形状(例えば、正方形)の1つのサイドを近くの壁に平行に並べることができる。遮断領域Sの位置およびサイズは、ユーザによって決定されてもよく、または既存の地図データに基づいて少なくとも部分的に決定されてもよい。したがって、例えば、部屋の隅に登録された仮想遮断領域Sは、壁で閉じるように拡大および/または移動することができる。これは、壁と遮断領域Sの間の領域が、ロボットがナビゲーションするのに必要とするスペースよりも狭い場合に特に有効である。
図2(B)は、仮想境界Bによる遮断領域の設定を示している。たとえば、ユーザは、仮想境界Bを直線または(開いたまたは閉じた)多角形の形で定義することで、ロボットが部屋の隅にアクセスすることを拒否できる。そのように定義された遮断領域Sは、仮想境界Bと壁によって定義される。タッチスクリーンでのユーザの入力に対して、仮想境界Bによって床面を遮断すべきか、また場合によっては、どの床面を遮断すべきかが分析される。例えば、ユーザが入力した仮想境界Bが、地図に表示されているロボット使用領域を少なくとも2つの連続したサブ領域に分割するかどうかが、HMI200によって検査できる。これは、たとえば、仮想境界Bが閉じた多角形チェインで表される場合、または仮想境界Bが2つ以上の障害物(たとえば、部屋の隅に交わる2つの壁)を接続する場合である。この場合、ロボット使用領域の分割領域には、仮想境界Bを通過することなく、分割領域内の位置からロボットが到達できるすべての可能な位置が含まれる。この到達可能性は、たとえば、経路計画アルゴリズムを使用して決定できる。ロボット100のための仮想境界Bによってそれぞれが閉じられる2つのドアのある部屋など、ロボット使用領域を少なくとも2つの分割領域(仮想遮断領域Sとロボット使用領域の残りの部分)に分割するために複数の線(仮想境界Bのセグメント)が必要になる場合がある。
ロボット使用領域が少なくとも2つの連続する部分に細分化されている場合、どの連続する部分を遮断する必要があるかが自動的に確認される。これの可能な基準は、基地局110および/またはロボット100が位置する最大の連続部分が使用領域とみなされ、それに応じて他のすべての連続する部分が仮想遮断領域Sとして格納されることである。
新たに作成される仮想遮断領域Sについて明確な決定を自動的に行うことができない場合(たとえば、ユーザ入力が不明瞭、もっともらしくない、またはあいまいなため)、ユーザに警告および/または照会を行うことができる。例えば、ユーザは、ロボットの基地局110が置いてある領域、例えば、図2(B)に示される部屋の右上隅を遮断領域として定義することができる。ユーザ入力の分析では、大きな部分と非常に小さな部分(部屋の隅)があり、ロボット100の基地局110の小さな部分にあると判断されるであろう。この区分はもっともらしくないと見なすことができ、ユーザが実際に遮断したい領域が不明確である。ユーザは、HMI200を介して(たとえば、タッチスクリーン上のメッセージによって)この事実を知ることができ、部屋の誤ったコーナを間違えて遮断したことをユーザに判断する機会を与える。あるいは、自動的に決定された部分領域から、新しく作成される1つ以上の仮想遮断領域Sを選択できる。場合によっては、ユーザは、基地局を新しい位置に設定し、適切なユーザ入力によってロボット100に通知することができる。
図2(C)は、ユーザが仮想遮断領域を定義する方法の別の例を示している。それによれば、ユーザは、平面マーキングによって仮想遮断領域Sを定義することができる。これは、たとえば、指の拭う動作によって起こる。ここでのユーザの入力は非常に粗く、仮想遮断領域の適切な仮想境界Bがどこにあるか分析する必要がある。これは、たとえば、平面マークの周りに凸包を形成するか、平面マークを1つ以上の長方形(または他の基本的な幾何学的図形)で覆うことによって行われる。これは、たとえば、エリアマークを囲む最小領域の長方形にすることができる。さらに、地図データに保存されている障害物も考慮することができる。たとえば、長方形の片側を近くの障害物(壁など)に平行に配置することができる。
図2(D)は、ユーザが仮想遮断領域を定義する方法の別の例を示している。これによれば、ユーザは障害物(壁など)または別のランドマークに基づいて遮断領域を設定できる。例えば、タッチスクリーン上の障害物に触れ、障害物から所望の距離をドラッグして、仮想遮断領域Sを広げる。この手順により、ロボット100がそれぞれの障害物まで一定の距離を維持するように、仮想遮断領域Sを定義するのは簡単である。追加または代替として、ユーザは障害物までの距離(85cmなど)を直接設定することもできる。ユーザの入力を分析して、ユーザが入力したパラメータ(たとえば障害物までの距離)、指定された障害物、および場合によっては他の隣接する障害物から仮想境界B、したがって仮想遮断領域Sを明確に決定できるかどうかを判断する必要がある。
障害物(特に壁)から一定の距離で定義される仮想遮断領域Sは、必ずしも障害物の全長に沿って延びる必要はない。ユーザは、遮断領域をさらに制限できる。これは、たとえば連結を使用して実行できる。例えば、部屋のコーナの領域を(2つの壁で)遮断するために、ユーザは第1の壁までの第1の距離と第2の壁までの第2の距離を決めることができる。このように定義されたこれら2つの領域の連結(共通部分)は、所望の遮断領域Sである。これは、仮想遮断領域がユーザによって非常に正確に決定できるという特定の利点を有する。
ロボット100が、ユーザが定義可能な距離を遵守すべき障害物は、必ずしも壁である必要はない。例として、図3(A)は、自律移動ロボット100のベース部がナビゲートするのが難しく、検出するのが難しいバースツールHを示す図である。図3(B)に示すように、障害物Hとして検出できるバースツールの部分から始まる仮想遮断領域Sを定義すると、ロボット100がバースツールHのベース部を将来的に自動的に回避するという有利な点がある場合がある。この場合、遮断面は、例えば、バースツールのベース部の位置とサイズに基づいて中心と直径が決まる円である。バースツールの位置は固定されていないため、そのように定義された遮断領域Sにも固定位置はない。むしろ、遮断領域Sの位置は、ロボット100のセンサ測定値に基づいて、ロボットの使用の際に決定される。たとえば、カメラと画像認識を備えたロボットは、バースツールをそれとして認識することができる。または、地図データと共に保存することもできる。たとえば、(バースツールの検出可能な部分Hに対応する)所定のサイズの障害物の周囲の(バースツールが通常ある)部分領域では、障害物の周りの仮想遮断領域Sを考慮する必要がある。仮想遮断領域は地図内の絶対座標ではなく、障害物に対して相対的に保存される。障害物の位置が変化すると、それに応じて仮想遮断領域が移動する。
ここで説明するアプローチでは、仮想遮断領域Sの位置は、ロボットナビゲーションに使用されるグローバル座標系のグローバル座標ではなく、障害物またはランドマークに対するローカル参照(つまり相対)で保存される。このようにして、この場合、仮想遮断領域Sは現在のセンサ測定に基づいているので、仮想遮断領域Sの堅牢な考慮及び仮想遮断領域Sに沿った正確な走行が可能になる。したがって、例として、ユーザは、任意の壁に平行な幅がわずか数センチメートル(たとえば、5cm)の領域を遮断できる。バースツール(図3を参照)の例のように、この地図内の障害物またはランドマークの位置の変化に伴って移動する仮想遮断領域Sを定義できる。位置の変更は、例えば、環境内の障害物の移動(例えば、押し動かすこと)により、または地図データにプロットされた位置の修正(例えば、測定誤差の)により達成され得る。
仮想遮断領域Sに関する情報の入力は、地図表示のみに基づく必要はない。例えば、HMI200は、ユーザのジェスチャを認識するように構成されてもよい。たとえば、ユーザは仮想遮断領域Sの輪郭を(遮断領域上で)直接記述できる。たとえば、ジェスチャを検出するには、ロボットに統合できるカメラまたは3Dカメラを使用する。この際に、ユーザの入力は、仮想境界Bと遮断領域Sを決定するために、ユーザがどの場所に位置するか、およびユーザの適切なジェスチャが示す場所について分析する必要がある。
さらなるオプションとして、ロボット100の学習走行中に仮想遮断領域Sに関する情報を入力することもでき、入力情報の分析は、ロボットの現在の位置および向きも考慮に入れられる。したがって、ユーザは、ロボット100が自身の使用領域を初めて探索している間に、回避すべき領域を示すことができる。これは、たとえば、ロボットの位置と向きに応じて行われる。したがって、ユーザは、たとえば、「ストップ、このコーナを走行するな」と音声入力することによって、ロボットが現在向かっている部屋のコーナの領域が仮想遮断領域であることを指摘することができる。同様に、ユーザは、ロボットに、ロボットが探索した障害物に対してユーザが決定した距離を維持するように指示することができる。この情報の入力は、(リモートコントロールやタブレットPCなどの)HMI200の事前定義コマンドを介して行うことができる。上述のように、(代替的または追加的に)情報の入力は、ロボット100またはHMI200に統合されたマイクロフォン、または外部マイクロフォンを介して記録および分析される音声コマンドの形で行うこともできる。代替的または追加的に、情報を入力するためのさらなる補助手段を使用することができる。たとえば、線を生成するように構成されたレーザーポインターを使用して、床面に線を投影できる。ロボットは、例えばカメラでその位置と延び方を検出し、作成された地図データとともに仮想遮断領域Sの仮想境界Bとして保存できる。代替的または追加的に、磁気テープや赤外線バリアなどの従来のマーキングを学習走行中に使用して、走行してはならない領域についてロボットに通知することができる。ロボットは、センサを使用して延び方を探索し、作成された地図データとともに対応する仮想遮断領域Sを保存する。これにより、学習走行後に再びマーカーを削除することができる。
ユーザ定義の遮断領域の確認−ユーザから受信した情報に基づいて作成された仮想遮断領域Sは、ロボットの予期しない望ましくない動作を引き起こす可能性がある。したがって、どれだけユーザが希望する仮想遮断領域Sが決定されたかに関連してユーザが入力した情報を分析するだけでなく、遮断領域がロボットの機能にどのように影響するかも重要である。この目的のために、例えば、複数の基準をチェックすることができ、それらの非履行(または違反)の場合、仮想遮断領域Sの保管は拒否されるか、ユーザによる明示的な確認後にのみ行われる。その前に、仮想遮断領域Sの保存が行われない理由に関する対応する情報をユーザに送信することができる。
したがって、例えば、ロボットが部分的におよび/または完全に新たに作成される仮想遮断領域Sに位置するかどうかをチェックすることができる。そうである場合、ユーザは、ロボット100がそれをどのように処理すべきかを通知され、尋ねられてもよい。したがって、仮想遮断領域Sの保存を省略することができる。あるいは、ユーザは仮想遮断領域Sを保存し、ロボットにそれを離れるように指示できる。別の代替では、ユーザは、ロボット100を停止させ、後で遮断領域からそれを取り出すように指示することができる。
さらに、仮想遮断領域Sを考慮して、ロボットが計画されたタスクを有効に実行できるかどうか、および/またはロボット機能の重要な場所に自律的に接近できるかどうかを確認できる。これには、例えば、ロボット100がその現在位置から基地局110に近づくことができ、基地局110が遮断領域にないことが含まれる。加えて、例えば、現在のロボット位置および/または基地局110から出発して、遮断領域に属さないロボット使用領域に邪魔されることなくさらに接近できるかどうかをチェックすることができる。したがって、たとえば、この遮断領域Sにより、たとえば事前定義可能な最大サイズよりも大きい使用領域の別の領域にアクセスできない場合、大きな迂回を介してのみ到達できる場合、仮想遮断領域Sの保存を防止できる。特に、ロボット使用領域は、例えば住居の部屋またはその一部に対応する複数の分割領域に細分することができる。このような分割領域が仮想遮断Sによりアクセスできなくなった(つまりブロックされた)場合、ユーザにこれを通知できる。ユーザは、ロボット使用領域の厳しい制限にもかかわらず、仮想遮断領域Sの保存を再度確認して、永続的に保存する可能性を得ることができる。
特定の領域に到達できるかまたはブロックされるかを判断するには、既知の経路計画アルゴリズムを使用できる。したがって、例えば、新たに作成された仮想遮断領域が考慮され、それ自体で走行および/または通過できない場合、現在のロボット位置から基地局110までの経路が存在するかどうかを判定することができる。同様の方法で、ロボット使用領域のすべての部分について、基地局からこの部分領域への経路が存在するかどうかを判断できる。特に、この領域へ接続する廊下が事前定義可能なしきい値よりも狭い場合、地図の領域は使用不可またはブロックされていると見なされる。たとえば、しきい値は、ロボットの直径に加えて、ロボットが安全で信頼性の高い廊下のナビゲーションと制御を行うために必要な安全マージンに対応する。この安全マージンは、ナビゲーションモジュール152の最大位置特定不確実性に対応する場合があり、これは、例えば、SLAM方法の間に決定される。
ロボット領域の別の部分領域が仮想遮断領域Sによってアクセス不能になっていることが検出された場合、仮想遮断領域Sのわずかな修正によってアクセス不能な部分領域が再びアクセス可能になるかどうかをさらにチェックできる。たとえば、地図を介してデータを入力することはしばしば不正確であり、わずかに変更された遮断領域は依然としてユーザの希望とニーズを満たしている。たとえば、遮断領域Sによって制限されている、その背後の領域への廊下がロボット自体と同じ幅しかない場合、遮断領域をわずかに縮小することで、背後にある領域へのアクセスが可能になる。たとえば、仮想遮断領域Sのわずかな変更が基準を満たしているかどうかを確認するために、仮想境界Bは移動または変形される。たとえば、仮想境界が(開いたまたは閉じた)多角形チェインによって与えられる場合、この多角形チェインの頂点を移動できる。
(作業依頼の無い領域)自律移動ロボット100が損傷を引き起こす可能性がある領域
が常に仮想遮断領域Sとしてロボット100によるナビゲーションから完全に除外されるわけではない。例えば、これは、ロボット100が掃除するすべての部屋を結ぶ廊下であり得る。この廊下はロボット100が走行する必要がある。そうしないと、他の部屋でタスクを実行できないからである。さらに、廊下では靴がよく置かれていることがあり、その靴ひもが回転ブラシなどのアクチュエータに巻き付くことがある。その結果、一方で、靴が損傷する可能性があり、ロボット100は、そのタスクを実行する際に妨げられる可能性がある。別の例は、ロボット100がブラシなどのアクチュエータによって処理することができない繊細なカーペットが、ロボット100が回避できない中央領域に配置される場合である。
説明されている問題を考慮すると、廊下を自律処理から除外することが役立つ場合がある。したがって、ロボットは、仮想領域の少なくとも3つのカテゴリを区別するように構成できる。第1のカテゴリの仮想領域では、ロボットは定義されたタスクを自動的にナビゲートして実行できる。第2のカテゴリの仮想領域では、ロボットは自律的にナビゲートできるが、タスクの独立した実行はされない。第3のカテゴリの領域は、上述した遮断領域である。ロボット100をナビゲートするとき、ロボット100が3番目のカテゴリの領域を独立して走行および/または通過しないように考慮される。
仮想領域の定義は、例えば、遮断領域Sに関して上述したように、ユーザによって行われる。特に、(ロボットまたはHMIによって)ユーザに、ロボットの機能を損なうかもしれない仮想遮断領域を走行する、その処理を除外するように自動的に提案できる。つまり、遮断領域は、通常は移動できるが床面の処理をしない第2のカテゴリの領域になる。さらに、ユーザが逆の指示をするまでは、領域は第1のカテゴリに属している(つまり、走行性と仕事の実行性に関する制限がない)と想定できる。
さらに、ロボットは、タスクを実行するときに、処理から除外された領域(第2のカテゴリ)を可能な限りまれに、かつ、直接、走行する。したがって、ロボットは、ロボット使用領域の背後の領域に到達するために、タスクに必要な場合にのみこの領域を走行する。そして、ロボットのタスクが可能な限り完了した場合にのみ、ロボットはこの領域に戻る。この領域を横断するとき、最短および/または最速の方法を使用するように注意が払われる。代替的または追加的に、障害物までの所定の最小距離を可能な限り保つ経路を選択することもできる。ロボットが、この最小距離の2倍未満の距離にある2つの障害物の間を通過する必要があるために最小距離を維持できない場合、両方の障害物までの距離をできるだけ大きく選択する経路、特に両方の障害物の中間を通過する経路が選択される。そのような経路を実現するための方法はそれ自体知られている。たとえば、経路計画はコスト関数を使用でき、これでは、特に障害物までの距離に基づいてコストを決定でき、最終的に最小コストの経路がロボット制御に使用される。代替的または追加的に、リアクティブ制御モード(たとえば、仮想力場(VFF))を使用でき、これでは、ロボットが周囲の障害物の距離に直接応答する。
後者は、たとえば、コスト関数を使用してタスク計画で実現できる。たとえば、処理から除外された領域を走行するコストは、処理される領域を走行するコストよりもはるかに高く設定される。たとえば、処理から除外された領域での1メートルの移動は、処理すべき領域での10メートルの移動と評価される。そうすることで、ロボットは処理から除外される領域を回避するために、大幅な迂回も行うことを受け入れる。経路計画自体にコスト関数を使用するという概念はよく知られている。
(遮断領域の表示)仮想遮断領域Sの重要な側面は、ユーザが自分の設定の効果をすばやく、簡単に、そして直接見ることである。これは、とりわけ、たとえば、ヒューマンマシンインターフェイスのディスプレイが地図の形式で用いられる。この地図は、ロボット使用領域の簡略化された表現であり、したがって不正確である可能性があるため、仮想遮断領域Sの仮想境界Bの直接再入力が有利である。また、仮想境界を使用したユーザ定義部分領域の入力(たとえば、後でクリーニングするためにこれらをすばやく選択するため)や、処理される領域に直接入力するなど、他のユーザ入力でも、ここで説明する手順が有利である。
一例によれば、ロボット100は、最初に、例えば仮想遮断領域に関する位置関連情報を、ユーザのヒューマンマシンインターフェイス200から受信する。ユーザが入力したこの位置関連情報から、たとえば遮断領域Sの仮想境界Bを表す1つまたは複数の線(たとえば、長方形、開いたまたは閉じた多角形チェインなど)が決定される(図2を参照)。前述のように、ロボット使用領域の地図の表現は、実際の環境の不正確な抽象である。したがって、HMI200を介して定義された遮断領域の影響について、より現実的なフィードバック(地図表現よりも現実的)をユーザに提供することが望まれる。ユーザ定義の遮断領域Sを考慮して、ロボットは経路を決定し、その経路を追従することができる。経路は1回、数回、またはユーザが中断するまで通過できる。例えば、ロボットは、遮断領域が走行および/または通過されないように、遮断領域Sの仮想境界Bに沿って移動することができる。
上述の視覚化のやり方は、遮断領域だけでなく、分割領域でも可能である。ロボット使用領域の新しく定義された分割領域(たとえば、部屋の一部)では、ロボットは分割領域の(仮想)境界に沿って直接移動できる。たとえば、掃除するユーザ定義領域(部屋内)で、ロボットが作業対象領域内の仮想境界に沿って移動して、どの領域が処理されるかをユーザに示すことができる。この現実的なデモンストレーションを通じて、ユーザに自分の入力の影響について直接的な印象が与えられる。ユーザは、HMI200を介して入力情報またはそこから導き出された地図データ(例えば、多角形チェーン)を永続的に保存し、将来のロボット制御に使用できる。さらに、ユーザは、自分の入力が望みのロボットの動作を生成しないことを認識し、入力を修正したり、新しい位置関連情報を入力したりする機会を有する。ユーザ入力の修正は、新しい修正されたロボット経路に直接変換できる(ロボットによる新しいデモンストレーション用に)。
ユーザに自分の入力に関する迅速かつ簡単で直接的なフィードバックを提供する別の方法は、環境に情報を直接投影することである。このために、たとえば、可動式ミラーと光源としての1つ以上のレーザを使用して描かれる、線、形状、パターン、または画像を環境(たとえば、床面)に具体的に投影するレーザープロジェクターが使用される。プロジェクタは、空間内の固定位置、自律移動ロボット100、または別の自律移動ロボット100Bに取り付けることができる。
図4に示される例では、プロジェクタ190は、自動車ロボット100上に配置されるか、それと一体化される。図示の構成には、プロジェクタ190をロボット場内の(ほぼ)任意の場所に運搬できるという利点がある。特に、ロボット100は、適切な場所まで移動することができ、そこから投影を行うことができる。したがって、地図データとセンサデータに基づいて、障害物によって乱されることなく、ロボット使用領域(特に床面)の所望の場所に必要な情報を投影できる位置を決定できる。この位置で、所望の場所への邪魔されない投影が、新しい障害物または周囲に立っているユーザによって不可能であると判定された場合、ロボット100は、地図データおよびセンサデータに基づいて代替の適切な位置を探索することができる。
このアプローチの特徴は、場所関連情報(境界線、遮断領域を表す基本幾何図形など)を関連する場所に直接投影できるため、ユーザに具体的にわかりやすく提示できることである。投影の計算のために、ロボット使用領域内のロボット100の位置および向きが使用される。位置と方向は、自律移動ロボットの機能により高精度に知ることが可能である。加えて、ロボット100内またはロボット100上で使用されるプロジェクタ190の位置および向きは、ロボットの構造により既に知られている。これから、ロボットの環境(特に床面)で地図データによって決定されたポイントに到達するように、どのようにして光線を環境に投影するか(またはどのようにミラーおよび/またはレーザを制御するか)を決定できる。したがって、地図データから位置関連情報を抽出し、これをロボット使用領域内の対応する実際の位置にプロジェクタで表示することが可能である。
上述の方法で、例えば仮想境界B(たとえば、図2Bを参照)は、床面に直接投影することでユーザに視覚化できる。追加的または代替的に、仮想遮断領域Sは、床面への直接投影によりユーザに見えるようにすることができる。同様に、たとえば清掃する表面またはユーザ定義の部分領域を表す。加えて、プロジェクタ190の助けを借りて、特にロボット100によって作成された他の地図データを、ロボット使用領域に直接投影することができる。これは、例えば、ロボット100によって掃除されたばかりの領域、または次に掃除される領域であり得る。たとえば、ユーザは拭き取ったばかりの領域に関して滑る危険性を警告される。
一実施形態によれば、プロジェクタ190によって表示される情報は、ロボット100の現在位置および(オプションで)その速度および/またはその現在実行されているタスクから直接決定することができる。したがって、たとえば、ロボットの直接的に計画された経路を床面に投影することができる。その結果、ユーザがロボットの動作を予測可能で、作業の望ましくない妨害を回避できる。
遮断領域の自動生成−仮想遮断領域Sは、HMI200を介した入力によってユーザが必ずしも定義する必要はない。自律移動ロボット100は、例えば、危険領域をそのようなものとして認識し、これに基づいて、掲出された危険領域を将来、回避するために、遮断領域Sを独立して定義するように構成されている。リスクのある領域は、主にロボットの機能に影響を与える領域、またはロボットにとって危険な領域である。たとえば、ロボットは、センサを使用しての走行か、ナビゲーション機能を分析することだけで、そのような領域を検出できる。これは、図5に示される以下の例により詳細に説明される。
図5(A)は、ロボットが走行によってのみ検出できる危険領域の例として、立ち下がりエッジ(階段の階段など)を示している。典型的には、ロボットは、底部にそのような立ち下がりエッジを検出するために床センサ121を備えている。これらは、立ち下がりエッジに間に合うように停止し、落下を回避できるように、ロボット100に配置される。しかしながら、誤動作(センサの汚れなど)は常に発生する可能性があり、その結果、ロボット100は立ち下がりエッジを認識せず、したがって立ち下がりエッジを越えて移動し、落下する可能性がある(図5(B)参照)。
例えば、図5(B)に示す事故を避けるためにように、ロボット100は、例えば、使用(例えば、学習実行またはタスクの初期実行、例えば、清掃)の際に、それ自体既知の方法で(例えば、センサ121により)立ち下がりエッジを検出し、それに従って回避するように構成されてもよい。ロボットの例示的な軌道は、例えば図5(C)に示す。この場合、ロボット100は、床センサ121がそれを検出するまで、立ち下がりエッジを部分的に移動し、測定点Mの位置が決定されて記憶される。その後、これらの測定点Mおよびオプションで移動軌跡T、仮想境界Bおよび/または仮想遮断領域Sなどの他の環境および地図データに基づいて、ロボットが遮断領域を考慮して立ち下がりエッジの位置(特に測定ポイント)への最小距離d(例えば、1cm)を維持する(図5(D)を参照)。これにより、ロボットは立ち下がりエッジに沿って掃除し、立ち下がりエッジを越えて移動しないようにナビゲートできる。特に、仮想遮断領域Sを考慮して、床立ち下がりセンサ121をトリガーする必要がないようにナビゲートし、それにより、誤動作による落下の危険を最小限に抑える。
仮想境界Bを決定する際、十分に調査された立ち下がりエッジの測定ポイントMの位置がロボット直径よりも小さい最大距離を持っていることを考慮する(そうでない場合、ロボットは2つの測定ポイントの間を通過し、走行可能な領域または別の領域を認識でき、または、立ち下がりエッジの検出を受け取る)。立ち下がりエッジは、(走行できない)領域を完全に囲むか、障害物(壁、図5(C)を参照)によって取り囲まれる場合がある。それに応じて、測定点Mの位置が1つずつ接続される。場合によっては、このようにして得られた線は、隣接する障害物まで(例えば、壁に向かって)延長されてもよい。このようにして得られた線は、運転できない表面からロボットによって走行される表面を区切る。すでに移動したエリアの方向へのラインのシフトは、上記の結果、すなわち、仮想境界Bにつながる。これは、仮想境界Bを構築して立ち下がりエッジからの安全を確保する多くの方法の1つにすぎない。別の可能性は、各測定点Mが、ロボットの半径と安全距離dに対応する半径を持つ円を定義することである。重なり合う円は遮断領域にまとめられる。関連する仮想境界Bは、外側の輪郭を平滑化することで得られる(例:(ペアで)凸包)。この場合、ナビゲーション中、ロボットは点(ロボットのほぼ円形の外側輪郭の中心)であると想定できる。
ロボットが遮断領域を独立して定義できる状況の別の例は、ロボットが認識できない障害物、または認識するのが難しい障害物に関するものである。たとえば、ロボットは、障害物検出および地図作成のために、(たとえば光)信号を発し、障害物からの反射を受信するアクティブセンサを使用する。たとえば、ガラスのドアなどの透明な障害物、鏡などの反射障害物、または放射信号の範囲外にある障害物(低い障害物など)は認識できないか、認識が困難である。ロボットは、これらの障害物を、たとえば触覚センサ(障害物との物理的接触を検出するセンサ)を使用して、ロボットが触れたときに検出する。しかし、ロボットの障害物との頻繁で繰り返す衝突は、ユーザによって望ましいことではない。したがって、ロボットは、ロボット使用中(学習走行またはタスクの実行)に触覚(タッチ)でのみ検出可能で、非接触(たとえば、光学センサによる)では認識できない障害物の位置を決定するように構成できる。これらの位置から、ロボットが仮想遮断領域を考慮して障害物までの所定の距離d(たとえば1cm)を持ち触れないように、仮想遮断領域Sまたは仮想境界Bが生成される(立ち下がりエッジを使用した上記の例に類似)。このやり方により、ロボットは接触せずに障害物の周囲を掃除することができる。これにより、衝突によってロボットまたは障害物が損傷するリスクが最小限に抑えられる。
ロボットが遮断領域を独立して定義できる状況の3番目の例は、ロボットがナビゲートするのが難しい領域に関係する。これは例えば、テーブルと椅子の脚など多くの小さな障害物がその上にある高パイルカーペットである。カーペットを通る走行はひどく妨げられ、同時にロボットにとってテーブルと椅子の脚は実際にはロボットが非常に正確にナビゲートしなければならない迷路であるため、この状況はロボットが処理するのが困難である。そのため、ロボットがこの状況から抜け出せないか、またはこの状況から長い時間が経過した後にのみ、ロボットがこの状況から抜け出せるということが起こり得る。ロボットはこの問題のある領域を、例えば、車輪のスリップの増加および/または多くの走行操作に、この領域で通常よりも長い時間、従事していることにより検出できる。効率を高めるために、この領域を遮断領域にすることができ、これにより、ロボットが後続の操作でこの位置でスタックしたり、多くの時間とエネルギを消費したりするリスクが最小限に抑えられる。たとえば、この領域の掃除は、ユーザによる明示的な指示の後にのみ行われる。
自動作成された仮想遮断領域Sが地図データと共に永続的に保存される前に、ユーザに表示できる。これにより、仮想遮断領域Sが提案どおりに永続的に保存されるかどうか、または後続の使用でロボットがこの領域に移動する必要があるかどうか(警告にもかかわらず)を決定できる。
自動生成された仮想遮断領域の位置は、ロボットが簡単に検出できるランドマークにリンクできる。例えば、図5(D)の仮想境界Bは、境界となる壁の間の接続線として保存され得る。この場合、例えば、エッジは容易に認識可能なランドマークとして機能し、これに関して仮想遮断領域Sが保存される。すなわち、遮断領域Sまたは境界線Bの位置は、地図内の検出可能なランドマーク(例えば、壁)の位置に相対的に保存される。容易に検出可能なランドマークと直接リンクすることにより、仮想遮断領域Sの位置は、ロボットをナビゲートするためのグローバル地図の座標としてのみ知られている場合よりも、ナビゲーション中にはるかに正確かつ堅牢に考慮される。
(他のデバイスによって定義される遮断領域)第1の自律移動ロボット100が仮想遮断領域Sを作成する場合、それが1つまたは複数の他のロボットに渡されることが意味をなす場合がある。同様に、ロボット100は、外部装置300から、特に第2の自律移動ロボット100Bから仮想遮断領域Sを受け取ることができる。この状況は、例として図6に示されている。この場合、第1のロボット100は、仮想遮断領域Sを作成することが可能で、仮想遮断領域Sを作成した第1のロボット100ではなく、1つまたは複数の他のロボット(たとえば第2のロボット100B)によって(たとえば排他的に)考慮され得る。仮想遮断領域Sに関する情報を交換するために、関係デバイス(第1のロボット100および第2のロボット100B)は、通信ユニット140(図1B参照)を介して確立され得る通信接続を使用する。
また、第2のロボット100Bは、同様に、ロボット使用領域を表す地図データを有してもよい。これらは、第1のロボット100が使用するデータ、または第2のロボット100Bが保持、更新、および/または解釈したデータと同じデータであり得る。ロボット100、100Bが異なるデータソースを使用する場合、第1のロボット100の地図データに関する位置情報の座標は、第2のロボット100Bの地図データに関する位置情報の座標に変換することができる(逆も同様)。この変換は、ロボット100、100Bの1つ、またはPCやクラウドサーバーなどの外部コンピューティングデバイスで自動的に実行できる。(座標)変換のパラメータは、たとえば、壁の位置などの利用可能なナビゲーション特徴に基づいた最小二乗法によって自動的に決定できる。最も単純なケースでは、2次元地図の(座標)変換は、変位(シフト)(2つのパラメータ)と回転(1つのパラメータ)を記述する3つのパラメータで構成される。たとえば、センサの(体系的な)測定エラー、または3次元マップを検出するために、より複雑な変換が考えられる。例えば、第1のロボットの距離を測定するためのセンサは、第2のロボットの距離センサよりもシステマティックに距離をより小さく測定する場合がある。これは、追加のスケーリングパラメータで補正できる。別の例では、座標変換を計算するために、基地局(または他のナビゲーション機能)の両方の地図に格納されている姿勢(方向を含む位置)を使用することができる。第1のロボットの地図に保存されている姿勢が、第2のロボットの地図に保存されている姿勢から(わずかではあるが)ずれていると仮定する。しかし、両方の地図が同じ実際の基地局(同じ実際のナビゲーション特徴)であるため、変換操作(たとえば、シフトと回転)は2つの姿勢から導出できる。
少なくとも2つの自律移動ロボット100と100Bの間で情報が交換される例示的な方法では、両方のロボット100と100Bは、センサと電子地図を使用してロボット使用領域内で自律的にナビゲートし、地図を自律的に作成、更新するように構成されている。ロボット100および100Bの両方は、外部デバイス(例えば、サーバ)を介して直接的または間接的に他のロボットに情報を送信できるようにする通信モジュール(図1B、通信ユニット140を参照)を有する。本例によれば、第1のロボット100の第1の地図の座標から第2のロボット100Bの第2の地図の座標への変換動作は自動的に算出される。これは、2つのロボットのいずれか、または外部デバイス(サーバなど)で起こり得る。位置関連情報(地図データ)は、ロボットの1つ(ロボット100など)から他のロボット(ロボット100Bなど)に送信される。送信前(ロボット100内)または送信後(ロボット100B内)または送信中(情報を送信する外部装置内)に、第1の地図の座標の位置関連情報を第2の地図の座標に変換操作を用いて変換される。
上述のユーザ定義の仮想遮断領域Sと、機能障害および/または危険領域(第1のロボット100で検出)に基づいて自動的に生成される仮想遮断領域Sに加えて、ロボットとのやり取りにおいて、作業使用(タスクを実行するためのロボット使用)に基づく仮想遮断領域Sを使用することができる。
例えば、ユーザは、ミルクなどの液体をこぼして、拭き掃除ロボットに水たまりを取り除くにするよう依頼する。図6に示される例では、第1のロボット100は、作業モジュールが床を湿らせて拭くように構成された拭き掃除ロボットとして構成されている。第1のロボットが拭き作業に従事している間、他のロボット(ロボット100Bなど)が水たまりを通り抜けて液体を分散すべきではない。さらに、他のロボットは、拭き取ったばかりの(したがって濡れている)領域を走行すべきでない。第1のロボット100は、ユーザ入力および場合によっては、さらなるセンサ測定に基づいて、掃除される領域を決定することになる。このロボットは、家庭の他のロボットに、掃除されるこの領域が(例えば、一時的に)仮想遮断領域Sとして扱われるべきであると伝えることができる。
拭き掃除ロボット100がその活動を完了した後、仮想遮断領域Sが再び解放されることを示す通知を他のロボット100Bに送信することができる。代替的または追加的に、仮想遮断領域Sは、自動的に経過時間も持つことができる。拭き掃除ロボット100は、例えば、拭き掃除が新たに行われ、したがってまだ湿った領域Wを他のロボットのために所定の時間、遮断領域Sとして定義し、その領域Wを遮断できる(図6参照)。この時間が経過した後、他のロボット100Bは自動的に仮想遮断領域Sをクリアすることができる。
(遮断領域のアクティブ化/非アクティブ化)ユーザは、ロボット100が常に仮想遮断領域Sを考慮することを望まない場合がある。同時に、ユーザが仮想遮断領域Sを常に削除して作成したくない場合もある。したがって、基準を設定し、それに基づいて自律移動ロボット100をナビゲートする際に仮想遮断領域Sを考慮するかどうかを決定することが有用であり得る。つまり、ロボットは、特定の基準に基づいて、仮想遮断領域Sを自主的に走行・通過するか否かを決定できる。
例えば、ユーザがタスクまたは所定の時間の間、遮断領域Sを明示的に(例えば、HMI200によって)解放しない限り、ロボット100は常に仮想遮断領域Sを考慮してもよい。例えば、仮想遮断領域Sは、遊び場として使用される住居の一部であり、自動運転中または床掃除などの自給式活動中にロボット100を損なう玩具の形の小さな物体がしばしばある。ユーザは、この遊び場を、折を見て掃除することができ、すぐにまたは次の作業動作時に掃除することを望むことができる。例えば、ユーザは、HMI200を介してロボット100に、仮想遮断領域Sをすぐに掃除する必要があることを通知することができる。ロボットは、この作業動作のために仮想遮断領域Sを走行し、清掃する。仮想境界Bは、たとえば、清掃する領域の境界として使用できる。後の作業動作では、遮断領域Sが再び考慮される。
代替的または追加的に、ユーザは、ロボットに、次の作業操作(特に住居の清掃)中に仮想遮断領域Sが非アクティブであることを知らせることができる。ロボットは、たとえば、仮想遮断領域Sが格納されていないかのように走行し、自動的に清掃することができる。あるいは、ロボットは、仮想境界Bに応じて、仮想遮断領域を固有の清掃すべき部分領域として解釈し、個別に処理できる。この場合、たとえば、優先順位を上げて、仮想遮断領域は走行されることができる。また、この場所で予期しない問題が発生する可能性があり、ロボットの作業が中断されることが予想されるため仮想遮断領域は作業の最後の部分領域として走行することもできる。
代替的または追加的に、ユーザは、仮想遮断領域Sが事前定義可能な時間の間非アクティブであることをロボットに通知することができる。たとえば、子供部屋のプレイコーナで頻繁に遊ぶ子供が数時間または数日間不在となる状況がある。この時間中、ロボットは、自律作業計画において、仮想遮断領域Sとしてマークされたプレイコーナを考慮することができる。ユーザが指定した時間が経過すると、仮想遮断領域Sは再び自動的にアクティブになるため、ロボットによって考慮される。
別の例では、仮想遮断領域Sのアクティブ化/非アクティブ化は、カレンダ機能により自動的に制御される。たとえば、ユーザは夜に寝室をロボットが走行するように制御したくない場合がある。ただし、日中は、たとえばロボットが寝室を掃除することになっている。この場合、例えば、仮想遮断Sはアクティブである時間がカレンダに記録され、したがって、仮想遮断領域Sは自動的に走行・通過しないように自律移動ロボット100によって考慮される。たとえば、夜の間、21時から9時まで、寝室をロボットから遮断することができる。
カレンダ制御は、自動化により一定レベルのユーザの快適さを提供するが、柔軟性がない。前の例で寝室を遮断する目的は、眠っているユーザの邪魔を避けることである。したがって、遮断領域のアクティビティをユーザのアクティビティに直接リンクすると効果的である。ただし、特に眠っているユーザの例では、可能であれば、ユーザが(まだ)眠っているかどうかを確認するために、ロボットが寝室走行すべきでない。たがって、日用品などの他のデバイス300、センサ、および/または他のロボットなどに基づいて、仮想遮断領域Sが考慮されている(アクティブ)かどうか(たとえば、ロボットが寝室に入ることを許可されているかどうか)が判断される。したがって、たとえば、睡眠トラッカのアクティビティ、ベッドセンサ、またはアクティビティトラッカのスリープモード、スマートウォッチまたは他のウェアラブルのフィットネストラッカの助けを借りてユーザが眠っているかどうかを判断できる。また、電動歯ブラシのアクティビティを使用することができる。たとえば、夜に電動歯ブラシを使用する場合、仮想遮断領域をアクティブにし、朝に電動歯ブラシを使用する場合、仮想遮断領域を非アクティブにすることができる。仮想遮断領域Sのアクティビティが外部デバイス300の状態および/または情報に基づいて決定される多数の他のシナリオが考えられる。
さらに、仮想遮断領域Sのアクティブ化/非アクティブ化は、ロボットの状態および/または活動に依存し得る。たとえば、ロボットには、さまざまなや乾式清掃、湿式清掃に適したさまざまな清掃モジュールが搭載可能である。この場合、遮断領域のアクティビティは、使用する清掃モジュールによって異なる。例えば、湿式洗浄モジュールが作動しているとき、カーペットまたは他の水に敏感な床表面は、仮想遮断領域Sとして扱われてもよい。ロボットの状態および/または活動に応じた仮想遮断領域Sのアクティブ化/非アクティブ化の別の例は、家庭内支援のための運搬ロボットに関するものである。たとえば、ロボットは開口のあるグラスで飲み物を運ぶことができる。この場合、ロボットは不均一な床面、例えば、カーペットの端を避けるべきである。これを実現するために、カーペットを、ロボットが飲料を輸送する限りアクティブな遮断領域として定義することができる。
自律移動ロボットが、特に仮想遮断領域Sで作業を実行する間、自律移動ロボット100をナビゲートするときに仮想遮断領域Sが考慮されるかどうかの決定の基礎が変化する可能性がある。言い換えれば、遮断領域を考慮する必要があるかどうかのチェックは、作業中または作業の計画中であっても、継続的に、または少なくとも定期的に行うことができる。そのようなチェックで、考慮されるべき遮断領域が追加されたとロボットが判断した場合、ロボット100の現在位置が仮想遮断領域S内に位置することが起こり得る。この場合、たとえば、ロボットが停止し、ユーザの指示を待つことができる。代わりに、ロボットはこの領域の外に出るように走行できる。あるいは、ロボットは、仮想遮断領域がアクティブになる前に、その領域で現在のタスクを完全にまたは少なくとも部分的に完了してもよい。この目的のために、たとえば、タスクの完了に必要な時間を決定できる。この時間が事前定義可能な最大値よりも小さい場合、タスクは終了し、遮断領域のアクティブ化はこの時間だけ遅延する。
(遮断領域内のロボット)通常、(仮想)遮断領域Sは、たとえばナビゲーション中に実際の障害物と見なされることにより、ロボットによって確実に回避される。このアプローチは、自律移動ロボット100が十分な精度で地図内の位置を知っている限り機能する。ただし、たとえば、ユーザが部分領域を定義し、ロボットがこの部分領域にいる間にこれを遮断領域として識別する場合、ロボットは仮想遮断領域Sに入り込む可能性がありうる。ロボット100が自身の位置を常に正確に知るとは限らないため、別の問題が発生する可能性がある。その結果、ロボットは(知らずに)仮想境界上を気付かずに通過する可能性がある。その場合、ロボットは遮断領域に移動して損傷を引き起こす可能性がある。衝突を避けるナビゲーションを試みた場合でも、ロボットは障害物と衝突する可能性がある。ただし、ロボットは衝突によりナビゲーションエラーに気づき、それに応じてナビゲーション戦略を調整する場合がある。仮想遮断領域には、即時のフィードバックはない(物理的な衝突のため)。したがって、仮想遮断領域の処理におけるこのようなエラーに対してロボットの動作を堅牢にするために、追加の対策が必要である。以下に例を挙げて説明する。
仮想遮断領域Sを堅牢に処理する1つの可能性は、(上記のように)一方向の通過が防止されるように仮想境界Bを処理することである。その結果、ロボット100は、遮断領域への進入を回避しながら、常に仮想遮断領域を離れることができる。言い換えれば、ロボットの地図に描かれた仮想境界線Bは一方向にのみ機能する。仮想境界は一方向に通過できるが、他の方向では通過できない。
代替的または追加的に、ロボットが完全にまたは部分的に遮断領域S内にいるかどうかを確認することができる。このチェックに応じて、ロボットが遮断領域Sを離れるか留まるかを決定できる。たとえば、遮断領域は、エッジ領域とコア領域に分割できる。ロボットが少なくとも部分的にコア領域にある場合、ロボットは停止する。ロボットが遮断領域Sのエッジ領域にのみ配置されている場合、ロボットは遮断領域Sの外に移動しようとする。遮断領域Sのこの機能(エッジ領域とコア領域への細分化)は、比喩的に「ソフトウォール」として知られている。つまり、ロボットがナビゲートの際に遮断領域が「ハード」な壁の効果を持たず、ロボットが入ることができるが、その後、可能な限り境界領域から出ようとするソフトな遷移領域としての効果を有する。ユーザに問題を通知し、ユーザからの指示を待つために、例えば、メッセージをヒューマンマシンインターフェイス200に送信する。
この確認は、ロボットの位置が再決定されるたびにナビゲーション中も継続できる。さらに、たとえば、ユーザまたは別のデバイスによって新しい仮想遮断領域Sが定義および/またはアクティブ化されている場合、この確認を実行できる。ロボットが新しく作成された仮想遮断領域Sにある場合、遮断領域Sがユーザなどによって確認されるまで保存を拒否できる。追加または代替として、ロボットは自動的に遮断領域Sから外に出るように操作される。追加または代替として、遮断領域Sを生成するデバイス(またはユーザ)に、ロボットが新しく作成された遮断領域Sにあることを通知することができる。さらに、ロボットが新しく作成された遮断領域Sを離れることができるかどうか、およびその方法についての問い合わせを、遮断領域Sを生成したデバイス(HMI200など)またはユーザに送信できる。たとえば、ユーザはロボットが遮断領域から出る優先方向を指定できる。または、ユーザはロボットを停止して、手で遮断領域から運び出すことができる。
既存の非アクティブな遮断領域Sの場合、遮断領域Sに結びつけられたアクション情報を保存できる。たとえば、寝室は、ユーザが寝るときにアクティブになる遮断領域Sとして定義できる。この場合、遮断領域Sがアクティブとなった後、ロボットは遮断領域Sを自動的に離れることができる。他の場合では、遮断領域が再び非アクティブになるか、ユーザが介入するまでロボットが停止することが望ましい場合がある。
自律移動ロボット100の動作シナリオはまた、ユーザによって手動で移動されることを含む場合があり、通常、ロボットは電子地図内の自身の位置に関する情報を失う結果となる。その後、ロボットは再びグローバルな自己位置決定によってその位置を決定できる。このため、ロボット100は、そのセンサを使用して環境に関するデータを収集し、これらを既存の地図データと比較するため、その環境内で動く。ロボットは、グローバルな自己位置特定中に、地図データに対する実際の位置に関する情報をほとんど、またはまったく持たないため、不注意で遮断領域Sに進入する可能性がある。したがって、保存された地図データに基づいたグローバルな自己位置確認の後、ロボットが仮想遮断領域Sにいるかどうかをチェックすることが重要である。
自己位置特定中に、位置特定仮説(つまり、ロボットが位置する可能性のあるセンサと地図データに基づく仮説、たとえば確率モデルで決定される)に基づいて、ロボットは仮想遮断領域Sまたはその近傍にいるかどうかを確認できる。この情報に基づいて、仮想遮断領域を不注意に走行するリスク(つまり、可能性)を減らすために、ロボットは探査走行を、そのグローバルな自己位置特定に適合させることができる。地図内のロボットの(グローバル)自己位置特定の確率に基づく位置特定の仮説はそれ自体既知であるため、これ以上説明しない。この例で重要なのは、ロボットが自己位置探索中に自分の位置を知らない場合、特定の地図位置の確率のみを決定できることである。ロボットは、遮断領域内にある確率を確認することもできる。この確率に応じて、ロボットは現在の経路を適合できる。たとえば、ロボットが特定の経路に沿って移動しているときにロボットが遮断領域Sにいる確率を仮定すると、確率が再び低下するまで移動方向を変更できる。
ロボット100が遮断領域Sにあるかどうかを確認することに加えて、ロボット100の経路は、グローバルな自己位置特定中に記録することができる。この記録された経路を使用して、遮断領域から抜け出すことができる。たとえば、ロボットは、遮断領域を離れたか、確かに離れることができるまで、記録された経路を逆走できる。
例えば、この領域を(例外的に)掃除したいので、ユーザは移動中にロボットを意図的または誤って仮想遮断領域Sに置くことができる。ユーザがロボットを下ろした位置から開始して、ロボットはグローバルな自己位置特定を開始する(上記を参照)。グローバルな自己位置特定の実行中に移動および記録された距離に基づいて、ロボットの開始位置を決定することができ、したがって、ユーザが仮想遮断領域Sでロボット100をスタートさせたかどうかを決定することができる。その後、ロボットは、仮想遮断領域Sでユーザ指定のタスクを実行できる。さらに、ロボットは、HMI200を介してユーザに対応する情報(警告メッセージなど)を送信できる。
ロボットが遮断領域から外に移動するかどうか、およびどのように遮断領域から外に移動するか決定するために、個別にまたは組み合わせて使用できるさまざまなアプローチがある。図7(A)および図7(B)において、仮想遮断領域Sは、第1の領域Saと第2の領域Sbとに分割されている。ロボットが第1の分割領域Saにいるとき、ロボットは停止する(緊急停止)。ロボットが第2の分割領域Sbにある場合、ロボットは仮想境界Bを超えて遮断領域外にでるように走行する。仮想遮断領域Sの分割は、例えば、仮想境界Bから始まって、距離d(例えばロボットの幅)以内のすべての点が第2の分割領域Sbに属するように行われる。つまり、ロボットは、境界Bから所定の距離よりも離れている場合に緊急停止を実行し、境界Bに近いときには、自律的に遮断領域Sから脱出する。仮想遮断領域Sの分割は、例えば、ユーザ入力に基づいて行うことができる。これには、遮断領域を遵守することの重要性を含めることができる。遮断領域を遵守することが非常に重要な場合、第2の分割領域Sbの幅dは、非常に狭い(たとえば1cm)か、完全に省くように選択できる。
ロボットが遮断領域から外に移動する別のアプローチは、仮想力場(VFF(virtual force-field))分析に基づいている。力場分析は、計画消費なしで(つまり、ロボットの経路を事前に計画せずに)ロボットを反応的に制御する(それ自体、知られている)方法である。この目的のために、センサの測定値とロボットの目標に基づいて、ロボットに「作用する」仮想力場が決定(計算)される。この関連では、力と力場という用語は比喩的である。そのため、ロボットに作用する物理的な力ではなく、仮想的な力である。しかしながら、ロボットの制御ユニット150(図1B参照)はこれらの仮想力を計算するように構成されており、ロボットはこれらの力に応答することができる(例えば、ロボットに作用する仮想力な方向に後退する)。物理的な力場と同様に、さまざまなソース(障害物、ロボットの目標)の仮想力場を加算することができる。ロボットの現在の位置と方向に結果として生じる仮想力の方向と大きさに基づいて、駆動ユニットの制御コマンドが作成される。ロボットの制御はセンサ測定値に直接反応し、追加の計画消費はない。この力場分析は、例えば(ソフトウォールの場合)遮断領域Sのエッジ領域から外へロボットを効率的にナビゲートするために使用される。
図7(C)に例として示されるように、例えば常に仮想境界線Bの次の点を指す仮想力場(力ベクトルVによって概略的に表される)は、仮想遮断領域Sで考慮に入れることができる。このアプローチは、たとえば不正確に知られているロボットの位置が原因で、ナビゲーション中にロボットが遮断領域Sに進入した場合、遮断領域Sからロボットを迅速に外に移動させるのに特に適している。さらに、ロボットが正確な既知の位置で仮想遮断領域を走行しないように、力場を非常に大きく選択することができる。たとえば、実際の障害物と同様に選択されるため、障害物との衝突が大幅に回避される。
別のアプローチは、ロボットの計画された経路のコストに基づいてロボットを制御するために最低コストの経路を選択するものである。たとえば、遮断領域S内でのロボットの移動が走行される距離ごとに一定量が「コスト」としてかかり、遮断領域Sの外側の移動がコストを発生させない場合、これによりコストが最小化されて遮断領域Sから外に出る最短経路が選択される。したがって、ロボットは、「コスト」を最小限に抑えるために、遮断領域から外に出る最短経路を選択する。この関連における「コスト」という用語は、比喩的に理解されるべきであり、重み係数とも呼ばれる。
図7(D)は、例として、仮想遮断領域Sに至る経路のコスト関数の経過を示している。遮断領域Sの外の道はコストがかからない。仮想境界Bを通過する場合、基本コストC0が発生し得る。その後、移動距離に比例してコストが増加する。もちろん、他のコスト関数も使用できる。コストが所定の最大値Cmを下回る計画可能なパスがない場合、ロボットを停止し、たとえば緊急停止状態にすることができる。その結果、前述の仮想遮断領域Sの分割が暗黙的に達成される。
上記のアプローチでは、仮想境界Bは柔らかい壁(ソフトウォール)のように振る舞う。柔らかい壁は、その境界が固定されていないという事実によって特徴付けられるが、しなやかなゴムバンドのようなものである。一方、実際の障害物のような硬い壁は、通り抜けることができず(実際の障害物に衝突するため)、提供されない。ロボットはすぐに停止する。前述のコストベースのアプローチに関して、これは、たとえば、仮想境界Bに違反する計画された経路のコストがロボットの他の可能なすべての動きのコストよりも低い場合、仮想境界B、したがって遮断領域を(部分的に)ナビゲートできることを意味する。例えば、仮想遮断領域Sを走行する基本コストC0が最大値Cmと同じからそれより大きくなるように選択される場合、計画された方法で遮断領域を走行することは許可されない。図7(D)に示されるように、仮想遮断領域Sの基本コストC0が最大値Cmよりも小さく設定される場合、遮断領域を計画通りに走行することが可能である。これは、たとえば、ロボットが障害物の間に挟まっている場合、または障害物の背後の領域に到達するために障害物と仮想境界Bの間に限られたスペースしかない場合に必要である。「ハード」仮想壁の場合、仮想遮断領域S内のすべての動きは最大コストが割当られ、ハード仮想壁の背後にある遮断領域内を移動することはできない。
本発明のさらなる実施形態では、ロボット100が仮想遮断領域Sに配置されていることが検査により示された後、ロボット100は停止する。ユーザにはこのエラーが通知され、ユーザがロボットを別の場所に移動できるようになるまで、またはロボットが遮断領域Sを離れるまで、ロボットをこの時点で停止するかどうかの決定がユーザに委任される。ユーザは、(たとえば、HMI200を使用して)遮断領域Sから出る経路を指示または提案することができる。したがって、ユーザは、ロボットを直接(リモート)制御するか、たとえば経路のポイントや大まかな方向を指定でき、これに基づいて、ロボットは仮想遮断領域Sの外へ自動的に走行する。たとえば、ロボットがそれを超えて遮断領域Sを離れるように制御される仮想境界Bを設定できる。これは、異なる仮想境界を超えてそこから去ることのできる領域の場合に役立つ。たとえば、この目的でユーザに現在の地図を表示できる。加えて、例えば、ロボットは、その画像がヒューマンマシンインターフェイス200に送信されるカメラを有し、ユーザは、これらの画像に基づいて仮想遮断領域から安全な経路を指し示すことができる。
(ロボットが助けを求める)ロボットが誤って仮想遮断領域Sに侵入し、遮断領域Sを離れる上記の可能性が存在しない場合、ユーザにとって望ましくない動作を回避するためにロボットは停止(緊急停止)し、ユーザの介入を待つ。同じことは、ロボットが自動的に自由に走行できない場合や、ロボットが動かなくなる場合にも当てはまる。たとえば、ロボットは、ロボットがタスクを実行しているときに部屋のドアが閉められることにより、部屋のユーザによって不注意に閉じ込められる可能性があり、これによりロボットは、タスクの終了後に基地局に帰れなくなる可能性がある。他の例としては、ロボットが床のケーブルに絡まる場合、回転ブラシのようなロボットのアクチュエータの1つがブロックされている場合、ロボットが2つの障害物の間に挟まっている場合、さらに移動しようとする場合に縁から落下する危険が迫っている場合、ロボットの機能のために重要なセンサがたとえば汚染によってデータを送らないか、限られたデータのみしか送らない場合、または他のセキュリティ上危険な状況な場合が挙げられる。
ロボットの状態を「緊急停止」などの特別なモードに設定して、ユーザが望む可能性のあるタスクの通常の中断または停止と区別するのが一般的である。内部ロボット状態「緊急停止」は、すべてのアクチュエータ(特に作業ユニット160および駆動ユニット170)が停止し、ユーザの(たとえば手動の)介入によってのみ再起動できることを意味する。この場合のユーザの介入は、たとえば、ロボットがどのようにしてこの状況から抜け出すかに関するコマンドの送信(たとえば、HMI200を用いて)である。場合によっては、センサのクリーニングやブロックされたアクチュエータの解放など、ユーザによる手動の介入が必要になる場合がある。
HMI200(または他の外部デバイス300)は、通信ユニット140を介してロボットの状態を調べることができ、それにより、ユーザに問題を通知することができる。さらに、ロボットは、「緊急停止」状態中に可聴および/または視覚(緊急)信号を発することができるため、ユーザはロボットを簡単に見つけて解放することができる。
しかしながら、自律移動ロボット100が継続的に信号を送信し、それにより、ユーザが家にいない間にバッテリが急速になくなるという問題が生じ得る。ユーザが到着するまでに、バッテリが空になり、ロボットが電源を切り、信号を送信できなくなる可能性がある。さらに、連続する音響信号によって隣人が妨害される可能性がある。ユーザは家にいることができるが、ロボットの問題に取り組む時間がない場合もある。この場合も、継続的に送信される信号が妨害となる。
したがって、ユーザがデバイスに関心がある場合にのみ、緊急信号を送信するのが適切である。したがって、ロボットの状態が外部デバイス300(例えば、HMI200)を介して問い合わせられ、ロボットが前述の「緊急停止」状態を有する場合、音響および/または光学信号を送信することができる。たとえば、スマートフォンやタブレットPCのアプリを介してロボットのステータスを確認できる。特に、ロボットのステータス情報の取得は、プログラムの開始時に自動的に実行できる。または、アプリにメニュー項目を含めることもでき、このメニュー項目の呼び出しにより、ロボットのステータス情報を呼び出すことができる。さらに、ロボットは、サーバ502を介してHMI200にプッシュメッセージを送信するように構成されてもよい。
たとえば、ロボットが問題を認識し、ステータスを「緊急停止」に設定すると、近くのユーザがロボットを支援できるように、緊急信号が所定の時間送信される。たとえば、5分間、助けが来ない場合、ロボットは、外部デバイス300を介してロボット100のステータスがポーリングされるまで、省電力モードに切り替えられる(たとえば、通信ユニット140を除くすべてのセンサとアクチュエータをオフにする)。
ユーザはスマートフォンやタブレットPCを簡単に持ち運ぶことができ、ロボットを世界中からの制御を可能にする(インターネット経由など)。しかしながら、ロボット100の状態の問い合わせにおいてユーザが家にいない場合、ロボットによる緊急信号の送信は不要である。したがって、たとえば、緊急信号が送信されるかどうかに関する決定では、ステータスを照会するデバイスの場所、したがってユーザの場所が考慮される。たとえば、ステータスを要求するデバイスの位置がロボット使用領域内またはロボット使用領域の近くにある場合にのみ、緊急信号が送信される。ロボット100は、異なるデータに基づいて外部デバイス(例えば、HMI200)の位置を決定してもよい。ロボットが、例えば外部デバイスに問い合わせを送信すると、外部デバイスは、外部デバイスがロボット使用領域内にあるかどうかを示す応答メッセージを送信する。外部デバイスは、GPSセンサを使用して位置を特定するように構成できる。また、外部デバイスがログインしているWLANのSSID(Service Set Identifier)により、外部デバイスの推論される(おおよその)場所を示すこともできる。ロボットは、問い合わせを送信する代わりに、外部デバイスが近くにあるかどうかを独自に検出するように構成することもできる。例えば、ロボット100は、それ自体と外部デバイスが同じWLANにログインしているかどうかを判定することができる。その場合、ロボットは外部デバイス(およびユーザ)が近くにいて緊急信号を送信していると想定する。ここで説明する例では、緊急信号は、ロボット自体によって直接生成され、ユーザが直接(技術機器の支援なしで)知覚できる(たとえば、光学または可聴)信号である。
たとえば、携行可能な外部デバイスは、その位置を決定してロボットに通知できる。これは、たとえば、GPSなどの衛星ベースの全地球測位システム、モバイルネットワークからの情報、またはWLAN情報により行われる。特に、ロボットが接続されているローカルWLANを介したHMI200の直接的な到達可能性は、ユーザが自宅にいることを非常によく示している。
ロボットは、デバイスからのステータス要求が自宅のWi-Fiなどのローカルネットワークから発信されたものか、インターネット経由で通信されたものかを判断することで、ユーザが自宅にいるかどうかも判断できる。インターネットを介した通信接続は通常、クラウドサービス(図1のサーバ502を参照)を介して行われるため、ローカル接続とは明確に区別できる。たとえば、ローカルネットワークを介したステータス要求の場合、ロボットは緊急信号を発信できるが、インターネットを介した要求では、これは実行されない。
さらに、他のセンサを使用してユーザの存在を検出できる。たとえば、ロボットに取り付けられたマイクは周囲の騒音を拾い、そこからユーザが家にいるか、家に出入りしているかを推測できる。他の多くの外部センサとデバイスは、ユーザの存在と不在に関する情報を持ち、ロボットと共有する場合がある。例えば、電子ドアロックおよび/またはそれに接続された警報システムは、ユーザが電子ドアロックをアクティブまたは非アクティブしたときに、ロボットに情報を送信する。
B…仮想境界
H…障害物
M…測定ポイント
S…仮想遮断領域
Sa、Sb…分割領域
T…移動軌跡
V…力ベクトル
W…領域
100、100B…自律移動ロボット
110…基地局
120…センサユニット
121…床センサ
140…通信ユニット
145…通信接続
150…制御ユニット
151…制御ソフトウェアモジュール
152…ナビゲーションモジュール
155…プロセッサ
156…メモリ
156…不揮発性メモリ
160…作業ユニット
170…駆動ユニット
190…プロジェクタ
200…ヒューマンマシンインターフェイス
201…タッチスクリーン
300…外部デバイス
500…インターネット
501…アクセスポイント
502…サーバ

Claims (68)

  1. センサと地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、
    前記センサから取得した測定データに基づいて障害物を検出し、検出された障害物の位置を決定するステップと、
    前記検出された障害物との衝突を避けるように前記ロボットを制御するステップと、
    を有し、
    前記地図は、少なくとも1つの仮想遮断領域が示された地図データを含み、前記少なくとも1つの仮想遮断領域は、ロボットを制御する際に、実際に検出された障害物を同じように考慮されることを特徴とする方法。
  2. 前記ロボットは、自身の固有の位置を決定し、前記自身の固有の位置と前記地図に基づいて前記ロボットとの前記仮想遮断領域の相対位置を計算し、前記仮想遮断領域は、実際に検出された障害物と同じように前記ロボットによって処理されることを特徴とする請求項1に記載の方法。
  3. 検出された障害物の決定された位置を地図に保存するステップと、
    前記ロボットによって前記ロボットの位置を決定するステップと、
    前記地図に格納された障害物を迂回して目的地への経路を計画する経路計画アルゴリズムを使用するステップであって、前記仮想遮断領域を前記地図内に保存された障害物として扱うステップと、をさらに有することを特徴とする請求項1又は請求項2に記載の方法。
  4. 遮断領域の位置は、前記地図に登録されたランドマークに対する相対位置として保存されることを特徴とする請求項1乃至請求項3の何れか一項に記載の方法。
  5. ここで、仮想遮断領域は、ロボットが横切ってはならない境界線によって定義され、および/または仮想遮断領域は、ロボットが走行してはならない領域によって定義されることを特徴とする請求項1乃至請求項4の何れか一項に記載の方法。
  6. センサと地図データを使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、
    前記地図データは、少なくとも1つの仮想境界線を有し、前記少なくとも1つの仮想境界線は、前記少なくとも1つの仮想境界線の第1の側と第2の側とを区別できるような方向を有し、
    前記ロボットのナビゲートの際に前記境界線の前記第1の側から来る第1の方向における前記境界線の横切りは回避され、
    前記ロボットのナビゲートの際に前記境界線の前記第2の側から来る第2の方向における前記境界線の横切りは許可される
    ことを特徴とする方法。
  7. 仮想境界線は、前記ロボットの作業中に前記ロボットによって処理されるロボット使用領域を残りのロボット使用領域から区別して境界を付けるために、前記地図データに一時的にのみ含められ、
    前記仮想境界線の向きは、前記ロボットは、処理されるべき領域に移動できるが、その領域から離れることはできない向きである
    ことを特徴とする請求項6に記載の方法。
  8. 前記ロボットが前記境界線の前記第1の側にいる場合に、前記ロボットは、ナビゲーションの際に前記ロボットの前記センサによって検出される、実際の障害物の輪郭と同じように仮想境界線を考慮する障害物回避アルゴリズムを使用することを特徴とする請求項6又は請求項7に記載の方法。
  9. 前記仮想境界線は、その位置が一時的又は永続的に前記地図データに保存される、開いた又は閉じた多角形チェインによって構成され、
    前記仮想境界線は、オプションとして、前記地図データに含まれる1つ以上の実際の障害物の1つ以上の輪郭とともに、前記ロボット使用領域内の仮想遮断領域に境界を付ける
    ことを特徴とする請求項6乃至請求項8のうちの何れか一項に記載の方法。
  10. 前記境界線は、実際の障害物の検出された輪郭に対して定義された距離で延び、前記ロボットは定義された距離よりも前記障害物に近づかないことを特徴とする請求項6乃至9の何れか一項に記載の方法。
  11. 前記境界線の位置は、前記実際の障害物に対する相対位置として保存されることを特徴とうする請求項10に記載の方法。
  12. センサと地図データを使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図データは、少なくとも1つの仮想遮断領域を含み、前記方法は、
    前記地図に保存されている情報に基づいて、前記ロボットが少なくとも部分的に仮想遮断領域にあるかどうかを検査するステップを、
    有する。
  13. 前記ロボットが前記ロボット使用領域を移動しているときにグローバルな自己位置特定を実行するステップをさらに有し、前記ロボットが移動した経路を保存し、
    前記グローバルな自己位置特定の実行中または完了後に、前記ロボットが少なくとも部分的に遮断領域内にいるどうかの検査が行われ、かつ、
    前記ロボットは、仮想遮断領域にいると判断するとすぐに、前記仮想遮断領域から安全に離れることができるまで、少なくとも格納された経路に沿って後退し、又は、
    前記ロボットは、前記自己位置特定の開始時にすでに仮想遮断領域にいたと判断するとすぐに、前記遮断領域で事前定義されたタスクの実行を開始する
    ことを特徴とする請求項12に記載の方法。
  14. 前記ロボットが前記ロボット使用領域を移動するときにグローバルな自己位置特定を実行するステップであって、前記ロボットの現在の位置に関する1つ以上の位置特定仮説を確立し、各位置特定仮説について、それらが仮想遮断領域にあるか仮想遮断領域の近くにあるかを決定するステップと、
    前記ロボットが前記遮断領域を離れるか、前記遮断領域までの距離が長くなるように前記ロボットを制御するステップと、
    を有することを特徴とする請求項12に記載の方法。
  15. 検査により前記ロボットが仮想遮断領域にいることが明らかになった場合、前記ロボットは、事前定義可能な基準に従って、前記ロボットが停止するか、または遮断領域を離れるかを決定することを特徴とする請求項12乃至請求項14の何れか一項に記載の方法。
  16. 前記遮断領域はエッジ領域とコア領域に分割され、前記事前定義可能な基準は、前記ロボットが前記コア領域にあるか前記エッジ領域にあるかであることを特徴とする請求項15に記載の方法。
  17. 前記ロボットは、前記遮断領域を離れることを決定した後、力場解析によって前記遮断領域から外へ離れるようにナビゲートすることを特徴とする請求項15又は請求項16に記載の方法。
  18. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を規則に決定し、地図データは、少なくとも1つの仮想遮断領域を含み、前記方法は、
    事前定義可能な基準に基づいて、遮断領域がアクティブであるか非アクティブであるかを検査するステップを、
    有し、
    前記ロボットはアクティブな遮断領域のみを考慮し、その結果、前記アクティブな遮断領域を走行しないことを特徴とする方法。
  19. 遮断領域がアクティブであるかどうかの基準は、現在の時刻、又は、その開始を、ヒューマンマシンインターフェイス上でユーザ入力によって定義できる、事前定義された時間間隔の経過であることを特徴とする請求項18に記載の方法。
  20. 遮断領域がアクティブであるかどうかの基準は、前記ロボットが特定のタスクを実行することであることを特徴とする請求項18又は請求項19に記載の方法。
  21. 遮断領域がアクティブであるかどうかの基準は、他のロボットが特定のタスクを実行することであることを特徴とする請求項18乃至請求項20の何れか一項に記載の方法。
  22. 遮断領域がアクティブであるかどうかの基準は、前記遮断領域が外部デバイス、特にヒューマンマシンインターフェイスによってアクティブまたは非アクティブとしてマークされたかどうかであることを特徴とする請求項18乃至請求項21の何れか一項に記載の方法。
  23. 前記ロボットは、以前に非アクティブな遮断領域がアクティブになり、前記ロボットが遮断領域にあると判断すると、前記ロボットは、前記遮断領域を離れる、および/または前記遮断領域での作業を終了することを特徴とする請求項18乃至請求項22の何れか一項に記載の方法。
  24. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、地図データは、前記ロボットが自動的には走行しない、少なくとも1つの仮想遮断領域を含み、前記方法は、
    通信接続を介して別のロボットから仮想遮断領域を表すデータを受信するステップと、
    受信したデータに基づいて、前記ロボットの地図に仮想遮断領域を保存するステップと、
    を有することを特徴とする方法。
  25. 前記仮想遮断領域を表す前記データは、現在実行中またはすでに完了した作業に応じて、特に作業中に処理すべきまたはすでに処理された領域に応じて、前記別のロボットによって生成されることを特徴とする請求項24に記載の方法。
  26. 前記通信接続を介して前記別のロボットから受信したメッセージに応答して、または所定の時間が経過した後に、以前に保存された遮断領域を削除するステップを有することを特徴とする請求項24又は請求項25に記載の方法。
  27. 自律移動ロボットと外部デバイスとを有するシステムであって、
    前記ロボットは、地図データに基づいて自身の環境を自動的にナビゲートし、
    前記ロボットが自動的には自身を解放できない状況を検出し、
    この検出に応じて前記ロボットの状態を設定するように
    構成され、
    前記外部デバイスは、
    少なくとも1つの通信接続を介して前記ロボットに問い合わせを送信して、前記ロボットの状態を照会するように
    構成され、
    前記ロボットは、さらに、前記外部デバイスからの問い合わせの受信時の前記ロボットの状態が、前記ロボットが自動的には自身を解放できない状況を示す場合、所定の時間、光学及び/又は音響信号を発するように
    構成されている
    ことを特徴とするシステム。
  28. 前記ロボットは、前記外部デバイスの位置を決定し、前記外部デバイスの決定された位置に応じて前記光学及び/又は音響信号を発し、前記外部デバイスが前記ロボットの使用領域又はその近くにいる場合にのみ前記信号を送信するように構成されていることを特徴とする請求項27に記載のシステム。
  29. 前記システムは、ユーザの存在を検出し、ユーザが存在する場合にのみ信号を送信するように構成されていることを特徴とする請求項27又は請求項28に記載のシステム。
  30. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、地図データは、少なくとも3つの異なる分類領域を含むことが可能で、前記方法は、
    前記センサを用いて前記ロボットにより自身の位置を決定するステップと、
    前記ロボットが前記少なくとも3つの異なる分類領域のいずれかにあることを検査するステップと、
    を有し、
    前記ロボットが前記少なくとも3つの異なる分類領域の第1の領域にある場合、自動的にナビゲートしてタスクを実行し、
    前記ロボットが前記少なくとも3つの異なる分類領域の第2の領域にある場合、自動的にナビゲートするが、タスクを実行せず、
    前記少なくとも3つの異なる分類領域の第3の領域は、前記ロボットが自動的に走行しない仮想遮断領域である
    ことを特徴とする方法。
  31. 前記第2の領域を横断するために、前記ロボットは、可能な限り短い経路または可能な限り速い経路を決定することを特徴とする請求項30に記載の方法。
  32. 前記ロボットのナビゲーションの際に、前記ロボットの経路または作業過程を計画するためにコスト関数が使用され、前記第2の領域の移動のコストは、前記第1の領域の移動コストよりも高いことを特徴とする請求項30又は請求項31に記載の方法。
  33. 前記ロボットは、前記ロボットが現在のタスクを完了したとき、および/またはタスクを遂行するために前記第2の領域を横切る必要があるときにのみ前記第2の領域を走行することを特徴とする請求項30乃至請求項32のいずれか一項に記載の方法。
  34. 少なくとも2つの自律移動ロボット間で情報を交換する方法であって、
    前記少なくとも2つのロボットのそれぞれは、センサと電子地図を使用してロボット使用領域を自律的にナビゲートし、地図を自動的に作成および更新するように構成されており、
    前記ロボットはそれぞれ、少なくとも1つの他のロボットに情報を送信できる通信モジュールを備えており、前記方法は、
    第1のロボットの第1の地図の座標を第2のロボットの第2の地図の座標への変換操作を自動的に決定するステップと、
    第1のロボットから第2のロボットに位置関連情報を送信するステップと、
    前記変換操作を使用して、前記第1の地図の座標の位置関連情報の座標を前記第2の地図の座標に変換するステップと、
    を有する方法。
  35. 前記変換操作を自動的に決定するステップは、
    基地局などの同じナビゲーション特徴の前記第1の地図に格納された第1の姿勢と、第2の地図に格納された第2の姿勢に基づいて前記変換操作を計算するステップを有することを特徴とする請求項34に記載の方法。
  36. 前記変換操作は、シフト、回転、およびオプションで、スケーリングを含むことを特徴とする請求項34又は請求項35に記載の方法。
  37. 自律移動ロボットのロボット使用領域の電子地図に仮想遮断領域を入力する方法であって、
    前記仮想遮断領域を定義するためにヒューマンマシンインターフェイスからのユーザ入力を受け入れるステップと、
    前記ユーザ入力を評価するステップであって、前記ユーザ入力が少なくとも1つの事前定義された基準を満たしているかどうかが検査されるステップと、
    前記ユーザ入力の評価に基づいて、前記仮想遮断領域を前記地図に保存するかどうか、および/またはどの幾何学的形式で保存するかを決定するステップと、
    を有する方法。
  38. 前記ヒューマンマシンインターフェイスが前記地図を表示し、前記ユーザ入力が表示された前記地図に基づくことを特徴とする請求項37に記載の方法。
  39. 前記ヒューマンマシンインターフェイスは、タッチスクリーンを備えたポータブルデバイスであり、前記ユーザ入力は前記タッチスクリーンを介して行われることを特徴とする請求項38に記載の方法。
  40. 前記ユーザ入力は、前記地図に含まれる領域をマークする表面情報であり、前記ユーザ入力を評価するステップは、前記地図内でマークされた領域を表す幾何学的基本形状を決定するステップを含むことを特徴とする請求項37乃至請求項39のいずれか一項に記載の方法。
  41. 前記ユーザ入力は境界線を表す線情報であり、
    前記ユーザ入力を評価するステップは、前記境界線と前記地図に格納された、障害物の輪郭に基づいて前記遮断領域を決定するステップを含むことを特徴とする請求項37乃至請求項40のいずれか一項に記載の方法。
  42. 前記境界線は2つの障害物の輪郭を接続するか、1つの障害物の輪郭に2つの異なる場所で接触し、前記ロボット使用領域は2つの分割領域に分割されることを特徴とする請求項41に記載の方法。
  43. 前記2つの分割領域のうち小さい方の分割領域が仮想遮断領域として定義されることを特徴とする請求項42に記載の方法。
  44. 前記2つの分割領域のうち、前記ロボットおよび/または基地局が配置されていない領域は、仮想遮断領域として定義されることを特徴とする請求項42に記載の方法。
  45. 前記ロボットと前記基地局が異なる分割領域にある場合、ヒューマンマシンインターフェイスを介してユーザに警告メッセージが出力されることを特徴とする請求項44に記載の方法。
  46. 前記境界線は閉じた多角形チェインであり、前記多角形チェインによって閉じられた領域は仮想遮断領域として定義されることを特徴とする請求項41乃至請求項45のいずれか一項に記載の方法。
  47. 前記ユーザ入力を評価するステップは、前記ユーザ入力によって定義された遮断領域の形状、サイズ、および位置の少なくとも1つに基づいていることを特徴とする請求項37乃至請求項46のいずれか一項に記載の方法。
  48. 前記仮想遮断領域の前記位置、前記サイズ、または前記形状のために前記ロボットがもはや通過できないロボット使用領域の領域は、仮想遮断領域に自動的に追加されることを特徴とする請求項47に記載の方法。
  49. 前記ユーザ入力を評価するステップは、前記ユーザ入力によって定義された前記遮断領域を、壁などの障害物の前記地図に格納された輪郭と位置合わせするステップを含むことを特徴とする請求項37乃至請求項48のいずれか一項に記載の方法。
  50. 前記ユーザ入力によって定義された前記遮断領域の位置は、前記地図に登録されたランドマークに対する相対位置として保存されることを特徴とする請求項37乃至請求項49のいずれか一項に記載の方法。
  51. 前記ユーザ入力を評価するステップは、前記地図に既に保存されている障害物を検出するステップと、前記障害物からの距離を決定するステップとを有し、
    前記遮断領域は、すでに前記地図に格納されている検出された障害物から所定の距離で延びる境界線によって定義されることを特徴とする請求項37乃至請求項50のいずれか一項に記載の方法。
  52. 前記少なくとも1つの事前定義された基準は、その要件が満たされない場合、前記ロボットが前記地図内の前記仮想遮断領域を自動的に保存しないという要件が含まれ、
    ユーザはヒューマンマシンインターフェイスを介して、前記要件が満たされていないことを通知され、
    前記仮想遮断領域は、ヒューマンマシンインターフェイスを介したさらなるユーザ入力があった後に初めて確認のために保存される
    ことを特徴とする請求項37乃至請求項51のいずれか一項に記載の方法。
  53. 前記少なくとも1つの事前定義された基準は、少なくとも次の要件、すなわち、前記ロボットは、遮断領域が考慮されると、前記ロボット使用領域の事前定義された位置に到達できることが含まれることを特徴とする請求項52に記載の方法。
  54. 前記要件が満たされているかどうかが検査され、この検査においては、前記ロボットの現在位置又は、たとえば基地局の位置などの所定の開始位置から事前定義された位置までの経路を計画するために経路計画アルゴリズムが使用されることを特徴とする請求項53に記載の方法。
  55. 前記少なくとも1つの事前定義された基準には、
    (1)前記仮想遮断領域が考慮される際に、前記ロボットは基地局に到達可能であること、
    (2)前記ロボットが前記仮想遮断領域の外側にあること、
    (3)前記仮想遮断領域に属しておらず、前記仮想遮断領域なしで到達できる前記ロボット使用領域の領域は、前記仮想遮断領域が考慮される場合でも前記ロボットが到達可能であることの要件のうちの少なくとも1つの要件が含まれることを特徴とする請求項52乃至請求項54の何れか一項に記載の方法。
  56. 前記要件が満たされていない場合に、前記仮想遮断領域の変更により前記要件が満たされるかを検査するステップを更に含む請求項52乃至請求項55のいずれか一項に記載の方法。
  57. 前記仮想遮断領域の変更は、前記仮想遮断領域および/または前記仮想遮断領域の境界のシフト、回転、および歪みの少なくとも1つの操作を含むことを特徴とする請求項56に記載の方法。
  58. センサと電子地図を使用してロボット使用領域内を独自にナビゲートするように構成された自律移動ロボットを制御する方法であって、前記ロボットは、前記地図内の自身の位置を定期的に決定し、前記地図は、前記ロボットがナビゲートする際に走行しない、少なくとも1つの仮想遮断領域を含み、前記方法は、
    前記ロボットの機能が危険にさらされているか制限されている前記ロボット使用領域をナビゲートする際に危険領域を検出するステップと、
    検出された危険領域を取り囲む遮断領域を自動的に定義するステップと、
    前記遮断領域を前記地図に保存するステップと、
    を有することを特徴とする方法。
  59. 前記危険領域の検出は、学習走行および/または使用中に実行され、その際に前記ロボットは前記ロボット使用領域の地図を作成し、前記地図は、前記ロボットのその後の使用の際にも使用されることを特徴とする請求項58に記載の方法。
  60. 前記危険領域は、立ち下がりエッジ、前記ロボットが接触なしには検出できない障害物、前記ロボットの動きに高い程度のスリップが含まれる領域の少なくとも1つを含むことを特徴とする請求項58または請求項59に記載の方法。
  61. 地図データに基づいてロボット使用領域を自動的にナビゲートするように構成された自律移動ロボットと、
    前記ロボット使用領域内の床面または物体に情報を投影するように構成されたプロジェクタと、
    を有するシステムであって、
    前記システムは、前記地図データから位置関連情報を関連位置とともに抽出し、前記位置関連情報を前記プロジェクタによって前記床面または前記床面にある物体の対応する位置に投影するように構成されているシステム。
  62. 前記プロジェクタは、前記自律移動ロボットまたは別のロボット上に配置されることを特徴とする請求項61に記載のシステム。
  63. 前記システムは、前記ロボットの現在の位置および/または向きに基づいて投影すべき情報を決定するように構成されることを特徴とする請求項61または請求項62に記載のシステム。
  64. 前記自律移動ロボットまたは前記別のロボットは、前記位置関連情報の投影を行う方向を含む位置を決定するように構成されていることを特徴とする請求項62に記載のシステム。
  65. 前記位置関連情報は、仮想遮断領域、仮想境界線、清掃すべき領域、または清掃されていない領域であることを特徴とする請求項61乃至請求項64のいずれか一項に記載のシステム。
  66. 自律移動ロボットであって、
    前記ロボットは、地図データに基づいてロボット使用領域を自動的にナビゲートするように構成され、
    前記ロボットは、ヒューマンマシンインターフェイスを介してユーザから位置関連情報を受信し、これに基づいてロボット経路を決定し、これに沿って移動するように構成されており、
    前記ロボットが前記ロボット経路を移動中または移動した後、ユーザのさらなる入力に応じて、前記位置関連情報を、破棄するか、前記地図データと共に永続的に保存する
    ことを特徴とする自律移動ロボット。
  67. 前記位置関連情報は、表面領域、特に仮想遮断領域を表し、それに基づいて決定された前記ロボット経路は、前記表面領域の境界に沿って延びることを特徴とする請求項66に記載のロボット。
  68. 前記ロボット経路は、前記ロボットが完全に前記表面領域内で走行するか、完全に前記表面領域の外側で走行するか、又は、前記境界上で走行するように前記表面領域の前記境界に沿って延びることを特徴とする請求項67に記載のロボット。
JP2019547460A 2017-03-02 2018-02-27 自律移動ロボットの制御方法 Pending JP2020509500A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102017104427.2A DE102017104427A1 (de) 2017-03-02 2017-03-02 Verfahren zur Steuerung eines autonomen, mobilen Roboters
DE102017104427.2 2017-03-02
DE102017104428.0 2017-03-02
DE102017104428.0A DE102017104428A1 (de) 2017-03-02 2017-03-02 Verfahren zur Steuerung eines autonomen, mobilen Roboters
PCT/EP2018/054807 WO2018158248A2 (de) 2017-03-02 2018-02-27 Verfahren zur steuerung eines autonomen,mobilen roboters

Publications (2)

Publication Number Publication Date
JP2020509500A true JP2020509500A (ja) 2020-03-26
JP2020509500A5 JP2020509500A5 (ja) 2021-03-18

Family

ID=61521507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019547460A Pending JP2020509500A (ja) 2017-03-02 2018-02-27 自律移動ロボットの制御方法

Country Status (5)

Country Link
US (2) US11709489B2 (ja)
EP (2) EP3974934A1 (ja)
JP (1) JP2020509500A (ja)
CN (1) CN110709790A (ja)
WO (1) WO2018158248A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054647A1 (ja) * 2020-09-08 2022-03-17 村田機械株式会社 走行領域決定方法及び自律走行体
WO2022114847A1 (ko) * 2020-11-27 2022-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2023287105A1 (ko) * 2021-07-14 2023-01-19 엘지전자 주식회사 이동 로봇
WO2023043117A1 (ko) * 2021-09-17 2023-03-23 네이버랩스 주식회사 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR102529661B1 (ko) * 2021-11-29 2023-05-08 주식회사 와이즈오토모티브 주행환경 구축 장치 및 방법
WO2023089886A1 (ja) * 2021-11-18 2023-05-25 パナソニックIpマネジメント株式会社 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム
WO2023157345A1 (ja) * 2022-02-21 2023-08-24 パナソニックIpマネジメント株式会社 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム
WO2023171685A1 (ja) * 2022-03-07 2023-09-14 U-Star合同会社 取引管理方法および取引管理システム
WO2024143237A1 (ja) * 2022-12-27 2024-07-04 株式会社クボタ 圃場登録装置、圃場登録方法、及びコンピュータプログラム

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11772270B2 (en) 2016-02-09 2023-10-03 Cobalt Robotics Inc. Inventory management by mobile robot
US11445152B2 (en) 2018-08-09 2022-09-13 Cobalt Robotics Inc. Security automation in a mobile robot
US10414052B2 (en) 2016-02-09 2019-09-17 Cobalt Robotics Inc. Building-integrated mobile robot
US11724399B2 (en) 2017-02-06 2023-08-15 Cobalt Robotics Inc. Mobile robot with arm for elevator interactions
DE102017105540A1 (de) * 2017-03-15 2018-09-20 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Bodenbearbeitungsgerätes
CN108803589A (zh) * 2017-04-28 2018-11-13 深圳乐动机器人有限公司 机器人虚拟墙系统
WO2018204308A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Method and apparatus for object status detection
US11274929B1 (en) * 2017-10-17 2022-03-15 AI Incorporated Method for constructing a map while performing work
CN107566743B (zh) * 2017-10-30 2019-10-11 珠海市一微半导体有限公司 移动机器人的视频监控方法
EP3605142A4 (en) * 2017-11-14 2020-08-05 Positec Power Tools (Suzhou) Co., Ltd SELF-PROPELLED DEVICE AND ITS CONTROL PROCESS
WO2019209877A1 (en) 2018-04-23 2019-10-31 Sharkninja Operating Llc Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest
WO2019212240A1 (en) * 2018-05-04 2019-11-07 Lg Electronics Inc. A plurality of robot cleaner and a controlling method for the same
KR102100476B1 (ko) 2018-05-04 2020-05-26 엘지전자 주식회사 복수의 이동 로봇 및 그 제어방법
KR102015498B1 (ko) * 2018-06-27 2019-10-23 엘지전자 주식회사 복수의 자율주행 청소기 및 그 제어방법
US11669086B2 (en) * 2018-07-13 2023-06-06 Irobot Corporation Mobile robot cleaning system
CN110733033B (zh) 2018-07-19 2023-03-24 科沃斯机器人股份有限公司 机器人控制方法、机器人及存储介质
US11460849B2 (en) * 2018-08-09 2022-10-04 Cobalt Robotics Inc. Automated route selection by a mobile robot
US11082667B2 (en) 2018-08-09 2021-08-03 Cobalt Robotics Inc. Contextual automated surveillance by a mobile robot
US10835096B2 (en) * 2018-08-30 2020-11-17 Irobot Corporation Map based training and interface for mobile robots
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
JP2020075032A (ja) * 2018-11-09 2020-05-21 東芝ライフスタイル株式会社 自律型電気掃除機
CN111360808B (zh) * 2018-12-25 2021-12-17 深圳市优必选科技有限公司 一种控制机器人运动的方法、装置及机器人
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
WO2020146352A1 (en) * 2019-01-08 2020-07-16 R-Go Robotics Ltd. System and method for monitoring movements
JP6764138B2 (ja) * 2019-03-28 2020-09-30 日本電気株式会社 管理方法、管理装置、プログラム
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
US11531343B1 (en) * 2019-04-22 2022-12-20 Amazon Technologies, Inc. System for user interactions with an autonomous mobile device
JP7188279B2 (ja) * 2019-05-29 2022-12-13 トヨタ自動車株式会社 機械学習方法および移動ロボット
US11537137B2 (en) * 2019-06-18 2022-12-27 Lg Electronics Inc. Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof
US11694563B2 (en) * 2019-07-09 2023-07-04 Here Global B.V. Method and apparatus to control one or more drones based on real-time or predictive position information
KR102298582B1 (ko) * 2019-07-12 2021-09-08 엘지전자 주식회사 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법
US11694432B2 (en) * 2019-07-23 2023-07-04 Toyota Research Institute, Inc. System and method for augmenting a visual output from a robotic device
US11409279B1 (en) * 2019-09-26 2022-08-09 Amazon Technologies, Inc. Autonomously motile device with remote control
JP2021071814A (ja) * 2019-10-29 2021-05-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US11507103B2 (en) * 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
CN111240322B (zh) * 2020-01-09 2020-12-29 珠海市一微半导体有限公司 机器人移动限制框的工作起点确定方法及运动控制方法
SE544024C2 (en) * 2020-03-03 2021-11-09 Husqvarna Ab Robotic work tool system and method for redefining a work area perimeter
US11810160B1 (en) * 2020-03-27 2023-11-07 United Services Automobile Association Building mapping tools
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US12094195B2 (en) 2020-04-20 2024-09-17 Boston Dynamics, Inc. Identifying stairs from footfalls
CN111552286B (zh) * 2020-04-22 2024-05-07 深圳市优必选科技股份有限公司 一种机器人及其移动控制方法和装置
US12077229B2 (en) 2020-04-22 2024-09-03 Boston Dynamics, Inc. Stair tracking for modeled and perceived terrain
CN113757829B (zh) * 2020-05-27 2022-09-27 广东美的制冷设备有限公司 空气净化器的控制方法、电子设备及计算机可读存储介质
CN111815739B (zh) * 2020-07-02 2023-09-01 科沃斯机器人股份有限公司 一种行进方法、自移动设备和计算机可读存储介质
DE102020208893A1 (de) 2020-07-16 2022-01-20 BSH Hausgeräte GmbH Steuerung eines Reinigungsroboters
JP7471953B2 (ja) * 2020-08-13 2024-04-22 株式会社東芝 点検システムおよび点検方法
WO2022034686A1 (ja) * 2020-08-14 2022-02-17 日本電気株式会社 動作範囲設定装置、動作範囲設定方法及び記録媒体
CN114468845B (zh) * 2020-10-23 2023-01-20 好样科技有限公司 自行走装置及其控制方法
CN112405530B (zh) * 2020-11-06 2022-01-11 齐鲁工业大学 基于可穿戴视觉的机器人视觉跟踪控制系统及控制方法
US11673581B2 (en) * 2020-12-11 2023-06-13 Waymo Llc Puddle occupancy grid for autonomous vehicles
DE102020215846B3 (de) * 2020-12-14 2022-01-27 BSH Hausgeräte GmbH Steuerung einer Bodenbearbeitungsmaschine
CN112596654B (zh) * 2020-12-25 2022-05-17 珠海格力电器股份有限公司 数据处理、电子设备的控制方法、装置、设备及电子设备
CN112597555A (zh) * 2020-12-29 2021-04-02 广东湾区智能终端工业设计研究院有限公司 设备主动脱困方法及电子设备、计算设备、存储介质
CN112902839B (zh) * 2021-01-21 2022-05-20 华中科技大学 一种基于点激光位移传感器的加工余量测量方法和系统
CN113693521B (zh) * 2021-02-10 2023-05-05 北京石头创新科技有限公司 自动清洁设备控制方法及装置、介质及电子设备
CN113091749B (zh) * 2021-04-12 2022-08-23 上海大学 仿人机器人在复杂未知迷宫环境的行走导航和重定位方法
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
EP4116788B1 (de) * 2021-07-09 2024-08-28 Vorwerk & Co. Interholding GmbH Sich selbsttätig fortbewegendes bodenbearbeitungsgerät
EP4184272A1 (en) 2021-11-18 2023-05-24 Mobile Industrial Robots A/S A method for navigating an autonomous mobile robot
CN114415654B (zh) * 2021-12-01 2024-05-28 上海思岚科技有限公司 一种脱困路径的生成方法及设备
GB2613620A (en) * 2021-12-10 2023-06-14 Dyson Technology Ltd Method for edge cleaning
SE2151621A1 (en) * 2021-12-25 2023-06-26 Husqvarna Ab Improved navigation for a robotic work tool system
CN114343507A (zh) * 2022-01-28 2022-04-15 深圳市优必选科技股份有限公司 地图数据的生成方法、装置及扫地机器人
CN116736837A (zh) * 2022-03-03 2023-09-12 追觅创新科技(苏州)有限公司 自移动设备的地图更新方法、自移动设备及存储介质
JP2023151723A (ja) * 2022-04-01 2023-10-16 オムロン株式会社 移動機構が移動する作業場所に対応する環境地図を管理するシステム、方法、およびプログラム
US20230347923A1 (en) * 2022-04-27 2023-11-02 Tmrw Foundation Ip S. À R.L. Location-based autonomous navigation using a virtual world system
EP4434422A1 (de) * 2023-03-24 2024-09-25 Vorwerk & Co. Interholding GmbH Verfahren zum betreiben eines selbstfahrenden reinigungsgeräts und selbstfahrendes reinigungsgerät
CN116859937A (zh) * 2023-07-28 2023-10-10 北京小米机器人技术有限公司 机器人的控制方法、控制装置、电子设备及存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069475A (ja) * 2001-08-27 2003-03-07 Yaskawa Electric Corp 無人台車の走行支援装置
JP2005124753A (ja) * 2003-10-22 2005-05-19 Sharp Corp 自走式掃除機
JP2005304553A (ja) * 2004-04-16 2005-11-04 Funai Electric Co Ltd 掃除機
JP2008140159A (ja) * 2006-12-01 2008-06-19 Matsushita Electric Works Ltd 自律移動装置
JP2009123045A (ja) * 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法
JP2009301247A (ja) * 2008-06-12 2009-12-24 Hitachi Appliances Inc 自律移動ロボットの仮想壁システム
JP2010066932A (ja) * 2008-09-09 2010-03-25 Murata Machinery Ltd 経路計画装置及び自律移動装置
WO2011074165A1 (ja) * 2009-12-17 2011-06-23 村田機械株式会社 自律移動装置
JP2011175393A (ja) * 2010-02-24 2011-09-08 Toyota Motor Corp 経路計画装置、自律移動ロボット、及び移動経路の計画方法
JP2016087106A (ja) * 2014-11-05 2016-05-23 シャープ株式会社 掃除支援装置及び掃除機
JP2016186748A (ja) * 2015-03-27 2016-10-27 本田技研工業株式会社 無人作業車の制御装置
JP2016192040A (ja) * 2015-03-31 2016-11-10 株式会社日本総合研究所 自走型走行装置、管理装置、及び歩行障害箇所判定システム
US20160335497A1 (en) * 2015-05-11 2016-11-17 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
JP2016201095A (ja) * 2015-04-09 2016-12-01 アイロボット コーポレイション 移動ロボットの移動の制限

Family Cites Families (276)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0142594B1 (en) 1983-10-26 1989-06-28 Automax Kabushiki Kaisha Control system for mobile robot
JPS61251809A (ja) 1985-05-01 1986-11-08 Hitachi Ltd 自動焦点調節装置
US4777416A (en) 1986-05-16 1988-10-11 Denning Mobile Robotics, Inc. Recharge docking system for mobile robot
US5377106A (en) 1987-03-24 1994-12-27 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for navigating an unmanned vehicle and a vehicle for the same
JPH0313611A (ja) 1989-06-07 1991-01-22 Toshiba Corp 自動清掃装置
US5109566A (en) 1990-06-28 1992-05-05 Matsushita Electric Industrial Co., Ltd. Self-running cleaning apparatus
US5260710A (en) 1991-01-31 1993-11-09 Stanley Electric Co., Ltd. Vehicular optical-radar apparatus
JP3198532B2 (ja) 1991-05-14 2001-08-13 松下電器産業株式会社 自走式掃除機
JPH0680203A (ja) 1992-03-24 1994-03-22 East Japan Railway Co 床面洗浄ロボットの制御方法
CA2115859C (en) 1994-02-23 1995-12-26 Brian Dewan Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
DE4421805C1 (de) 1994-06-22 1995-08-17 Siemens Ag Verfahren zur Orientierung, Fahrwegplanung und Steuerung einer autonomen mobilen Einheit
JP3346513B2 (ja) 1994-07-01 2002-11-18 ミノルタ株式会社 マップ記憶方法及びそのマップを使用する経路作成方法
BE1008470A3 (fr) 1994-07-04 1996-05-07 Colens Andre Dispositif et systeme automatique de depoussierage de sol et engin y adapte.
US5995884A (en) 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
FR2763726B1 (fr) 1997-05-20 2003-01-17 Bouchaib Hoummadi Procede de gestion de la circulation routiere par camera video
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
CN1183427C (zh) 1997-11-27 2005-01-05 阳光及自动化公司 移动机器人及其控制系统的改进
CA2322419A1 (en) 1998-03-10 1999-09-16 Siemens Aktiengesellschaft Optical sensor system for detecting the position of an object
IL124413A (en) 1998-05-11 2001-05-20 Friendly Robotics Ltd System and method for area coverage with an autonomous robot
ATE255241T1 (de) 1998-07-20 2003-12-15 Procter & Gamble Robotersystem
ES2222906T3 (es) 1999-06-17 2005-02-16 SOLAR & ROBOTICS S.A. Dispositivo automatico de recogida de objetos.
GB9917232D0 (en) 1999-07-23 1999-09-22 Notetry Ltd Method of operating a floor cleaning device
JP4207336B2 (ja) 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
US7155308B2 (en) 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
US6594844B2 (en) 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
JP2002085305A (ja) 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
WO2002048646A1 (fr) 2000-12-11 2002-06-20 Mitsubishi Denki Kabushiki Kaisha Telemetre optique
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6883201B2 (en) 2002-01-03 2005-04-26 Irobot Corporation Autonomous floor-cleaning robot
JP3594016B2 (ja) 2001-01-30 2004-11-24 日本電気株式会社 ロボットのプログラム実行方法、ロボットシステムおよびプログラム処理装置
RU2220643C2 (ru) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
EP1408729B1 (fr) 2001-05-28 2016-10-26 Husqvarna AB Amelioration d'une tondeuse robotique
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
ATE510247T1 (de) 2001-06-12 2011-06-15 Irobot Corp Verfahren und system zur multimodalen bedeckung für einen autonomen roboter
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
EP1441632B1 (en) 2001-09-26 2013-05-01 F. Robotics Acquisitions Ltd. Robotic vacuum cleaner
DE10204223B4 (de) 2002-01-31 2004-05-06 Infineon Technologies Ag Gehäuse für eine Koppelanordnung zum Ein- und/oder Auskoppeln optischer Signale
JP2004133882A (ja) 2002-05-10 2004-04-30 Royal Appliance Mfg Co 自律性マルチプラットフォーム・ロボットシステム
JP2003330543A (ja) 2002-05-17 2003-11-21 Toshiba Tec Corp 充電式自律走行システム
WO2004032086A1 (ja) 2002-10-04 2004-04-15 Fujitsu Limited ロボットシステムおよび自律走行ロボット
DE10261787B3 (de) 2002-12-23 2004-01-22 Alfred Kärcher Gmbh & Co. Kg Mobiles Bodenbearbeitungsgerät
KR100561855B1 (ko) 2002-12-30 2006-03-16 삼성전자주식회사 로봇용 로컬라이제이션 시스템
US20050010331A1 (en) 2003-03-14 2005-01-13 Taylor Charles E. Robot vacuum with floor type modes
US7805220B2 (en) 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
US7756322B2 (en) 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US20070061041A1 (en) 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
EP1533629A3 (de) 2003-11-21 2006-05-24 Siemens Aktiengesellschaft Entfernungsmessung mit einem mobilen Endgerät
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE102004004505B9 (de) 2004-01-22 2010-08-05 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungsgerät sowie Verfahren zu dessen Steuerung
JP4264009B2 (ja) 2004-01-23 2009-05-13 シャープ株式会社 自走式掃除機
WO2005083541A1 (en) 2004-01-28 2005-09-09 Irobot Corporation Debris sensor for cleaning apparatus
JP3841220B2 (ja) 2004-01-30 2006-11-01 船井電機株式会社 自律走行ロボットクリーナー
JP2005211359A (ja) 2004-01-30 2005-08-11 Funai Electric Co Ltd 自律走行ロボットクリーナーシステム
EP2073088B1 (en) 2004-02-03 2011-06-15 F. Robotics Aquisitions Ltd. Robot docking station and robot for use therewith
KR100506097B1 (ko) 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
US20060020369A1 (en) 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
JP2005270413A (ja) 2004-03-25 2005-10-06 Funai Electric Co Ltd 自走式掃除機
US7720554B2 (en) 2004-03-29 2010-05-18 Evolution Robotics, Inc. Methods and apparatus for position estimation using reflected light sources
JP4436186B2 (ja) 2004-05-12 2010-03-24 アルパイン株式会社 ナビゲーション装置及び地図表示方法
JP4377744B2 (ja) 2004-05-13 2009-12-02 本田技研工業株式会社 ロボット制御装置
EP1776624A1 (en) 2004-06-24 2007-04-25 iRobot Corporation Programming and diagnostic tool for a mobile robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
KR100641113B1 (ko) 2004-07-30 2006-11-02 엘지전자 주식회사 이동로봇 및 그의 이동제어방법
KR100645379B1 (ko) 2004-10-29 2006-11-15 삼성광주전자 주식회사 로봇 제어 시스템 및 로봇 제어방법
US7389156B2 (en) 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
ATE468062T1 (de) 2005-02-18 2010-06-15 Irobot Corp Autonomer oberflächenreinigungsroboter für nass- und trockenreinigung
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
KR100638220B1 (ko) 2005-04-23 2006-10-27 엘지전자 주식회사 주행로봇의 위치감지장치 및 그를 구비한 로봇청소기
JP4455417B2 (ja) 2005-06-13 2010-04-21 株式会社東芝 移動ロボット、プログラム及びロボット制御方法
DE102005041980B4 (de) 2005-09-05 2015-01-15 Robert Bosch Gmbh Elektro-optisches Messgerät
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
US9144360B2 (en) 2005-12-02 2015-09-29 Irobot Corporation Autonomous coverage robot navigation system
EP2120122B1 (en) 2005-12-02 2013-10-30 iRobot Corporation Coverage robot mobility
US7539557B2 (en) 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
DE102006007764A1 (de) 2006-02-20 2007-08-23 Sick Ag Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
KR100988736B1 (ko) 2006-03-15 2010-10-20 삼성전자주식회사 자율주행 이동로봇의 최단 경로 이동을 위한 홈 네트워크시스템 및 그 방법
US7483151B2 (en) 2006-03-17 2009-01-27 Alpineon D.O.O. Active 3D triangulation-based imaging method and device
EP2027806A1 (en) 2006-04-04 2009-02-25 Samsung Electronics Co., Ltd. Robot cleaner system having robot cleaner and docking station
KR100735565B1 (ko) 2006-05-17 2007-07-04 삼성전자주식회사 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
US20130302132A1 (en) * 2012-05-14 2013-11-14 Kiva Systems, Inc. System and Method for Maneuvering a Mobile Drive Unit
US8355818B2 (en) 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
KR100791384B1 (ko) 2006-07-05 2008-01-07 삼성전자주식회사 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇
KR100791386B1 (ko) 2006-08-18 2008-01-07 삼성전자주식회사 이동 로봇의 영역 분리 방법 및 장치
US8996172B2 (en) 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
KR100815545B1 (ko) 2006-12-06 2008-03-20 삼성광주전자 주식회사 서비스 로봇 충전방법
KR100791389B1 (ko) 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
DE102007003024A1 (de) 2007-01-20 2008-07-31 Sick Ag Triangulationssensor mit Entfernungsbestimmung aus Lichtfleckposition und -form
CN101033971B (zh) * 2007-02-09 2011-02-16 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
CA2682256C (en) 2007-03-21 2017-01-03 Commonwealth Scientific And Industrial Research Organisation Method for planning and executing obstacle-free paths for rotating excavation machinery
DE102007016913A1 (de) 2007-04-05 2008-10-09 Inmach Intelligente Maschinen Gmbh Verfahren zum Abfahren einer Arbeits-Fläche
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
KR101168481B1 (ko) 2007-05-09 2012-07-26 아이로보트 코퍼레이션 자동 커버리지 로봇
US20090048727A1 (en) 2007-08-17 2009-02-19 Samsung Electronics Co., Ltd. Robot cleaner and control method and medium of the same
KR20090019338A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 광학 센서
KR101330734B1 (ko) 2007-08-24 2013-11-20 삼성전자주식회사 로봇청소기와 도킹 스테이션을 구비하는 로봇청소기 시스템
DE202007014849U1 (de) 2007-10-24 2008-01-17 Pepperl + Fuchs Gmbh Optoelektronischer Sensor zum Nachweis von Objekten in einem Überwachungsbereich
KR101415879B1 (ko) 2008-01-04 2014-07-07 삼성전자 주식회사 이동 로봇을 도킹시키는 방법 및 장치
KR20090077547A (ko) 2008-01-11 2009-07-15 삼성전자주식회사 이동 로봇의 경로 계획 방법 및 장치
DE102008014912B4 (de) 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
JP4909930B2 (ja) 2008-03-28 2012-04-04 日立アプライアンス株式会社 自走式掃除システム
US8194233B2 (en) 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
KR101543490B1 (ko) 2008-04-24 2015-08-10 아이로보트 코퍼레이션 로봇 가능화 모바일 제품을 위한 위치 측정 시스템, 위치 결정 시스템 및 운전 시스템의 적용
DE102008028931A1 (de) 2008-06-18 2009-12-24 BSH Bosch und Siemens Hausgeräte GmbH Verfahren und Vorrichtung zum Steuern einer Fahrbewegung eines Roboters, insbesondere eines Staubsammelroboters in einem Flächenbereich
CN101387514B (zh) 2008-08-28 2010-07-28 上海科勒电子科技有限公司 距离检测感应装置
WO2010083474A2 (en) 2009-01-17 2010-07-22 Boomerang Systems, Inc. Variable offset positioning antenna array for enhanced guidance of automated guided vehicles (agvs)
KR101553654B1 (ko) 2009-02-13 2015-10-01 삼성전자 주식회사 이동 로봇 및 이동 로봇의 이동 방법
DE102009001734A1 (de) 2009-03-23 2011-02-24 Robert Bosch Gmbh Optikträger
JP5506225B2 (ja) 2009-03-30 2014-05-28 セーレン株式会社 広告シートのリサイクル方法
EP2261762A3 (en) 2009-06-12 2014-11-26 Samsung Electronics Co., Ltd. Robot cleaner and control method thereof
US8428776B2 (en) 2009-06-18 2013-04-23 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
KR101672787B1 (ko) 2009-06-19 2016-11-17 삼성전자주식회사 로봇청소기와 도킹스테이션 및 이를 가지는 로봇청소기 시스템 및 그 제어방법
DE102009059216A1 (de) 2009-08-12 2011-02-24 Vorwerk & Co. Interholding Gmbh Verfahren zur Zielführung eines selbsttätig verfahrbaren Gerätes
DE102009041362A1 (de) 2009-09-11 2011-03-24 Vorwerk & Co. Interholding Gmbh Verfahren zum Betreiben eines Reinigungsroboters
RU2012122469A (ru) 2009-11-06 2013-12-20 Эволюшн Роботикс, Инк. Способы и системы для полного охвата поверхности автономным роботом
DE102009052629A1 (de) 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
KR101626984B1 (ko) 2009-11-16 2016-06-02 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US8892251B1 (en) 2010-01-06 2014-11-18 Irobot Corporation System and method for autonomous mopping of a floor surface
DE102010000174B4 (de) 2010-01-22 2022-09-01 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Verfahren zur Reinigung eines Raumes mittels eines selbsttätig verfahrbaren Reinigungsgerätes
KR101686170B1 (ko) 2010-02-05 2016-12-13 삼성전자주식회사 주행 경로 계획 장치 및 방법
DE102010000317A1 (de) 2010-02-05 2011-08-11 Vorwerk & Co. Interholding GmbH, 42275 Verfahren zur Reinigung eines Raums mittels eines selbsttätig verfahrbaren Reinigungsgerätes
KR101649645B1 (ko) 2010-02-08 2016-08-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP2011181997A (ja) 2010-02-26 2011-09-15 Brother Industries Ltd 通信装置およびプログラム
DE102010000607B4 (de) 2010-03-02 2022-06-15 Vorwerk & Co. Interholding Gmbh Als Basisstation für ein selbsttätig verfahrbares Saug- und/oder Kehrgerät einsetzbarer Haushaltsstaubsauger
KR20110119118A (ko) 2010-04-26 2011-11-02 엘지전자 주식회사 로봇 청소기, 및 이를 이용한 원격 감시 시스템
KR101487778B1 (ko) 2010-05-11 2015-01-29 삼성전자 주식회사 센싱 시스템 및 이를 갖춘 이동 로봇
US20110295423A1 (en) * 2010-05-27 2011-12-01 Noel Wayne Anderson Condition based keep-out for machines
US8442682B2 (en) 2010-05-28 2013-05-14 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous robot charging stations and methods
DE102010017211A1 (de) 2010-06-02 2011-12-08 Vorwerk & Co. Interholding Gmbh Basisstation für ein selbsttätig verfahrbares Bodenreinigungsgerät sowie Verfahren zur Reinigung eines Bodens mittels eines solchen Bodenreinigungsgerätes
DE102010017689A1 (de) 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
JP5560978B2 (ja) 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
KR101483541B1 (ko) 2010-07-15 2015-01-19 삼성전자주식회사 로봇청소기, 메인터넌스 스테이션 그리고 이들을 가지는 청소시스템
DE102010033768A1 (de) 2010-08-09 2012-02-09 Dürr Systems GmbH Steuersystem und Steuerverfahren für einen Roboter
DE102011050357A1 (de) 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines selbsttätig verfahrbaren Gerätes
CN101945325B (zh) 2010-08-13 2016-04-27 厦门雅迅网络股份有限公司 一种基于基站定位的朋友感知方法
CN102407522B (zh) 2010-09-19 2014-03-26 泰怡凯电器(苏州)有限公司 智能机器人系统及其充电对接方法
KR20120043865A (ko) 2010-10-27 2012-05-07 주식회사 케이티 이동통신 단말의 위치정보를 활용한 로봇 인터랙션 서비스 제공 시스템, 방법 및 장치
KR101750340B1 (ko) 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101752190B1 (ko) 2010-11-24 2017-06-30 삼성전자주식회사 로봇청소기 및 그 제어방법
CN103443612B (zh) 2010-12-30 2016-04-20 美国iRobot公司 碎屑监视
WO2012099694A1 (en) 2010-12-30 2012-07-26 Irobot Corporation Coverage robot navigation
US9749780B2 (en) 2011-02-05 2017-08-29 Apple Inc. Method and apparatus for mobile location determination
US20120215380A1 (en) 2011-02-23 2012-08-23 Microsoft Corporation Semi-autonomous robot that supports multiple modes of navigation
US8779391B2 (en) 2011-03-03 2014-07-15 Teckni-Corp Sterilization system with ultraviolet emitter for eradicating biological contaminants
DE102011006062B4 (de) 2011-03-24 2023-05-25 RobArt GmbH Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
KR101842460B1 (ko) 2011-04-12 2018-03-27 엘지전자 주식회사 로봇 청소기, 이의 원격 감시 시스템 및 방법
KR101850386B1 (ko) 2011-04-19 2018-04-19 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
CN107019467B (zh) 2011-04-29 2019-08-23 艾罗伯特公司 机器人真空吸尘器
KR101760950B1 (ko) 2011-05-17 2017-07-24 엘지전자 주식회사 네트워크 시스템의 제어방법
JP5399525B2 (ja) 2011-06-29 2014-01-29 シャープ株式会社 光学式測距装置および電子機器
DE102011051729A1 (de) 2011-07-11 2013-01-17 Alfred Kärcher Gmbh & Co. Kg Selbstfahrendes Bodenreinigungsgerät
TW201305761A (zh) 2011-07-21 2013-02-01 Ememe Robot Co Ltd 自走機器人及其定位方法
US8761933B2 (en) 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
KR101366860B1 (ko) 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
JP5348215B2 (ja) 2011-09-29 2013-11-20 カシオ計算機株式会社 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
WO2013085085A1 (en) 2011-12-08 2013-06-13 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
JP2013146302A (ja) 2012-01-17 2013-08-01 Sharp Corp 自走式電子機器
DE102012100406A1 (de) 2012-01-19 2013-07-25 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zum Betreiben eines solchen Gerätes
US8982217B1 (en) 2012-01-31 2015-03-17 Google Inc. Determining states and modifying environments according to states
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
KR101984214B1 (ko) 2012-02-09 2019-05-30 삼성전자주식회사 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법
CN202540304U (zh) * 2012-03-26 2012-11-21 天津商业大学 循迹输送机器人
US9146560B2 (en) 2012-03-30 2015-09-29 Irobot Corporation System and method for implementing force field deterrent for robot
CN102738862B (zh) 2012-06-13 2014-12-03 杭州瓦瑞科技有限公司 移动机器人的自动充电系统
DE102012211071B3 (de) 2012-06-27 2013-11-21 RobArt GmbH Interaktion zwischen einem mobilen Roboter und einer Alarmanlage
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
CN104508424B (zh) 2012-07-24 2016-09-28 夏普株式会社 光学式测距装置和电子设备
US8855914B1 (en) 2012-08-31 2014-10-07 Neato Robotics, Inc. Method and apparatus for traversing corners of a floored area with a robotic surface treatment apparatus
DE102012109004A1 (de) 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
TWI459170B (zh) 2012-10-04 2014-11-01 Ind Tech Res Inst 行進控制裝置以及具有該行進控制裝置之自動引導載具
EP2903787B1 (en) 2012-10-05 2019-05-15 iRobot Corporation Robot management systems for determining docking station pose including mobile robots and methods using same
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US20140128093A1 (en) 2012-11-06 2014-05-08 Qualcomm Incorporated Portal transition parameters for use in mobile device positioning
TWI481980B (zh) 2012-12-05 2015-04-21 Univ Nat Chiao Tung 電子裝置及其導航方法
KR101428877B1 (ko) 2012-12-05 2014-08-14 엘지전자 주식회사 로봇 청소기
KR20140073854A (ko) 2012-12-07 2014-06-17 주식회사 유진로봇 PSD scanner를 사용한 청소로봇의 장애물 감지 시스템
DE102012112035A1 (de) 2012-12-10 2014-06-12 Miele & Cie. Kg Verfahren zum Betrieb eines Staubsaugerroboters und nach dem Verfahren arbeitender Staubsaugerroboter sowie System mit einem solchen Staubsaugerroboter
DE102012112036B4 (de) 2012-12-10 2023-06-07 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
KR102058918B1 (ko) 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
US9903130B2 (en) 2012-12-22 2018-02-27 Maytronics Ltd. Autonomous pool cleaning robot with an external docking station
US8880340B2 (en) 2013-01-04 2014-11-04 The Boeing Company Augmented mobile platform localization
DE102013100192A1 (de) 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
US9375847B2 (en) 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
US9233472B2 (en) 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
JP6409003B2 (ja) * 2013-01-18 2018-10-17 アイロボット コーポレイション ロボットを用いる方法及びそのコンピュータ可読記憶媒体
GB2509991B (en) 2013-01-22 2015-03-11 Dyson Technology Ltd Docking station for a mobile robot
GB2509990B (en) 2013-01-22 2014-12-10 Dyson Technology Ltd Docking station for a mobile robot
GB2509989B (en) 2013-01-22 2015-03-04 Dyson Technology Ltd Docking station for a mobile robot
KR101490170B1 (ko) 2013-03-05 2015-02-05 엘지전자 주식회사 로봇 청소기
KR101450537B1 (ko) 2013-03-05 2014-10-14 엘지전자 주식회사 로봇 청소기
KR101450569B1 (ko) 2013-03-05 2014-10-14 엘지전자 주식회사 로봇 청소기
WO2014138472A2 (en) 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
JP6088858B2 (ja) 2013-03-12 2017-03-01 シャープ株式会社 自走式機器
WO2014145996A1 (en) * 2013-03-15 2014-09-18 Mtd Products Inc Autonomous mobile work system comprising a variable reflectivity base station
JP2014197294A (ja) 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
CN104117987B (zh) 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 移动机器人
DE102013104399A1 (de) 2013-04-30 2014-10-30 Vorwerk & Co. Interholding Gmbh Basisstation für ein selbsttätig verfahrbares Gerät
DE102013104547A1 (de) 2013-05-03 2014-11-06 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
GB2513912B (en) 2013-05-10 2018-01-24 Dyson Technology Ltd Apparatus for guiding an autonomous vehicle towards a docking station
CN104161487B (zh) 2013-05-17 2018-09-04 恩斯迈电子(深圳)有限公司 移动装置
KR20140145648A (ko) 2013-06-13 2014-12-24 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR102124509B1 (ko) * 2013-06-13 2020-06-19 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR101534005B1 (ko) 2013-07-16 2015-07-06 주식회사 유진로봇 청소 로봇을 이용하여 사용자 지정 영역을 청소하기 위한 시스템 및 그 방법
EP3030943B1 (de) 2013-08-06 2020-10-07 Robart GmbH Verfahren zum betreiben eines bodenreinigungsgerätes und bodenreinigungsgerät
JP5897517B2 (ja) 2013-08-21 2016-03-30 シャープ株式会社 自律移動体
CN104460663A (zh) 2013-09-23 2015-03-25 科沃斯机器人科技(苏州)有限公司 智能手机控制清扫机器人的方法
EP2863177A1 (en) 2013-10-18 2015-04-22 AEVO GmbH Method of calculation a path for use in a vehicle
US20150115138A1 (en) 2013-10-25 2015-04-30 Avago Technologies General Ip (Singapore) Pte. Ltd. Sensing Device With A Shield
KR102152641B1 (ko) 2013-10-31 2020-09-08 엘지전자 주식회사 이동 로봇
KR102095817B1 (ko) 2013-10-31 2020-04-01 엘지전자 주식회사 이동 로봇, 이동 로봇의 충전대 및 이들을 포함하는 이동 로봇 시스템
EP2870852A1 (en) 2013-11-11 2015-05-13 Honda Research Institute Europe GmbH Lawn mower with network communication
WO2015072897A1 (en) 2013-11-12 2015-05-21 Husqvarna Ab Improved navigation for a robotic working tool
CN103699123B (zh) * 2013-12-02 2016-05-25 北京工业大学 一种基于三个电磁传感器的机器人导航方法
EP3076844B1 (de) 2013-12-06 2018-05-30 Alfred Kärcher GmbH & Co. KG Reinigungssystem
KR102118049B1 (ko) 2013-12-19 2020-06-09 엘지전자 주식회사 로봇 청소기, 로봇 청소기 시스템 및 그 제어방법
CN105849660B (zh) 2013-12-19 2020-05-08 伊莱克斯公司 机器人清扫装置
KR102116596B1 (ko) 2013-12-19 2020-05-28 에이비 엘렉트로룩스 나선형 패턴으로 이동하는 사이드 브러시를 구비한 로봇 진공 청소기
CN203672362U (zh) 2013-12-31 2014-06-25 科沃斯机器人科技(苏州)有限公司 激光测距装置及其自移动机器人
KR102118051B1 (ko) 2014-01-17 2020-06-02 엘지전자 주식회사 로봇청소기 시스템 및 이의 충전방법
KR102158695B1 (ko) 2014-02-12 2020-10-23 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
KR102072387B1 (ko) 2014-03-20 2020-02-03 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
DE102014012811B4 (de) 2014-03-27 2017-09-21 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
CN104972462B (zh) 2014-04-14 2017-04-19 科沃斯机器人股份有限公司 自移动机器人避障行走方法
KR101578884B1 (ko) 2014-04-25 2015-12-29 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578864B1 (ko) 2014-04-25 2015-12-29 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578861B1 (ko) 2014-04-25 2015-12-21 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578878B1 (ko) 2014-05-07 2015-12-21 에브리봇 주식회사 거리 센서 장치, 로봇 청소기 및 이의 제어 방법
JP5676039B1 (ja) 2014-05-28 2015-02-25 シャープ株式会社 自走式装置、自走式装置の制御方法、および、自走式装置の制御プログラム
CN105334847B (zh) 2014-06-26 2021-07-27 科沃斯机器人股份有限公司 自移动机器人
DE102014110104B4 (de) 2014-07-18 2016-12-15 eyeworkers interactive GmbH System zur Steuerung von beweglichen Mobileinheiten
DE102014110265A1 (de) 2014-07-22 2016-01-28 Vorwerk & Co. Interholding Gmbh Verfahren zur Reinigung oder Bearbeitung eines Raumes mittels eines selbsttätig verfahrbaren Gerätes
WO2016019996A1 (de) 2014-08-06 2016-02-11 Alfred Kärcher Gmbh & Co. Kg Verfahren zum bearbeiten einer bodenfläche und bodenbearbeitungsgerät
DE102014111217A1 (de) 2014-08-06 2016-02-11 Vorwerk & Co. Interholding Gmbh Bodenreinigungsgerät zur Trocken- und Feuchtreinigung sowie Verfahren zum Betrieb eines selbstfahrenden Bodenreinigungsgerätes
US10211191B2 (en) 2014-08-06 2019-02-19 Pixart Imaging Inc. Image module package with transparent sub-assembly
KR102306709B1 (ko) 2014-08-19 2021-09-29 삼성전자주식회사 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
KR102527645B1 (ko) 2014-08-20 2023-05-03 삼성전자주식회사 청소 로봇 및 그 제어 방법
WO2016028021A1 (ko) 2014-08-20 2016-02-25 삼성전자주식회사 청소 로봇 및 그 제어 방법
JP5819498B1 (ja) 2014-08-27 2015-11-24 シャープ株式会社 自律移動体及び自律移動体システム
JP6325946B2 (ja) 2014-08-27 2018-05-16 東芝ライフスタイル株式会社 自律走行体装置
DE102014113040A1 (de) 2014-09-10 2016-03-10 Miele & Cie. Kg Verfahren zum Betrieb eines Haushaltsgerätesystems
EP3199083B1 (en) 2014-09-24 2021-09-08 Samsung Electronics Co., Ltd. Cleaning robot and method for controlling cleaning robot
WO2016048077A1 (ko) 2014-09-24 2016-03-31 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
CN105527961A (zh) 2014-09-30 2016-04-27 科沃斯机器人有限公司 一种自移动表面行走机器人系统及回归主充电座的方法
US9798328B2 (en) 2014-10-10 2017-10-24 Irobot Corporation Mobile robot area cleaning
CN104765362B (zh) 2014-11-07 2017-09-29 深圳市银星智能科技股份有限公司 一种清洁机器人的局部清扫模式
US9846042B2 (en) 2014-11-13 2017-12-19 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
US9788698B2 (en) 2014-12-10 2017-10-17 Irobot Corporation Debris evacuation for cleaning robots
US10444756B2 (en) 2014-12-11 2019-10-15 Husqvarna Ab Navigation for a robotic working tool
US9420741B2 (en) 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
JP6532530B2 (ja) 2014-12-16 2019-06-19 アクチエボラゲット エレクトロルックス ロボット掃除機の掃除方法
DE102014226084A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren zur Kartierung einer Bearbeitungsfläche für autonome Roboterfahrzeuge
TWI533101B (zh) * 2015-01-23 2016-05-11 cheng-xiang Yan System and Method of Restricting Robot Action
KR101640706B1 (ko) 2015-01-28 2016-07-18 엘지전자 주식회사 진공 청소기
KR102404258B1 (ko) 2015-02-06 2022-06-02 삼성전자주식회사 로봇충전복귀장치 및 그 복귀방법
CN104634601B (zh) 2015-02-09 2017-07-25 杭州市质量技术监督检测院 清洁机器人清洁性能的检测装置与方法
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
DE102015006014A1 (de) * 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation
CN105045098B (zh) 2015-05-29 2017-11-21 希美埃(芜湖)机器人技术有限公司 一种机器人喷涂轨迹自动生成系统的控制方法
US9919425B2 (en) 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
EP3156873B2 (en) 2015-10-15 2023-04-05 Honda Research Institute Europe GmbH Autonomous vehicle with improved simultaneous localization and mapping function
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
CN105425801B (zh) * 2015-12-10 2018-06-12 长安大学 基于先进路径规划技术的智能清洁机器人及其清洁方法
CN105990876B (zh) 2015-12-21 2019-03-01 小米科技有限责任公司 充电桩及其识别方法、装置和自动清洁设备
KR20170077756A (ko) * 2015-12-28 2017-07-06 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
CN105467398B (zh) 2015-12-31 2018-08-21 上海思岚科技有限公司 扫描测距设备
CN105527619B (zh) 2016-02-05 2018-07-17 上海思岚科技有限公司 一种激光测距设备
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
US10845817B1 (en) * 2016-08-11 2020-11-24 Ali Ebrahimi Afrouzi System and method for confining robotic devices
US10168709B2 (en) * 2016-09-14 2019-01-01 Irobot Corporation Systems and methods for configurable operation of a robot based on area classification
CN106527424B (zh) 2016-09-20 2023-06-09 深圳银星智能集团股份有限公司 移动机器人及移动机器人的导航方法
WO2020243436A1 (en) * 2019-05-30 2020-12-03 Infinity Collar Llc A system for providing a dynamic portable virtual boundary

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069475A (ja) * 2001-08-27 2003-03-07 Yaskawa Electric Corp 無人台車の走行支援装置
JP2005124753A (ja) * 2003-10-22 2005-05-19 Sharp Corp 自走式掃除機
JP2005304553A (ja) * 2004-04-16 2005-11-04 Funai Electric Co Ltd 掃除機
JP2008140159A (ja) * 2006-12-01 2008-06-19 Matsushita Electric Works Ltd 自律移動装置
JP2009123045A (ja) * 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法
JP2009301247A (ja) * 2008-06-12 2009-12-24 Hitachi Appliances Inc 自律移動ロボットの仮想壁システム
JP2010066932A (ja) * 2008-09-09 2010-03-25 Murata Machinery Ltd 経路計画装置及び自律移動装置
WO2011074165A1 (ja) * 2009-12-17 2011-06-23 村田機械株式会社 自律移動装置
JP2011175393A (ja) * 2010-02-24 2011-09-08 Toyota Motor Corp 経路計画装置、自律移動ロボット、及び移動経路の計画方法
JP2016087106A (ja) * 2014-11-05 2016-05-23 シャープ株式会社 掃除支援装置及び掃除機
JP2016186748A (ja) * 2015-03-27 2016-10-27 本田技研工業株式会社 無人作業車の制御装置
JP2016192040A (ja) * 2015-03-31 2016-11-10 株式会社日本総合研究所 自走型走行装置、管理装置、及び歩行障害箇所判定システム
JP2016201095A (ja) * 2015-04-09 2016-12-01 アイロボット コーポレイション 移動ロボットの移動の制限
US20160335497A1 (en) * 2015-05-11 2016-11-17 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054647A1 (ja) * 2020-09-08 2022-03-17 村田機械株式会社 走行領域決定方法及び自律走行体
WO2022114847A1 (ko) * 2020-11-27 2022-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2023287105A1 (ko) * 2021-07-14 2023-01-19 엘지전자 주식회사 이동 로봇
WO2023043117A1 (ko) * 2021-09-17 2023-03-23 네이버랩스 주식회사 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230041353A (ko) * 2021-09-17 2023-03-24 네이버랩스 주식회사 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR102699803B1 (ko) 2021-09-17 2024-08-29 네이버 주식회사 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
WO2023089886A1 (ja) * 2021-11-18 2023-05-25 パナソニックIpマネジメント株式会社 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム
KR102529661B1 (ko) * 2021-11-29 2023-05-08 주식회사 와이즈오토모티브 주행환경 구축 장치 및 방법
WO2023157345A1 (ja) * 2022-02-21 2023-08-24 パナソニックIpマネジメント株式会社 走行用地図作成装置、自律走行型ロボット、走行用地図作成方法、及び、プログラム
WO2023171685A1 (ja) * 2022-03-07 2023-09-14 U-Star合同会社 取引管理方法および取引管理システム
JP7345228B1 (ja) * 2022-03-07 2023-09-15 U-Star合同会社 取引管理方法および取引管理システム
WO2024143237A1 (ja) * 2022-12-27 2024-07-04 株式会社クボタ 圃場登録装置、圃場登録方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
WO2018158248A2 (de) 2018-09-07
EP3974934A1 (de) 2022-03-30
EP3590014A2 (de) 2020-01-08
US20230409032A1 (en) 2023-12-21
CN110709790A (zh) 2020-01-17
US11709489B2 (en) 2023-07-25
US20200150655A1 (en) 2020-05-14
EP3590014B1 (de) 2021-11-17
WO2018158248A3 (de) 2018-12-13

Similar Documents

Publication Publication Date Title
US20230409032A1 (en) Method for controlling an autonomous, mobile robot
EP3785093B1 (en) Robot contextualization of map regions
US11262200B2 (en) Boolean satisfiability (SAT) reduction for geometry and kinematics agnostic multi-agent planning
JP2021535485A (ja) 自律移動ロボットによるロボット使用領域の探索
CN111433697A (zh) 用于自主移动机器人的运动规划
US11373395B2 (en) Methods and systems for simultaneous localization and calibration
CN109998421B (zh) 移动清洁机器人组合及持久性制图
EP3460614B1 (en) Combined robot and cruising path generation method therefor
KR102478975B1 (ko) 2d 및 3d 경로 계획을 이용한 로봇 내비게이션
JP2019525342A (ja) 自律移動ロボッを制御する方法
US20180173242A1 (en) Pre-Computation of Kinematically Feasible Roadmaps
US9323250B2 (en) Time-dependent navigation of telepresence robots
US20200397202A1 (en) Floor treatment by means of an autonomous mobile robot
CN111149072A (zh) 用于机器人导航的磁力计
JP2019534516A (ja) 自律移動ロボットを動作させる方法
JP6636260B2 (ja) 自律移動体の走行経路教示システムおよび走行経路教示方法
CN112352207A (zh) 自主移动机器人及其控制方法
US20230371769A1 (en) Moving robot system
TWI804973B (zh) 在待清掃區內行駛的移動式機器人、移動式機器人系統及其執行協作行駛的方法
RU139571U1 (ru) Устройство ориентации и навигации тележки мобильного робота при его перемещении по горизонтальной поверхности в заданном помещении
TWI808480B (zh) 移動式機器人、移動式機器人系統以及在移動式機器人系統中執行協作行駛的方法
TWI789896B (zh) 移動式機器人系統以及執行移動式機器人的協作行駛的方法
WO2023276187A1 (ja) 走行用地図作成装置、走行用地図作成方法、及び、プログラム
TWI803965B (zh) 移動式機器人、移動式機器人系統及其執行協作行駛的方法
TW202217241A (zh) 樓層定位與地圖構建系統及其方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230314