JP2021180002A - 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法 - Google Patents

自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法 Download PDF

Info

Publication number
JP2021180002A
JP2021180002A JP2021102990A JP2021102990A JP2021180002A JP 2021180002 A JP2021180002 A JP 2021180002A JP 2021102990 A JP2021102990 A JP 2021102990A JP 2021102990 A JP2021102990 A JP 2021102990A JP 2021180002 A JP2021180002 A JP 2021180002A
Authority
JP
Japan
Prior art keywords
base station
robot
navigation
geometric feature
navigation sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021102990A
Other languages
English (en)
Inventor
ラインハルド ボーゲル
Vogel Reinhard
ハロルド アルテス
Artes Harald
クレストフ フレウーデンタラー
Freudenthaler Christoph
ファビアン レンハルド
Fabian Lenhardt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robart GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robart GmbH filed Critical Robart GmbH
Publication of JP2021180002A publication Critical patent/JP2021180002A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】基地局の位置特定と基地局へのドッキングを単純化または改善する。【解決手段】自律移動ロボット(100)と、前記ロボット(100)の基地局(200)とを含むシステムであって、前記ロボット(100)は、前記ロボット(100)の前記環境内の物体の幾何学的特徴を検出するナビゲーションセンサ(110)を備えたナビゲーションモジュールを有し、前記基地局は、前記ロボットが前記ナビゲーションセンサ(110)を用いて検出可能な少なくとも1つの幾何学的特徴を備え、前記ロボットは、前記ナビゲーションモジュールに結合され、前記基地局(200)の前記少なくとも1つの幾何学的特徴に基づいて前記基地局(200)を識別および/または位置特定し、前記ロボット(100)のドッキング位置を決定するように構成されたロボットコントローラを有することを特徴とするシステム。【選択図】図1

Description

本発明は、ロボットによる自律移動ロボットの基地局の識別および位置特定方法に関する。ロボットのセンサの較正のためにどのように基地局を使用することができるか、およびどのようにしてドッキング操作を改善することができるかについてさらに記載される。
近年、自律移動ロボット、特にサービスロボットは家庭での掃除や家の監視などにますます使用されている。これらのロボットがタスクを実行していないとき、それらは一般に基地局にドッキングされる。これにより、例えば、バッテリの充電、汚れ収集容器の清掃、またはロボットの洗浄液の再充填が基地局によって実行されることを可能にする。ロボットが完全に自律的に動作するためには、ロボットが基地局に確実に戻ることができることが重要である。こ課題を達成する様々な方法が知られている。特許文献1および特許文献2には、この課題に関する背景情報が含まれている。
US 2009 0281 661 A1 US 2014 0100 693 A
一般に、本発明の根底にある問題は、ロボットによるロボット基地局の識別および位置特定のための既知の方法ならびに基地局へのドッキングのための既知の方法を単純化または改善することにある。
上述の問題は、請求項1および請求項23に記載のシステムによって、請求項19に記載の基地局によって、請求項21、請求項34、請求項36、請求項41、及び請求項49に記載の方法によって解決される。本発明の様々な実施形態およびさらなる展開は、従属請求項の主題である。
以下では、自律移動ロボットと、ロボットの基地局とを含むシステムが開示される。ロボットは、ロボットの周囲の物体の幾何学的特徴を検出するナビゲーションセンサを備えたナビゲーションモジュールを有する。基地局は、ロボットがナビゲーションセンサを用いて検出可能な少なくとも1つの幾何学的特徴を備える。ロボットは、前記ナビゲーションモジュールに結合され、基地局の少なくとも1つの幾何学的特徴に基づいて基地局を識別および/または位置特定し、ロボットのドッキング位置を決定するように構成されたロボットコントローラを有する。
さらなる本発明の例は、移動ロボットの基地局である。基地局は、少なくとも1つの開口部が配置されたハウジングを有し、開口部は、その幾何学的形状によって、ロボットのセンサシステムによって検出され得る少なくとも1つの幾何学的特徴を規定している。
さらに、自律移動ロボットのための方法が開示されている。本発明の1つの例では、この方法は、ナビゲーションセンサを有する、ロボットのナビゲーションモジュールにより、ロボットの周囲の物体の幾何学的特徴を検出するステップを有する。検出された物体の少なくとも1つは、基地局の少なくとも1つの幾何学的特徴である。この方法は、さらに、基地局の少なくとも1つの幾何学的特徴に基づいて基地局を識別および/または位置特定するステップをさらに有する。
自律移動ロボットと、このロボットの基地局とを含むシステムのさらなる例では、ロボットは、ロボットの周囲の物体の幾何学的特徴を検出するためのナビゲーションセンサを備えたナビゲーションモジュールを有する。基地局は、ロボットがナビゲーションセンサを用いて検出可能な少なくとも1つの幾何学的特徴を有する。ナビゲーションモジュールは、基地局の検出された少なくとも1つの幾何学的特徴を用いてナビゲーションセンサの試験および/または較正をするように構成されている。
自律移動ロボットのための方法のさらなる例が開示されている。この例の1つの方法では、ナビゲーションセンサを有するロボットのナビゲーションモジュールによりロボットの周囲の物体の幾何学的特徴を検出するステップを有する。検出された特徴の少なくとも1つは、基地局の幾何学的特徴である。ナビゲーションセンサは、基地局の検出された少なくとも1つの幾何学的特徴により試験及び/又は較正がなされる。
自律移動ロボットの基地局への自動ドッキングのさらなる方法が開示されている。本発明の1つの例によれば、この方法は、
ロボットの位置及び方向を含む基地局上のロボットのドッキング位置を算出するステップと、ロボットをドッキング位置にナビゲートするステップとを有する。その後、ロボットが基地局(に正しくドッキングしているかどうかの試験が実行される。ロボットが正しく基地局にドッキングしていない場合には、ロボットの位置が変更され、 ロボットが基地局(に正しくドッキングしているかどうかの試験が再び実行される。この変更と試験は、ロボットが基地局に正しくドッキングしているかどうかの試験が成功するか中止基準が満たされるまで、繰り返し実行される。
本発明のさらなる例によれば、自律移動ロボットの基地局への自動ドッキングのための方法は、ナビゲーションセンサを有する、ロボットのナビゲーションモジュールによって障害物を検出するステップと、ロボットに対する基地局へのアクセスが、基地局の周りの規定された領域内の検出された障害物によって損なわれているかどうかの試験を実行するステップを有する。試験がロボットの基地局へのアクセスが損なわれていることを明らかにした場合、障害がユーザインタフェースを介して通知される。
自律移動ロボットのための方法のさらなる例では、ナビゲーションセンサを有する、ロボットのナビゲーションモジュールによりロボットの周囲の物体の幾何学的特徴を検出するステップと、検出された幾何学的特徴の少なくとも1つと、ロボットの動作領域の電子地図とに基づいてロボットをナビゲートするステップとを有する。電子地図には、ロボットの基地局の位置が指定される。この方法は、さらに、検出された幾何学的特徴が基地局にリンクされた幾何学的特徴を含むか否かの試験をするステップを有する。検出された幾何学的特徴が基地局にリンクされた幾何学的特徴を含む場合、基地局のリンクされた幾何学的特徴に基づいて基地局の現在位置を計算し、基地局の位置が電子地図上で更新される。
自律移動ロボットのための方法のさらなる例では、ナビゲーションセンサを有する、ロボットのナビゲーションモジュールによりロボットの周囲の物体の幾何学的特徴を検出するステップと、検出された幾何学的特徴の少なくとも1つと、ロボットの動作領域の電子地図とに基づいてロボットをナビゲートするステップを有する。電子地図には、ロボットの基地局の位置が指定されている。この方法では、基地局によって定義されていない第1の幾何学的特徴が基地局の位置とリンクされる。そして、SLAMアルゴリズムを用いて前記第1の幾何学的特徴が追跡され、第1の幾何学的特徴の位置が前記電子地図上で最新の状態に維持され、基地局の位置が第1の幾何学的特徴の位置に対する相対位置として保存される。
本発明によれば、ロボットによるロボット基地局の識別および位置特定のための既知の方法ならびに基地局へのドッキングのための既知の方法を単純化または改善する。
ロボットと、ロボット動作領域にある基地局とを示す図である。 三角測量を用いた光学距離測定を概略的に示す図である。 ロボットのナビゲーションセンサによって検出可能であり、基地局の前方ハウジング壁の開口によって規定される幾何学的特徴を有する基地局の例を示す図である。 起こり得る体系的な測定誤差と共に、ロボットのナビゲーションセンサを用いた基地局の幾何学的図形の検出を示す図である。 ロボットが基地局にドッキングする方法を示す図で、ロボットは、正しくドッキングされるまで方向を変え続けていることを示している。
以下において、本発明は、図面に示される例によって、より詳細に説明される。図面は、必ずしも縮尺通りではなく、本発明は、示された態様にのみ限定されない。代わりに、本発明の根底にある原理を説明することに重点が置かれる。
一般に、移動ロボットは基地局に確実かつ安全にドッキングできる必要がある。既知のシステム(基地局およびロボット)および基地局およびその正確な位置および向きを発見および認識するための方法では、ロボット内の特別なセンサ(例えば、光線)、ナビゲーションアルゴリズムに加えて実行される複雑な画像処理アルゴリズム、および/またはロボットが動作している領域内の特別なマーキングが良く使用される。さらに、基地局の位置特定と基地局へのロボットのドッキングは、多くの異なる種類の障害に対して堅牢であるべきである。例えば、基地局の位置が移動すると、基地局の信頼できる位置特定を損なう可能性がある。ナビゲーションのためにロボットに使用されるセンサの機能は、ロボットが動作する領域など、未知の環境において確実にテストすることができない。基地局への接近(ドッキング動作)は、走行距離測定誤差のために充電接触が失敗した場合に終了することがある。例えば、ユーザが、ドッキング動作を中断させる障害物を基地局の近くに配置し、その結果ドッキングが失敗する可能性がある。
上述した従来のロボット基地局システムおよび基地局の識別および位置特定の方法ならびに基地局へのロボットの確実なドッキングの方法の欠点の観点から、改善の必要性が存在する。例えば、ロボットに既に存在するナビゲーションセンサを使用して、基地局が信号を送出する必要なく、または特別なマーキングを基地局に付加する必要なく、ロボットの基地局の位置特定を可能にすることが望ましい。ここで説明される実施形態のいくつかによれば、この目的のために、基地局は、その幾何学的形状(例えば、基地局のハウジングの幾何学的特性(外形/形状))を用いて認識され、位置特定される。これは、基地局自体が、その外形のために、少なくとも1つの幾何学的特徴を示すことを意味し、これにより、ロボットは、基地局を認識することができる。基地局のハウジング上の(その幾何学的形状に影響を与えない)特別なマーキング又は(位置特定)信号の放出は、もはや必要ではない。一般に、ロボットは、その(例えば、清掃)作業が完了した後、素早くかつ確実に基地局に戻るべきである。ここで説明されている実施形態のいくつかによれば、この目的のために、基地局の位置が地図上にマークされ、様々な方法によって最新の状態に維持される。ロボットのさらなる望ましい能力は、ロボットが動作する異なる領域(例えば、建物の様々な床など)において行くべき道がわかる(正確かつ迅速に方向付けできる)ことである。ここで説明されている実施形態のいくつかによれば、この目的のために、ロボットが動作する領域のそれぞれに、ロボットが互いに区別することができるように1つの基地局が使用される。ロボットは、それぞれの動作領域のマップを各基地局にリンクする。ロボットが特定の基地局を識別すると、各基地局にリンクされているマップを使用して、すぐに(自己)位置特定を開始することができる。
移動ロボットの別の望ましい能力は、基地局への堅牢で正確なドッキングであり、これによりロボットの充電接点と基地局の充電接点との間の確実な接触を行うことができる。ここで説明するいくつかの実施形態によれば、このために予め計算されたドッキング位置に到達した後、安全にドッキングするためにロボットの位置および向きがわずかに修正される。妨害の可能性がある場合(例えば、基地局へのアクセスが阻止されている場合)にも、ドッキングが可能でなければならない。ここに記載された実施形態のいくつかによれば、この目的のために、起こり得る妨害が検出され、ユーザにその旨が通知される。
一般に、ロボットの動作領域内でナビゲーションセンサの機能性をテストし、必要に応じてそれを再較正することが可能であることが望ましい。ここに記載された実施形態では、この目的のために、事前に知られている幾何学的パラメータを有する基地局が使用される。
図1(A)は、自律移動ロボット100、及び、ロボットの動作領域内の対応する基地局200を示す図である。ロボットは、自身の環境内で方向付けし、ロボットの動作領域全体をナビゲートするための少なくとも1つのナビゲーションセンサ110を有するナビゲーションモジュールを有し、それによって自律的にタスクを実行することができる。ロボット100のナビゲーションモジュールは、ナビゲーションセンサ110の助けを借りて、床の表面材の情報とともに、障害物等の物体の幾何学的特徴などの、ロボットの環境内の「ナビゲーション特徴」の位置に関する情報を収集する。幾何学的特徴は、例えば、表面(例えば、壁)、線(例えば、ロボット100の環境内の壁、家具、又は他の物体の輪郭)、及び点(例えば、ロボット100の環境内の物体の辺又は隅部の点)である。あらゆるナビゲーション特徴は、部屋における位置(向きを含む)に関連付けられ、必要に応じて、ロボット100の電子地図に記録される。ナビゲーションモジュールは、例えば、障害回避戦略および/またはSLAM(Simultaneous Localization and Mapping)アルゴリズムおよび/またはロボットが動作する領域の1つ以上の地図を用いて動作する。ロボットは、動作中にロボット操作領域の新しい地図を作成したり、タスクを開始する前の既存の地図を使用したりすることができる。既に存在する地図は、探索的な走行のような初期のタスクの完了時にロボット自身によって作成されてもよく、別のロボットおよび/または人によって提供されてもよい。
ナビゲーションセンサ110は、ロボットの環境に関する情報(ロボットが動作する領域に関する情報)、特に1次元、2次元または3次元の幾何学的特徴に関する情報を検出する。ナビゲーションセンサ110は、例えば、三角測量によって、又は送信信号(例えば、レーザビームまたは超音波信号)の通過時間を測定することによって、センサと障害物との間の距離を検出する、光学および/または音響センサのような距離測定用のセンサであってもよい。したがって、例えば、三角測量センサ、ToF(Time of Flight)カメラ、レーザスキャナ、超音波センサなどをナビゲーションセンサとして使用することができる。このナビゲーションセンサ110を用いて、ロボット100のナビゲーションモジュールは、ロボットと、ロボットの環境内の物体の個々の点、線および/または表面との間の距離を決定することができる。このように検出された点、線および/または面は、「ナビゲーション特徴」として指定され、ロボットの地図上に保存される(すなわち、ナビゲーション特徴のジオメトリーと方向付けを含むその位置が電子地図上に指定される)。後で、ロボットは、これらのナビゲーションセンサの助けを借りて自らを方向付けることができ、および/または検出された障害物を回避して、衝突を防止することができる。ナビゲーションセンサ110の別の典型的な例は、画像データ処理によって画像に記録された環境内の物体(ナビゲーション特徴)のコーナおよびエッジを識別する検出モジュールを有する(例えばCCDまたはCMOS画像センサを備えた)カメラである。このようにして、ロボットに対する投影面内のナビゲーション特徴の位置を決定することができる。ロボットが移動するとき、この移動に基づいて、ナビゲーション特徴および部屋内のロボットの方向づけを含む位置を判定することができる。この手順は、ビジュアルSLAMと呼ばれる。
図1(C)は、基地局200の簡単な例を示している。基地局200は、ナビゲーションセンサによって検出することができるナビゲーション特徴としての幾何学的特徴を有する本体210を有する。基地局200の本体210は、例えば、ロボット100のバッテリを充電するための、または汚れを真空引きするための構成要素を含むことができる。例えば、2つの充電接点220が基地局200上に配置される。対応する接点がロボット100に配置され、ロボットの電池を充電するためには、これらの接点が充電接点220と接触しなければならない。すなわち、電池を充電するためには、ロボットが特定の位置と特定の向きで基地局にドッキングする必要がある。このために必要とされる位置および向き(経路)は、本体210の位置および向きがロボットに既知であるときに、ロボットによって決定され得る。
ここで説明する実施形態によれば、基地局200の幾何学的特性(すなわち、その外形またはその個々の部品)は、そのナビゲーションの目的でロボットのナビゲーションセンサ110の助けを借りてナビゲーション特徴として検出される。ナビゲーション特徴の特性を(ロボットのナビゲーションモジュールの助けを借りて)決定し、解釈することによって、基地局の、したがって基地局自体のナビゲーション特徴は、多くの追加の努力をすることなしに、ロボットの環境におけるそれらの位置および向きを決定することができ、それらをロボットの地図上に記録することができる。このために、例えば、以下のような単純な基準が用いられる。(1)特徴を他の特徴と分離する点(例えば、コーナー)の距離、(2)エッジ/セグメント/線の長さ、(3)表面の大きさ、(4)特徴の互いの相対位置、特に2つのエッジ、セグメントまたは線の間の角度、または3つの特定の点(コーナー)によって規定される角度、(5)比(相対的サイズ、長さ)、例えば2つの線の長さの間の比、(6)設計の標準値からの(誤った)測定の(二乗された)偏差のような誤差メトリック(より多くの点により、例えば、直線線形回帰によって確立することができる直線を決定することができ、回帰線から特定の点の偏差の程度は、所与の点が全体として仮定された線に属するかどうかの判断基準として働くことができる)。
例えば、検出された特徴の少なくともいくつかは、基地局の本体の一部の幅、深さおよび/または高さを指定する。基地局の位置を決定するために使用される基準は、計算が容易であり、様々な位置から確実に決定可能でなければならない。これについては、以下により詳細に説明する。
図1(A)に示される例では、光の三角測量によって、床の表面にほぼ平行に走る線の形で(可視または非可視範囲の)放射される構造化光のロボットの環境内の障害物までの距離が決定される。光三角測量の原理が図2に示されている。放射された構造光111は、障害物Hに当たって、そこから拡散的に散乱される。カメラは、障害物から反射された光(例えば、光線)を描写する環境を撮影する。三角測量により、選択された点または線全体に沿った照明された障害物Hまでの距離dは、その写真内の(すなわち、水平光線の場合には)構造化された反射光(すなわち、光線)の垂直位置xに基づいて決定される。
良好な検出を保証するために、基地局200は、その高さのために、ナビゲーションセンサ110から放射された光によって照明され、その深さのために壁からはっきりと区別できるように幾何学的に設計される。さらに、基地局の表面は、ナビゲーションセンサ110から放射された光が良好に拡散された状態で反射されるように(すなわち、吸収表面または鏡表面とならないように)設計される。
図1(B)は、図1(A)に示すシナリオのセンサ測定の起こりうる結果の一例を示す。具体的には、ロボット100は、そのナビゲーションモジュールおよびそのナビゲーションセンサ110の助けを借りて、基地局の測定に由来する2つの線形のナビゲーション特徴201および202を認識する。以下では、ナビゲーション特徴201、202は、境界線として、または単に線として参照される。これらの2本の線201、202のそれぞれは、側面(線201)と正面(線202)の幅(水平方向)に対応する特徴的な長さを有する。さらに、2つの線201および202は、ある既知の角度(例えば、直角)を含む。したがって、例えば、(例えば、床からある高の水平面内で)基地局200が辺の長さが例えば、5cmと15cmの辺の長さの矩形断面を有し、ロボット100が、ナビゲーションセンサ110を使用して、約5cm(線201)および15cm(線202)の長さを有する2つのほぼ矩形の線を検出して、これらの線201、202を基地局と解釈する。さらに、5:15=1:3のアスペクト比を使用することができる。図1(B)に示すように、ロボットは、ナビゲーションセンサの前面の影によって、基地局の片側を認識することができない。基地局のこのさらなる幾何学的特性を捕捉するために、ロボットは第2の側面も確実に検出するまで基地局の周りを移動することができる。したがって、基地局は、この場合、少なくとも2つの異なる位置から認識される。
上述の方法では、基地局200は、その矩形形状のみに基づいて認識される。このような場合、対応する側の長さを有する任意の矩形の物体(例えば、箱など)が基地局として認識されるので、誤検出の確率は高い。さらに、角部は、安全上の理由(怪我の危険性)または設計上の理由のために、一般に、丸みを帯びたエッジに置き換えられる場合がる。原理的には、このような丸みのあるエッジは、上述したナビゲーションセンサを用いて検出することもできる。しかし、丸められたフォームの処理に必要な計算に要する労力は、直線に必要なものよりも大きい。
このため、ここに記載された実施形態によれば、基地局の内部もその検出に利用される。この目的のために、1つまたは複数の開口部が基地局の本体に設けられる。これらの開口部を通して、基地局の個々の構成要素(例えば、汚れを掃除するためのもの)を見ることができる。しかしながら、これを省略して、1つ以上の内壁しか認識できないようにすることもできる。
図3(A)は、丸められた角部を有する基地局200と、基地局の前面に配置された2つの開口230の例を示す図である。図3(B)は、図3(A)の基地局200の断面図を示し、この断面は、床上からある高さにある水平面である。この高さは、ナビゲーションセンサ110がロボットの環境内の障害物までの距離測定を行う高さである。図3(C)は、ロボットが基地局の前方にある距離(例えば、0.5−1m)で位置している場合の測定の結果の一例を示す図である。ここから、基地局200の後壁の部分を見ることができ、これらはすべて1つの線に沿っている。これに加えて、ロボットは、無視できる測定誤差で、4点(1、2、3、4)の位置を決定することができる。この場合、2つの開口部230(窓)の位置および大きさは、点のペアの2つの点の距離がペア間で異なるように選択されている(d(1;2)≠d(1;3)≠d(1;4)≠d(2;3)≠d(2;4)≠d(3;4)、d(i、j)は、点iと点jとの間の距離を示す)。これらの距離は簡単に計算し、保存されている標準値と比較することができる。さらに、例えば、後壁によって形成された線から2点間の距離が、比較されてもよい。互いの距離の比も考慮に入れることができる。例えば回帰モデルの決定係数のような誤差関数を使用することにより、点1,2,3および4が後壁に平行な線に沿って存在する正確さの程度を試験することができる。これらの手段により、誤った検出の可能性を著しく減少させる多数の特徴が利用可能となり、毎日の練習で誤った検出が事実上発生しないようにできる。
内部を汚染から保護するために、ナビゲーションセンサ110から放射された光を通過させる透明材料でできたカバー250を開口部230の上に配置することができる。放出される光は、例えば、人間が見ることのできない赤外線のスペクトルを有し、このため、カバーは、ロボットから見た場合には、透明であるが、人間が見た場合には、色がついて、不透明となる。このようなカバー250は、開口部230を覆うだけでなく、これとは独立して、ユーザおよびロボットによって認識され得る異なる幾何学的形状を形成するために使用されるべきである。このようにして、設計の態様を簡単な検出可能性と組み合わせることができる。カバー250には、ナビゲーションセンサ110によって放射される光の波長に適合する反射防止膜が設けられてもよい。
説明された(水平)面の測定の場合には、(例えば、ナビゲーションセンサ110の設置高が異なるため、又は、例えば、ロボットが幾分斜めに立っているために測定面が床と完全に平行でない場合などのために)、床への距離の違いにより、測定がわずかに変化する。基地局がその幾何学的形状に基づいてこの平面内で確実に認識されるようにするためには、認識可能なナビゲーション特徴の少なくとも一つの選択(又は、より具体的にはそれらの基礎となる寸法)が期待される断面測定の環境において実際の高さ測定(距離測定が床から行われる平面の距離)に関係なく見つけられる。
いくつかの用途では、ロボットは、例えば、建物の2つの異なるフロアのような2つの相互に独立したロボット動作領域に使用される。ロボット100が、そのナビゲーションセンサ110の助けにより決定的に認識することができる基地局200が、ロボット動作領域の各々に配置される。したがって、ロボット100は、基地局200を区別することができる場合、ユーザが追加介入する必要なしに、即座に、種々の動作領域の何れの領域に配置されているかについての情報を得ることができる。
基地局200を区別できるようにするために、例えば、基地局の幾何学的形態の一部は、ユーザによって(例えば、基地局が動作する時に)変更されてもよく、すなわち、ナビゲーションセンサ110によって認識可能な特徴は、予め定義された方法で変更することができる。この変更は、例えば、基地局の部品の移動、取り外し、または追加によって達成することができる。図3(A)の例示した基地局200の場合、例えば、2つの開口のうちの1つのサイズ(幅)を変更することによって変更を行うことができる。したがって、例えば、ポイント3(図3(C))の位置は、例えば、追加のスクリーンを追加することによって変更することができる。例えば、2つの視野窓の間の中央パネルの後ろにスライド可能なスクリーンを配置することができる。
基地局200を地図上にマークする自律移動ロボット100は基本的に知られている。しばしば、基地局は地図の出発点として機能する、すなわち基地局は地図上に永久的な位置を有する。しかし、基地局の位置は変化する可能性がある。ナビゲーションセンサ110が検出できる特性(ナビゲーション特徴)に基づいて基地局を検出することにより、地図上の基地局の位置を容易に更新することができる。しかしながら、他の手段によって基地局を検出することも可能であり、これにより、ロボットの地図上の基地局の位置を更新することが可能になる。基地局の位置の変更は、(1)ロボットが動作中に、または(2)ロボットが基地局にドッキングしている間に、ユーザによって実行されてもよい。さらに、測定および距離測定誤差のために、ロボットによって実行されるマッピングおよび/または地図(SLAM)上のその位置特定は、ロボットによって予想される基地局の位置がその実際の位置に対応しない場合がある。最悪の場合、これは基地局の位置に関するすべての(有意義な)情報の損失をもたらす可能性がある。以下では、この問題をどのように解決するか、または少なくとも軽減するかを例を上げて説明する。
SLAMアルゴリズムを使用した位置更新−ナビゲーションセンサによって検出されたロボットの位置および選択されたナビゲーション特徴が連続的に相関するSLAM(Simultaneous Localization and Mapping)アルゴリズムは、自律移動体のナビゲーションにしばしば採用される。これにより、ロボットは計測誤差や距離誤差にもかかわらず堅牢なマッピングを実行できる。SLAMは比較的高い演算能力を必要とするため、必要な計算作業を制限するために、例えば壁などの選択された容易に視認可能なナビゲーション特徴のみが考慮される。SLAMアルゴリズムで追跡されるナビゲーション特徴(およびロボット)の位置は、連続的に修正され、SLAMアルゴリズムでは追跡されない他の物体との関係では、永久(相対)位置ではない。基地局の特徴は、一般に、SLAMアルゴリズムによって追跡するには小さすぎるので、(SLAMアルゴリズムによって追跡される)壁面に対して記録された位置を移動する場合がある。この場合に、記録された位置が間違った部屋に置かれたり、動作領域の外に位置されたりする可能性がある。このため、基地局の位置を更新することは有効である。
基地局も検出可能な幾何学的特徴(ナビゲーション特徴)を有するので、基地局の位置はSLAMアルゴリズムを用いて容易に最新に保つことができる。この目的のために、例えば、基地局の少なくとも1つの容易に検出可能な特徴(図3参照)が選択され、SLAMアルゴリズムを用いて追跡される。これは、例えば、図3(C)の点2と点3とによって形成されるセグメントとすることができる。あるいは、基地局の近傍で検出された特徴を使用することもできる。これは、例えば基地局と対向している壁によって形成される、図1(B)の線300とすることができる。いずれの場合も、ロボットは、SLAMアルゴリズムによって追跡された特徴のどれが基地局の位置を決定するかを記録する。これに加えて、ロボットは、このナビゲーション特徴に対する基地局の位置を保存することができる。ロボットが基地局に戻ろうとするとき、ロボットはこの特徴の近くの位置に移動することができ、信頼性高く戻ってくることが保証される。
ロボットの動作中の位置更新−たとえば、ロボットが動作している間にユーザによって基地局が動かされた場合、基地局を通り過ぎて移動するときにロボット100が基地局200を認識して、新しい位置で地図を更新するのが有利である。ナビゲーションセンサは基地局の特徴を検出してロボットをナビゲートするので、この場合、新たに検出された特徴が基地局の一部であるかどうかについて検査されれば十分である。この場合、第1ステップとして、検出に追加の計算時間がわずかしか必要でない容易に認識できる特徴が使用できる。認識が確認された後、基地局のさらなる特性の試験をすることができる。
例えば、図3(A)の基地局の場合、図3(C)の点2と点3の間の距離に対応する長さのセグメント(例えば、ある長さと向きの線)を探すことができる。そのようなセグメントが見つけられた後、それは、後壁が認識可能かどうか、後壁が正しい距離にあるかどうか、および点1と点4が存在し、1本の線に沿っているかどうかについてさらに検査することができる。そうする間に、認識されたセグメントの長さは、ナビゲーションに対するそれらの関連性を評価するために、例えば、ナビゲーションモジュールによって定期的に検出することができる。
基地局が新しい位置で認識されると、さらなる動作のための様々なオプションがロボットに利用可能になる。新しい位置が前の位置からわずかにずれる場合(例えば、1m未満の距離だけ)には、基地局の新しい位置が記録され、前の位置が削除される。これは、ナビゲーションセンサが基地局の以前の位置を同時に検査し、この位置で基地局が検出されない場合に特に有用である。基地局が、前の基地局から遠方にあるロボット動作の領域内の位置で検出された場合、これは、第2の基地局の存在に起因する可能性がある。この場合、基地局の位置は新たに記録され、前の位置は後の検証のために保持される。ロボットが前の位置に接近しているとき、ロボットは基地局がまだ存在しているかどうかをテストする。この結果に応じて、前の位置が削除されるか、またはロボットの動作領域に2つの基地局があることが記録される。両方の基地局のそれぞれの位置(向きを含む)は、地図上に保存することができる。
また、ロボットの地図上の情報によれば、ロボットは基地局の近傍に位置するが、それを検出しないことがある。これは、ユーザによって基地局の位置が変更された場合か、ユーザが例えば基地局を清掃するために一時的に除去しただけの場合である。最も単純な場合、ロボットは、地図データから基地局の位置を削除する。あるいは、ロボットの地図上のこの位置は「疑わしい」とマークされてもよい。ロボットがその動作タスクを実行している間にロボットが後に異なる位置の基地局を認識した場合には、疑わしいとマークされた位置が削除され、基地局の新しい位置が記録される。そうでない場合には、ロボットは基地局に戻ろうとするときに疑わしいとマークされた位置に戻る。再びこの位置に基地局が見つからない場合には、特別な探索プログラムが開始されて基地局が見つけられ、そこでロボットは動作領域の周りを移動し、基地局の特徴(ナビゲーション特徴)を探す。これに加えて、必要ならば、ユーザが状況に反応することを可能にするように、メッセージをユーザに(例えば、タブレットコンピュータまたは携帯電話上のアプリケーションなどのユーザインタフェースを用いて)送信することができる。
ナビゲーションセンサ110の測定精度は、距離が測定される対象物までの距離が増加するにつれて低下する可能性がある。細長い寸法を有する物体の場合、精度はまた、その向きに依存する。これは、三角測量センサが使用される場合に特にそうである。例えば、図3の基地局200を正面から直接見た場合、点2と点3との間の距離は、約2mの距離において十分な精度で決定することができる。しかしながら、基地局が45°の角度から見られる場合、信頼できる測定を保証するために、基地局200とロボット100との間の距離は約1mを超えてはならない。これに基づいて、基地局の検出品質を向上させるために、検出されたナビゲーション特徴が基地局に属するかどうかをテストするための最大距離を決定することができる。テストを実行するための最大距離は、特徴の向き(ロボットに対する)によっても異なる。
ロボット動作開始時の位置更新−ユーザは、ロボットがその上にドッキングされている間およびロボットが例えば休止モードにある間に、基地局と共にロボットを移動させることができる。ロボットが、例えば、以前の動作タスクを実行しながら作成した既存の地図を使用している場合、新しいロボットの位置(および基地局の位置)はもはや既存のナビゲーション情報に対応しなくなる。ここで説明する実施形態によれば、ロボットは、その動作タスクの開始時に以下のステップを実行することができる。(1)基地局を出て、その動作タスクに関連する地図データを収集する。(2)既存の地図データにおけるロボットの位置を特定する。(3)地図データ中の基地局の位置を更新する。
この場合、ロボットの自己位置特定は、ナビゲーションセンサによって検出されたデータと既存の地図データとを比較することによって、地図上のロボットの位置を決定するアルゴリズムを用いて行うことができる。位置特定アルゴリズムを高速化するために、基地局の以前の既知の位置は、ロボットの位置に関する第1の位置付け前提として使用することができる。例えば、上述のステップ2でロボットの位置特定に失敗した場合、ロボットは新しい地図を作成し始め、基地局の位置がこの新しい地図に記録される。ロボットの動作タスクが完了すると、ユーザは新しく作成された地図を知ることができ、以前の地図を置換または拡張するために新しく作成された地図を使用すべきかどうかが尋ねられる。
ロボット動作の多数の領域におけるナビゲーション−ロボットは、例えば、建物の様々な床などの2つ以上の相互に離れたロボット動作領域で使用されてもよい。ロボットがナビゲーションセンサの助けを借りて(上記のように)明確に識別できる基地局は、動作領域の各1つに配置することができる。この基地局のこの識別の結果として、ロボットは、それが位置している動作領域(例えば、どの床にあるか)を「知る」。したがって、ロボットのナビゲーションモジュールは、それぞれの基地局にリンクされた地図データをロードすることができる。これの前提条件は、ユーザが、基地局の1つに、または基地局の1つに近接して、ロボットを事前に配置することである。ロボットは、ロードされた地図データを使用して位置特定を開始できる。その際、上述したように、ロボットは、地図から知られている基地局の位置およびその地図に対する相対位置を、位置特定を高速化するために使用することができる。これは、例えば、基地局の位置(またはロボットのドッキング位置)を位置特定前提として用いることによって行われる。代替の実施形態としては、ロボットがそれ自身を位置特定しようとしている地図上の領域は、基地局を囲む領域に限定される。この領域は、例えば、基地局の正面の正方形(およびそれに接する)または基地局の周りの円である。その側面の長さ/半径は、ロボットと基地局との間の距離に依存するようにすることができる。
さらなる実施形態によれば、ロボットは、位置特定のために以下のステップを実行する。(1)基地局を出る。(2)基地局を検出して識別する。(3)基地局にリンクされた地図データを読み込む。(4)ロードされた地図データに基づいて、地図上のロボットの位置を特定する。(5)地図データ中の基地局の位置を更新する。ステップ1は、最初にロボットが基地局にドッキングされているかどうかに応じて選択される。
認識された基地局に地図データがリンクされていない場合、またはそれぞれの地図上の位置特定が失敗した場合、ロボットの動作領域の新しい地図が作成される。ロボットが動作タスクを完了した後、ユーザは新しく作成された地図について知らされ得る。ロボットは、新しい地図を基地局にリンクして永久保存するかどうかをユーザに尋ねることができる。代替実施形態では、ロボットは、位置特定が失敗した場合、他の基地局に関連付けられた地図データを使用して位置特定を試みることができる。これは、例えば、ユーザが基地局を別のものに交換した場合に有用である。
例えば、距離測定用センサ(例えば、図2による三角測量センサを参照)のようなナビゲーションセンサは、非常に感度の高い測定システムである。例えば衝撃などの障害は、センサを非較正状態にし、一貫して誤った測定につながる可能性がある。これは、その動作領域を通るロボットのナビゲーションを著しく損なう可能性がある。ロボットの確実な機能を保証するためには、ナビゲーションセンサの測定誤差を体系的に認識し、可能であれば較正によってそれらを補償することが必要な場合がある。基地局は、ナビゲーションセンサによって容易に認識される十分に定義された幾何学的特徴を有するので、本明細書に記載の実施形態による基地局をこの目的(較正)に用いることができる。
ナビゲーションセンサが非較正状態でることは、例えば、基地局の1つまたは複数の幾何学的特徴(または、より具体的には、それらから算出されたナビゲーション特徴)の距離、長さ、サイズおよび/または角度を測定し、これらを対応する標準値と比較することによって確認される。この標準値は、ナビゲーションセンサの再較正にも使用される。これに加えて、基地局の個々の幾何学的特徴は、それらの測定が、較正されるべきナビゲーションセンサのパラメータの少なくとも1つについて直接推論されることを可能にするように設計されてもよい。
較正の精度を向上させるために、多数の独立した測定値を組み合わせることができ、これにより、単一の測定値の測定誤差の全体への影響がより少なくなる。このために、基地局の多数の独立した幾何学的特徴(例えば、幅および深さ、図1(B)および図3参照)を測定することができる。これに代えてまたはこれに加えて、基地局に対して異なる距離で同じ測定を行うことができる。特に、ロボットの2つの測定位置間の移動距離(距離測定)を考慮に入れることができる。
ナビゲーションセンサ(特に距離測定用センサ)の一例は、光源から構造化された光(図2の光線111を参照)を放出し、そのように照射された環境をカメラ(図2のカメラ112を参照)で撮影するようにすることができる。カメラ画像と、カメラと光源との相対位置とに基づいて、障害物までの距離(図2参照、距離d)を決定することができる。カメラ112に対する光源(したがって、光線111)の移動(例えば約1μm)または回転(例えば約0.01°)によって引き起こされる相対位置の小さな変化(衝撃によってもたらされる)は、例えば、(以前に較正された)ナビゲーションセンサ110を非較正状態にし、距離測定における系統誤差を生じさせる可能性がある。図1(A)に示す実施形態では、三角測量センサ(ナビゲーションセンサ110)で、基地局200の(水平)断面が検出される。この測定の起こり得る結果は、図3(C)に示されている。このセンサデータから、距離測定の品質について推論を引き出すことを可能にする様々な寸法(寸法値)を導出することができる。例えば、(a)点1と点4を隔てる距離が決定され、(既知の)実際の幅と比較される。(b)基地局の正面側の1つ以上の特徴の後壁までの距離(点1、2、3および4)を決定し、基地局の(既知の)実際の深さと比較することができる。(c)点1、2、3および4が1つの線に沿っているかどうかが検査される。および/または(d)後壁と前面の特徴によって定義された線との間の角度(点1,2,3および4)を決定することができる(この例では、この角度は理想的にゼロである。すなわち線は後壁に平行である)。特に、ロボット100と基地局との間の距離は、例えば、基地局200の幅および/または深さに基づいて決定される。この値は、距離測定を較正するために使用することができる。
基地局200を使用する較正の正確さのための1つの特定の課題は、(大きな家具と比較して)その比較的小さい構造サイズである。ナビゲーションセンサは、数メートルのコースにわたって正確な測定結果を提供すべきであるが、基地局自体は数センチの幅と深さである。基地局内に鏡を配置することにより、その内部の光路を拡張することができる。このようにして、目標とする光を発するナビゲーションセンサの較正の精度を向上させることができる。例えば、図3(A)による基地局では、後壁の内側に鏡を備え付けることができる。そのような場合には、ハウジングの前壁の内面がナビゲーションセンサ110に見えるようになり、測定経路として利用可能な深度は、鏡なしでの深さの2倍になる。
三角測量センサの場合、以下のセンサパラメータを較正することができる。レンズからのイメージセンサ(例えば、CCDまたはCMOSセンサ)の距離(焦点距離)、光源(例えば、レーザおよびレンズ)からの光軸の距離、測定平面の傾き(光源の光軸の傾きに対応、図4(A)のbの場合)、イメージセンサ上の位置xのゼロ点(図2参照)。具体的には、最後の2つのパラメータ(光源の光軸の傾きとイメージセンサ上のゼロ点の位置)は、非較正状態の際に、特に長距離で、距離測定が大きく歪曲され、その結果体系的な測定誤差が生じる。これらの三角測量センサのパラメータの両方は、例えば基地局の幅(または図3(C)の点1と点4との間の距離)を測定し、測定値が既知の基準値に対応するようにパラメータを適合(較正)することによって較正することができる。基地局の深さ(例えば、後壁からの点3の距離、図3(C)参照)も知られており、上述のパラメータの較正に使用することができる。
前述の例によれば、水平断面平面内の基地局の形態のみが考慮されるが、これに代えて又は追加して、(水平)測定平面の床までの距離に依存するナビゲーション特徴が考慮されてもよい。
図4(A)は、基地局200の断面の測定を実行するナビゲーションセンサ110(特に三角測量センサ)を備えたロボット100を示す図である。理想的な場合には、測定は、床hまである距離の、床に平行(図4(A)のaの場合)な平面内で実行されるが、これはまた、これから逸脱してもよい(図4(A)のbの場合)。図4(B)は、図3(A)の実施形態に匹敵する基地局200を示しているが、ナビゲーション特徴の位置(および/または延長)が床までの距離であって、その距離でセンサ測定が実行される距離(図4(B)の点線)に依存するように形成された開口230’(窓)を有している。図4(C)は、ナビゲーション特徴として、aの場合(測定の床までの距離h=h)の基地局の開口230,230’のコーナ点を表しており、図4(D)は、ナビゲーション特徴として、bの場合(測定の床までの距離h=h)の基地局の開口230、230’のコーナ点を表している。bの場合では、aの場合と比較して点2が左に移動され、これにより、bの場合の点1と点2との間の距離がより小さくなり、点2と点3の間の距離がaの場合と比較して、より大きくなる。種々の距離で基地局を測定することにより、例えば、センサ測定が床面に平行して実行されているかどうか、またはそうでない場合、測定面の傾きが水平面に対してどれほど大きいかを直接的に判断することができる。したがって、この手順では、2次元断面測定に加えて、基地局の第3の次元が、センサパラメータ(ここでは光源の光軸の傾きまたはナビゲーションセンサの測定平面)を直接的に決定および較正するために使用される。このために、基地局は、床hまでの距離に決定的に依存する幾何学的特徴(例えば、点2の位置または点1と点2との間の距離)を必要とする。
本発明の別の実施例によれば、ナビゲーションモジュールは、基地局の検出された幾何学的特徴(ナビゲーション特徴)からドッキング位置を計算し、次にロボットをこの位置に向ける。ナビゲーションセンサの測定が誤っていると、計算されたドッキング位置が実際に必要な位置に対応しなくなり、ドッキング操作が失敗する可能性がある。ドッキング位置の計算は、正確なドッキング位置がわかっている場合に較正できる1つ以上のパラメータに依存する。これらのパラメータは、例えば、ロボット100上のナビゲーションセンサ110の位置であり、例えば、ナビゲーションセンサ110の光学受信装置の鏡の移動でもある。較正は、試行錯誤に基づく方法によって実行される。この目的のために、計算されたドッキング位置が変更され、ドッキング動作を実行するために使用される。これは繰り返し行われ、成功率が測定される。成功率が最も高いドッキング位置は、必要なパラメータを較正するために使用される。位置の変化(方向付け)は、計算された位置の周りの間隔で小さなステップでランダムにまたは系統的に起こり得る。もちろん、位置の代わりに、関心のあるパラメータを直接的に変化させ、関心のある位置を決定するために使用することもできる。
上述したように、ロボット100は、基地局200の位置に基づいてドッキングの位置および方向を決定することができる。図5(A)に示す例によれば、ナビゲーションモジュールは、その計算された位置および方向に基づいてロボットの経路を決定し、このドッキング位置にロボットを向けることができる。それにもかかわらず、(ドッキング時の)ロボット100の実際の最終位置および最終的な向きは、距離測定誤差のために計画された必要なドッキング位置およびドッキング方向から外れることがある。図5(B)は、小さな偏差により、例えば、基地局の充電接点220とロボットの対応する充電接点120との間の接触が確立されず、ロボット100の自律機能を損なう誤差が生じることを示している。
ドッキング動作の完了後に実際に必要とされるドッキング位置および/または向きからロボットの位置および/またはその向きの小さな偏差を修正するために、ロボット100はその位置(例えば向き)を僅かに変更する。図5(C)に示すように、例えば小さな回転によって、正確なドッキング位置とは異なるが、充電接触が確立される(図5(D)参照)。
図5(B)による最初のドッキング位置から、ロボットは、例えば、所定の角度αだけ左へ最初の回転を行う。図5(C)に示すように、これは必ずしも成功につながるわけではないので、反対方向の第2の回転が行われる。元の向きの周りの対称領域をカバーするために、第2の回転は、例えば第1の回転の約2倍の角度2αだけ反対方向に行われる。
必要なドッキング姿勢が達成されたかどうかは、例えば、充電接点上の電圧の存在によって、または接触スイッチによって決定することができる。例えば、成功した接触が達成されなかった場合、ロボットは上述の回転を完了した後、最初の向きに戻ることができる。
基地局へのドッキング動作の堅牢性をさらに高めるために、基地局には、ロボットに設けられた対応する凹部に係合する1つ以上の(フレキシブルに取り付けられた)凸部を設けることができる。図1(C)において、これらは例えば2つの充電接点220によって形成されている。ロボットの回転により、これらの凸部はロボット上の対応する凹部に滑り込み、正確なドッキング位置と方向を定めることができる。基地局によってロボット上の汚れ容器を真空引きするための接続または洗浄剤を補充する接続は、同等の機能を果たすことができる。
ドッキング操作を確実に成功させるためには、基地局の前にある特定のドッキング領域に障害物がないようにする必要がある。この領域は、ロボットが通過する際にロボットが確実に認識でき、できるだけ単純で直接的なドッキング操作に十分なスペースを有する大きさでなければならない。このような領域は、例えば、基地局の左右両側にロボットの直径にほぼ等しい空間を有し、基地局の前にはロボットの直径の約2倍の空間を有するべきである。
ユーザの影響により、例えば、以下の障害が生じうる。(i)壁がドッキング領域を通過するように基地局が配置されている(特に、基地局が部屋のコーナーに近すぎて配置されているため)。(ii)椅子の脚や散在した靴のような小さな障害物がドッキング領域に存在し、接近経路の一部を遮っている。(iii)ケーブルや衣服などの小さな障害物がドッキング領域に置かれ、これにより、例えば、車輪のスリップが増加して、ロボットの動きを妨げる。
一般に、ユーザは意図的にこれらの障害を引き起こすことはなく、故意に基地局へのアクセスを損ない、したがって安全なドッキングを妨げる障害物をロボットの経路に配置しない。ここに記載された実施形態によれば、このような問題を早期に検出し、ユーザに通知して、障害を除去することができるようにする試みがなされている。例えば、ロボットには、ドッキング経路に沿った計算および/または移動が、例えば上記の障害の1つによって著しく損なわれているかまたは不可能にされたことを認識できる検出モジュールが設けられている。この場合に、例えば、ナビゲーションセンサは、ドッキング領域内の障害物を検出するために使用されうる。ロボットが走行することができるドッキングエリア内のより小さい障害物は、例えば、スリップなどの距離測定誤差を検出するセンサによって認識することができる。
認識された問題をユーザに知らせるために、ロボットは少なくとも1つの通信インタフェース(ヒューマンマシンインタフェースHMIとしても知られている)を有している。これは、ロボット上の直接的な視覚ディスプレイまたは音声信号、特に音声出力を含むことができる。これに加えて、WLANを介して例えばスマートフォンまたはタブレットコンピュータのような外部装置への接続を確立し、情報をユーザに送ることができる。この情報は、例えば、検出された障害の種類を含む。
さらに、ロボットは、障害がどの程度深刻であるかを評価し、ユーザにこの情報を提供することができる(例えば、軽度の問題(レベルI、ユーザによる措置が即座に必要とされない)、関連する問題(レベルII、ユーザの措置が推奨される)、深刻な問題(レベルIII、ユーザーによる措置が必要))。このようにして、ユーザーは介入することがどれほど重要かを判断することができる。例えば、基地局が壁に近すぎて置かれており、ドッキングを妨害しているが、ドッキングが不可能ではないことがある(レベルIまたはII)。この場合、ユーザは、基地局が現在の位置に留まり、ロボットがドッキングを試みるべきであると判断することができる。一方、ユーザは誤って椅子を基地局の前に置き、直接ドッキング動作を不可能にする場合がある(レベルIII)。この問題はユーザが迅速に取り除くことができ、ロボットの機能を保証することができる。取られる措置に応じて、ユーザは、通信インタフェースを介してロボットに再登録を送信する。この再登録には、たとえば次の内容が記載される。(i)問題は是正された。(ii)問題は無視され、ドッキングが試みられる。(iii)ドッキング動作が延期され、問題は後で是正される。障害のこの分類は、当然のことながら、例示的なものであり、任意の他の所望の方法で実行することもできる。
ユーザにできるだけ早く問題が通知されるように、ロボットは基地局を離れるといつもすぐに、特に、新しい運用タスクの開始時には、障害の検出を実行する必要があり、障害の検出を実行する必要がある。
最後に、本発明の他の実施形態に到達するために、様々な実施例を使用して本明細書に記載された装置、方法およびシステムの技術的特徴が一般に互いに組み合わされてもよいことに言及すべきである。このような組み合わせは、特に明記しない限り、一般的に可能であり有用である。ここに記載された方法の全てがロボットによって実行されることを理解すべきである。これは、ロボットが一般的にプログラム可能なロボットコントローラを含み、アプリケーションに応じて、ロボットがそれぞれの方法を実行できるようにプログラムされていることを意味する。ロボットコントローラは、必ずしもロボットの単一構成要素で実現される必要はない。一般に、ロボットの外部から見える動作に影響を与えるすべてのコンポーネントは、ロボットコントローラの一部を形成する。したがって、ロボットコントローラは、移動ロボット内に物理的に設置される必要はなく、例えば、通信接続を介してロボットと接続されたコンピュータのように、ロボットの外側の静止(制御)装置内に部分的に配置されてもよい。
1、2、3、4…点
100…ロボット
110…ナビゲーションセンサ
111…光線
112…カメラ
120…充電接点
200…基地局
201…ナビゲーション特徴
201、202、300…線
210…本体
220…充電接点
230…開口部
250…カバー

Claims (50)

  1. 自律移動ロボット(100)と、前記ロボット(100)の基地局(200)とを含むシステムであって、
    前記ロボット(100)は、前記ロボット(100)の環境内の物体の幾何学的特徴を検出するナビゲーションセンサ(110)を備えたナビゲーションモジュールを有し、
    前記基地局(200)は、前記ロボットが前記ナビゲーションセンサ(110)を用いて検出可能な少なくとも1つの幾何学的特徴を備え、
    前記ロボットは、前記ナビゲーションモジュールに結合され、前記基地局(200)の前記少なくとも1つの幾何学的特徴に基づいて前記基地局(200)を識別および/または位置特定し、前記ロボット(100)のドッキング位置を決定するように構成されたロボットコントローラを有する
    ことを特徴とするシステム。
  2. 前記ナビゲーションセンサは、前記ナビゲーションセンサと、前記ロボット(100)の前記環境内の物体との間の距離を非接触で測定するように構成されており、
    前記ナビゲーションモジュールは、測定された距離に基づいて前記ロボット(100)の前記環境内の物体の幾何学的特徴を検出するように構成されていることを特徴とする請求項1に記載のシステム。
  3. 前記ナビゲーションセンサが、床に対して規定された距離を有する本質的に水平な平面内で距離測定を実行することを特徴とする請求項2に記載のシステム。
  4. 前記ナビゲーションモジュールは、前記環境の電子地図上に物体の検出された幾何学的特徴を格納するように構成されていることを特徴とする請求項1乃至3のいずれか一項に記載のシステム。
  5. 前記基地局(200)の前記少なくとも1つの幾何学的特徴は、前記基地局(200)ハウジング上の特徴点と、前記基地局(200)のハウジング上の特徴線と、前記基地局(200)のハウジングによって規定される多角形と、基地局(200)のハウジングによって規定される表面とのうちの少なくとも1つであることを特徴とする請求項1乃至4の何れか一項に記載のシステム。
  6. 前記ロボットコントローラは、前記基地局を識別および/または位置特定するために、前記少なくとも1つの検出された幾何学的特徴に少なくとも1つの測定値を割り当て、その測定値を対応する基準値と比較するように構成されていることを特徴とする請求項1乃至5のいずれか一項に記載のシステム。
  7. 前記少なくとも1つの測定値は、長さ、距離、角度、2つの長さの比、2つの距離の比、2つの角度の比のうちの少なくとも1つであることを特徴とする請求項6に記載のシステム。
  8. 前記少なくとも1つの測定値は、2つの点間の距離、1つの線の長さ、1つの点の1つの線からの距離、1つの点の1つの面からの距離、3つの点で定義される角度、2本の線によって規定される角度、2本の線の長さの比のうちの少なくとも1つであることを特徴とする請求項6に記載のシステム。
  9. 基地局(200)は、前記基地局(200)のハウジング壁に少なくとも1つの開口部(230,230´)を有し、この少なくとも1つの開口部は、前記基地局の少なくとも1つの幾何学的特徴を規定することを特徴とする請求項1乃至請求項7のいずれか一項に記載のシステム。
  10. 前記少なくとも1つの開口部(230、230´)は、前記ナビゲーションセンサ(110)に対して透明な材料で作られたカバーによって覆われていることを特徴とする請求項9に記載のシステム。
  11. 前記ナビゲーションセンサ(110)は、あるスペクトルの光を発する光センサであり、
    前記カバーは、前記光センサによって放射された光のスペクトルに適合した反射防止膜を有することを特徴とする請求項10に記載のシステム。
  12. 前記基地局(200)は多数の幾何学的特徴を有し、
    検出された幾何学的特徴が垂直対称平面に対して非対称であるように、前記少なくとも1つの開口部(230、230´)が前記基地局内で非対称的に配置されることを特徴とする請求項9乃至請求項11のいずれか一項に記載のシステム。
  13. 前記少なくとも1つの開口部(230、230´)は、スクリーンを取り付け、又は、スライドさせることにより、または所定の破断線に沿って前記ハウジング壁の一部を破壊することによってそのサイズまたは形状を変更することができることを特徴とする請求項9乃至請求項12のいずれか一項に記載のシステム。
  14. 前記基地局(200)は多数の幾何学的特徴を有し、
    前記基地局は、前記基地局(200)の前記幾何学的特徴が垂直対称平面に対して非対称であるような幾何学的形状を有することを特徴とする請求項1乃至請求項13のいずれか一項に記載のシステム。
  15. 前記基地局(200)のハウジングに取り付け部品を追加することによって、または前記基地局(200)のハウジングから取り付け部品を取り外すことによって、または前記基地局(200)のハウジング上の取り付け部品をスライドするか傾斜させることによって前記基地局(200)の少なくとも1つの幾何学的特徴を変更することができることを特徴とする請求項1乃至請求項14のいずれか一項に記載のシステム。
  16. 前記基地局の前記少なくとも1つの幾何学的特徴は、前記ナビゲーションモジュールによって床までの距離が異なる水平面内で前記少なくとも1つの幾何学的特徴が検出されたときに、異なることを特徴とする請求項1乃至請求項15のいずれか一項に記載のシステム。
  17. 前記ナビゲーションモジュールは、多数の電子地図のためのメモリを有し、各地図は特定の基地局(200)に割り当て可能であり、各地図は前記特定の基地局が位置するロボット動作領域を表していることを特徴とする請求項1乃至請求項16のいずれか一項に記載のシステム。
  18. 少なくとも1つのさらに他の基地局を有し、前記基地局(200)がロボット動作の第1の領域に位置し、前記少なくとも1つのさらに他の基地局がロボット動作の第2の領域に位置し、
    前記ナビゲーションモジュールは、前記基地局のうちの1つに割り当てることができる多数の電子地図のためのメモリを有し、
    前記ナビゲーションモジュールは、ある基地局を識別した後、その基地局に割り当てられた地図をロードすること
    を特徴とする請求項1乃至請求項17のいずれか一項に記載のシステム。
  19. 少なくとも1つの開口部(230、230´)が配置されたハウジングを有し、
    前記開口部は、その幾何学的形状によって、ロボット(100)のセンサシステムによって検出され得る少なくとも1つの幾何学的特徴を規定していることを特徴とする移動ロボットのための基地局。
  20. 前記少なくとも1つの開口部(230、230´)は、前記ロボット(100)の前記センサシステムに対して透明な材料からなるカバーによって覆われていることを特徴とする請求項19に記載の基地局。
  21. 自律移動ロボット(100)のための方法であって、
    ナビゲーションセンサ(110)を有するロボット(100)のナビゲーションモジュールを使用して前記ロボット(100)の環境内の物体の幾何学的特徴を検出するステップであって、検出された物体の少なくとも1つは、基地局(200)の少なくとも1つの幾何学的特徴であるステップと、
    前記基地局(200)の前記少なくとも1つの幾何学的特徴に基づいて前記基地局(200)を識別および/または位置特定するステップと
    を有することを特徴とする方法。
  22. 前記基地局(200)の識別および/または位置特定するステップは、
    検出された前記少なくとも1つの幾何学的特徴に少なくとも1つの測定値を割り当てるステップと、
    前記少なくとも1つの測定値を対応する基準値と比較するステップと
    を有することを特徴とする請求項21に記載の方法。
  23. 自律移動ロボット(100)と、このロボット(100)の基地局(200)とを含むシステムであって、
    前記ロボット(100)は、前記ロボット(100)の環境内の物体の幾何学的特徴を検出するためのナビゲーションセンサ(110)を備えたナビゲーションモジュールを有し、
    前記基地局は、前記ロボットが前記ナビゲーションセンサ(110)を用いて検出可能な少なくとも1つの幾何学的特徴を有し、
    前記ナビゲーションモジュールは、前記基地局の検出された前記少なくとも1つの幾何学的特徴を用いて前記ナビゲーションセンサ(110)の試験および/または較正をするように構成されていることを特徴とするシステム。
  24. 前記ナビゲーションセンサは、前記ナビゲーションセンサと前記ロボット(100)の前記環境内の物体との間の距離を非接触で測定するように構成され、
    前記ナビゲーションモジュールは、測定された前記距離に基づいて、前記ロボット(100)の前記環境内の前記物体の幾何学的特徴を検出するように構成されていることを特徴とする請求項23に記載のシステム。
  25. 前記ナビゲーションセンサは、所定の位置にある1つの平面内において実質的に距離測定を実行することを特徴とする請求項24に記載のシステム。
  26. 前記ナビゲーションセンサ(100)は非接触式光学センサ、例えば三角測量センサ、ToF型カメラ、またはカメラであることを特徴とする請求項23乃至請求項25のいずれか一項に記載のシステム。
  27. 前記ナビゲーションモジュールは、前記ナビゲーションセンサを試験または較正するために、少なくとも1つの測定値を、検出された前記少なくとも1つの幾何学的特徴に割り当て、この測定値に応じて、前記ナビゲーションセンサの少なくとも1つのパラメータを適合させることを特徴とする請求項23乃至請求項26のいずれか一項に記載のシステム。
  28. 前記基地局(200)の前記少なくとも1つの幾何学的特徴は、前記少なくとも1つの幾何学的特徴に割り当てられた測定値が前記ナビゲーションセンサのパラメータに直接依存するように設計されていることを特徴とする請求項27に記載のシステム。
  29. 前記ナビゲーションモジュールは、前記ナビゲーションセンサを試験または較正するために、少なくとも1つの測定値を、前記基地局の検出された前記少なくとも1つの幾何学的特徴に割り当て、前記少なくとも1つの測定値を対応する基準値と比較し、
    前記基地局(200)の前記少なくとも1つの幾何学的特徴は、前記少なくとも1つの幾何学的特徴に割り当てられた前記測定値が、前記ナビゲーションセンサ(110)が前記距離測定を実行する前記平面の位置に依存するように構成されていることを特徴とする請求項25に記載のシステム。
  30. 前記ナビゲーションモジュールは、ナビゲーションセンサ(110)を試験または較正するために、前記ロボット(100)の異なる位置から少なくとも2回、前記基地局(200)の前記少なくとも1つの幾何学的特徴を検出することを特徴とする請求項23乃至請求項29のいずれか一項に記載のシステム。
  31. 前記ロボット(100)の様々な位置の相対位置が距離測定によって算出され、前記ナビゲーションセンサを試験及び/又は較正するときに考慮されることを特徴とする請求項30に記載のシステム。
  32. 前記ナビゲーションセンサは、光を発する光センサであり、
    較正中に前記ナビゲーションセンサの測定経路を増加させるために、前記基地局の一部は鏡が備え付けられていることを特徴とする請求項24に記載のシステム。
  33. 前記少なくとも1つの幾何学的特徴は、前記基地局(200)のハウジングの前壁の開口部(230、230´)によって形成され、
    較正中に前記ナビゲーションセンサの測定経路を増加させるために、前記基地局の内側の領域、例えば、前記基地局(200)の前記ハウジングの後壁の内側に鏡が備え付けられていること
    を特徴とする請求項32に記載のシステム。
  34. 自律移動ロボットのための方法であって、
    ナビゲーションセンサ(110)を有するロボット(100)のナビゲーションモジュールを使用して前記ロボット(100)の環境内の物体の幾何学的特徴を検出するステップであって、検出された特徴の少なくとも1つは、基地局(200)の幾何学的特徴であるステップと。
    前記基地局(200)の検出された少なくとも1つの幾何学的特徴により前記ナビゲーションセンサ(110)を試験及び/又は較正するステップと
    を有することを特徴とする方法。
  35. 前記ナビゲーションセンサ(110)を試験及び/又は較正するステップは、
    検出された前記少なくとも1つの幾何学的特徴に少なくとも1つの測定値を割り当てるステップと、
    前記少なくとも1つの測定値に応じて前記ナビゲーションセンサの少なくとも1つのパラメータを適合させるステップと
    を有することを特徴とする請求項34に記載の方法。
  36. 自律移動ロボットの基地局への自動ドッキング方法であって、
    前記ロボット(100)の位置及び方向を含む、前記基地局上の前記ロボット(100)のドッキング位置を算出するステップと、
    前記ロボット(100)を前記ドッキング位置にナビゲートするステップと、
    前記ロボット(100)が前記基地局(200)に正しくドッキングしているかどうかの試験をするステップと
    を有し、
    前記ロボット(100)が正しく前記基地局(200)にドッキングしていない場合には、
    前記ロボット(100)の位置を変更するステップと
    前記ロボット(100)が前記基地局(200)に正しくドッキングしているかどうかの試験が成功するか中止基準が満たされるまで、前記ロボット(100)が前記基地局(200)に正しくドッキングしたかどうかの試験を繰り返し実行するステップと
    が実行される方法。
  37. 前記ロボット(100)の位置を変更するステップは、
    前記ロボット(100)の前記ドッキング位置から開始して、前記ロボット(100)を第1の方向に回転させて、前記試験の成功または最大回転角に達するまで前記ロボットの方向を変更するステップを含むこと特徴とする請求項36に記載の方法。
  38. 前記最大回転角に達した場合には、
    前記ロボット(100)を前記ドッキング位置まで回転して戻すステップと、
    前記試験が成功するかまたは最大回転角度に達するまで前記ロボットの方向を変更するために、前記ロボット(100)をさらに第2の方向に回転させるステップと
    を有することを特徴とする請求項37に記載の方法。
  39. 前記ロボット(100)が前記基地局(200)に正しくドッキングしているかどうかの試験は、
    前記基地局の充電接点(220)と、前記ロボット(100)の対応する充電接点(120)との間に電気接触が確立されているかどうかを試験するステップ及び/又は、
    前記ロボット(100)のラッチ要素が前記基地局(200)の対応するラッチ要素に係合したかどうかを試験するステップ及び/又は、
    前記ロボット(100)と前記基地局(200)との間の機械的接触によってスイッチが作動されたかどうかを試験するステップ
    を含むことを特徴とする請求項36乃至請求項38のいずれか一項に記載の方法。
  40. 前記ロボット(100)が前記基地局(200)に正しくドッキングしたかどうかの試験が成功した位置が新たなドッキング位置として保存されることを特徴とする請求項36乃至請求項39のいずれか一項に記載の方法。
  41. 自律移動ロボットの基地局への自動ドッキングのための方法であって、
    ナビゲーションセンサ(110)を有する、ロボット(100)のナビゲーションモジュールによって障害物を検出するステップと、
    前記ロボット(100)に対する基地局(200)へのアクセスが、前記基地局(200)の周りの規定された領域内で検出された障害物によって損なわれているかどうかの試験を実行するステップと、
    前記試験が前記ロボット(100)の前記基地局(200)へのアクセスが損なわれていることを明らかにした場合、ユーザインタフェースを介して障害を知らせるステップと
    を有することを特徴とする方法。
  42. 前記試験がロボット(100)の基地局(200)へのアクセスが損なわれていることを明らかにする場合、特定可能な基準に従って障害物によって引き起こされる障害の評価を実行するステップと、
    前記評価を、前記ユーザインタフェースを介して通知するステップと
    をさらに有することを特徴とする請求項41に記載の方法。
  43. 特定可能な基準に従って前記基地局(200)の周りの規定された領域内の床の状態を評価するステップと、
    前記床の前記状態が前記特定可能な基準を満たさない場合、前記ユーザインタフェースを介して障害を知らせるステップと
    をさらに有することを特徴とする請求項41又は請求項42に記載の方法。
  44. 自律移動ロボットのための方法であって、
    ナビゲーションセンサ(110)を有する、ロボット(100)のナビゲーションモジュールを用いて前記ロボット(100)の環境の物体の幾何学的特徴を検出するステップと、
    検出された幾何学的特徴の少なくとも1つと、前記ロボット(100)の動作領域の電子地図とに基づいて前記ロボット(100)をナビゲートするステップであって、前記電子地図には、前記ロボット(100)の基地局(200)の位置が指定されているステップと、
    検出された幾何学的特徴が前記基地局(200)にリンクされた幾何学的特徴を含むか否かの試験をするステップと、
    検出された幾何学的特徴の1つが前記基地局(200)にリンクされた幾何学的特徴である場合、前記基地局(200)のリンクされた幾何学的特徴に基づいて前記基地局の現在位置を計算し、前記電子地図上で前記基地局(200)の位置を更新するステップと
    を有することを特徴とする方法。
  45. 前記電子地図上で前記基地局(200)の位置を更新するステップは、
    前記基地局の現在位置と、前記電子地図上に保存された前記基地局(200)の位置との間の距離を決定するステップと、
    前記距離が所定の閾値を超えない場合には、前記電子地図上に保存された前記基地局(200)の位置を前記基地局(200)の現在位置に置き換えるステップと
    を有することを特徴とする請求項44に記載の方法。
  46. 前記電子地図上で前記基地局(200)の位置を更新するステップは、
    前記電子地図上に保存された前記基地局(200)の位置を元の位置としてマーキングするステップと、
    基地局(200)の現在位置を前記電子地図上に保存するステップと、
    検出された幾何学的特徴に基づいて、基地局が前記元の位置に位置しているかどうかの試験をするステップと、
    前記元の位置に基地局が存在しない場合は前記元の位置を削除し、基地局が存在する場合は前記元の位置を別の基地局の位置として保持するステップと
    を有することを特徴とする請求項44又は請求項45に記載の方法。
  47. 前記ロボットの使用開始時に、前記電子地図上に保存された位置が、前記ロボットの位置特定の前提として使用されることを特徴とする請求項44乃至請求項46のいずれか一項に記載の方法。
  48. 前記基地局(200)の位置の更新が行われたときにユーザインタフェースを介してユーザに通知されることを特徴とする請求項44乃至請求項47のいずれか一項に記載の方法。
  49. 自律移動ロボットのための方法であって、
    ナビゲーションセンサ(110)を有する、ロボット(100)のナビゲーションモジュールを用いて前記ロボット(100)の環境内の物体の幾何学的特徴を検出するステップと、
    検出された幾何学的特徴の少なくとも1つと、前記ロボット(100)の動作領域の電子地図とに基づいて前記ロボット(100)をナビゲートするステップであって、前記電子地図には、前記ロボット(100)の基地局(200)の位置が指定されているステップと、
    前記基地局(200)によって規定されていない第1の幾何学的特徴を前記基地局(200)の位置とリンクするステップと、
    SLAMアルゴリズムにおいて前記第1の幾何学的特徴を追跡するステップであって、前記第1の幾何学的特徴の位置が前記電子地図上で最新の状態に維持され、前記基地局の位置が前記第1の幾何学的特徴の位置に対する相対位置として保存されるステップと
    を有することを特徴とする方法。
  50. 前記第1の幾何学的特徴は、前記基地局(200)の近傍にある、例えば壁などの物体によって規定されることを特徴とする請求項49に記載の方法。
JP2021102990A 2015-09-04 2021-06-22 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法 Pending JP2021180002A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102015114883.8 2015-09-04
DE102015114883.8A DE102015114883A1 (de) 2015-09-04 2015-09-04 Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
JP2018511638A JP6971223B2 (ja) 2015-09-04 2016-09-02 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018511638A Division JP6971223B2 (ja) 2015-09-04 2016-09-02 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法

Publications (1)

Publication Number Publication Date
JP2021180002A true JP2021180002A (ja) 2021-11-18

Family

ID=56883781

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018511638A Active JP6971223B2 (ja) 2015-09-04 2016-09-02 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法
JP2021102990A Pending JP2021180002A (ja) 2015-09-04 2021-06-22 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018511638A Active JP6971223B2 (ja) 2015-09-04 2016-09-02 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法

Country Status (6)

Country Link
US (2) US11188086B2 (ja)
EP (2) EP3968117A3 (ja)
JP (2) JP6971223B2 (ja)
CN (2) CN108700880A (ja)
DE (1) DE102015114883A1 (ja)
WO (1) WO2017037257A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9259838B1 (en) * 2014-07-24 2016-02-16 Google Inc. Systems and methods for ground plane estimation
EP4350456A1 (en) * 2016-04-14 2024-04-10 DEKA Products Limited Partnership User control device for a transporter
US10016896B2 (en) * 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
CN106308685B (zh) * 2016-08-23 2019-10-11 北京小米移动软件有限公司 清洁机器人及其控制方法
KR102461938B1 (ko) * 2017-04-04 2022-10-31 엘지전자 주식회사 주행 지면의 장애물을 식별하는 방법 및 이를 구현하는 로봇
CN106980320B (zh) * 2017-05-18 2020-06-19 上海思岚科技有限公司 机器人充电方法及装置
EP3428759B1 (de) * 2017-07-13 2020-09-02 Vorwerk & Co. Interholding GmbH Verfahren zum betrieb eines sich selbsttätig fortbewegenden servicegerätes
DE102018116065A1 (de) * 2017-07-13 2019-01-17 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Servicegerätes
US10383499B2 (en) * 2017-08-31 2019-08-20 Irobot Corporation Wet robot docking station
CN114504276B (zh) * 2017-09-25 2023-11-28 北京石头创新科技有限公司 自主移动机器人及其寻桩方法和控制装置
US10365656B2 (en) * 2017-11-22 2019-07-30 Locus Robotics Corp. Robot charger docking localization
KR102203439B1 (ko) * 2018-01-17 2021-01-14 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
JP7003224B2 (ja) * 2018-03-19 2022-01-20 本田技研工業株式会社 自律走行作業機
EP3778145B1 (en) * 2018-04-06 2024-05-29 LG Electronics Inc. Mobile robot and control method of mobile robot
CN110389341B (zh) * 2018-04-18 2021-06-25 深圳市优必选科技有限公司 充电桩识别方法、装置、机器人及计算机可读存储介质
DE102018206067A1 (de) * 2018-04-20 2019-10-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer hochgenauen Position eines Fahrzeugs
CN110733033B (zh) * 2018-07-19 2023-03-24 科沃斯机器人股份有限公司 机器人控制方法、机器人及存储介质
US11009887B2 (en) * 2018-07-26 2021-05-18 Toyota Research Institute, Inc. Systems and methods for remote visual inspection of a closed space
CN109683605B (zh) 2018-09-25 2020-11-24 上海肇观电子科技有限公司 机器人及其自动回充方法、系统、电子设备、存储介质
KR102220865B1 (ko) * 2018-10-02 2021-02-25 엘지전자 주식회사 청소로봇이 지면의 단차에 적응적으로 동작하는 방법 및 청소로봇
CN109586360B (zh) * 2018-11-09 2020-09-22 深圳市银星智能科技股份有限公司 一种机器人自动充电的方法、装置、充电桩和机器人
EP3876806B1 (en) * 2018-12-03 2023-03-08 SharkNinja Operating LLC Optical indicium for communicating information to autonomous devices
DE102019202299B4 (de) * 2019-02-20 2020-12-31 Zf Friedrichshafen Ag Verfahren zur Online-Kalibrierung und Kalibriereinrichtung
CN111743450B (zh) * 2019-03-26 2021-06-08 速感科技(北京)有限公司 可移动装置的回充方法及可移动装置
US11493336B2 (en) * 2020-06-22 2022-11-08 Pixart Imaging Inc. Optical navigation device which can determine dirtiness level of cover or fix multi light pattern issue
CN110622085A (zh) * 2019-08-14 2019-12-27 珊口(深圳)智能科技有限公司 移动机器人及其控制方法和控制系统
CN110597249B (zh) * 2019-08-23 2022-08-05 深圳市优必选科技股份有限公司 一种机器人及其回充定位方法和装置
KR102275083B1 (ko) * 2019-12-05 2021-07-08 주식회사 제타뱅크 이동 로봇 시스템 및 자동 충전을 위한 이동 로봇의 귀소 방법
CN111813119B (zh) * 2020-07-11 2024-02-27 广东翼景信息科技有限公司 一种巡检机器人高精度导航方法
US20220083075A1 (en) * 2020-09-15 2022-03-17 Infineon Technologies Ag Robot Guiding System and Method
KR20220046190A (ko) * 2020-10-07 2022-04-14 삼성전자주식회사 로봇, 충전 스테이션 및 이를 포함하는 로봇 충전 시스템
CN112346453A (zh) * 2020-10-14 2021-02-09 深圳市杉川机器人有限公司 机器人自动回充方法、装置、机器人和存储介质
US11921205B2 (en) 2020-11-24 2024-03-05 Pixart Imaging Inc. Method for eliminating misjudgment of reflective lights and optical sensing system
US11826906B2 (en) * 2020-11-24 2023-11-28 Pixart Imaging Inc. Method for eliminating misjudgment of reflective light and optical sensing system
US11969140B2 (en) * 2021-06-22 2024-04-30 Micron Technology, Inc. Surface cleaning
CN115890647A (zh) * 2021-08-27 2023-04-04 成都家有为力机器人技术有限公司 基于视觉导航的机器人基座定位方法、装置、机器人及介质
CN113892857B (zh) * 2021-10-29 2023-04-28 珠海格力电器股份有限公司 清洁机器人清洁控制方法、装置、计算机设备和介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013082013A (ja) * 2011-10-06 2013-05-09 Nippon Signal Co Ltd:The 自走装置の充電システム
JP2013183965A (ja) * 2012-03-09 2013-09-19 Mitsubishi Electric Corp 電気掃除機
JP2014054335A (ja) * 2012-09-11 2014-03-27 Sharp Corp サーバ、制御システム、自走式掃除機、プログラム、および記録媒体
US20140100693A1 (en) * 2012-10-05 2014-04-10 Irobot Corporation Robot management systems for determining docking station pose including mobile robots and methods using same
JP2014200449A (ja) * 2013-04-04 2014-10-27 シャープ株式会社 自走式掃除機

Family Cites Families (276)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0142594B1 (en) 1983-10-26 1989-06-28 Automax Kabushiki Kaisha Control system for mobile robot
JPS61251809A (ja) 1985-05-01 1986-11-08 Hitachi Ltd 自動焦点調節装置
US4777416A (en) 1986-05-16 1988-10-11 Denning Mobile Robotics, Inc. Recharge docking system for mobile robot
US5377106A (en) 1987-03-24 1994-12-27 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for navigating an unmanned vehicle and a vehicle for the same
JPH0313611A (ja) 1989-06-07 1991-01-22 Toshiba Corp 自動清掃装置
US5109566A (en) 1990-06-28 1992-05-05 Matsushita Electric Industrial Co., Ltd. Self-running cleaning apparatus
US5260710A (en) 1991-01-31 1993-11-09 Stanley Electric Co., Ltd. Vehicular optical-radar apparatus
JP3198532B2 (ja) 1991-05-14 2001-08-13 松下電器産業株式会社 自走式掃除機
JPH0680203A (ja) 1992-03-24 1994-03-22 East Japan Railway Co 床面洗浄ロボットの制御方法
US5440216A (en) * 1993-06-08 1995-08-08 Samsung Electronics Co., Ltd. Robot cleaner
CA2115859C (en) 1994-02-23 1995-12-26 Brian Dewan Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
DE4421805C1 (de) 1994-06-22 1995-08-17 Siemens Ag Verfahren zur Orientierung, Fahrwegplanung und Steuerung einer autonomen mobilen Einheit
JP3346513B2 (ja) 1994-07-01 2002-11-18 ミノルタ株式会社 マップ記憶方法及びそのマップを使用する経路作成方法
BE1008470A3 (fr) 1994-07-04 1996-05-07 Colens Andre Dispositif et systeme automatique de depoussierage de sol et engin y adapte.
US5995884A (en) 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
FR2763726B1 (fr) 1997-05-20 2003-01-17 Bouchaib Hoummadi Procede de gestion de la circulation routiere par camera video
JP4458664B2 (ja) 1997-11-27 2010-04-28 ソーラー・アンド・ロボティクス 移動性ロボット及びその制御システムの改良
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
WO1999046612A1 (de) 1998-03-10 1999-09-16 Siemens Aktiengesellschaft Optisches sensorsystem zur detektion der position eines objektes
IL124413A (en) 1998-05-11 2001-05-20 Friendly Robotics Ltd System and method for area coverage with an autonomous robot
ES2207955T3 (es) 1998-07-20 2004-06-01 THE PROCTER & GAMBLE COMPANY Sistema robotico.
AU5376400A (en) 1999-06-17 2001-01-09 Solar And Robotics S.A. Device for automatically picking up objects
GB9917232D0 (en) 1999-07-23 1999-09-22 Notetry Ltd Method of operating a floor cleaning device
JP4207336B2 (ja) 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
US7155308B2 (en) 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
US6594844B2 (en) 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
JP2002085305A (ja) 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
DE60021775T2 (de) 2000-12-11 2006-04-20 Mitsubishi Denki K.K. Optischer distanzsensor
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6883201B2 (en) 2002-01-03 2005-04-26 Irobot Corporation Autonomous floor-cleaning robot
JP3594016B2 (ja) 2001-01-30 2004-11-24 日本電気株式会社 ロボットのプログラム実行方法、ロボットシステムおよびプログラム処理装置
RU2220643C2 (ru) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
EP1408729B1 (fr) 2001-05-28 2016-10-26 Husqvarna AB Amelioration d'une tondeuse robotique
EP2287696B1 (en) 2001-06-12 2018-01-10 iRobot Corporation Method and system for multi-code coverage for an autonomous robot
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
AU2002341358A1 (en) 2001-09-26 2003-04-07 Friendly Robotics Ltd. Robotic vacuum cleaner
DE10204223B4 (de) 2002-01-31 2004-05-06 Infineon Technologies Ag Gehäuse für eine Koppelanordnung zum Ein- und/oder Auskoppeln optischer Signale
JP2004133882A (ja) 2002-05-10 2004-04-30 Royal Appliance Mfg Co 自律性マルチプラットフォーム・ロボットシステム
JP2003330543A (ja) 2002-05-17 2003-11-21 Toshiba Tec Corp 充電式自律走行システム
WO2004032086A1 (ja) 2002-10-04 2004-04-15 Fujitsu Limited ロボットシステムおよび自律走行ロボット
DE10261787B3 (de) 2002-12-23 2004-01-22 Alfred Kärcher Gmbh & Co. Kg Mobiles Bodenbearbeitungsgerät
KR100561855B1 (ko) 2002-12-30 2006-03-16 삼성전자주식회사 로봇용 로컬라이제이션 시스템
US20050010331A1 (en) 2003-03-14 2005-01-13 Taylor Charles E. Robot vacuum with floor type modes
US7805220B2 (en) 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
JP2004283956A (ja) * 2003-03-20 2004-10-14 Sony Corp 充電システム、ロボット装置、充電装置、及び充電方法
US7756322B2 (en) 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US20070061041A1 (en) 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
EP1533629A3 (de) 2003-11-21 2006-05-24 Siemens Aktiengesellschaft Entfernungsmessung mit einem mobilen Endgerät
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE102004004505B9 (de) 2004-01-22 2010-08-05 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungsgerät sowie Verfahren zu dessen Steuerung
JP4264009B2 (ja) 2004-01-23 2009-05-13 シャープ株式会社 自走式掃除機
EP1711873B1 (en) 2004-01-28 2012-12-19 iRobot Corporation Debris sensor for cleaning apparatus
JP2005211359A (ja) 2004-01-30 2005-08-11 Funai Electric Co Ltd 自律走行ロボットクリーナーシステム
JP3841220B2 (ja) 2004-01-30 2006-11-01 船井電機株式会社 自律走行ロボットクリーナー
DE602005017749D1 (de) 2004-02-03 2009-12-31 F Robotics Acquisitions Ltd Roboter-dockstation und roboter zur verwendung damit
KR100506097B1 (ko) 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
US20060020369A1 (en) 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
JP2005270413A (ja) 2004-03-25 2005-10-06 Funai Electric Co Ltd 自走式掃除機
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
JP4436186B2 (ja) * 2004-05-12 2010-03-24 アルパイン株式会社 ナビゲーション装置及び地図表示方法
JP4377744B2 (ja) 2004-05-13 2009-12-02 本田技研工業株式会社 ロボット制御装置
KR101142564B1 (ko) 2004-06-24 2012-05-24 아이로보트 코퍼레이션 자동 로봇 장치용의 원격 제어 스케줄러 및 방법
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
KR100641113B1 (ko) 2004-07-30 2006-11-02 엘지전자 주식회사 이동로봇 및 그의 이동제어방법
KR100645379B1 (ko) 2004-10-29 2006-11-15 삼성광주전자 주식회사 로봇 제어 시스템 및 로봇 제어방법
KR101240732B1 (ko) 2005-02-18 2013-03-07 아이로보트 코퍼레이션 습식 및 건식 청소를 위한 자동 표면 청소 로봇
US7389156B2 (en) 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
KR100638220B1 (ko) 2005-04-23 2006-10-27 엘지전자 주식회사 주행로봇의 위치감지장치 및 그를 구비한 로봇청소기
KR100696134B1 (ko) * 2005-04-25 2007-03-22 엘지전자 주식회사 이동로봇의 위치 산출 시스템과 그를 이용한 충전대 복귀시스템 및 그 방법
JP4455417B2 (ja) 2005-06-13 2010-04-21 株式会社東芝 移動ロボット、プログラム及びロボット制御方法
DE102005041980B4 (de) 2005-09-05 2015-01-15 Robert Bosch Gmbh Elektro-optisches Messgerät
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
ATE534941T1 (de) 2005-12-02 2011-12-15 Irobot Corp Abdeckungsrobotermobilität
ES2522926T3 (es) 2005-12-02 2014-11-19 Irobot Corporation Robot Autónomo de Cubrimiento
US7539557B2 (en) 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
DE102006007764A1 (de) 2006-02-20 2007-08-23 Sick Ag Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
KR100988736B1 (ko) 2006-03-15 2010-10-20 삼성전자주식회사 자율주행 이동로봇의 최단 경로 이동을 위한 홈 네트워크시스템 및 그 방법
US7483151B2 (en) 2006-03-17 2009-01-27 Alpineon D.O.O. Active 3D triangulation-based imaging method and device
EP1842474A3 (en) 2006-04-04 2007-11-28 Samsung Electronics Co., Ltd. Robot cleaner system having robot cleaner and docking station
KR100735565B1 (ko) 2006-05-17 2007-07-04 삼성전자주식회사 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
KR100791384B1 (ko) 2006-07-05 2008-01-07 삼성전자주식회사 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇
US8355818B2 (en) 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
KR100791386B1 (ko) 2006-08-18 2008-01-07 삼성전자주식회사 이동 로봇의 영역 분리 방법 및 장치
US8996172B2 (en) 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
KR100815545B1 (ko) 2006-12-06 2008-03-20 삼성광주전자 주식회사 서비스 로봇 충전방법
KR100791389B1 (ko) 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
DE102007003024A1 (de) 2007-01-20 2008-07-31 Sick Ag Triangulationssensor mit Entfernungsbestimmung aus Lichtfleckposition und -form
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
DE102007016913A1 (de) 2007-04-05 2008-10-09 Inmach Intelligente Maschinen Gmbh Verfahren zum Abfahren einer Arbeits-Fläche
KR101301834B1 (ko) 2007-05-09 2013-08-29 아이로보트 코퍼레이션 소형 자율 커버리지 로봇
US20090048727A1 (en) 2007-08-17 2009-02-19 Samsung Electronics Co., Ltd. Robot cleaner and control method and medium of the same
KR20090019338A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 광학 센서
KR101330734B1 (ko) 2007-08-24 2013-11-20 삼성전자주식회사 로봇청소기와 도킹 스테이션을 구비하는 로봇청소기 시스템
US20090062974A1 (en) * 2007-09-03 2009-03-05 Junichi Tamamoto Autonomous Mobile Robot System
DE202007014849U1 (de) 2007-10-24 2008-01-17 Pepperl + Fuchs Gmbh Optoelektronischer Sensor zum Nachweis von Objekten in einem Überwachungsbereich
JP2009101044A (ja) * 2007-10-25 2009-05-14 Panasonic Corp 自走式機器
KR101415879B1 (ko) 2008-01-04 2014-07-07 삼성전자 주식회사 이동 로봇을 도킹시키는 방법 및 장치
KR20090077547A (ko) 2008-01-11 2009-07-15 삼성전자주식회사 이동 로봇의 경로 계획 방법 및 장치
JP5158097B2 (ja) * 2008-01-16 2013-03-06 日本電気株式会社 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
DE102008014912B4 (de) 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
JP4909930B2 (ja) * 2008-03-28 2012-04-04 日立アプライアンス株式会社 自走式掃除システム
US8194233B2 (en) 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
EP3311722B1 (en) 2008-04-24 2019-07-24 iRobot Corporation Application of localization, positioning & navigation systems for robotic enabled mobile products
DE102008028931A1 (de) 2008-06-18 2009-12-24 BSH Bosch und Siemens Hausgeräte GmbH Verfahren und Vorrichtung zum Steuern einer Fahrbewegung eines Roboters, insbesondere eines Staubsammelroboters in einem Flächenbereich
CN101387514B (zh) 2008-08-28 2010-07-28 上海科勒电子科技有限公司 距离检测感应装置
KR101553654B1 (ko) 2009-02-13 2015-10-01 삼성전자 주식회사 이동 로봇 및 이동 로봇의 이동 방법
DE102009001734A1 (de) 2009-03-23 2011-02-24 Robert Bosch Gmbh Optikträger
JP5506225B2 (ja) 2009-03-30 2014-05-28 セーレン株式会社 広告シートのリサイクル方法
CN101923351B (zh) 2009-06-12 2015-03-04 三星电子株式会社 机器人清洁器及其控制方法
KR101484941B1 (ko) * 2009-06-12 2015-01-23 삼성전자주식회사 로봇청소기 및 그 제어방법
US8428776B2 (en) * 2009-06-18 2013-04-23 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
KR101672787B1 (ko) 2009-06-19 2016-11-17 삼성전자주식회사 로봇청소기와 도킹스테이션 및 이를 가지는 로봇청소기 시스템 및 그 제어방법
DE102009059215A1 (de) * 2009-08-12 2011-02-17 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Zielführung eines solchen Gerätes
DE102009041362A1 (de) 2009-09-11 2011-03-24 Vorwerk & Co. Interholding Gmbh Verfahren zum Betreiben eines Reinigungsroboters
JP6162955B2 (ja) 2009-11-06 2017-07-12 アイロボット コーポレイション 自律ロボットにより表面を完全にカバーする方法およびシステム
DE102009052629A1 (de) 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
KR101626984B1 (ko) 2009-11-16 2016-06-02 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
TWI387862B (zh) * 2009-11-27 2013-03-01 Micro Star Int Co Ltd 移動裝置及其控制方法
JP2011128899A (ja) 2009-12-17 2011-06-30 Murata Machinery Ltd 自律移動装置
US8892251B1 (en) 2010-01-06 2014-11-18 Irobot Corporation System and method for autonomous mopping of a floor surface
DE102010000174B4 (de) 2010-01-22 2022-09-01 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Verfahren zur Reinigung eines Raumes mittels eines selbsttätig verfahrbaren Reinigungsgerätes
KR101686170B1 (ko) 2010-02-05 2016-12-13 삼성전자주식회사 주행 경로 계획 장치 및 방법
DE102010000317A1 (de) 2010-02-05 2011-08-11 Vorwerk & Co. Interholding GmbH, 42275 Verfahren zur Reinigung eines Raums mittels eines selbsttätig verfahrbaren Reinigungsgerätes
KR101649645B1 (ko) 2010-02-08 2016-08-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP2011181997A (ja) 2010-02-26 2011-09-15 Brother Industries Ltd 通信装置およびプログラム
DE102010000607B4 (de) * 2010-03-02 2022-06-15 Vorwerk & Co. Interholding Gmbh Als Basisstation für ein selbsttätig verfahrbares Saug- und/oder Kehrgerät einsetzbarer Haushaltsstaubsauger
KR20110119118A (ko) 2010-04-26 2011-11-02 엘지전자 주식회사 로봇 청소기, 및 이를 이용한 원격 감시 시스템
KR101487778B1 (ko) 2010-05-11 2015-01-29 삼성전자 주식회사 센싱 시스템 및 이를 갖춘 이동 로봇
US8442682B2 (en) * 2010-05-28 2013-05-14 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous robot charging stations and methods
DE102010017211A1 (de) 2010-06-02 2011-12-08 Vorwerk & Co. Interholding Gmbh Basisstation für ein selbsttätig verfahrbares Bodenreinigungsgerät sowie Verfahren zur Reinigung eines Bodens mittels eines solchen Bodenreinigungsgerätes
DE102010017689A1 (de) 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
JP5560978B2 (ja) 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
KR101483541B1 (ko) 2010-07-15 2015-01-19 삼성전자주식회사 로봇청소기, 메인터넌스 스테이션 그리고 이들을 가지는 청소시스템
DE102010033768A1 (de) 2010-08-09 2012-02-09 Dürr Systems GmbH Steuersystem und Steuerverfahren für einen Roboter
DE102011050357A1 (de) 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines selbsttätig verfahrbaren Gerätes
CN101945325B (zh) * 2010-08-13 2016-04-27 厦门雅迅网络股份有限公司 一种基于基站定位的朋友感知方法
CN102407522B (zh) 2010-09-19 2014-03-26 泰怡凯电器(苏州)有限公司 智能机器人系统及其充电对接方法
KR20120043865A (ko) 2010-10-27 2012-05-07 주식회사 케이티 이동통신 단말의 위치정보를 활용한 로봇 인터랙션 서비스 제공 시스템, 방법 및 장치
KR101750340B1 (ko) 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101752190B1 (ko) 2010-11-24 2017-06-30 삼성전자주식회사 로봇청소기 및 그 제어방법
WO2012092565A1 (en) 2010-12-30 2012-07-05 Irobot Corporation Debris monitoring
JP5832553B2 (ja) 2010-12-30 2015-12-16 アイロボット コーポレイション カバレッジロボットナビゲーション
EP2671373B1 (en) 2011-02-05 2017-12-06 Apple Inc. Method and apparatus for mobile location determination
US20120215380A1 (en) 2011-02-23 2012-08-23 Microsoft Corporation Semi-autonomous robot that supports multiple modes of navigation
US8779391B2 (en) 2011-03-03 2014-07-15 Teckni-Corp Sterilization system with ultraviolet emitter for eradicating biological contaminants
DE102011006062B4 (de) 2011-03-24 2023-05-25 RobArt GmbH Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
KR101842460B1 (ko) 2011-04-12 2018-03-27 엘지전자 주식회사 로봇 청소기, 이의 원격 감시 시스템 및 방법
KR101850386B1 (ko) 2011-04-19 2018-04-19 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
ES2732069T3 (es) 2011-04-29 2019-11-20 Irobot Corp Rodillo elástico y compresible y robot de cobertura autónomo
KR101760950B1 (ko) 2011-05-17 2017-07-24 엘지전자 주식회사 네트워크 시스템의 제어방법
JP2013007708A (ja) 2011-06-27 2013-01-10 Hitachi High-Technologies Corp 検査装置及び検査レシピの隠蔽方法
JP5399525B2 (ja) 2011-06-29 2014-01-29 シャープ株式会社 光学式測距装置および電子機器
DE102011051729A1 (de) 2011-07-11 2013-01-17 Alfred Kärcher Gmbh & Co. Kg Selbstfahrendes Bodenreinigungsgerät
TW201305761A (zh) 2011-07-21 2013-02-01 Ememe Robot Co Ltd 自走機器人及其定位方法
US8761933B2 (en) 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
KR101366860B1 (ko) 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
JP5348215B2 (ja) 2011-09-29 2013-11-20 カシオ計算機株式会社 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US9776332B2 (en) 2011-12-08 2017-10-03 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
JP2013146302A (ja) 2012-01-17 2013-08-01 Sharp Corp 自走式電子機器
US8982217B1 (en) 2012-01-31 2015-03-17 Google Inc. Determining states and modifying environments according to states
DE102012201870A1 (de) * 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
KR101984214B1 (ko) 2012-02-09 2019-05-30 삼성전자주식회사 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법
US9146560B2 (en) * 2012-03-30 2015-09-29 Irobot Corporation System and method for implementing force field deterrent for robot
CN102738862B (zh) 2012-06-13 2014-12-03 杭州瓦瑞科技有限公司 移动机器人的自动充电系统
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
DE102012211071B3 (de) 2012-06-27 2013-11-21 RobArt GmbH Interaktion zwischen einem mobilen Roboter und einer Alarmanlage
US9568596B2 (en) 2012-07-24 2017-02-14 Sharp Kabushiki Kaisha Optical distance measuring apparatus and electronic apparatus
US9939529B2 (en) * 2012-08-27 2018-04-10 Aktiebolaget Electrolux Robot positioning system
US8855914B1 (en) 2012-08-31 2014-10-07 Neato Robotics, Inc. Method and apparatus for traversing corners of a floored area with a robotic surface treatment apparatus
DE102012109004A1 (de) 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
TWI459170B (zh) 2012-10-04 2014-11-01 Ind Tech Res Inst 行進控制裝置以及具有該行進控制裝置之自動引導載具
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US20140128093A1 (en) 2012-11-06 2014-05-08 Qualcomm Incorporated Portal transition parameters for use in mobile device positioning
KR101428877B1 (ko) 2012-12-05 2014-08-14 엘지전자 주식회사 로봇 청소기
TWI481980B (zh) 2012-12-05 2015-04-21 Univ Nat Chiao Tung 電子裝置及其導航方法
KR20140073854A (ko) 2012-12-07 2014-06-17 주식회사 유진로봇 PSD scanner를 사용한 청소로봇의 장애물 감지 시스템
DE102012112036B4 (de) 2012-12-10 2023-06-07 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112035A1 (de) 2012-12-10 2014-06-12 Miele & Cie. Kg Verfahren zum Betrieb eines Staubsaugerroboters und nach dem Verfahren arbeitender Staubsaugerroboter sowie System mit einem solchen Staubsaugerroboter
KR102058918B1 (ko) 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
US9903130B2 (en) * 2012-12-22 2018-02-27 Maytronics Ltd. Autonomous pool cleaning robot with an external docking station
KR101469333B1 (ko) * 2012-12-26 2014-12-04 엘지전자 주식회사 자동 청소기
DE102013100192A1 (de) 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
US9233472B2 (en) 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
CN104769962B (zh) 2013-01-18 2019-03-12 艾罗伯特公司 包括移动机器人的环境管理系统以及其使用方法
US9375847B2 (en) 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
GB2509990B (en) 2013-01-22 2014-12-10 Dyson Technology Ltd Docking station for a mobile robot
GB2509989B (en) 2013-01-22 2015-03-04 Dyson Technology Ltd Docking station for a mobile robot
GB2509991B (en) 2013-01-22 2015-03-11 Dyson Technology Ltd Docking station for a mobile robot
KR101450537B1 (ko) 2013-03-05 2014-10-14 엘지전자 주식회사 로봇 청소기
KR101450569B1 (ko) 2013-03-05 2014-10-14 엘지전자 주식회사 로봇 청소기
KR101490170B1 (ko) 2013-03-05 2015-02-05 엘지전자 주식회사 로봇 청소기
WO2014138472A2 (en) 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
JP6088858B2 (ja) 2013-03-12 2017-03-01 シャープ株式会社 自走式機器
US10458938B2 (en) * 2013-03-14 2019-10-29 Ecolab Usa Inc. System and method for monitoring of floor conditions
JP2014197294A (ja) 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
CN104117987B (zh) 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 移动机器人
DE102013104399A1 (de) 2013-04-30 2014-10-30 Vorwerk & Co. Interholding Gmbh Basisstation für ein selbsttätig verfahrbares Gerät
DE102013104547A1 (de) 2013-05-03 2014-11-06 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
GB2513912B (en) 2013-05-10 2018-01-24 Dyson Technology Ltd Apparatus for guiding an autonomous vehicle towards a docking station
CN104161487B (zh) 2013-05-17 2018-09-04 恩斯迈电子(深圳)有限公司 移动装置
KR20140145648A (ko) 2013-06-13 2014-12-24 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR101534005B1 (ko) 2013-07-16 2015-07-06 주식회사 유진로봇 청소 로봇을 이용하여 사용자 지정 영역을 청소하기 위한 시스템 및 그 방법
CN105593775B (zh) * 2013-08-06 2020-05-05 阿尔弗雷德·卡赫欧洲两合公司 用于运行地板清洁机的方法以及地板清洁机
JP5897517B2 (ja) 2013-08-21 2016-03-30 シャープ株式会社 自律移動体
CN104460663A (zh) 2013-09-23 2015-03-25 科沃斯机器人科技(苏州)有限公司 智能手机控制清扫机器人的方法
US20150115138A1 (en) 2013-10-25 2015-04-30 Avago Technologies General Ip (Singapore) Pte. Ltd. Sensing Device With A Shield
KR102152641B1 (ko) 2013-10-31 2020-09-08 엘지전자 주식회사 이동 로봇
KR102095817B1 (ko) 2013-10-31 2020-04-01 엘지전자 주식회사 이동 로봇, 이동 로봇의 충전대 및 이들을 포함하는 이동 로봇 시스템
EP2870852A1 (en) 2013-11-11 2015-05-13 Honda Research Institute Europe GmbH Lawn mower with network communication
EP3734393A1 (en) 2013-11-12 2020-11-04 Husqvarna Ab Improved navigation for a robotic working tool
EP3076844B1 (de) 2013-12-06 2018-05-30 Alfred Kärcher GmbH & Co. KG Reinigungssystem
KR102130190B1 (ko) * 2013-12-19 2020-07-03 에이비 엘렉트로룩스 로봇 청소 장치
JP6638988B2 (ja) 2013-12-19 2020-02-05 アクチエボラゲット エレクトロルックス サイドブラシを有し、渦巻きパターンで動くロボットバキュームクリーナ
KR102118049B1 (ko) 2013-12-19 2020-06-09 엘지전자 주식회사 로봇 청소기, 로봇 청소기 시스템 및 그 제어방법
CN203672362U (zh) 2013-12-31 2014-06-25 科沃斯机器人科技(苏州)有限公司 激光测距装置及其自移动机器人
KR102118051B1 (ko) 2014-01-17 2020-06-02 엘지전자 주식회사 로봇청소기 시스템 및 이의 충전방법
JP5543042B1 (ja) * 2014-02-12 2014-07-09 株式会社コスモライフ 台座
KR102158695B1 (ko) 2014-02-12 2020-10-23 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
KR102072387B1 (ko) 2014-03-20 2020-02-03 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
DE102014012811B4 (de) 2014-03-27 2017-09-21 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
CN104972462B (zh) 2014-04-14 2017-04-19 科沃斯机器人股份有限公司 自移动机器人避障行走方法
KR101578864B1 (ko) 2014-04-25 2015-12-29 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578861B1 (ko) 2014-04-25 2015-12-21 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578884B1 (ko) 2014-04-25 2015-12-29 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578878B1 (ko) 2014-05-07 2015-12-21 에브리봇 주식회사 거리 센서 장치, 로봇 청소기 및 이의 제어 방법
JP5676039B1 (ja) 2014-05-28 2015-02-25 シャープ株式会社 自走式装置、自走式装置の制御方法、および、自走式装置の制御プログラム
CN105334847B (zh) 2014-06-26 2021-07-27 科沃斯机器人股份有限公司 自移动机器人
DE102014110104B4 (de) 2014-07-18 2016-12-15 eyeworkers interactive GmbH System zur Steuerung von beweglichen Mobileinheiten
DE102014110265A1 (de) 2014-07-22 2016-01-28 Vorwerk & Co. Interholding Gmbh Verfahren zur Reinigung oder Bearbeitung eines Raumes mittels eines selbsttätig verfahrbaren Gerätes
US10211191B2 (en) 2014-08-06 2019-02-19 Pixart Imaging Inc. Image module package with transparent sub-assembly
DE102014111217A1 (de) 2014-08-06 2016-02-11 Vorwerk & Co. Interholding Gmbh Bodenreinigungsgerät zur Trocken- und Feuchtreinigung sowie Verfahren zum Betrieb eines selbstfahrenden Bodenreinigungsgerätes
EP3177974A1 (de) 2014-08-06 2017-06-14 Alfred Kärcher GmbH & Co. KG Verfahren zum bearbeiten einer bodenfläche und bodenbearbeitungsgerät
KR102306709B1 (ko) 2014-08-19 2021-09-29 삼성전자주식회사 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
WO2016028021A1 (ko) 2014-08-20 2016-02-25 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR102527645B1 (ko) 2014-08-20 2023-05-03 삼성전자주식회사 청소 로봇 및 그 제어 방법
JP5819498B1 (ja) 2014-08-27 2015-11-24 シャープ株式会社 自律移動体及び自律移動体システム
JP6325946B2 (ja) 2014-08-27 2018-05-16 東芝ライフスタイル株式会社 自律走行体装置
DE102014113040A1 (de) 2014-09-10 2016-03-10 Miele & Cie. Kg Verfahren zum Betrieb eines Haushaltsgerätesystems
WO2016048077A1 (ko) 2014-09-24 2016-03-31 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
US10660496B2 (en) 2014-09-24 2020-05-26 Samsung Electronics Co., Ltd. Cleaning robot and method of controlling the cleaning robot
CN105527961A (zh) 2014-09-30 2016-04-27 科沃斯机器人有限公司 一种自移动表面行走机器人系统及回归主充电座的方法
US9798328B2 (en) 2014-10-10 2017-10-24 Irobot Corporation Mobile robot area cleaning
CN105629971A (zh) * 2014-11-03 2016-06-01 贵州亿丰升华科技机器人有限公司 一种机器人自动充电系统及其控制方法
CN104765362B (zh) 2014-11-07 2017-09-29 深圳市银星智能科技股份有限公司 一种清洁机器人的局部清扫模式
CN105700522B (zh) * 2014-11-11 2019-11-15 沈阳新松机器人自动化股份有限公司 一种机器人充电方法及其充电系统
WO2016077703A1 (en) 2014-11-13 2016-05-19 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
KR102397602B1 (ko) * 2014-11-25 2022-05-16 삼성전자 주식회사 그래픽 사용자 인터페이스를 제공하는 방법 및 전자 장치
US9788698B2 (en) * 2014-12-10 2017-10-17 Irobot Corporation Debris evacuation for cleaning robots
WO2016091312A1 (en) 2014-12-11 2016-06-16 Husqvarna Ab Improved navigation for a robotic working tool
US9420741B2 (en) 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
WO2016095966A1 (en) 2014-12-16 2016-06-23 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
EP3045936A1 (en) 2015-01-13 2016-07-20 XenomatiX BVBA Surround sensing system with telecentric optics
KR101640706B1 (ko) 2015-01-28 2016-07-18 엘지전자 주식회사 진공 청소기
KR102404258B1 (ko) 2015-02-06 2022-06-02 삼성전자주식회사 로봇충전복귀장치 및 그 복귀방법
CN104634601B (zh) 2015-02-09 2017-07-25 杭州市质量技术监督检测院 清洁机器人清洁性能的检测装置与方法
KR102023966B1 (ko) * 2015-02-10 2019-09-23 에브리봇 주식회사 로봇 청소기 및 그의 제어 방법
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9630319B2 (en) * 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
US9868211B2 (en) 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
DE102015006014A1 (de) 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation
CN105045098B (zh) 2015-05-29 2017-11-21 希美埃(芜湖)机器人技术有限公司 一种机器人喷涂轨迹自动生成系统的控制方法
US9919425B2 (en) * 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
EP3156873B2 (en) 2015-10-15 2023-04-05 Honda Research Institute Europe GmbH Autonomous vehicle with improved simultaneous localization and mapping function
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
CN105990876B (zh) 2015-12-21 2019-03-01 小米科技有限责任公司 充电桩及其识别方法、装置和自动清洁设备
CN105467398B (zh) 2015-12-31 2018-08-21 上海思岚科技有限公司 扫描测距设备
CN105527619B (zh) 2016-02-05 2018-07-17 上海思岚科技有限公司 一种激光测距设备
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
GB2566881B (en) * 2016-07-11 2022-04-13 Groove X Inc Autonomously acting robot whose activity amount is controlled

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013082013A (ja) * 2011-10-06 2013-05-09 Nippon Signal Co Ltd:The 自走装置の充電システム
JP2013183965A (ja) * 2012-03-09 2013-09-19 Mitsubishi Electric Corp 電気掃除機
JP2014054335A (ja) * 2012-09-11 2014-03-27 Sharp Corp サーバ、制御システム、自走式掃除機、プログラム、および記録媒体
US20140100693A1 (en) * 2012-10-05 2014-04-10 Irobot Corporation Robot management systems for determining docking station pose including mobile robots and methods using same
JP2014200449A (ja) * 2013-04-04 2014-10-27 シャープ株式会社 自走式掃除機

Also Published As

Publication number Publication date
US20220083070A1 (en) 2022-03-17
US20180246518A1 (en) 2018-08-30
EP3968117A3 (de) 2022-06-29
CN108700880A (zh) 2018-10-23
EP3345065A1 (de) 2018-07-11
EP3345065B1 (de) 2021-11-03
DE102015114883A1 (de) 2017-03-09
JP2018526748A (ja) 2018-09-13
US11188086B2 (en) 2021-11-30
EP3968117A2 (de) 2022-03-16
CN114740852A (zh) 2022-07-12
WO2017037257A1 (de) 2017-03-09
JP6971223B2 (ja) 2021-11-24

Similar Documents

Publication Publication Date Title
JP6971223B2 (ja) 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法
EP2888603B1 (en) Robot positioning system
CN110573833B (zh) 成像装置和监控装置
KR101362961B1 (ko) 이동 로봇 환경의 실시간 위치 측정 및 매핑을 위한 방법 및 장치
KR101409987B1 (ko) 이동 로봇의 자세 보정 방법 및 장치
US10747229B2 (en) Environment arrangement robot and control program thereof
JP5826795B2 (ja) 自律移動体、その制御システム、および自己位置検出方法
US10168160B2 (en) Target recognition and localization methods using a laser sensor for wheeled mobile robots
JP2010511957A (ja) 周辺の環境変化に迅速に適応し、環境マップを作成することができる移動体の環境マップ作成装置及びその方法
KR20200121756A (ko) 모바일 로봇의 초기화 진단 방법 및 시스템
CN112051844A (zh) 自移动机器人及其控制方法
JP2021163455A (ja) 位置推定システム
JP2019144040A (ja) センサを用いた物体監視装置
JP4774401B2 (ja) 自律移動体の経路設定装置
JP6491893B2 (ja) 自律走行制御システムとこれを用いる自律走行装置及び自律走行制御方法と制御プログラムと記録媒体
JP7121489B2 (ja) 移動体
Hoffmann et al. Further studies on the use of negative information in mobile robot localization
KR102091180B1 (ko) 복수 지도를 이용한 전역 지도 통합 시스템 및 방법 그리고 그 통합 기준 장치
KR102203438B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
US12117840B1 (en) Method for robotic devices to identify doorways using machine learning
US10408604B1 (en) Remote distance estimation system and method
KR102082416B1 (ko) 이동용 로봇 및 이의 자가진단 방법
KR20210087766A (ko) 실내 공간 내에서 이송로봇의 이동경로 확인방법
CN116069006A (zh) 地图优化方法、装置、电子设备和存储介质
KR20140091786A (ko) 영역별 움직임 측정 결과 조합을 통한 이동정보 추정 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230323