JP2016024820A - 自立移動装置によって部屋を掃除または処理するための方法および自立移動装置 - Google Patents

自立移動装置によって部屋を掃除または処理するための方法および自立移動装置 Download PDF

Info

Publication number
JP2016024820A
JP2016024820A JP2015137214A JP2015137214A JP2016024820A JP 2016024820 A JP2016024820 A JP 2016024820A JP 2015137214 A JP2015137214 A JP 2015137214A JP 2015137214 A JP2015137214 A JP 2015137214A JP 2016024820 A JP2016024820 A JP 2016024820A
Authority
JP
Japan
Prior art keywords
map
room
mobile device
sub
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015137214A
Other languages
English (en)
Other versions
JP6632232B2 (ja
Inventor
ローレンツ・ヒレン
Hillen Lorenz
マルティン・メグレ
Maigret Martin
ジェニイ・シェッフェル
Scheffel Jenny
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vorwerk and Co Interholding GmbH
Original Assignee
Vorwerk and Co Interholding GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vorwerk and Co Interholding GmbH filed Critical Vorwerk and Co Interholding GmbH
Publication of JP2016024820A publication Critical patent/JP2016024820A/ja
Application granted granted Critical
Publication of JP6632232B2 publication Critical patent/JP6632232B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】自立移動装置が掃除すべきサブエリア、または避けなければならないサブエリアを部屋の地図上で見い出す仕事からユーザーを解放する。【解決手段】自立移動装置1は、カメラとデータメモリと処理ユニットとを備える。処理ユニットは、カメラによって撮影された部屋内の隣接した複数のサブエリア2の画像に基づいて部屋の地図を作成し、作成された部屋の地図を前記データメモリに記憶する。ユーザーは移動端末4のカメラを用いてサブエリア2の写真3を撮る。処理ユニットは、この写真3とデータメモリに記憶されている部屋の地図とに基づいて、掃除動作または処理動作を実行するサブエリア(2)もしくは掃除動作または処理動作から除外するサブエリア(2)を選択する。【選択図】図1

Description

本発明は、自立移動装置による部屋の掃除方法または処理方法に関する。その方法は次のステップを含む。:
部屋の地図を作成するステップ、
データメモリに部屋の地図を記憶するステップ、
ユーザによる部屋のサブエリアの選択ステップ、
データメモリに接続された処理ユニットに選択されたサブエリアの位置データを送信するステップ、
処理ユニットがサブエリアを特定することができるように、地図に含まれる位置データと選択されたサブエリアの位置データとを比較するステップ、
ユーザコマンドを考慮して選択されたサブエリアに関して部屋を掃除または処理するステップ。
上述した種類の方法は、先行技術において十分よく知られている。部屋を掃除または処理するために使われる装置は、予めプログラムされた進行戦略および付加的にまた掃除/処理戦略に従って自立的に動く。これに関連して、その装置は掃除または処理される部屋の地図または地図のような表現、付加的に対応する数の部屋のための複数の地図を備えている。望ましくは、その地図は不揮発性メモリに記憶される。特に、境界壁または家具のような障害物のための位置データが地図または地図のような表現の中で印を付けられる。部屋のデータをキャプチャするために、試験稼働に照らしてその装置を動作させることが更に知られている。そして、その間にまた地図が作成される。さらに、また、地図は次の稼働の間に更新されることができる。それで、それは例えば再配置された家具をキャプチャすることができる。この目的のために、その装置は、部屋、特に障害物の位置データを検出することができる部屋のキャプチャ手段を備えている。この関連で、特許文献1が参照され、それは全方位スキャナーを備えた掃除装置を開示する。詳細には、そこで開示される障害物検出機能は、障害物までの距離を測定する光三角測量プロセスに基づく。位置情報を持った地図を作成するための方法は、例えば特許文献2に開示される。距離測定の代わりに、または追加として、また、例えばモザイクの方法でカメラで撮られた複数の画像から地図を作成することが関連技術から知られる。
例えば、部屋の具体的なサブエリアで局部的に制限された掃除/処理を実行することができるように先行技術から知られる装置をそこに進ませ、または掃除/処理に対してそのエリアを完全に閉鎖するために、ユーザーがリモートコントロールを用いて手動で望まれるサブエリアにその装置を向け、または目的位置として地図上で望まれるサブエリアを選択することができる方法が、また、先行技術で知られている。局部的に制限された掃除(局部清掃)に関して、例えば矢印キーを用いて掃除されることになる場所にその装置を進ませるために、ユーザーは、例えばリモートコントロールを使うことができる。または、ユーザーはその場所にその装置を運び、そこで局部清掃を始めるためにその装置上でボタンを押すことができる。他方では、どの局部的なサブエリアに入ってはならないかをその装置に示すために、例えば、磁気ストライプまたはIRビーコンのような分離した”ノーエントリーマーカー”が設定される。
また、ユーザーがスマートフォンのような移動端末を用いて装置を遠隔操作する方法が知られている。その場合、掃除または処理装置上のカメラによって撮られた部屋の現在の写真および/またはその装置のデータメモリに記憶されている地図がその移動端末において表示されることができる。ユーザーは掃除/処理されることになる部屋のサブエリア、または避けられることになるサブエリアを選択するか、またはそのサブエリアに印を付けることができる。局部的な掃除が望まれる場合には、例えば監視しなければならない、またはその動きを制御しなければならないユーザーなしに、その装置はサブエリア自体に進むことができる。この関連で、例えば、特許文献3と特許文献4が参照される。
独国公開特許公報第102008014912号 独国公開特許公報第102010000174号 独国公開特許公報第102009024990号 独国公開特許公報第102009052629号
上述した方法の欠点は、装置が進まなければならない部屋のサブエリア、またはそれが地図上で避けなければならないサブエリアをユーザー自身が見い出さなければならないということである。これをするために、例えばリモートコントロールで矢印キーを使って、また例えば移動端末上でユーザーは望まれる部屋のサブエリアに装置を向ける。これはしばしば正確ではなく、訂正されなければならない。または望まれるサブエリアにその装置が正確に進むであろうことを確保することをユーザーがその使用中に特に学ばなければならない。そのような環境では、装置はそのサブエリアに自動的に進まず、その代わりに装置がその部屋の望まれるサブエリアに達するまでユーザーがその装置を制御しなければならない。その装置のカメラまたはその部屋の地図からの画像が移動端末上に表示される場合には、また、ユーザーは地図上で望まれるサブエリアを見い出して選択しなければならない。そうするとき、ユーザーは常に地図上で自分自身の位置を見定め、望まれるサブエリアを見い出さなければならない。これは、特に経験の乏しいユーザーにとって多大な時間を必要とし、不便である。
従って、本発明の目的は、自立移動装置を用いて部屋を掃除または処理するための装置を提供することである。そして、ユーザーはもはやその装置が進まなければならない正確な望まれるサブエリアまたはそれが避けなければならないサブエリアを見い出すことを必要としない。それで、ユーザーにとってより時間を必要としない、そしてもっと便利に実行されることができる方法が得られることになる。
上述した目的を達成するために、請求項1のプリアンブルに記載されるように部屋を掃除または処理するための方法が提案される。そして、その方法においてユーザーは選択のためにサブエリアの写真を撮り、それを処理ユニットに送信する。
本発明によれば設定において、ユーザーは部屋のどのサブエリアが掃除されるべきであるか、または避けられるべきであるかその装置に簡単に命令することができる。これをするために、ユーザーは望まれるサブエリアの写真を撮り、それを処理ユニットに送る。そして、その処理ユニットは例えば自立移動装置に、または同様に外部のコンピュータシステムに設置されることができる。その処理ユニットは、データメモリに記憶されている部屋の地図とその写真を比較する。それから、その処理ユニットは、その装置が移動動作の間にサブエリアに進むか、またはそれを避けることができるように望まれるサブエリアへの経路を計画することができる。特に回避の目的のために、また、選択されたサブエリアは記憶されてもよい。それで、それは、また、将来の掃除動作または処理動作の間に避けられることができる。それから、その結果、進行するその装置は選択されたサブエリアを回避する。従って、一般に単純でタイムリーなユーザー/装置の相互関係が可能である。そして、それによって、部屋のどのサブエリアを特に集中的に掃除または処理するべきか、もしくは完全に避けるべきかに関してユーザーはその装置に命令することができる。このために必要な唯一のものは、ユーザーによって撮られた選択されたサブエリアの写真である。このように、本発明によれば、自立自動装置を管理するために付加的なリモートコントロールは必要ではない。更に、また、ユーザー自身がデータメモリに記憶されている地図の中で選択のためにサブエリアを決めて見い出すことは必要ではない。
本発明との関連で、更に、ユーザーが移動端末、特に携帯電話を用いて写真を撮ることが提供される。携帯電話、特にスマートフォンに代わる手段として、また、タブレットPC、デジタルカメラなどを使ってその方法を実行することができる。写真は、無線ネットワーク接続、特にWLANまたはブルートゥースを経由して無線で有利に送信される。けれども、また、選択されたサブエリアの位置データを処理ユニットに送信する前に、それを可搬型データメモリ、例えば移動端末のメモリカードに記憶することが可能である。そして、そのとき、そのメモリカードはデータの送信のために処理ユニットに接続される。
サブエリアの特定の後で、その装置が選択されたサブエリアに進み、そこで掃除または処理を実行することが提供される。この目的のために、選択されたサブエリアのための位置データは、まず、地図に記憶されている位置データと比較される。先行技術から知られる様々な方法を位置データを比較するために使うことができる。例えば、局部的な画像の特徴(位置データ)がユーザーによって撮られた写真の中で検出され、地図に対して探索されることができる。この関係において、カメラの視点および/または方向、眺める角度の変化、もしくは照明状態の変化によって比較的影響を及ぼされない画像の特徴を使うことが望ましい。局部的な画像の特徴の探索の代わりに、また、(通常は画像データベースの中の)既知の画像のセットにおいて与えられた写真に対する探索を始めることができる。そして、その中で各場合における最も類似する1枚の画像または複数の画像が見出される。提案される方法によれば、探索される画像は、掃除されるべき、または避けられるべきサブエリアについてユーザーによって撮られた写真である。画像データベースは、データメモリに記憶されている部屋の地図と有利に一致する。本方法によれば、複数のアルゴリズムが地図上の選択されたサブエリアに対する探索に使われる。そして、目的位置、または少なくとも清掃の間に集中的に掃除されるべき、または避けられるべき目的領域が決定される。それから、そのサブエリアに対応する経路が計算される。または、選択されたサブエリアのための位置データが処理ユニットに記憶され、その装置によって実行される部屋の掃除動作または処理動作から除外される。
部屋の地図がその装置のデータメモリに記憶されるべきであることが提案される。普通の移動戦略の過程で部屋を進むにつれて地図を作成するために必要とされる位置データをその装置自体がキャプチャするならば、これは特に勧められる。これに関連して、位置データを集めているとき、その装置が同時に掃除動作または処理動作を実行しないことが望ましい。別の変形において、また、部屋の地図がその装置自体に記憶されるのではなく、例えば外部データベース中に、またはユーザーの移動端末のデータメモリ中に記憶されることができる。
その装置の処理ユニットまたはユーザーに属する別の端末、特に携帯電話によって、選択されたサブエリアの位置データと地図に含まれる位置データとを比較することが更に提案される。更に別の変形において、また、現在マルチメディアアプリケーションに対して普通のことであるので、その装置のベースステーションを使って、またはネットワーク化された屋内電気器具を経由して同様の比較を実行することができる。この関連で、掃除されるサブエリアの写真を撮るために、ユーザーは、例えば携帯電話に組み込まれたカメラではなく、個別のデジタルカメラを使うかも知れない。この写真は、最初にその装置に送信される。それから、その装置はそれ自体に記憶されている部屋の地図と写真の両方をテレビに送り、選択されたサブエリアの特定の一部として必要な計算ステップを実行する。これに関連して、また、デジタルカメラまたは移動端末、例えばスマートフォンがその写真を直接テレビに送ることができるのはもちろんである。
更に別の実施形態によれば、また、選択されたサブエリアのための位置データは外部コンピューターシステムに記憶されることができ、ユーザーの端末と部屋を掃除または処理するためのその装置の両方がその外部コンピュータシステムに接続されることができる。強力なコンピューターシステムが必要とされるが、ユーザーの移動端末または部屋を掃除または処理するためのその装置がそれを提供することができないならば、このソリューションは特に有利である。
曖昧さを残さずにサブエリアを特定することができないならば、ユーザは複数の可能なサブエリアから手作業で選ぶか、および/または選択されたサブエリアのための位置データをもっと正確に規定できることが更に提供される。理想的には、選択されたサブエリアのための位置データが地図の位置データと比較されるとき、同一の、またはできるだけ類似の唯一のサブエリアが地図上で見出される。けれども、ユーザーによって選ばれたサブエリアを記憶されている地図上で一義的に特定できないことが起こる。この場合には、彼の選択したサブエリアにより多くまたはより少なくマッチする複数の可能なサブエリアが、選択のためにユーザーに提供される。ユーザーはこれらの様々な提案されたサブエリアから選択することができる。またはユーザーは例えば掃除されるべきまたは避けられるべきサブエリアの大きさと位置についてもっと詳細な情報を提供することによって位置データをもっと詳しく規定することができる。この目的を達成するために、例えば彼の移動端末上で有利に地図を表示することができる。 表示は移動可能であり、回転可能であり、サイズ変更可能であり、または他の方法で操作可能である。選択されたサブエリアの位置データにもっとも近くマッチし、代わりになるべきものとして計算されたサブエリアが地図上で印を付けられる。それで、ユーザーはこれらのエリアの1つを選択しなければならないだけである。また、地図は、ユーザが訂正することができるようにする、または望まれるサブエリアをもっと厳密に規定することができるようにするために使われることができる。この目的を達成するために、彼は例えば地図の中で掃除される、または避けられるエリアの大きさと位置に印を付けることができる。
地図に含まれる位置データは、3次元情報、特に部屋内の障害物についての情報を含むことが勧められる。この構成で、ユーザーが写真を撮るときに使った角度と異なる角度で部屋を写すその装置によって地図が作成される際に生じる欠点を克服することができる。ユーザーの視点、そして写真の視点が通常鳥瞰視点を反映するのに対して、その装置は一般的に低い地点から地面まで言わば”カエルの視点”を与える。更にまた、ユーザーが見ることができない部屋のサブエリアにその装置は接近することができる。これらは、例えば食器棚、ベッドなどの下のサブエリアを含む。従って、その装置の視点から準備された地図においてユーザーが最もよく自分自身の位置を見定めるのを助けるために、例えば、障害物の高さに関する3次元情報やその装置が下を進む物体が表示されることができる。この目的のために、下を進むことができない場合に”地面に近い”、(ベッドの下である場合に)”低い”、(椅子の下である場合に)”中間”、そして(例えば、テーブルの下である場合に)”高い”のように、障害物をグループに分類することは有益である。
更に、部屋の地図がその装置によって作成され、そこではその装置のカメラが複数の隣接したサブエリアの写真を撮り、それから地図が作成されるとき、それらが一つにまとめられることが本発明の範囲内で提案される。従って、一般に複数の異なる方法で地図を作成することができるけれども、地図は部屋の複数の隣接したサブエリアの位置データから作成される。地図は”モザイク地図”の方法でつなぎ合わされ、そのとき、”同時位置決め地図作成”と”ビジュアル・オドメトリ”の方法を使ってもよいことが提案される。”モザイクカード”の代わりに、地図は、また、多数の画像を結合することによって作成されたパノラマ写真の形を持つことができる。
関連技術において、上記”モザイク地図”は、海底の地図を作るための海底ロボット工学応用で、または空撮画像地図として特に使用される。地図を作成するために、例えば、”同時位置決め地図作成(SLAM)”とパノラマ写真から知られる技術が使用される。その装置の現在の位置を特定するために、現在の画像がモザイク地図と比較され、位置が評価されなければならない。局部的な画像の特徴に基づく既知の方法と画像探索アルゴリズムがこのために使われる。
上記同時位置決め地図作成法は、地図が作成され、拡大され、または改善されるとき、地図の中でその装置の位置を決めることで特徴付けられる。この目的のために、センサーデータとの折衷の方法を使う。その装置が既に知られている場所に帰るとき、位置の評価の改善と地図の訂正が行われる。また、上述したビジュアル・オドメトリ法は、計算によってできるだけ正確にその装置の位置を評価することを試みる。その装置の周囲の地図がしばしばこの過程の副産物として作成される。上述した全ての方法の共通の特徴は、矛盾のない、すなわち幾何学的に正しいモザイク地図を生じるためにその装置によってキャプチャされた複数の画像が一つに結合されること、および地図の作成過程の間にその装置のための現在の位置情報が評価されることである。特に、キャプチャされた現在の画像と前の画像の間に重なりがある場合には、そのような方法は地図の質とその装置の位置の評価を著しく改善することができる。
モザイク地図の編集と同じ方法で、また、パノラマ写真において高解像度のパノラマ写真を作成するために多数の画像が結合される。パノラマ写真とモザイク地図の両方のための画像を編集するために同様なアルゴリズムが使われる。けれども、モザイク地図とは異なり、パノラマ写真は地面レベルの鳥瞰の視点を反映せず、むしろ例えば人間の観察者のような遠近感をもつであろう。
また、上記で概要を説明した地図を作成するためのイメージング方法の代わりに、カメラでキャプチャされたのではなく、距離センサー(超音波センサー/レーザー測距器)を使って検出された位置データから地図を作成することができる。
地図を作成するために、部屋の位置データが自立移動装置自体を用いてキャプチャされることが本発明の範囲内で提供される。その結果、自立移動装置は部屋を掃除または処理するのみならず、また地図を作成することに役立つ。一般に、また、その地図は他の装置で利用できるようにされてよい。それで、同じ部屋は同じ方法で再び調査される必要はない。
部屋を掃除または処理するための方法に加えて、また、本発明は部屋を掃除または処理するための自立移動装置を提案する。そして、自立移動装置は部屋の地図を記憶するためのデータメモリとそのデータメモリに接続された処理ユニットを持ち、その処理ユニットはサブエリアの特定のためにそこに送信されるサブエリアの写真を記憶されている地図と比較することができるように設計される。
自立移動装置と移動端末が配置された部屋のサブエリアを示す。 移動端末で撮影され、遠近法によってゆがんだ写真を示す。 図2の修正された写真を示す。 カメラを備えた自立移動装置を示す。 障害物の位置データを取得している図4の自立移動装置を示す。
以下では、その実施形態に関連して本発明をより詳細に説明する。
図1に示される状況は、自立移動装置1、この場合には、例えば掃除されることになる部屋の床面の上のロボット電気掃除機を示す。自立移動装置1はその主要な移動方向に面するカメラ6を備えている。それで、自立移動装置1の前の床エリアを検出することができる。示される部屋の部分は、障害物5、特に壁を持つ部屋のサブエリア2を含む。けれども、また、障害物5は自立移動装置1が通り抜けることができない他の物体、例えば自立移動装置1よりも高くない地上高のベッドや食器棚等であるかもしれない。それで、自立移動装置1はこれらの障害物5の下を通り過ぎることができない。(図示しない)ユーザーは移動端末4を持つ。この場合、それは例えば(図示しない)カメラとサブエリア2の写真3を生じることができるソフトウェアとを備えるスマートフォンとして示される。例えば図1に示されるように、ユーザーの移動端末4で撮られた写真3は移動端末4自体に表示されることができる。
図2は、移動端末4から取られた写真3の処理されないバージョンを示す。それは、遠近法の観点から床面が変形しており、更なる画像処理が必要であることは明らかである。
図3は、図2のサブエリア2を示す。しかし、それは修正されたバージョンである。写真3における遠近法のゆがみと画像エラーは修正され、サブエリア2のゆがみのない縮尺に合致する表示を生じる。このように処理された後で、写真3はサブエリア2に垂直な視線方向からのサブエリア2の表示に対応する。
図4は、自立移動装置1の概略側面図を示す。一般に、自立移動装置1は部屋を掃除または処理するための任意の種類の装置であってよい。この場合、例えばロボット電気掃除機が仮定される。自立移動装置1はカメラ6を備えており、自立移動装置1の周囲を写真に撮ったり、動画を撮影したりすることができる。それで、 例えばマッピングする目的のために部屋の連続的なサブエリア2を記録することができる。
図5は、自立移動装置1が障害物5に接近する状況を示す。障害物5の前における自立移動装置1の2つの異なる時間的に連続の位置が示される。これらの2つの位置は、自立移動装置1が障害物5に接近するときの時間の遅れで得られる。破線のバージョンは実線で示されるバージョンよりも時間的に早い位置での自立移動装置1を示す。例えば、障害物5は棚のベース領域であることができ、それは棚の脚の高さまで床面の上に上げられている。自立移動装置1は今障害物5の高さを調べることができ、自立移動装置1が障害物5の下を動くことができるかどうかを決定する。時間的順序において、自立移動装置1は破線によって示される位置から実線によって示される位置まで動く。この過程で、障害物5は様々な角度から検出されることができる。カメラ6から障害物5の距離は、角度と自立移動装置1の進む距離から計算されることができる。同様に、これはカメラ6に対する障害物5の高さを決定するために使われることができる。それで、自立移動装置1が障害物5の下を通ることができるか否かに関して結論を得ることができる。
単一のカメラ(すなわち、単眼カメラ)のみを持つ自立移動装置1が図示されているけれども、また、他のカメラシステムが使われてよい。この目的を達成するために、例えば、とても広い水平視野を持ち、典型的には360°全方位画像を撮影できる全方位カメラシステムまたは2つ以上のカメラを持つステレオカメラシステムを使うことができる。
特に単純なカメラシステムを床に垂直に向けられたカメラ6で作ることができる。そのとき、カメラ6は垂直の視点から床の地図を作り、画像処理ステップを省くことができる。そのようなカメラ6は環境の影響から容易に保護されることができる。それで、例えば一定の照明状態を達成することができる。一定の照明状態において、カメラ6によって集められた複数の画像から地図を作ることはより容易である。けれども、そのような1つのカメラのみが床を見るので、周囲の障害物5を検出することができない。従って、本発明によれば、高さのカテゴリーにおける障害物5のグループ分けは適用できないであろう。
過去には撮影カメラのみが使われたけれども、例えば超音波センサーやレーザー距離センサーのような他のセンサーがまた本発明に関して適用できる。
次に、自立移動装置1によって部屋を掃除または処理するために提案される方法の個別の方法ステップについて詳細に説明する。
例えば、サブエリア2を特定するために選択されたサブエリア2の位置データを地図に含まれる位置データと比較するために必要な計算を行う搭載コンピュータを備えた自立移動装置1はその方法を実行することができる。移動端末4は、例えば、スマートフォンやタブレットPCなどである。自立移動装置1と移動端末4は、無線ネットワーク接続、例えば無線接続(WLANまたはブルートゥース等)を介してお互いに通信する。このような関係において、自立移動装置1とユーザの移動端末4は直接に(ピアツーピア接続)またはネットワーク、すなわち外部のコンピュータシステムに自立移動装置1と移動端末4を登録することによってお互いに通信することができる。
選択されたサブエリア2の位置データが部屋の既知の位置データと比較可能となる前に、まず部屋の地図を作成しなければならない。地図はモザイク地図が特に有利である。それは多数の画像から編集され、鳥瞰視点から部屋の床を眺める。後で地図を形成することになる画像が集められる間、例えば、ワイピング装置が取り付けられるならば、表面にダメージを与えることを避けるために、部屋の掃除や処理をせずに同時にその装置を稼働させることが勧められる。これに関連して、例えば部屋のサブエリア2が堅木床からなるのでそこを掃除してはいけないとユーザは自立移動装置1に指令することができる。地図の作成は特に複数のサブステップに分割される。これについて、以下に詳細に説明する。
画像を修正するステップ:カメラ6は自立移動装置1の進行方向前方に向いているので、カメラ6でキャプチャされるサブエリア2の画像は遠近法の観点からゆがんでおり、また使用されるカメラ6のタイプによって生じる画像エラーを含む。修正はこれらのゆがみと画像エラーを除去し、サブエリア2のゆがみのない縮尺に合致する表示が得られる。修正に含まれる画像処理ステップは先行技術で知られているため、ここでは更に説明しない。図2と図3におけるサブエリア2の比較は、図2の中でタイルが変形しており、床が壁(障害物5)と正しい角度で示されていないことを明らかにする。図3によれば修正された写真3は、修正後にタイルがお互いに平行であって壁(障害物5)と正しい角度をなすことを明白に示す。
地図を作るために画像を編集するステップ:1枚の全体地図(以下”モザイク地図”という。)を作るために複数の画像を結合することによって地図が作られる。マッピングのスタートで地図が全く存在しないならば、最初に取得される画像は更なる画像を追加する目的のための発端としての役目を果たすであろう。存在する地図に現在の画像を含めることは登録と呼ばれる。画像登録アルゴリズムは一般的に2つのステージで実行される。最初に、どのポイントで、そしてどの方向で画像が追加されるか決定される。これを決定するために2つの可能なアプローチがある。:しばしば存在する地図の中と追加される画像の中とに局部的な画像の特徴が検出され、2つの画像の特徴の間の一致が計算される。それから、現在の画像を挿入するためにこの位置と方向が、一致の解析から再び計算される。そのとき、偽の(または怪しい)一致を除去するために、装置の動き、すなわち挿入された最後の画像と現在の画像の間の移動と回転の評価が実行される。あるいは、探索プロセスと画像の比較で位置と方向が決定されることができる。:複数の可能な位置と複数の可能な方向で、現在の画像が存在する地図と比較される。そのとき、最も良い一致に帰着する位置と方向の組み合わせが探索の結果として使われる。挿入された最後の画像と現在の画像間の装置の動きの評価が使われるならば、探索範囲はもっと狭く定義されてよい。
2番目のステップにおいて、計算された位置と計算された方向で新しい画像が存在する地図に挿入される。また、帰着する地図の明るさができる限り一様となるように、挿入される画像の明るさは調整されることができる。
自立移動装置1が地図を作られることになる部屋を進む間に、画像がその移動経路に沿って一定の間隔で記録される。そのとき、上述したように現在記録される画像は修正され、地図に組み込まれる。現在の画像と存在する地図の間にある程度の重なりがあることがこの過程で有利である。存在する地図に現在の画像を登録することは、その画像がキャプチャされた時間での装置の位置の評価を計算することを可能にする。これは唯一の位置の評価としての役目を果たしてもよいし、他のセンサーの情報(例えば、レーザー距離センサー)から得られる位置の評価と統合されることもできる。
障害物5の高さに関する情報を統合するステップ:画像から編集される地図は、自立移動装置1からの床の修正された表示のみを含む。けれども、自立移動装置1は、また見えないサブエリア2、例えばテーブルやベッドの下における床の地図を作るので、ユーザはモザイク地図の中で彼が見ているものを理解することは困難であることを見い出す。従って、地図をユーザがより容易に読めるようにするために、地図の中に付加的な情報を含めることは有益である。これは、例えば自立移動装置1が下を進む障害物5、またはそれが下を進むことができない床に近い障害物5に関する付加的な高さの情報を含むかもしれない。例えば、画像が撮影された位置の間の自立移動装置1の動きが知られているならば、2つの画像からの三角測量によって自立移動装置1が下を進む障害物5の高さを計算することができる。これは図5に示される。ユーザ−に対する地図の表示を単純にするために、この方法で計算される障害物5の高さを前もって設定されたカテゴリーに割り当てることができる。例えば、(下を進むことができない場合に)”地面に近い”、(ベッドや食器棚の下である場合に)”低い”、(椅子の下である場合に)”中間”、または(テーブルの下である場合に)”高い”である。高さの表示は、例えば、地図上で色分けされることができる。このようにして作成された地図は、例えば自立移動装置1自体に記憶されることができる、しかし、またもう一つの方法としてユーザーの移動端末4上でそれを記憶することができる。
地図の中にサブエリア2の写真3を置くステップ:部屋のどのエリアが選択的に掃除/処理されなければならないか、または次の掃除/処理シーケンスで避けられなければならないかを自立移動装置1に示すために、ユーザーは彼の移動端末4を使って問題になっているサブエリア2の写真3を撮る。写真3は、例えば無線接続を介して自立移動装置1に送信される。そこで、それは部屋の記憶されている地図と比較され、部屋のどのサブエリア2が写真3上で示されるかに関して計算される。理想的には、部屋のサブエリア2を一意的に特定することができる。けれども、不明確さが生じるかもしれない。そして、ユーザーは、例えば、複数の可能なサブエリア2の中から選択すること、またはもっと正確に選択したサブエリア2の位置データを規定することによって、これらを除去するために介入する。
上述した画像登録と同様に、サブエリア2を特定するために地図に含まれる位置データと選択されたサブエリア2に対する位置データの比較が実行される。この過程において、位置の決定は、例えば局部的な画像の特徴のような位置データの間の一致の計算、または探索プロセスと比較に基づく。
比較の間、例えば、写真3の位置データ、特に局部的な画像の特徴が地図と比較される。地図上の位置データは既知であるか、および/または地図が作成された後で1度だけ計算されなければならない。例えば位置データとしての局部的な画像の特徴は一般的にスケールの変化(すなわち、画像の中の画像の特徴の大きさ)、見る方向の回転、およびある程度の遠近法のゆがみによって影響を受けないので、それらはこの比較方法のために特に適切である。
地図上においてユーザーによって選択されたサブエリア2を特定するために、ユーザーによって撮影された写真3が様々な位置、様々な方向、そして複数の遠近法のゆがみを持ってさえ地図と比較される。そのとき、最も大きな一致が見出される地図の中の位置がサブエリア2の位置であると決定される。
不明確さを除去するステップ:理想的には、ユーザーによって撮影された写真3が地図上における具体的なサブエリア2として決定されることができる。けれども、遠近法または自立移動装置1上のカメラ6と表面との間の距離は、ユーザーの写真3を自立移動装置1によってキャプチャされた地図に一意的に割り当てることができないことを意味することができる。この場合には、複数のサブエリア2がその方法に従って計算され、ユーザーに提案されることができる。この目的を達成するために、(付加的に高さの分類とともに)地図がユーザーの移動端末4に表示される。この表示は、移動可能であり、回転可能であり、サイズ変更可能であり、または別の方法で操作可能である。複数の可能なサブエリア2は地図上で印を付けられる。そして、ユーザーはこれらのサブエリア2の1つ以上を選択することができる。または、ユーザーの移動端末4における地図の表示は、ユーザーにそのエリアを微調整または調整することを可能にさせるために使用されることができる。この目的のために、ユーザーは、例えば選択されたサブエリア2の位置データをもっと正確に規定することができる。これは、例えば掃除されることになるサブエリア2の地図上でのサイズと位置に適用する。そのとき、ユーザーは提案に同意するか、または彼の望みに従ってもっと厳密にそこでのパラメーターを規定することができる。
選択されたサブエリア2に関してユーザーコマンドを通信するステップ:ユーザーが自立移動装置1に実行せたい掃除動作または処理動作に応じて、自立移動装置1は選択されたサブエリア2に対して異なって機能しなければならない。例えば、自立移動装置1が選択されたサブエリア2に進み、掃除動作または処理動作を実行することが与えられることができる。または、自立移動装置1が部屋の掃除または処理から選択されたサブエリア2を除外することが与えられることができる。前者の場合には、サブエリア2が特定されるとすぐに、自立移動装置1はユーザーによって選択された部屋のサブエリア2に真っすぐに進む。これをするために、自立移動装置1はその現在の位置から望まれるサブエリア2までのルートを計画し、自立的にこのルートを横切っていく。望まれるサブエリア2に達すると、自立移動装置1はサブエリア2の規定されたサイズに従って掃除動作または処理動作を始める。これに関連して、様々な進行戦略を使うことができる。例えば、自立移動装置1は掃除する/または処理するためにヘビに似たパターンでサブエリア2を進むことができる。
選択されたサブエリアが自立移動装置1によって部屋の掃除プログラムまたは処理プログラムから除外されることになるならば、サブエリア2の位置とサイズが記憶されなければならない。それから、後の掃除の通過または処理の通過では、自立移動装置1は選択されたサブエリア2に進まないか、またはそこでいかなる掃除動作も処理動作も実行しないという結果に進行戦略を変化させなければならない。
1 自立移動装置
2 サブエリア
3 写真
4 移動端末
5 障害物
6 カメラ

Claims (12)

  1. 自立移動装置(1)によって部屋を掃除または処理するための方法であって、
    前記部屋の地図を作成するステップと、
    データメモリに前記部屋の地図を記憶するステップと、
    ユーザが前記部屋のサブエリア(2)を選択するステップと、
    前記データメモリに接続された処理ユニットに前記選択されたサブエリア(2)のための位置データを送信するステップと、
    前記処理ユニットによる前記サブエリア(2)の特定のために、前記地図に含まれる位置データと前記選択されたサブエリア(2)のための位置データとを比較するステップと、
    ユーザコマンドを考慮して前記選択されたサブエリア(2)に関して前記部屋を掃除または処理するステップと、
    を備え、
    前記サブエリア(2)の写真(3)を撮って当該写真(3)を前記処理ユニットに送信することによって、前記ユーザーが前記部屋のサブエリア(2)を選択することを特徴とする方法。
  2. ユーザーが移動端末(4)、特に携帯電話を使って前記写真(3)を撮ることを特徴とする請求項1に記載の方法。
  3. 前記サブエリア(2)の特定に続いて、前記自立移動装置(1)が前記選択されたサブエリア(2)に進み、掃除動作または処理動作を実行することを特徴とする請求項1または2に記載の方法。
  4. 前記自立移動装置(1)が前記部屋の掃除動作または処理動作から前記選択されたサブエリア(2)を除外することを特徴とする請求項1または2に記載の方法。
  5. 前記部屋の地図が、前記自立移動装置(1)のデータメモリに記憶されることを特徴とする請求項1ないし4のいずれか1項に記載の方法。
  6. 前記選択されたサブエリア(2)の位置データと前記地図に含まれる位置データとが前記自立移動装置(1)の処理ユニットまたは前記ユーザーの別の移動端末(4)、特に携帯電話によって比較されることを特徴とする請求項1ないし5のいずれか1項に記載の方法。
  7. 前記サブエリア(2)が一義的に特定されないならば、前記ユーザーが複数の可能なサブエリア(2)の中から選択すること、および/または前記選択されたサブエリア(2)の位置データをもっと正確に規定することを特徴とする請求項1ないし6のいずれか1項に記載の方法。
  8. 前記地図に含まれる位置データが、3次元情報、特に前記部屋の中に存在する障害物(5)についての情報を含むことを特徴とする請求項1ないし7のいずれか1項に記載の方法。
  9. 前記部屋の地図が前記自立移動装置(1)によって作成され、
    前記自立移動装置(1)のカメラ(6)が隣接した複数のサブエリア(2)の画像を撮影し、前記地図の編集の間に当該画像がお互いに結合される、
    ことを特徴とする請求項1ないし8のいずれか1項に記載の方法。
  10. 請求項1ないし9のいずれか1項に記載の部屋を掃除または処理するための方法を実行する自立移動装置(1)であって、
    前記自立移動装置(1)が前記部屋の地図を記憶するためのデータメモリと当該データメモリに接続された処理ユニットとを有し、
    前記処理ユニットが、前記サブエリア(2)を特定するために、当該処理ユニットに送信される前記部屋のサブエリア(2)の写真を前記記憶されている地図と比較するために設計されている、
    ことを特徴とする自立移動装置。
  11. 部屋を掃除または処理する自立移動装置であって、
    カメラと、
    データメモリと、
    処理ユニットと、
    を備え、
    前記処理ユニットが、
    前記カメラによって撮影された前記部屋内の隣接した複数のサブエリア(2)の画像に基づいて前記部屋の地図を作成し、
    前記部屋の地図を前記データメモリに記憶し、
    ユーザによって撮影された写真(3)と前記データメモリに記憶されている部屋の地図とに基づいて、掃除動作または処理動作を実行するサブエリア(2)もしくは掃除動作または処理動作から除外するサブエリア(2)を選択する、
    ことを特徴とする自立移動装置。
  12. 前記地図に含まれる位置データが、前記部屋の中に存在する障害物(5)についての高さの情報を含むことを特徴とする請求項11に記載の自立移動装置。
JP2015137214A 2014-07-22 2015-07-08 自立移動装置によって部屋を掃除または処理するための方法および自立移動装置 Expired - Fee Related JP6632232B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014110265.7 2014-07-22
DE102014110265.7A DE102014110265A1 (de) 2014-07-22 2014-07-22 Verfahren zur Reinigung oder Bearbeitung eines Raumes mittels eines selbsttätig verfahrbaren Gerätes

Publications (2)

Publication Number Publication Date
JP2016024820A true JP2016024820A (ja) 2016-02-08
JP6632232B2 JP6632232B2 (ja) 2020-01-22

Family

ID=53776296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015137214A Expired - Fee Related JP6632232B2 (ja) 2014-07-22 2015-07-08 自立移動装置によって部屋を掃除または処理するための方法および自立移動装置

Country Status (6)

Country Link
US (1) US9911226B2 (ja)
EP (1) EP2977844B1 (ja)
JP (1) JP6632232B2 (ja)
CN (1) CN105302131B (ja)
DE (1) DE102014110265A1 (ja)
ES (1) ES2647347T3 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019532369A (ja) * 2016-09-14 2019-11-07 アイロボット コーポレイション エリア分類に基づくロボットの構成可能な動作のためのシステム及び方法
JPWO2018225172A1 (ja) * 2017-06-07 2019-11-07 学校法人千葉工業大学 自走式掃除機
JP2022062716A (ja) * 2018-01-31 2022-04-20 パナソニックIpマネジメント株式会社 掃除機の制御方法及び制御システム
JP2022066191A (ja) * 2018-08-30 2022-04-28 アイロボット・コーポレーション モバイルロボットのためのマップベースのトレーニングおよびインターフェース
JP7154453B1 (ja) * 2021-06-09 2022-10-17 三菱電機ビルソリューションズ株式会社 清掃作業評価装置及び清掃作業評価方法

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
CN105476553B (zh) * 2015-11-25 2018-09-07 江苏美的清洁电器股份有限公司 智能吸尘器
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
KR20170077756A (ko) * 2015-12-28 2017-07-06 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
US10335949B2 (en) * 2016-01-20 2019-07-02 Yujin Robot Co., Ltd. System for operating mobile robot based on complex map information and operating method thereof
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
CN105511477A (zh) * 2016-02-16 2016-04-20 江苏美的清洁电器股份有限公司 清扫机器人系统和清扫机器人
WO2017140089A1 (zh) * 2016-02-16 2017-08-24 江苏美的清洁电器股份有限公司 清扫机器人系统和清扫机器人
JP6685755B2 (ja) * 2016-02-16 2020-04-22 東芝ライフスタイル株式会社 自律走行体
US11547261B2 (en) * 2016-04-29 2023-01-10 Lg Electronics Inc. Moving robot and control method thereof
CN111190419B (zh) 2016-05-19 2022-08-09 科沃斯机器人股份有限公司 自移动机器人、组合机器人及组合机器人地图调用方法
CN109804325A (zh) * 2016-08-05 2019-05-24 罗伯特有限责任公司 用于控制自主移动机器人的方法
US10353388B2 (en) * 2016-10-17 2019-07-16 X Development Llc Drop-off location planning for delivery vehicle
WO2018148874A1 (zh) * 2017-02-15 2018-08-23 深圳市前海中康汇融信息技术有限公司 基于摄像头导航的智能机器人及其控制方法
DE102017104427A1 (de) 2017-03-02 2018-09-06 RobArt GmbH Verfahren zur Steuerung eines autonomen, mobilen Roboters
DE102017104428A1 (de) 2017-03-02 2018-09-06 RobArt GmbH Verfahren zur Steuerung eines autonomen, mobilen Roboters
WO2018158248A2 (de) 2017-03-02 2018-09-07 RobArt GmbH Verfahren zur steuerung eines autonomen,mobilen roboters
CN107505939B (zh) * 2017-05-13 2019-07-12 大连理工大学 一种移动机器人的全覆盖路径规划方法
AU2018203588B2 (en) 2017-06-05 2019-11-14 Bissell Inc. Autonomous floor cleaning system
DE102017113612A1 (de) * 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113605A1 (de) * 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113609A1 (de) * 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017118383A1 (de) * 2017-08-11 2019-02-14 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes
CN107550399B (zh) * 2017-08-17 2021-05-18 北京小米移动软件有限公司 定时清扫方法及装置
JP6943988B2 (ja) * 2017-09-18 2021-10-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動可能物体の制御方法、機器およびシステム
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
DE102017220180A1 (de) * 2017-11-13 2019-05-16 BSH Hausgeräte GmbH Erstellen einer Umgebungskarte
CN108209745B (zh) * 2017-12-18 2021-06-25 深圳市奇虎智能科技有限公司 清洁设备的控制方法、装置、计算机设备和存储介质
DE102017130954A1 (de) * 2017-12-21 2019-06-27 Enway Gmbh Reinigungsvorrichtung und Verfahren zum Betreiben einer Reinigungsvorrichtung
US10575699B2 (en) * 2018-01-05 2020-03-03 Irobot Corporation System for spot cleaning by a mobile robot
US11687092B2 (en) 2018-04-23 2023-06-27 Sharkninja Operating Llc Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest
DE102018111509A1 (de) * 2018-05-14 2019-11-14 Hako Gmbh Verfahren zur Bestimmung einer Route für eine Bodenreinigungsmaschine
DE102018114385A1 (de) * 2018-06-15 2019-12-19 Ifm Electronic Gmbh System und Verfahren zum Betreiben einer mobilen Arbeitsmaschine
CN112739244B (zh) 2018-07-13 2024-02-09 美国iRobot公司 移动机器人清洁系统
DE102018118265B4 (de) * 2018-07-27 2020-11-12 Sick Ag Verfahren und Überwachungssystem zum Absichern einer Maschine
CN108873912A (zh) * 2018-08-21 2018-11-23 深圳乐动机器人有限公司 地图管理方法、装置、计算机设备和存储介质
CN109460040A (zh) * 2018-12-28 2019-03-12 珠海凯浩电子有限公司 一种通过手机拍摄照片识别地板建立地图系统及方法
DE102019204623A1 (de) * 2019-04-02 2020-10-08 BSH Hausgeräte GmbH Steuern eines Bodenbearbeitungsroboters
CN111984029B (zh) * 2019-05-24 2024-03-12 杭州海康威视数字技术股份有限公司 一种无人机控制方法、装置及电子设备
KR20210039232A (ko) * 2019-10-01 2021-04-09 엘지전자 주식회사 로봇 청소기 및 청소 경로를 결정하기 위한 방법
CN110825088B (zh) * 2019-11-29 2021-10-01 燕山大学 一种多目视觉导引船体清洁机器人系统及清洁方法
CN111176301A (zh) * 2020-03-03 2020-05-19 江苏美的清洁电器股份有限公司 地图构建方法以及扫地机器人的清扫方法
DE102020209608B3 (de) 2020-07-30 2021-11-04 BSH Hausgeräte GmbH Bodenreinigungssystem
CN112674645B (zh) * 2020-12-09 2022-11-22 深圳乐动机器人股份有限公司 一种机器人的沿边清洁方法及装置
US20230137440A1 (en) * 2021-10-28 2023-05-04 Snap Inc. Point and clean
US11930270B2 (en) 2021-10-29 2024-03-12 Snap Inc. Identifying a video camera for an object
DE102022208869A1 (de) * 2022-08-26 2024-02-29 BSH Hausgeräte GmbH Verfahren zum Erstellen einer Umgebungskarte

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085305A (ja) * 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
US20100228394A1 (en) * 2009-03-06 2010-09-09 Dong Hoon Yi Mobile robot and controlling method of the same
JP2011212764A (ja) * 2010-03-31 2011-10-27 Toyota Motor Corp ロボットの遠隔操作システム
JP2011233149A (ja) * 2010-04-26 2011-11-17 Lg Electronics Inc ロボット掃除機、並びにロボット掃除機を用いた遠隔監視システム及びロボット掃除機を用いた遠隔監視方法
WO2013085085A1 (en) * 2011-12-08 2013-06-13 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0947413A (ja) 1995-08-08 1997-02-18 Minolta Co Ltd 清掃ロボット
RU2220643C2 (ru) * 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
DE10242257C5 (de) 2001-09-14 2017-05-11 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät, sowie Kombination eines derartigen Aufsammelgerätes und einer Basisstation
DE10357637A1 (de) 2003-12-10 2005-07-07 Vorwerk & Co. Interholding Gmbh Selbstfahrendes oder zu verfahrendes Kehrgerät sowie Kombination eines Kehrgeräts mit einer Basisstation
US7805227B2 (en) * 2005-12-23 2010-09-28 General Electric Company Apparatus and method for locating assets within a rail yard
KR20070077270A (ko) * 2006-01-23 2007-07-26 엘지전자 주식회사 네비게이션 시스템의 정보 제공장치 및 방법
US20090048727A1 (en) * 2007-08-17 2009-02-19 Samsung Electronics Co., Ltd. Robot cleaner and control method and medium of the same
KR20090076721A (ko) * 2008-01-09 2009-07-13 주식회사 대우일렉트로닉스 로봇 청소기의 위치 인식 방법
DE102008014912B4 (de) 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
DE102009024990B4 (de) 2009-06-16 2022-06-23 Vorwerk & Co. Interholding Gmbh Elektrogerät mit einer Halterung für eine Fernbedienung
DE102009059212A1 (de) 2009-08-12 2011-02-17 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Zielführung eines solchen Gerätes
DE102009052629A1 (de) 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
US10276170B2 (en) * 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
DE102010000174B4 (de) 2010-01-22 2022-09-01 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Verfahren zur Reinigung eines Raumes mittels eines selbsttätig verfahrbaren Reinigungsgerätes
DE102010015941A1 (de) 2010-03-03 2011-09-08 Vorwerk & Co. Interholding Gmbh Verfahren zur Abstandsmessung auf Lichtbasis
DE102010016553A1 (de) 2010-04-21 2011-10-27 Vorwerk & Co. Interholding Gmbh Verfahren zum Auffinden eines Raumes
KR101677634B1 (ko) * 2010-07-12 2016-11-18 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
DE102011000009A1 (de) 2011-01-03 2012-07-05 Vorwerk & Co. Interholding Gmbh Verfahren zur gleichzeitigen Bestimmung und Kartenbildung
KR101760950B1 (ko) * 2011-05-17 2017-07-24 엘지전자 주식회사 네트워크 시스템의 제어방법
TW201305761A (zh) * 2011-07-21 2013-02-01 Ememe Robot Co Ltd 自走機器人及其定位方法
KR101954144B1 (ko) * 2012-06-08 2019-03-05 엘지전자 주식회사 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
US9675226B2 (en) * 2012-10-26 2017-06-13 Lg Electronics Inc. Robot cleaner system and control method of the same
EP2741483B1 (de) 2012-12-05 2022-01-26 Vorwerk & Co. Interholding GmbH Verfahrbares Reinigungsgerät sowie Verfahren zum Betreiben eines solchen
US20140316841A1 (en) * 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
KR102071575B1 (ko) * 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085305A (ja) * 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
US20100228394A1 (en) * 2009-03-06 2010-09-09 Dong Hoon Yi Mobile robot and controlling method of the same
JP2011212764A (ja) * 2010-03-31 2011-10-27 Toyota Motor Corp ロボットの遠隔操作システム
JP2011233149A (ja) * 2010-04-26 2011-11-17 Lg Electronics Inc ロボット掃除機、並びにロボット掃除機を用いた遠隔監視システム及びロボット掃除機を用いた遠隔監視方法
WO2013085085A1 (en) * 2011-12-08 2013-06-13 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019532369A (ja) * 2016-09-14 2019-11-07 アイロボット コーポレイション エリア分類に基づくロボットの構成可能な動作のためのシステム及び方法
US11314260B2 (en) 2016-09-14 2022-04-26 Irobot Corporation Systems and methods for configurable operation of a robot based on area classification
JP7166926B2 (ja) 2016-09-14 2022-11-08 アイロボット・コーポレーション エリア分類に基づくロボットの構成可能な動作のためのシステム及び方法
US11740634B2 (en) 2016-09-14 2023-08-29 Irobot Corporation Systems and methods for configurable operation of a robot based on area classification
JPWO2018225172A1 (ja) * 2017-06-07 2019-11-07 学校法人千葉工業大学 自走式掃除機
JP2022062716A (ja) * 2018-01-31 2022-04-20 パナソニックIpマネジメント株式会社 掃除機の制御方法及び制御システム
JP2022066191A (ja) * 2018-08-30 2022-04-28 アイロボット・コーポレーション モバイルロボットのためのマップベースのトレーニングおよびインターフェース
US11703857B2 (en) 2018-08-30 2023-07-18 Irobot Corporation Map based training and interface for mobile robots
JP7366164B2 (ja) 2018-08-30 2023-10-20 アイロボット・コーポレーション モバイルロボットのためのマップベースのトレーニングおよびインターフェース
JP7154453B1 (ja) * 2021-06-09 2022-10-17 三菱電機ビルソリューションズ株式会社 清掃作業評価装置及び清掃作業評価方法
WO2022259435A1 (ja) * 2021-06-09 2022-12-15 三菱電機ビルソリューションズ株式会社 清掃作業評価装置及び清掃作業評価方法

Also Published As

Publication number Publication date
EP2977844A1 (de) 2016-01-27
CN105302131A (zh) 2016-02-03
EP2977844B1 (de) 2017-10-18
US9911226B2 (en) 2018-03-06
CN105302131B (zh) 2020-03-17
ES2647347T3 (es) 2017-12-21
US20160027207A1 (en) 2016-01-28
JP6632232B2 (ja) 2020-01-22
DE102014110265A1 (de) 2016-01-28

Similar Documents

Publication Publication Date Title
JP6632232B2 (ja) 自立移動装置によって部屋を掃除または処理するための方法および自立移動装置
JP4488804B2 (ja) ステレオ画像の関連付け方法及び3次元データ作成装置
CN110801180B (zh) 清洁机器人的运行方法及装置
JP6732746B2 (ja) 機械視覚システムを使用した、同時位置測定マッピングを実施するためのシステム
JP6636042B2 (ja) 床の処理方法
JP2007278845A (ja) 画像処理装置及びその処理方法
CN107229274B (zh) 位置指示方法、终端装置、自行式装置以及程序
US20210059493A1 (en) Vacuum cleaner
JP2011039968A (ja) 車両可動領域検出装置
JP2018197928A (ja) 電気掃除機
Borrmann et al. Robotic mapping of cultural heritage sites
JP4042517B2 (ja) 移動体およびその位置検出装置
CN108780319A (zh) 软件更新方法、系统、移动机器人及服务器
KR101333496B1 (ko) 과거 지도 데이터 기반의 이동 로봇 제어 장치 및 방법
WO2019091118A1 (en) Robotic 3d scanning systems and scanning methods
JP2004239791A (ja) ズームによる位置計測方法
WO2017072975A1 (ja) 撮像システム
JP2018124980A (ja) 自走式移動体及び移動体の移動制御方法
CN206833252U (zh) 一种移动电子设备
JP2003296708A (ja) データ処理方法、データ処理プログラムおよび記録媒体
KR20090047145A (ko) 로봇의 비시인성 장애물 탐지방법
JP7004131B2 (ja) 管理システム、管理方法及び管理プログラム
JP2009124204A (ja) カメラパラメータ推定装置およびカメラパラメータ推定プログラム
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
JP5299692B2 (ja) カメラキャリブレーション方法及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R150 Certificate of patent or registration of utility model

Ref document number: 6632232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees