JP2020537776A - 拡張現実を用いてロボット清掃デバイスと空間情報を交換すること - Google Patents

拡張現実を用いてロボット清掃デバイスと空間情報を交換すること Download PDF

Info

Publication number
JP2020537776A
JP2020537776A JP2020515149A JP2020515149A JP2020537776A JP 2020537776 A JP2020537776 A JP 2020537776A JP 2020515149 A JP2020515149 A JP 2020515149A JP 2020515149 A JP2020515149 A JP 2020515149A JP 2020537776 A JP2020537776 A JP 2020537776A
Authority
JP
Japan
Prior art keywords
cleaning device
robot cleaning
spatial information
wireless communication
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020515149A
Other languages
English (en)
Other versions
JP6950131B2 (ja
Inventor
リンデ、マグヌス
Original Assignee
アクチエボラゲット エレクトロルックス
アクチエボラゲット エレクトロルックス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクチエボラゲット エレクトロルックス, アクチエボラゲット エレクトロルックス filed Critical アクチエボラゲット エレクトロルックス
Publication of JP2020537776A publication Critical patent/JP2020537776A/ja
Application granted granted Critical
Publication of JP6950131B2 publication Critical patent/JP6950131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/009Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2894Details related to signal transmission in suction cleaners
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/02Nozzles
    • A47L9/04Nozzles with driven brushes or agitators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

本発明は、清掃対象領域(14)上のロボット清掃デバイス(100)の移動を制御する方法、及び方法を実行するデバイス(200)に関する。本発明は、ロボット清掃デバイス(100)の空間情報を取得する方法、及び方法を実行するデバイス(200)にさらに関する。本発明の態様において、清掃対象領域(14)上のロボット清掃デバイス(100)の移動を制御する方法が提供される。方法は、ワイヤレス通信デバイス(200)のディスプレイ(210)上でロボット清掃デバイス(100)の視覚的表現(10)を取得すること(S101)と、視覚的表現(10)においてロボット清掃デバイス(100)を識別すること(S102)と、視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算すること(S103)と、ロボット清掃デバイス(100)が清掃対象領域(14)上でどのように移動すべきかについての空間情報を、ユーザが前記ディスプレイ(210)上で指示することを可能にすることにより命令を生成すること(S104)と、計算された変換を命令の空間情報に適用すること(S105)であって、命令の空間情報がロボット座標系に変換される、適用すること(S105)と、ワイヤレス通信を介して命令をロボット清掃デバイス(100)に送信すること(S106)であって、ロボット清掃デバイス(100)が、変換された命令の空間情報に従って前記領域(14)上を移動する、送信すること(S106)と、を含む。

Description

本発明は、清掃対象領域上のロボット清掃デバイスの移動を制御する方法、及び方法を実行するデバイスに関する。本発明は、ロボット清掃デバイスの空間情報を取得する方法、及び方法を実行するデバイスにさらに関する。
多くの技術分野において、ロボットが、起こり得る障害物と衝突することなく空間を自由に動き回ることができるように、自律的な挙動を有するロボットを使用することが望ましい。
ロボット電気掃除機は、当技術分野において既知であり、それらは、清掃対象面を横切って掃除機を移動するためのモータの形態の駆動手段を具備する。ロボット電気掃除機が、例えば床の形態の面を自由に動き回り清掃し得るように、ロボット電気掃除機は、マイクロプロセッサの形態のインテリジェンス及び自律的な挙動をもたらすナビゲーション手段をさらに具備する。したがって、これらの先行技術のロボット電気掃除機は、テーブル及び椅子などの物体、並びに壁及び階段などの他の障害物が位置する部屋を自律的に掃除するケイパビリティを有する。
ロボット電気掃除機にコマンドを送信し、又はロボット電気掃除機からデータを受信する様々な方法が存在するが、掃除機の環境に関する方法については、共通基準を確立することは困難である。掃除機に指令する最も一般的な方法は、ロボット電気掃除機にマップを描かせ、且つユーザに、マップに情報を追加させることである。しかしながら、そのようなマップは、ロボット電気掃除機がそのプロセスの間に経験する任意のマッピングエラーに悩まされる場合がある。また、マップが小さいか、又は詳細を割愛する場合、経験のないユーザがマップ内の物体を識別することは困難である。
本発明の目的は、当技術分野におけるこの問題を解決し、又は少なくとも軽減することであり、したがって、清掃対象領域上のロボット清掃デバイスの移動を制御する改善された方法を提供することである。
この目的は、清掃対象領域上のロボット清掃デバイスの移動を制御する方法によって、本発明の第1の態様において達成される。方法は、ワイヤレス通信デバイスのディスプレイ上でロボット清掃デバイスの視覚的表現を取得することと、視覚的表現においてロボット清掃デバイスを識別することと、視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算することと、ロボット清掃デバイスが清掃対象領域上でどのように移動すべきかについての空間情報を、ユーザが上記ディスプレイ上で指示することを可能にすることにより命令を生成することと、計算された変換を命令の空間情報に適用することであって、命令の空間情報がロボット座標系に変換される、適用することと、ワイヤレス通信を介して命令をロボット清掃デバイスに送信することであって、ロボット清掃デバイスが、変換された命令の空間情報に従って上記領域上を移動する、送信することと、を含む。
この目的は、清掃対象領域上のロボット清掃デバイスの移動を制御するように構成されるワイヤレス通信デバイスによって、本発明の第2の態様において達成される。ワイヤレス通信デバイスは、ワイヤレス通信デバイスのディスプレイ上でロボット清掃デバイスの視覚的表現を取得し、視覚的表現においてロボット清掃デバイスを識別し、視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算し、ロボット清掃デバイスが清掃対象領域上でどのように移動すべきかについての空間情報を、ユーザが上記ディスプレイ上で指示することを可能にすることにより命令を生成し、計算された変換を命令の空間情報に適用し、命令の空間情報がロボット座標系に変換され、ワイヤレス通信を介して命令をロボット清掃デバイスに送信し、ロボット清掃デバイスが、変換された命令の空間情報に従って上記領域上を移動する、ようにワイヤレス通信デバイスを動作させるように構成される処理ユニットを備える。
この目的は、ロボット清掃デバイスの空間情報を取得する方法によって、本発明の第3の態様において達成される。方法は、ワイヤレス通信デバイスのディスプレイ上でロボット清掃デバイスの視覚的表現を取得することと、視覚的表現においてロボット清掃デバイスを識別することと、視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算することと、ワイヤレス通信を介してロボット清掃デバイスから空間情報を受信することと、計算された変換を受信された空間情報に適用することであって、受信された空間情報が視覚的表現の座標系に変換される、適用することと、ワイヤレス通信デバイスのディスプレイ上に、変換された空間情報を取得された視覚的表現において提示することと、を含む。
この目的は、ロボット清掃デバイスの空間情報を取得するように構成されるワイヤレス通信デバイスによって、本発明の第4の態様において達成される。ワイヤレス通信デバイスは、ワイヤレス通信デバイスのディスプレイ上でロボット清掃デバイスの視覚的表現を取得し、視覚的表現においてロボット清掃デバイスを識別し、視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算し、ワイヤレス通信を介してロボット清掃デバイスから空間情報を受信し、計算された変換を受信された空間情報に適用し、受信された空間情報が視覚的表現の座標系に変換され、ワイヤレス通信デバイスのディスプレイ上に、変換された空間情報を取得された視覚的表現において提示する、ようにワイヤレス通信デバイスを動作させるように構成される処理ユニットを備える。
したがって、実施形態において、ユーザは、例えばスマートフォン、タブレット、ラップトップなどの形態のワイヤレス通信デバイスのディスプレイ上でロボット清掃デバイスの視覚的表現を取得する。
例えば、ユーザは、例えばユーザのスマートフォンのカメラを用いて、ロボット清掃デバイスの画像を単にキャプチャする。
スマートフォンは、画像内のロボット清掃デバイスの形状を、例えばロボット清掃デバイスの予めプログラミングされた表現と比較することによって、識別する。この表現は、ロボット清掃デバイスの実際のサイズも含み得る。代替的には、画像内のロボット清掃デバイスの識別は、ロボットデバイスの本体上の既知のパターン若しくはマーカに基づいてもよく、又はそれらによって支援されてもよい。
その後、スマートフォンは、画像の座標系とロボットデバイスの座標系との間の座標変換を計算する。その結果、ロボットデバイスが移動する座標系の座標は、画像座標系の座標に変換され得る。
ユーザは、ロボット清掃デバイスが清掃対象領域上でどのように移動すべきかについての空間情報を、ユーザのスマートフォンのディスプレイ上で指示することにより命令を生成する。これは、スマートフォン上にインストールされたアプリケーション(以下では、「App」と呼ぶ)を必要としてもよく、そのAppを介して、ユーザは、単に自分の指を使って、清掃対象領域を示すためにディスプレイ上をタッチすることに留意する。
この例では、ユーザは、例えばパン屑や食物屑が日常的に出てしまうテーブルの周りで、いわゆるスポット清掃プログラムをロボット清掃デバイスに実行して欲しい場合がある。ユーザは、例えば、スマートフォンのディスプレイ上で清掃対象領域を包含する矩形を描いてもよい。
最後に、ユーザは、App上で「命令送信」を押す。そうすると、スマートフォンは、ロボット清掃デバイスの座標系へ、以前計算された変換を清掃対象領域の画像座標(実際には領域を包含する矩形の頂点)に適用し、次いで、ワイヤレス通信を介して(例えば、WiFiを介して)それらをロボット清掃デバイスに送信する。
このようにして、ロボット清掃デバイスは、受信した命令の変換された空間情報に従って指示された領域上を移動及び清掃することによって、スポット清掃プログラムを有利に実行する。
一方、別の実施形態では、空間情報は、ユーザのワイヤレス通信デバイスのディスプレイを介してロボット清掃デバイスからユーザへ通信される。
例えば、ロボット清掃デバイスは、カーペットを接近又は横断すべきでない障害物として知覚し、ユーザには、ロボット清掃デバイスが立往生するリスクなしに実際にカーペットを横断し得ることをロボット清掃デバイスに通信する機会が与えられると考えられ得る。
この場合も、ユーザは、例えばユーザのスマートフォンのカメラを用いてロボット清掃デバイスの画像をキャプチャし、続いてスマートフォンが画像内のロボット清掃デバイスを識別する。
その後、スマートフォンは、画像の座標系とロボットデバイスの座標系との間の座標変換を計算する。その結果、ロボットデバイスが移動する座標系の座標は、画像座標系の座標に変換され得る。
スマートフォンは、ロボット清掃デバイスからワイヤレス通信を介して空間情報を受信し、計算された変換を受信された空間情報に適用する。受信されたロボット清掃デバイスの空間情報は、画像の座標系に変換される。
最後に、変換された空間情報は、スマートフォンのディスプレイ上で、キャプチャされた画像内に提示される。前述の通り、ロボット清掃デバイスは、例えば、カーペットの外形を画像に有利に追加してもよく、ロボット清掃デバイスが、ユーザが訂正する機会を与えられ得る横断不可能な障害物としてカーペットを知覚することを示している。
別の実施形態において、ロボット清掃デバイスは、清掃対象領域の提案をスマートフォンに通信する。
したがって、空間情報は、この特定の例示する実施形態では清掃対象の提案領域の形態で、ロボット清掃デバイスから受信される。空間情報は、変換された後、ユーザのレビューのためにワイヤレス通信デバイスのディスプレイ上のキャプチャされた画像内に提示される。
ユーザは、提案領域が実際に清掃対象領域であることを確認し、それに応じて確認を命令として送信してもよく、又は例えば、ディスプレイ上に示される提案領域を包含する矩形の頂点を所望の方向に移動することによって、提案領域を修正してもよい。ユーザは、線をタッチすること及び押すことによってディスプレイ上の表現にさらなる頂点を追加してもよく、それによって、線が押された位置に新たな頂点が発生することが、さらに考えられ得る。
その後、以前計算された変換が、修正後の清掃対象の提案領域に適用され、修正後の提案領域は、ロボット清掃デバイスの座標系に変換される。
最後に、スマートフォンは、修正後の領域を清掃するように命令をロボット清掃デバイスに送信し、命令は、変換された修正後の提案領域を識別する情報も含む。したがって、ロボット清掃デバイスは、矩形の清掃対象領域を提案してもよく、ユーザは、ロボット清掃デバイスが代わりに清掃するように命令される、例えば五角形の領域にそれを修正する。
代替的な実施形態において、例えば監視カメラなど、スマートフォンとは異なるデバイスが、ロボット清掃デバイスの画像をキャプチャするように制御される。そのような実施形態では、ユーザは、離れた場所からロボット清掃デバイスを有利に制御し得る。
概して、特許請求の範囲において使用される全ての用語は、本明細書において明示的に特段の定義がされない限り、技術分野におけるそれらの通常の意味に従って解釈されるべきである。「a/an/the 要素、装置、コンポーネント、手段、ステップなど」に対する全ての参照は、明示的に特段の記述がない限り、要素、装置、コンポーネント、手段、ステップなどの少なくとも1つの例を参照するようにオープンに解釈されるべきである。本明細書に開示される任意の方法のステップは、明示されない限り、開示された正確な順序で実行されなくともよい。
本発明は、例として、添付図面を参照してここで説明される。
本発明の例示する実施形態による、ロボット清掃デバイスを示す。 図1のロボット清掃デバイスの正面図を示す。 実施形態による、ロボット清掃デバイスの撮影画像を画像に加えられたユーザ清掃命令と共に示す。 実施形態による、方法のフローチャートを示す。 別の実施形態による、方法のフローチャートを示す。 さらなる別の実施形態による、方法のフローチャートを示す。 実施形態による、ロボット清掃デバイスが画像内に情報を提供するロボット清掃デバイスの撮影画像を示す。 さらなる実施形態による、方法のフローチャートを示す。 実施形態による、ワイヤレス通信デバイスを示す。
本発明は、ここで、添付図面を参照して以下でより完全に説明され、添付図面において、本発明のある実施形態が示されている。本発明は、しかしながら、多くの異なる形態で具現化されてもよく、ここで述べる実施形態に限定されると解釈されるべきではない。むしろ、この開示が完全且つ完璧であり、当業者に対し本発明の範囲を完全に伝達するように、これらの実施形態は、例として提供される。類似の数字は、説明全体を通して類似の要素を参照する。
本発明は、ロボット清掃デバイス、即ち言い換えると、表面を清掃するための自動的な自走式機械、例えば、ロボット電気掃除機、ロボット掃除機、又はロボット床面洗浄機に関する。本発明によるロボット清掃デバイスは、電源で動作し、且つコードを有してもよく、電池で動作してもよく、又は任意の他の種類の適当なエネルギー源、例えば太陽エネルギーを使用してもよい。
本発明は、十分な処理インテリジェンスを具備する様々な適当なロボット清掃デバイスによって実行され得ると考えられるが、図1は、本発明の実施形態によるロボット清掃デバイス100の底面図を示し、即ちロボット清掃デバイスの底面が示されている。矢印は、ロボット電気掃除機の形態で示されているロボット清掃デバイス100の前方向を示す。
清掃デバイスが、清掃対象面上で移動され得るように、ロボット清掃デバイス100は、駆動輪112、113の移動を可能にするための2つの電気車輪モータ115a、115bの形態の駆動手段を含む推進システムなどのコンポーネントを収容する本体111を含む。各車輪モータ115a、115bは、清掃対象面を横切ってロボット清掃デバイス100を移動するために、互いに独立して回転するようにそれぞれの駆動輪112、113を制御することが可能である。いくつかの異なる駆動輪構成及び様々な車輪モータ構成が考えられ得る。ロボット清掃デバイスが、より従来型の円形本体、又は三角形本体を有するデバイスなど、任意の適当な形状を有し得ることに留意すべきである。代替として、トラック推進システムが使用されてもよく、又はホバークラフト推進システムであってもよい。推進システムは、ヨー、ピッチ、並進又はロール移動のうちの任意の1つ又は複数をロボット清掃デバイス100に実行させるようにさらに構成され得る。
マイクロプロセッサなどのコントローラ116は、車輪モータ115a、115bを制御して、ロボット清掃デバイスがその周りでナビゲートしなければならない、壁、フロアランプ、テーブルの脚の形態の障害物を検出するための障害物検出デバイス(図1に示されない)から受信される情報を考慮して必要に応じて駆動輪112、113を回転させる。障害物検出デバイスは、その周囲の状況を登録する3Dセンサシステムの形態で具現化されてもよく、障害物を検出し、任意の検出された障害物についての情報をマイクロプロセッサ116に通信するための、例えば、レーザ、レーザスキャナと組み合わせた3Dカメラ、カメラの手段によって実施される。ロボット清掃デバイス100が、清掃対象面を横切って所望の通りに移動し得るように、マイクロプロセッサ116は、車輪モータ115a、115bと通信して、障害物検出デバイスによって提供される情報に従って車輪112、113の移動を制御する。
さらに、ロボット掃除機100の本体111は、本体111の底面の開口部118を介してごみを本体内に収容された収塵袋又はサイクロン構成(図示せず)に送るための気流を作り出す吸引ファン120を含む。吸引ファン120は、コントローラ116に通信可能に接続されるファンモータ121によって駆動され、ファンモータ121は、吸引ファン120を制御するための命令をコントローラ116から受信する。本体111には、開口部118に隣接する1つ又は複数の回転サイドブラシ114がさらに配置され得る。
図1をさらに参照すると、1つ又は複数のマイクロプロセッサの形態で具現化されるコントローラ/処理ユニット116は、ランダムアクセスメモリ(RAM)、フラッシュメモリ、又はハードディスクドライブなどの、マイクロプロセッサに関連付けられた適当な記憶媒体126にダウンロードされるコンピュータプログラム125を実行するように構成される。コンピュータ実行可能命令を含む適当なコンピュータプログラム125が、記憶媒体126にダウンロードされ、コントローラ116によって実行されるときに、コントローラ116は、本発明の実施形態による方法を実行するように構成される。記憶媒体126は、また、コンピュータプログラム125を含むコンピュータプログラム製品であってもよい。代替的には、コンピュータプログラム125は、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、又はメモリスティックなどの適当なコンピュータプログラム製品によって、記憶媒体126に転送され得る。さらなる代替として、コンピュータプログラム125は、有線ネットワーク又は無線ネットワークを経て記憶媒体126にダウンロードされ得る。コントローラ116は、代替的には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、複合プログラマブルロジックデバイス(CPLD)などの形態で具現化され得る。
図2は、少なくともカメラ123、並びに水平又は垂直配向ラインレーザであり得る第1のラインレーザ127及び第2のラインレーザ128を含む3Dセンサシステムの形態で、前述した障害物検出デバイスを示す本発明の実施形態における図1のロボット清掃デバイス100の正面図を示す。さらに図示されるのは、コントローラ116、本体111、及び駆動輪112、113である。コントローラ116は、ロボット清掃デバイス100の周辺の画像を記録するためのカメラ123に動作可能に連結される。第1のラインレーザ127及び第2のラインレーザ128は、好適には垂直ラインレーザであってもよく、カメラ123の側方に配置される。カメラ123は、毎秒複数の画像をキャプチャし、記録するようにコントローラ116によって制御される。画像からのデータは、コントローラ116によって抽出され、データは、典型的には、コンピュータプログラム125と共にメモリ126内に保存される。
第1のラインレーザ127及び第2のラインレーザ128は、好適には垂直配向で、ロボット清掃デバイス100の周辺を通常ロボット清掃デバイス100の移動方向にスキャンするように構成される。第1のラインレーザ127及び第2のラインレーザ128は、レーザビームを送出するように構成され、レーザビームは、例えば、清掃対象の部屋の家具、壁、及び他の物体を照明する。カメラ123は、ロボット清掃デバイス100が清掃対象面を横切って移動している間、画像から特徴を抽出することによって、及びロボット清掃デバイス100によってカバーされる距離を測定することによって、ロボット清掃デバイス100が動作している周囲の状況の表現又はレイアウトをコントローラ116がそこから生成する画像をキャプチャ及び記録するように、コントローラ116によって制御される。したがって、コントローラ116は、清掃対象面に対するロボット清掃デバイス100の位置データを記録された画像から導出し、導出された位置データから周囲の状況の3D表現を生成し、生成された3D表現、及び生成された3D表現を考慮することによって清掃対象面がナビゲートされ得るようにロボット清掃デバイス100に供給されるナビゲーション情報に従って、清掃対象面を横切ってロボット清掃デバイスを移動するように駆動モータ115a、115bを制御する。代替的には、完全に照明されている画像の飛行時間型測定を利用する3Dセンサを使用することが可能である。そのような飛行時間型3Dセンサでは、キャプチャされた画像内の距離は、画素毎に判断され、検出された物体までの距離は、上記に沿って判断され得る。
図3は、図4のフローチャートと共に、実施形態による清掃対象領域上のロボット清掃ロボット清掃デバイスの移動を制御する方法を説明するために使用される、ロボット清掃デバイス100の撮影画像を示す。
以下において、空間情報は、ロボットデバイスの位置、又はロボットデバイスの周辺の物体の特定の位置などの、ロボット清掃デバイス100に関する空間位置に関連付けられた情報を指す。
第1のステップS101において、ユーザは、例えばスマートフォン、タブレット、ラップトップなどの形態のワイヤレス通信デバイスのディスプレイ上でロボット清掃デバイス100の視覚的表現10を取得する。
この特定の例示する実施形態において、ユーザは、例えばユーザのスマートフォンのカメラを用いてロボット清掃デバイス100の画像を単にキャプチャする。
代替的な実施形態において、例えば監視カメラなど、スマートフォンとは異なるデバイスが、ロボット清掃デバイス100の画像をキャプチャするように制御される。そのような実施形態では、ユーザは、離れた場所からロボット清掃デバイス100を有利に制御し得る。
図3に示されるように、写真/視覚的表現10は、例えば、ロボット清掃デバイス100、椅子11、テーブル12、カーペット13などを含む。
第2のステップS102において、スマートフォンは、画像内のロボット清掃デバイス100の形状を、例えばロボット清掃デバイスの予めプログラミングされた表現と比較することによって、識別する。この表現は、ロボット清掃デバイスの実際のサイズも含み得る。代替的には、画像内のロボット清掃デバイス100の識別は、ロボットデバイスの本体上の既知のパターン若しくはマーカに基づいてもよく、又はそれらによって支援されてもよい。
その後、ステップS103において、スマートフォンは、画像の座標系とロボットデバイス100の座標系との間の座標変換を計算する。その結果、ロボットデバイスが移動する座標系の座標は、画像座標系の座標に変換され得る。変換は、ピンホールカメラモデル、又はラジアルレンズの歪みも考慮するより高度なモデルなどの、射影幾何学についての標準モデルを用いて計算され得る。
ステップS103において、ユーザは、ロボット清掃デバイス100が清掃対象領域上でどのように移動すべきかについての空間情報を、ユーザのスマートフォンのディスプレイ上で指示することにより命令を生成する。これは、スマートフォン上にインストールされたAppを必要としてもよく、そのAppを介して、ユーザは、単に自分の指を使って、清掃対象領域を示すためにディスプレイ上をタッチすることに留意する。スタイラス、コンピュータが使用される場合マウス、音声、又はジェスチャ制御など、他の手段が、ディスプレイ上の清掃対象領域を指示するために考えられる。
この例では、ユーザは、パン屑や食物屑が日常的に出てしまうテーブル12の周りで、いわゆるスポット清掃プログラムをロボット清掃デバイス100に実行して欲しいと考える。したがって、ユーザは、スマートフォンのディスプレイ上で清掃対象領域14を包含する矩形を描く。
最後に、ユーザは、App上で「命令送信」を押す。そうすると、スマートフォンは、ステップS104において、ロボット清掃デバイス100の座標系へ以前計算された変換を清掃対象領域の画像座標(実際には領域を包含する矩形の頂点)に適用し、次いで、ステップS105において、ワイヤレス通信を介して(例えば、WiFiを介して)それらをロボット清掃デバイス100に送信する。
このようにして、ロボット清掃デバイス100は、受信した命令の変換された空間情報に従って指示された領域14上を移動し清掃することによって、スポット清掃プログラムを実行する。
例示される画像10は、実際の画像であっても、合成画像又は表現が使用されると考えられ得ることに留意する。画像は、また、ロボットが画像内で正しく識別されていることをユーザに示すために、例えば、ロボット清掃デバイスの画像を同じ向きのロボットのコンピュータ生成された画像で置換することによって、部分的に合成であってもよい。
一方、図5を参照すると、実施形態に従って、ロボット清掃デバイス100からの空間情報をユーザのワイヤレス通信デバイスのディスプレイを介してユーザに通信する方法を説明するフローチャートが、示される。
例えば、ロボット清掃デバイス100は、図3のカーペット13を接近又は横断すべきでない障害物として知覚し、ユーザには、ロボット清掃デバイス100が立往生するリスクなしに実際にカーペット13を横断し得ることをロボット清掃デバイス100に通信する機会が与えられると考えられ得る。
第1のステップS201において、ユーザは、例えば、ユーザのスマートフォンのカメラを用いてロボット清掃デバイス100の画像10をキャプチャする。
図3に示されるように、写真/視覚的表現10は、例えば、ロボット清掃デバイス100、椅子11、テーブル12、カーペット13などを含む。
第2のステップS202において、スマートフォンは、前述の通り、画像10内のロボット清掃デバイス100の形状を識別する。
その後、ステップS203において、スマートフォンは、画像の座標系とロボットデバイス100の座標系との間の座標変換を計算する。その結果、ロボットデバイスが移動する座標系の座標は、画像座標系の座標に変換され得る。
ここで、ステップS204において、スマートフォンは、ロボット清掃デバイス100からワイヤレス通信を介して空間情報を受信し、ステップS205において、計算された変換を受信された空間情報に適用する。受信されたロボット清掃デバイス100の空間情報は、画像10の座標系に変換される。
最後に、ステップS206において、変換された空間情報が、スマートフォンのディスプレイ上で、キャプチャされた画像10内に提示される。前述の通り、ロボット清掃デバイス100は、例えば、カーペット13の外形を画像10に追加してもよく、ロボット清掃デバイス100が、(後述されるように、ユーザが訂正する機会を与えられ得る)横断不可能な障害物としてカーペットを知覚することを示している。
図3及びさらに図6のフローチャートを参照して再び説明される別の実施形態において、ロボット清掃デバイスは、清掃対象領域14の提案を通信する(図4のステップS104において、同一領域14が、ユーザからロボットデバイス100に送信される命令において定義されなかったと仮定する)。この実施形態は、図4及び図5のそれぞれの方法に同様に適用可能である。例として、図5のステップS204においてロボット清掃デバイス100からスマートフォンに通信される空間情報は、実際に、ロボットデバイス100によって提案される領域14を定義する空間情報を含み得る。
さらに、理解されるように、清掃対象の提案領域14をロボット清掃デバイスから受信することは、図4のフローチャートのステップS101〜S106を生じ得る。
ここで、図5のステップS201〜S205全体を通して既に説明されたように、空間情報は、この特定の例示する実施形態では清掃対象の提案領域14の形態で、ロボット清掃デバイス100から受信される。空間情報は、変換された後、ユーザのレビューのためにステップS206において、スマートフォンのディスプレイ上でキャプチャされた画像10内に提示される。
ここで、ステップS207において、ユーザは、提案領域14が実際に清掃対象領域であることを確認し、それに応じて確認を命令として送信してもよく、又は、図6に示されるように、例えば提案領域14を包含する矩形の頂点を所望の方向に移動することによって、提案領域14を修正してもよい。ユーザは、線をタッチすること及び押すことによってディスプレイ上の表現にさらなる頂点を追加してもよく、それによって、線が押された位置に新たな頂点が発生することが、さらに考えられ得る。次いで、新たな頂点が、矩形の領域14を五角形の領域に修正するように移動され得る。
その後、ステップS208において、以前計算された変換が、修正後の清掃対象の提案領域に適用され、修正後の提案領域が、ロボット清掃デバイス100の座標系に変換される。
その後、ステップS209において、スマートフォンは、修正後の領域を清掃するように命令をロボット清掃デバイス100に送信し、命令は、変換された修正後の提案領域を識別する情報も含む。したがって、ロボット清掃デバイス100は、矩形の清掃対象領域14を提案してもよく、ユーザは、ロボット清掃デバイス100が元の提案された矩形領域14の代わりに清掃するように命令される五角形の領域にそれを修正した。
図7は、図8のフローチャートと共に、ロボット清掃デバイスからユーザに空間情報を送信する方法のさらなる例示する実施形態を説明するために使用される、ロボット清掃デバイス100の撮影画像20を示す。
この場合も、図5のステップS201〜S205全体を通して既に説明されたように、空間情報は、この特定の例示する実施形態において、例えば、ドア21、ドアステップ22、厚いカーペット23、タンス24などのロボット清掃デバイス100によって識別される潜在的な障害物の外形の形態でロボット清掃デバイス100から受信される。空間情報は、変換された後、ユーザのレビューのためにステップS206において、スマートフォンのディスプレイ上のキャプチャされた画像20内に提示される。
したがって、この特定の例示する実施形態において、ロボット清掃デバイス100は、ステップS204においてロボット清掃デバイス100の周囲の状況の表現を送信し、それは、ステップS207においてユーザに提示される。このような情報は、ロボット清掃デバイス100が様々なカテゴリの物体を検出する方法において何らかのシステム上のエラーが存在するかどうかを、ソフトウェア開発者が迅速に理解することを助け得る。それは、また、特定のパターンに従ってロボット清掃デバイス100が清掃する理由をユーザに説明することもできる。
上記及び図7において説明される手続きが、ビデオストリーム内の画像に対して繰り返し実行され得ることに留意され得る。ロボット清掃デバイス100は、その際動き回ってもよく、ユーザは、ロボット清掃デバイス100が知覚する物の更新されたビューを維持し得る。
ステップS207において、受信した表現をユーザが修正することを可能にすることによって、ユーザは、この特定の例において、ディスプレイ上に提示されているドアステップ22の外形を押して、ドアステップ22が高すぎること、及びロボット清掃デバイス100がドアステップ22を横断しようとすることを回避するべきであり、それによって立往生を回避することをロボット掃除機100に指示することによって、その物体検出(及び、したがってナビゲーション)においてロボット清掃デバイス100をガイドし得る。この情報は、さらに、実行予定の後の清掃プログラムのために記憶され得る。
その後、その座標がロボット清掃デバイス100によって正しく解釈され得るように、コンピュータ変換が、ドアステップ22の外形に適用される。
ステップS208において、ロボット清掃デバイス100の座標系においてドアステップ22を定義する情報が、ドアステップ22を回避する命令と共にロボットデバイスに送信される。
図9は、実施形態による、ワイヤレス通信デバイス200を示す。ワイヤレス通信デバイス200は、スマートフォン、タブレット、スマートウォッチなどの形態で具現化され得る。
実施形態によるワイヤレス通信デバイス200によって実行されるアクションは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、又はハードディスクドライブなどの、マイクロプロセッサに関連付けられた記憶媒体222にダウンロードされるコンピュータプログラム221を実行するように構成される、1つ又は複数のマイクロプロセッサの形態で具現化される処理回路220によって引き起こされ得る。
コンピュータ実行可能命令を含む適当なコンピュータプログラム221が、記憶媒体222にダウンロードされ、処理回路220によって実行されるときに、処理回路220は、実施形態によるアクションをワイヤレス通信デバイス200に実行させるように構成される。記憶媒体222は、また、コンピュータプログラム221を含むコンピュータプログラム製品であってもよい。代替的には、コンピュータプログラム221は、デジタル多用途ディスク(DVD)又はメモリスティックなどの適当なコンピュータプログラム製品によって、記憶媒体220に転送され得る。さらなる代替として、コンピュータプログラム221は、ネットワークを経て記憶媒体222にダウンロードされ得る。処理回路200は、代替的には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、複合プログラマブルロジックデバイス(CPLD)などの形態で具現化され得る。
さらに、ワイヤレス通信デバイス200は、カメラ230(典型的には、ワイヤレス通信デバイスの正面上及び背面上の両方)、及びユーザがそれを介してワイヤレス通信デバイス200に情報を入力し得るタッチスクリーンディスプレイ210を具備している。ワイヤレス通信デバイス200は、信号がそれを介してワイヤレス通信デバイス200から送信され、且つワイヤレス通信デバイス200によって受信される、ワイヤレス通信インタフェース(図示せず)と共にさらに構成される。
本発明は、主に、少数の実施形態を参照して上記で説明されている。しかしながら、当業者によって容易に理解されるように、上記で開示された実施形態以外の他の実施形態が、添付された特許請求の範囲によって定義される本発明の範囲内において同様に可能である。

Claims (24)

  1. 清掃対象領域上のロボット清掃デバイスの移動を制御する方法であって、
    ワイヤレス通信デバイスのディスプレイ上で前記ロボット清掃デバイスの視覚的表現を取得することと、
    前記視覚的表現において前記ロボット清掃デバイスを識別することと、
    前記視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算することと、
    前記ロボット清掃デバイスが前記清掃対象領域上でどのように移動すべきかについての空間情報を、ユーザが前記ディスプレイ上で指示することを可能にすることにより命令を生成することと、
    前記計算された変換を前記命令の前記空間情報に適用することであって、前記命令の前記空間情報が前記ロボット座標系に変換される、前記適用することと、
    ワイヤレス通信を介して前記命令を前記ロボット清掃デバイスに送信することであって、前記ロボット清掃デバイスが、前記命令の前記変換された空間情報に従って前記領域上を移動する、前記送信することと、
    を含む、方法。
  2. 命令を前記生成することが、
    前記ディスプレイ上で、前記ロボット清掃デバイスが移動すべき前記領域を包含する境界の形態で空間情報を指示することを含む、請求項1に記載の方法。
  3. 視覚的表現を前記取得することが、
    前記ワイヤレス通信デバイスのカメラで前記ロボット清掃デバイスの画像をキャプチャすることを含む、請求項1又は2に記載の方法。
  4. 視覚的表現を前記取得することが、
    前記ワイヤレス通信デバイスとは異なるデバイスのカメラで前記ロボット清掃デバイスの画像をキャプチャすることであって、前記画像が前記ワイヤレス通信デバイスに転送される、前記キャプチャすることを含む、請求項1又は2に記載の方法。
  5. 前記ロボット清掃デバイスの視覚的識別を可能にする差別化特徴から、前記視覚的表現において前記ロボット清掃デバイスを識別することをさらに含む、請求項3又は4に記載の方法。
  6. ロボット清掃デバイスの空間情報を取得する方法であって、
    ワイヤレス通信デバイスのディスプレイ上で前記ロボット清掃デバイスの視覚的表現を取得することと、
    前記視覚的表現において前記ロボット清掃デバイスを識別することと、
    前記視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算することと、
    ワイヤレス通信を介して前記ロボット清掃デバイスから空間情報を受信することと、
    前記計算された変換を前記受信された空間情報に適用することであって、前記受信された空間情報が前記視覚的表現の前記座標系に変換される、前記適用することと、
    前記ワイヤレス通信デバイスの前記ディスプレイ上に、前記変換された空間情報を前記取得された視覚的表現において提示することと、を含む、方法。
  7. 前記ディスプレイ上に提示された前記受信された空間情報が正しいことをユーザが確認することを可能にすることと、
    確認を前記ロボット清掃デバイスに送信することと、
    をさらに含む、請求項6に記載の方法。
  8. 命令を前記生成するステップが、
    前記提示された変換された空間情報をユーザが修正することを可能にすることと、
    前記計算された変換を前記修正後の空間情報に適用することであって、前記修正後の空間情報が、前記ロボット清掃デバイスの前記座標系に変換される、前記適用することと、
    ワイヤレス通信を介して前記ロボット清掃デバイスに、前記変換された修正後の空間情報を送信することと、を含む、請求項6又は7に記載の方法。
  9. 前記ロボット清掃デバイスから前記受信された空間情報が、清掃対象の提案領域を含み、前記提案領域が正しいことを前記ユーザが確認する場合、前記ロボット清掃デバイスが前記確認を受信すると前記提案領域を清掃し、前記ユーザが前記提案領域を修正する場合、前記ロボット清掃デバイスが清掃する命令を受信すると前記修正後の提案領域を清掃する、請求項7又は8に記載の方法。
  10. 前記ロボット清掃デバイスから空間情報を前記受信することが、
    前記ロボット清掃デバイスによってキャプチャされる前記ロボット清掃デバイスの周囲の状況の表現を受信することをさらに含む、請求項6〜9のいずれか一項に記載の方法。
  11. 前記周囲の状況の前記表現が、前記ロボット清掃デバイスのカメラによってキャプチャされる画像である、請求項10に記載の方法。
  12. 清掃対象領域上のロボット清掃デバイスの移動を制御するように構成されるワイヤレス通信デバイスであって、前記ワイヤレス通信デバイスが、
    ワイヤレス通信デバイスのディスプレイ上で前記ロボット清掃デバイスの視覚的表現を取得し、
    前記視覚的表現において前記ロボット清掃デバイスを識別し、
    前記視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算し、
    前記ロボット清掃デバイスが前記清掃対象領域上でどのように移動すべきかについての空間情報を、ユーザが前記ディスプレイ上で指示することを可能にすることにより命令を生成し、
    前記計算された変換を前記命令の前記空間情報に適用し、前記命令の前記空間情報が前記ロボット座標系に変換され、
    ワイヤレス通信を介して前記命令を前記ロボット清掃デバイスに送信し、前記ロボット清掃デバイスが、前記命令の前記変換された空間情報に従って前記領域上を移動する、
    ように前記ワイヤレス通信デバイスを動作させるように構成される処理ユニットを備える、ワイヤレス通信デバイス。
  13. 命令を生成するときに、前記ディスプレイ上で、前記ロボット清掃デバイスが移動すべき前記領域を包含する境界の形態で空間情報を指示するようにさらに動作する、請求項12に記載のワイヤレス通信デバイス。
  14. 視覚的表現を取得するときに、前記ワイヤレス通信デバイスのカメラで前記ロボット清掃デバイスの画像をキャプチャするようにさらに動作する、請求項12又は13に記載のワイヤレス通信デバイス。
  15. 視覚的表現を取得するときに、前記ワイヤレス通信デバイスとは異なるデバイスのカメラで前記ロボット清掃デバイスの画像をキャプチャし、前記画像が前記ワイヤレス通信デバイスに転送されるようにさらに動作する、請求項12又は13に記載のワイヤレス通信デバイス。
  16. 前記ロボット清掃デバイスの視覚的識別を可能にする差別化特徴から、前記視覚的表現において前記ロボット清掃デバイスを識別するようにさらに動作する、請求項14又は15に記載のワイヤレス通信デバイス。
  17. ロボット清掃デバイスの空間情報を取得するように構成されるワイヤレス通信デバイスであって、前記ワイヤレス通信デバイスが、
    ワイヤレス通信デバイスのディスプレイ上で前記ロボット清掃デバイスの視覚的表現を取得し、
    前記視覚的表現において前記ロボット清掃デバイスを識別し、
    前記視覚的表現とロボット清掃デバイス座標系との間の座標変換を計算し、
    ワイヤレス通信を介して前記ロボット清掃デバイスから空間情報を受信し、
    前記計算された変換を前記受信された空間情報に適用し、前記受信された空間情報が前記視覚的表現の前記座標系に変換され、
    前記ワイヤレス通信デバイスの前記ディスプレイ上に、前記変換された空間情報を前記取得された視覚的表現において提示する、
    ように前記ワイヤレス通信デバイスを動作させるように構成される処理ユニットを備える、ワイヤレス通信デバイス。
  18. 前記ディスプレイ上に提示された前記受信された空間情報が正しいことをユーザが確認することを可能にし、
    確認を前記ロボット清掃デバイスに送信するようにさらに動作する、請求項17に記載のワイヤレス通信デバイス。
  19. 前記ディスプレイにタッチすることによって、前記提示された変換された空間情報をユーザが修正することを可能にし、
    前記計算された変換を前記修正後の空間情報に適用し、前記修正後の空間情報が前記ロボット清掃デバイスの前記座標系に変換され、
    ワイヤレス通信を介して前記ロボット清掃デバイスに、前記変換された修正後の空間情報を送信するようにさらに動作する、請求項17又は18に記載のワイヤレス通信デバイス。
  20. 前記ロボット清掃デバイスから前記受信された空間情報が、清掃対象の提案領域を含み、前記提案領域が正しいことを前記ユーザが確認する場合、前記ロボット清掃デバイスが前記確認を受信すると前記提案領域を清掃し、前記ユーザが前記提案領域を修正する場合、前記ロボット清掃デバイスが清掃する命令を受信すると前記修正後の提案領域を清掃する、請求項18又は19に記載のワイヤレス通信デバイス。
  21. 前記ロボット清掃デバイスから空間情報を前記受信することが、
    前記ロボット清掃デバイスによってキャプチャされる前記ロボット清掃デバイスの周囲の状況の表現を受信することをさらに含む、請求項17〜20のいずれか一項に記載のワイヤレス通信デバイス。
  22. 前記周囲の状況の前記表現が、前記ロボット清掃デバイスのカメラによってキャプチャされる画像である、請求項21に記載のワイヤレス通信デバイス。
  23. コンピュータ実行可能命令がデバイスに含まれる処理回路上で実行されるときに、項目1〜11のうちのいずれか1つに列挙されたステップを前記デバイスに実行させる、前記コンピュータ実行可能命令を含む、コンピュータプログラム。
  24. コンピュータ可読媒体を含むコンピュータプログラム製品であって、前記コンピュータ可読媒体が、具現化される請求項23に記載の前記コンピュータプログラムを有する、コンピュータプログラム製品。
JP2020515149A 2017-10-26 2017-10-26 拡張現実を用いてロボット清掃デバイスと空間情報を交換すること Active JP6950131B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2017/077493 WO2019081030A1 (en) 2017-10-26 2017-10-26 USE OF INCREASED REALITY FOR EXCHANGING SPATIAL INFORMATION WITH A ROBOTIC CLEANING DEVICE

Publications (2)

Publication Number Publication Date
JP2020537776A true JP2020537776A (ja) 2020-12-24
JP6950131B2 JP6950131B2 (ja) 2021-10-13

Family

ID=60413138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515149A Active JP6950131B2 (ja) 2017-10-26 2017-10-26 拡張現実を用いてロボット清掃デバイスと空間情報を交換すること

Country Status (6)

Country Link
US (1) US11612286B2 (ja)
EP (1) EP3701344A1 (ja)
JP (1) JP6950131B2 (ja)
KR (1) KR102397035B1 (ja)
CN (1) CN111226180A (ja)
WO (1) WO2019081030A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11266287B2 (en) * 2019-05-29 2022-03-08 Irobot Corporation Control of autonomous mobile robots
CN111708366B (zh) * 2020-06-29 2023-06-06 山东浪潮科学研究院有限公司 机器人及其行动控制方法、装置和计算机可读存储介质
CN116195912A (zh) * 2021-11-30 2023-06-02 美智纵横科技有限责任公司 清洁机器人的控制方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2980670A2 (en) * 2014-07-30 2016-02-03 LG Electronics Inc. Robot cleaning system and method of controlling robot cleaner
US20170203446A1 (en) * 2016-01-15 2017-07-20 Irobot Corporation Autonomous monitoring robot systems

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080082711A (ko) * 2007-03-09 2008-09-12 김현기 청소로봇의 위치 인식 알고리즘을 적용한 시스템
KR101893152B1 (ko) 2012-10-26 2018-08-31 엘지전자 주식회사 로봇 청소기 시스템 및 그 제어방법
US9675226B2 (en) * 2012-10-26 2017-06-13 Lg Electronics Inc. Robot cleaner system and control method of the same
KR102094347B1 (ko) * 2013-07-29 2020-03-30 삼성전자주식회사 자동 청소 시스템, 청소 로봇 및 그 제어 방법
US10569420B1 (en) * 2017-06-23 2020-02-25 X Development Llc Interfacing with autonomous devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2980670A2 (en) * 2014-07-30 2016-02-03 LG Electronics Inc. Robot cleaning system and method of controlling robot cleaner
US20170203446A1 (en) * 2016-01-15 2017-07-20 Irobot Corporation Autonomous monitoring robot systems

Also Published As

Publication number Publication date
CN111226180A (zh) 2020-06-02
KR102397035B1 (ko) 2022-05-12
US20200268226A1 (en) 2020-08-27
KR20200066708A (ko) 2020-06-10
JP6950131B2 (ja) 2021-10-13
WO2019081030A1 (en) 2019-05-02
EP3701344A1 (en) 2020-09-02
US11612286B2 (en) 2023-03-28

Similar Documents

Publication Publication Date Title
KR102445064B1 (ko) 로봇 청소 장치의 시스템
US20230280743A1 (en) Mobile Robot Cleaning System
JP7442063B2 (ja) 掃除機の制御方法及び制御システム
US9946263B2 (en) Prioritizing cleaning areas
US10678251B2 (en) Cleaning method for a robotic cleaning device
US9811089B2 (en) Robotic cleaning device with perimeter recording function
CN105813528B (zh) 机器人清洁设备的障碍物感测爬行
JP2022020796A (ja) 自律移動ロボットを制御するための方法
JP6950131B2 (ja) 拡張現実を用いてロボット清掃デバイスと空間情報を交換すること
US11327483B2 (en) Image capture devices for autonomous mobile robots and related systems and methods
JP2017501758A (ja) サイドブラシが渦巻きパターンで動くロボットバキュームクリーナ
US20200121147A1 (en) Vacuum cleaner
US11269350B2 (en) Method for creating an environment map for a processing unit
JP2022541971A (ja) 自律移動ロボットの制御
KR20200058400A (ko) 로봇 청소 장치의 이동 제어
WO2018054451A1 (en) Robotic cleaning device and a method of controlling movement of the robotic cleaning device
JP2022021145A (ja) 自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラム
JP2022086593A (ja) 走行地図作成装置、ユーザ端末装置、自律走行型ロボット、自律走行型ロボットの走行制御システム、自律走行型ロボットの走行制御方法、および、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210827

R150 Certificate of patent or registration of utility model

Ref document number: 6950131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150