JP2019082807A - 拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機 - Google Patents

拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機 Download PDF

Info

Publication number
JP2019082807A
JP2019082807A JP2017209247A JP2017209247A JP2019082807A JP 2019082807 A JP2019082807 A JP 2019082807A JP 2017209247 A JP2017209247 A JP 2017209247A JP 2017209247 A JP2017209247 A JP 2017209247A JP 2019082807 A JP2019082807 A JP 2019082807A
Authority
JP
Japan
Prior art keywords
cleaning
target area
map
unit
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017209247A
Other languages
English (en)
Inventor
尾関 祐仁
Sukehito Ozeki
祐仁 尾関
内山 亘
Wataru Uchiyama
亘 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017209247A priority Critical patent/JP2019082807A/ja
Publication of JP2019082807A publication Critical patent/JP2019082807A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】清掃対象領域の清掃状態を可視化する拡張現実表示システムを提供する。【解決手段】清掃結果が付加された清掃対象領域のマップを生成するマップ生成部72と、前記マップを受信するクラウドサーバ110と、前記クラウドサーバ110にネットワーク経由で接続可能な端末装置210とを含み、前記端末装置210は、映像データを生成する撮像部280と、前記映像データの位置情報を推定する位置推定部272と、前記クラウドサーバ110から前記マップを受信する通信部274と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部271と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部230とを含むもので、清掃対象領域の清掃状態を、表示部230を通してリアルタイムに可視化することができる。【選択図】図6

Description

本発明は、清掃対象領域の清掃結果を拡張現実で表示する拡張現実表示システム、前記清掃結果を表示する端末装置、前記清掃結果の拡張現実表示方法及び自立走行型掃除機に関する。
近年、ビル清掃における清掃作業員の負担軽減のために、清掃作業の一部を人の代わりに行う自律走行型掃除機(ロボット掃除機)を導入し、作業効率を改善しようとする事例が見られるようになってきた。この自律走行型掃除機の清掃結果を清掃作業員やビルメンテナンス会社に伝達し、清掃作業が確実に行われたかを把握し、万が一清掃不十分な場所が発生した場合には、人による仕上げ清掃を実施することで清掃レベルを人のみの清掃作業の場合と同等にし、ビル利用者に対し快適空間を提供することが求められる。
従来のシステムとして、掃除済みの領域を示す情報を含むマップデータを参照するマップ取得部と、操作対象の自律走行型掃除機の現在位置及び自律走行型掃除機の吸引口を有するヘッドの向きを示す状態データを取得する状態特定部と、マップデータが示す掃除済みの領域、並びに状態データが示す自律走行型掃除機の現在位置及び自律走行型掃除機のヘッドの向きに基づいて、自律走行型掃除機のヘッド操作の指針となるデータを自律走行型掃除機の操作者又は掃除機に対して出力するようにしたものがある(例えば、特許文献1参照)。
特開2016−87106号公報
しかしながら、上記従来のシステムでは、清掃作業員が視覚的に清掃領域の清掃結果を把握することが難しく、仕上げ清掃の効率アップが望めない等の課題があった。
本発明は、上記従来の課題を解決するもので、清掃作業員が視覚的に清掃領域の清掃結果を把握し、仕上げ清掃の効率を大幅に向上させることができる拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機を提供することを目的とする。
上記従来の課題を解決するために、本発明の拡張現実表示システムは、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記マップを受信するクラウドサーバと、前記クラウドサーバにネットワーク経由で接続可能な端末装置とを含み、前記端末装置は、映像データを生成する撮像部と、前記映像データの位置情報を推定する位置推定部と、前記クラウドサーバから前記マップを受信する通信部と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部とを含むもので、清掃対象領域の清掃状態を、表示部を通してリアルタイムに可視化することができる。
また、本発明の端末装置は、拡張現実表示システムに用いられる端末装置であって、映
像データを生成する撮像部と、前記映像データの位置情報を推定する位置推定部と、クラウドサーバから清掃結果が付加された清掃対象領域のマップを受信する通信部と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部とを含むもので、清掃対象領域の清掃状態を、表示部を通してリアルタイムに可視化することができる。
また、本発明の拡張現実表示方法は、清掃結果が付加された清掃対象領域のマップをクラウドサーバに送信し、前記クラウドサーバにネットワーク経由で接続可能な端末装置で、映像データを生成し、前記映像データの位置情報を推定し、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を前記映像データに重畳して表示するもので、清掃対象領域の清掃状態をリアルタイムに可視化することができる。
また、本発明の自立走行型掃除機は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域のごみの量を検出するごみ検出センサとを備え、前記ごみ検出センサは、前記清掃対象領域のごみの量を検出するカメラ、前記清掃対象領域のごみの回収量を検出する受・発光センサ及び前記清掃対象領域のごみの回収量を検出する重量センサの少なくとも1つを含むもので、前記清掃対象領域のごみの量を精度よく検出することができる。
また、本発明の自立走行型掃除機は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域の汚れの種類を検出する汚れ検出部とを備え、前記汚れ検出部は、前記清掃対象領域の汚れの種類を検出するカメラ、清掃対象領域の水性汚れの水分量を検出する水分量センサ及び前記清掃対象領域の油性汚れの油分量を検出する油分量センサの少なくとも1つを含むもので、前記清掃対象領域の汚れの性質に応じた汚れ量を精度よく検出することができる。
また、本発明の自立走行型掃除機は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域の特徴を抽出するための特徴抽出部とを備え、前記特徴抽出部は、前記清掃対象領域の画像を検出するカメラ、前記清掃対象領域の形状をレーザー光の反射時間で検出するレーザーセンサ及び前記対象領域の形状を超音波の反射時間で検出する超音波センサの少なくとも1つを含むもので、前記清掃対象領域における自己位置を精度良く認識することができる。
本発明の拡張現実表示システム、端末装置及び拡張現実表示方法は、清掃対象領域の清掃状態がリアルタイムに可視化されるので、清掃作業員が視覚的に清掃領域の清掃結果を把握し、仕上げ清掃の効率を大幅に向上させることができる。また、本発明の自律走行型掃除機は、ごみの量、汚れ具合、自己位置などを精度よく検出できるので仕上がりの良い清掃を行うことができる。
本発明の実施の形態1における拡張現実表示システムを利用する掃除システムの斜視図 同掃除システムの自律走行型掃除機の平面図 同自律走行型掃除機の底面図 同拡張現実表示システムの端末装置の平面図 同端末装置の背面図 同拡張現実表示システムのブロック図 同拡張現実表示システムの制御部により作成される清掃対象領域の区画ごとの汚れの種類を示すマップ図 (a)同端末装置において、清掃結果を拡張現実表示する前の清掃対象領域表示結果を示した図、(b)同端末装置において、清掃結果を拡張現実表示した後の清掃対象領域表示結果を示した図 同端末装置において、清掃結果をイラストで拡張現実表示した清掃対象領域表示結果を示した図 同拡張現実表示システムによる清掃対象領域のマップへの清掃結果付加制御に関するフローチャート 同拡張現実表示システムの拡張現実表示制御に関するフローチャート
第1の発明は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記マップを受信するクラウドサーバと、前記クラウドサーバにネットワーク経由で接続可能な端末装置とを含み、前記端末装置は、映像データを生成する撮像部と、前記映像データの位置情報を推定する位置推定部と、前記クラウドサーバから前記マップを受信する通信部と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部とを含むもので、清掃対象領域の清掃状態を、表示部を通してリアルタイムに可視化することができる。
第2の発明は、特に、第1の発明のマップ生成部は、清掃対象領域の清掃有無を清掃結果としてマップに付加するもので、ユーザーが前記清掃結果に基づいて仕上げ清掃を容易に行うことができる。
第3の発明は、特に、第1又は第2の発明のマップ生成部は、清掃対象領域のごみの量を清掃結果としてマップに付加するもので、ごみの溜まりやすい領域、場所を、ユーザーが容易に把握することができる。
第4の発明は、特に、第1〜3のいずれか一つの発明のマップ生成部は、清掃対象領域の汚れの種類を清掃結果としてマップに付加するもので、ユーザーが前記清掃結果に基づいて仕上げ清掃手段を容易に選択することができる。
第5の発明は、特に、第1〜4のいずれか一つの発明のマップ生成部は、清掃対象領域の落下物有無を清掃結果としてマップに付加するもので、ユーザーが前記清掃結果に基づいて落下物を収拾し、仕上げ清掃を容易に行うことができる。
第6の発明は、特に、第1〜5のいずれか一つの発明の表示部は、清掃結果を色の種類、色の濃淡、図形、イラスト、文字及び数字の少なくとも1つで表現するもので、ユーザーが前記清掃結果を直感的に把握することができ、作業効率を向上させることができる。
第7の発明は、特に、第1〜6のいずれか一つの発明の表示部は、清掃結果を選択的に表示するもので、必要な情報のみを表示することが可能になり、視認性を高め作業効率を向上させることができる。
第8の発明は、特に、第1〜7のいずれか一つの発明の端末装置は、少なくともタブレット型端末、スマートフォン、眼鏡型端末のいずれかとしたもので、手軽で、使用勝手のよい機器を端末装置として利用できる。
第9の発明に係る端末装置は、拡張現実表示システムに用いられる端末装置であって、映像データを生成する撮像部と、前記映像データの位置情報を推定する位置推定部と、ク
ラウドサーバから清掃結果が付加された清掃対象領域のマップを受信する通信部と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部とを含むもので、清掃対象領域の清掃状態を、表示部を通してリアルタイムに可視化することができる。
第10の発明に係る拡張現実表示方法は、清掃結果が付加された清掃対象領域のマップをクラウドサーバに送信し、前記クラウドサーバにネットワーク経由で接続可能な端末装置で、映像データを生成し、前記映像データの位置情報を推定し、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を前記映像データに重畳して表示するもので、清掃対象領域の清掃状態をリアルタイムに可視化することができる。
第11の発明に係る自立走行型掃除機は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域のごみの量を検出するごみ検出センサとを備え、前記ごみ検出センサは、前記清掃対象領域のごみの量を検出するカメラ、前記清掃対象領域のごみの回収量を検出する受・発光センサ及び前記清掃対象領域のごみの回収量を検出する重量センサの少なくとも1つを含むもので、前記清掃対象領域のごみの量を精度よく検出することができる。
第12の発明に係る自立走行型掃除機は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域の汚れの種類を検出する汚れ検出部とを備え、前記汚れ検出部は、前記清掃対象領域の汚れの種類を検出するカメラ、清掃対象領域の水性汚れの水分量を検出する水分量センサ及び前記清掃対象領域の油性汚れの油分量を検出する油分量センサの少なくとも1つを含むもので、前記清掃対象領域の汚れの性質に応じた汚れ量を精度よく検出することができる。
第13の発明に係る自立走行型掃除機は、清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域の特徴を抽出するための特徴抽出部とを備え、前記特徴抽出部は、前記清掃対象領域の画像を検出するカメラ、前記清掃対象領域の形状をレーザー光の反射時間で検出するレーザーセンサ及び前記対象領域の形状を超音波の反射時間で検出する超音波センサの少なくとも1つを含むもので、前記清掃対象領域における自己位置を精度良く認識することができる。
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、この実施の形態によって本発明が限定されるものではない。
(実施の形態1)
図1は、本発明の実施の形態1における拡張現実表示システムを利用する掃除システムの斜視図、図2は、同掃除システムの自律走行型掃除機の平面図、図3は、同自律走行型掃除機の底面図、図4は、同拡張現実表示システムの端末装置の平面図、図5は、同端末装置の背面図、図6は、同拡張現実表示システムのブロック図、図7は、同拡張現実表示システムの制御部により作成される清掃対象領域の区画ごとの汚れの種類を示すマップ図、図8(a)は、同端末装置において、清掃結果を拡張現実表示する前の清掃対象領域表示結果を示した図、図8(b)は、同端末装置において、清掃結果を拡張現実表示した後の清掃対象領域表示結果を示した図、図9は、同端末装置において、清掃結果をイラストで拡張現実表示した清掃対象領域表示結果を示した図、図10は、同拡張現実表示システムによる清掃対象領域のマップへの清掃結果付加制御に関するフローチャート、図11は、同拡張現実表示システムの拡張現実表示制御に関するフローチャートである。
図1〜図6を参照して、本発明の実施の形態1における拡張現実表示システムを利用す
る掃除システム1について説明する。
図1に示されるとおり、掃除システム1は、自立走行型掃除機10(以下「掃除機10」という)と、掃除機10の電源ユニット90(図2参照)を充電するための充電装置100と、掃除機10と通信可能な端末装置210(図4参照)を含む。
充電装置100は、床面に配置され、図示しない電源コードによって電源に接続される。充電装置100は、掃除機10の電源ユニット90の端子91(図3参照)と電気的に接続可能な端子101を備えている。掃除機10は、清掃対象領域の床面上を自律的に走行し、床面上に存在するごみを吸引するロボット型の掃除機である。清掃対象領域の一例はビルの共用廊下である。
図2に示されるとおり、掃除機10は、ボディ20と、駆動ユニット30(図3参照)と、清掃ユニット40と、ごみ箱50と、吸引ユニット60と、制御ユニット70及び電源ユニット90を備えている。駆動ユニット30の一部、清掃ユニット40の一部、ごみ箱50、吸引ユニット60、制御ユニット70及び電源ユニット90はボディ20内に配置される。なお、制御ユニット70は、掃除機10の制御装置に相当する。清掃ユニット40および吸引ユニット60は、床面のごみを回収する掃除部に相当する。
ボディ20の機能は、掃除機10を構成する各種の要素を搭載することである。駆動ユニット30の機能は床面を清掃するためにボディ20を走行させることである。清掃ユニット40の機能は、ボディ20の周辺のごみをボディ20の下方にかき集め、そのごみをかき上げることである。ごみ箱50の機能は、吸引ユニット60により回収されたごみを収容することである。吸引ユニット60の機能は、清掃ユニット40によりかき上げられたごみをボディ20内に吸引することである。制御ユニット70は、駆動ユニット30、清掃ユニット40、吸引ユニット60の動作を制御することである。電源ユニット90の機能は、駆動ユニット30、清掃ユニット40、吸引ユニット60等に電力を供給することである。
ボディ20の平面形状の一例は、ルーローの三角形、または、その三角形とおおよそ同じ形状を有する多角形、または、これらの三角形あるいは多角形の頂部にRが形成された形状である。この形状は、ルーローの三角形が有する幾何学的な性質と同一または類似する性質をボディ20に持たせることに寄与する。
図2に示されるとおり、掃除機10はさらに、パネルカバー21およびバンパー22を備える。パネルカバー21の機能は、ボディ20の上部に設けられた操作パネル(図示略)を覆うことである。パネルカバー21は、ボディ20の上部に取り付けられ、ボディ20に対して開閉可能である。バンパー22の機能は、ボディ20に与えられる衝撃を吸収することである。バンパー22は、ボディ20の前方に設けられ、ボディ20に対して変位可能である。
図3に示されるとおり、掃除機10はさらにキャスター23を備える。キャスター23の機能は、ボディ20の後部を支持することである。キャスター23は、駆動ユニット30の動作に従動して回転する。
ボディ20は、吸込口20Bを備える。吸込口20Bは、ボディ20の下方に存在するごみをボディ20内に吸引できるようにボディ20の底面20Aに開口する。清掃ユニット40は、第1のブラシ駆動モータ、第2のブラシ駆動モータ、第1の動力伝達部、第2の動力伝達部(いずれも図示略)、メインブラシ41およびサイドブラシ42を備える。各ブラシ駆動モータおよび各動力伝達部は、ボディ20内に配置される。第1の動力伝達
部は第1のブラシ駆動モータのトルクをメインブラシ41に伝達できるようにメインブラシ41と連結される。第2の動力伝達部は、第2のブラシ駆動モータのトルクをサイドブラシ42に伝達できるようにサイドブラシ42と連結される。一例では、各動力伝達部はギア(図示せず)により動力を伝達する。
メインブラシ41の機能は、ボディ20の下方のごみをかき上げることである。メインブラシ41は、例えば回転中心線を有する芯(図示せず)、および、芯の外周に設けられるブラシ毛(図示せず)を含み、吸込口20Bに配置される。メインブラシ41の回転方向は回転中心軸線よりも後方側においてごみを下方から上方にかき上げることが可能な方向である。
サイドブラシ42の機能は、ボディ20周辺の床面のごみを吸込口20Bおよびメインブラシ41に誘導することである。一例では、掃除機10は、一対のサイドブラシ42を備える。各サイドブラシ42はボディ20の底面20Aの前方側部に設けられる。サイドブラシ42の回転方向はボディ20の前方から吸込口20Bに向けてごみをかき集めることが可能な方向である。
サイドブラシ42は、ブラシ軸43およびブラシ軸43の外周に取り付けられる複数のブリッスル束44を含む。ボディ20およびサイドブラシ42は、サイドブラシ42がボディ20に取り付けられた状態、および、サイドブラシ42がボディ20から取り外された状態をユーザーが任意に選択できる着脱構造を備える。
ブラシ軸43の材質の一例は金属である。ブラシ軸43の形状の一例は円柱である。サイドブラシ42がボディ20に取り付けられることによりブラシ軸43が第2の動力伝達部と結合される。その状態において、ブラシ軸43はボディ20の底面20Aから下方に突出する。ブラシ軸43の中心軸線はボディ20の高さ方向に沿う。
複数のブリッスル束44は、床面上のごみをかき集めることができるように束ねられた複数のブリッスルである。一例では、各ブリッスル束44を構成するブリッスルの本数は50本である。ブリッスルの材料はナイロンである。複数のブリッスル束44がブラシ軸43まわりで回転することによって床面上のごみが吸込口20Bに向けてかき集められる。
掃除機10の駆動方式は対向2輪型であり、一対の駆動ユニット30を備える。駆動ユニット30は、ホイール駆動モータ(図示略)、駆動輪31およびハウジング32を備える。ホイール駆動モータは、ハウジング32内に配置され、駆動輪31にトルクを伝達できるように駆動輪31の軸(図示せず)と連結される。駆動輪31は、軸と連結されるホイール(図示せず)およびホイールの外周に取り付けられるタイヤ(図示せず)を含む。タイヤは絨毯等のような表面の形状が変化しやすい場所を安定して走行できるトレッドパターン(図示せず)を有する。
ごみ箱50は、ボディ20の前後方向において吸引ユニット60の前方側に配置される。一対の駆動ユニット30は、ボディ20の平面視においてボディ20の前後方向に直交する幅方向において、ごみ箱50を挟み込むように配置される。ボディ20およびごみ箱50は、ごみ箱50がボディ20に取り付けられた状態、および、ごみ箱50がボディ20から取り外された状態をユーザーが任意に選択できる着脱構造を備える。
吸引ユニット60は、ボディ20の前後方向においてごみ箱50と電源ユニット90との間に配置され、電動ファン(図示略)を含む。電動ファンはごみ箱50の内部の空気を吸引する。電動ファンが動作することによりメインブラシ41によりかき上げられたごみ
がごみ箱50内に移動する。
図6に示すように制御ユニット70は、各種制御および演算を実行する制御部71と、清掃対象領域のマップを生成するマップ生成部72と、記憶部73および外部の装置と通信可能な通信部74を含んでいる。制御部71は、例えばCPU(Central Processing Unit)のような半導体集積回路を含む。記憶部73は、例えばフラッシュメモリのような不揮発性の半導体記憶素子により構成され、制御部71が実行する各種のプログラムおよびパラメータ等を記憶する。通信部74は、例えば、記憶部111を有するクラウドサーバ110の通信部112や端末装置210の通信部274と無線通信可能に構成される。
端末装置210は、例えばスマートフォンまたはパーソナルコンピュータであり、撮像部280と、制御ユニット270と、制御ユニット70の通信部74やクラウドサーバ110の通信部112から受信した情報を表示する表示部230と、操作部240を備えている。
制御ユニット270はさらに、制御部271と、位置推定部272と、記憶部273を備えている。
制御部271は、操作部240またはリモコン(図示略)を介してユーザーによって入力された条件に基づいて各種制御を設定可能である。
掃除機10は、さらに複数のセンサを備える。一例によれば複数のセンサは、障害物検出センサ81、複数の距離測定センサ82、衝突検出センサ83、複数の床面検出センサ84、ごみ検出センサ85及び撮像部86を含む。各センサは、それぞれ制御部71および電源ユニット90(図2参照)と電気的に接続され、制御部71に検出信号を入力する。
図2に示す障害物検出センサ81の機能は、ボディ20の前方側に存在する障害物を検出することである。障害物検出センサ81の一例は超音波センサであり、図示しない発信部および受信部を備える。障害物検出センサ81は障害物の有無に応じた信号を制御部71に出力する。
距離測定センサ82の機能は、ボディ20の周囲に存在する物体とボディ20との距離を検出することである。距離測定センサ82の一例は赤外線センサであり、図示しない発光部および受光部を備える。距離測定センサ82は周囲に存在する物体との距離に応じた信号を制御部71(図6参照)に出力する。
衝突検出センサ83の機能は、ボディ20が周囲の物体と衝突したことを検出することである。衝突検出センサ83の一例は、接触式変位センサであり、バンパー22がボディ20に対して押し込まれることにともないオンされるスイッチ(図示せず)を備える。
床面検出センサ84の機能は、床面との距離を検出することである。床面検出センサ84の一例は赤外線センサであり、図示しない発光部および受光部を備える。衝突検出センサ83は周囲の物体と衝突した旨を示す信号を制御部71(図6参照)に出力する。
ごみ検出センサ85の機能は、ごみ箱50内の通路を流れるごみの量を検出することである。ごみ検出センサ85の一例は赤外線センサであり、図示しない発光部および受光部を備える。ごみ検出センサ85は、ごみ箱50に収容されるごみの量に応じた信号を制御部71(図3参照)に出力する。
図3に示されるとおり、一例では複数の床面検出センサ84は、第1〜第5の床面検出センサ84を含む。第1の床面検出センサ84は、ボディ20の前後方向においてメインブラシ41よりも前方側に設けられる。第2の床面検出センサ84は、ボディ20の前後方向において右側のサイドブラシ42と右側の駆動ユニット30との間に設けられる。第3の床面検出センサ84はボディ20の前後方向において左側のサイドブラシ42と左側の駆動ユニット30との間に設けられる。第4の床面検出センサ84は、ボディ20の前後方向において右側の駆動ユニット30、右側のサイドブラシ42、および、メインブラシ41よりも後方側に設けられる。第5の床面検出センサ84は、ボディ20の前後方向において左側の駆動ユニット30、左側のサイドブラシ42、および、メインブラシ41よりも後方側に設けられる。ボディ20の幅方向における第4および第5の床面検出センサ84の位置は、駆動ユニット30、サイドブラシ42、および、メインブラシ41が設けられる位置と重なる。
次に、制御部71の機能について説明する。
図1〜6において、制御部71は、障害物検出センサ81から入力される検出信号に基づいて、ボディ20よりも前方側の所定範囲内に掃除機10の走行を妨げ得る物体が存在しているか否かを判定する。制御部71は、距離測定センサ82から入力される検出信号に基づいて、ボディ20の側部の周囲に存在する物体とボディ20の輪郭との距離を算出する。制御部71は衝突検出センサ83から入力される検出信号に基づいて、ボディ20が周囲の物体に衝突したか否かを判定する。制御部71は、床面検出センサ84から入力される検出信号に基づいて、ボディ20の底面20Aと床面との距離を算出する。
制御部71は、各種センサの出力および清掃時における掃除機10の走行データに基づいてマップ生成部72により清掃対象領域のマップが作成され、それが記憶部73に記憶される。
マップは、例えばSLAM(Simultaneous Localization and Mapping)などの地図作成技術によって作成される。制御部71は、清掃対象領域のマップを複数の区画に区分する。なお、清掃対象領域のマップは、通信部74を介して外部の装置から入力することもできる。掃除機10の走行データに基づいて清掃対象領域のマップを作成する場合、清掃対象領域は掃除機10の走行可能な範囲と一致する。
制御部71は、ごみ検出センサ85から入力される検出信号に基づいてごみ箱50に回収されたごみの量を判定する。制御部71はごみ箱50に回収されたごみの量を操作パネル(図示せず)等に表示する。
制御部71は、ホイール駆動モータ(図示略)およびブラシ駆動モータを駆動して掃除を行う。制御部71は、ホイール駆動モータを駆動し、駆動輪31を掃除機10の前方に走行させる方向に回転させる。制御部71は、掃除機10を前方に走行させるとき左右の両方の駆動輪31を回転させる。制御部71は、掃除機10を右方または左方に走行させるときは左右の駆動輪31の一方を回転させる。
制御部71は、メインブラシ41を掃除機10の前方に走行する方向に回転させる。制御部71は、サイドブラシ42を掃除機10の前方からメインブラシ41に向かうように回転させる。掃除機10は、区画の内部を前後往復しながら移動することで掃除を行う。ごみ検出センサ85は、掃除の実行中にごみの量の検出を行う。制御部71は、掃除中の区画内において回収されるごみの量が一定量以下となるまで掃除を行う。制御部71は、
掃除中の区画の位置、掃除機10の往復の方向、および、検出されたごみの量を記憶部73に記憶する。
掃除が実行されているとき、制御部71は第1〜第3の清掃制御を実行する。
第1の清掃制御は、掃除機10が床面上の任意の経路を走行している最中に床面検出センサ84の検出信号に基づいて床面の種類も判定し、その判定結果に基づいて吸引ユニット60の吸引力を調節する制御である。
例えば、制御部71は、床面がフローリングの時は吸引ユニット60による気流を相対的に小さくし、畳、絨毯と凹凸が大きいレベルになるほど、気流を相対的に大きくする。第2の清掃制御は、ごみの量が多い領域が検出された場合に、床面検出センサ84の検出信号に基づいて床面の種類を判定し、その判定結果に基づいてごみを集中的に吸引するための掃除機10の清掃動作を決める制御である。
第3の清掃制御は、清掃対象領域の壁沿いの場所および隅のごみを吸引するために壁沿いから隅に向けてボディ20を走行させる制御である。第3の清掃制御は、ボディ20の側部20Cと壁との距離が一定の距離に保たれるように、掃除機10を壁に沿って走行させる。なお、第1の清掃制御における吸引力を調節する制御は、第2の清掃制御、第3の清掃制御、および、吸引ユニット60を動作させる別の清掃制御の1つまたは複数と組み合わせ可能である。
制御ユニット70により実行される制御の一例について説明する。制御ユニット70は清掃対象領域を清掃するために複数の制御を実行する。複数の制御は少なくとも待機制御、起動制御、および清掃制御を含む。
待機制御は、掃除機10の電源ユニット90の端子91が充電装置100の端子101と電気的に接続される初期位置にあるときに実行され、電源ユニット90の蓄電池(図示せず)への充電を行う。
起動制御は、操作パネルの電源スイッチ(図示略)がオンされたとき電源ユニット90からの電力が制御部71に供給されることによって開始される制御である。制御部71は起動制御において電源ユニット90の蓄電池の電池残圧、ごみ箱50の掃除機10への取り付け状態、各種駆動モータ(図示略)の負荷、および、各種センサの通電状態等の状況を点検する。制御部71は、異常を検出した場合は、操作パネル等を介してその旨をユーザーに報知し、各種駆動モータの動作を禁止する。
図6〜図10を参照して、清掃制御について説明する。
掃除機10は、ステップS11において制御部71が駆動ユニット30、清掃ユニット40および吸引ユニット60を駆動し清掃を開始する。制御部71は、ステップS12において、記憶部73にあらかじめ記憶された清掃対象領域マップより清掃対象領域を設定する。
制御部71は、ステップS13において、各種センサの出力および清掃時における掃除機10の走行データに基づいて、自己位置情報を推定する。
制御部71は、ステップS14において、ごみ検出センサ85および汚れ検出部(図示せず)から入力されるごみの量に応じた信号に基づいて清掃対象領域の清掃結果を取得する。
制御部71は、ステップS15において、ステップ14で取得した清掃結果を清掃対象領域マップ上の自己位置を表すグリットに付加する。
制御部71は、ステップS16で清掃対象領域の清掃が完了したかどうかを確認し、未完了の場合は、ステップ17にて清掃対象領域内を所定量移動し清掃を継続する。以降ステップS13〜ステップS16を繰り返す。
制御部71は、ステップS16で清掃対象領域の清掃が完了したことを確認すれば、ステップS19に進み、駆動ユニット30、清掃ユニット40及び吸引ユニット60を停止し、清掃を終了する。
図7は、制御部71により作成される清掃対象領域の清掃結果が付加された清掃対象領域マップを視覚的に表示した一例を示す。掃除機10が清掃した清掃エリアにおいて、前記ステップ15で清掃結果として「水分汚れ」のため掃除できなかった領域を「■」印で、また「油性汚れ」のため掃除できなかった領域を「▲」印で示している。
図4〜図9及び図11を参照して、清掃結果の拡張現実表示制御の詳細について説明する。
端末装置210には、端末装置210の周囲の映像データを生成する撮像部280と、前記映像データ及び前記映像データ上への拡張現実データの表示を行う表示部230、前記映像データに基づいて端末装置210の位置を推定する位置推定部272が備わっており、前記撮像部280、前記表示部230、前記位置推定部272の制御を制御部271が実行する。
撮像部280は、例えばCMOS(Complementary MOS)イメージセンサのように複数の画素を有する画像センサを用いることができる。
表示部230は、複数の画素を有し、背後に蛍光灯やLED(Light Emitting Diode)などの光源(バックライト)を設置し、この光を遮ったり通したりすることで像を映し出す液晶ディスプレイや、複数の画素が自ら発光することで像を映し出す有機EL(Electro Luminescence)ディスプレイのような高精細表示デバイスを用いて、前記撮像部280の映像を高精細に表示することが可能である。これらの表示デバイスは、画面上の表示を押すことで機器を操作するための操作部(図示せず)と組み合わせた、いわゆるタッチパネル方式が主流であり、ユーザーによる直感的な操作を可能にしている。
通信部274は、掃除機10やクラウドサーバ110とWiFi通信やBluetooth(登録商標)などの無線通信によってデータをやりとりすることが可能である。
記憶部273は、例えばフラッシュメモリのような不揮発性の半導体記憶素子により構成され電気的にデジタルデータの読み書きを行うことができる。
以上のように構成された端末装置210について、ビル内の共用廊下での拡張現実表示させる制御例を以下に説明する。なお、前記共用廊下は掃除機10によって清掃対象領域の清掃及び清掃対象領域のマップ生成が完了した状態とする。
撮像部280は、ステップS21において清掃対象領域の画像を入力し、制御ユニット70に画像データを伝送しステップS22に進む。ステップS22では、位置推定部27
2がステップS21で入力した画像から、特徴量を抽出し、端末装置210自身の位置情報を推定し、ステップS23に進む。
ステップS23では、前記位置情報と、あらかじめ記憶部273に保存されているSLAMマップとの照合を行い、ステップS24において照合が完了すれば、ステップS25においてSLAMマップデータを取得する。
ステップS26において、SLAMマップデータにおける清掃結果を抽出する。清掃結果は例えば「ごみの量」、「汚れの種類」、「落下物の有無や種類」といったものである。
ステップS27では、ステップS26で抽出した清掃結果を映像データに重畳させる。ステップS28では、ステップS27で清掃結果が重畳された映像データを再描画することによって、表示部230に清掃結果が拡張現実表示される。
図8は、端末装置210としてタブレット型端末を利用して清掃結果を拡張現実表示する実例を示すものである。
図8(a)は、表示部230に清掃結果を重畳する前の、清掃対称領域のオリジナル画像のみ(ARオフ)を示し、図8(b)では、前記オリジナル画像上に清掃結果を重畳した状態(ARオン)を示している。掃除機10の清掃結果として「水分汚れ」のため掃除できなかった領域を「■」印で、また「油性汚れ」のため掃除できなかった領域を「▲」印で拡張現実表示している。作業員は、前記清掃結果表示をタブレット端末を通じて視覚的に把握することができる。この結果、汚れに応じて適切な清掃具を選択することができたり、清掃できなかったところのみをピンポイントで見つけて清掃するなど、効率的な仕上げ清掃を実現することができる。
本実施の形態では、表示部230は清掃結果を「■」や「▲」などの図形を用いて表現したが、本発明はこれに限定されるものではなく、色の濃淡、イラスト、文字及び数字などで構成されるものとしてもよい。すなわち、清掃結果の特性に応じて、ユーザーが識別しやすい清掃結果の表現にすることもできる。
例えば、汚れの種類を清掃結果として表示させる場合に、汚れの種類に応じたイラストで表現してもよい。具体的には図9に示すように、汚れの種類が「水分汚れ」の場合には「水滴」のイラスト、「油性汚れ」の場合には「油性ペン」のイラストで表現すればよい。
また、ごみの量を清掃結果として表示させる場合に、ごみの量に応じた文字で表現してもよい。具体的にはごみの量が多い場合には「多」、少ない場合には「無」と表現すればよい。ごみの量に応じた数字で表現してもよい。具体的にはごみの量が多いほど数字が大きくなるようにし、(例えば最大ごみ量の場合「100」とする)、ごみの量が少ないほど数字が小さくなるようにする(例えば最小ごみ量の場合「0」とする)。
本実施の形態では、表示部230は、複数の清掃結果(「水分汚れ」や「油性汚れ」)を一度に表示したが、本発明は、これに限定されるものではなく、清掃結果を選択的に表示する構成であってもよい。すなわち、ユーザーが必要な清掃結果のみを選択的に表示できる構成とすることもできる。たとえば表示部230上のタッチパネルを押下するごとに、パターン1:清掃結果表示なし→パターン2:「水分汚れ」と「油性汚れ」を同時表示→パターン3:「水分汚れ」のみ表示→パターン4:「油性汚れ」のみ表示→パターン1に戻る、といった表示パターンの切り替え制御を行えばよい。
本実施の形態では、端末装置としてタブレット型端末としたが、本発明は、これに限定されるものではなく、スマートフォンでもよい。タブレット型端末に比べて小型のスマートフォンであれば作業員が手軽に持ち運びすることができ、容易に清掃結果を確認することができるため、作業効率を向上させることができる。
また、端末装置210として眼鏡型端末を用いれば、作業員は眼鏡型端末を装着した状態で清掃結果を確認しながら仕上げ清掃を行うことができるため、作業効率をさらに向上させることができる。
なお、ごみ検出センサ85として、清掃対象領域のごみの量を検出するカメラ(図示せず)、清掃対象領域のごみの回収量を検出する受・発光センサ(図示せず)、及び前記清掃対象領域のごみの回収量を検出する重量センサ(図示せず)の少なくとも1つを含むようにすれば、前記清掃対象領域のごみの量を精度よく検出することができる。
また、汚れ検出部として、清掃対象領域の汚れの種類を検出するカメラ(図示せず)、清掃対象領域の水性汚れの水分量を検出する水分量センサ(図示せず)及び前記清掃対象領域の油性汚れの油分量を検出する油分量センサ(図示せず)の少なくとも1つを含むようにすれば、清掃対象領域の汚れの性質に応じた汚れ量を精度よく検出することができる。
また、清掃対象領域の特徴を抽出するための特徴抽出部(図示せず)を備え、前記特徴抽出部が、清掃対象領域の画像を検出するカメラ(図示せず)、前記清掃対象領域の形状をレーザー光の反射時間で検出するレーザーセンサ(図示せず)、及び前記対象領域の形状を超音波の反射時間で検出する超音波センサ(図示せず)の少なくとも1つを含むようにすれば、清掃対象領域における自己位置を精度良く認識することができる。
本発明に係る拡張現実表示システム、端末装置、および拡張現実表示方法は、清掃対象領域の清掃状態がリアルタイムに可視化され、清掃作業員が視覚的に清掃領域の清掃結果を把握し、仕上げ清掃の効率を大幅に向上させることができるもので、家庭用および業務用をはじめとする各種の自律走行型掃除機に適用できる。
1 掃除システム
10 自立走行型掃除機(掃除機)
20 ボディ
20A 底面
20B 吸込口
20C 側部
21 パネルカバー
22 バンパー
23 キャスター
30 駆動ユニット
31 駆動輪
32 ハウジング
40 清掃ユニット
41 メインブラシ
42 サイドブラシ
43 ブラシ軸
44 ブリッスル束
50 ごみ箱
60 吸引ユニット
70、270 制御ユニット
71、271 制御部
72 マップ生成部
73、111、273 記憶部
74、112、274 通信部
81 障害物検出センサ
82 距離測定センサ
83 衝突検出センサ
84 床面検出センサ
85 ごみ検出センサ
86、280 撮像部
90 電源ユニット
91、101 端子
100 充電装置
110 クラウドサーバ
210 端末装置
230 表示部
240 操作部
272 位置推定部

Claims (13)

  1. 清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記マップを受信するクラウドサーバと、前記クラウドサーバにネットワーク経由で接続可能な端末装置とを含み、前記端末装置は、映像データを生成する撮像部と、前記映像データの位置情報を推定する位置推定部と、前記クラウドサーバから前記マップを受信する通信部と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部とを含む拡張現実表示システム。
  2. マップ生成部は、清掃対象領域の清掃有無を清掃結果としてマップに付加することを特徴とする請求項1に記載の拡張現実表示システム。
  3. マップ生成部は、清掃対象領域のごみの量を清掃結果としてマップに付加することを特徴とする請求項1または2に記載の拡張現実表示システム。
  4. マップ生成部は、清掃対象領域の汚れの種類を清掃結果としてマップに付加することを特徴とする請求項1〜3のいずれかに1項に記載の拡張現実表示システム。
  5. マップ生成部は、清掃対象領域の落下物有無を清掃結果としてマップに付加することを特徴とする請求項1〜4のいずれか1項に記載の拡張現実表示システム。
  6. 表示部は、清掃結果を色の種類、色の濃淡、図形、イラスト、文字及び数字の少なくとも1つで表現する請求項1〜5のいずれか1項に記載の拡張現実表示システム。
  7. 表示部は、清掃結果を選択的に表示する請求項1〜6のいずれか1項に記載の拡張現実表示システム。
  8. 端末装置は、少なくともタブレット型端末、スマートフォン、眼鏡型端末のいずれかである請求項1〜7のいずれか1項に記載の拡張現実表示システム。
  9. 拡張現実表示システムに用いられる端末装置であって、映像データを生成する撮像部と、前記映像データの位置情報を推定する位置推定部と、クラウドサーバから清掃結果が付加された清掃対象領域のマップを受信する通信部と、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を関連づける制御部と、関連付けされた前記清掃結果を前記映像データに重畳し、前記重畳された映像データを表示する表示部とを含む端末装置。
  10. 清掃結果が付加された清掃対象領域のマップをクラウドサーバに送信し、前記クラウドサーバにネットワーク経由で接続可能な端末装置で、映像データを生成し、前記映像データの位置情報を推定し、前記位置情報と前記マップ上の清掃対象領域を関連づけると共に前記清掃結果を前記映像データに重畳して表示する拡張現実表示方法。
  11. 清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域のごみの量を検出するごみ検出センサとを備え、前記ごみ検出センサは、前記清掃対象領域のごみの量を検出するカメラ、前記清掃対象領域のごみの回収量を検出する受・発光センサ及び前記清掃対象領域のごみの回収量を検出する重量センサの少なくとも1つを含む自律走行型掃除機。
  12. 清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領
    域の汚れの種類を検出する汚れ検出部とを備え、前記汚れ検出部は、前記清掃対象領域の汚れの種類を検出するカメラ、清掃対象領域の水性汚れの水分量を検出する水分量センサ及び前記清掃対象領域の油性汚れの油分量を検出する油分量センサの少なくとも1つを含む自律走行型掃除機。
  13. 清掃結果が付加された清掃対象領域のマップを生成するマップ生成部と、前記清掃対象領域の特徴を抽出するための特徴抽出部とを備え、前記特徴抽出部は、前記清掃対象領域の画像を検出するカメラ、前記清掃対象領域の形状をレーザー光の反射時間で検出するレーザーセンサ及び前記対象領域の形状を超音波の反射時間で検出する超音波センサの少なくとも1つを含む自立走行型掃除機。
JP2017209247A 2017-10-30 2017-10-30 拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機 Pending JP2019082807A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017209247A JP2019082807A (ja) 2017-10-30 2017-10-30 拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017209247A JP2019082807A (ja) 2017-10-30 2017-10-30 拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機

Publications (1)

Publication Number Publication Date
JP2019082807A true JP2019082807A (ja) 2019-05-30

Family

ID=66671163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017209247A Pending JP2019082807A (ja) 2017-10-30 2017-10-30 拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機

Country Status (1)

Country Link
JP (1) JP2019082807A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117616A1 (ja) * 2019-12-13 2021-06-17 ソニーグループ株式会社 掃除領域推定装置及び掃除領域推定方法
JP6921354B1 (ja) * 2021-05-24 2021-08-18 Dmg森精機株式会社 情報処理装置
JP2021176423A (ja) * 2020-05-08 2021-11-11 日立グローバルライフソリューションズ株式会社 電気掃除機及び電気掃除機システム
JP7019865B1 (ja) * 2020-07-09 2022-02-15 三菱電機ビルテクノサービス株式会社 清掃システム及びプログラム
JP7083943B1 (ja) 2021-05-24 2022-06-13 Dmg森精機株式会社 情報処理装置
CN114908701A (zh) * 2022-05-09 2022-08-16 英博超算(南京)科技有限公司 一种智能垃圾清理设备
CN115444327A (zh) * 2022-07-29 2022-12-09 云鲸智能(深圳)有限公司 清洁设备清洁图像的处理方法、装置、系统及存储介质
WO2023147229A1 (en) * 2022-01-25 2023-08-03 The Procter & Gamble Company Environmental imaging and graphical mapping systems and methods for tracking cleaning activity in a physical environment

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117616A1 (ja) * 2019-12-13 2021-06-17 ソニーグループ株式会社 掃除領域推定装置及び掃除領域推定方法
JP2021176423A (ja) * 2020-05-08 2021-11-11 日立グローバルライフソリューションズ株式会社 電気掃除機及び電気掃除機システム
JP7019865B1 (ja) * 2020-07-09 2022-02-15 三菱電機ビルテクノサービス株式会社 清掃システム及びプログラム
WO2022250052A1 (ja) * 2021-05-24 2022-12-01 Dmg森精機株式会社 情報処理装置およびプログラム
JP7083943B1 (ja) 2021-05-24 2022-06-13 Dmg森精機株式会社 情報処理装置
JP6921354B1 (ja) * 2021-05-24 2021-08-18 Dmg森精機株式会社 情報処理装置
JP2022179892A (ja) * 2021-05-24 2022-12-06 Dmg森精機株式会社 情報処理装置
JP2022179893A (ja) * 2021-05-24 2022-12-06 Dmg森精機株式会社 情報処理装置
WO2023147229A1 (en) * 2022-01-25 2023-08-03 The Procter & Gamble Company Environmental imaging and graphical mapping systems and methods for tracking cleaning activity in a physical environment
CN114908701A (zh) * 2022-05-09 2022-08-16 英博超算(南京)科技有限公司 一种智能垃圾清理设备
CN114908701B (zh) * 2022-05-09 2024-02-09 英博超算(南京)科技有限公司 一种智能垃圾清理设备
CN115444327A (zh) * 2022-07-29 2022-12-09 云鲸智能(深圳)有限公司 清洁设备清洁图像的处理方法、装置、系统及存储介质
CN115444327B (zh) * 2022-07-29 2023-09-29 云鲸智能(深圳)有限公司 清洁设备清洁图像的处理方法、装置、系统及存储介质

Similar Documents

Publication Publication Date Title
JP2019082807A (ja) 拡張現実表示システム、端末装置、拡張現実表示方法及び自立走行型掃除機
JP7442063B2 (ja) 掃除機の制御方法及び制御システム
EP3727122B1 (en) Robot cleaners and controlling method thereof
KR101954144B1 (ko) 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
US11221629B2 (en) Autonomous traveler and travel control method thereof
EP3149862B1 (en) Mobile device, robot cleaner, and method for controlling the same
EP2457486B1 (en) Robot cleaner and control method thereof
WO2017141536A1 (ja) 自律走行体
CN109843139B (zh) 电动吸尘器
JPWO2019097626A1 (ja) 自走式掃除機
CN111685672B (zh) 地面处理设备和由地面处理设备和外置终端设备组成的系统
WO2018216690A1 (ja) 電気掃除機
EP4353137A1 (en) Cleaning device, cleaning path, cleaning map generation method, and cleaning map generation system
CN109254580A (zh) 用于自动行走式的服务设备的运行方法
US12007776B2 (en) Autonomous traveling system, autonomous traveling method, and autonomous traveling program stored on computer-readable storage medium
KR101303161B1 (ko) 이동 로봇 및 이의 제어 방법
WO2023193618A9 (zh) 自动清洁设备、控制方法及存储介质
JP2023083305A (ja) 掃除地図表示装置
KR102306436B1 (ko) 이동 로봇 및 그 제어방법
CN114431785B (zh) 拖地湿度控制方法、装置、机器人及计算机可读存储介质
JP6660093B2 (ja) 電気掃除機、その情報表示方法、および電気掃除システム
JP6945144B2 (ja) 掃除情報提供装置、および掃除機システム
CN217365667U (zh) 自动清洁设备
CN217792839U (zh) 自动清洁设备
CN114608520A (zh) 一种测距方法、装置、机器人和存储介质

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190121