JP2017507440A - 掃除方法、装置、プログラム及び記録媒体 - Google Patents

掃除方法、装置、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2017507440A
JP2017507440A JP2016563238A JP2016563238A JP2017507440A JP 2017507440 A JP2017507440 A JP 2017507440A JP 2016563238 A JP2016563238 A JP 2016563238A JP 2016563238 A JP2016563238 A JP 2016563238A JP 2017507440 A JP2017507440 A JP 2017507440A
Authority
JP
Japan
Prior art keywords
monitoring
dust
cleaning
area
garbage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016563238A
Other languages
English (en)
Other versions
JP6199507B2 (ja
Inventor
▲鵬▼▲飛▼ ▲張▼
▲鵬▼▲飛▼ ▲張▼
勇峰 夏
勇峰 夏
益冬 王
益冬 王
▲鐵▼▲俊▼ ▲劉▼
▲鐵▼▲俊▼ ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Inc
Original Assignee
Xiaomi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Inc filed Critical Xiaomi Inc
Publication of JP2017507440A publication Critical patent/JP2017507440A/ja
Application granted granted Critical
Publication of JP6199507B2 publication Critical patent/JP6199507B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/281Parameters or conditions being sensed the amount or condition of incoming dirt or dust
    • A47L9/2815Parameters or conditions being sensed the amount or condition of incoming dirt or dust using optical detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/2826Parameters or conditions being sensed the condition of the floor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2894Details related to signal transmission in suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Selective Calling Equipment (AREA)

Abstract

本発明は、掃除方法、装置、プログラム及び記録媒体に関し、スマートホームの分野に属する。前記方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することと、を含む。本発明は、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつゴミの位置情報に基いて正確にゴミを掃除するという効果を達成する。【選択図】 図2

Description

本願は、出願番号がCN2014107643948で、出願日が2014年12月11日である中国特許出願に基づき優先権を主張し、該中国特許出願のすべての内容を本願に援用する。
本発明はスマートホームの分野に関し、特に掃除方法及び装置に関する。
掃除ロボットは、一定の人工知能に頼って自動的に部屋内に床掃除作業を完了する家電製品である。
掃除ロボットは、通常、予約掃除方式を採用する。即ち、ユーザが掃除ロボットに指定時間を設定し、該指定時間は、通常、ユーザが外出した後の時間である。掃除ロボットは、該指定時間で作業し始めて、床掃除を完了することができる。
従来の技術で掃除ロボットの掃除効率が低いという問題を解決するために、本発明の実施例は掃除方法及び装置を提供する。上記技術手段は以下のとおりである。
本発明の実施例の第1の態様によれば、
モニタリングエリアに対するモニタリング内容を取得することと、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することと、
を含む掃除方法を提供する。
1つの実施例において、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することは、
モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断すること、
モニタリング内容における2フレームの画像間の相違エリアを対比し、相違エリアに基いてモニタリングエリアにゴミが存在するか否かを検出すること、又は、
モニタリング内容における画像が変わるか否かを検出し、モニタリング内容における画像が変わった場合は、変わった画像にゴミが存在するか否かを認識すること、を含む。
1つの実施例において、ゴミのモニタリングエリアでの位置情報を取得することは、
モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、
モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化することと、
ゴミのモデル化された後の地面上の位置情報を計算することと、を含む。
1つの実施例において、ゴミのモニタリングエリアでの位置情報を取得することは、
ゴミがモニタリング内容において所在するゴミエリアと、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において掃除ロボットが所在するエリアとをマッチングすることと、
成功裏にマッチングした場合、マッチングしたサンプル画像にバインドされている位置情報を、ゴミのモニタリングエリアでの位置情報として確定することと、を含む。
1つの実施例において、該方法は、
掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録することと、
掃除ロボットが記録の過程において同期に報告した位置情報を受信することと、
各サンプル画像における掃除ロボットが所在するエリアを認識することと、
各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶することと、をさらに含む。
1つの実施例において、該方法は、
ゴミがモニタリングエリアの地面に位置するか否かを検出することと、
ゴミがモニタリングエリアの地面に位置すれば、ゴミのモニタリングエリアでの位置情報を取得するステップを実行することと、をさらに含む。
本発明の実施例の第2の態様によれば、
モニタリング機器から送信したゴミの位置情報を受信することと、
位置情報に基づいてゴミを掃除することと、
を含む掃除方法を提供する。
本発明の実施例の第3の態様によれば、
モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュールと、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュールと、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得するように構成される位置モジュールと、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信するように構成される送信モジュールと、
を含む掃除装置を提供する。
1つの実施例において、検出モジュールは、
モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断するように構成される第1の検出サブモジュール、
モニタリング内容における2フレームの画像間の相違エリアを対比し、相違エリアに基いてモニタリングエリアにゴミが存在するか否かを検出するように構成される第2の検出サブモジュール、又は、
モニタリング内容における画像が変わるか否かを検出し、モニタリング内容における画像が変わった場合は、変わった画像にゴミが存在するか否かを認識するように構成される第3の検出サブモジュール、を含む。
1つの実施例において、位置モジュールは、
モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得するように構成される取得サブモジュールと、
モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化するように構成されるモデル化サブモジュールと、
ゴミのモデル化された後の地面上の位置情報を計算するように構成される計算サブモジュールとを含む。
1つの実施例において、位置モジュールは、
ゴミがモニタリング内容において所在するゴミエリアと、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において掃除ロボットが所在するエリアとをマッチングするように構成されるマッチングサブモジュールと、
成功裏にマッチングした場合、マッチングしたサンプル画像にバインドされている位置情報を、ゴミのモニタリングエリアでの位置情報として確定するように構成される確定サブモジュールと、を含む。
1つの実施例において、該装置は、
掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録するように構成される記録モジュールと、
掃除ロボットが記録の過程において同期に報告した位置情報を受信するように構成される受信モジュールと、
各サンプル画像における掃除ロボットが所在するエリアを認識するように構成される認識モジュールと、
各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶するように構成される記憶モジュールと、をさらに含む。
1つの実施例において、該装置は、
ゴミがモニタリングエリアの地面に位置するか否かを検出するように構成される地面検出モジュールと、
ゴミがモニタリングエリアの地面上に位置すると、ゴミのモニタリングエリアでの位置情報を取得するステップを実行するように構成される位置モジュールと、をさらに含む。
本発明の実施例の第4の態様によれば、
モニタリング機器から送信したゴミの位置情報を受信するように構成される受信モジュールと、
位置情報に基づいてゴミを掃除するように構成される掃除モジュールと、
を含む掃除装置を提供する。
本発明の実施例の第5の態様によれば、
プロセッサと、
プロセッサが実行可能な命令を記憶するメモリと、を含み、
プロセッサは、
モニタリングエリアに対するモニタリング内容を取得し、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出し、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得し、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信する、ように構成される、
掃除装置を提供する。
本発明の実施例の第6の態様によれば、
プロセッサと、
プロセッサが実行可能な命令を記憶するメモリと、を含み、
プロセッサは、
モニタリング機器から送信したゴミの位置情報を受信し、
位置情報に基づいてゴミを掃除する、ように構成される、
掃除装置を提供する。
本発明の実施例に係る技術手段は、以下の有益な効果を含む。
モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
以上の一般的な説明及び後述の詳細な説明は、例示的なものに過ぎず、本発明を限定するものではないことを理解すべきである。
ここで、図面は明細書に組み込んで本明細書の一部とし、本発明に合致する実施例を示すとともに、明細書とともに本発明の原理を説明する。
本発明の実施例に示される掃除方法に関わる1つの実施環境の構造概略図である。 1つの例示的な実施例に示される掃除方法のフローチャートである。 他の例示的な実施例に示される掃除方法のフローチャートである。 他の例示的な実施例に示される掃除方法のフローチャートである。 図4Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 図4Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 図4Aに示される実施例に係る掃除方法におけるステップ404のフローチャートである。 他の例示的な実施例に示される掃除方法のフローチャートである。 図5Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 他の例示的な実施例に示される掃除方法のフローチャートである。 図6Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 1つの例示的な実施例に示される掃除装置のブロック図である。 他の例示的な実施例に示される掃除装置のブロック図である。 1つの例示的な実施例に示される掃除装置のブロック図である。 1つの例示的な実施例に示される掃除装置のブロック図である。 他の例示的な実施例に示される掃除装置のブロック図である。
上記図面から本発明の明確な実施例を例示し、以下、詳しく記述する。これらの図面と文字記述は本発明の思想の範囲を制限するものではなく、特定の実施例を参照することによって、当業者に本発明の概念を理解させるためのものである。
ここで、例示的な実施例を詳しく説明し、その実施例は図面に示される。以下の説明は図面に係る場合、特別に示されない限り、異なる図面における同じ符号は同じ又は共通する要素を示す。本発明に合致するすべての実施の形態は、以下の例示的な実施例で記述される実施の形態に限られない。逆に、以下の例示的な実施例で記述される実施の形態は、特許請求の範囲に詳しく記述される、本発明のいくつかの形態に合致する装置及び方法の例に過ぎない。
図1は、本発明の実施例に示される掃除方法に関わる1つの実施環境の構造概略図である。該実施環境は、モニタリング機器120及び掃除ロボット140を含む。
モニタリング機器120は、一定の計算能力を持つモニタリングカメラでよい。モニタリング機器120は、普通のモニタリングカメラと計算能力を持つ電子機器との組合せであってもよい。該計算能力を持つ電子機器は、スマートフォン、タブレットPC、パソコン又はサーバ等でよい。
モニタリング機器120は、無線信号により掃除ロボット140と通信することができる。該無線信号は、ブルートゥース信号、赤外線信号、WIFI(WIreless−Fidelity)信号及び音波信号のうちいずれか一種でよい。
掃除ロボット140は、掃除能力を持つロボットである。掃除ロボット140は、床掃除ロボット、床拭きロボット等でよい。
図2は、1つの例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1におけるモニタリング機器に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ201では、モニタリングエリアに対するモニタリング内容を取得する。
ステップ202では、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出する。
ステップ203では、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得する。
ステップ204では、ゴミの位置情報を、該位置情報に基づいてゴミを掃除するための掃除ロボットに送信する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、ゴミの位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
図3は、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1における掃除ロボットに用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ301では、モニタリング機器から送信したゴミの位置情報を受信する。
該ゴミの位置情報は、モニタリング機器がモニタリングエリアに対するモニタリング内容を取得し、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出し、モニタリングエリアにゴミが存在すれば、取得して掃除ロボットに送信する情報である。
ステップ302では、該位置情報に基づいてゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、掃除ロボットによりモニタリング機器から送信したゴミの位置情報を受信して、位置情報に基づいてゴミを掃除することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
図4Aは、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1に示される実施環境に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ401では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得する。
モニタリング内容は画像又はビデオでよい。
モニタリング機器がモニタリングカメラであると、モニタリングカメラが撮像してモニタリングエリアの画像又はビデオを取得する。
モニタリング機器がモニタリングカメラと計算能力を持つ電子機器との組合せであると、電子機器は、モニタリングカメラによりモニタリングエリアの画像又はビデオを取得する。
そのうち、ビデオは、連続的なフレーム画像としてみなすことができる。
ステップ402では、モニタリング機器は、モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断する。
ゴミが主にユーザの動作により発生したので、モニタリング機器は、少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断する。
1つの例示的な実現方式として、本ステップは以下のステップを含んでもよい。
第1、モニタリング機器は少なくとも1フレームの画像中にユーザの動作が存在するか否かを認識する。
少なくとも1フレームの画像は、モニタリングビデオにおける連続的なフレーム画像でよい。少なくとも1フレームの画像は、所定の時間ごとに採集された少なくとも1フレームの画像、例えば1秒ごとに採集された画像であってもよい。
第2、ユーザの動作が存在すれば、モニタリング機器は、該動作に対応する運動物体が存在するか否かを検出する。
第3、該動作に対応する運動物体が存在すれば、モニタリング機器は、予め設定されたゴミ物品特徴データベースに基づいて該運動物体がゴミであるか否かを認識する。
例えば、図4Bに示すように、モニタリング機器は、少なくとも1フレームの画像41に基づいてユーザの手を振る動作43が存在することを認識し、モニタリング機器はさらに、画像41に該手を振る動作43に対応する運動物体45が存在することを検出する。次に、モニタリング機器は、予め設定されたゴミ物品特徴データベースに基づいて該運動物体45が紙くずであると認識すれば、モニタリングエリアにゴミが発生したと確定する。
ステップ403では、モニタリングエリアにゴミが存在すれば、モニタリング機器は該ゴミがモニタリングエリアの地面上に位置するか否かを検出する。
掃除ロボットは、通常、地面上のゴミだけを処理できるので、好ましくは、モニタリング機器は該ゴミがモニタリングエリアの地面上に位置するか否かを検出する。
1つの例示的な実施方式として、図4Cに示すように、モニタリング機器は、モニタリングエリアに運動物体が存在しない一枚の画像42を予め採集する。次に、モニタリング機器は、エッジ検出アルゴリズムで該画像42における各種のエッジライン44を認識するとともに、各種のエッジライン44に基づいて画像42を少なくとも1つのエリア46に区画した後、モニタリング機器は、予め設定された地面特徴データベース又はユーザの手動設定操作によってこれらのエリア46における地面エリア48を認識することができる。
モニタリング機器は、ゴミが地面エリア48に位置するか否かを検出することができる。
ステップ404では、該ゴミがモニタリングエリアの地面に位置すれば、モニタリング機器は、ゴミのモニタリングエリアでの位置情報を取得する。
1つの例示的な実現方式として、図4Dに示すように、本ステップは以下のステップを含んでもよい。
ステップ404a、モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得する。
モニタリング機器は、エッジ検出アルゴリズムでモニタリングエリアにおける壁本体と地面との間の交差エッジを取得する。好ましくは、モニタリング機器は、エッジ検出アルゴリズムでモニタリングエリアにおける壁本体と壁本体との間の交差エッジを取得してもよい。
ステップ404b、モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化する。
モニタリング機器は、壁本体と地面との間の交差エッジ、及び壁本体と壁本体との間の交差エッジに基づいて、地面に対して三次元空間モデル化を行う。部屋内部のコーナーが通常直角であるので、モニタリング機器は、異なる交差エッジ間のコーナー及び透視原理に従って、モニタリングエリアにおける地面をモデル化することができる。モニタリングエリアにおける家具、家電製品等の静的物体が予め設定された物体データベースにおける物体である場合、モニタリング機器は、該静的物体の実寸法及び画像における画面寸法に基づいて、地面の実寸法を換算することもできる。
ステップ404c、該ゴミのモデル化された後の地面上の位置情報を計算する。
次に、モニタリング機器は、ゴミのモデル化された後の地面上の位置情報を計算する。
説明すべきことは、ステップ404aとステップ404bの実行タイミングは限られず、モニタリング機器の初期設定時間又は空き時間で実行してもよい。
ステップ405では、モニタリング機器は、ゴミの位置情報を掃除ロボットに送信する。
モニタリング機器は、該ゴミの位置情報を即時に掃除ロボットに送信することができる。
モニタリング機器は、モニタリングエリアに運動物体が存在しない場合に、該ゴミの位置情報を掃除ロボットに送信してもよい。モニタリングエリアに運動物体が存在しない場合、通常、ユーザがすでに該エリアから離れ、掃除ロボットの掃除作業はユーザに影響を及ぼさない。
ステップ406では、掃除ロボットは、モニタリング機器から送信したゴミの位置情報を受信する。
ステップ407では、掃除ロボットは、該位置情報に基づいてゴミを掃除する。
掃除ロボットは、該位置情報に対応する地面エリアに運動した後、該地面エリアにおけるゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、ゴミの位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除方法は、さらに少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断し、モニタリング内容にユーザの動作が存在する場合にのみゴミの判断メカニズムをトリガし、モニタリング機器のゴミ判断効率を高め、無駄な作業量を減少させることができる。
本実施例に係る掃除方法は、さらに、モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、モニタリングエリアにおける各種の交差エッジに基づいて地面をモデル化することにより、ゴミのモニタリングエリアでの位置情報を正確に計算することができる。
図5Aは、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1に示される実施環境に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ501では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得する。
モニタリング内容は画像又はビデオでよい。
モニタリング機器がモニタリングカメラであると、モニタリングカメラが撮像してモニタリングエリアの画像又はビデオを取得する。
モニタリング機器がモニタリングカメラと計算能力を持つ電子機器との組合せであると、電子機器は、モニタリングカメラによりモニタリングエリアの画像又はビデオを取得する。
そのうち、ビデオは、連続的なフレーム画像としてみなすことができる。
ステップ502では、モニタリング機器は、モニタリング内容における2フレームの画像間の相違エリアを対比する。
モニタリング機器は、まずモニタリング内容から2フレームの画像を抽出する。
該2フレームの画像は、ビデオにおける隣接した2フレームの画像、例えば、第nフレームの画像と第n+1フレームの画像でよい。
該2フレームの画像は、予め設定された時間ごとに採集された隣接した2フレームの画像、例えば、5秒ごとに採集された第t秒の画像と第t+5秒の画像であってもよい。
該2フレームの画像のうち1フレームの画像は、運動物体のない背景画像であり、他の1フレームの画像は、モニタリング内容における最近の一枚の画像である。該運動物体のない背景画像は、モニタリング機器によりユーザが外出しかつ掃除ロボットが一回の全体的な掃除作業を完了した後にモニタリングした背景画像でよい。
モニタリング機器は、対比により該2フレームの画像との間の相違エリアを得る。
図5Bを参照すると、画像51が運動物体のない背景画像であり、画像52がモニタリング内容における最近の一枚の画像であり、モニタリング機器は、対比により該2フレームの画像との間の相違エリア53を得る。
ステップ503では、モニタリング機器は、該相違エリアに基づいてモニタリングエリアにゴミが存在するか否かを検出する。
モニタリング機器は、相違エリアを検出した後、2フレームの画像のうちモニタリング時間が後ろである1フレームの画像について、予め設定されたゴミ物品特徴データベースに基づいて該画像における相違エリアがゴミであるか否かを認識する。
ステップ504では、モニタリングエリアにゴミが存在すれば、モニタリング機器は、ゴミがモニタリングエリアの地面に位置するか否かを検出する。
掃除ロボットが通常地面上のゴミのみを処理できるため、好ましくは、モニタリング機器は、ゴミがモニタリングエリアの地面エリアに位置するか否かを検出する。検出方式は上記ステップ403を参照すればよい。
説明すべきことは、ステップ503とステップ504の1つの代替可能な実現方式として、モニタリング機器は相違エリアがモニタリングエリアにおける地面エリアに重なり合うか否かを検出する、重なり合わば、予め設定されたゴミ物品特徴データベースに基づいて該画像における相違エリアがゴミであるか否かを認識するステップを実行する。
ステップ505では、ゴミがモニタリングエリアの地面に位置すれば、モニタリング機器は該ゴミのモニタリングエリアでの位置情報を取得する。
モニタリング機器がゴミの位置情報を取得する方式は、上記ステップ404を参照すればよい。
ステップ506では、モニタリング機器は、該ゴミの位置情報を掃除ロボットに送信する。
モニタリング機器は、該ゴミの位置情報を即時に掃除ロボットに送信することができる。
モニタリング機器は、モニタリングエリアに運動物体が存在しない場合に、該ゴミの位置情報を掃除ロボットに送信してもよい。モニタリングエリアに運動物体が存在しない場合、通常、ユーザがすでに該エリアから離れ、掃除ロボットの掃除作業はユーザに影響を及ぼさない。
ステップ507では、掃除ロボットは、モニタリング機器から送信したゴミの位置情報を受信する。
ステップ508では、掃除ロボットは、該位置情報に基づいてゴミを掃除する。
掃除ロボットは、該位置情報に対応する地面エリアに運動した後、該地面エリアにおけるゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除方法は、さらに、2フレームの画像における相違エリアに基づいてモニタリングエリアにゴミが存在するか否かを検出することにより、計算量が小さくかつ計算速度が速く、計算能力の弱いモニタリング機器で実現でき、高い適用性を有する。
図6Aは、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1に示される実施環境に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ601では、モニタリング機器は、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録する。
いくつかの掃除ロボット自身は地面の位置情報を生成することができ、例えば、掃除ロボットは、多点行列位置特定技術を用いて行列座標で地面の位置情報を示す。モニタリング機器は、掃除ロボット自身で生成した位置情報を利用することができる。
1つの例示的な実施方式として、掃除ロボットが掃除作業状態にある場合、モニタリング機器は、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録する。例えば、掃除ロボットは作業し始まる時に、モニタリング機器に1つの開始信号を送信し、モニタリング機器は該開始信号を受信した後、モニタリング内容における少なくとも1つの画像をサンプル画像とする。
ステップ602では、モニタリング機器は、掃除ロボットが記録の過程において同期に報告した位置情報を受信する。
該過程では、掃除ロボットはそれ自身の位置情報を同期に報告することができる。1つの例示的な位置情報は、「報告時間:xx年xx月xx日xx時xx分xx秒、位置情報:行列座標(x、y)」を含む。
それに対応して、モニタリング機器は、掃除ロボットが該記録過程で同期に報告した位置情報を受信する。
ステップ603では、モニタリング機器は、各サンプル画像における掃除ロボットが所在するエリアを認識する。
モニタリング機器には、掃除ロボットの上蓋特徴が予め設定され、掃除ロボットの上蓋特徴を用いてサンプル画像から掃除ロボットが所在するエリアを認識することができる。
ステップ604では、モニタリング機器は、各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶する。
モニタリング機器に記憶されたバインド関係を例示的に示す。
Figure 2017507440
ステップ605では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得する。
通常のモニタリング過程では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得し、モニタリング内容は画像又はビデオでよい。
モニタリング機器がモニタリングカメラであると、モニタリングカメラは、撮像してモニタリングエリアの画像又はビデオを取得する。
モニタリング機器がモニタリングカメラと計算能力を持つ電子機器との組合せであると、電子機器は、モニタリングカメラによりモニタリングエリアの画像又はビデオを取得する。
そのうち、ビデオは、連続的なフレーム画像としてみなすことができる。
ステップ606では、モニタリング機器は、モニタリング内容における画像が変わるか否かを検出する。
モニタリング機器は、隣接した2フレームの画像が変わるか否かを検出することができる。
或いは、モニタリング機器は、モニタリング内容における画像が運動物体のない背景画像に比べて変わるか否かを検出する。該運動物体のない背景画像は、モニタリング機器によりユーザが外出しかつ掃除ロボットが一回の全体的な掃除作業を完了した後にモニタリングした背景画像でよい。
ステップ607では、モニタリング内容における画像が変わった場合は、モニタリング機器は、変わった画像にゴミが存在するか否かを認識する。
モニタリング機器は、予め設定されたゴミ物品特徴データベースに基づいて、変わった画像にゴミが存在するか否かを認識する。
ステップ608では、モニタリングエリアにゴミが存在すれば、モニタリング機器は、ゴミがモニタリングエリアの地面に位置するか否かを検出する。
掃除ロボットが通常地面上のゴミのみを処理できるため、好ましくは、モニタリング機器は、ゴミがモニタリングエリアの地面エリアに位置するか否かを検出する。検出方式は上記ステップ403を参照すればよい。
説明すべきことは、ステップ606乃至608の1つの代替可能な実現方式として、モニタリング機器は、モニタリング内容の画像における地面エリアが変わるか否かを検出し、地面エリアが変わった場合、変わった画像にゴミが存在するか否かを認識するステップを実行する。
ステップ609では、ゴミがモニタリングエリアの地面に位置すれば、モニタリング機器は、ゴミがモニタリング内容において所在するゴミエリアと、少なくとも1つのサンプル画像において掃除ロボットが所在するエリアとをマッチングする。
該サンプル画像は、該掃除ロボットがモニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像であり、かつ各サンプル画像には、掃除ロボットが同期に報告した位置情報がバインドされている。
図6Bに示すように、モニタリング機器は、ゴミがモニタリング内容61において所在するゴミエリア63と、サンプル画像62で掃除ロボットが所在するエリア64とをマッチングする。該マッチングとは、2つのエリアの一致度が予め設定された閾値を超えたことをいう。図6Bにおけるサンプル画像61は、表1におけるサンプル画像1でよい。
ステップ610では、成功裏にマッチングした場合、モニタリング機器は、マッチングしたサンプル画像にバインドされている位置情報を、ゴミのモニタリングエリアでの位置情報として確定する。
ゴミエリア63と、表1におけるサンプル画像1である掃除ロボットが所在するエリア64とがマッチングしたと仮定すれば、モニタリング機器は、行列座標(x1、y1)をゴミのモニタリングエリアでの位置情報として確定する。
ステップ611では、モニタリング機器は、ゴミの位置情報を掃除ロボットに送信する。
モニタリング機器は、該ゴミの位置情報を即時に掃除ロボットに送信することができる。
モニタリング機器は、モニタリングエリアに運動物体が存在しない場合に、該ゴミの位置情報を掃除ロボットに送信してもよい。モニタリングエリアに運動物体が存在しない場合、通常、ユーザがすでに該エリアから離れ、掃除ロボットの掃除作業はユーザに影響を及ぼさない。
ステップ612では、掃除ロボットは、モニタリング機器から送信したゴミの位置情報を受信する。
ステップ613では、掃除ロボットは、該位置情報に基づいてゴミを掃除する。
掃除ロボットは、該位置情報に対応する地面エリアに運動した後、該地面エリアにおけるゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除方法は、さらに、モニタリング機器が掃除ロボット自身で生成した位置情報に基づいてゴミの位置情報の取得作業を完了することにより、モニタリング機器自身でゴミの位置情報を生成する計算量を減少させ、モニタリング機器に対する計算能力の要件を低減する。
補充説明すべきことは、図4A、図5A及び図6Aは、それぞれモニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出する方式を示し、即ち、三種の異なる検出方式がある。図4A及び図6Aは、それぞれゴミのモニタリングエリアでの位置情報を取得する取得方式を示し、即ち、二種の異なる取得方式がある。該三種の異なる検出方式と二種の異なる取得方式は、六種の異なる実施例に任意に組み合わせることができ、これは、当業者が図4A、図5A及び図6Aの実施例に基づいて想到しやすいものであり、本発明では逐一説明しない。
以下、本発明の装置の実施例であり、本発明の方法の実施例を実行することに用いられる。本発明の装置の実施例に開示しない詳細について、本発明の方法の実施例を参照すればよい。
図7は、1つの例示的な実施例に示される掃除装置のブロック図であり、該掃除装置は、ソフトウェア、ハードウェア又は両者の組合せにより、モニタリング機器の一部又は全部として実現される。該掃除装置は、
モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュール720と、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュール740と、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得するように構成される位置モジュール760と、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信するように構成される送信モジュール780と、を含む。
以上をまとめると、本実施例に係る掃除装置は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
図8は、1つの例示的な実施例に示される掃除装置のブロック図であり、該掃除装置は、ソフトウェア、ハードウェア又は両者の組合せにより、モニタリング機器の一部又は全部として実現される。該掃除装置は、
モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュール720と、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュール740と、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得するように構成される位置モジュール760と、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信するように構成される送信モジュール780と、を含む。
好ましくは、検出モジュール740は、
モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断するように構成される第1の検出サブモジュール742、
モニタリング内容における2フレームの画像間の相違エリアを対比し、相違エリアに基いてモニタリングエリアにゴミが存在するか否かを検出するように構成される第2の検出サブモジュール744、又は、
モニタリング内容における背景において変わったエリアが存在するか否かを検出し、変わったエリアが存在すれば、変わったエリアに基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される第3の検出サブモジュール746を含む。
好ましくは、位置モジュール760は、
モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得するように構成される取得サブモジュール762と、
モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化するように構成されるモデル化サブモジュール764と、
ゴミのモデル化された後の地面上の位置情報を計算するように構成される計算サブモジュール766と、を含む。
好ましくは、位置モジュール760は、
上記ゴミが上記モニタリング内容において所在するゴミエリアと、上記掃除ロボットが上記モニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ上記掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において上記掃除ロボットが所在するエリアとをマッチングするように構成されるマッチングサブモジュール761と、
成功裏にマッチングした場合、マッチングした上記サンプル画像にバインドされている位置情報を、上記ゴミの上記モニタリングエリアでの位置情報として確定するように構成される確定サブモジュール763と、を含む。
好ましくは、該装置はさらに、
掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録するように構成される記録モジュール712と、
掃除ロボットが記録の過程において同期に報告した位置情報を受信するように構成される受信モジュール714と、
各サンプル画像における掃除ロボットが所在するエリアを認識するように構成される認識モジュール716と、
各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶するように構成される記憶モジュール718と、を含む。
好ましくは、該装置はさらに、
ゴミがモニタリングエリアの地面に位置するか否かを検出するように構成される地面検出モジュール790と、
ゴミがモニタリングエリアの地面上に位置すると、ゴミのモニタリングエリアでの位置情報を取得するステップを実行するように構成される位置モジュール760と、を含む。
以上をまとめると、本実施例に係る掃除装置は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除装置は、さらに、モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化することにより、ゴミのモニタリングエリアでの位置情報を正確に計算することができる。
本実施例に係る掃除装置は、さらに、2フレームの画像における相違エリアに基づいてモニタリングエリアにゴミが存在するか否かを検出することにより、計算量が小さくかつ計算速度が速く、計算能力の弱いモニタリング機器で実現でき、高い適用性を有する。
本実施例に係る掃除装置は、さらに、モニタリング機器が掃除ロボット自身で生成した位置情報に基づいてゴミの位置情報の取得作業を完了することにより、モニタリング機器自身でゴミの位置情報を生成する計算量を減少させ、モニタリング機器に対する計算能力の要件を低減する。
図9は、1つの例示的な実施例に示される掃除装置のブロック図であり、該掃除装置は、ソフトウェア、ハードウェア又は両者の組合せにより、掃除ロボットの一部又は全部として実現される。該掃除装置は、
掃除ロボットモニタリング機器から送信したゴミの位置情報を受信するように構成される受信モジュール920と、
位置情報に基づいてゴミを掃除するように構成される掃除モジュール940と、を含み
該ゴミの位置情報は、モニタリング機器がモニタリングエリアに対するモニタリング内容を取得し、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出し、モニタリングエリアにゴミが存在すれば、取得して掃除ロボットに送信する情報である。
以上をまとめると、本実施例に係る掃除装置は、掃除ロボットによりモニタリング機器から送信したゴミの位置情報を受信して、位置情報に基づいてゴミを掃除することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
上記実施例に係る装置については、各モジュールが操作を実行する具体的な方式は、該方法に関する実施例において詳しく説明しているので、ここで詳しく説明しない。
図10は、1つの例示的な実施例に示される掃除装置1000のブロック図である。例えば、装置1000は、モニタリングカメラ、モニタリングカメラとサーバとの組合せ、モニタリングカメラとモバイル端末との組合せであってもよい。
図10を参照すると、装置1000は、プロセスアセンブリ1002、メモリ1004、電源アセンブリ1006、及び通信アセンブリ1016のうち1つ以上のアセンブリを含んでよい。
プロセスアセンブリ1002は、一般的に装置1000全体の操作、アドレス解析、データ送受信及びフロー制御等の操作を制御するものである。プロセスアセンブリ1002は、指令を実行するように1つ以上のプロセッサ1018を含むことにより、上記方法のすべての又は一部のステップを実現するようにしてもよい。なお、プロセスアセンブリ1002は、1つ以上のモジュールを含むことにより、プロセスアセンブリ1002と他のアセンブリの間のインタラクションを容易にするようにしてもよい。
メモリ1004は、各種類のデータを記憶することにより装置1000の操作を支援するように構成される。これらのデータの例は、装置1000において操作されるいずれのアプリケーションプログラム又は方法の命令、ユーザデータ等も含む。メモリ1004は、いずれの種類の揮発性、不揮発性の記憶デバイス又はそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクである。メモリ1004には、1つ以上のモジュールが記憶されており、該1つ以上のモジュールは、該1つ以上のプロセッサ1018により実行することにより、上記掃除方法のすべて又は一部のステップを完了する。
電源アセンブリ1006は、装置1000の多様なアセンブリに電力を供給する。電源アセンブリ1006は、電源管理システム、1つ以上の電源、及び装置1000のための電力の生成、管理及び割り当てに関連する他のアセンブリを含んでもよい。
通信アセンブリ1016は、装置1000と他の機器の間に有線、又は無線形態の通信を提供する。装置1000は、例えばWiFiネットワークのような、通信規格に基づいた無線ネットワークを確立してもよい。1つの例示的な実施例において、通信アセンブリ1016は、放送チャンネルを介して外部へ放送信号又は放送に関連する情報を送信する。
例示的な実施例において、装置1000は、一つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子部品によって実現されるものであり、上記掃除方法を実行する。
例示的な実施例において、さらに、指令を含むコンピュータ読み取り可能な非一時的な記憶媒体、例えば、指令を含むメモリ10を提供し、装置1000のプロセッサ1018により上記指令を実行して上記掃除方法を実現する。例えば、上記コンピュータ読み取り可能な非一時的な記憶媒体は、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク及び光データ記憶機器などであってもよい。
図11は、1つの例示的な実施例に示される掃除装置1100のブロック図である。例えば、装置1100は、床掃除ロボット、床拭きロボット等であってもよい。
図11を参照すると、装置1100は、プロセスアセンブリ1102、メモリ1104、電源アセンブリ1106、運動アセンブリ1108、掃除アセンブリ1110及び通信アセンブリ1116のうち1つ以上のアセンブリを含んでもよい。
プロセスアセンブリ1102は、一般的に装置1100全体の操作、アドレス解析、データ送受信及びフロー制御等の操作を制御するものである。プロセスアセンブリ1102は、指令を実行するように1つ以上のプロセッサ1118を含むことにより、上記方法のすべての又は一部のステップを実現するようにしてもよい。なお、プロセスアセンブリ1102は、1つ以上のモジュールを含むことにより、プロセスアセンブリ1102と他のアセンブリの間のインタラクションを容易にするようにしてもよい。
メモリ1104は、各種類のデータを記憶することにより装置1100の操作を支援するように構成される。これらのデータの例は、装置1100において操作されるいずれのアプリケーションプログラム又は方法の命令、ユーザデータ等も含む。メモリ1104は、いずれの種類の揮発性、不揮発性の記憶デバイス又はそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクである。メモリ1104には、1つ以上のモジュールが記憶されており、該1つ以上のモジュールは、該1つ以上のプロセッサ1118により実行することにより、上記掃除方法のすべて又は一部のステップを完了する。
電源アセンブリ1106は、装置1100の多様なアセンブリに電力を供給する。電源アセンブリ1106は、電源管理システム、1つ以上の電源、及び装置1100のための電力の生成、管理及び割り当てに関連する他のアセンブリを含んでもよい。
運動アセンブリ1108は、装置1100に移動能力を提供するための機械装置である。運動アセンブリ1108は、ホイール、クローラ又は機械足であってもよい。
掃除アセンブリ1110は、ゴミを掃除するための機械装置である。掃除アセンブリ1110は、集塵アセンブリ、清掃アセンブリ又は床拭きアセンブリであってもよい。
通信アセンブリ1116は、装置1100と他の機器の間に有線、又は無線形態の通信を提供する。装置1100は、例えばWiFiネットワークのような、通信規格に基づいた無線ネットワークを確立してもよい。1つの例示的な実施例において、通信アセンブリ1116は、放送チャンネルを介して外部へ放送信号又は放送に関連する情報を送信する。
例示的な実施例において、装置1100は、一つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子部品によって実現されるものであり、上記掃除方法を実行する。
例示的な実施例において、さらに、指令を含むコンピュータ読み取り可能な非一時的な記憶媒体、例えば、指令を含むメモリ11を提供し、装置1100のプロセッサ1118により上記指令を実行して上記掃除方法を実現する。例えば、上記コンピュータ読み取り可能な非一時的な記憶媒体は、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク及び光データ記憶機器などであってもよい。
当業者にとって、明細書を考慮してこの発明を実施した後、本発明のその他の実施の形態を容易に想到し得ることができる。本願は、本発明のいかなる変形、用途又は適応的変化をカバーすることを目的とし、これら変形、用途又は適応的変化は、本発明の一般的原理に従うとともに、本発明に開示されていない本技術分野における公知の常識又は慣用の技術手段を含む。明細書及び実施例は、例示的なものに過ぎず、本発明の本当の範囲及び主旨は、特許請求の範囲に含まれる。
本発明は、以上のように説明すると共に図面に示された正確な構造に限られず、その要旨を逸脱しない範囲内で各種の補正及び変更を行うことができると理解すべきである。本発明の範囲は、特許請求の範囲のみで限定される。


本願は、出願番号がCN2014107643948で、出願日が2014年12月11日である中国特許出願に基づき優先権を主張し、該中国特許出願のすべての内容を本願に援用する。
本発明はスマートホームの分野に関し、特に掃除方法装置、プログラム及び記録媒体に関する。
掃除ロボットは、一定の人工知能に頼って自動的に部屋内に床掃除作業を完了する家電製品である。
掃除ロボットは、通常、予約掃除方式を採用する。即ち、ユーザが掃除ロボットに指定時間を設定し、該指定時間は、通常、ユーザが外出した後の時間である。掃除ロボットは、該指定時間で作業し始めて、床掃除を完了することができる。
従来の技術で掃除ロボットの掃除効率が低いという問題を解決するために、本発明の実施例は掃除方法装置、プログラム及び記録媒体を提供する。上記技術手段は以下のとおりである。
本発明の実施例の第1の態様によれば、
モニタリングエリアに対するモニタリング内容を取得することと、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することと、
を含む掃除方法を提供する。
1つの実施例において、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することは、
モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断すること、
モニタリング内容における2フレームの画像間の相違エリアを対比し、相違エリアに基いてモニタリングエリアにゴミが存在するか否かを検出すること、又は、
モニタリング内容における画像が変わるか否かを検出し、モニタリング内容における画像が変わった場合は、変わった画像にゴミが存在するか否かを認識すること、を含む。
1つの実施例において、ゴミのモニタリングエリアでの位置情報を取得することは、
モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、
モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化することと、
ゴミのモデル化された後の地面上の位置情報を計算することと、を含む。
1つの実施例において、ゴミのモニタリングエリアでの位置情報を取得することは、
ゴミがモニタリング内容において所在するゴミエリアと、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において掃除ロボットが所在するエリアとをマッチングすることと、
成功裏にマッチングした場合、マッチングしたサンプル画像にバインドされている位置情報を、ゴミのモニタリングエリアでの位置情報として確定することと、を含む。
1つの実施例において、該方法は、
掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録することと、
掃除ロボットが記録の過程において同期に報告した位置情報を受信することと、
各サンプル画像における掃除ロボットが所在するエリアを認識することと、
各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶することと、をさらに含む。
1つの実施例において、該方法は、
ゴミがモニタリングエリアの地面に位置するか否かを検出することと、
ゴミがモニタリングエリアの地面に位置すれば、ゴミのモニタリングエリアでの位置情報を取得するステップを実行することと、をさらに含む。
本発明の実施例の第2の態様によれば、
モニタリング機器から送信したゴミの位置情報を受信することと、
位置情報に基づいてゴミを掃除することと、
を含む掃除方法を提供する。
本発明の実施例の第3の態様によれば、
モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュールと、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュールと、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得するように構成される位置モジュールと、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信するように構成される送信モジュールと、
を含む掃除装置を提供する。
1つの実施例において、検出モジュールは、
モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断するように構成される第1の検出サブモジュール、
モニタリング内容における2フレームの画像間の相違エリアを対比し、相違エリアに基いてモニタリングエリアにゴミが存在するか否かを検出するように構成される第2の検出サブモジュール、又は、
モニタリング内容における画像が変わるか否かを検出し、モニタリング内容における画像が変わった場合は、変わった画像にゴミが存在するか否かを認識するように構成される第3の検出サブモジュール、を含む。
1つの実施例において、位置モジュールは、
モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得するように構成される取得サブモジュールと、
モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化するように構成されるモデル化サブモジュールと、
ゴミのモデル化された後の地面上の位置情報を計算するように構成される計算サブモジュールとを含む。
1つの実施例において、位置モジュールは、
ゴミがモニタリング内容において所在するゴミエリアと、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において掃除ロボットが所在するエリアとをマッチングするように構成されるマッチングサブモジュールと、
成功裏にマッチングした場合、マッチングしたサンプル画像にバインドされている位置情報を、ゴミのモニタリングエリアでの位置情報として確定するように構成される確定サブモジュールと、を含む。
1つの実施例において、該装置は、
掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録するように構成される記録モジュールと、
掃除ロボットが記録の過程において同期に報告した位置情報を受信するように構成される受信モジュールと、
各サンプル画像における掃除ロボットが所在するエリアを認識するように構成される認識モジュールと、
各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶するように構成される記憶モジュールと、をさらに含む。
1つの実施例において、該装置は、
ゴミがモニタリングエリアの地面に位置するか否かを検出するように構成される地面検出モジュールと、
ゴミがモニタリングエリアの地面上に位置すると、ゴミのモニタリングエリアでの位置情報を取得するステップを実行するように構成される位置モジュールと、をさらに含む。
本発明の実施例の第4の態様によれば、
モニタリング機器から送信したゴミの位置情報を受信するように構成される受信モジュールと、
位置情報に基づいてゴミを掃除するように構成される掃除モジュールと、
を含む掃除装置を提供する。
本発明の実施例の第5の態様によれば、
プロセッサと、
プロセッサが実行可能な命令を記憶するメモリと、を含み、
プロセッサは、
モニタリングエリアに対するモニタリング内容を取得し、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出し、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得し、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信する、ように構成される、
掃除装置を提供する。
本発明の実施例の第6の態様によれば、
プロセッサと、
プロセッサが実行可能な命令を記憶するメモリと、を含み、
プロセッサは、
モニタリング機器から送信したゴミの位置情報を受信し、
位置情報に基づいてゴミを掃除する、ように構成される、
掃除装置を提供する。
本発明の実施例の第7の態様によれば、プロセッサに実行されることにより、前記の掃除方法を実現することを特徴とするプログラムを提供する。
本発明の実施例の第8の態様によれば、前記のプログラムが記録された記録媒体を提供する。
本発明の実施例に係る技術手段は、以下の有益な効果を含む。
モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
以上の一般的な説明及び後述の詳細な説明は、例示的なものに過ぎず、本発明を限定するものではないことを理解すべきである。
ここで、図面は明細書に組み込んで本明細書の一部とし、本発明に合致する実施例を示すとともに、明細書とともに本発明の原理を説明する。
本発明の実施例に示される掃除方法に関わる1つの実施環境の構造概略図である。 1つの例示的な実施例に示される掃除方法のフローチャートである。 他の例示的な実施例に示される掃除方法のフローチャートである。 他の例示的な実施例に示される掃除方法のフローチャートである。 図4Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 図4Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 図4Aに示される実施例に係る掃除方法におけるステップ404のフローチャートである。 他の例示的な実施例に示される掃除方法のフローチャートである。 図5Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 他の例示的な実施例に示される掃除方法のフローチャートである。 図6Aに示される実施例に係る掃除方法に関わる1つのシーン概略図である。 1つの例示的な実施例に示される掃除装置のブロック図である。 他の例示的な実施例に示される掃除装置のブロック図である。 1つの例示的な実施例に示される掃除装置のブロック図である。 1つの例示的な実施例に示される掃除装置のブロック図である。 他の例示的な実施例に示される掃除装置のブロック図である。
上記図面から本発明の明確な実施例を例示し、以下、詳しく記述する。これらの図面と文字記述は本発明の思想の範囲を制限するものではなく、特定の実施例を参照することによって、当業者に本発明の概念を理解させるためのものである。
ここで、例示的な実施例を詳しく説明し、その実施例は図面に示される。以下の説明は図面に係る場合、特別に示されない限り、異なる図面における同じ符号は同じ又は共通する要素を示す。本発明に合致するすべての実施の形態は、以下の例示的な実施例で記述される実施の形態に限られない。逆に、以下の例示的な実施例で記述される実施の形態は、特許請求の範囲に詳しく記述される、本発明のいくつかの形態に合致する装置及び方法の例に過ぎない。
図1は、本発明の実施例に示される掃除方法に関わる1つの実施環境の構造概略図である。該実施環境は、モニタリング機器120及び掃除ロボット140を含む。
モニタリング機器120は、一定の計算能力を持つモニタリングカメラでよい。モニタリング機器120は、普通のモニタリングカメラと計算能力を持つ電子機器との組合せであってもよい。該計算能力を持つ電子機器は、スマートフォン、タブレットPC、パソコン又はサーバ等でよい。
モニタリング機器120は、無線信号により掃除ロボット140と通信することができる。該無線信号は、ブルートゥース信号、赤外線信号、WIFI(WIreless−Fidelity)信号及び音波信号のうちいずれか一種でよい。
掃除ロボット140は、掃除能力を持つロボットである。掃除ロボット140は、床掃除ロボット、床拭きロボット等でよい。
図2は、1つの例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1におけるモニタリング機器に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ201では、モニタリングエリアに対するモニタリング内容を取得する。
ステップ202では、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出する。
ステップ203では、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得する。
ステップ204では、ゴミの位置情報を、該位置情報に基づいてゴミを掃除するための掃除ロボットに送信する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、ゴミの位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
図3は、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1における掃除ロボットに用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ301では、モニタリング機器から送信したゴミの位置情報を受信する。
該ゴミの位置情報は、モニタリング機器がモニタリングエリアに対するモニタリング内容を取得し、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出し、モニタリングエリアにゴミが存在すれば、取得して掃除ロボットに送信する情報である。
ステップ302では、該位置情報に基づいてゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、掃除ロボットによりモニタリング機器から送信したゴミの位置情報を受信して、位置情報に基づいてゴミを掃除することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
図4Aは、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1に示される実施環境に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ401では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得する。
モニタリング内容は画像又はビデオでよい。
モニタリング機器がモニタリングカメラであると、モニタリングカメラが撮像してモニタリングエリアの画像又はビデオを取得する。
モニタリング機器がモニタリングカメラと計算能力を持つ電子機器との組合せであると、電子機器は、モニタリングカメラによりモニタリングエリアの画像又はビデオを取得する。
そのうち、ビデオは、連続的なフレーム画像としてみなすことができる。
ステップ402では、モニタリング機器は、モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断する。
ゴミが主にユーザの動作により発生したので、モニタリング機器は、少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断する。
1つの例示的な実現方式として、本ステップは以下のステップを含んでもよい。
第1、モニタリング機器は少なくとも1フレームの画像中にユーザの動作が存在するか否かを認識する。
少なくとも1フレームの画像は、モニタリングビデオにおける連続的なフレーム画像でよい。少なくとも1フレームの画像は、所定の時間ごとに採集された少なくとも1フレームの画像、例えば1秒ごとに採集された画像であってもよい。
第2、ユーザの動作が存在すれば、モニタリング機器は、該動作に対応する運動物体が存在するか否かを検出する。
第3、該動作に対応する運動物体が存在すれば、モニタリング機器は、予め設定されたゴミ物品特徴データベースに基づいて該運動物体がゴミであるか否かを認識する。
例えば、図4Bに示すように、モニタリング機器は、少なくとも1フレームの画像41に基づいてユーザの手を振る動作43が存在することを認識し、モニタリング機器はさらに、画像41に該手を振る動作43に対応する運動物体45が存在することを検出する。次に、モニタリング機器は、予め設定されたゴミ物品特徴データベースに基づいて該運動物体45が紙くずであると認識すれば、モニタリングエリアにゴミが発生したと確定する。
ステップ403では、モニタリングエリアにゴミが存在すれば、モニタリング機器は該ゴミがモニタリングエリアの地面上に位置するか否かを検出する。
掃除ロボットは、通常、地面上のゴミだけを処理できるので、好ましくは、モニタリング機器は該ゴミがモニタリングエリアの地面上に位置するか否かを検出する。
1つの例示的な実施方式として、図4Cに示すように、モニタリング機器は、モニタリングエリアに運動物体が存在しない一枚の画像42を予め採集する。次に、モニタリング機器は、エッジ検出アルゴリズムで該画像42における各種のエッジライン44を認識するとともに、各種のエッジライン44に基づいて画像42を少なくとも1つのエリア46に区画した後、モニタリング機器は、予め設定された地面特徴データベース又はユーザの手動設定操作によってこれらのエリア46における地面エリア48を認識することができる。
モニタリング機器は、ゴミが地面エリア48に位置するか否かを検出することができる。
ステップ404では、該ゴミがモニタリングエリアの地面に位置すれば、モニタリング機器は、ゴミのモニタリングエリアでの位置情報を取得する。
1つの例示的な実現方式として、図4Dに示すように、本ステップは以下のステップを含んでもよい。
ステップ404a、モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得する。
モニタリング機器は、エッジ検出アルゴリズムでモニタリングエリアにおける壁本体と地面との間の交差エッジを取得する。好ましくは、モニタリング機器は、エッジ検出アルゴリズムでモニタリングエリアにおける壁本体と壁本体との間の交差エッジを取得してもよい。
ステップ404b、モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化する。
モニタリング機器は、壁本体と地面との間の交差エッジ、及び壁本体と壁本体との間の交差エッジに基づいて、地面に対して三次元空間モデル化を行う。部屋内部のコーナーが通常直角であるので、モニタリング機器は、異なる交差エッジ間のコーナー及び透視原理に従って、モニタリングエリアにおける地面をモデル化することができる。モニタリングエリアにおける家具、家電製品等の静的物体が予め設定された物体データベースにおける物体である場合、モニタリング機器は、該静的物体の実寸法及び画像における画面寸法に基づいて、地面の実寸法を換算することもできる。
ステップ404c、該ゴミのモデル化された後の地面上の位置情報を計算する。
次に、モニタリング機器は、ゴミのモデル化された後の地面上の位置情報を計算する。
説明すべきことは、ステップ404aとステップ404bの実行タイミングは限られず、モニタリング機器の初期設定時間又は空き時間で実行してもよい。
ステップ405では、モニタリング機器は、ゴミの位置情報を掃除ロボットに送信する。
モニタリング機器は、該ゴミの位置情報を即時に掃除ロボットに送信することができる。
モニタリング機器は、モニタリングエリアに運動物体が存在しない場合に、該ゴミの位置情報を掃除ロボットに送信してもよい。モニタリングエリアに運動物体が存在しない場合、通常、ユーザがすでに該エリアから離れ、掃除ロボットの掃除作業はユーザに影響を及ぼさない。
ステップ406では、掃除ロボットは、モニタリング機器から送信したゴミの位置情報を受信する。
ステップ407では、掃除ロボットは、該位置情報に基づいてゴミを掃除する。
掃除ロボットは、該位置情報に対応する地面エリアに運動した後、該地面エリアにおけるゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、ゴミの位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除方法は、さらに少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断し、モニタリング内容にユーザの動作が存在する場合にのみゴミの判断メカニズムをトリガし、モニタリング機器のゴミ判断効率を高め、無駄な作業量を減少させることができる。
本実施例に係る掃除方法は、さらに、モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、モニタリングエリアにおける各種の交差エッジに基づいて地面をモデル化することにより、ゴミのモニタリングエリアでの位置情報を正確に計算することができる。
図5Aは、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1に示される実施環境に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ501では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得する。
モニタリング内容は画像又はビデオでよい。
モニタリング機器がモニタリングカメラであると、モニタリングカメラが撮像してモニタリングエリアの画像又はビデオを取得する。
モニタリング機器がモニタリングカメラと計算能力を持つ電子機器との組合せであると、電子機器は、モニタリングカメラによりモニタリングエリアの画像又はビデオを取得する。
そのうち、ビデオは、連続的なフレーム画像としてみなすことができる。
ステップ502では、モニタリング機器は、モニタリング内容における2フレームの画像間の相違エリアを対比する。
モニタリング機器は、まずモニタリング内容から2フレームの画像を抽出する。
該2フレームの画像は、ビデオにおける隣接した2フレームの画像、例えば、第nフレームの画像と第n+1フレームの画像でよい。
該2フレームの画像は、予め設定された時間ごとに採集された隣接した2フレームの画像、例えば、5秒ごとに採集された第t秒の画像と第t+5秒の画像であってもよい。
該2フレームの画像のうち1フレームの画像は、運動物体のない背景画像であり、他の1フレームの画像は、モニタリング内容における最近の一枚の画像である。該運動物体のない背景画像は、モニタリング機器によりユーザが外出しかつ掃除ロボットが一回の全体的な掃除作業を完了した後にモニタリングした背景画像でよい。
モニタリング機器は、対比により該2フレームの画像との間の相違エリアを得る。
図5Bを参照すると、画像51が運動物体のない背景画像であり、画像52がモニタリング内容における最近の一枚の画像であり、モニタリング機器は、対比により該2フレームの画像との間の相違エリア53を得る。
ステップ503では、モニタリング機器は、該相違エリアに基づいてモニタリングエリアにゴミが存在するか否かを検出する。
モニタリング機器は、相違エリアを検出した後、2フレームの画像のうちモニタリング時間が後ろである1フレームの画像について、予め設定されたゴミ物品特徴データベースに基づいて該画像における相違エリアがゴミであるか否かを認識する。
ステップ504では、モニタリングエリアにゴミが存在すれば、モニタリング機器は、ゴミがモニタリングエリアの地面に位置するか否かを検出する。
掃除ロボットが通常地面上のゴミのみを処理できるため、好ましくは、モニタリング機器は、ゴミがモニタリングエリアの地面エリアに位置するか否かを検出する。検出方式は上記ステップ403を参照すればよい。
説明すべきことは、ステップ503とステップ504の1つの代替可能な実現方式として、モニタリング機器は相違エリアがモニタリングエリアにおける地面エリアに重なり合うか否かを検出する、重なり合わば、予め設定されたゴミ物品特徴データベースに基づいて該画像における相違エリアがゴミであるか否かを認識するステップを実行する。
ステップ505では、ゴミがモニタリングエリアの地面に位置すれば、モニタリング機器は該ゴミのモニタリングエリアでの位置情報を取得する。
モニタリング機器がゴミの位置情報を取得する方式は、上記ステップ404を参照すればよい。
ステップ506では、モニタリング機器は、該ゴミの位置情報を掃除ロボットに送信する。
モニタリング機器は、該ゴミの位置情報を即時に掃除ロボットに送信することができる。
モニタリング機器は、モニタリングエリアに運動物体が存在しない場合に、該ゴミの位置情報を掃除ロボットに送信してもよい。モニタリングエリアに運動物体が存在しない場合、通常、ユーザがすでに該エリアから離れ、掃除ロボットの掃除作業はユーザに影響を及ぼさない。
ステップ507では、掃除ロボットは、モニタリング機器から送信したゴミの位置情報を受信する。
ステップ508では、掃除ロボットは、該位置情報に基づいてゴミを掃除する。
掃除ロボットは、該位置情報に対応する地面エリアに運動した後、該地面エリアにおけるゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除方法は、さらに、2フレームの画像における相違エリアに基づいてモニタリングエリアにゴミが存在するか否かを検出することにより、計算量が小さくかつ計算速度が速く、計算能力の弱いモニタリング機器で実現でき、高い適用性を有する。
図6Aは、他の例示的な実施例に示される掃除方法のフローチャートであり、本実施例は、該掃除方法を図1に示される実施環境に用いることを例として説明する。該掃除方法は、以下のいくつかのステップを含んでよい。
ステップ601では、モニタリング機器は、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録する。
いくつかの掃除ロボット自身は地面の位置情報を生成することができ、例えば、掃除ロボットは、多点行列位置特定技術を用いて行列座標で地面の位置情報を示す。モニタリング機器は、掃除ロボット自身で生成した位置情報を利用することができる。
1つの例示的な実施方式として、掃除ロボットが掃除作業状態にある場合、モニタリング機器は、掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録する。例えば、掃除ロボットは作業し始まる時に、モニタリング機器に1つの開始信号を送信し、モニタリング機器は該開始信号を受信した後、モニタリング内容における少なくとも1つの画像をサンプル画像とする。
ステップ602では、モニタリング機器は、掃除ロボットが記録の過程において同期に報告した位置情報を受信する。
該過程では、掃除ロボットはそれ自身の位置情報を同期に報告することができる。1つの例示的な位置情報は、「報告時間:xx年xx月xx日xx時xx分xx秒、位置情報:行列座標(x、y)」を含む。
それに対応して、モニタリング機器は、掃除ロボットが該記録過程で同期に報告した位置情報を受信する。
ステップ603では、モニタリング機器は、各サンプル画像における掃除ロボットが所在するエリアを認識する。
モニタリング機器には、掃除ロボットの上蓋特徴が予め設定され、掃除ロボットの上蓋特徴を用いてサンプル画像から掃除ロボットが所在するエリアを認識することができる。
ステップ604では、モニタリング機器は、各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶する。
モニタリング機器に記憶されたバインド関係を例示的に示す。
Figure 2017507440
ステップ605では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得する。
通常のモニタリング過程では、モニタリング機器はモニタリングエリアに対するモニタリング内容を取得し、モニタリング内容は画像又はビデオでよい。
モニタリング機器がモニタリングカメラであると、モニタリングカメラは、撮像してモニタリングエリアの画像又はビデオを取得する。
モニタリング機器がモニタリングカメラと計算能力を持つ電子機器との組合せであると、電子機器は、モニタリングカメラによりモニタリングエリアの画像又はビデオを取得する。
そのうち、ビデオは、連続的なフレーム画像としてみなすことができる。
ステップ606では、モニタリング機器は、モニタリング内容における画像が変わるか否かを検出する。
モニタリング機器は、隣接した2フレームの画像が変わるか否かを検出することができる。
或いは、モニタリング機器は、モニタリング内容における画像が運動物体のない背景画像に比べて変わるか否かを検出する。該運動物体のない背景画像は、モニタリング機器によりユーザが外出しかつ掃除ロボットが一回の全体的な掃除作業を完了した後にモニタリングした背景画像でよい。
ステップ607では、モニタリング内容における画像が変わった場合は、モニタリング機器は、変わった画像にゴミが存在するか否かを認識する。
モニタリング機器は、予め設定されたゴミ物品特徴データベースに基づいて、変わった画像にゴミが存在するか否かを認識する。
ステップ608では、モニタリングエリアにゴミが存在すれば、モニタリング機器は、ゴミがモニタリングエリアの地面に位置するか否かを検出する。
掃除ロボットが通常地面上のゴミのみを処理できるため、好ましくは、モニタリング機器は、ゴミがモニタリングエリアの地面エリアに位置するか否かを検出する。検出方式は上記ステップ403を参照すればよい。
説明すべきことは、ステップ606乃至608の1つの代替可能な実現方式として、モニタリング機器は、モニタリング内容の画像における地面エリアが変わるか否かを検出し、地面エリアが変わった場合、変わった画像にゴミが存在するか否かを認識するステップを実行する。
ステップ609では、ゴミがモニタリングエリアの地面に位置すれば、モニタリング機器は、ゴミがモニタリング内容において所在するゴミエリアと、少なくとも1つのサンプル画像において掃除ロボットが所在するエリアとをマッチングする。
該サンプル画像は、該掃除ロボットがモニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像であり、かつ各サンプル画像には、掃除ロボットが同期に報告した位置情報がバインドされている。
図6Bに示すように、モニタリング機器は、ゴミがモニタリング内容61において所在するゴミエリア63と、サンプル画像62で掃除ロボットが所在するエリア64とをマッチングする。該マッチングとは、2つのエリアの一致度が予め設定された閾値を超えたことをいう。図6Bにおけるサンプル画像61は、表1におけるサンプル画像1でよい。
ステップ610では、成功裏にマッチングした場合、モニタリング機器は、マッチングしたサンプル画像にバインドされている位置情報を、ゴミのモニタリングエリアでの位置情報として確定する。
ゴミエリア63と、表1におけるサンプル画像1である掃除ロボットが所在するエリア64とがマッチングしたと仮定すれば、モニタリング機器は、行列座標(x1、y1)をゴミのモニタリングエリアでの位置情報として確定する。
ステップ611では、モニタリング機器は、ゴミの位置情報を掃除ロボットに送信する。
モニタリング機器は、該ゴミの位置情報を即時に掃除ロボットに送信することができる。
モニタリング機器は、モニタリングエリアに運動物体が存在しない場合に、該ゴミの位置情報を掃除ロボットに送信してもよい。モニタリングエリアに運動物体が存在しない場合、通常、ユーザがすでに該エリアから離れ、掃除ロボットの掃除作業はユーザに影響を及ぼさない。
ステップ612では、掃除ロボットは、モニタリング機器から送信したゴミの位置情報を受信する。
ステップ613では、掃除ロボットは、該位置情報に基づいてゴミを掃除する。
掃除ロボットは、該位置情報に対応する地面エリアに運動した後、該地面エリアにおけるゴミを掃除する。
以上をまとめると、本実施例に係る掃除方法は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除方法は、さらに、モニタリング機器が掃除ロボット自身で生成した位置情報に基づいてゴミの位置情報の取得作業を完了することにより、モニタリング機器自身でゴミの位置情報を生成する計算量を減少させ、モニタリング機器に対する計算能力の要件を低減する。
補充説明すべきことは、図4A、図5A及び図6Aは、それぞれモニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出する方式を示し、即ち、三種の異なる検出方式がある。図4A及び図6Aは、それぞれゴミのモニタリングエリアでの位置情報を取得する取得方式を示し、即ち、二種の異なる取得方式がある。該三種の異なる検出方式と二種の異なる取得方式は、六種の異なる実施例に任意に組み合わせることができ、これは、当業者が図4A、図5A及び図6Aの実施例に基づいて想到しやすいものであり、本発明では逐一説明しない。
以下、本発明の装置の実施例であり、本発明の方法の実施例を実行することに用いられる。本発明の装置の実施例に開示しない詳細について、本発明の方法の実施例を参照すればよい。
図7は、1つの例示的な実施例に示される掃除装置のブロック図であり、該掃除装置は、ソフトウェア、ハードウェア又は両者の組合せにより、モニタリング機器の一部又は全部として実現される。該掃除装置は、
モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュール720と、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュール740と、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得するように構成される位置モジュール760と、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信するように構成される送信モジュール780と、を含む。
以上をまとめると、本実施例に係る掃除装置は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
図8は、1つの例示的な実施例に示される掃除装置のブロック図であり、該掃除装置は、ソフトウェア、ハードウェア又は両者の組合せにより、モニタリング機器の一部又は全部として実現される。該掃除装置は、
モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュール720と、
モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュール740と、
モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得するように構成される位置モジュール760と、
ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信するように構成される送信モジュール780と、を含む。
好ましくは、検出モジュール740は、
モニタリング内容における少なくとも1フレームの画像に基づいてユーザの動作によりゴミが発生するか否かを判断するように構成される第1の検出サブモジュール742、
モニタリング内容における2フレームの画像間の相違エリアを対比し、相違エリアに基いてモニタリングエリアにゴミが存在するか否かを検出するように構成される第2の検出サブモジュール744、又は、
モニタリング内容における背景において変わったエリアが存在するか否かを検出し、変わったエリアが存在すれば、変わったエリアに基づいてモニタリングエリアにゴミが存在するか否かを検出するように構成される第3の検出サブモジュール746を含む。
好ましくは、位置モジュール760は、
モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得するように構成される取得サブモジュール762と、
モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化するように構成されるモデル化サブモジュール764と、
ゴミのモデル化された後の地面上の位置情報を計算するように構成される計算サブモジュール766と、を含む。
好ましくは、位置モジュール760は、
上記ゴミが上記モニタリング内容において所在するゴミエリアと、上記掃除ロボットが上記モニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ上記掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において上記掃除ロボットが所在するエリアとをマッチングするように構成されるマッチングサブモジュール761と、
成功裏にマッチングした場合、マッチングした上記サンプル画像にバインドされている位置情報を、上記ゴミの上記モニタリングエリアでの位置情報として確定するように構成される確定サブモジュール763と、を含む。
好ましくは、該装置はさらに、
掃除ロボットがモニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像をサンプル画像として記録するように構成される記録モジュール712と、
掃除ロボットが記録の過程において同期に報告した位置情報を受信するように構成される受信モジュール714と、
各サンプル画像における掃除ロボットが所在するエリアを認識するように構成される認識モジュール716と、
各サンプル画像と、各サンプル画像における掃除ロボットが所在するエリアと、掃除ロボットが同期に報告した位置情報とをバインドして記憶するように構成される記憶モジュール718と、を含む。
好ましくは、該装置はさらに、
ゴミがモニタリングエリアの地面に位置するか否かを検出するように構成される地面検出モジュール790と、
ゴミがモニタリングエリアの地面上に位置すると、ゴミのモニタリングエリアでの位置情報を取得するステップを実行するように構成される位置モジュール760と、を含む。
以上をまとめると、本実施例に係る掃除装置は、モニタリングエリアに対するモニタリング内容を取得することと、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出することと、モニタリングエリアにゴミが存在すれば、ゴミのモニタリングエリアでの位置情報を取得することと、該ゴミの位置情報を、位置情報に基づいてゴミを掃除するための掃除ロボットに送信することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
本実施例に係る掃除装置は、さらに、モニタリング内容に基づいてモニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて地面をモデル化することにより、ゴミのモニタリングエリアでの位置情報を正確に計算することができる。
本実施例に係る掃除装置は、さらに、2フレームの画像における相違エリアに基づいてモニタリングエリアにゴミが存在するか否かを検出することにより、計算量が小さくかつ計算速度が速く、計算能力の弱いモニタリング機器で実現でき、高い適用性を有する。
本実施例に係る掃除装置は、さらに、モニタリング機器が掃除ロボット自身で生成した位置情報に基づいてゴミの位置情報の取得作業を完了することにより、モニタリング機器自身でゴミの位置情報を生成する計算量を減少させ、モニタリング機器に対する計算能力の要件を低減する。
図9は、1つの例示的な実施例に示される掃除装置のブロック図であり、該掃除装置は、ソフトウェア、ハードウェア又は両者の組合せにより、掃除ロボットの一部又は全部として実現される。該掃除装置は、
掃除ロボットモニタリング機器から送信したゴミの位置情報を受信するように構成される受信モジュール920と、
位置情報に基づいてゴミを掃除するように構成される掃除モジュール940と、を含み
該ゴミの位置情報は、モニタリング機器がモニタリングエリアに対するモニタリング内容を取得し、モニタリング内容に基づいてモニタリングエリアにゴミが存在するか否かを検出し、モニタリングエリアにゴミが存在すれば、取得して掃除ロボットに送信する情報である。
以上をまとめると、本実施例に係る掃除装置は、掃除ロボットによりモニタリング機器から送信したゴミの位置情報を受信して、位置情報に基づいてゴミを掃除することにより、掃除ロボットの掃除効率が低いという問題を解決し、速やかにゴミを掃除し、かつ位置情報に基づいて正確にゴミを掃除するという効果を達成する。
上記実施例に係る装置については、各モジュールが操作を実行する具体的な方式は、該方法に関する実施例において詳しく説明しているので、ここで詳しく説明しない。
図10は、1つの例示的な実施例に示される掃除装置1000のブロック図である。例えば、装置1000は、モニタリングカメラ、モニタリングカメラとサーバとの組合せ、モニタリングカメラとモバイル端末との組合せであってもよい。
図10を参照すると、装置1000は、プロセスアセンブリ1002、メモリ1004、電源アセンブリ1006、及び通信アセンブリ1016のうち1つ以上のアセンブリを含んでよい。
プロセスアセンブリ1002は、一般的に装置1000全体の操作、アドレス解析、データ送受信及びフロー制御等の操作を制御するものである。プロセスアセンブリ1002は、指令を実行するように1つ以上のプロセッサ1018を含むことにより、上記方法のすべての又は一部のステップを実現するようにしてもよい。なお、プロセスアセンブリ1002は、1つ以上のモジュールを含むことにより、プロセスアセンブリ1002と他のアセンブリの間のインタラクションを容易にするようにしてもよい。
メモリ1004は、各種類のデータを記憶することにより装置1000の操作を支援するように構成される。これらのデータの例は、装置1000において操作されるいずれのアプリケーションプログラム又は方法の命令、ユーザデータ等も含む。メモリ1004は、いずれの種類の揮発性、不揮発性の記憶デバイス又はそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクである。メモリ1004には、1つ以上のモジュールが記憶されており、該1つ以上のモジュールは、該1つ以上のプロセッサ1018により実行することにより、上記掃除方法のすべて又は一部のステップを完了する。
電源アセンブリ1006は、装置1000の多様なアセンブリに電力を供給する。電源アセンブリ1006は、電源管理システム、1つ以上の電源、及び装置1000のための電力の生成、管理及び割り当てに関連する他のアセンブリを含んでもよい。
通信アセンブリ1016は、装置1000と他の機器の間に有線、又は無線形態の通信を提供する。装置1000は、例えばWiFiネットワークのような、通信規格に基づいた無線ネットワークを確立してもよい。1つの例示的な実施例において、通信アセンブリ1016は、放送チャンネルを介して外部へ放送信号又は放送に関連する情報を送信する。
例示的な実施例において、装置1000は、一つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子部品によって実現されるものであり、上記掃除方法を実行する。
例示的な実施例において、さらに、指令を含むコンピュータ読み取り可能な非一時的な記憶媒体、例えば、指令を含むメモリ10を提供し、装置1000のプロセッサ1018により上記指令を実行して上記掃除方法を実現する。例えば、上記コンピュータ読み取り可能な非一時的な記憶媒体は、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク及び光データ記憶機器などであってもよい。
図11は、1つの例示的な実施例に示される掃除装置1100のブロック図である。例えば、装置1100は、床掃除ロボット、床拭きロボット等であってもよい。
図11を参照すると、装置1100は、プロセスアセンブリ1102、メモリ1104、電源アセンブリ1106、運動アセンブリ1108、掃除アセンブリ1110及び通信アセンブリ1116のうち1つ以上のアセンブリを含んでもよい。
プロセスアセンブリ1102は、一般的に装置1100全体の操作、アドレス解析、データ送受信及びフロー制御等の操作を制御するものである。プロセスアセンブリ1102は、指令を実行するように1つ以上のプロセッサ1118を含むことにより、上記方法のすべての又は一部のステップを実現するようにしてもよい。なお、プロセスアセンブリ1102は、1つ以上のモジュールを含むことにより、プロセスアセンブリ1102と他のアセンブリの間のインタラクションを容易にするようにしてもよい。
メモリ1104は、各種類のデータを記憶することにより装置1100の操作を支援するように構成される。これらのデータの例は、装置1100において操作されるいずれのアプリケーションプログラム又は方法の命令、ユーザデータ等も含む。メモリ1104は、いずれの種類の揮発性、不揮発性の記憶デバイス又はそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクである。メモリ1104には、1つ以上のモジュールが記憶されており、該1つ以上のモジュールは、該1つ以上のプロセッサ1118により実行することにより、上記掃除方法のすべて又は一部のステップを完了する。
電源アセンブリ1106は、装置1100の多様なアセンブリに電力を供給する。電源アセンブリ1106は、電源管理システム、1つ以上の電源、及び装置1100のための電力の生成、管理及び割り当てに関連する他のアセンブリを含んでもよい。
運動アセンブリ1108は、装置1100に移動能力を提供するための機械装置である。運動アセンブリ1108は、ホイール、クローラ又は機械足であってもよい。
掃除アセンブリ1110は、ゴミを掃除するための機械装置である。掃除アセンブリ1110は、集塵アセンブリ、清掃アセンブリ又は床拭きアセンブリであってもよい。
通信アセンブリ1116は、装置1100と他の機器の間に有線、又は無線形態の通信を提供する。装置1100は、例えばWiFiネットワークのような、通信規格に基づいた無線ネットワークを確立してもよい。1つの例示的な実施例において、通信アセンブリ1116は、放送チャンネルを介して外部へ放送信号又は放送に関連する情報を送信する。
例示的な実施例において、装置1100は、一つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子部品によって実現されるものであり、上記掃除方法を実行する。
例示的な実施例において、さらに、指令を含むコンピュータ読み取り可能な非一時的な記憶媒体、例えば、指令を含むメモリ11を提供し、装置1100のプロセッサ1118により上記指令を実行して上記掃除方法を実現する。例えば、上記コンピュータ読み取り可能な非一時的な記憶媒体は、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク及び光データ記憶機器などであってもよい。
当業者にとって、明細書を考慮してこの発明を実施した後、本発明のその他の実施の形態を容易に想到し得ることができる。本願は、本発明のいかなる変形、用途又は適応的変化をカバーすることを目的とし、これら変形、用途又は適応的変化は、本発明の一般的原理に従うとともに、本発明に開示されていない本技術分野における公知の常識又は慣用の技術手段を含む。明細書及び実施例は、例示的なものに過ぎず、本発明の本当の範囲及び主旨は、特許請求の範囲に含まれる。
本発明は、以上のように説明すると共に図面に示された正確な構造に限られず、その要旨を逸脱しない範囲内で各種の補正及び変更を行うことができると理解すべきである。本発明の範囲は、特許請求の範囲のみで限定される。

Claims (16)

  1. モニタリングエリアに対するモニタリング内容を取得することと、
    前記モニタリング内容に基づいて前記モニタリングエリアにゴミが存在するか否かを検出することと、
    前記モニタリングエリアにゴミが存在すれば、前記モニタリングエリアでの前記ゴミの位置情報を取得することと、
    前記ゴミの前記位置情報を、前記位置情報に基づいて前記ゴミを掃除するための掃除ロボットに送信することと、
    を含むことを特徴とする掃除方法。
  2. 前記モニタリング内容に基づいて前記モニタリングエリアにゴミが存在するか否かを検出することは、
    前記モニタリング内容における少なくとも1フレームの画像に基いてユーザの動作によりゴミが発生するか否かを判断すること、
    前記モニタリング内容における2フレームの画像間の相違エリアを対比し、前記相違エリアに基いて前記モニタリングエリアにゴミが存在するか否かを検出すること、又は、
    前記モニタリング内容における画像が変わるか否かを検出し、前記モニタリング内容における画像が変わった場合、変わった前記画像にゴミが存在するか否かを認識すること、
    を含むことを特徴とする請求項1に記載の掃除方法。
  3. 前記ゴミの前記モニタリングエリアでの位置情報を取得することは、
    前記モニタリング内容に基づいて前記モニタリングエリアにおける壁本体と地面との間の交差エッジを取得することと、
    前記モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて前記地面をモデル化することと、
    前記ゴミのモデル化された後の前記地面上の位置情報を計算することと、
    を含むことを特徴とする請求項1に記載の掃除方法。
  4. 前記ゴミの前記モニタリングエリアでの位置情報を取得することは、
    前記ゴミが前記モニタリング内容において所在するゴミエリアと、前記掃除ロボットが前記モニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ前記掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において前記掃除ロボットが所在するエリアとをマッチングすることと、
    成功裏にマッチングした場合、マッチングした前記サンプル画像にバインドされている位置情報を、前記ゴミの前記モニタリングエリアでの位置情報として確定することと、
    を含むことを特徴とする請求項1に記載の方法。
  5. 前記掃除ロボットが前記モニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像を前記サンプル画像として記録することと、
    前記掃除ロボットが記録の過程において同期に報告した位置情報を受信することと、
    各前記サンプル画像における前記掃除ロボットが所在するエリアを認識することと、
    各前記サンプル画像と、各前記サンプル画像における前記掃除ロボットが所在するエリアと、前記掃除ロボットが同期に報告した位置情報とをバインドして記憶することと、
    をさらに含むことを特徴とする、請求項4に記載の方法。
  6. 前記ゴミが前記モニタリングエリアの地面に位置するか否かを検出することと、
    前記ゴミが前記モニタリングエリアの地面に位置すれば、前記ゴミの前記モニタリングエリアでの位置情報を取得するステップを実行することと、
    をさらに含むことを特徴とする請求項1〜5のいずれか1項に記載の方法。
  7. モニタリング機器から送信したゴミの位置情報を受信することと、
    前記位置情報に基づいて前記ゴミを掃除することと、
    を含むことを特徴とする掃除方法。
  8. モニタリングエリアに対するモニタリング内容を取得するように構成される取得モジュールと、
    前記モニタリング内容に基づいて前記モニタリングエリアにゴミが存在するか否かを検出するように構成される検出モジュールと、
    前記モニタリングエリアにゴミが存在すれば、前記ゴミの前記モニタリングエリアでの位置情報を取得するように構成される位置モジュールと、
    前記ゴミの前記位置情報を、前記位置情報に基づいて前記ゴミを掃除するための掃除ロボットに送信するように構成される送信モジュールと、
    を含むことを特徴とする掃除装置。
  9. 前記検出モジュールは、
    前記モニタリング内容における少なくとも1フレームの画像に基いてユーザの動作にゴミが発生するか否かを判断するように構成される第1の検出サブモジュール、
    前記モニタリング内容における2フレームの画像間の相違エリアを対比し、前記相違エリアに基いて前記モニタリングエリアにゴミが存在するか否かを検出するように構成される第2の検出サブモジュール、又は、
    前記モニタリング内容における画像が変わるか否かを検出し、前記モニタリング内容における画像が変わった場合は、変わった前記画像にゴミが存在するか否かを認識するように構成される第3の検出サブモジュール、
    を含むことを特徴とする請求項8に記載の装置。
  10. 前記位置モジュールは、
    前記モニタリング内容に基づいて前記モニタリングエリアにおける壁本体と地面との間の交差エッジを取得するように構成される取得サブモジュールと、
    前記モニタリングエリアにおける壁本体と地面との間の交差エッジに基づいて前記地面をモデル化するように構成されるモデル化サブモジュールと、
    前記ゴミのモデル化された後の前記地面上の位置情報を計算するように構成される計算サブモジュールと、
    を含むことを特徴とする請求項8に記載の装置。
  11. 前記位置モジュールは、
    前記ゴミが前記モニタリング内容において所在するゴミエリアと、前記掃除ロボットが前記モニタリングエリアに運動するか又は滞在する場合にモニタリング機器により予め記録された画像でありかつ前記掃除ロボットが同期に報告した位置情報がそれぞれバインドされている少なくとも1つのサンプル画像において前記掃除ロボットが所在するエリアとをマッチングするように構成されるマッチングサブモジュールと、
    成功裏にマッチングした場合、マッチングした前記サンプル画像にバインドされている位置情報を、前記ゴミの前記モニタリングエリアでの位置情報として確定するように構成される確定サブモジュールと、
    を含むことを特徴とする請求項8に記載の装置。
  12. 前記掃除ロボットが前記モニタリングエリアに運動するか又は滞在する場合の少なくとも1つの画像を前記サンプル画像として記録するように構成される記録モジュールと、
    前記掃除ロボットが記録の過程において同期に報告した位置情報を受信するように構成される受信モジュールと、
    各前記サンプル画像における前記掃除ロボットが所在するエリアを認識するように構成される認識モジュールと、
    各前記サンプル画像と、各前記サンプル画像における前記掃除ロボットが所在するエリアと、前記掃除ロボットが同期に報告した位置情報とをバインドして記憶するように構成される記憶モジュールと、
    をさらに含むことを特徴とする請求項11に記載の装置。
  13. 前記ゴミが前記モニタリングエリアの地面に位置するか否かを検出するように構成される地面検出モジュールと、
    前記ゴミが前記モニタリングエリアの地面上に位置すると、前記ゴミの前記モニタリングエリアでの位置情報を取得するステップを実行するように構成される前記位置モジュールと、
    をさらに含むことを特徴とする請求項8〜12のいずれか1項に記載の装置。
  14. モニタリング機器から送信したゴミの位置情報を受信するように構成される受信モジュールと、
    前記位置情報に基づいて前記ゴミを掃除するように構成される掃除モジュールと、
    を含むことを特徴とする掃除装置。
  15. プロセッサと、
    前記プロセッサが実行可能な命令を記憶するメモリと、を含み、
    前記プロセッサは、
    モニタリングエリアに対するモニタリング内容を取得し、
    前記モニタリング内容に基づいて前記モニタリングエリアにゴミが存在するか否かを検出し、
    前記モニタリングエリアにゴミが存在すれば、前記ゴミの前記モニタリングエリアでの位置情報を取得し、
    前記ゴミの前記位置情報を、前記位置情報に基づいて前記ゴミを掃除するための掃除ロボットに送信する、
    ように構成される、ことを特徴とする掃除装置。
  16. プロセッサと、
    前記プロセッサが実行可能な命令を記憶するメモリと、を含み、
    前記プロセッサは、
    モニタリング機器から送信したゴミの位置情報を受信し、
    前記位置情報に基づいて前記ゴミを掃除する、
    ように構成される、ことを特徴とする掃除装置。











JP2016563238A 2014-12-11 2015-04-30 掃除方法、装置、プログラム及び記録媒体 Active JP6199507B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410764394.8 2014-12-11
CN201410764394.8A CN105744218B (zh) 2014-12-11 2014-12-11 垃圾清理方法及装置
PCT/CN2015/078068 WO2016090827A1 (zh) 2014-12-11 2015-04-30 垃圾清理方法及装置

Publications (2)

Publication Number Publication Date
JP2017507440A true JP2017507440A (ja) 2017-03-16
JP6199507B2 JP6199507B2 (ja) 2017-09-20

Family

ID=55023850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016563238A Active JP6199507B2 (ja) 2014-12-11 2015-04-30 掃除方法、装置、プログラム及び記録媒体

Country Status (9)

Country Link
US (1) US9862098B2 (ja)
EP (1) EP3032369B1 (ja)
JP (1) JP6199507B2 (ja)
KR (1) KR101637906B1 (ja)
CN (1) CN105744218B (ja)
BR (1) BR112015016506B1 (ja)
MX (1) MX354640B (ja)
RU (1) RU2624737C2 (ja)
WO (1) WO2016090827A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022518871A (ja) * 2019-01-25 2022-03-16 デュレボ インターナショナル エス.ピー.エー. 自動道路スイーパ、および上記道路スイーパの道路洗浄方法

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706917B1 (en) * 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
CN105744218B (zh) 2014-12-11 2019-04-26 小米科技有限责任公司 垃圾清理方法及装置
CN105892321B (zh) * 2016-04-28 2018-11-23 京东方科技集团股份有限公司 一种清洁机器人的调度方法及调度装置
CN106651664A (zh) * 2016-11-18 2017-05-10 北京小米移动软件有限公司 垃圾清扫方法及装置
CN106444786B (zh) * 2016-11-29 2019-07-02 北京小米移动软件有限公司 扫地机器人的控制方法及装置和电子设备
CN108214498A (zh) * 2016-12-21 2018-06-29 李汉忠 一种超市垃圾自动清理方法
CN106598072A (zh) * 2016-12-22 2017-04-26 徐州飞梦电子科技有限公司 一种用于清理水面垃圾的无人机工作方法
CN106725127B (zh) * 2017-02-04 2020-06-02 北京小米移动软件有限公司 扫地机器人的清扫方法及装置
DE102017207341A1 (de) * 2017-05-02 2018-11-08 Henkel Ag & Co. Kgaa Verfahren zur Steuerung von Reinigungsgeräten
DE102017113606A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113609A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113612A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
DE102017113605A1 (de) 2017-06-20 2018-12-20 Vorwerk & Co. Interholding Gmbh Autonomes Reinigungssystem und Reinigungsverfahren
CN107638136A (zh) * 2017-08-31 2018-01-30 维沃移动通信有限公司 一种物体的清理方法及系统
CN107616759A (zh) * 2017-08-31 2018-01-23 维沃移动通信有限公司 一种物体的清理方法及系统
CN107669219A (zh) * 2017-08-31 2018-02-09 维沃移动通信有限公司 一种污迹的清理方法及系统
CN107682624B (zh) * 2017-09-19 2020-11-13 深圳市盛路物联通讯技术有限公司 系统维护方法及相关产品
CN107856340B (zh) * 2017-09-21 2019-04-30 溧阳天山水泥有限公司 一种固体垃圾处理装置
CN108065866A (zh) * 2017-11-07 2018-05-25 郑州谦贤科技有限公司 一种自动定点清扫机器及方法
CN107898391A (zh) * 2017-11-08 2018-04-13 张子腾 高效智能清扫一体机
CN108038418B (zh) * 2017-11-14 2020-08-25 珠海格力电器股份有限公司 垃圾清理方法和装置
CN113139524A (zh) 2017-12-14 2021-07-20 创新先进技术有限公司 一种数据处理的方法、装置及设备
CN108113583B (zh) * 2017-12-30 2020-07-14 珠海市一微半导体有限公司 清洁机器人的清洁方法和系统
KR20190135394A (ko) * 2018-05-11 2019-12-06 삼성전자주식회사 청소 동작을 실행하는 청소 장치 및 청소 방법
US11457788B2 (en) 2018-05-11 2022-10-04 Samsung Electronics Co., Ltd. Method and apparatus for executing cleaning operation
CN108742355B (zh) * 2018-08-02 2020-09-08 湖南炬神电子有限公司 一种室内地面智能清洁机器人
US11881019B2 (en) 2018-09-20 2024-01-23 Cortexia Sa Method and device for tracking and exploiting at least one environmental parameter
CN109446955B (zh) * 2018-10-17 2020-08-25 南京理工大学泰州科技学院 一种图像处理方法、装置、无人机及服务器
JP2020075326A (ja) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 ロボット
US11493336B2 (en) 2020-06-22 2022-11-08 Pixart Imaging Inc. Optical navigation device which can determine dirtiness level of cover or fix multi light pattern issue
US11523722B2 (en) * 2019-05-28 2022-12-13 Pixart Imaging Inc. Dirtiness level determining method and electronic device applying the dirtiness level determining method
CN110336979A (zh) * 2019-06-24 2019-10-15 盛皓月 一种山林垃圾智能监控治理系统
CN110689059A (zh) * 2019-09-12 2020-01-14 华中科技大学 一种垃圾自动分拣的方法
CN111037554B (zh) * 2019-12-12 2021-04-13 罗冬 一种基于机器学习的垃圾清理方法、装置、设备及介质
CN113080768A (zh) * 2019-12-23 2021-07-09 佛山市云米电器科技有限公司 扫地机控制方法、控制设备及计算机可读存储介质
CN111126333B (zh) * 2019-12-30 2022-07-26 齐齐哈尔大学 一种基于轻量卷积神经网络的垃圾分类方法
CN111401370B (zh) * 2020-04-13 2023-06-02 城云科技(中国)有限公司 一种垃圾图像识别及任务指派管理的方法,模型及系统
CN111598476A (zh) * 2020-05-22 2020-08-28 济源职业技术学院 一种基于稀疏自编码与svm的智慧城市环卫资源调度系统
CN111974704A (zh) * 2020-08-14 2020-11-24 东北大学秦皇岛分校 基于计算机视觉的垃圾分类检测系统及方法
CN112364727B (zh) * 2020-10-28 2021-07-06 中标慧安信息技术股份有限公司 一种基于图像识别的垃圾信息采集系统
JP7258188B2 (ja) * 2020-12-18 2023-04-14 平安科技(深▲せん▼)有限公司 廊下の雑物を検知する方法、装置、端末デバイスおよび記憶媒体
CN113065509A (zh) * 2021-04-20 2021-07-02 广州铁路职业技术学院(广州铁路机械学校) 垃圾处理方法、装置、设备及计算机存储介质
CN113468976A (zh) * 2021-06-10 2021-10-01 浙江大华技术股份有限公司 垃圾检测方法、垃圾检测系统以及计算机可读存储介质
CN115530673A (zh) * 2021-06-29 2022-12-30 青岛海尔科技有限公司 智能干地工作系统及方法
CN113780680A (zh) * 2021-09-27 2021-12-10 京东方科技集团股份有限公司 垃圾桶的管理方法、装置、电子设备、存储介质及程序
CN115240389A (zh) * 2022-08-03 2022-10-25 江苏商贸职业学院 一种基于人工智能的监测预警系统
CN115983504B (zh) * 2023-03-18 2023-06-13 中环洁集团股份有限公司 一种道路垃圾点位预测方法、系统、设备以及存储介质
US11935220B1 (en) * 2023-08-14 2024-03-19 Shiv S Naimpally Using artificial intelligence (AI) to detect debris

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050192707A1 (en) * 2004-02-27 2005-09-01 Samsung Electronics Co., Ltd. Dust detection method and apparatus for cleaning robot
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
US20110082668A1 (en) * 2009-10-06 2011-04-07 Escrig M Teresa Systems and methods for establishing an environmental representation
EP2801313A2 (en) * 2013-05-10 2014-11-12 Samsung Electronics Co., Ltd Cleaning robot and control method thereof

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100512792B1 (ko) * 2002-06-25 2005-09-07 삼성광주전자 주식회사 로봇 청소기 및 로봇청소시스템
RU58423U1 (ru) * 2006-04-24 2006-11-27 Иван Владимирович Малыгин Система автоматизированной уборки помещений
CN101746584A (zh) * 2008-12-18 2010-06-23 上海市南汇区惠南镇城东中心小学 智能垃圾桶
KR101075340B1 (ko) * 2009-03-31 2011-10-19 박재현 실시간 청소감지 기능을 구비한 로봇 청소기 및 그 제어방법
CN201458173U (zh) * 2009-07-14 2010-05-12 徐鸿刚 一种语音提示垃圾桶
CN102283616B (zh) * 2010-10-22 2013-05-29 青岛科技大学 基于机器视觉的家庭智能清理系统
US9020636B2 (en) * 2010-12-16 2015-04-28 Saied Tadayon Robot for solar farms
KR20130089554A (ko) * 2012-02-02 2013-08-12 엘지전자 주식회사 로봇 청소기 및 그 제어 방법
CN103565366A (zh) * 2012-08-08 2014-02-12 夏普株式会社 清扫机器人及其控制方法
US9675226B2 (en) * 2012-10-26 2017-06-13 Lg Electronics Inc. Robot cleaner system and control method of the same
WO2014138472A2 (en) * 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
US10458938B2 (en) * 2013-03-14 2019-10-29 Ecolab Usa Inc. System and method for monitoring of floor conditions
KR102117984B1 (ko) * 2013-11-27 2020-06-02 한국전자통신연구원 군집 로봇의 협력 청소 방법 및 제어 장치
CN104058202A (zh) * 2014-07-04 2014-09-24 天津国强再创科技有限公司 智能垃圾桶
CN105744218B (zh) 2014-12-11 2019-04-26 小米科技有限责任公司 垃圾清理方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
US20050192707A1 (en) * 2004-02-27 2005-09-01 Samsung Electronics Co., Ltd. Dust detection method and apparatus for cleaning robot
US20110082668A1 (en) * 2009-10-06 2011-04-07 Escrig M Teresa Systems and methods for establishing an environmental representation
EP2801313A2 (en) * 2013-05-10 2014-11-12 Samsung Electronics Co., Ltd Cleaning robot and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022518871A (ja) * 2019-01-25 2022-03-16 デュレボ インターナショナル エス.ピー.エー. 自動道路スイーパ、および上記道路スイーパの道路洗浄方法
JP7381022B2 (ja) 2019-01-25 2023-11-15 デュレボ インターナショナル エス.ピー.エー. 自動道路スイーパ、および上記道路スイーパの道路洗浄方法

Also Published As

Publication number Publication date
RU2015124673A (ru) 2017-03-24
CN105744218A (zh) 2016-07-06
KR101637906B1 (ko) 2016-07-20
WO2016090827A1 (zh) 2016-06-16
EP3032369A2 (en) 2016-06-15
US9862098B2 (en) 2018-01-09
JP6199507B2 (ja) 2017-09-20
EP3032369A3 (en) 2016-07-13
MX354640B (es) 2018-03-14
US20160167233A1 (en) 2016-06-16
BR112015016506B1 (pt) 2022-07-26
RU2624737C2 (ru) 2017-07-06
MX2015008602A (es) 2017-03-10
CN105744218B (zh) 2019-04-26
BR112015016506A2 (pt) 2017-07-11
EP3032369B1 (en) 2018-09-19

Similar Documents

Publication Publication Date Title
JP6199507B2 (ja) 掃除方法、装置、プログラム及び記録媒体
WO2020029484A1 (zh) 智能家居系统的控制方法及装置、处理器、存储介质
CN105827952B (zh) 一种去除指定对象的拍照方法及移动终端
WO2023051227A1 (zh) 清洁设备的控制方法及装置
WO2016026247A1 (zh) 一种智能镜实现方法、装置、智能镜和存储介质
CN111839371B (zh) 地面清扫方法、装置、扫地机和计算机存储介质
RU2708287C1 (ru) Способ и устройство для черчения планировки комнаты
WO2018196209A1 (zh) 清扫机器人的充电方法及装置
CN111258357B (zh) 环境分布建立方法、智能设备、清洁机器人及存储介质
WO2017080258A1 (zh) 一种触摸菜单的控制方法及系统
CN112075879A (zh) 一种信息处理方法、装置及存储介质
CN111643017B (zh) 基于日程信息的清扫机器人控制方法、装置和清扫机器人
CN111973075A (zh) 基于户型图的地面清扫方法、装置、扫地机和计算机介质
CN112784664A (zh) 语义地图构建与作业方法、自主移动设备及存储介质
WO2023115927A1 (zh) 云端机器人的建图方法、系统、设备及存储介质
US20130054028A1 (en) System and method for controlling robot
WO2022028110A1 (zh) 自移动设备的地图创建方法、装置、设备及存储介质
EP3428779A1 (en) User-machine interaction method and system based on feedback signals
JP2015011404A (ja) 動作認識処理装置
CN112220405A (zh) 自移动工具清扫路线更新方法、装置、计算机设备和介质
KR20160022832A (ko) 문자 입력을 위한 방법 및 디바이스
CN110962132B (zh) 一种机器人系统
CN114521841A (zh) 打扫区域管理方法、系统、智能终端、机器人及存储介质
JP5675196B2 (ja) 情報処理装置及びその制御方法
WO2023097897A1 (zh) 清洁机器人的控制方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170823

R150 Certificate of patent or registration of utility model

Ref document number: 6199507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250