CN111643017A - 基于日程信息的清扫机器人控制方法、装置和清扫机器人 - Google Patents
基于日程信息的清扫机器人控制方法、装置和清扫机器人 Download PDFInfo
- Publication number
- CN111643017A CN111643017A CN202010487569.0A CN202010487569A CN111643017A CN 111643017 A CN111643017 A CN 111643017A CN 202010487569 A CN202010487569 A CN 202010487569A CN 111643017 A CN111643017 A CN 111643017A
- Authority
- CN
- China
- Prior art keywords
- cleaning
- cleaning robot
- schedule information
- area
- cleaned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 671
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000007613 environmental effect Effects 0.000 claims abstract description 54
- 238000003860 storage Methods 0.000 claims abstract description 13
- 230000000694 effects Effects 0.000 claims description 180
- 238000004590 computer program Methods 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000012546 transfer Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 description 26
- 239000010813 municipal solid waste Substances 0.000 description 15
- 238000012545 processing Methods 0.000 description 9
- 239000000306 component Substances 0.000 description 8
- 238000010408 sweeping Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000005192 partition Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010411 cooking Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000003287 bathing Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 241001122767 Theaceae Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000010794 food waste Substances 0.000 description 1
- 235000015203 fruit juice Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010926 purge Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/24—Floor-sweeping machines, motor-driven
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/06—Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
本申请涉及一种基于日程信息的清扫机器人控制方法、装置、清扫机器人和存储介质。所述方法包括:获取清扫机器人关联的用户标识对应的日程信息;当满足清扫触发条件时,根据日程信息确定待清扫区域;控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;根据日程信息和环境图像确定待清扫区域中的环境对象;下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。采用本方法能够提高清扫机器人的作业效率。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种基于日程信息的清扫机器人控制方法、装置、清扫机器人和存储介质。
背景技术
随着人工智能技术的不断发展,越来越多的智能产品在日常生活中得到广泛的应用,如智能语音、智能管家、清扫机器人、电动窗帘等各种智能家居产品。其中,清扫机器人又称扫地机器人,可以通过智能控制,在没有用户干预的情况下自动对需要清扫的场所中的清洁区域进行地面清洁工作。
目前,清扫机器人通常是对整个清扫场所进行清扫规划,以遍历整个清扫场所进行清扫。然而,由于人们于场所中的各种活动,清扫场所中各个区域的脏污程度不尽相同,基于清扫场所进行清扫规划并遍历清扫场所进行清扫的方式,无法针对性进行有效地清扫,可能需要清扫机器人重复遍历多次清扫过程,从而导致清扫机器人的清扫作业效率较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高清扫机器人作业效率的基于日程信息的清扫机器人控制方法、装置、清扫机器人和存储介质。
一种基于日程信息的清扫机器人控制方法,所述方法包括:
获取清扫机器人关联的用户标识对应的日程信息;
当满足清扫触发条件时,根据日程信息确定待清扫区域;
控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
根据日程信息和环境图像确定待清扫区域中的环境对象;
下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
在其中一个实施例中,获取清扫机器人关联的用户标识对应的日程信息包括:
确定清扫机器人关联的用户标识;
获取用户标识对应的历史日程信息,历史日程信息包括用户标识对应用户的历史活动数据;
根据历史活动数据和当前时间信息进行日程分析,得到用户标识对应的日程信息。
在其中一个实施例中,获取清扫机器人关联的用户标识对应的日程信息包括:
确定清扫机器人关联的用户标识;
从用户标识对应日程数据库中获得与当前时间信息对应的日程信息。
在其中一个实施例中,当满足清扫触发条件时,根据日程信息确定待清扫区域包括:
当接收到清扫触发指令时、或当前时间达到预设的清扫触发时间时、或监测到日程信息对应的用户日程活动结束时,确定日程信息对应的用户日程活动的活动类型、活动内容和活动区域;
获取清扫机器人所处作业场所的场所地图;
根据活动类型、活动内容和活动区域从场所地图中确定待清扫区域。
在其中一个实施例中,根据日程信息和环境图像确定待清扫区域中的环境对象包括:
根据活动类型、活动内容和活动区域进行清扫对象预测,得到活动预测对象;
对环境图像进行对象识别,得到对象识别结果;
根据活动预测对象和对象识别结果确定待清扫区域中的环境对象。
在其中一个实施例中,下发与环境对象对应的清扫控制指令至清扫机器人包括:
确定环境对象中复位对象的第一对象位置和非复位对象的第二对象位置;复位对象和非复位对象的类型均为非清扫类型;
获取复位对象预设的复位位置;
根据第一对象位置和复位位置生成复位控制指令,并根据第二对象位置生成清扫控制指令;
发送复位控制指令和清扫控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从第一对象位置转移至复位位置。
在其中一个实施例中,下发与环境对象对应的清扫控制指令至清扫机器人包括:
确定环境对象中的清扫对象;清扫对象的类型为清扫类型;
根据清扫对象的类型确定清扫对象对应的清扫策略;
根据清扫策略和清扫对象的当前位置生成清扫控制指令,并发送清扫控制指令至清扫机器人。
一种基于日程信息的清扫机器人控制装置,所述装置包括:
日程信息获取模块,获取清扫机器人关联的用户标识对应的日程信息;
清扫区域确定模块,用于当满足清扫触发条件时,根据日程信息确定待清扫区域;
环境图像获取模块,用于控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
环境对象确定模块,用于根据日程信息和环境图像确定待清扫区域中的环境对象;
清扫控制模块,用于下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
一种清扫机器人,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取清扫机器人关联的用户标识对应的日程信息;
当满足清扫触发条件时,根据日程信息确定待清扫区域;
控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
根据日程信息和环境图像确定待清扫区域中的环境对象;
下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取清扫机器人关联的用户标识对应的日程信息;
当满足清扫触发条件时,根据日程信息确定待清扫区域;
控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
根据日程信息和环境图像确定待清扫区域中的环境对象;
下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
上述基于日程信息的清扫机器人控制方法、装置、清扫机器人和存储介质,在满足清扫触发条件时,根据清扫机器人关联的用户标识对应的日程信息确定待清扫区域,根据日程信息和清扫机器人采集的待清扫区域对应的环境图像确定待清扫区域中的环境对象,并通过下发日程信息和环境图像确定待清扫区域中的环境对象控制清扫机器人对待清扫区域进行清扫。在清扫机器人控制过程中,根据关联的用户标识对应的日程信息确定待清扫区域,并结合日程信息和环境图像确定待清扫区域的环境对象,从而可以根据日程信息准确确定需要进行清扫的区域以及区域中的对象,并控制清扫机器人对待清扫区域中的环境对象进行相应的清扫处理,提高了清扫机器人清扫作业的针对性,从而提高了清扫机器人的作业效率。
附图说明
图1为一个实施例中基于日程信息的清扫机器人控制方法的应用环境图;
图2为一个实施例中基于日程信息的清扫机器人控制方法的流程示意图;
图3为一个实施例中下发清扫控制指令的流程示意图;
图4为一个实施例中基于日程信息的清扫机器人控制装置的结构框图;
图5为一个实施例中清扫机器人的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的基于日程信息的清扫机器人控制方法,可以应用于如图1所示的扫地机器人的应用环境中。其中,扫地机器人100可以包括但不限于传感器102、控制器104以及执行组件106等。控制器104可以执行该基于日程信息的清扫机器人控制方法,控制扫地机器人的执行组件106执行对应的清扫作业。具体地,控制器104在检测到满足清扫触发条件时,根据扫地机器人100关联的用户标识对应的日程信息确定待清扫区域,并控制扫地机器人100的移动组件(图未示)进行移动,使扫地机器人100移动至待清扫区域,传感器102采集与待清扫区域对应的环境图像;控制器104根据日程信息和环境图像确定待清扫区域中的环境对象,并通过下发日程信息和环境图像确定待清扫区域中的环境对象控制扫地机器人100的执行组件106对待清扫区域进行清扫。传感器102具体可以包括但不限于视觉传感器、红外传感器、声波传感器、摄像机以及深度相机等。控制器104具体可以包括但不限于中央处理器(CPU,Central processing unit)和控制电路等处理器。执行组件106具体可以包括但不限于移动组件和清洁组件等。
此外,扫地机器人100还可以通过网络与服务器或终端(图未示)进行通信,以由服务器或终端对扫地机器人进行控制。具体地,可以由服务器或终端在检测到满足清扫触发条件时,根据扫地机器人100关联的用户标识对应的日程信息确定待清扫区域,根据日程信息和扫地机器人100采集的待清扫区域对应的环境图像确定待清扫区域中的环境对象,并通过下发日程信息和环境图像确定待清扫区域中的环境对象控制扫地机器人100对待清扫区域进行清扫。其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种基于日程信息的清扫机器人控制方法,以该方法应用于图1中的扫地机器人为例进行说明,包括以下步骤:
步骤S202,获取清扫机器人关联的用户标识对应的日程信息。
其中,清扫机器人为能够执行清扫作业的智能家居产品,用户标识可以为清扫机器人的用户的标识信息,具体可以包括但不限于包括用户账户、用户ID(IdentityDocument,标识号)、用户姓名、手机号码等可以唯一区别用户的标识信息。用户标识与清扫机器人关联,具体可以为用户通过用户标识与清扫机器人连接,对清扫机器人进行相应控制,如控制清扫机器人的清扫、充电等。日程信息为用户标识对应用户的日程安排数据,如可以包括活动安排数据,活动安排数据可以包括但不限于活动类型、活动内容、活动事件、活动地点等。日程信息可以由用户标识对应用户提前设定,如用户通过日程管理程序设定或直接对清扫机器人进行设定,从而可以从相应的日程管理程序或清扫机器人的日程数据库中查询得到;日程信息也可以根据用户标识对应用户的历史日程数据进行分析预测得到,例如结合用户的历史日程数据结合当前时间信息,预测用户标识对应用户对应的日程活动,从而得到用户标识对应用户的日程信息。
具体地,获取清扫机器人关联的用户标识对应的日程信息可以由清扫机器人内部的控制器执行,即由清扫机器人内部的控制器查询清扫机器人的日程数据库获取关联的用户标识对应的日程信息,或从与清扫机器人连接的日程管理设备中查询得到关联的用户标识对应的日程信息。获取日程信息也可以由与清扫机器人连接的服务器或终端执行,即由服务器或终端获取与连接的清扫机器人关联的用户标识对应的日程信息,并发送日程信息至清扫机器人或根据日程信息进行处理后发送相应控制指令至清扫机器人,以对清扫机器人的清扫作业进行控制。
步骤S204,当满足清扫触发条件时,根据日程信息确定待清扫区域。
清扫触发条件可以为触发清扫机器人进行清扫作业的条件,清扫触发条件可以根据用户的实际需求进行设置,具体如接收到清扫触发指令、当前时间达到预设的清扫触发时间时,则可以认为满足清扫触发条件,需要触发清扫机器人进行清扫作业,则根据日程信息确定待清扫区域,具体可以根据日程信息确定可能产生杂物垃圾的类型、造成脏污的区域等,从而确定待清扫区域,待清扫区域为需要清扫机器人进行清扫的存在杂物垃圾或脏污的区域。具体实现时,是否满足清扫触发条件,根据日程信息确定待清扫区域可以由清扫机器人内置的控制器进行监测,也可以有外部与清扫机器人通信连接的服务器或终端进行监测。
步骤S206,控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像。
确定待清扫区域后,控制清扫机器人移动至待清扫区域,具体可以根据清扫机器人的当前位置和待清扫区域进行路径规划,并根据路径规划结果生成清扫机器人的移动指令,通过该移动指令控制清扫机器人移动至待清扫区域。清扫机器人移动至待清扫区域,会对所处的周围环境进行感知,采集周围环境的环境数据,得到环境图像。环境图像包括清扫机器人针对待清扫区域进行清洁作业的过程中采集的图像,还包括清扫机器人移动至待清扫区域过程中采集到的图像。
环境图像可由清扫机器人上设置的感知装置,如各种传感器进行感知得到,例如通过摄像头进行拍摄得到,激光传感器进行感知得到等,当不同的清扫机器人所对应的传感器类型不同时,根据不同传感器所采集的环境图像的数据类型也可以是不同的。例如,当清扫机器人设置的传感器包括激光传感器时,清扫机器人可以通过激光传感器采集周围的环境图像。根据激光传感器采集的环境图像具体可以是点云图像。具体的,激光传感器可以发射探测信号,例如激光束等。激光传感器将清扫机器人所处环境中物体反射回的信号与探测信号进行比对,得到周围环境的点云数据,对点云数据进行数据清理、点云分割以及点云投影等处理,得到清扫机器人周围环境对应的点云图像。
在具体实现时,清扫机器人采集获得的与待清扫区域对应的环境图像可以由传感器直接发送至清扫机器人的控制器,以便控制器基于环境图像进行后续清扫控制;也可以由传感器发送至与清扫机器人连接的服务器或终端,已由服务器或终端基于环境图像进行清扫控制。
步骤S208,根据日程信息和环境图像确定待清扫区域中的环境对象。
获得清扫机器人采集的与待清扫区域对应的环境图像后,结合清扫机器人关联的用户标识对应的日程信息确定待清扫区域中的环境对象。其中,环境对象为处于待清扫区域中各种类型的物体对象,具体包括需要清扫机器人进行清扫的清扫类对象,如纸屑、果汁、骨头、粪便等杂物垃圾或脏污区域,还包括不需要清扫机器人进行清扫的非清扫类对象,如拖鞋、沙发、柜子、桌子、宠物等对象。环境对象的类型根据实际需求进行设置,以便清扫机器人针对不同的类型的环境对象进行相应的处理,例如对于清扫类对象进行清扫处理,对于非清扫类对象不进行清扫处理。
在具体实现时,可以基于环境图像进行对象识别,例如通过预训练的图像检测模型对环境图像进行对象识别,从清扫机器人采集的环境图像中识别出各环境对象,再综合基于日程信息预测的环境对象和环境图像中识别的环境对象确定待清扫区域中的环境对象。通过日程信息和环境图像确定待清扫区域中的环境对象,可以有效提高环境对象确定的准确性,从而控制清扫机器人进行相应的清扫作业,避免清扫机器人反复清扫作业,提高清扫机器人的清扫作业效率。
步骤S210,下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
确定待清扫区域对应的环境图像后,生成与环境图像对应的清扫控制指令,清扫控制指令用于控制清扫机器人的清扫作业,将得到的清扫控制指令下方至清扫机器人,以控制清扫机器人根据清扫控制指令对待清扫区域进行清扫,从而实现清扫机器人对待清扫区域对应的环境图像进行相应的清扫作业。具体地,对于不同的环境对象,可以生成对应不同的清扫控制指令,以控制清扫机器人根据待清扫区域中的环境对象进行对应的清扫作业处理。例如,对于清扫类的环境对象,清扫机器人需要对该环境对象进行清扫,而对于不同的类别,例如可回收垃圾、厨余垃圾、有害垃圾以及其它垃圾等需要执行相应的清扫方式,又如,对于难以清除的顽固脏污区域,则需要提高清扫机器人的清扫力度,以便更好去除脏污。而对于非清扫类的环境对象,不需要清扫机器人对该环境对象进行清扫,则清扫机器人可以在进行清扫作业时,基于该环境对象进行相应的路径规划,如针对该非清扫类的环境对象进行避障,从而提高清扫机器人的清扫作业效率。
此外,基于日程信息的清扫机器人控制方法具体实现的架构可以根据清扫机器人所支持的功能进行设置,例如,清扫机器人的控制器支持进行基于日程信息的清扫机器人控制处理时,可以由控制器直接进行基于日程信息的清扫机器人控制,从而由清扫机器人自动进行清扫作业。而对于清扫机器人的控制器不支持基于日程信息进行清扫机器人控制时,可以由服务器或终端基于日程信息进行清扫机器人控制,由服务器或终端下发与环境对象对应的清扫控制指令至清扫机器人,从而实现对清扫机器人的清扫作业控制。
上述基于日程信息的清扫机器人控制方法中,在满足清扫触发条件时,根据清扫机器人关联的用户标识对应的日程信息确定待清扫区域,根据日程信息和清扫机器人采集的待清扫区域对应的环境图像确定待清扫区域中的环境对象,并通过下发日程信息和环境图像确定待清扫区域中的环境对象控制清扫机器人对待清扫区域进行清扫。在清扫机器人控制过程中,根据关联的用户标识对应的日程信息确定待清扫区域,并结合日程信息和环境图像确定待清扫区域的环境对象,从而可以根据日程信息准确确定需要进行清扫的区域以及区域中的对象,并控制清扫机器人对待清扫区域中的环境对象进行相应的清扫处理,提高了清扫机器人清扫作业的针对性,从而提高了清扫机器人的作业效率。
在一个实施例中,获取清扫机器人关联的用户标识对应的日程信息包括:确定清扫机器人关联的用户标识;获取用户标识对应的历史日程信息,历史日程信息包括用户标识对应用户的历史活动数据;根据历史活动数据和当前时间信息进行日程分析,得到用户标识对应的日程信息。
本实施例中,根据清扫机器人关联的用户标识的历史活动数据进行分析,确定用户标识对应用户的日程信息。具体地,确定清扫机器人关联的用户标识,用户标识用于区别不同的用户,用户标识可以根据清扫机器人对应用户的标识信息确定,例如根据清扫机器人的使用者或拥有者的标识信息确定用户标识。获取用户标识对应的历史日程信息,历史日程信息可以为清扫机器人或日程管理设备记录的户标识对应用户的以往不同时间相应的日程信息,具体可以包括用户标识对应用户的历史活动数据。历史活动数据可以包括用户进行的各种行为活动,如派对、聚会等社交活动,又如煮饭、洗澡、吃饭、工作等居家活动。对于用户进行的各种行为活动,会在相应的场所产生相应的杂物,需要进行清扫,以确保场所的整洁。历史日程信息可以为用户标识对应用户历史所有时间的日程信息,以确定历史日程信息的完整性;历史日程信息也可以为用户标识对应用户最近一段时间内的日程信息,以对历史日程信息的数据量进行控制,提高对历史日程信息的处理效率。
获得用户标识对应用户的历史活动数据后,确定当前时间信息,如确定当前的日期信息,包括工作日、节假日、纪念日、时段等,结合当前时间信息和历史活动数据进行日程分析,例如根据当前时间信息在历史活动数据进行匹配,以从历史活动数据中确定与当前时间信息相匹配的历史时间对应的活动数据,从而得到用户标识对应用户的日程信息。比如,当前时间为工作日下班时间,从历史活动数据中确定用户标识对应用户在工作日下班后会在晚上7点煮饭并吃饭,后于客厅观看电视或玩游戏,那么根据历史活动数据可以对当前时间的活动数据进行预测,从而得到当前时间用户标识对应的日程信息,根据该日程信息可以进行相应的清扫设置。
本实施例中,根据清扫机器人关联的用户标识对应用户的历史活动数据结合当前时间信息进行日程分析,确定用户的日程信息,从而可以控制清扫机器人进行相应的清扫设置,提高了清扫机器人的智能程度,从而提高了清扫机器人的作业效率。
在一个实施例中,获取清扫机器人关联的用户标识对应的日程信息包括:确定清扫机器人关联的用户标识;从用户标识对应日程数据库中获得与当前时间信息对应的日程信息。
本实施例中,根据清扫机器人关联的用户标识从预设的日程数据库中获得用户标识对应的日程信息。其中,日程数据库为存储日程信息的数据库,具体可以为清扫机器人内部设置的数据库,用于记录用户针对清扫机器人设定的各种日程信息;日程数据库也可以为日程管理设备对应的数据库,具体可以是用户通过日程管理设备上的日程管理程序记录的各种日程信息。此外,日程数据库可以为独立于清扫机器人和日程管理设备的数据库,其存储的日程信息可以从清扫机器人的数据库和日程管理设备的数据库中获得,从而可以对不同端存储的日程信息进行统一管理。
具体地,获取用户标识对应用户的日程信息时,确定清扫机器人关联的用户标识,用户标识用于区别不同的用户,用户标识可以根据清扫机器人对应用户的标识信息确定,例如根据清扫机器人的使用者或拥有者的标识信息确定用户标识,具体可以包括但不限于包括用户账户、用户ID、用户姓名、手机号码等可以唯一区别用户的标识信息。确定用户标识对应的日程数据库,日程数据库中存储有该用户标识对应用户的日程信息,从该日程数据库中获得与当前时间信息对应的日程信息。具体可以根据当前时间信息,从日程数据库中查询得到对应的日程信息。当前时间信息可以根据清扫机器人的作业周期进行设置,如清扫机器人的作业周期为一天,即清扫机器人每天进行清扫作业时,可以确定当前时间信息为当天日期,则可以从用户标识对应日程数据库中获取当天日期所对应的日程信息。
本实施例中,从用户标识对应日程数据库中获得与当前时间信息对应的日程信息,可以控制清扫机器人进行与用户的日程信息相应的清扫设置,提高了清扫机器人的智能程度,从而提高了清扫机器人的作业效率。
进一步地,在具体应用中,日程数据库和历史日程信息之间可以设置相应的优先级,从而确保日程信息的准确性。具体地,在获取清扫机器人关联的用户标识对应的日程信息时,可以先从用户标识对应的日程数据库中查询当前时间信息对应的日程信息,如查询成功,则根据查询得到的日程信息进行后续清扫设置的处理;若查询不成功,即未从日程数据库中获得当前时间信息对应的日程信息,表明用户标识可能未设定当期时间对应的日程安排,则基于用户标识对应的历史日程信息进行日程分析,得到预测的日程信息,并根据预测的日程信息进行清扫设置的处理。
在一个实施例中,当满足清扫触发条件时,根据日程信息确定待清扫区域包括:当接收到清扫触发指令时、或当前时间达到预设的清扫触发时间时、或监测到日程信息对应的用户日程活动结束时,确定日程信息对应的用户日程活动的活动类型、活动内容和活动区域;获取清扫机器人所处作业场所的场所地图;根据活动类型、活动内容和活动区域从场所地图中确定待清扫区域。
本实施例中,在满足清扫触发条件时,基于由日程信息确定的对应用户日程活动的活动类型、活动内容和活动区域结合清扫机器人所处作业场所的场所地图确定待清扫区域。其中,满足清扫触发条件可以包括接收到清扫触发指令、当前时间达到预设的清扫触发时间或监测到日程信息对应的用户日程活动结束。
具体地,在接收到清扫触发指令时,认为满足清扫触发条件,清扫触发指令用于触发清扫机器人进行清扫作业,具体可以由用户通过终端向清扫机器人发送,或由与清扫机器人连接的服务器或终端转发至清扫机器人。满足清扫触发条件时,确定日程信息对应的用户日程活动的活动类型、活动内容和活动区域,用户日程活动为基于日程信息确定的用户的进行的行为活动,如派对、聚会等社交活动,又如煮饭、洗澡、吃饭、工作等居家活动。不同类型的用户日程活动对应于不同的活动内容和活动区域,会产生相应的杂物垃圾,造成不同的脏污区域。用户日程活动的活动类型、活动内容和活动区域具体可以根据日程信息进行分析得到,如根据日程信息中的生日派对内容分析得到活动类型为派对、活动内容为庆祝生日的聚会,活动区域包括客厅、厨房等。另一方面,获取清扫机器人所处作业场所的场所地图,作业场所为清扫机器人所负责进行清扫的场所,例如对于居家用的清扫机器人,其作业场所为居家住房范围;对于工作写字楼的清扫机器人,其作业场所为工作办公范围。场所地图为清扫机器人所处作业场所对应的地图,其记载了作业场所中的各个功能分区,例如住房的场所地图记载了住房的户型、客厅、卧室、卫生间、厨房等功能分区的分布;又如写字楼的场所地图记载了办公范围中办公室、公共办公区、卫生间、休闲区域、茶水间等各种功能分区的分布。清扫机器人所处的不同的作业场所对应于不同的场所地图。根据活动类型、活动内容和活动区域从场所地图中确定待清扫区域,例如可以根据活动类型、活动内容和活动区域确定可能产生垃圾杂物、造成脏污所涉及的功能分区,从而从场所地图中确定相应的功能分区,将其标记为待清扫区域,以便控制清扫机器人对相应区域进行及时清扫处理。
另外,也可以监测当前时间达到预设的清扫触发时间,清扫触发时间可以由用户进行设置,例如设置为每天的10点,则监测到当前时间达到10点时,认为满足清扫触发条件,根据日程信息确定待清扫区域。此外,还可以对日程信息对应的用户日程活动进行监测,若监测到用户日程活动结束时,则认为满足清扫触发条件,根据日程信息确定待清扫区域。
本实施例中,在满足清扫触发条件时,基于由日程信息确定的对应用户日程活动的活动类型、活动内容和活动区域结合清扫机器人所处作业场所的场所地图确定待清扫区域,可以根据用户的日程信息准确确定相应的待清扫区域,以便控制清扫机器人及时进行相应的清扫作业,能够确保清扫机器人的清扫相应效率,从而提高清扫机器人的清扫作业效率。
在一个实施例中,根据日程信息和环境图像确定待清扫区域中的环境对象包括:根据活动类型、活动内容和活动区域进行清扫对象预测,得到活动预测对象;对环境图像进行对象识别,得到对象识别结果;根据活动预测对象和对象识别结果确定待清扫区域中的环境对象。
本实施例中,一方面根据日程信息进行清扫对象预测得到活动预测对象,另一方面,对清扫机器人采集的与待清扫区域对应的环境图像进行对象识别,得到对象识别结果,并结合活动预测对象和对象识别结果确定待清扫区域中的环境对象,从而通过日程信息和环境图像确定待清扫区域中的环境对象,可以有效提高环境对象确定的准确性。
具体地,根据日程信息对应的用户日程活动的活动类型、活动内容和活动区域进行清扫对象预测,得到活动预测对象。用户日程活动为基于日程信息确定的用户的进行的行为活动,如派对、聚会等社交活动,又如煮饭、洗澡、吃饭、工作等居家活动。不同类型的用户日程活动对应于不同的活动内容和活动区域,会产生相应的杂物垃圾,造成不同的脏污区域。根据活动类型、活动内容和活动区域,可以对待清扫区域中的环境对象进行预测,得到活动预测对象,活动预测对象为在相应用户日程活动过程中可能产生的杂物垃圾、脏污区域等需要清扫的对象。例如,对于活动类型为派对、活动内容为庆祝生日的聚会,活动区域包括客厅、厨房等的用户日程活动,那么活动预测对象可以包括食物垃圾,如蛋糕、奶油等环境对象。而对于烹饪类的用户日程活动,那么一般会在厨房、餐厅产生相应的厨余垃圾,造成油渍等脏污区域,则活动预测对象可以对应包括处于垃圾、油渍等。通过根据日程信息对应的用户日程活动进行清扫对象预测,可以结合用户的行为活动对待清扫区域的环境对象进行预测,以便清扫机器人可以根据对应的环境对象进行针对性清扫,避免清扫机器人反复清扫,提高清扫机器人的清扫作业效率。
另一方面,对环境图像进行对象识别,得到对象识别结果。对象识别可以通过预先训练的图像检测模型实现。图像检测模型是基于目标检测算法建立的目标检测模型,用于对多张环境图像分别进行目标检测。其中,用于建立图像检测模型的目标检测算法具体可以是YOLO(You Only Look Once)、Faster-RCNN(Region Convolutional NeuralNetworks,区域卷积神经网络)、CornerNet、RetinaNet、MobileNet(EfficientConvolutional Neural Networks for Mobile Vision Application,用于移动视觉应用的高效卷积神经网络)或者SSD(Single Shot Multi Box Detector,单发多盒检测器)等多种目标检测算法中的一种。图像检测模型可以通过目标框在环境图像中框出检测到的目标对象,以及目标对象对应的对象类型,对象识别结果可以包括目标对象以及目标对象对应的对象类型。清扫机器人可以根据目标对象在环境图像中的位置确定目标对象所对应的对象位置,对象位置是指目标对象在环境中的位置,此外,一些环境图像中也可以不包括目标对象。
得到活动预测对象和对象识别结果后,综合活动预测对象和对象识别结果确定待清扫区域中的环境对象。例如可以根据活动预测对象对对象识别结果进行验证,从而确保对象识别结果中各目标对象的准确性,准确确定待清扫区域中的环境对象,以便清扫机器人针对环境对象进行清扫作业。本实施例中,结合活动预测对象和对象识别结果确定待清扫区域中的环境对象,可以有效提高环境对象确定的准确性。
在一个具体应用中,清扫机器人包括RGB摄像头和TOF(Time of Flight,飞行时间)摄像头,RGB摄像头可以拍摄得到RGB图像,TOF摄像头可以拍摄到深度图像,环境图像包括RGB图像和深度图像。RGB摄像头所获取的单张图像只能反映二维信息,基于RGB图像进行对象识别也只能反映视野中有无目标对象,而无法准确给出目标对象相对于机器人的位置,而3D TOF摄像头通过TOF测距技术,可得到三维信息,与RGB图像信息融合,可得到目标对象的尺寸、位置等信息,从而有助于准确确定目标对象的类别和位置。其中,TOF摄像头通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。此外,深度图像不局限于从3D TOF传感器获得,也可从结构光方案或者双目测距方案获得。
进一步地,清扫机器人在行走清扫的时候,RGB摄像头和TOF摄像头会同步实时对周围的环境进行拍照,RGB摄像头每次拍的照片都会传给目标检测模型,模型会对照片实时进行对象识别,从而输出实时的对象识别结果,以确定待清扫区域中的目标对象。具体地,目标对象的类别可以包括但不限于包括鞋子、拖鞋、袜子、电线、立式风扇底座、瓶子、杯子和体重秤等。清扫机器人识别检测出当前机器人视野中的目标对象后,结合TOF摄像头同步的深度图像,确定目标对象的三维空间位置。
进一步地,对环境图像进行对象识别采用的图像检测模型可以是基于深度学习网络MobileNet V1建立的TFLite(TensorFlow Lite,一种用于设备端推断的开源深度学习框架)类型的模型。在训练该图像检测模型时,可以制定基于客厅、卧室、餐厅、厨房等不同房间场景下,鞋子、拖鞋、袜子、电线、立式风扇底座、瓶子、杯子和体重秤这8个种类数据的特征定义,根据目标对象数据的特征定义,采集大量不同居民家庭环境下的目标对象数据。对采集的数据进行目标对象的区域标注,标注鞋子、拖鞋、袜子、电线、立式风扇底座、瓶子、杯子和体重秤这8个种类数据。其中,需要筛选删除采集过程中不合格的图片,对整理的数据集进行随机裁剪、筛选,平衡数据集的不同种类的目标对象数据的图片数量。
进一步地,使用的训练的工具是TensorFlow(一个开放源代码数据库)、Python语言,模型的学习率为0.001,类别数目为2,在Tensorflow中基于神经网络图像检测模型MobileNet-SSD训练出检测8种目标对象数据的模型。按照训练、验证、测试=8:1:1的比例,把整理出来的地板数据集制作成TFRecord格式数据,作为模型的数据输入。MobileNet-SSD是用MobileNet模型作为图像特征提取,用SSD框架来完成目标区域画框检测的One-Stage目标检测算法。MobileNet模型中,采用核心组件depthwise sparable convolutions(深度可分离卷积)替代过去的standard convolutions(标准卷积)来提取图片的特征信息,解决卷积网络的计算效率和参数量的问题。深度可分离卷积可以将标准卷积分解成一个深度卷积和一个点卷积(1×1卷积核),将每个卷积核应用到每一个通道,1×1卷积用来组合通道卷积的输出。Mobilenet把照片中的目标对象特征信息提取出来,输入到SSD检测框架中完成目标区域的检测,从而输出目标对象在照片中的框位置信息。
由于不同家庭房间场景下的目标对象数据存在类与类之间的相似性和类内的差异性,选择fine-tune(微调)的方式在MobileNet-SSD技术框架上进行迁移学习训练,把原始模型的VOC(Visual Object Classes,视觉对象类)的20个种类检测修改为2种对象识别,基于fine-tune模式进行深度学习训练,照片作为模型的输入数据,经过MobileNet提取每一张图片的特征信息,输入到SSD检测框架中完成目标对象的检测。训练3万个epoch(一代训练),loss(损失函数)降到0.4左右,验证集准确率约0.97,得到最终的图像检测模型。利用训练的图像检测模型进行目标对象的检测测试,输入一张家庭房间场景图片,如果存在目标对象,模型会输出目标对象的类别和在照片中的框位置信息。最后,把模型转化为TFLite模型,移植应用到清扫机器人的开发板上,把清扫机器人摄像头拍摄照片作为模型的输入,输出目标对象的类别和在照片中的框位置信息,对象识别结果包括目标对象的类别和在照片中的框位置信息。
通过训练完成的图像检测模型,可以将清扫机器人在清扫过程中,通过RGB摄像头拍摄的RGB图片,输入到MobileNet-SSD模型,检测出当前拍摄照片的目标对象的类别和位置信息;同时,通过TOF摄像头拍摄,返回当前视野目标对象的深度信息。准确确定待清扫区域中的目标对象,清扫机器人可以根据不同的目标对象的类别信息和深度位置信息,适配对应的避障和清扫策略。比如,精准地避开鞋子、袜子和电线这些会干扰清扫机器人清扫运动的目标对象,从而提升清扫机器人的智能避障效果和智能清扫作用。
在一个实施例中,如图3所示,下发清扫控制指令的处理,即下发与环境对象对应的清扫控制指令至清扫机器人包括:
步骤S302,确定环境对象中复位对象的第一对象位置和非复位对象的第二对象位置;复位对象和非复位对象的类型均为非清扫类型。
本实施例中,对于待清扫区域中非清扫类型的复位对象和非复位对象,通过复位控制指令控制清扫机器人将复位对象进行转移复位,通过清扫控制指令控制清扫机器人根据清扫控制指令对待清扫区域进行清扫,从而使清扫机器人针对不同非清扫类型的环境对象进行相应的清扫处理,提升了清扫机器人的清扫作业效率和清扫效果。
具体地,确定待清扫区域中的环境对象后,确定识别的环境对象中类型为非清扫类型的复位对象和非复位对象。其中,非清扫类型指不需要清扫机器人进行清扫处理,如不需要清扫机器人吸纳、擦除等清扫作业的环境对象,具体如鞋子、拖鞋、袜子、电线、立式风扇底座、瓶子、杯子、体重秤等。复位对象为可以由清扫机器人进行复位的非清扫类型的环境对象,例如鞋子、拖鞋、袜子等,复位对象可以由清扫机器人进行转移以其移动到预设复位位置,从而实现复位对象的位置复位;非复位对象与复位对象对应,为不可由清扫机器人进行复位的非清扫类型的环境对象,例如桌子、柜子、电视等环境对象,对于非复位对象,清扫机器人需要在进行地面清扫时针对非复位对象进行避障,以防止清扫机器人被非复位对象打断清扫作业,或清扫机器人对非复位对象造成损坏。第一对象位置为复位对象当前所处的位置,第二对象位置为非复位对象当前所处的位置。第一对象位置和第二对象位置均可以为三维空间位置,具体可以包括三维空间坐标,第一对象位置和第二对象位置可以根据对环境图像进行对象识别得到的对象识别结果确定。
步骤S304,获取复位对象预设的复位位置。
对于环境对象中的复位对象,需要清扫机器人将该复位对象进行位置复位,复位位置即为复位对象预设的需要转移的目标位置,通过清扫机器人将复位对象转移至对应预设的复位位置,实现对复位对象的位置复位。具体地,复位对象的类别及其复位位置可以由用户预先进行设置,以便实现用户的个性化配置。
步骤S306,根据第一对象位置和复位位置生成复位控制指令,并根据第二对象位置生成清扫控制指令。
对于复位对象,根据第一对象位置和复位位置生成复位控制指令,即根据复位对象当前所处的位置和需要转移的目标位置,生成复位对象对应的复位控制指令,以控制清扫机器人将复位对象从第一对象位置转移至复位位置,实现对复位对象的复位。对于非复位对象,根据第二对象位置生成清扫控制指令,即根据非复位对象的当前位置生成清扫控制指令,以控制清扫机器人在非复位对象附近进行清扫作业时能够有效进行清扫和避障。
步骤S308,发送复位控制指令和清扫控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从第一对象位置转移至复位位置。
得到复位控制指令和清扫控制指令后,下发复位控制指令和清扫控制指令至清扫机器人,例如可以由控制器下发复位控制指令和清扫控制指令至清扫机器人的执行组件,以控制清扫机器人的执行组件根据复位控制指令将复位对象从第一对象位置转移至复位位置,并根据清扫控制指令对待清扫区域进行清扫。
本实施例中,一方面通过复位控制指令控制清扫机器人将复位对象进行转移复位,另一方面通过清扫控制指令控制清扫机器人根据清扫控制指令对待清扫区域进行清扫,从而使清扫机器人针对不同非清扫类型的环境对象进行相应的清扫处理,提升了清扫机器人的清扫作业效率和清扫效果。
在一个实施例中,下发与环境对象对应的清扫控制指令至清扫机器人包括:确定环境对象中的清扫对象;清扫对象的类型为清扫类型;根据清扫对象的类型确定清扫对象对应的清扫策略;根据清扫策略和清扫对象的当前位置生成清扫控制指令,并发送清扫控制指令至清扫机器人。
本实施例中,对于清扫类型的环境对象,根据环境对象相应的清扫策略和当前位置生成清扫控制指令,并通过该清扫控制指令控制清扫机器人进行清扫作业。具体地,确定待清扫区域中的环境对象后,确定识别的环境对象中类型为清扫类型的清扫对象。清扫对象为需要清扫机器人对应进行清扫处理的对象,如纸屑、厨余垃圾、食物、油渍等垃圾杂物或脏污区域。根据清扫对象的类型确定清扫对象对应的清扫策略,清扫策略指预先为清洁机器人设置的清洁规则,可以包括清扫模式、清扫方式、清扫频率、清扫力度、清扫次数等,不同类型的清扫对象对应于不同的清扫策略,例如对于水渍,需要清扫机器人进行拖地擦干;而对于纸屑,需要清扫机器人进行吸取收纳。清扫策略可以根据清扫对象的类型预先进行设置,以便清扫机器人可以针对清扫对象执行相应的清扫作业操作,从而提高清扫机器人清扫作业的针对性,提高清扫机器人的清扫作业效率。
确定清扫对象对应的清扫策略后,根据该清扫策略和清扫对象的当前位置生成清扫控制指令,清扫对象的当前位置可以根据对环境图像进行对象识别得到的对象识别结果确定。下发清扫控制指令至清扫机器人,例如可以由控制器下发清扫控制指令至清扫机器人的执行组件,以控制清扫机器人的执行组件根据清扫控制指令对待清扫区域进行清扫。
本实施例中,对于清扫类型的清扫对象,根据清扫对象相应的清扫策略和当前位置生成清扫控制指令,并通过该清扫控制指令控制清扫机器人进行清扫作业,以便清扫机器人可以针对清扫对象执行相应的清扫作业操作,从而提高清扫机器人清扫作业的针对性,提高清扫机器人的清扫作业效率。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种基于日程信息的清扫机器人控制装置,包括:日程信息获取模块402、清扫区域确定模块404、环境图像获取模块406、环境对象确定模块408和清扫控制模块410,其中:
日程信息获取模块402,获取清扫机器人关联的用户标识对应的日程信息;
清扫区域确定模块404,用于当满足清扫触发条件时,根据日程信息确定待清扫区域;
环境图像获取模块406,用于控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
环境对象确定模块408,用于根据日程信息和环境图像确定待清扫区域中的环境对象;
清扫控制模块410,用于下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
在一个实施例中,日程信息获取模块402包括用户标识确定模块、历史日程获取模块和历史日程分析模块;其中:用户标识确定模块,用于确定清扫机器人关联的用户标识;历史日程获取模块,用于获取用户标识对应的历史日程信息,历史日程信息包括用户标识对应用户的历史活动数据;历史日程分析模块,用于根据历史活动数据和当前时间信息进行日程分析,得到用户标识对应的日程信息。
在一个实施例中,日程信息获取模块402还包括日程信息提取模块,用于从用户标识对应日程数据库中获得与当前时间信息对应的日程信息。
在一个实施例中,清扫区域确定模块404包括日程活动分析模块、场所地图获取模块和清扫区域分析模块;其中:日程活动分析模块,用于当接收到清扫触发指令时、或当前时间达到预设的清扫触发时间时、或监测到日程信息对应的用户日程活动结束时,确定日程信息对应的用户日程活动的活动类型、活动内容和活动区域;场所地图获取模块,用于获取清扫机器人所处作业场所的场所地图;清扫区域分析模块,用于根据活动类型、活动内容和活动区域从场所地图中确定待清扫区域。
在一个实施例中,环境对象确定模块408包括对象预测模块、对象识别模块和对象确定模块;其中:对象预测模块,用于根据活动类型、活动内容和活动区域进行清扫对象预测,得到活动预测对象;对象识别模块,用于对环境图像进行对象识别,得到对象识别结果;对象确定模块,用于根据活动预测对象和对象识别结果确定待清扫区域中的环境对象。
在一个实施例中,清扫控制模块410包括非清扫对象模块、复位位置确定模块、第一指令模块和指令下发模块;其中:非清扫对象模块,用于确定环境对象中复位对象的第一对象位置和非复位对象的第二对象位置;复位对象和非复位对象的类型均为非清扫类型;复位位置确定模块,用于获取复位对象预设的复位位置;第一指令模块,用于根据第一对象位置和复位位置生成复位控制指令,并根据第二对象位置生成清扫控制指令;指令下发模块,用于发送复位控制指令和清扫控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从第一对象位置转移至复位位置。
在一个实施例中,清扫控制模块410包括清扫对象确定模块、清扫策略确定模块和第二指令模块;其中:清扫对象确定模块,用于确定环境对象中的清扫对象;清扫对象的类型为清扫类型;清扫策略确定模块,用于根据清扫对象的类型确定清扫对象对应的清扫策略;第二指令模块,用于根据清扫策略和清扫对象的当前位置生成清扫控制指令,并发送清扫控制指令至清扫机器人。
关于基于日程信息的清扫机器人控制装置的具体限定可以参见上文中对于基于日程信息的清扫机器人控制方法的限定,在此不再赘述。上述基于日程信息的清扫机器人控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备,如清扫机器人中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种清扫机器人,该清扫机器人可以内置有处理器,其内部结构图可以如图5所示。该清扫机器人包括通过系统总线连接的处理器、存储器和网络接口。其中,该清扫机器人的处理器用于提供计算和控制能力。该清扫机器人的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该清扫机器人的数据库用于存储数据。该清扫机器人的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于日程信息的清扫机器人控制方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的清扫机器人的限定,具体的清扫机器人可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种清扫机器人,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取清扫机器人关联的用户标识对应的日程信息;
当满足清扫触发条件时,根据日程信息确定待清扫区域;
控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
根据日程信息和环境图像确定待清扫区域中的环境对象;
下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:确定清扫机器人关联的用户标识;获取用户标识对应的历史日程信息,历史日程信息包括用户标识对应用户的历史活动数据;根据历史活动数据和当前时间信息进行日程分析,得到用户标识对应的日程信息。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:确定清扫机器人关联的用户标识;从用户标识对应日程数据库中获得与当前时间信息对应的日程信息。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:当接收到清扫触发指令时、或当前时间达到预设的清扫触发时间时、或监测到日程信息对应的用户日程活动结束时,确定日程信息对应的用户日程活动的活动类型、活动内容和活动区域;获取清扫机器人所处作业场所的场所地图;根据活动类型、活动内容和活动区域从场所地图中确定待清扫区域。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据活动类型、活动内容和活动区域进行清扫对象预测,得到活动预测对象;对环境图像进行对象识别,得到对象识别结果;根据活动预测对象和对象识别结果确定待清扫区域中的环境对象。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:确定环境对象中复位对象的第一对象位置和非复位对象的第二对象位置;复位对象和非复位对象的类型均为非清扫类型;获取复位对象预设的复位位置;根据第一对象位置和复位位置生成复位控制指令,并根据第二对象位置生成清扫控制指令;发送复位控制指令和清扫控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从第一对象位置转移至复位位置。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:确定环境对象中的清扫对象;清扫对象的类型为清扫类型;根据清扫对象的类型确定清扫对象对应的清扫策略;根据清扫策略和清扫对象的当前位置生成清扫控制指令,并发送清扫控制指令至清扫机器人。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取清扫机器人关联的用户标识对应的日程信息;
当满足清扫触发条件时,根据日程信息确定待清扫区域;
控制清扫机器人移动至待清扫区域,并获取清扫机器人采集获得的与待清扫区域对应的环境图像;
根据日程信息和环境图像确定待清扫区域中的环境对象;
下发与环境对象对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:确定清扫机器人关联的用户标识;获取用户标识对应的历史日程信息,历史日程信息包括用户标识对应用户的历史活动数据;根据历史活动数据和当前时间信息进行日程分析,得到用户标识对应的日程信息。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:确定清扫机器人关联的用户标识;从用户标识对应日程数据库中获得与当前时间信息对应的日程信息。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:当接收到清扫触发指令时、或当前时间达到预设的清扫触发时间时、或监测到日程信息对应的用户日程活动结束时,确定日程信息对应的用户日程活动的活动类型、活动内容和活动区域;获取清扫机器人所处作业场所的场所地图;根据活动类型、活动内容和活动区域从场所地图中确定待清扫区域。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据活动类型、活动内容和活动区域进行清扫对象预测,得到活动预测对象;对环境图像进行对象识别,得到对象识别结果;根据活动预测对象和对象识别结果确定待清扫区域中的环境对象。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:确定环境对象中复位对象的第一对象位置和非复位对象的第二对象位置;复位对象和非复位对象的类型均为非清扫类型;获取复位对象预设的复位位置;根据第一对象位置和复位位置生成复位控制指令,并根据第二对象位置生成清扫控制指令;发送复位控制指令和清扫控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从第一对象位置转移至复位位置。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:确定环境对象中的清扫对象;清扫对象的类型为清扫类型;根据清扫对象的类型确定清扫对象对应的清扫策略;根据清扫策略和清扫对象的当前位置生成清扫控制指令,并发送清扫控制指令至清扫机器人。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于日程信息的清扫机器人控制方法,其特征在于,所述方法包括:
获取清扫机器人关联的用户标识对应的日程信息;
当满足清扫触发条件时,根据所述日程信息确定待清扫区域;
控制所述清扫机器人移动至所述待清扫区域,并获取所述清扫机器人采集获得的与所述待清扫区域对应的环境图像;
根据所述日程信息和所述环境图像确定所述待清扫区域中的环境对象;
下发与所述环境对象对应的清扫控制指令至所述清扫机器人,所述清扫控制指令用于控制所述清扫机器人根据所述清扫控制指令对所述待清扫区域进行清扫。
2.根据权利要求1所述的方法,其特征在于,所述获取清扫机器人关联的用户标识对应的日程信息包括:
确定清扫机器人关联的用户标识;
获取所述用户标识对应的历史日程信息,所述历史日程信息包括所述用户标识对应用户的历史活动数据;
根据所述历史活动数据和当前时间信息进行日程分析,得到所述用户标识对应的日程信息。
3.根据权利要求1所述的方法,其特征在于,所述获取清扫机器人关联的用户标识对应的日程信息包括:
确定清扫机器人关联的用户标识;
从所述用户标识对应日程数据库中获得与当前时间信息对应的日程信息。
4.根据权利要求1所述的方法,其特征在于,所述当满足清扫触发条件时,根据所述日程信息确定待清扫区域包括:
当接收到清扫触发指令时、或当前时间达到预设的清扫触发时间时、或监测到所述日程信息对应的用户日程活动结束时,确定所述日程信息对应的用户日程活动的活动类型、活动内容和活动区域;
获取所述清扫机器人所处作业场所的场所地图;
根据所述活动类型、所述活动内容和所述活动区域从所述场所地图中确定待清扫区域。
5.根据权利要求4所述的方法,其特征在于,所述根据所述日程信息和所述环境图像确定所述待清扫区域中的环境对象包括:
根据所述活动类型、所述活动内容和所述活动区域进行清扫对象预测,得到活动预测对象;
对所述环境图像进行对象识别,得到对象识别结果;
根据所述活动预测对象和所述对象识别结果确定所述待清扫区域中的环境对象。
6.根据权利要求1至5任意一项所述的方法,其特征在于,所述下发与所述环境对象对应的清扫控制指令至所述清扫机器人包括:
确定所述环境对象中复位对象的第一对象位置和非复位对象的第二对象位置;所述复位对象和所述非复位对象的类型均为非清扫类型;
获取所述复位对象预设的复位位置;
根据所述第一对象位置和所述复位位置生成复位控制指令,并根据所述第二对象位置生成清扫控制指令;
发送所述复位控制指令和所述清扫控制指令至所述清扫机器人;所述复位控制指令用于控制所述清扫机器人将所述复位对象从所述第一对象位置转移至所述复位位置。
7.根据权利要求6所述的方法,其特征在于,所述下发与所述环境对象对应的清扫控制指令至所述清扫机器人包括:
确定所述环境对象中的清扫对象;所述清扫对象的类型为清扫类型;
根据所述清扫对象的类型确定所述清扫对象对应的清扫策略;
根据所述清扫策略和所述清扫对象的当前位置生成清扫控制指令,并发送所述清扫控制指令至所述清扫机器人。
8.一种基于日程信息的清扫机器人控制装置,其特征在于,所述装置包括:
日程信息获取模块,获取清扫机器人关联的用户标识对应的日程信息;
清扫区域确定模块,用于当满足清扫触发条件时,根据所述日程信息确定待清扫区域;
环境图像获取模块,用于控制所述清扫机器人移动至所述待清扫区域,并获取所述清扫机器人采集获得的与所述待清扫区域对应的环境图像;
环境对象确定模块,用于根据所述日程信息和所述环境图像确定所述待清扫区域中的环境对象;
清扫控制模块,用于下发与所述环境对象对应的清扫控制指令至所述清扫机器人,所述清扫控制指令用于控制所述清扫机器人根据所述清扫控制指令对所述待清扫区域进行清扫。
9.一种清扫机器人,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010487569.0A CN111643017B (zh) | 2020-06-02 | 2020-06-02 | 基于日程信息的清扫机器人控制方法、装置和清扫机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010487569.0A CN111643017B (zh) | 2020-06-02 | 2020-06-02 | 基于日程信息的清扫机器人控制方法、装置和清扫机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111643017A true CN111643017A (zh) | 2020-09-11 |
CN111643017B CN111643017B (zh) | 2022-08-16 |
Family
ID=72341561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010487569.0A Active CN111643017B (zh) | 2020-06-02 | 2020-06-02 | 基于日程信息的清扫机器人控制方法、装置和清扫机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111643017B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113645504A (zh) * | 2021-07-30 | 2021-11-12 | 深圳市悦道科技有限公司 | 一种tv应用软件管理系统及方法 |
CN114287832A (zh) * | 2021-12-30 | 2022-04-08 | 安徽协创物联网技术有限公司 | 一种扫地机器人系统 |
CN114451816A (zh) * | 2021-12-23 | 2022-05-10 | 杭州华橙软件技术有限公司 | 清扫策略生成方法、装置、计算机设备和存储介质 |
CN114489058A (zh) * | 2022-01-13 | 2022-05-13 | 深圳市优必选科技股份有限公司 | 扫地机器人及其路径规划方法、装置和存储介质 |
CN115229808A (zh) * | 2022-05-25 | 2022-10-25 | 盐池县中赢创能新能源有限公司 | 一种光伏电站清扫机器人及控制方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392346A (zh) * | 2014-11-25 | 2015-03-04 | 三星电子(中国)研发中心 | 清洁设备及其控制方法和装置 |
CN105395144A (zh) * | 2015-12-21 | 2016-03-16 | 美的集团股份有限公司 | 扫地机器人的控制方法、系统、云服务器和扫地机器人 |
CN105559696A (zh) * | 2015-12-11 | 2016-05-11 | 小米科技有限责任公司 | 设备控制方法、系统及终端 |
CN106292356A (zh) * | 2015-06-09 | 2017-01-04 | 联想(北京)有限公司 | 一种机器人控制方法及电子设备 |
CN106998981A (zh) * | 2014-11-17 | 2017-08-01 | 三星电子株式会社 | 机器人清洁器、终端装置及其控制方法 |
CN107544495A (zh) * | 2017-08-17 | 2018-01-05 | 北京小米移动软件有限公司 | 清扫方法及装置 |
CN108968818A (zh) * | 2018-07-16 | 2018-12-11 | 广州俊德信息科技有限公司 | 清洁电器的收纳方法、系统、设备和可存储介质 |
CN109171571A (zh) * | 2018-09-18 | 2019-01-11 | 格力电器(武汉)有限公司 | 垃圾的清理方法、装置以及清洁机器人 |
KR20190087355A (ko) * | 2019-07-05 | 2019-07-24 | 엘지전자 주식회사 | 영역별 인체 활동 데이터를 이용하여 주행하는 청소로봇 및 청소로봇을 주행시키는 방법 |
CN110680245A (zh) * | 2019-10-14 | 2020-01-14 | 杭州昕华信息科技有限公司 | 一种扫地机器人的清扫模式切换系统及其使用方法 |
WO2020023131A1 (en) * | 2018-07-24 | 2020-01-30 | Qualcomm Incorporated | Managing cleaning robot behavior |
CN111008571A (zh) * | 2019-11-15 | 2020-04-14 | 万翼科技有限公司 | 室内垃圾处理方法及相关产品 |
CN111166247A (zh) * | 2019-12-31 | 2020-05-19 | 深圳飞科机器人有限公司 | 垃圾分类处理方法及清洁机器人 |
-
2020
- 2020-06-02 CN CN202010487569.0A patent/CN111643017B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106998981A (zh) * | 2014-11-17 | 2017-08-01 | 三星电子株式会社 | 机器人清洁器、终端装置及其控制方法 |
CN104392346A (zh) * | 2014-11-25 | 2015-03-04 | 三星电子(中国)研发中心 | 清洁设备及其控制方法和装置 |
CN106292356A (zh) * | 2015-06-09 | 2017-01-04 | 联想(北京)有限公司 | 一种机器人控制方法及电子设备 |
CN105559696A (zh) * | 2015-12-11 | 2016-05-11 | 小米科技有限责任公司 | 设备控制方法、系统及终端 |
CN105395144A (zh) * | 2015-12-21 | 2016-03-16 | 美的集团股份有限公司 | 扫地机器人的控制方法、系统、云服务器和扫地机器人 |
CN107544495A (zh) * | 2017-08-17 | 2018-01-05 | 北京小米移动软件有限公司 | 清扫方法及装置 |
CN108968818A (zh) * | 2018-07-16 | 2018-12-11 | 广州俊德信息科技有限公司 | 清洁电器的收纳方法、系统、设备和可存储介质 |
WO2020023131A1 (en) * | 2018-07-24 | 2020-01-30 | Qualcomm Incorporated | Managing cleaning robot behavior |
CN109171571A (zh) * | 2018-09-18 | 2019-01-11 | 格力电器(武汉)有限公司 | 垃圾的清理方法、装置以及清洁机器人 |
KR20190087355A (ko) * | 2019-07-05 | 2019-07-24 | 엘지전자 주식회사 | 영역별 인체 활동 데이터를 이용하여 주행하는 청소로봇 및 청소로봇을 주행시키는 방법 |
CN110680245A (zh) * | 2019-10-14 | 2020-01-14 | 杭州昕华信息科技有限公司 | 一种扫地机器人的清扫模式切换系统及其使用方法 |
CN111008571A (zh) * | 2019-11-15 | 2020-04-14 | 万翼科技有限公司 | 室内垃圾处理方法及相关产品 |
CN111166247A (zh) * | 2019-12-31 | 2020-05-19 | 深圳飞科机器人有限公司 | 垃圾分类处理方法及清洁机器人 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113645504A (zh) * | 2021-07-30 | 2021-11-12 | 深圳市悦道科技有限公司 | 一种tv应用软件管理系统及方法 |
CN114451816A (zh) * | 2021-12-23 | 2022-05-10 | 杭州华橙软件技术有限公司 | 清扫策略生成方法、装置、计算机设备和存储介质 |
CN114451816B (zh) * | 2021-12-23 | 2024-02-09 | 杭州华橙软件技术有限公司 | 清扫策略生成方法、装置、计算机设备和存储介质 |
CN114287832A (zh) * | 2021-12-30 | 2022-04-08 | 安徽协创物联网技术有限公司 | 一种扫地机器人系统 |
CN114489058A (zh) * | 2022-01-13 | 2022-05-13 | 深圳市优必选科技股份有限公司 | 扫地机器人及其路径规划方法、装置和存储介质 |
CN115229808A (zh) * | 2022-05-25 | 2022-10-25 | 盐池县中赢创能新能源有限公司 | 一种光伏电站清扫机器人及控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111643017B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111657798B (zh) | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 | |
CN111643017B (zh) | 基于日程信息的清扫机器人控制方法、装置和清扫机器人 | |
CN111543902B (zh) | 地面清洁方法、装置、智能清洁设备和存储介质 | |
CN111568314B (zh) | 基于场景识别的清洁方法、装置、清洁机器人和存储介质 | |
RU2624737C2 (ru) | Способ и устройство для уборки мусора | |
CN111839371B (zh) | 地面清扫方法、装置、扫地机和计算机存储介质 | |
CN110174888B (zh) | 自移动机器人控制方法、装置、设备及存储介质 | |
WO2021098536A1 (zh) | 基于场景识别的清扫方法、系统、扫地设备及存储介质 | |
Purushwalkam et al. | Audio-visual floorplan reconstruction | |
US20190080245A1 (en) | Methods and Systems for Generation of a Knowledge Graph of an Object | |
WO2020248458A1 (zh) | 一种信息处理方法、装置及存储介质 | |
CN113670292B (zh) | 地图的绘制方法和装置、扫地机、存储介质、电子装置 | |
JP6713057B2 (ja) | 移動体制御装置および移動体制御プログラム | |
KR20200024675A (ko) | 휴먼 행동 인식 장치 및 방법 | |
CN107171872A (zh) | 一种智能家居中用户行为预测方法 | |
CN108197635B (zh) | 烹饪方式的展示方法及装置、抽油烟机 | |
CN111643014A (zh) | 智能清洁方法、装置、智能清洁设备和存储介质 | |
CN112462780A (zh) | 扫地控制方法、装置、扫地机器人及计算机可读存储介质 | |
CN110928282A (zh) | 清扫机器人的控制方法及装置 | |
WO2019211932A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム | |
CN112784664A (zh) | 语义地图构建与作业方法、自主移动设备及存储介质 | |
CN110742557B (zh) | 一种摄像头的控制方法、装置及电子设备 | |
EP3037916B1 (en) | Monitoring | |
CN114504273A (zh) | 机器人控制方法及装置 | |
CN111814665A (zh) | 基于宠物情绪识别的陪护方法、装置、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |