CN113367616B - 机器人控制方法、装置、机器人及存储介质 - Google Patents
机器人控制方法、装置、机器人及存储介质 Download PDFInfo
- Publication number
- CN113367616B CN113367616B CN202110546630.9A CN202110546630A CN113367616B CN 113367616 B CN113367616 B CN 113367616B CN 202110546630 A CN202110546630 A CN 202110546630A CN 113367616 B CN113367616 B CN 113367616B
- Authority
- CN
- China
- Prior art keywords
- cleaned
- area
- scene
- cleaning
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/24—Floor-sweeping machines, motor-driven
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4002—Installations of electric equipment
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
本发明实施例涉及一种机器人控制方法、装置、机器人及存储介质,方法包括:获取待作业场景的场景图像,根据所述场景图像确定至少一个场景对象的位置,所述场景对象与待清扫物相关,根据所述至少一个场景对象的位置确定待清扫物对应的预设区域;从所述待作业场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;确定所述待清扫区域对应的清扫策略,以及按照所述清扫策略对所述待清扫区域执行清扫操作。由此,可以提升清扫效率,提升用户体验。
Description
技术领域
本发明实施例涉及自动化领域,尤其涉及一种机器人控制方法、装置、机器人及存储介质。
背景技术
随着人们生活水平的不断提高,机器人已经越来越多地应用到居民家庭。
目前,机器人在对居民家庭内的各个区域进行清扫时,一般采用固定的清扫策略,而在实际应用中,居民家庭内各个区域的整洁度不一,例如,宠物或居民活动频繁的区域会比较脏乱,而很少有宠物或居民活动的区域则比较整洁,这就导致采用固定的清扫策略对居民家庭内的各个区域进行清扫时清扫效率低下。
发明内容
鉴于此,为解决现有技术中机器人采用固定的清扫策略对不同区域进行清扫,导致清扫效率低下的技术问题,本发明实施例提供一种机器人控制方法、装置、机器人及存储介质。
第一方面,本发明实施例提供一种机器人控制方法,所述方法包括:
获取待作业场景的场景图像,根据所述场景图像确定至少一个场景对象的位置,所述场景对象与待清扫物相关;
根据所述至少一个场景对象的位置确定待清扫物对应的预设区域;
从所述待作业场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
确定所述待清扫区域对应的清扫策略,以及按照所述清扫策略对所述待清扫区域执行清扫操作。
在一可能的实施方式中,所述方法还包括:
根据所述场景图像确定所述预设区域对应的第一预测数据,所述第一预测数据用于表征所述预设区域内出现所述场景对象的概率;
所述从所述待作业场景中确定待清扫区域,包括:
针对所有所述预设区域,将对应的第一预测数据满足设定条件的所述预设区域确定为待清扫区域。
在一可能的实施方式中,所述方法还包括:
根据所述场景图像确定所述预设区域对应的第二预测数据,所述第二预测数据用于表征所述预设区域内出现所述待清扫物的概率;
所述确定所述待清扫区域对应的清扫策略,包括:
根据所述待清扫区域对应的所述第二预测数据,确定所述待清扫区域对应的清扫策略。
在一可能的实施方式中,所述方法还包括:
获取所述待清扫区域的区域图像;
所述根据所述待清扫区域对应的所述第二预测数据,确定所述待清扫区域对应的清扫策略,包括:
根据所述区域图像和所述待清扫区域对应的第二预测数据,确定所述待清扫区域中待清扫物的密度;
根据所述待清扫区域中待清扫物的密度,确定所述待清扫区域对应的清扫策略。
在一可能的实施方式中,所述根据所述区域图像和所述待清扫区域对应的第二预测数据,确定所述待清扫区域中待清扫物的密度,包括:
将所述区域图像输入至已训练的识别模型,得到所述识别模型输出的识别结果,所述识别结果包括所述识别模型从输入的图像中识别出的待清扫物以及识别置信度;
针对所述识别模型识别出的每一所述待清扫物,将所述待清扫物对应的识别置信度与所述待清扫区域对应的第二预测数据进行设定运算;
根据目标待清扫物确定所述待清扫区域中待清扫物的密度,所述目标待清扫物是指对应的运算结果满足设定条件的待清扫物。
在一可能的实施方式中,在所述按照所述清扫策略对所述待清扫区域执行清扫操作之后,所述方法还包括:
获取所述待清扫区域的区域图像;
根据所述区域图像更新所述待清扫区域对应的第一预测数据,以在下一清扫周期内,根据更新后的所述第一预测数据确定待清扫区域。
在一可能的实施方式中,在所述按照所述清扫策略对所述待清扫区域执行清扫操作之后,所述方法还包括:
获取所述待清扫区域的区域图像;
根据所述区域图像更新所述待清扫区域对应的第二预测数据,以在下一清扫周期内,针对所述待清扫区域,根据更新后的所述第二预测数据确定所述待清扫区域对应的清扫策略。
在一可能的实施方式中,所述按照所述清扫策略对所述待清扫区域执行清扫操作,包括:
检测当前的待清扫区域中是否存在障碍物;
若是,则移动至下一待清扫区域,将所述下一待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤,直至不存在下一待清扫区域;
若否,则按照所述清扫策略对当前的待清扫区域执行清扫操作。
在一可能的实施方式中,所述方法还包括:
若检测到当前的待清扫区域中存在障碍物,则记录当前的待清扫区域;
当确定不存在下一待清扫区域时,移动至已记录的所述待清扫区域,将已记录的所述待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤。
在一可能的实施方式中,所述方法还包括:
在所述将已记录的所述待清扫区域确定为当前的待清扫区域,检测到当前的待清扫区域中存在障碍物时,输出用于指示当前的待清扫区域未清扫的指示消息;
当接收到基于所述指示消息触发的清扫指令时,移动至下一已记录的待清扫区域,将所述下一已记录的待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤,直至已记录的待清扫区域完成清扫操作。
在一可能的实施方式中,所述方法还包括:
输出所述区域图像和所述区域图像对应的识别结果;
在检测到针对所述识别结果的纠错事件时,获取所述纠错事件对应的识别结果;
根据所述纠错事件对应的识别结果和所述区域图像,对所述识别模型进行重训练。
第二方面,本发明实施例提供一种机器人控制方法,应用于室内清扫场景,所述方法包括:
机器人获取待清扫的室内场景的场景图像,根据所述场景图像确定至少一个宠物对象的位置;
机器人根据所述至少一个宠物对象的位置确定宠物垃圾对应的预设区域;
机器人从所述室内场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
机器人按照清扫策略对所述待清扫区域执行清扫操作。
在一可能的实施方式中,所述方法还包括:
根据所述场景图像确定所述预设区域对应的第一预测数据,所述第一预测数据用于表征所述预设区域内出现所述宠物对象的概率;
所述从所述待作业场景中确定待清扫区域,包括:
针对所有所述预设区域,将对应的第一预测数据满足设定条件的所述预设区域确定为待清扫区域。
在一可能的实施方式中,所述按照清扫策略对所述待清扫区域执行清扫操作,包括:
检测当前的待清扫区域中是否存在宠物;
若是,则移动至下一待清扫区域,将所述下一待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤,直至不存在下一待清扫区域;
若否,则按照清扫策略对当前的待清扫区域执行清扫操作。
在一可能的实施方式中,所述方法还包括:
若检测到当前的待清扫区域中存在宠物,则记录当前的待清扫区域;
当确定不存在下一待清扫区域时,移动至已记录的所述待清扫区域,将已记录的所述待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤。
在一可能的实施方式中,所述方法还包括:
在所述将已记录的所述待清扫区域确定为当前的待清扫区域,检测到当前的待清扫区域中存在宠物时,输出用于指示当前的待清扫区域未清扫的指示消息;
当接收到基于所述指示消息触发的清扫指令时,移动至下一已记录的待清扫区域,将所述下一已记录的待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤,直至已记录的待清扫区域完成清扫操作。
第三方面,本发明实施例提供一种机器人控制装置,所述装置包括:
场景图像获取模块,用于获取待作业场景的场景图像;
位置确定模块,用于根据所述场景图像确定至少一个场景对象的位置,所述场景对象与待清扫物相关;
第一区域确定模块,用于根据所述至少一个场景对象的位置确定待清扫物对应的预设区域;
第二区域确定模块,用于从所述待作业场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
策略确定模块,用于确定所述待清扫区域对应的清扫策略;
清扫模块,用于按照所述清扫策略对所述待清扫区域执行清扫操作。
第四方面,本发明实施例提供一种机器人控制装置,所述装置包括:
场景图像获取模块,用于获取待清扫的室内场景的场景图像;
位置确定模块,用于根据所述场景图像确定至少一个宠物对象的位置;
第一区域确定模块,用于根据所述至少一个宠物对象的位置确定宠物垃圾对应的预设区域;
第二区域确定模块,用于从所述室内场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
清扫模块,用于按照清扫策略对所述待清扫区域执行清扫操作。
第五方面,本发明实施例提供一种机器人,包括:处理器和存储器,所述处理器用于执行所述存储器中存储的机器人控制程序,以实现第一方面或第二方面中任一项所述的机器人控制方法。
第六方面,本发明实施例提供一种存储介质,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现第一方面或第二方面中任一项所述的机器人控制方法。
本发明实施例提供的技术方案,通过在执行清扫任务的过程中,从待作业场景中确定待清扫区域,确定待清扫区域对应的清扫策略,以及按照清扫策略对待清扫区域执行清扫操作,可以实现根据不同待清扫区域各自的实际情况,采取相应的清扫策略执行清扫操作,这相较于现有技术中,对不同的区域采用相同的清扫策略执行清扫操作而言,可以提升清扫效率;同时,通过获取待作业场景的场景图像,根据场景图像确定至少一个与待清扫物相关的场景对象的位置,进而根据至少一个场景对象的位置确定待清扫物对应的预设区域,可以实现智能地确定待作业场景中待清扫物出现概率较高的区域,进而能够实现机器人优先或重点对待清扫物出现概率较高的区域进行清扫,这也能够提升清扫效率,还能够提升用户体验。
附图说明
图1为本发明实施例涉及的应用场景的示意图;
图2为本发明实施例提供的一种机器人控制方法的实施例流程图;
图3为待作业场景中,待清扫物对应的预设区域的一种示例;
图4为本发明实施例提供的另一种机器人控制方法的实施例流程图;
图5为待作业场景中,预设区域对应的第一预测数据的一种示例;
图6为待作业场景中,预设区域对应的第二预测数据的一种示例;
图7为初始时,待作业场景对应的第二预测数据的一种示例;
图8为待作业场景中,预设区域对应的第二预测数据的另一种示例;
图9为本发明实施例提供的一种根据待清扫区域对应的第二预测数据,确定待清扫区域对应的清扫策略的示例性流程图;
图10为移动终端提醒用户手动对待清扫区域执行清扫操作时,显示界面的一种示例;
图11为移动终端提醒用户待清扫区域未清扫时,显示界面的一种示例;
图12为本发明实施例提供的再一种机器人控制方法的实施例流程图;
图13为本发明实施例提供的一种机器人控制装置的实施例框图;
图14为本发明实施例提供的另一种机器人控制装置的实施例框图;
图15为本发明实施例提供的一种的机器人的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于理解本发明实施例,下面首先结合附图对本发明实施例涉及的应用场景进行举例说明:
参见图1,为本发明实施例涉及的应用场景的示意图。图1所示应用场景中包括室内场景100、机器人101、宠物102、宠物窝棚103、宠物食盆104、宠物口粮105,需要说明的是,本发明实施例中,室内场景100中还可包括其他对象,例如家具、家用电器、居民等,本发明实施例对此不做限制。
可以理解的是,在应用中,宠物窝棚103、宠物食盆104在室内场景100中的位置通常是固定不变的,而宠物102、宠物口粮105、猫砂(图1中未示出)等在室内场景100中的位置是多变的,并且,宠物口粮105、猫砂等宠物垃圾多出现在宠物102的活动区域内,宠物102又多活动于宠物窝棚103、宠物食盆104所在区域内,也即,宠物窝棚103、宠物食盆104所在区域内出现宠物垃圾的概率较高。
在图1所示应用场景中,机器人101可应用本发明实施例提供的机器人控制方法,实现对出现宠物垃圾的概率较高的区域进行重点清扫,或者仅清扫出现宠物垃圾的概率较高的区域,从而提高清扫效率。
需要说明的是,图1所示应用场景仅仅是本发明实施例提供的机器人控制方法的一种示例性应用场景,在应用中,还可在其他应用场景中应用本发明实施例提供的机器人控制方法。
例如,在一示例性应用场景中,可应用本发明实施例提供的机器人控制方法,实现对家庭场景中儿童活动频率较高的区域(比如儿童餐桌附近)进行重点清扫,进一步地,机器人还可对儿童活动区域的物品执行其它作业操作,比如地毯、玩具等进行杀菌、消毒等操作。
在另一示例性应用场景中,可应用本发明实施例提供的机器人控制方法,实现对商超场景中垃圾桶所在区域进行重点清扫。进一步地,还可对垃圾桶所在区域进行杀菌、消毒、除味等操作。
下面结合附图以具体实施例对本发明提供的机器人控制方法做进一步的解释说明,实施例并不构成对本发明实施例的限定。
参见图2,为本发明实施例提供的一种机器人控制方法的实施例流程图。作为一个实施例,该方法可应用于图1中所示例的机器人101,如图2所示,该流程可包括以下步骤:
步骤201、获取待作业场景的场景图像,根据场景图像确定至少一个场景对象的位置,场景对象与待清扫物相关。
在一个例子中,上述待作业场景指图1中所示例的室内场景100,待清扫物指宠物垃圾,例如宠物口粮、猫砂、宠物毛发等,场景对象指与待清扫物相关的对象,包括但不限于:宠物、宠物窝棚、宠物食盆、用户等。
本发明实施例中,机器人获取待作业场景的图像(以下称场景图像),根据场景图像确定至少一个场景对象的位置。
其中,作为一个实施例,机器人上可安装有摄像头(或者图像传感器),如此,机器人可通过自身安装的摄像头(或者图像传感器)采集场景图像,进而根据采集到的场景图像确定至少一个场景对象的位置。作为另一个实施例,待作业场景中还可布设有一台或多台图像采集设备,机器人与该一台或多台图像采集设备通信连接,如此,可由该一台或多台图像采集设备采集场景图像,并将采集的场景图像发送给机器人,进而机器人可获取到场景图像,根据获取到的场景图像确定至少一个场景对象的位置。这里,图像采集设备包括但不限于:枪型摄像机、球型摄像机、鱼眼摄像机等。
作为一个实施例,机器人在获取到场景图像后,可将场景图像输入至已训练的识别模型,以由识别模型识别场景图像中是否存在待清扫物以及与待清扫物相关的场景对象,并由识别模型在场景图像中识别出待清扫物或者与待清扫物相关的场景对象时,确定待清扫物或者与待清扫物相关的场景对象在待作业场景的位置。
步骤202、根据至少一个场景对象的位置确定待清扫物对应的预设区域。
以图1所示场景为例,宠物垃圾多出现在宠物的活动区域内,因此,待清扫物对应的预设区域可不仅包括待清扫物所在区域,还可包括与待清扫物相关的场景对象所在区域,也即,预设区域中存在待清扫物,或者存在与待清扫物相关的场景对象,再或者存在待清扫物和与待清扫物相关的场景对象。参见图3,为待作业场景中,待清扫物对应的预设区域的一种示例。
作为一个实施例,机器人可将每一场景对象所在位置为中心,以设定距离为半径的圆形区域确定为待清扫物对应的预设区域,从而得到图3的示例。
此外,需要说明的是,本发明实施例中,机器人可在初始化过程中,执行获取待作业场景的场景图像,根据场景图像确定至少一个场景对象的位置,以及根据至少一个场景对象的位置确定待清扫物对应的预设区域的步骤。这里,初始化过程可以指:机器人构建待作业场景的地图的过程。可以理解的是,机器人在正式投入使用之前,通常先在待作业场景中进行移动,以构建待作业场景的地图,机器人在正式投入使用之后,则可根据已构建的地图进行导航,以对待作业场景执行清扫操作。
进一步地,由于在应用中,宠物、宠物口粮、猫砂等在室内场景中的位置是多变的,因此,机器人还可在每一次的清扫周期内,均执行获取待作业场景的场景图像,根据场景图像确定至少一个场景对象的位置,以及根据至少一个场景对象的位置确定待清扫物对应的预设区域的步骤,以在下一次清扫周期内,根据最新确定的待清扫物对应的预设区域,对待作业场景执行清扫操作。这里,清扫周期是指:从接收到清扫任务至完成本次清扫任务的持续时间段。
步骤203、从待作业场景中确定待清扫区域,该待清扫区域至少包括一个预设区域。
作为一个实施例,机器人在执行清扫任务的过程中,可将待作业场景中,待清扫物对应的预设区域确定为待清扫区域。在图1所示应用场景中,通过该种处理可以实现:机器人仅对宠物出现概率较高的区域范围、宠物垃圾出现概率较高的区域进行清扫,这相较于每次执行清扫任务时都对全场景进行清扫,可以缩短清扫耗时,提升清扫效率。
进一步地,在应用中,可由用户设置机器人的工作模式。例如,将机器人的工作模式设置为宠物清扫模式,或者按照设定策略,比如每周一、三、五自动开启宠物清扫模式。在宠物清扫模式下,机器人则可将待作业场景中,待清扫物对应的预设区域确定为待清扫区域。
当然,在应用中,机器人也可将整个待作业场景确定为待清扫区域,本发明实施例对此不作限制。
作为另一个实施例,机器人在将整个待作业场景确定为待清扫区域的情况下,可进一步地将待清扫物对应的预设区域确定为重点待清扫区域,或者优先待清扫区域,而将其他区域确定为非重点待清扫区域,或者非优先待清扫区域。通过该种处理可以实现:机器人智能地对比较脏的区域进行重点清扫或优先清扫,这能够提升清扫效率,提升用户体验。
步骤204、确定待清扫区域对应的清扫策略,以及按照清扫策略对待清扫区域执行清扫操作。
在本发明实施例中,若存在多个待清扫区域,则机器人可先规划该多个待清扫区域的清扫顺序,例如基于路径最短原则规划该多个待清扫区域的清扫顺序,然后按照清扫顺序对多个待清扫区域执行清扫操作。
由步骤204中的描述可知,本发明实施例中,机器人在对待清扫区域进行清扫时,可根据待清扫区域当前的真实情况,智能地确定待清扫区域对应的清扫策略,以按照确定出的清扫策略对待清扫区域进行清扫操作。例如,若待清扫区域为重点待清扫区域,或者待清扫区域中待清扫物较为密集,则采用清扫力较强的清扫策略,或者重复多次清扫的清扫策略对该待清扫区域执行清扫操作,以提高清扫力度。至于具体是如何确定待清扫区域的清扫策略的,在下文中通过图4所示实施例进行说明,这里先不详述。
此外,本发明实施例中,机器人在对待清扫区域进行清扫时,还可根据待清扫区域中待清扫物的类型执行相应的清扫操作,例如,若待清扫区域中有水,则可对待清扫区域执行拖地操作,若待清扫区域中有颗粒物,则可对待清扫区域执行先扫后拖的清扫操作。
本发明实施例提供的技术方案,通过在执行清扫任务的过程中,从待作业场景中确定待清扫区域,确定待清扫区域对应的清扫策略,以及按照清扫策略对待清扫区域执行清扫操作,可以实现根据不同待清扫区域各自的实际情况,采取相应的清扫策略执行清扫操作,这相较于对不同的区域采用相同的清扫策略执行清扫操作而言,可以提升清扫效率;同时,通过获取待作业场景的场景图像,根据场景图像确定至少一个与待清扫物相关的场景对象的位置,进而根据至少一个场景对象的位置确定待清扫物对应的预设区域,可以实现智能地确定待作业场景中待清扫物出现概率较高的区域,进而能够实现机器人优先或重点对待清扫物出现概率较高的区域进行清扫,这也能够提升清扫效率,还能够提升用户体验。
此外,本发明实施例中,机器人还可具备宠物口粮/饮用水的投放功能。具体地,由上述描述可知,机器人在获取到场景图像后,可识别场景图像中是否存在待清扫物相关的场景对象,基于此,机器人可识别场景图像中是否存在宠物食盆。在机器人识别到宠物食盆的情况下,作为一个可选的实现方式,机器人可进一步识别宠物食盆中宠物口粮(或者饮用水,以下仅以宠物口粮为例)的余量,然后判断宠物食盆中,宠物口粮的余量是否充足,若判断出宠物口粮的余量不足,机器人可自动地向宠物食盆中投放宠物口粮,或者是输出用于指示宠物食盆中宠物口粮余量不足的提醒消息,之后响应于用户基于该提醒消息触发的投放操作,向宠物食盆中投放宠物口粮。这里,机器人可通过自身的功能模块输出上述提醒消息,比如通过音频模块输出声音形式的提醒消息,和/或通过光模块输出光信号形式的提醒消息等,机器人也可以通过自身的通信模块,比如蓝牙模块、无线模块等将上述提醒消息发送至用户所使用的移动终端上,用户则通过移动终端触发上述投放操作。作为另一个可选的实现方式,机器人可确定当前是否到达预设的投放周期,若是,则可向宠物食盆中投放宠物口粮。
在上述描述中,机器人在确定向宠物食盆中投放宠物口粮时,可先移动至预设位置处获取宠物口粮,然后再移动至宠物食盆所在位置处进行投放。
此外,还需要说明的是,上述所描述的图2所示流程可应用于图1中所示例的机器人101,仅仅是一种示例性说明,在实际应用中,还可由机器人同外部设备共同来实现图2所示流程。例如,在应用中,可由服务器获取待作业场景的场景图像,根据场景图像确定至少一个场景对象的位置,根据至少一个场景对象的位置确定待清扫物对应的预设区域,以及,由服务器在检测到机器人将要执行清扫操作时,从待作业场景中确定待清扫区域和待清扫区域对应的清扫策略,将确定的待清扫区域以及对应的清扫操作发送给机器人,由机器人按照对应的清扫策略对待清扫区域执行清扫操作。本发明实施例对图2所示流程的具体执行主体并不做限制。
参见图4,为本发明实施例提供的另一种机器人控制方法的实施例流程图。作为一个实施例,该方法可应用于图1中所示例的机器人101,如图4所示,该流程可包括以下步骤:
步骤401、获取待作业场景的场景图像,根据场景图像确定至少一个场景对象的位置。
步骤402、根据至少一个场景对象的位置确定待清扫物对应的预设区域。
本发明实施例中,机器人可在待作业场景中,按照设定的路线进行移动,移动过程中,以设定频率或设定时间间隔获取待作业场景的场景图像。当从获取到的场景图像中识别到待清扫物或与待清扫物相关的场景对象(例如宠物、宠物窝棚、食盆等)时,在待作业场景的地图中标记对应的位置,也即识别到的待清扫物或与待清扫物相关的场景对象所在位置,然后,以该位置为中心,以设定距离为半径,生成一个圆形区域,该圆形区域即为待清扫物对应的预设区域,可参见图3的示例。
至于本步骤401和402的其他描述可以参见上述步骤201和202中的描述,这里不再赘述。
步骤403、根据场景图像确定预设区域对应的第一预测数据和第二预测数据,第一预测数据用于表征预设区域内出现场景对象的概率,第二预测数据用于表征预设区域内出现待清扫物的概率。
首先说明,如图5所示,为待作业场景中,预设区域对应的第一预测数据的一种示例。在图5中,以颜色深度表示第一预测数据,颜色越深,意味着出现与待清扫物相关的场景对象的概率越大,反之,颜色越浅,意味着出现与待清扫物相关的场景对象的概率越小。
本发明实施例中,可通过以下过程得到上述图5:
机器人在待作业场景中识别到宠物、宠物窝棚或食盆时,在对应的预设区域中,从中心位置处开始,以逐渐衰减的颜色值填充该预设区域。在待作业场景中识别到宠物口粮、猫砂、宠物毛发等宠物垃圾时,根据识别到的宠物垃圾的数量,宠物垃圾的铺洒面积,以相应的颜色值填充对应的预设区域,其中,宠物垃圾的数量越多,颜色越深,从而表征出现待清扫物相关的场景对象的概率越大,宠物垃圾的铺洒面积越大,颜色越深,从而表征出现待清扫物相关的场景对象的概率越大。
其次说明,如图6所示,为待作业场景中,预设区域对应的第二预测数据的一种示例。在图6中,以颜色深度表示第二预测数据,颜色越深,意味着出现待清扫物的概率越大,反之,颜色越浅,意味着出现待清扫物的概率越小。
本发明实施例中,可通过以下过程得到上述图6:
机器人在初次构建上述图6之前,首先为待作业场景设置一个初始的第二预测数据,在一个例子中,若待作业场景包括两个或两个以上房间,可为每个房间分别设置一个初始的第二预测数据,不同房间对应的初始的第二预测数据可以不同。其中,可根据房间内与宠物相关的对象的数量或面积,为不同房间设置不同的第二预测数据,且房间内宠物相关对象的数量越多或面积越大,为其设置的第二预测数据越大,表征房间内出现待清扫物的概率越大。参见图7,为初始时,待作业场景对应的第二预测数据的一种示例。在图7中,以颜色深度表示第二预测数据,颜色越深,意味着出现与待清扫物的概率越大,反之,颜色越浅,意味着出现待清扫物的概率越小。
之后,机器人可在每一次的清扫周期内,在待作业场景中,按照设定的路线进行移动,移动过程中,以设定频率或设定时间间隔获取待作业场景的场景图像。当从获取到的场景图像中识别到待清扫物时,在图7中标记对应的位置,然后,增加图7中,该位置上的第二预测数据,也即增加该位置出现待清扫物的概率,与此同时,可减小其他位置上的第二预测数据,也即减小其他位置出现待清扫物的概率,得到图6。这里,其他位置是指:当前获取到的场景图像中,除待清扫物所在位置以外的其他位置。
此外,本发明实施例中,机器人减小上述其他位置上的第二预测数据时,可采用逐渐衰减的方式,具体的,若某一位置距离待清扫物所在位置越近,则将该位置上的第二预测数据减去一个较小的值,反之,若某一位置距离待清扫物所在位置越远,则将该位置上的第二预测数据减去一个较大的值,如此处理可得到图8的示例。需要说明的是,在图8中,以颜色深度表示第二预测数据,颜色越深,意味着出现与待清扫物的概率越大,反之,颜色越浅,意味着出现待清扫物的概率越小。
随着机器人执行清扫任务的次数越多,待作业场景的每一位置处对应的第二预测数据也将越来越可靠,最终形成图6的示例。
步骤404、针对所有预设区域,将对应的第一预测数据满足设定条件的预设区域确定为待清扫区域。
作为一个实施例,上述设定条件可以是:第一预测数据大于设定阈值,也即第一预测数据所表征的概率大于设定阈值。基于此,在步骤404中,机器人可针对所有预设区域,将对应的第一预测数据大于设定阈值的预设区域确定为待清扫区域。
作为另一个实施例,上述设定条件可以是:第一预测数据在所有预设区域对应的第一预测数据中排名前N位。基于此,在步骤404中,机器人可按照第一预测数据从高到低的顺序,对预设区域进行排序,将排在前N位的预设区域确定为待清扫区域。
可以理解的是,通过上述两个实施例可以实现,将出现待清扫物或者与待清扫物相关的场景对象的概率较大的预设区域,确定为待清扫区域,从而实现优先对出现待清扫物或者与待清扫物相关的场景对象的概率较大的区域执行清扫操作。
步骤405、根据待清扫区域对应的第二预测数据,确定待清扫区域对应的清扫策略。
本发明实施例中,步骤405可通过图9所示例的步骤4051~4053实现:
步骤4051、获取待清扫区域的区域图像。
步骤4052、根据区域图像和待清扫区域对应的第二预测数据,确定待清扫区域中待清扫物的密度。
本发明实施例中,机器人可将获取到的区域图像输入至已训练的识别模型,得到识别模型输出的识别结果,该识别结果包括识别模型从输入的图像中识别出的待清扫物以及识别置信度。之后,机器人针对识别模型识别出的每一待清扫物,将该待清扫物对应的识别置信度与待清扫区域对应的第二预测数据进行设定运算(例如,将待清扫物对应的识别置信度与待清扫区域对应的第二预测数据相乘,得到运算结果),将运算结果确定为该待清扫物对应的最终识别置信度。如此处理的原因在于:对于第二预测数据较低的区域,也即出现待清扫物的概率较低的区域,若识别模型从该区域的区域图像中识别到待清扫物,有较大的可能是出现误识别,这时将识别模型输出的置信度与第二预测数据相乘,则可进一步降低识别到的待清扫物对应的识别置信度;反之,对于第二预测数据较高的区域,也即出现待清扫物的概率较高的区域,将识别模型输出的置信度与第二预测数据相乘,则可进一步提高识别到的待清扫物对应的识别置信度。由此可见,通过该种处理可以提高最终识别结果的准确性。
最后,机器人从识别出的所有待清扫物中确定目标待清扫物,该目标待清扫物是指对应的运算结果满足设定条件的待清扫物,进而根据目标待清扫物确定待清扫区域中待清扫物的密度。这里,设定条件可以指:运算结果,也即最终的识别置信度大于设定阈值。
步骤4053、根据待清扫区域中待清扫物的密度,确定待清扫区域对应的清扫策略。
作为一个实施例,机器人可将待清扫区域中待清扫物的密度与两个设定的密度阈值(为描述方便,以下称第一密度阈值、第二密度阈值,其中,第一密度阈值小于第二密度阈值)分别进行比较,根据比较结果确定待清扫区域对应的清扫策略。
具体地,若比较结果为待清扫区域中待清扫物的密度小于第一密度阈值,则意味着待清扫区域中待清扫物的密度较低,分布较为分散,机器人对该待清扫区域进行常规清扫即可,从而,可将用于表征进行常规清扫的清扫策略,确定为该待清扫区域对应的清扫策略。
若比较结果为待清扫区域中待清扫物的密度大于第一密度阈值,且小于第二密度阈值,则意味着待清扫区域中待清扫物的密度较高,分布较为集中,此时,机器人可针对该待清扫区域采取用于表征移动速度降慢、吸力较强的清扫策略。
若比较结果为待清扫区域中待清扫物的密度大于第二密度阈值,则意味着待清扫区域中待清扫物的密度过高,分布过为集中,此时,机器人可选择不对该待清扫区域进行清扫,从而避免损坏机器人。
此外,在比较结果为待清扫区域中待清扫物的密度大于第二密度阈值的情况下,机器人还可对待清扫区域的区域图像进行保存,并将区域图像发送至移动终端,以提醒用户手动对该待清扫区域执行清扫操作。参见图10,为移动终端提醒用户手动对待清扫区域执行清扫操作时,显示界面的一种示例。
步骤406、按照清扫策略对待清扫区域执行清扫操作。
本发明实施例中,在按照清扫策略对待清扫区域执行清扫操作的过程中,可首先检测当前的待清扫区域中存在障碍物,这里,障碍物可以是指宠物。
作为一个实施例,若检测到当前的待清扫区域中不存在障碍物,则按照对应的清扫策略对当前的待清扫区域执行清扫操作;若检测到当前的待清扫区域中存在障碍物,则机器人可直接放弃对该待清扫区域进行清扫,并移动至下一待清扫区域,将该下一待清扫区域确定为当前的待清扫区域,返回执行检测当前的待清扫区域中是否存在障碍物的步骤,直至不存在下一待清扫区域。
作为另一个实施例,在检测到当前的待清扫区域中存在障碍物的情况下,机器人还可记录下该当前的待清扫区域,并移动至下一待清扫区域,该下一待清扫区域确定为当前的待清扫区域,返回执行检测当前的待清扫区域中是否存在障碍物的步骤,直至不存在下一待清扫区域。当确定不存在下一待清扫区域时,机器人再次移动至已记录的待清扫区域,将已记录的待清扫区域确定为当前的待清扫区域,返回执行检测当前的待清扫区域中是否存在障碍物的步骤。通过该种处理,可以避免漏掉宠物活动区域,实现全面地对宠物活动区域进行清扫。
进一步地,在该实施例中,在将已记录的待清扫区域确定为当前的待清扫区域,并检测到当前的待清扫区域中存在障碍物时,机器人可通过自身输出用于指示当前的待清扫区域未清扫的指示消息,这里,指示消息的输出形式可以为光信号、声音信号等;机器人还可向移动终端输出用于指示当前的待清扫区域未清扫的指示消息,参见图11,为移动终端提醒用户待清扫区域未清扫时,显示界面的一种示例。
基于图11,用户可选择对继续清扫,或者放弃清扫。当用户选择继续清扫时,移动终端可向机器人发送清扫指令,机器人响应于用户基于指示消息触发的清扫指令,移动至下一已记录的待清扫区域,将下一已记录的待清扫区域确定为当前的待清扫区域,返回执行检测当前的待清扫区域中是否存在障碍物的步骤,直至已记录的待清扫区域完成清扫操作。可以理解的是,通过该种处理,可以实现用户与机器人之间的交互,提升用户体验。
步骤407、获取待清扫区域的区域图像。
步骤408、根据区域图像更新待清扫区域对应的第一预测数据,以在下一清扫周期内,根据更新后的第一预测数据确定待清扫区域,以及根据区域图像更新待清扫区域对应的第二预测数据,以在下一清扫周期内,针对待清扫区域,根据更新后的第二预测数据确定待清扫区域对应的清扫策略。
本发明实施例中,在按照对应的清扫策略对待清扫区域执行清扫操作之后,可进一步执行上述步骤407~408。在步骤407~408中,机器人再次获取待清扫区域的区域图像,根据该再次获取的区域图像更新待清扫区域对应的第一预测数据和第二预测数据。具体的,机器人可对再次获取到的区域图像进行识别,以识别其中是否存在待清扫物或者与待清扫物相关的场景对象。当识别出当前的待清扫区域中不存在待清扫物或者与待清扫物相关的场景对象时,可根据识别结果减小待清扫区域对应的第一预测数据和第二预测数据,以减小待清扫区域中出现与待清扫物相关的场景对象的概率,和出现待清扫物的概率。
本发明实施例提供的技术方案,通过在执行清扫任务的过程中,从待作业场景中确定待清扫区域,确定待清扫区域对应的清扫策略,以及按照清扫策略对待清扫区域执行清扫操作,可以实现根据不同待清扫区域各自的实际情况,采取相应的清扫策略执行清扫操作,这相较于现有技术中,对不同的区域采用相同的清扫策略执行清扫操作而言,可以提升清扫效率;同时,通过获取待作业场景的场景图像,根据场景图像确定至少一个与待清扫物相关的场景对象的位置,进而根据至少一个场景对象的位置确定待清扫物对应的预设区域,可以实现智能地确定待作业场景中待清扫物出现概率较高的区域,进而能够实现机器人优先或重点对待清扫物出现概率较高的区域进行清扫,这也能够提升清扫效率,还能够提升用户体验。
通过在执行完本次清扫任务后,获取待清扫区域的区域图像,根据区域图像更新待清扫区域对应的第一预测数据和第二预测数据,可以使得第一预测数据、第二预测数据能够真实地反映出待作业场景的实时情况,使得机器人能够更准确地对待作业场景中,待清扫物或者与待清扫物相关的场景对象出现概率较高的区域进行优先清扫或重点清扫。
此外,需要说明的是,本发明实施例中,在将整个待作业场景确定为待清扫区域的情况下,可不执行上述根据场景图像确定预设区域对应的第一预测数据的步骤,并且,在该种情况下,机器人仍可根据待清扫区域的区域图像和该待清扫区域对应的第二预测数据,来确定该待清扫区域对应的清扫策略,具体的实现过程这里不再赘述。
在本发明实施例中,机器人在完成一次清扫周期后,可生成本次的清扫报告,以使用户根据清扫报告了解机器人的作业情况。
作为一个实施例,上述清扫报告中可包括但不限于:机器人获取到的区域图像,以及识别模型对该区域图像的识别结果,基于此,用户可查看识别模型对区域图像的识别结果是否准确。在确定识别模型对区域图像的识别结果不准确时,用户可以手动地校正区域图像对应的识别结果,当用户手动校正区域图像对应的识别结果时,机器人可检测到针对区域图像的识别结果的纠错事件,并获取该纠错事件对应的识别结果。这里,纠错事件对应的识别结果则是指用户校正后的识别结果。进一步地,机器人可根据纠错事件对应的识别结果和区域图像,对识别模型进行重训练,以提升识别模型的性能。
其中,机器人在检测到针对区域图像的识别结果的纠错事件时,可将该纠错事件对应的识别结果和区域图像作为一条训练样本加入训练样本集,当训练样本集中,训练样本的数量达到设定数量时,可触发根据训练样本集对识别模型进行重训练的操作;或者,当训练样本集中,训练样本的数量达到设定数量时,输出用于指示对识别模型进行重训练的指示消息,当接收到用户基于该指示消息触发的重训练指令时,再触发根据训练样本集对识别模型进行重训练的操作。通过该种处理可以提升用户与机器人的交互体验。
参见图12,为本发明实施例提供的再一种机器人控制方法的实施例流程图。作为一个实施例,该方法可应用于图1所示例的室内清扫应用场景中,如图12所示,该流程可包括以下步骤:
步骤1201、机器人获取待清扫的室内场景的场景图像,根据场景图像确定至少一个宠物对象的位置;
这里,宠物对象包括但不限于:宠物、宠物窝棚、宠物食盆等。
步骤1202、机器人根据至少一个宠物对象的位置确定宠物垃圾对应的预设区域。
步骤1203、机器人从室内场景中确定待清扫区域,待清扫区域至少包括一个预设区域。
步骤1204、机器人按照清扫策略对待清扫区域执行清扫操作。
本实施例中,上述步骤1201~1204的详细描述可以参见上述图2和图4所示流程中的描述,这里不再赘述。
需要说明的是,本发明实施例中,机器人可按照固定的清扫策略对待清扫区域执行清扫操作,还可如上述图2所示流程中所描述的,根据待清扫区域当前的真实情况,智能地确定待清扫区域对应的清扫策略,以按照确定出的清扫策略对待清扫区域进行清扫操作,至于具体是如何确定待清扫区域对应的清扫策略的,可参见上述相关描述,这里不再赘述。
本发明实施例提供的技术方案,通过获取待作业场景的场景图像,根据场景图像确定宠物垃圾对应的预设区域,可以实现在室内清扫场景下,智能地确定室内宠物垃圾出现概率较高的区域,进而能够实现机器人优先或重点对宠物垃圾出现概率较高的区域进行重点清扫或优先清扫,从而实现机器人的宠物垃圾清扫模式,这也能够提升清扫效率,提升用户体验。
与前述机器人控制方法的实施例相对应,本发明还提供机器人控制装置的实施例框图。
参见图13,为本发明实施例提供的一种机器人控制装置的实施例框图。如图13所示,该装置包括:
场景图像获取模块1301,用于获取待作业场景的场景图像;
位置确定模块1302,用于根据场景图像确定至少一个场景对象的位置,所述场景对象与待清扫物相关;
第一区域确定模块1303,根据所述至少一个场景对象的位置确定待清扫物对应的预设区域;
第二区域确定模块1304,用于从所述待作业场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
策略确定模块1305,用于确定所述待清扫区域对应的清扫策略;
清扫模块1306,用于按照所述清扫策略对所述待清扫区域执行清扫操作。
在一可能的实施方式中,所述装置还包括(图中未示出):
第一数据确定模块,用于根据所述场景图像确定所述预设区域对应的第一预测数据,所述第一预测数据用于表征所述预设区域内出现所述场景对象的概率;
所述第二区域确定模块1304具体用于:
针对所有所述预设区域,将对应的第一预测数据满足设定条件的所述预设区域确定为待清扫区域。
在一可能的实施方式中,所述装置还包括(图中未示出):
第二数据确定模块,用于根据所述场景图像确定所述预设区域对应的第二预测数据,所述第二预测数据用于表征所述预设区域内出现所述待清扫物的概率;
所述策略确定模块1305具体用于:
根据所述待清扫区域对应的所述第二预测数据,确定所述待清扫区域对应的清扫策略。
在一可能的实施方式中,所述装置还包括(图中未示出):
区域图像确定模块,用于获取所述待清扫区域的区域图像;
所述策略确定模块1305包括:
密度确定子模块,用于根据所述区域图像和所述待清扫区域对应的第二预测数据,确定所述待清扫区域中待清扫物的密度;
策略确定子模块,用于根据所述待清扫区域中待清扫物的密度,确定所述待清扫区域对应的清扫策略。
在一可能的实施方式中,所述密度确定子模块包括:
识别子模块,用于将所述区域图像输入至已训练的识别模型,得到所述识别模型输出的识别结果,所述识别结果包括所述识别模型从输入的图像中识别出的待清扫物以及识别置信度;
运算子模块,用于针对所述识别模型识别出的每一所述待清扫物,将所述待清扫物对应的识别置信度与所述待清扫区域对应的第二预测数据进行设定运算;
确定子模块,用于根据目标待清扫物确定所述待清扫区域中待清扫物的密度,所述目标待清扫物是指对应的运算结果满足设定条件的待清扫物。
在一可能的实施方式中,所述装置还包括(图中未示出):
第一更新模块,用于在所述按照所述清扫策略对所述待清扫区域执行清扫操作,且获取所述待清扫区域的区域图像之后,根据所述区域图像更新所述待清扫区域对应的第一预测数据,以在下一清扫周期内,根据更新后的所述第一预测数据确定待清扫区域。
在一可能的实施方式中,所述装置还包括(图中未示出):
第二更新模块,用于在所述按照所述清扫策略对所述待清扫区域执行清扫操作,且获取所述待清扫区域的区域图像之后,根据所述区域图像更新所述待清扫区域对应的第二预测数据,以在下一清扫周期内,针对所述待清扫区域,根据更新后的所述第二预测数据确定所述待清扫区域对应的清扫策略。
在一可能的实施方式中,所述清扫模块1306具体用于:
检测当前的待清扫区域中是否存在障碍物;若是,则移动至下一待清扫区域,将所述下一待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤,直至不存在下一待清扫区域;若否,则按照所述清扫策略对当前的待清扫区域执行清扫操作。
在一可能的实施方式中,所述清扫模块1306还用于:
若检测到当前的待清扫区域中存在障碍物,则记录当前的待清扫区域;当确定不存在下一待清扫区域时,移动至已记录的所述待清扫区域,将已记录的所述待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤。
在一可能的实施方式中,所述清扫模块1306还用于:
在所述将已记录的所述待清扫区域确定为当前的待清扫区域,检测到当前的待清扫区域中存在障碍物时,输出用于指示当前的待清扫区域未清扫的指示消息;当接收到基于所述指示消息触发的清扫指令时,移动至下一已记录的待清扫区域,将所述下一已记录的待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤,直至已记录的待清扫区域完成清扫操作。
在一可能的实施方式中,所述装置还包括(图中未示出):
输出模块,用于输出所述区域图像和所述区域图像对应的识别结果;
纠错模块,用于在检测到针对所述识别结果的纠错事件时,获取所述纠错事件对应的识别结果;
训练模块,用于根据所述纠错事件对应的识别结果和所述区域图像,对所述识别模型进行重训练。
参见图14,为本发明实施例提供的另一种机器人控制装置的实施例框图。如图14所示,该装置包括:
场景图像获取模块1401,用于获取待清扫的室内场景的场景图像;
位置确定模块1402,用于根据所述场景图像确定至少一个宠物对象的位置;
第一区域确定模块1403,用于根据所述至少一个宠物对象的位置确定宠物垃圾对应的预设区域;
第二区域确定模块1404,用于从所述室内场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
清扫模块1405,用于按照清扫策略对所述待清扫区域执行清扫操作。
在一可能的实施方式中,所述装置还包括(图中未示出):
第一数据确定模块,用于根据所述场景图像确定所述预设区域对应的第一预测数据,所述第一预测数据用于表征所述预设区域内出现宠物的概率;
所述第二区域确定模块1404具体用于:
针对所有所述预设区域,将对应的第一预测数据满足设定条件的所述预设区域确定为待清扫区域。
在一可能的实施方式中,所述清扫模块1405具体用于:
检测当前的待清扫区域中是否存在宠物;若是,则移动至下一待清扫区域,将所述下一待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤,直至不存在下一待清扫区域;若否,则按照所述清扫策略对当前的待清扫区域执行清扫操作。
在一可能的实施方式中,所述清扫模块1405还用于:
若检测到当前的待清扫区域中存在宠物,则记录当前的待清扫区域;当确定不存在下一待清扫区域时,移动至已记录的所述待清扫区域,将已记录的所述待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤。
在一可能的实施方式中,所述清扫模块1405还用于:
在所述将已记录的所述待清扫区域确定为当前的待清扫区域,检测到当前的待清扫区域中存在宠物时,输出用于指示当前的待清扫区域未清扫的指示消息;当接收到基于所述指示消息触发的清扫指令时,移动至下一已记录的待清扫区域,将所述下一已记录的待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤,直至已记录的待清扫区域完成清扫操作。
图15为本发明实施例提供的一种的机器人的结构示意图,图15所示的机器人1500包括:至少一个处理器1501、存储器1502、至少一个网络接口1504和其他用户接口1503。机器人1500中的各个组件通过总线系统1505耦合在一起。可理解,总线系统1505用于实现这些组件之间的连接通信。总线系统1505除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图15中将各种总线都标为总线系统1505。
在本发明实施例中,处理器1501通过调用存储器1502存储的程序或指令,执行各方法实施例所提供的方法步骤,例如包括:
获取待作业场景的场景图像,根据所述场景图像确定至少一个场景对象的位置,所述场景对象与待清扫物相关;根据所述至少一个场景对象的位置确定待清扫物对应的预设区域;从所述待作业场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;确定所述待清扫区域对应的清扫策略,以及按照所述清扫策略对所述待清扫区域执行清扫操作。
或者,获取待清扫的室内场景的场景图像,根据所述场景图像确定至少一个宠物对象的位置;根据所述至少一个宠物对象的位置确定宠物垃圾对应的预设区域;从所述室内场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;按照清扫策略对所述待清扫区域执行清扫操作。
上述本发明实施例揭示的方法可以应用于处理器1501中,或者由处理器1501实现。处理器1501可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1501中的硬件的集成逻辑电路或者软件形式的指令完成。软件单元可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1502,处理器1501读取存储器1502中的信息,结合其硬件完成上述方法的步骤。
对于软件实现,可通过执行本文所述功能的单元来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本实施例提供的机器人可以是如图15中所示的机器人,可执行如图2、4、9、12中机器人控制方法的所有步骤,进而实现图2、4、9、12中机器人控制方法的技术效果,具体请参照图2、4、9、12相关描述,为简洁描述,在此不作赘述。
本发明实施例还提供了一种存储介质(计算机可读存储介质)。这里的存储介质存储有一个或者多个程序。其中,存储介质可以包括易失性存储器,例如随机存取存储器;存储器也可以包括非易失性存储器,例如只读存储器、快闪存储器、硬盘或固态硬盘;存储器还可以包括上述种类的存储器的组合。
当存储介质中一个或者多个程序可被一个或者多个处理器执行,以实现上述在机器人侧执行的机器人控制方法。
所述处理器用于执行存储器中存储的机器人控制程序,以实现以下在机器人侧执行的上述实施例中机器人控制方法的步骤。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (18)
1.一种机器人控制方法,其特征在于,所述方法包括:
获取待作业场景的场景图像,根据所述场景图像确定至少一个场景对象的位置,所述场景对象与待清扫物相关;
根据所述至少一个场景对象的位置确定待清扫物对应的预设区域;
从所述待作业场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
确定所述待清扫区域对应的清扫策略,以及按照所述清扫策略对所述待清扫区域执行清扫操作。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述场景图像确定所述预设区域对应的第一预测数据,所述第一预测数据用于表征所述预设区域内出现所述场景对象的概率;
所述从所述待作业场景中确定待清扫区域,包括:
针对所有所述预设区域,将对应的第一预测数据满足设定条件的所述预设区域确定为待清扫区域。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
根据所述场景图像确定所述预设区域对应的第二预测数据,所述第二预测数据用于表征所述预设区域内出现所述待清扫物的概率;
所述确定所述待清扫区域对应的清扫策略,包括:
根据所述待清扫区域对应的所述第二预测数据,确定所述待清扫区域对应的清扫策略。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取所述待清扫区域的区域图像;
所述根据所述待清扫区域对应的所述第二预测数据,确定所述待清扫区域对应的清扫策略,包括:
根据所述区域图像和所述待清扫区域对应的第二预测数据,确定所述待清扫区域中待清扫物的密度;
根据所述待清扫区域中待清扫物的密度,确定所述待清扫区域对应的清扫策略。
5.根据权利要求4所述的方法,其特征在于,所述根据所述区域图像和所述待清扫区域对应的第二预测数据,确定所述待清扫区域中待清扫物的密度,包括:
将所述区域图像输入至已训练的识别模型,得到所述识别模型输出的识别结果,所述识别结果包括所述识别模型从输入的图像中识别出的待清扫物以及识别置信度;
针对所述识别模型识别出的每一所述待清扫物,将所述待清扫物对应的识别置信度与所述待清扫区域对应的第二预测数据进行设定运算;
根据目标待清扫物确定所述待清扫区域中待清扫物的密度,所述目标待清扫物是指对应的运算结果满足设定条件的待清扫物。
6.根据权利要求2所述的方法,其特征在于,在所述按照所述清扫策略对所述待清扫区域执行清扫操作之后,所述方法还包括:
获取所述待清扫区域的区域图像;
根据所述区域图像更新所述待清扫区域对应的第一预测数据,以在下一清扫周期内,根据更新后的所述第一预测数据确定待清扫区域。
7.根据权利要求3所述的方法,其特征在于,在所述按照所述清扫策略对所述待清扫区域执行清扫操作之后,所述方法还包括:
获取所述待清扫区域的区域图像;
根据所述区域图像更新所述待清扫区域对应的第二预测数据,以在下一清扫周期内,针对所述待清扫区域,根据更新后的所述第二预测数据确定所述待清扫区域对应的清扫策略。
8.根据权利要求1所述的方法,其特征在于,所述按照所述清扫策略对所述待清扫区域执行清扫操作,包括:
检测当前的待清扫区域中是否存在障碍物;
若是,则移动至下一待清扫区域,将所述下一待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤,直至不存在下一待清扫区域;
若否,则按照所述清扫策略对当前的待清扫区域执行清扫操作。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
若检测到当前的待清扫区域中存在障碍物,则记录当前的待清扫区域;
当确定不存在下一待清扫区域时,移动至已记录的所述待清扫区域,将已记录的所述待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
在所述将已记录的所述待清扫区域确定为当前的待清扫区域,检测到当前的待清扫区域中存在障碍物时,输出用于指示当前的待清扫区域未清扫的指示消息;
当接收到基于所述指示消息触发的清扫指令时,移动至下一已记录的待清扫区域,将所述下一已记录的待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在障碍物的步骤,直至已记录的待清扫区域完成清扫操作。
11.根据权利要求5所述的方法,其特征在于,所述方法还包括:
输出所述区域图像和所述区域图像对应的识别结果;
在检测到针对所述识别结果的纠错事件时,获取所述纠错事件对应的识别结果;
根据所述纠错事件对应的识别结果和所述区域图像,对所述识别模型进行重训练。
12.一种机器人控制方法,其特征在于,应用于室内清扫场景,所述方法包括:
机器人获取待清扫的室内场景的场景图像,根据所述场景图像确定至少一个宠物对象的位置;
机器人根据所述至少一个宠物对象的位置确定宠物垃圾对应的预设区域;
机器人从所述室内场景中确定待清扫区域,所述待清扫区域至少包括一个所述预设区域;
机器人按照清扫策略对所述待清扫区域执行清扫操作。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
根据所述场景图像确定所述预设区域对应的第一预测数据,所述第一预测数据用于表征所述预设区域内出现所述宠物对象的概率;
所述从所述室内场景中确定待清扫区域,包括:
针对所有所述预设区域,将对应的第一预测数据满足设定条件的所述预设区域确定为待清扫区域。
14.根据权利要求12所述的方法,其特征在于,所述按照清扫策略对所述待清扫区域执行清扫操作,包括:
检测当前的待清扫区域中是否存在宠物;
若是,则移动至下一待清扫区域,将所述下一待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤,直至不存在下一待清扫区域;
若否,则按照清扫策略对当前的待清扫区域执行清扫操作。
15.根据权利要求14所述的方法,其特征在于,所述方法还包括:
若检测到当前的待清扫区域中存在宠物,则记录当前的待清扫区域;
当确定不存在下一待清扫区域时,移动至已记录的所述待清扫区域,将已记录的所述待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤。
16.根据权利要求15所述的方法,其特征在于,所述方法还包括:
在所述将已记录的所述待清扫区域确定为当前的待清扫区域,检测到当前的待清扫区域中存在宠物时,输出用于指示当前的待清扫区域未清扫的指示消息;
当接收到基于所述指示消息触发的清扫指令时,移动至下一已记录的待清扫区域,将所述下一已记录的待清扫区域确定为当前的待清扫区域,返回执行所述检测当前的待清扫区域中是否存在宠物的步骤,直至已记录的待清扫区域完成清扫操作。
17.一种机器人,其特征在于,包括:处理器和存储器,所述处理器用于执行所述存储器中存储的机器人控制程序,以实现权利要求1~11或12~16中任一项所述的机器人控制方法。
18.一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1~11或12~16中任一项所述的机器人控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110546630.9A CN113367616B (zh) | 2021-05-19 | 2021-05-19 | 机器人控制方法、装置、机器人及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110546630.9A CN113367616B (zh) | 2021-05-19 | 2021-05-19 | 机器人控制方法、装置、机器人及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113367616A CN113367616A (zh) | 2021-09-10 |
CN113367616B true CN113367616B (zh) | 2022-11-11 |
Family
ID=77571305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110546630.9A Active CN113367616B (zh) | 2021-05-19 | 2021-05-19 | 机器人控制方法、装置、机器人及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113367616B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113925396B (zh) * | 2021-10-29 | 2024-05-31 | 青岛海尔科技有限公司 | 用于地面清洁的方法及装置、存储介质 |
CN114451816B (zh) * | 2021-12-23 | 2024-02-09 | 杭州华橙软件技术有限公司 | 清扫策略生成方法、装置、计算机设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109343521B (zh) * | 2018-09-27 | 2021-11-12 | 深圳乐动机器人有限公司 | 一种机器人清扫房间的方法及机器人 |
CN111657798B (zh) * | 2020-06-02 | 2021-09-24 | 深圳市杉川机器人有限公司 | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 |
CN112336254B (zh) * | 2020-10-29 | 2022-06-28 | 久瓴(江苏)数字智能科技有限公司 | 扫地机器人清洁策略生成方法、装置、计算机设备和介质 |
-
2021
- 2021-05-19 CN CN202110546630.9A patent/CN113367616B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113367616A (zh) | 2021-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11709497B2 (en) | Method for controlling an autonomous mobile robot | |
RU2624737C2 (ru) | Способ и устройство для уборки мусора | |
CN113367616B (zh) | 机器人控制方法、装置、机器人及存储介质 | |
CN111657798B (zh) | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 | |
CN105380575B (zh) | 扫地机器人的控制方法、系统、云服务器和扫地机器人 | |
CN105411491A (zh) | 一种基于环境监测的家庭智能清洁系统及方法 | |
WO2023025023A1 (zh) | 移动机器人的清扫方法及装置、存储介质、电子装置 | |
CN111973075B (zh) | 基于户型图的地面清扫方法、装置、扫地机和计算机介质 | |
WO2022227533A1 (zh) | 清扫控制方法、装置和空调机 | |
CN111643017B (zh) | 基于日程信息的清扫机器人控制方法、装置和清扫机器人 | |
CN111476098A (zh) | 一种识别目标区域的方法、装置、终端及计算机可读介质 | |
CN108594823A (zh) | 扫地机器人的控制方法及其控制系统 | |
CN111142531A (zh) | 基于家电联动的清洁机器人控制方法以及清洁机器人 | |
CN116407010A (zh) | 基于擦地机器人的智能清洁方法及装置 | |
CN116211168A (zh) | 清洁设备的运行控制方法及装置、存储介质及电子装置 | |
CN116883733A (zh) | 交互控制方法及电子设备 | |
CN108338748A (zh) | 一种基于视频监控的自动清洁方法、装置以及清洁机器人 | |
CN114504273A (zh) | 机器人控制方法及装置 | |
CN117765452A (zh) | 一种识别方法、装置、扫地机器人及计算机可读存储介质 | |
CN113892859A (zh) | 一种扫地机器人的控制方法及扫地机器人 | |
CN111189489B (zh) | 住户行为辨识系统与住户行为辨识方法 | |
CN114246512A (zh) | 扫地机清扫方法、装置、扫地机和计算机存储介质 | |
CN115137251B (zh) | 扫地机器人及其控制方法、控制系统及存储介质 | |
CN115153353B (zh) | 扫地机器人的控制方法、装置、扫地机器人及存储介质 | |
CN116414106A (zh) | 清洁机器人的自主控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |