CN111657798B - 基于场景信息的清扫机器人控制方法、装置和清扫机器人 - Google Patents
基于场景信息的清扫机器人控制方法、装置和清扫机器人 Download PDFInfo
- Publication number
- CN111657798B CN111657798B CN202010487477.2A CN202010487477A CN111657798B CN 111657798 B CN111657798 B CN 111657798B CN 202010487477 A CN202010487477 A CN 202010487477A CN 111657798 B CN111657798 B CN 111657798B
- Authority
- CN
- China
- Prior art keywords
- cleaning
- scene
- area
- cleaned
- place
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/24—Floor-sweeping machines, motor-driven
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/06—Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
Abstract
本申请涉及一种基于场景信息的清扫机器人控制方法、装置、清扫机器人和存储介质。所述方法包括:获取清扫机器人关联的清扫场所对应的场景信息;根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略;控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像;根据环境图像确定待清扫区域中的环境对象;下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。采用本方法能够提高清扫机器人的作业效率。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种基于场景信息的清扫机器人控制方法、装置、清扫机器人和存储介质。
背景技术
随着人工智能技术的发展,越来越多的智能产品出现并应用在日常生活中,清扫机器人就是各种智能产品中的一种。清扫机器人又称扫地机器人,可以通过智能控制,在没有用户干预的情况下自动对需要清扫的场所中的清洁区域进行地面清洁工作。
目前,清扫机器人通常是对整个清扫场所进行清扫规划,以遍历整个清扫场所进行清扫。然而,由于人们于场所中的各种活动,清扫场所中各个区域的脏污程度不尽相同,基于清扫场所进行清扫规划并遍历清扫场所进行清扫的方式,无法针对性进行有效地清扫,可能需要清扫机器人重复遍历多次清扫过程,从而导致清扫机器人的清扫作业效率较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高清扫机器人作业效率的基于场景信息的清扫机器人控制方法、装置、清扫机器人和存储介质。
一种基于场景信息的清扫机器人控制方法,所述方法包括:
获取清扫机器人关联的清扫场所对应的场景信息;
根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略;
控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像;
根据环境图像确定待清扫区域中的环境对象;
下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
在其中一个实施例中,场景信息包括场景分区图;获取清扫机器人关联的清扫场所对应的场景信息包括:
从场景图库中获取清扫场所对应的场景分区图;
根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略包括:
从场景分区图中确定清扫场所中各待清扫区域及相应的清扫策略。
在其中一个实施例中,在从场景图库中获取清扫场所对应的场景分区图之前,还包括:
获取清扫场所的场所图像;
对场所图像进行场景识别,获得清扫场所的场所结构信息以及清扫场所中各场景对象的分布信息;
根据场所结构信息和分布信息构建清扫场所对应的场景分区图,并将场景分区图存储至场景图库。
在其中一个实施例中,根据场所结构信息和分布信息构建清扫场所对应的场景分区图包括:
根据场所结构信息和分布信息对清扫场所进行区域划分,得到清扫场所对应的各清扫区域;
根据清扫区域的类型,以及清扫区域中对应分布的区域场景对象的类型和位置信息确定清扫区域的清扫策略;
根据各清扫区域及相应的清扫策略得到清扫场所对应的场景分区图。
在其中一个实施例中,清扫策略包括清扫优先级、清扫路径规划、清扫方式和清扫频率;控制清扫机器人移动至各待清扫区域包括:
控制清扫机器人按照清扫优先级移动至各待清扫区域;
下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人包括:
确定环境对象的类型和位置;
根据环境对象的类型和位置对清扫路径规划、清扫方式和清扫频率进行更新,得到更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率;
根据更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率生成清扫控制指令,并发送清扫控制指令至清扫机器人。
在其中一个实施例中,在确定环境对象的类型和位置之后,还包括:
确定环境对象中复位对象的复位对象位置;复位对象的类型为非清扫类型;
获取复位对象预设的复位位置;
根据复位对象位置和复位位置生成复位控制指令,并发送复位控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从复位对象位置转移至复位位置。
在其中一个实施例中,所述方法还包括:
根据环境对象的类型和位置确定对应当前的待清扫区域的对象分布信息;
根据对象分布信息对当前的待清扫区域进行更新,得到更新后的待清扫区域;
通过各更新后的待清扫区域更新清扫场所对应的场景信息。
一种基于场景信息的清扫机器人控制装置,所述装置包括:
场景信息获取模块,用于获取清扫机器人关联的清扫场所对应的场景信息;
清扫策略确定模块,用于根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略;
环境图像获取模块,用于控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像;
环境对象确定模块,用于根据环境图像确定待清扫区域中的环境对象;
清扫控制模块,用于下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
一种清扫机器人,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取清扫机器人关联的清扫场所对应的场景信息;
根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略;
控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像;
根据环境图像确定待清扫区域中的环境对象;
下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取清扫机器人关联的清扫场所对应的场景信息;
根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略;
控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像;
根据环境图像确定待清扫区域中的环境对象;
下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
上述基于场景信息的清扫机器人控制方法、装置、清扫机器人和存储介质,根据清扫机器人关联的清扫场所对应的场景信息确定清扫场所中各待清扫区域及相应的清扫策略,根据清扫机器人移动至各待清扫区域采集的环境图像确定待清扫区域中的环境对象,并通过下发与环境对象和清扫策略对应的清扫控制指令控制清扫机器人对待清扫区域进行清扫。在清扫机器人控制过程中,根据清扫机器人关联的清扫场所对应的场景信息确定待清扫区域及相应的清扫策略,通过与待清扫区域中的环境对象和清扫策略对应的清扫控制指令控制清扫机器人对待清扫区域进行清扫,使清扫机器人针对待清扫区域中的环境对象和清扫策略进行相应的清扫处理,提高了清扫机器人清扫作业的针对性,从而提高了清扫机器人的作业效率。
附图说明
图1为一个实施例中基于场景信息的清扫机器人控制方法的应用环境图;
图2为一个实施例中基于场景信息的清扫机器人控制方法的流程示意图;
图3为一个实施例中构建场景分区图的流程示意图;
图4为一个实施例中基于场景信息的清扫机器人控制装置的结构框图;
图5为一个实施例中清扫机器人的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的基于场景信息的清扫机器人控制方法,可以应用于如图1所示的扫地机器人的应用环境中。其中,扫地机器人100可以包括但不限于传感器102、控制器104以及执行组件106等。控制器104可以执行该基于场景信息的清扫机器人控制方法,控制扫地机器人的执行组件106执行对应的清扫作业。具体地,控制器104根据扫地机器人100关联的清扫场所对应的场景信息确定清扫场所中各待清扫区域及相应的清扫策略,并控制扫地机器人100的移动组件(图未示)进行移动,使扫地机器人100移动至各待清扫区域,传感器102采集与待清扫区域对应的环境图像,控制器104根据扫地机器人100移动至各待清扫区域采集的环境图像确定待清扫区域中的环境对象,并通过下发与环境对象和清扫策略对应的清扫控制指令控制扫地机器人100的执行组件106对待清扫区域进行清扫。传感器102具体可以包括但不限于视觉传感器、红外传感器、声波传感器、摄像机以及深度相机等。控制器104具体可以包括但不限于中央处理器(CPU,Central processing unit)和控制电路等处理器。执行组件106具体可以包括但不限于移动组件和清洁组件等。
此外,扫地机器人100还可以通过网络与服务器或终端(图未示)进行通信,以由服务器或终端对扫地机器人进行控制。具体地,可以由服务器或终端根据扫地机器人100关联的清扫场所对应的场景信息确定清扫场所中各待清扫区域及相应的清扫策略,服务器或终端控制扫地机器人100移动至各待清扫区域,并根据扫地机器人100移动至各待清扫区域采集的环境图像确定待清扫区域中的环境对象,并通过下发与环境对象和清扫策略对应的清扫控制指令控制扫地机器人100的执行组件106对待清扫区域进行清扫。其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种基于场景信息的清扫机器人控制方法,以该方法应用于图1中的扫地机器人为例进行说明,包括以下步骤:
步骤S202,获取清扫机器人关联的清扫场所对应的场景信息。
其中,清扫机器人为能够执行清扫作业的智能家居产品,清扫场所为清扫机器人所负责进行清扫的场所,具体可以根据清扫机器人预存的清扫场所信息或终端发送的场所设置消息确定,例如对于居家用的清扫机器人,其关联的清扫场所为居家住房范围;对于工作写字楼的清扫机器人,其关联的清扫场所为工作办公范围。场景信息为描述清扫场所的信息,具体可以描述清扫场所的类型、从场景、功能分区等。不同的清扫场所对应于不同的场景分布,例如居家住房不同的户型或装修,对应的住房有不同的功能分许,如客厅、卧室、卫生间、厨房等功能分区的分布不同。清扫机器人关联的清扫场所由清扫机器人的使用者或所有者设置,不同的清扫场所对应不同的场景信息需要清扫机器人针对进行清扫,以确保清扫效果,提高清扫作业效率。例如,对于卫生间,其中水渍的脏污区域较多,需要进行擦干的清扫作业;而对于厨房,油渍的脏污和厨余垃圾较多,需要进行相应的去污清扫作业。
具体地,获取清扫机器人关联的清扫场所对应的场景信息可以由清扫机器人内部的控制器执行,即由清扫机器人内部的控制器查询清扫机器人的场景信息数据库获取关联的清扫场所对应的场景信息,或从与清扫机器人连接的场景管理设备中查询得到关联的清扫场所对应的场景信息。获取清扫机器人关联的清扫场所对应的场景信息也可以由与清扫机器人连接的服务器或终端执行,即由服务器或终端获取与连接的清扫机器人关联的清扫场所对应的场景信息,并发送场景信息至清扫机器人或根据场景信息进行处理后发送相应控制指令至清扫机器人,以对清扫机器人的清扫作业进行控制。
步骤S204,根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略。
得到清扫场所对应的场景信息后,基于该场景信息确定清扫场所中各待清扫区域及相应的清扫策略。其中,待清扫区域为在清扫场所中需要清扫机器人进行清扫的存在杂物垃圾或脏污的区域,清扫策略指预先为清洁机器人设置的清洁规则,可以包括清扫顺序、清扫模式、清扫方式、清扫频率、清扫力度、清扫次数等。不同的待清扫区域对应于不同的清扫策略,例如对于卫生间,其水渍较多,需要清扫机器人进行拖地擦干;而对于卧室,零散的纸屑、灰尘可能较多,则需要清扫机器人进行吸取收纳。清扫策略根据各待清扫区域预先设置,并根据各待清扫区域及相应的清扫策略构建得到,控制清扫机器人根据各待清扫区域相应的清扫策略针对进行清扫,可以有效确保清扫机器人的清扫效果,提高清扫机器人清扫作业的效率。
在具体实现时,场景信息可以包括记载了清扫场所中的各个功能分区以及记载了各个功能分区中各种场景对象的分布的场景分区图,场景分区图还记载了各种功能分区中相应的待清扫区域和清扫策略。待清扫区域为功能分区中需要进行清扫的区域,一般为功能分区中未被家具或其他物体所占用的区域,以及清扫机器人可以进行清扫的区域,例如客厅的未摆放各种家具的地面,又如卧室的床底等。
步骤S206,控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像。
确定待清扫区域后,控制清扫机器人分别依次移动至各待清扫区域,具体可以根据清扫机器人的当前位置和待清扫区域进行路径规划,并根据路径规划结果生成清扫机器人的移动指令,通过该移动指令控制清扫机器人移动至待清扫区域。清扫机器人移动至待清扫区域,会对所处的周围环境进行感知,采集周围环境的环境数据,得到环境图像。环境图像包括清扫机器人针对待清扫区域进行清洁作业的过程中采集的图像,还包括清扫机器人移动至待清扫区域过程中采集到的图像。
环境图像可由清扫机器人上设置的感知装置,如各种传感器进行感知得到,例如通过摄像头进行拍摄得到,激光传感器进行感知得到等,当不同的清扫机器人所对应的传感器类型不同时,根据不同传感器所采集的环境图像的数据类型也可以是不同的。例如,当清扫机器人设置的传感器包括激光传感器时,清扫机器人可以通过激光传感器采集周围的环境图像。根据激光传感器采集的环境图像具体可以是点云图像。具体的,激光传感器可以发射探测信号,例如激光束等。激光传感器将清扫机器人所处环境中物体反射回的信号与探测信号进行比对,得到周围环境的点云数据,对点云数据进行数据清理、点云分割以及点云投影等处理,得到清扫机器人周围环境对应的点云图像。
在具体实现时,清扫机器人采集获得的与待清扫区域对应的环境图像可以由传感器直接发送至清扫机器人的控制器,以便控制器基于环境图像进行后续清扫控制;也可以由传感器发送至与清扫机器人连接的服务器或终端,已由服务器或终端基于环境图像进行清扫控制。
步骤S208,根据环境图像确定待清扫区域中的环境对象。
获得清扫机器人采集的与待清扫区域对应的环境图像后,对环境图像进行对象识别,得到待清扫区域中的环境对象。其中,环境对象为处于待清扫区域中各种类型的物体对象,具体包括需要清扫机器人进行清扫的清扫类对象,如纸屑、果汁、骨头、粪便等杂物垃圾或脏污区域,还包括不需要清扫机器人进行清扫的非清扫类对象,如拖鞋、沙发、柜子、桌子、宠物等对象。环境对象的类型根据实际需求进行设置,以便清扫机器人针对不同的类型的环境对象进行相应的处理,例如对于清扫类对象进行清扫处理,对于非清扫类对象不进行清扫处理。在具体实现时,可以通过预训练的图像检测模型对环境图像进行对象识别,从清扫机器人采集的环境图像中识别出各环境对象。
步骤S210,下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
确定待清扫区域对应的环境图像后,生成与环境图像和清扫策略对应的清扫控制指令,清扫控制指令用于控制清扫机器人的清扫作业,将得到的清扫控制指令下方至清扫机器人,以控制清扫机器人根据清扫控制指令对待清扫区域进行清扫,从而实现清扫机器人对待清扫区域对应的环境图像进行相应的清扫作业。具体地,对于不同的环境对象和清扫策略,可以生成对应不同的清扫控制指令,以控制清扫机器人根据待清扫区域中的环境对象及该待清扫区域相应的清扫策略进行对应的清扫作业处理。例如,对于卫生间,客厅、卧室和厨房,各类型的待清扫区域的清扫模式、清扫频率和清扫方式并不相同。又如,对于清扫类的环境对象,清扫机器人需要对该环境对象进行清扫,而对于不同的类别,例如可回收垃圾、厨余垃圾、有害垃圾以及其它垃圾等需要执行相应的清扫方式,又如,对于厨房中难以清除的顽固脏污区域,则需要提高清扫机器人的清扫力度,以便更好去除脏污。而对于非清扫类的环境对象,不需要清扫机器人对该环境对象进行清扫,则清扫机器人可以在进行清扫作业时,基于该环境对象进行相应的路径规划,如针对该非清扫类的环境对象进行避障,从而提高清扫机器人的清扫作业效率。
此外,基于场景信息的清扫机器人控制方法具体实现的架构可以根据清扫机器人所支持的功能进行设置,例如,清扫机器人的控制器支持进行基于场景信息的清扫机器人控制处理时,可以由控制器直接进行基于场景信息的清扫机器人控制,从而由清扫机器人自动进行清扫作业。而对于清扫机器人的控制器不支持基于场景信息进行清扫机器人控制时,可以由服务器或终端基于场景信息进行清扫机器人控制,由服务器或终端下发与环境对象对应的清扫控制指令至清扫机器人,从而实现对清扫机器人的清扫作业控制。
上述基于场景信息的清扫机器人控制方法中,根据清扫机器人关联的清扫场所对应的场景信息确定清扫场所中各待清扫区域及相应的清扫策略,根据清扫机器人移动至各待清扫区域采集的环境图像确定待清扫区域中的环境对象,并通过下发与环境对象和清扫策略对应的清扫控制指令控制清扫机器人对待清扫区域进行清扫。在清扫机器人控制过程中,根据清扫机器人关联的清扫场所对应的场景信息确定待清扫区域及相应的清扫策略,通过与待清扫区域中的环境对象和清扫策略对应的清扫控制指令控制清扫机器人对待清扫区域进行清扫,使清扫机器人针对待清扫区域中的环境对象和清扫策略进行相应的清扫处理,提高了清扫机器人清扫作业的针对性,从而提高了清扫机器人的作业效率。
在一个实施例中,场景信息包括场景分区图;获取清扫机器人关联的清扫场所对应的场景信息包括:从场景图库中获取清扫场所对应的场景分区图。
本实施例中,场景信息包括场景分区图,场景分区图为清扫机器人所关联的清扫场所对应的地图,场景分区图可以根据清扫场所对应的场景信息构建得到,其记载了清扫场所中的各个功能分区,例如住房的场所地图记载了住房的户型、客厅、卧室、卫生间、厨房等功能分区的分布;又如写字楼的场所地图记载了办公范围中办公室、公共办公区、卫生间、休闲区域、茶水间等各种功能分区的分布。清扫机器人所处的不同的清扫场所对应于不同的场景分区图。进一步地,场景分区图还可以记载各个功能分区中各种场景对象的分布,场景对象为处于清扫场所中的各种类型的物体对象,具体可以包括需要清扫机器人进行清扫的清扫类对象,如纸屑、果汁、骨头、粪便等杂物垃圾或脏污区域,还包括不需要清扫机器人进行清扫的非清扫类对象,如拖鞋、沙发、柜子、桌子、宠物、床、电视、立式空调、冰箱等对象。不同清扫场所的场景分区图不同,场景分区图中不同功能分区的场景对象的分布也不同。
获取清扫机器人关联的清扫场所对应的场景信息时,可以查询预设的场景图库,场景图库记载有各种清扫场所对应的场景分区图,根据清扫机器人关联的清扫场所从场景图库中查询得到对应的场景分区图。具体地,可以根据清扫场所的场所标识信息,如场所编号、场所名称、对应户主名称、户主手机号码等,从场景图库中查询到对应的场景分区图。
进一步地,根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略包括:从场景分区图中确定清扫场所中各待清扫区域及相应的清扫策略。
本实施例中,从清扫场所对应的场景分区图中确定待清扫区域及相应的清扫策略。具体地,场景分区图可以记载有各个待清扫区域及相应的清扫策略,获得场景分区图后可以直接从场景分区图中确定清扫机器人关联的清扫场所中的各个待清扫区域及相应的清扫策略,从而确定各个待清扫区域之间的清扫顺序、清扫模式、清扫时间、清扫频率等,并根据各个待清扫区域对应的清扫策略进行清扫,从而提高了清扫机器人清扫作业的针对性,提高了清扫机器人的清扫作业效率。
在一个实施例中,在从场景图库中获取清扫场所对应的场景分区图之前,还包括:获取清扫场所的场所图像;对场所图像进行场景识别,获得清扫场所的场所结构信息以及清扫场所中各场景对象的分布信息;根据场所结构信息和分布信息构建清扫场所对应的场景分区图,并将场景分区图存储至场景图库。
本实施例中,根据清扫场所的场所图像的场景识别结果构建清扫场所对应的场景分区图。具体地,在构建清扫场所对应的场景分区图时,获取清扫场所的场所图像,场所图像可以包括清扫机器人通过感知装置拍摄的图像,还可以包括用户提供的清扫场所的户型图。对场所图像进行场景识别,获得清扫场所的场所结构信息以及清扫场所中各场景对象的分布信息。其中,场所结构信息可以包括清扫场所的房屋划分、功能分区等信息,场景对象为清扫场所中存在的物体对象,分布信息反映了各个场景对象在清扫场所中的放置位置。例如,场所结构信息可以包括户型信息,具体可以包括客厅、卧室、卫生间、厨房、客厅等功能分区的划分信息;场景对象的分布信息可以包括各个功能分区中家具、物件的放置位置,具体如客厅中沙发、电视、茶桌的放置位置,卧室衣柜、电视、电脑、桌子、床的分布等。
进一步地,对场所图像进行场景识别具体可以通过目标检测算法,如YOLO(YouOnly Look Once)、Faster-RCNN(Region Convolutional Neural Networks,区域卷积神经网络)、CornerNet、RetinaNet、MobileNet(Efficient Convolutional Neural Networksfor Mobile Vision Application,用于移动视觉应用的高效卷积神经网络)或者SSD(Single Shot Multi Box Detector,单发多盒检测器)等多种目标检测算法识别出场所图像中的场景对象,并根据各场景对象的位置得到清扫场所中各场景对象的分布信息。还可以通过场景分类算法或网络,如EfficientNet算法、MobileNet、Inception V3、ResNet(Residual network,残差神经网络)对场所图像的场景进行识别,另一方面,也可以对场所图像中的户型图进行识别,从而确定清扫场所的场所结构信息,也可以根据清扫场所中各场景对象的分布信息对清扫场所进行划分,确定清扫场所的场所结构信息。
得到清扫场所的场所结构信息以及清扫场所中各场景对象的分布信息后,根据场所结构信息和分布信息构建清扫场所对应的场景分区图,例如可以根据场所结构信息和分布信息对清扫场所进行区域划分,得到清扫场所对应的各清扫区域,并进一步分析各清扫区域的清扫策略,根据各清扫区域及相应的清扫策略得到场景分区图,并将场景分区图存储至预设的场景图库。进一步地,可以建立场景分区图与清扫场所之间的映射关系,同时将该映射关系存储至场景图库,以便可以根据清扫场所从场景图库中查询获得相应的场景分区图。
本实施例中,通过清扫场所的场所图像的场景识别结果中的场所结构信息以及清扫场所中各场景对象的分布信息,构建清扫场所对应的场景分区图,可以准确对清扫场所进行划分,获得与清扫场所准确对应的场景分区图,从而确保清扫机器人可以结合场景分区图进行准确的清扫作业,提高了清扫机器人的清扫作业效率。
在一个具体应用中,清扫机器人包括RGB摄像头和TOF(Time of Flight,飞行时间)摄像头,RGB摄像头可以拍摄得到RGB图像,TOF摄像头可以拍摄到深度图像,环境图像包括RGB图像和深度图像。RGB摄像头所获取的单张图像只能反映二维信息,基于RGB图像进行对象识别也只能反映视野中有无目标对象,而无法准确给出目标对象相对于机器人的位置,而3D TOF摄像头通过TOF测距技术,可得到三维信息,与RGB图像信息融合,可得到目标对象的尺寸、位置等信息,从而有助于准确确定目标对象的类别和位置。其中,TOF摄像头通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。此外,深度图像不局限于从3D TOF传感器获得,也可从结构光方案或者双目测距方案获得。
进一步地,清扫机器人在行走清扫的时候,RGB摄像头和TOF摄像头会同步实时对周围的环境进行拍照,RGB摄像头每次拍的照片都会传给场景分类模型,分类模型会对照片实时进行房间场景分类,如划分为客厅、卧室、餐厅、厨房、卫生间、过道、阳台、书房、门、无定义这10个种类;同时,RGB摄像头每次拍的照片传给目标检测模型,模型会对照片实时进行对象识别,从而输出实时的对象识别结果,以确定待清扫区域中的目标对象。具体地,目标对象的类别可以包括但不限于包括沙发、床、餐桌、电冰箱、洗手盆和坐式马桶等。清扫机器人识别检测出当前机器人视野中的目标对象后,结合TOF摄像头同步的深度图像,确定目标对象的三维空间位置。
进一步地,对环境图像进行场景分类模型可以为EfficientNet-lite0模型,对环境图像进行对象识别采用的图像检测模型可以是基于深度学习网络MobileNet V1建立的TFLite(TensorFlow Lite,一种用于设备端推断的开源深度学习框架)类型的模型。在训练模型时,对家庭房间场景调研及分区定义,制定客厅、卧室、餐厅、厨房、卫生间、过道、阳台、书房、门、无定义这10个种类照片的特征定义;根据在大量的居民家庭中的房间场景照片的特征需求采集不同房间环境照片数据。对采集的不同房间场景数据进行分类,整理出包含客厅、卧室、餐厅、厨房、卫生间、过道、阳台、书房、门、无定义这10个种类房间场景的均匀比例照片数据集。其中,需要筛选删除采集过程中不合格的图片,对整理的数据集进行随机裁剪、筛选,平衡数据集的不同房间类型的图片数量。
进一步地,对于场景分类模型,使用的训练的工具是TensorFlow(一个开放源代码数据库)、Python语言,模型的学习率为0.001,类别数目为3,在Tensorflow中基于神经网络模型EfficientNet-lite0训练出3种材质地板的分类模型。按照训练、验证、测试=8:1:1的比例,把整理出来的地板数据集制作成TFRecord格式数据,作为模型的数据输入。EfficientNet-lite0模型是神经网络架构搜索(Neural Architecture Search)技术训练出来的Efficientnet的移动端侧版本,针对移动端端侧CPU、GPU(Graphics ProcessingUnit,图形处理器)做了大量的针对性优化,例如神经网络结构的改进和算子的优化,相较于Resnet、MobileNet等轻量化模型,具有更高的精度、更低的参数量和更低的延迟等优势。EfficientNet-lite0的网络结构中,最后一层是分类结果输出的全连接层-FC层,把卷积的输出维度从1024降低到3,即房间场景分类的类别数。
由于家庭房间场景识别及分区照片存在类与类之间的相似性和类内的差异性,选择fine-tune(微调)的方式在EfficientNet-lite0进行迁移学习训练,把模型的1000种ImageNet数据集分类修改为本方案中的10种房间场景识别。此外,考虑到清扫机器人视觉受限,清扫机器人拍摄的大部分照片很难分辨房间场景,可以在训练中引入无定义类作为补充类,训练10种房间场景的神经网络模型。具体地,选择fine-tune的方式进行深度学习训练,将RGB图片作为模型的输入数据,经过卷积层提取每一张图片的特征信息,然后输入FC层进行场景类别的分类。训练3万个epoch,loss降到0.3左右,验证集准确率约0.96,得到最终的训练模型。利用训练的模型进行房间场景测试,输入一张家庭房间场景图片,模型会输出一个0~9的10个数字标签(客厅、卧室、餐厅、厨房、卫生间、过道、阳台、书房、门、无定义这10种类的数字标签),从而得到模型的识别结果。最后,把模型转化为TFLite模型,移植应用到扫地机器人的开发板上,把扫地机器人摄像头拍摄照片作为模型的输入,识别出对应的房间场景标签。
另一方面,对于图像检测模型,采用基于深度学习网络MobileNet V1建立的TFLite(TensorFlow Lite,一种用于设备端推断的开源深度学习框架)类型的模型。在训练该图像检测模型时,可以制定基于客厅、卧室、餐厅、厨房等不同房间场景下,沙发、床、餐桌、电冰箱、洗手盆和坐式马桶这6个种类数据的特征定义。根据目标对象数据的特征定义,采集大量不同居民家庭环境下的家具家电数据,对采集的数据进行家具家电的区域标注,标注沙发、床、餐桌、电冰箱、洗手盆和坐式马桶这6个种类数据。其中,需要筛选删除采集过程中不合格的图片,对整理的数据集进行随机裁剪、筛选,平衡数据集的不同种类的目标物体数据的图片数量。
进一步地,使用的训练的工具是TensorFlow(一个开放源代码数据库)、Python语言,模型的学习率为0.001,类别数目为2,在Tensorflow中基于神经网络图像检测模型MobileNet-SSD训练出检测8种目标对象数据的模型。按照训练、验证、测试=8:1:1的比例,把整理出来的地板数据集制作成TFRecord格式数据,作为模型的数据输入。MobileNet-SSD是用MobileNet模型作为图像特征提取,用SSD框架来完成目标区域画框检测的One-Stage目标检测算法。MobileNet模型中,采用核心组件depthwise sparable convolutions(深度可分离卷积)替代过去的standard convolutions(标准卷积)来提取图片的特征信息,解决卷积网络的计算效率和参数量的问题。深度可分离卷积可以将标准卷积分解成一个深度卷积和一个点卷积(1×1卷积核),将每个卷积核应用到每一个通道,1×1卷积用来组合通道卷积的输出。Mobilenet把照片中的目标对象特征信息提取出来,输入到SSD检测框架中完成目标区域的检测,从而输出目标对象在照片中的框位置信息。
由于不同家庭房间场景下的目标对象数据存在类与类之间的相似性和类内的差异性,选择fine-tune(微调)的方式在MobileNet-SSD技术框架上进行迁移学习训练,把原始模型的VOC(Visual Object Classes,视觉对象类)的20个种类检测修改为6种对象识别,基于fine-tune模式进行深度学习训练,照片作为模型的输入数据,经过MobileNet提取每一张图片的特征信息,输入到SSD检测框架中完成目标对象的检测。训练3万个epoch(一代训练),loss(损失函数)降到0.4左右,验证集准确率约0.97,得到最终的图像检测模型。利用训练的图像检测模型进行目标对象的检测测试,输入一张家庭房间场景图片,如果存在目标对象,模型会输出目标对象的类别和在照片中的框位置信息。最后,把模型转化为TFLite模型,移植应用到清扫机器人的开发板上,把清扫机器人摄像头拍摄照片作为模型的输入,输出目标对象的类别和在照片中的框位置信息,对象识别结果包括目标对象的类别和在照片中的框位置信息。
通过训练完成的场景分类模型和图像检测模型,可以将清扫机器人在清扫过程中,通过RGB摄像头拍摄的RGB图片,输入到EfficientNet-lite0模型和MobileNet-SSD模型中,识别出当前所在地方的房间场景,并检测出当前拍摄照片的目标对象的类别和位置信息;同时,通过TOF摄像头拍摄,返回当前视野目标对象的深度信息。根据不同的房间场景和目标对象的类别与深度位置信息,可以构建精准的二维或三维家庭户型图,从而适配对应的避障和清扫策略。客厅、卧室容易掉入一些粘附性比较大的颗粒物等杂物,需要更大的吸力才能清扫干净;卧室、走廊、阳台以清扫灰层为主,可以使用相对较小的吸力。
在一个实施例中,如图3所示,构建场景分区图的处理,即根据场所结构信息和分布信息构建清扫场所对应的场景分区图包括:
步骤S302,根据场所结构信息和分布信息对清扫场所进行区域划分,得到清扫场所对应的各清扫区域。
本实例中,根据场所结构信息和分布信息对清扫场所进行区域划分,得到清扫场所对应的各清扫区域,并进一步分析各清扫区域的清扫策略,根据各清扫区域及相应的清扫策略得到场景分区图。具体地,获得清扫场所的场所结构信息以及清扫场所中各场景对象的分布信息后,根据场所结构信息和分布信息对清扫场所进行区域划分,如可以根据场所结构信息中的房屋划分,结合各场景对象的分布信息中的分布位置对清扫场所进行区域划分。具体的,可以根据场所结构信息中的房屋划分对清扫场所进行功能分区,以划分各功能分区,再根据各场景对象在清扫场所中的分布位置,映射至各功能分区中,结合各场景对象的类型、体积大小,对清扫场所进行区域划分,得到清扫场所对应的各清扫区域。清扫区域为功能分区中需要进行清扫的区域,一般为功能分区中未被家具或其他物体所占用的区域,以及清扫机器人可以进行清扫的区域,例如客厅的未摆放各种家具的地面,又如卧室的床底等。
步骤S304,根据清扫区域的类型,以及清扫区域中对应分布的区域场景对象的类型和位置信息确定清扫区域的清扫策略。
确定清扫区域后,进一步确定各清扫区域相应的清扫策略。具体地,确定各清扫区域的类型,例如清扫区域为厨房区域、客厅区域、卧室区域、书房区域、阳台区域等;确定清扫区域中对应分布的区域场景对象,区域场景对象为分布于该清扫区域中的场景对象,如卫生间区域中的洗漱台、卧室区域中的床、衣柜等,获得各区域场景对象的类型和位置信息,各区域场景对象的类型用于区别各物体对象,位置信息即为区域场景对象在清扫场所中的所处位置,区域场景对象的位置信息和类型均可以基于对场所图像进行场景识别获得的场所结构信息以及各场景对象的分布信息得到。
根据清扫区域的类型,以及区域场景对象的类型和位置信息确定相应清扫区域的清扫策略。例如,对于卫生间,其水渍较多,则需要对地面进行擦干的清扫作业,以确保地面的干燥;同时,对于卫生间的洗漱台、浴缸等区域场景对象,则清扫机器人在清扫时需要针对性进行避障,以防止清扫机器人被打断清扫作业,或清扫机器人对其造成损坏。
步骤S306,根据各清扫区域及相应的清扫策略得到清扫场所对应的场景分区图。
确定各清扫区域及相应的清扫策略后,基于各清扫区域及其相应的清扫策略构建得到清扫场所对应的场景分区图。具体地,可以在清扫场所的户型图中划分出各清扫区域,并标记各清扫区域对应的清扫策略,从而得到记录了清扫场所对应各清扫区域及相应的清扫策略的场景分区图。
本实施例中,根据场所结构信息和分布信息对清扫场所进行区域划分,得到清扫场所对应的各清扫区域,并进一步根据清扫区域的类型,以及区域场景对象的类型和位置信息分析得到各清扫区域的清扫策略,结合各清扫区域及其相应的清扫策略得到场景分区图,从而可以得到准确记录了清扫场所中各清扫区域及相应的清扫策略的场景分区图,以便清扫机器人可以根据各清扫区域相应的清扫策略针对性进行清扫作业,从而提高了清扫机器人清扫作业的效率。
在一个实施例中,清扫策略包括清扫优先级、清扫路径规划、清扫方式和清扫频率;控制清扫机器人移动至各待清扫区域包括:控制清扫机器人按照清扫优先级移动至各待清扫区域。
本实施例中,清扫策略包括清扫优先级、清扫路径规划、清扫方式和清扫频率,根据清扫优先级控制清扫机器人移动至各待清扫区域,并根据环境对象的类型和位置的对清扫路径规划、清扫方式和清扫频率进行更新,基于更新后的清扫路径规划、清扫方式和清扫频率下发相应的清扫控制指令至清扫机器人,以控制清扫机器人执行清扫策略相应的清扫作业。
其中,清扫优先级可以为各待清扫区域进行清扫作业时的先后优先级,优先级高的待清扫区域优先进行清扫作业;清扫路径规划为针对待清扫区域进行清扫时清扫机器人的移动路径;清扫方式为清扫机器人针对待清扫区域进行清扫作业时采取的清扫模式,如擦洗、吸取收纳等;清扫频率为清扫机器人针对待清扫区域单位时间内进行清扫作业的次数,清扫频率反映了针对相应待清扫区域的清扫周期。清扫策略与各个待清扫区域对应设置,不同的待清扫区域可以对应不同的清扫策略,以便清扫机器人可以针对性进行清扫作业,从而提高清扫作业效率。
具体地,控制清扫机器人移动至各待清扫区域时,按照清扫策略中的清扫优先级确定各待清扫区域的清扫顺序,并根据该清扫顺序控制清扫机器人依次移动至各待清扫区域,以便控制清扫机器人对相应的待清扫区域进行清扫处理。
进一步地,下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人包括:确定环境对象的类型和位置;根据环境对象的类型和位置对清扫路径规划、清扫方式和清扫频率进行更新,得到更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率;根据更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率生成清扫控制指令,并发送清扫控制指令至清扫机器人。
在控制清扫机器人对待清扫区域进行清扫时,确定环境对象的类型和位置,环境对象的类型和位置可以根据对环境图像进行对象识别得到的对象识别结果确定,环境对象的位置可以为空间三维位置,具体如三维坐标。根据环境图像确定的环境对象的类型和位置可能与清扫场所对应的场景分区图中记载的不同,例如椅子被人为搬动、桌子被挪动等,则可以根据环境图像确定的环境对象的类型和位置对场景分区图相应的清扫策略进行更新,以确保清扫机器人的清扫作业效率。具体地,根据环境对象的类型和位置对清扫路径规划、清扫方式和清扫频率进行更新,得到更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率,例如根据环境对象的类型和位置对场景分区图进行更新,并基于更新后的场景分区图,对应更新清扫路径规划、清扫方式和清扫频率。再根据更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率生成清扫控制指令,并下发清扫控制指令至清扫机器人,以实现对清扫机器人的清扫作业控制。
本实施例中,通过基于环境图像确定的环境对象的类型和位置对清扫场所预设的清扫策略中的清扫路径规划、清扫方式和清扫频率进行更新,并基于更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率控制清扫机器人的清扫作业,可以提高清扫机器人针对不同待清扫区域的清扫作业针对性,从而提高清扫机器人的清扫作业效率。
在一个实施例中,在确定环境对象的类型和位置之后,还包括:确定环境对象中复位对象的复位对象位置;复位对象的类型为非清扫类型;获取复位对象预设的复位位置;根据复位对象位置和复位位置生成复位控制指令,并发送复位控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从复位对象位置转移至复位位置。
本实施例中,对于待清扫区域中非清扫类型的复位对象,通过复位控制指令控制清扫机器人将复位对象进行转移复位,从而使清扫机器人针对不同非清扫类型的环境对象进行相应的清扫处理,提升了清扫机器人的清扫作业效率和清扫效果。
具体地,确定环境对象的类型和位置之后,从各环境对象中确定复位对象的复位对象位置。其中,复位对象为可以由清扫机器人进行复位的非清扫类型的环境对象,例如鞋子、拖鞋、袜子等,复位对象可以由清扫机器人进行转移以其移动到预设复位位置,从而实现复位对象的位置复位。非清扫类型指不需要清扫机器人进行清扫处理,如不需要清扫机器人吸纳、擦除等清扫作业的环境对象,具体如鞋子、拖鞋、袜子、电线、立式风扇底座、瓶子、杯子、体重秤等。非清扫类型的环境对象还可以包括与复位对象对应的非复位对象,非复位对象为不可由清扫机器人进行复位的非清扫类型的环境对象,例如桌子、柜子、电视等环境对象,对于非复位对象,清扫机器人需要在进行地面清扫时针对非复位对象进行避障,以防止清扫机器人被非复位对象打断清扫作业,或清扫机器人对非复位对象造成损坏。
获取复位对象预设的复位位置,复位位置即为复位对象预设的需要转移的目标位置,通过清扫机器人将复位对象转移至对应预设的复位位置,实现对复位对象的位置复位。具体地,复位对象的类别及其复位位置可以由用户预先进行设置,以便实现用户的个性化配置。根据复位对象位置和复位位置生成复位控制指令,即根据复位对象当前所处的位置和需要转移的目标位置,生成复位对象对应的复位控制指令,通过发送复位控制指令至清扫机器人,以控制清扫机器人将复位对象从复位对象位置转移至复位位置,实现对复位对象的复位。
本实施例中,通过复位控制指令控制清扫机器人将复位对象进行转移复位,使清扫机器人自动对复位对象转移,便于清扫机器人进行清扫作业,提升了清扫机器人的清扫作业效率和清扫效果。
此外,对于清扫类型的环境对象,根据环境对象相应的清扫策略和当前位置生成清扫控制指令,并通过该清扫控制指令控制清扫机器人进行清扫作业。具体地,确定待清扫区域中的环境对象后,确定识别的环境对象中类型为清扫类型的清扫对象。清扫对象为需要清扫机器人对应进行清扫处理的对象,如纸屑、厨余垃圾、食物、油渍等垃圾杂物或脏污区域。根据清扫对象的类型和位置对场景分区图相应的清扫策略进行更新,以确保清扫机器人的清扫作业效率。具体可以根据更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率生成清扫控制指令,并发送清扫控制指令至清扫机器人,例如可以由控制器下发清扫控制指令至清扫机器人的执行组件,以控制清扫机器人的执行组件根据清扫控制指令对待清扫区域进行清扫。
在一个实施例中,基于场景信息的清扫机器人控制方法还包括:根据环境对象的类型和位置确定对应当前的待清扫区域的对象分布信息;根据对象分布信息对当前的待清扫区域进行更新,得到更新后的待清扫区域;通过各更新后的待清扫区域更新清扫场所对应的场景信息。
本实施例中,还可以根据基于环境图像确定的环境对象的类型和位置对清扫场所的场景信息进行更新。具体地,确定环境对象的类型和位置之后,据环境对象的类型和位置确定对应当前的待清扫区域的对象分布信息,即根据环境对象的类型和位置确定对应待清扫区域中的当前区域环境对象及其相应的分布信息,根据对象分布信息对当前的待清扫区域进行更新,得到更新后的待清扫区域。具体地,可以对将对象分布信息与场景分区图中的待清扫区域进行对比,根据对比不同的对象分布信息对场景分区图中的待清扫区域进行更新,得到更新后的待清扫区域,遍历各个待清扫区域,可以根据各更新后的待清扫区域更新清扫场所对应的场景信息。例如,可以根据各更新后的待清扫区域重新构建清扫场所对应的场景分区图,从而实现对场景分区图的及时更新。
本实施例中,基于环境图像确定的环境对象的类型和位置对清扫场所的场景信息及时进行更新,可以确保清扫场所对应的场景信息的有效性,确保清扫机器人清扫作业的效率。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种基于场景信息的清扫机器人控制装置,包括:场景信息获取模块402、清扫策略确定模块404、环境图像获取模块406、环境对象确定模块408和清扫控制模块410,其中:
场景信息获取模块402,用于获取清扫机器人关联的清扫场所对应的场景信息;
清扫策略确定模块404,用于根据场景信息确定清扫场所中各待清扫区域及相应的清扫策略;
环境图像获取模块406,用于控制清扫机器人移动至各待清扫区域,并获取清扫机器人采集获得的与各待清扫区域对应的环境图像;
环境对象确定模块408,用于根据环境图像确定待清扫区域中的环境对象;
清扫控制模块410,用于下发与环境对象和清扫策略对应的清扫控制指令至清扫机器人,清扫控制指令用于控制清扫机器人根据清扫控制指令对待清扫区域进行清扫。
在一个实施例中,场景信息包括场景分区图;场景信息获取模块402包括分区图获取模块,用于从场景图库中获取清扫场所对应的场景分区图;清扫策略确定模块404,还用于从场景分区图中确定清扫场所中各待清扫区域及相应的清扫策略。
在一个实施例中,还包括场所图像获取模块、场景识别模块和分区图构建模块;其中:场所图像获取模块,用于获取清扫场所的场所图像;场景识别模块,用于对场所图像进行场景识别,获得清扫场所的场所结构信息以及清扫场所中各场景对象的分布信息;分区图构建模块,用于根据场所结构信息和分布信息构建清扫场所对应的场景分区图,并将场景分区图存储至场景图库。
在一个实施例中,分区图构建模块包括区域划分模块、区域策略确定模块和场景分区图模块;其中:区域划分模块,用于根据场所结构信息和分布信息对清扫场所进行区域划分,得到清扫场所对应的各清扫区域;区域策略确定模块,用于根据清扫区域的类型,以及清扫区域中对应分布的区域场景对象的类型和位置信息确定清扫区域的清扫策略;场景分区图模块,用于根据各清扫区域及相应的清扫策略得到清扫场所对应的场景分区图。
在一个实施例中,清扫策略包括清扫优先级、清扫路径规划、清扫方式和清扫频率;环境图像获取模块406,还用于控制清扫机器人按照清扫优先级移动至各待清扫区域;清扫控制模块410包括环境对象确定模块、策略更新模块和指令生成模块;其中:环境对象确定模块,用于确定环境对象的类型和位置;策略更新模块,用于根据环境对象的类型和位置对清扫路径规划、清扫方式和清扫频率进行更新,得到更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率;指令生成模块,用于根据更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率生成清扫控制指令,并发送清扫控制指令至清扫机器人。
在一个实施例中,还包括复位对象确定模块、复位复位确定模块和复位控制模块;其中:复位对象确定模块,用于确定环境对象中复位对象的复位对象位置;复位对象的类型为非清扫类型;复位复位确定模块,用于获取复位对象预设的复位位置;复位控制模块,用于根据复位对象位置和复位位置生成复位控制指令,并发送复位控制指令至清扫机器人;复位控制指令用于控制清扫机器人将复位对象从复位对象位置转移至复位位置。
在一个实施例中,还包括分布信息确定模块、区域更新模块和场景信息更新模块;其中:分布信息确定模块,用于根据环境对象的类型和位置确定对应当前的待清扫区域的对象分布信息;区域更新模块,用于根据对象分布信息对当前的待清扫区域进行更新,得到更新后的待清扫区域;场景信息更新模块,用于通过各更新后的待清扫区域更新清扫场所对应的场景信息。
关于基于场景信息的清扫机器人控制装置的具体限定可以参见上文中对于基于场景信息的清扫机器人控制方法的限定,在此不再赘述。上述基于场景信息的清扫机器人控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于清扫机器人中的处理器中,也可以以软件形式存储于清扫机器人中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种清扫机器人,该清扫机器人可以内置服务器,其内部结构图可以如图5所示。该清扫机器人包括通过系统总线连接的处理器、存储器和网络接口。其中,该清扫机器人的处理器用于提供计算和控制能力。该清扫机器人的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该清扫机器人的数据库用于存储数据。该清扫机器人的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于场景信息的清扫机器人控制方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的清扫机器人的限定,具体的清扫机器人可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种清扫机器人,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于场景信息的清扫机器人控制方法,其特征在于,所述方法包括:
获取清扫机器人关联的清扫场所对应的场景信息;所述场景信息包括场景分区图,所述场景分区图从预设的场景图库中获得,所述场景图库的构建步骤包括:获取所述清扫场所的场所图像;对所述场所图像进行场景识别,获得所述清扫场所的场所结构信息以及所述清扫场所中各场景对象的分布信息;根据所述场所结构信息和所述分布信息构建所述清扫场所对应的场景分区图,并将所述场景分区图存储至所述场景图库;
根据所述场景信息确定所述清扫场所中各待清扫区域及相应的清扫策略;
控制所述清扫机器人移动至各所述待清扫区域,并获取所述清扫机器人采集获得的与各所述待清扫区域对应的环境图像;
根据所述环境图像确定所述待清扫区域中的环境对象;
下发与所述环境对象和所述清扫策略对应的清扫控制指令至所述清扫机器人,所述清扫控制指令用于控制所述清扫机器人根据所述清扫控制指令对所述待清扫区域进行清扫。
2.根据权利要求1所述的方法,其特征在于,所述获取清扫机器人关联的清扫场所对应的场景信息包括:
从所述场景图库中获取所述清扫场所对应的场景分区图;
所述根据所述场景信息确定所述清扫场所中各待清扫区域及相应的清扫策略包括:
从所述场景分区图中确定所述清扫场所中各待清扫区域及相应的清扫策略。
3.根据权利要求1所述的方法,其特征在于,所述环境图像由所述清扫机器人上设置的感知装置采集得到。
4.根据权利要求1所述的方法,其特征在于,所述根据所述场所结构信息和所述分布信息构建所述清扫场所对应的场景分区图包括:
根据所述场所结构信息和所述分布信息对所述清扫场所进行区域划分,得到所述清扫场所对应的各清扫区域;
根据所述清扫区域的类型,以及所述清扫区域中对应分布的区域场景对象的类型和位置信息确定所述清扫区域的清扫策略;
根据各所述清扫区域及相应的清扫策略得到所述清扫场所对应的场景分区图。
5.根据权利要求1至4任意一项所述的方法,其特征在于,所述清扫策略包括清扫优先级、清扫路径规划、清扫方式和清扫频率;所述控制所述清扫机器人移动至各所述待清扫区域包括:
控制所述清扫机器人按照所述清扫优先级移动至各所述待清扫区域;
所述下发与所述环境对象和所述清扫策略对应的清扫控制指令至所述清扫机器人包括:
确定所述环境对象的类型和位置;
根据所述环境对象的类型和位置对所述清扫路径规划、所述清扫方式和所述清扫频率进行更新,得到更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率;
根据更新后的清扫路径规划、更新后的清扫方式和更新后的清扫频率生成清扫控制指令,并发送所述清扫控制指令至所述清扫机器人。
6.根据权利要求5所述的方法,其特征在于,在所述确定所述环境对象的类型和位置之后,还包括:
确定所述环境对象中复位对象的复位对象位置;所述复位对象的类型为非清扫类型;
获取所述复位对象预设的复位位置;
根据所述复位对象位置和所述复位位置生成复位控制指令,并发送所述复位控制指令至所述清扫机器人;所述复位控制指令用于控制所述清扫机器人将所述复位对象从所述复位对象位置转移至所述复位位置。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
根据所述环境对象的类型和位置确定对应当前的待清扫区域的对象分布信息;
根据所述对象分布信息对所述当前的待清扫区域进行更新,得到更新后的待清扫区域;
通过各更新后的待清扫区域更新所述清扫场所对应的所述场景信息。
8.一种基于场景信息的清扫机器人控制装置,其特征在于,所述装置包括:
场景信息获取模块,用于获取清扫机器人关联的清扫场所对应的场景信息;所述场景信息包括场景分区图,所述场景分区图从预设的场景图库中获得,所述场景图库的构建步骤包括:获取所述清扫场所的场所图像;对所述场所图像进行场景识别,获得所述清扫场所的场所结构信息以及所述清扫场所中各场景对象的分布信息;根据所述场所结构信息和所述分布信息构建所述清扫场所对应的场景分区图,并将所述场景分区图存储至所述场景图库;
清扫策略确定模块,用于根据所述场景信息确定所述清扫场所中各待清扫区域及相应的清扫策略;
环境图像获取模块,用于控制所述清扫机器人移动至各所述待清扫区域,并获取所述清扫机器人采集获得的与各所述待清扫区域对应的环境图像;
环境对象确定模块,用于根据所述环境图像确定所述待清扫区域中的环境对象;
清扫控制模块,用于下发与所述环境对象和所述清扫策略对应的清扫控制指令至所述清扫机器人,所述清扫控制指令用于控制所述清扫机器人根据所述清扫控制指令对所述待清扫区域进行清扫。
9.一种清扫机器人,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010487477.2A CN111657798B (zh) | 2020-06-02 | 2020-06-02 | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010487477.2A CN111657798B (zh) | 2020-06-02 | 2020-06-02 | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111657798A CN111657798A (zh) | 2020-09-15 |
CN111657798B true CN111657798B (zh) | 2021-09-24 |
Family
ID=72385549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010487477.2A Active CN111657798B (zh) | 2020-06-02 | 2020-06-02 | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111657798B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287833A (zh) * | 2020-10-29 | 2021-01-29 | 上海高仙自动化科技发展有限公司 | 机器人的巡检清洁方法、装置、机器人和存储介质 |
CN112890683A (zh) * | 2021-01-13 | 2021-06-04 | 美智纵横科技有限责任公司 | 一种清洁方法、装置、设备及计算机可读存储介质 |
CN113065473A (zh) * | 2021-04-07 | 2021-07-02 | 浙江天铂云科光电股份有限公司 | 一种适用于嵌入式系统的口罩人脸检测和体温测量方法 |
CN113367616B (zh) * | 2021-05-19 | 2022-11-11 | 科沃斯机器人股份有限公司 | 机器人控制方法、装置、机器人及存储介质 |
CN113233270A (zh) * | 2021-06-15 | 2021-08-10 | 上海有个机器人有限公司 | 基于机器人行驶安全的电梯内外判断方法及相关设备 |
CN113995355B (zh) * | 2021-09-28 | 2023-09-12 | 云鲸智能(深圳)有限公司 | 机器人管理方法、装置、设备及可读存储介质 |
US20220107642A1 (en) * | 2021-12-17 | 2022-04-07 | Intel Corporation | Smart sanitation robot |
CN114431800B (zh) * | 2022-01-04 | 2024-04-16 | 北京石头世纪科技股份有限公司 | 清洁机器人划区清洁的控制方法、装置及电子设备 |
CN116919235A (zh) * | 2022-04-01 | 2023-10-24 | 追觅创新科技(苏州)有限公司 | 区域清洁的控制方法和装置、存储介质及电子装置 |
CN114831547B (zh) * | 2022-05-25 | 2023-08-25 | 珠海格力电器股份有限公司 | 扫地装置清扫方法及扫地机器人 |
CN116774195B (zh) * | 2023-08-22 | 2023-12-08 | 国网天津市电力公司滨海供电分公司 | 多传感器联合标定的激励判断与参数自调节方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709937A (zh) * | 2016-12-21 | 2017-05-24 | 四川以太原力科技有限公司 | 一种扫地机器人的控制方法 |
CN107378953A (zh) * | 2017-09-20 | 2017-11-24 | 深圳市杉川机器人有限公司 | 清扫控制方法、装置、清扫机器人及可读存储介质 |
CN109288455A (zh) * | 2018-09-21 | 2019-02-01 | 北京智行者科技有限公司 | 垃圾清扫方法及装置 |
CN110946513A (zh) * | 2018-09-27 | 2020-04-03 | 广东美的生活电器制造有限公司 | 扫地机器人的控制方法及装置 |
CN111035328A (zh) * | 2018-10-12 | 2020-04-21 | 科沃斯机器人股份有限公司 | 机器人清洁方法及机器人 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9582000B2 (en) * | 2011-09-07 | 2017-02-28 | Lg Electronics Inc. | Robot cleaner, and system and method for remotely controlling the same |
-
2020
- 2020-06-02 CN CN202010487477.2A patent/CN111657798B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709937A (zh) * | 2016-12-21 | 2017-05-24 | 四川以太原力科技有限公司 | 一种扫地机器人的控制方法 |
CN107378953A (zh) * | 2017-09-20 | 2017-11-24 | 深圳市杉川机器人有限公司 | 清扫控制方法、装置、清扫机器人及可读存储介质 |
CN109288455A (zh) * | 2018-09-21 | 2019-02-01 | 北京智行者科技有限公司 | 垃圾清扫方法及装置 |
CN110946513A (zh) * | 2018-09-27 | 2020-04-03 | 广东美的生活电器制造有限公司 | 扫地机器人的控制方法及装置 |
CN111035328A (zh) * | 2018-10-12 | 2020-04-21 | 科沃斯机器人股份有限公司 | 机器人清洁方法及机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN111657798A (zh) | 2020-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111657798B (zh) | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 | |
CN111543902B (zh) | 地面清洁方法、装置、智能清洁设备和存储介质 | |
JP7395229B2 (ja) | 状況認識のためのモバイル清掃ロボット人工知能 | |
CN111643017B (zh) | 基于日程信息的清扫机器人控制方法、装置和清扫机器人 | |
RU2624737C2 (ru) | Способ и устройство для уборки мусора | |
CN111568314B (zh) | 基于场景识别的清洁方法、装置、清洁机器人和存储介质 | |
CN110174888B (zh) | 自移动机器人控制方法、装置、设备及存储介质 | |
CN111643010B (zh) | 清洁机器人控制方法、装置、清洁机器人和存储介质 | |
US20180315162A1 (en) | Extracting 2d floor plan from 3d grid representation of interior space | |
CN111839371B (zh) | 地面清扫方法、装置、扫地机和计算机存储介质 | |
US20210096579A1 (en) | Method For Controlling An Autonomous Mobile Robot | |
WO2020248458A1 (zh) | 一种信息处理方法、装置及存储介质 | |
Purushwalkam et al. | Audio-visual floorplan reconstruction | |
US20190080245A1 (en) | Methods and Systems for Generation of a Knowledge Graph of an Object | |
CN111973075B (zh) | 基于户型图的地面清扫方法、装置、扫地机和计算机介质 | |
CN112784664A (zh) | 语义地图构建与作业方法、自主移动设备及存储介质 | |
CN114359692A (zh) | 房间识别方法、装置、电子设备及存储介质 | |
Kim et al. | User-centered approach to path planning of cleaning robots: analyzing user's cleaning behavior | |
CN114504273A (zh) | 机器人控制方法及装置 | |
CN111898557A (zh) | 自移动设备的地图创建方法、装置、设备及存储介质 | |
US20230184949A1 (en) | Learning-based system and method for estimating semantic maps from 2d lidar scans | |
Antonazzi et al. | Enhancing Door-Status Detection for Autonomous Mobile Robots during Environment-Specific Operational Use | |
CN114489058A (zh) | 扫地机器人及其路径规划方法、装置和存储介质 | |
CN113143114B (zh) | 扫地机及其清扫区域的命名方法,计算机可读存储介质 | |
EP4163819A1 (en) | Control method for self-moving device, apparatus, storage medium, and self-moving device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210928 Address after: 518051 10th floor, area a, Han's innovation building, No. 9018, North Ring Avenue, songpingshan community, Xili street, Nanshan District, Shenzhen City, Guangdong Province Patentee after: Shenzhen Shanchuan Zhixing Technology Co.,Ltd. Address before: 518051 Room 501, 5 / F, area a, Han's innovation building, 9018 Beihuan Avenue, North District, high tech park, Nanshan District, Shenzhen City, Guangdong Province Patentee before: SHENZHEN 3IROBOTIX Co.,Ltd. |