CN112016375A - 基于地面材质自适应控制扫地机器人的方法及扫地机器人 - Google Patents

基于地面材质自适应控制扫地机器人的方法及扫地机器人 Download PDF

Info

Publication number
CN112016375A
CN112016375A CN201910536548.0A CN201910536548A CN112016375A CN 112016375 A CN112016375 A CN 112016375A CN 201910536548 A CN201910536548 A CN 201910536548A CN 112016375 A CN112016375 A CN 112016375A
Authority
CN
China
Prior art keywords
sweeping robot
image information
ground material
control
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910536548.0A
Other languages
English (en)
Inventor
黄继铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bot3 Inc
Original Assignee
Bot3 Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bot3 Inc filed Critical Bot3 Inc
Publication of CN112016375A publication Critical patent/CN112016375A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/2826Parameters or conditions being sensed the condition of the floor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2842Suction motors or blowers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Electromagnetism (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于地面材质自适应控制的扫地机器人,包括:接收模块,用于采集所述扫地机器人周围的第一图像信息;训练模块,用于对地面材质图像集进行轻量级深度神经网络离线模型训练,并建立识别地面材质的深度神经网络模型;处理模块,用于根据所述第一图像信息识别扫地机器人当前周边的地面材质以及所述第一图像信息所处的位置信息;控制模块,用于根据识别的地面材质和所述第一图像信息的位置信息发出控制信号来控制所述扫地机器人运动;以及运动模块,用于根据所述控制信号实现清扫模式。本发明公开的扫地机器人通过图像识别,实现识别地面材质,并根据不同的材质调整扫地机器人的清扫力度,从而实现高效清扫。

Description

基于地面材质自适应控制扫地机器人的方法及扫地机器人
技术领域
本发明涉及机器人控制领域,尤其涉及一种基于地面材质自适应控制扫地机器人的方法及扫地机器人。
背景技术
扫地机器人是游历待清扫空间以通过吸入包括来自地面的灰尘的异物来自动清扫待清扫空间而无需用户操控的设备。即扫地机器人在游历待清扫空间的同时清扫待清扫空间。在现有技术中,扫地机器人在设定好清扫强度后,对待扫空间内的环境采用相同的清扫强度以及清扫方案。对于不同地面材质,现有的扫地机器人无法区别,从而导致于清扫效率和清扫效果不尽如人意。比如,当地面为地毯材质时,对于附着其上的污渍相对而言清扫时需要采取更为高强度甚至需要采取多次重复清扫的方案才能达到清洁的效果。而当地面为普通的实木地板或者瓷砖时,同等灰尘或异物的状态下,清扫的方案采取较低清扫强度也可以实现清扫效果。当用户要着重清扫时,有这样的不便:需要手动操控清扫机器人并且需要移动到要着重清扫的区域,然后需要向清扫机器人给出重点清扫指令。因此,如何提供一种可解决上述问题的方案,以成为本领域技术人员的一大难题。
本发明以深度学习为背景,扫地机器人通过图像识别,实现识别地面材质,并根据不同的材质调整扫地机器人的清扫力度,从而实现高效清扫。
发明内容
本发明公开一种基于地面材质自适应控制的扫地机器人,包括:接收模块,用于采集所述扫地机器人周围的第一图像信息;训练模块,用于对地面材质图像集进行轻量级深度神经网络离线模型训练,并建立识别地面材质的深度神经网络模型;处理模块,耦合于所述接收模块和所述训练模块,用于根据所述第一图像信息识别扫地机器人当前周边的地面材质以及所述第一图像信息所处的位置信息;控制模块,耦合于所述处理模块,用于根据识别的地面材质和所述第一图像信息的位置信息发出控制信号来控制所述扫地机器人运动;以及运动模块,用于根据所述控制信号实现清扫模式。
本发明还提供一种基于地面材质自适应控制扫地机器人方法,包括:采集所述扫地机器人周围的第一图像信息;对地面材质图像集进行轻量级深度神经网络离线模型训练,并建立识别地面材质的深度神经网络模型;识别所述扫地机器人当前周边的地面材质以及所述第一图像信息所处的位置信息;根据识别的地面材质和所述第一图像信息的位置信息发出控制信号来控制所述扫地机器人运动;以及根据所述控制信号实现清扫模式。
有利地,本发明公开的扫地机器人通过图像识别,实现识别地面材质,并根据不同的材质调整扫地机的清扫力度,从而实现高效清扫。。
附图说明
图1为根据本发明实施例的基于地面材质自适应控制的扫地机器人的模块框图。
图2为根据本发明实施例的基于地面材质自适应控制的扫地机器人中处理模块的单元示意图。
图3为根据本发明实施例的基于地面材质自适应控制的扫地机器人的方法流程图。
图4为根据本发明实施例的基于地面材质自适应控制的扫地机器人中识别地面材质的方法流程图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1所示为根据本发明实施例的基于地面材质自适应控制的扫地机器人100的模块示意图。如图1所示,扫地机器人100包含接收模块101、处理模块102、训练模块103、控制模块104以及运动模块105。每一模块可为用于执行描述的动作的计算装置(例如,硬件、非暂态介质、固件)。
在一个实施例中,基于地面材质自适应控制的扫地机器人100中的接收模块101(例如,摄像头和/或图像采集单元)用于采集周围的图像(例如,机器人前方图像、机器人后方图像),用于后续作为图像深度学习的素材库以及作为原始图像,用于后续判断地面材质的类型。接收模块101中的图像信号采集单元至少为一个摄像头,如前向摄像头和/或后向摄像头。训练模块103用于对地面材质图像集进行轻量级深度神经网络离线模型训练,并建立识别地毯材质的深度神经网络模型。具体地,训练模块103中包含有地面材质图像数据库,且建立有识别地面材质的深度神经网络模型,该深度神经网络模型用于扫地机器人深度学习,最终识别出地面的材质类型。具体地,通过特定的图像数据集,例如:室内地面材质图像数据集,通过轻量级神经网络进行离线地模型训练,并预先把训练好的离线模型输入至处理模块102。根据接收模块101和训练模块103的获取的地面材质信息,处理模块102可识别扫地机器人当前周边的地面材质,以及该材质所处区域距离扫地机器人的位置,比如距离与方位。耦合于处理模块102的控制模块104(例如,微控制器MCU)用于发出控制信号来控制扫地机器人100清扫模式,其中清扫模式包括高速低吸力、低速高吸力等,但不限于此运动模块106可以是装有驱动电机的驱动轮(例如,万向轮和驱动轮156),用于根据所述控制模块104的控制信号来运动,例如高速或者低速。
图2所示为根据本发明的实施例基于地面材质自适应控制的扫地机器人中处理模块102的单元示意图。如图2所示处理模块102中还包含有图像处理单元210和识别单元212,其中图像处理单元210用于对接受模块101所采集的周边图像进行畸变校正和去噪,具体采用高斯滤波对图片去噪。经过预处理(畸变校正以及去噪处理后)后的图像输入至识别单元212,并使之通过与训练时相匹配的深度神经网络,同时利用离线训练的网络模型参数计算出图像中地面材质的识别结果以及该地面材质的位置信息,例如:距扫地机器人的距离和方位。控制模块104获取到所识别的地面材质,以及所述地面材质的位置后,控制模块104根据地面材质的类型发出控制指令。
在一个实施例中,当地面材质为第一种类型时,如软质地面(例如地毯材质),控制模块104发出第一控制指令,例如指示运动模块105采取低速高吸力清扫。当地面材质为第二种类型时,如硬质地面(例如木质地板或者瓷砖),控制模块104发出第二控制指令,例如指示运动模块105采取高速低吸力清扫。
具体的,识别单元212接收到待检测图像,例如预处理后的图像,并将检测图像载入神经网络离线模型进行检测。在一个实施例中,输入至识别单元212中的图像与离线模型参数送入轻量级深度卷积网络进行识别运算,识别单元212计算得到地面材质的类型和不同材质地面在输入图像中的位置。
图3所示为根据本发明实施例的基于地面材质自适应控制的扫地机器人的方法流程图。扫地机器人100的控制方法,包括:
步骤S302:启动扫地机器人100。扫地机器人100可以对当前周边或者某一特定的区域进行清扫,一旦启动扫地机器人100,扫地机器人100在其所处的环境开启清扫功能。
步骤S304:扫地机器人100识别其周围的地面材质,具体包括地面材质的类型,以及地面材质距离扫地机器人100距离和方位。
步骤S306:扫地机器人100根据所识别的地面材质选择清扫模式。在一个实施例中,当扫地机器人100识别出的地面材质为第一类型时,扫地机器人100采取第一级清扫模式;当扫地机器人100识别出的地面材质为第二类型时,扫地机器人100采取第二级清扫模式。
图4为根据本发明实施例的基于地面材质自适应控制的扫地机器人中识别地面材质的方法流程图。图4可以结合图1和图2进行描述。如图4所示,对应于基于地面材质自适应控制的扫地机器人中识别地面材质的方法400可包括:
步骤S402:接收模块101采集扫地机器人100周边环境图像,所采集的图像作为原始图像发送给处理模块102,为更清晰的描述该图像信息,称采集的原始图像信息为第一图像信息。具体指扫地机器人100启动后所处环境的图像,可以是房间或者某一特定的区域。
步骤S404:处理模块102接收到所采集的图像信息后,处理模块102内的图像处理单元210对该图像信息进行畸变校正与高斯滤波,获取校正后的图像信息,也称为预处理后的图像信息,为避免混淆,将预处理后的图像信息,称为第二图像信息。所述第二图像信息发送至处理模块102内的识别单元212备用。
与此同时,扫地机器人100内的训练模块103采集有地面材质图像数据集,为扫地机器人100启动之前所采集并存储在训练模块103内的地面材质数据集,包含有多种类型,多种形式的图片集,可以是用户自行拍摄,也可以是网络在线收集的地面材质图像集合。因此还包含有如下步骤:
S401:采集地面材质的图像数据集;
S403:训练模块103对采集的图像数据集通过轻量级深度神经网络进行离线模型训练;
S405:建立用于识别地面材质的离线神经网络模型;
S406:处理模块102内的识别单元212导入所述离线神经网络模型,并将第二图像信息作为输入图像,对第二图像信息进行深度卷积网络运算
S408:识别模块212通过深度卷积网络运算获取第二图像信息的地面材质信息以及位置信息,例如,地面材质为软质材料或硬质材料,而距离信息为距离扫地机器人100的距离以及方位信息;
S410:根据第二图像信息所识别的地面材质,确定清扫模式。
在一个实施例中,当第二图像信息所识别出为第一类型的材料,如硬质材质时,扫地机器人100内的控制模块104发出第一控制指令指示运动模块105按第一模式进行清扫,比如高速低吸力模式;当第二图像信息所识别出为第二类型的材料,如软质材质时,扫地机器人100内的控制模块104发出第二控制指令指示运动模块105按第二模式进行清扫,比如低速高吸力模式。本领域的技术人员应该理解,上述清扫模式可以由用户自行设置,不能作为对本发明的限制。
有利地,本发明的基于地面材质自适应控制扫地机器人的方法及扫地机器人可以提高扫地机器人的清扫效率,优化扫地机器人功能并为用户带来良好的家居服务体验。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种基于地面材质自适应控制的扫地机器人,包括:
接收模块,用于采集所述扫地机器人周围的第一图像信息;
训练模块,用于对地面材质图像集进行轻量级深度神经网络离线模型训练,并建立识别地面材质的深度神经网络模型;
处理模块,耦合于所述接收模块和所述训练模块,用于根据所述第一图像信息识别扫地机器人当前周边的地面材质以及所述第一图像信息所处的位置信息;
控制模块,耦合于所述处理模块,用于根据识别的地面材质和所述第一图像信息的位置信息发出控制信号来控制所述扫地机器人运动;以及
运动模块,用于根据所述控制信号实现清扫模式。
2.如权利要求1所述的基于地面材质自适应控制的扫地机器人,其特征在于,所述接收模块位于所述扫地机器人的前方,用于采集所述扫地机器人前方的图像。
3.如权利要求1所述的基于地面材质自适应控制的扫地机器人,其特征在于,所述处理模块内还包含图像处理单元,用于对所述第一图像信息预处理,包括畸变校正和高斯滤波后获取第二图像信息。
4.如权利要求1所述的基于地面材质自适应控制的扫地机器人,其特征在于,所述处理模块内还包含识别单元,所述识别单元以所述第二图像信息作为输入信息,对所述第二图像信息送入轻量级深度卷积网络进行识别运算,获取所述第一图像信息内的地面材质信息以及位置信息。
5.如权利要求4所述的基于地面材质自适应控制的扫地机器人,其特征在于,所述位置信息指所述第一图像信息距离所述扫地机器人的距离和方位。
6.如权利要求4所述的基于地面材质自适应控制的扫地机器人,其特征在于,当所述地面材质为硬质材料时,所述控制模块发出第一控制信号,指示所述运动模块高速低吸力运行。
7.如权利要求4所述的基于地面材质自适应控制的扫地机器人,其特征在于,当所述地面材质为软质材料时,所述控制模块发出第二控制信号,指示所述运动模块低速高吸力运行。
8.如权利要求1所述的基于地面材质自适应控制的扫地机器人,其特征在于,所述运动模块的清扫模式,包括所述高速低吸力和所述低速高吸力模式。
9.一种基于地面材质自适应控制扫地机器人的方法,其特征在于,包括:
采集所述扫地机器人周围的第一图像信息;;
对地面材质图像集进行轻量级深度神经网络离线模型训练,并建立识别地面材质的深度神经网络模型;
识别所述扫地机器人当前周边的地面材质以及所述第一图像信息所处的位置信息;
根据识别的地面材质和所述第一图像信息的位置信息发出控制信号来控制所述扫地机器人运动;以及
根据所述控制信号实现清扫模式。
10.如权利要求9所述的基于基于地面材质自适应控制扫地机器人的方法,其特征在于,还包括:对所述第一图像信息预处理,包括畸变校正和高斯滤波后获取第二图像信息。
11.如权利要求10所述的基于基于地面材质自适应控制扫地机器人的方法,其特征在于,还包括:以所述第二图像信息作为输入信息,对所述第二图像信息送入轻量级深度卷积网络进行识别运算,获取所述第一图像信息内的地面材质信息以及位置信息。
12.权利要求11所述的基于基于地面材质自适应控制扫地机器人的方法,其特征在于,还包括:所述位置信息指所述第一图像信息距离所述扫地机器人的距离和方位。
13.如权利要求9所述的基于地面材质自适应控制的扫地机器人的方法,其特征在于,当所述地面材质为硬质材料时,所述控制模块发出第一控制信号,指示所述运动模块高速低吸力运行。
14.如权利要求9所述的基于地面材质自适应控制的扫地机器人的方法,其特征在于,当所述地面材质为软质材料时,所述控制模块发出第二控制信号,指示所述运动模块低速高吸力运行。
CN201910536548.0A 2019-05-30 2019-06-20 基于地面材质自适应控制扫地机器人的方法及扫地机器人 Pending CN112016375A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/426,495 US20200375427A1 (en) 2019-05-30 2019-05-30 Method for a robot cleaner with an adaptive control method based on the material of the floor, and a robot cleaner
US16/426,495 2019-05-30

Publications (1)

Publication Number Publication Date
CN112016375A true CN112016375A (zh) 2020-12-01

Family

ID=73506936

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910536548.0A Pending CN112016375A (zh) 2019-05-30 2019-06-20 基于地面材质自适应控制扫地机器人的方法及扫地机器人

Country Status (2)

Country Link
US (1) US20200375427A1 (zh)
CN (1) CN112016375A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113362355A (zh) * 2021-05-31 2021-09-07 杭州萤石软件有限公司 一种地面材质识别方法、装置和扫地机器人
CN115429175A (zh) * 2022-09-05 2022-12-06 北京云迹科技股份有限公司 清洁机器人控制方法、装置、电子设备和介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102286132B1 (ko) * 2019-07-31 2021-08-06 엘지전자 주식회사 인공지능 로봇 청소기
KR20210057582A (ko) * 2019-11-12 2021-05-21 삼성전자주식회사 잘못 흡입된 객체를 식별하는 로봇 청소기 및 그 제어 방법
KR20210069479A (ko) * 2019-12-03 2021-06-11 삼성전자주식회사 외부 장치의 위치 정보를 식별하는 전자 장치 및 그 동작 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113362355A (zh) * 2021-05-31 2021-09-07 杭州萤石软件有限公司 一种地面材质识别方法、装置和扫地机器人
CN115429175A (zh) * 2022-09-05 2022-12-06 北京云迹科技股份有限公司 清洁机器人控制方法、装置、电子设备和介质

Also Published As

Publication number Publication date
US20200375427A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
CN112016375A (zh) 基于地面材质自适应控制扫地机器人的方法及扫地机器人
US11846950B2 (en) Mobile robot and control method thereof
CN109998428B (zh) 用于扫地机器人的清洁方法、系统及装置
CN110325938B (zh) 电动吸尘器
CN110955235A (zh) 扫地机器人的控制方法及控制装置
CN110968081B (zh) 具有可伸缩摄像头的扫地机器人的控制方法及控制装置
US20160154996A1 (en) Robot cleaner and method for controlling a robot cleaner
AU2014278987A1 (en) Cleaning robot and method for controlling the same
CN109213137A (zh) 扫地机器人、扫地机器人系统及其工作方法
CN108852184A (zh) 一种基于深度学习算法的无盲区扫地机器人及其清扫控制方法
CN108416271A (zh) 清扫方法及清扫系统
US20190227566A1 (en) Self-propelled vacuum cleaner
CN110946513A (zh) 扫地机器人的控制方法及装置
CN111142531B (zh) 基于家电联动的清洁机器人控制方法以及清洁机器人
CN115175599B (zh) 移动清洁机器人硬件推荐
WO2022257553A9 (zh) 清洁设备和清洁路径、清洁地图生成方法及生成系统
CN105467985A (zh) 自移动表面行走机器人及其图像处理方法
CN114938927A (zh) 自动清洁设备、控制方法及存储介质
CN110084177B (zh) 定位系统、方法、控制系统以及空调、存储介质
CN110967703A (zh) 使用激光雷达和摄像头的室内导航方法及室内导航装置
CN115151174A (zh) 一种清洁机器人及其清洁控制方法
CN217365667U (zh) 自动清洁设备
CN112137503A (zh) 一种扫地机器人的清扫方法、装置及扫地机器人
WO2022126884A1 (zh) 一种清洁控制方法、装置、扫地机器人及存储介质
CN110946509A (zh) 扫地机器人的清扫方法及扫地机器人的清扫装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201201