CN114847803B - 机器人的定位方法及装置、电子设备、存储介质 - Google Patents

机器人的定位方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN114847803B
CN114847803B CN202210535950.9A CN202210535950A CN114847803B CN 114847803 B CN114847803 B CN 114847803B CN 202210535950 A CN202210535950 A CN 202210535950A CN 114847803 B CN114847803 B CN 114847803B
Authority
CN
China
Prior art keywords
pose information
image data
historical
robot
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210535950.9A
Other languages
English (en)
Other versions
CN114847803A (zh
Inventor
曹晶瑛
罗晗
王磊
薛英男
蔡为燕
吴震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Stone Innovation Technology Co ltd
Original Assignee
Beijing Stone Innovation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Stone Innovation Technology Co ltd filed Critical Beijing Stone Innovation Technology Co ltd
Priority to CN202210535950.9A priority Critical patent/CN114847803B/zh
Publication of CN114847803A publication Critical patent/CN114847803A/zh
Application granted granted Critical
Publication of CN114847803B publication Critical patent/CN114847803B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/24Floor-sweeping machines, motor-driven
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/28Floor-scrubbing machines, motor-driven
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本公开是关于一种机器人的定位方法及装置、电子设备、计算机可读存储介质;该方法可以包括:根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息;根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位。通过本公开的机器人的定位方案,可提高定位的准确度,从而进一步提升机器人的工作效率。

Description

机器人的定位方法及装置、电子设备、存储介质
本申请为申请号为201811268293.6的分案申请,原申请日为2018年10月29日,发明创造名称为:机器人的定位方法及装置、电子设备、存储介质。
技术领域
本公开涉及机器人技术领域,尤其涉及一种机器人的定位方法及装置、电子设备、存储介质。
背景技术
随着技术的发展,出现了多种多样的具有自主移动功能的机器人,比如自动扫地机器人、自动拖地机器人等自动清洁设备。自动清洁设备可通过主动感知周边环境来自动地执行清洁操作。例如,相关技术中通过SLAM(simultaneous location and mapping,即时定位与地图构建)来构建当前需进行清洁的环境的地图,并根据构建出的地图执行清洁操作。
然而,相关技术中的定位方式存在定位不准确的缺陷,从而容易影响机器人的工作效率。
发明内容
本公开提供一种机器人的定位方法及装置、电子设备、计算机可读存储介质,以解决相关技术中的不足。
根据本公开实施例的第一方面,提供一种机器人的定位方法,所述机器人配置有图像采集单元和测距单元;所述方法包括:
根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;
获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;
根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息,所述当前位姿信息包括所述机器人在环境地图中自身所处的位置信息;
根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位;
其中,所述根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位,包括:
确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息;
根据所述目标历史位姿信息对所述机器人在环境地图中的当前位置进行定位。
可选的,所述历史位姿信息与所述历史图像数据具有映射关系。
可选的,所述映射关系在所述机器人构建环境地图的过程中形成。
可选的,确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息包括:将历史位姿信息与当前位姿信息逐一进行比较,将与当前位姿信息接近或相同的历史位姿信息作为所述目标历史位姿信息。
可选的,所述接近包括历史位姿信息中的距离与当前位姿信息中包含的距离的差值在预设距离阈值内。
可选的,所述接近包括历史位姿信息中的角度与当前位姿信息中包含的角度的差值在预设角度阈值内。
可选的,还包括:确定所述机器人是否发生劫持事件;
所述根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位,包括:当确定所述机器人发生劫持事件时,根据所述历史位姿信息与所述当前位姿信息,对所述机器人发生劫持事件后的位置进行定位。
可选的,所述确定所述机器人是否发生劫持事件,包括:
当所述图像采集单元采集到的图像数据和/或所述测距单元采集到的测距数据发生突变时,确定所述机器人发生劫持事件。
可选的,所述根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,包括:
当所述当前图像数据与所述历史图像数据之间的相似度超过预设阈值时,确定所述历史图像数据与所述当前图像数据相匹配。
可选的,所述根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,包括:
当所述当前图像数据与所述历史图像数据中均包含一个或多个同一被采集对象时,确定所述历史图像数据与所述当前图像数据相匹配。
可选的,所述根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位,包括:
获取三维环境构图,所述三维环境构图由所述历史图像数据与所述历史位姿信息构建得到;
基于所述三维环境构图确定对应于所述当前图像数据的位姿信息;
根据确定出的位姿信息对所述机器人在环境地图中的当前位置进行定位。
可选的,所述三维环境构图为预先根据采集到的所述历史图像数据与所述历史位姿信息而构建得到;或者,所述三维环境构图为在确定出匹配于所述当前图像数据的历史图像数据后,基于所述历史图像数据与所述历史位姿信息而构建得到。
可选的,还包括:
判定所述当前位姿信息是否存在错误;
当判定所述当前位姿信息存在错误时,利用所述历史位姿信息对所述当前位姿信息进行修正。
可选的,所述判定所述当前位姿信息是否存在错误,包括:
当当前所述测距单元被遮挡或所述机器人打滑时,判定所述当前位姿信息存在错误。
可选的,所述判定所述当前位姿信息是否存在错误,包括:
当所述当前位姿信息与所述历史位姿信息中的任一均不相匹配时,判定所述当前位姿信息存在错误。
可选的,还包括:
在所述机器人执行特定操作的移动过程中,查找与所述图像采集单元采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数;
当任一历史图像数据的匹配次数与执行所述特定操作的次数的比例小于预设阈值时,删除所述任一历史图像数据以及所述机器人在所述任一历史图像数据被采集时所对应的位姿信息。
可选的,所有历史图像数据与历史位姿信息存储于预设数据库中;所述方法还包括:
当接收到针对所述预设数据库的更新指令时,根据所述机器人在移动过程中构建出的地图确定空旷区域;
在所述空旷区域内采集图像数据以及相应的位姿信息,以更新所述预设数据库。
可选的,所述机器人针对不同的场景类型配置有对应的清洁策略;所述方法还包括:
在所述机器人执行清洁操作的过程中,根据针对所述图像采集单元采集到的图像数据的场景识别结果,采取相应的清洁策略进行清洁。
根据本公开实施例的第二方面,提供一种机器人的定位装置,所述机器人配置有图像采集单元和测距单元;所述装置包括:
图像数据确定单元,根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;
位姿获取单元,获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;
位姿确定单元,根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息;
定位单元,根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位;
其中,所述定位单元还包括:
第一确定子单元,确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息;
第一定位子单元,根据所述目标历史位姿信息对所述机器人在环境地图中的当前位置进行定位。
可选的,还包括:劫持事件确定单元,确定所述机器人是否发生劫持事件;
所述定位单元还包括:第二定位子单元,当确定所述机器人发生劫持事件时,根据所述历史位姿信息与所述当前位姿信息,对所述机器人发生劫持事件后的位置进行定位。
可选的,所述劫持事件确定单元包括:
劫持事件确定子单元,当所述图像采集单元采集到的图像数据和/或所述测距单元采集到的测距数据发生突变时,确定所述机器人发生劫持事件。
可选的,所述定位单元还包括:
获取子单元,获取三维环境构图,所述三维环境构图由所述历史图像数据与所述历史位姿信息构建得到;
第二确定子单元,基于所述三维环境构图确定对应于所述当前图像数据的位姿信息;
第三定位子单元,根据确定出的位姿信息对所述机器人在环境地图中的当前位置进行定位。
可选的,所述三维环境构图为预先根据采集到的所述历史图像数据与所述历史位姿信息而构建得到;或者,所述三维环境构图为在确定出匹配于所述当前图像数据的历史图像数据后,基于所述历史图像数据与所述历史位姿信息而构建得到。
可选的,还包括:
判定单元,判定所述当前位姿信息是否存在错误;
修正单元,当判定所述当前位姿信息存在错误时,利用所述历史位姿信息对所述当前位姿信息进行修正。
可选的,所述判定单元包括:
第一判定子单元,当当前所述测距单元被遮挡或所述机器人打滑时,判定所述当前位姿信息存在错误。
可选的,所述判定单元包括:
第二判定子单元,当所述当前位姿信息与所述历史位姿信息中的任一均不相匹配时,判定所述当前位姿信息存在错误。
可选的,还包括:
统计单元,在所述机器人执行特定操作的移动过程中,查找与所述图像采集单元采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数;
删除单元,当任一历史图像数据的匹配次数与执行所述特定操作的次数的比例小于预设阈值时,删除所述任一历史图像数据以及所述机器人在所述任一历史图像数据被采集时所对应的位姿信息。
可选的,所有历史图像数据与历史位姿信息存储于预设数据库中;所述装置还包括:空旷区域确定单元,当接收到针对所述预设数据库的更新指令时,根据所述机器人在移动过程中构建出的地图确定空旷区域;
更新单元,在所述空旷区域内通过所述图像采集单元采集图像数据以及相应的位姿信息,以更新所述预设数据库。
可选的,所述机器人针对不同的场景类型配置有对应的清洁策略;所述装置还包括:
策略调整单元,在所述机器人执行清洁操作的过程中,根据针对所述图像采集单元采集到的图像数据的场景识别结果,采取相应的清洁策略进行清洁。
可选的,所述图像数据确定单元包括:
第一图像数据确定子单元,当所述当前图像数据与所述历史图像数据之间的相似度超过预设阈值时,确定所述历史图像数据与所述当前图像数据相匹配。
可选的,所述图像数据确定单元包括:
第二图像数据确定子单元,当所述当前图像数据与所述历史图像数据中均包含一个或多个同一被采集对象时,确定所述历史图像数据与所述当前图像数据相匹配。
可选的,所述历史位姿信息与所述历史图像数据具有映射关系。
可选的,所述映射关系在所述机器人构建环境地图的过程中形成。
可选的,确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息包括:将历史位姿信息与当前位姿信息逐一进行比较,将与当前位姿信息接近或相同的历史位姿信息作为所述目标历史位姿信息。
可选的,所述接近包括历史位姿信息中的距离与当前位姿信息中包含的距离的差值在预设距离阈值内。
可选的,所述接近包括历史位姿信息中的角度与当前位姿信息中包含的角度的差值在预设角度阈值内。
根据本公开实施例的第三方面,提供一种机器人,所述机器人配置有图像采集单元和测距单元;所述机器人还包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如上任一项所述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上任一项所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
由上述实施例可知,本公开通过在带有测距单元的机器人上配置图像采集单元,使得机器人在移动过程中可采集图像数据,并与采集图像数据时的位姿信息建立映射关系。那么在后续的移动过程中,可将与当前图像数据相匹配的历史图像数据对应的历史位姿信息作为参考,并与通过测距单元确定出的当前位姿信息共同作为依据,对机器人的当前位置进行定位,从而提高机器人自身定位的准确度,进一步提升机器人的工作效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种机器人发生劫持事件的示意图。
图2是一示例性实施例示出的一种机器人的定位方法的流程图。
图3-4是一示例性实施例示出的另一种机器人的定位方法的流程图。
图5是一示例性实施例示出的一种机器人的重定位方法的流程图。
图6是一示例性实施例示出的另一种机器人的重定位方法的流程图。
图7是一示例性实施例示出的一种校验当前位姿信息的流程图。
图8是根据一示例性实施例示出的一种自动清洁设备执行清洁操作的流程图。
图9是根据一示例性实施例示出的一种机器人的定位装置的框图。
图10-21是根据一示例性实施例示出的另一种机器人的定位装置的框图。
图22是根据一示例性实施例示出的一种用于机器人的定位装置的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
在相关技术中,以扫地机器人为例:通常在扫地机器人上配置LDS(LASERDISTANCE SENSOR,激光测距传感器)并利用SLAM算法在清洁过程中进行定位。然而,通过LDS进行定位,一方面定位的准确度较低;另一方面当扫地机器人被劫持时可能存在利用LDS并不能够检测出劫持事件的情况。下面结合图1进行说明。
请参见图1,图1是根据一示例性实施例示出的一种扫地机器人发生劫持事件的示意图。如图1所示,当扫地机器人100在方形的环境10中执行清洁操作时,若将扫地机器人100从位置A搬移至位置B(即扫地机器人100发生了劫持事件),则扫地机器人100根据LDS并不能够确定出自身发生了劫持事件(由于位置A与位置B在距离方面的数据类似)。实际上,由于扫地机器人100根据LDS并不能够确定出自身发生了劫持事件,反而判定当前仍处于位置A(实际处于位置B,即重定位错误),仍继续按照自身处于位置A的清洁策略(例如,采用的清洁路线不变)执行清洁操作,导致降低了清洁效率。
因此,本公开通过对具有自主移动功能的机器人的定位方式予以改进,以解决相关技术中存在的上述技术问题。下面结合实施例进行详细说明。
本公开提供的机器人100可以(但不限于)为扫地机器人、拖地机器人或扫拖一体式机器人等自动清洁设备,该机器人100可以包含机器主体、感知系统、控制系统、驱动系统、清洁系统、能源系统和人机交互系统。
其中:
机器主体包括前向部分和后向部分,具有近似圆形形状(前后都为圆形),也可具有其他形状,包括但不限于前方后圆的近似D形形状。
感知系统包括位于机器主体上方的位置确定装置、位于机器主体的前向部分的缓冲器、悬崖传感器和超声传感器、红外传感器、磁力计、加速度计、陀螺仪、里程计等传感装置,向控制系统提供机器的各种位置信息和运动状态信息。位置确定装置包括但不限于摄像头、激光测距装置(LDS)。下面以三角测距法的激光测距装置为例说明如何进行位置确定。三角测距法的基本原理基于相似三角形的等比关系,在此不做赘述。
激光测距装置包括发光单元和受光单元。发光单元可以包括发射光的光源,光源可以包括发光元件,例如发射红外光线或可见光线的红外或可见光线发光二极管(LED)。优选地,光源可以是发射激光束的发光元件。在本实施例中,将激光二极管(LD)作为光源的例子。具体地,由于激光束的单色、定向和准直特性,使用激光束的光源可以使得测量相比于其它光更为准确。例如,相比于激光束,发光二极管(LED)发射的红外光线或可见光线受周围环境因素影响(例如对象的颜色或纹理),而在测量准确性上可能有所降低。激光二极管(LD)可以是点激光,测量出障碍物的二维位置信息,也可以是线激光,测量出障碍物一定范围内的三维位置信息。
受光单元可以包括图像传感器,在该图像传感器上形成由障碍物反射或散射的光点。图像传感器可以是单排或者多排的多个单位像素的集合。这些受光元件可以将光信号转换为电信号。图像传感器可以为互补金属氧化物半导体(CMOS)传感器或者电荷耦合元件(CCD)传感器,由于成本上的优势优选是互补金属氧化物半导体(CMOS)传感器。而且,受光单元可以包括受光透镜组件。由障碍物反射或散射的光可以经由受光透镜组件行进以在图像传感器上形成图像。受光透镜组件可以包括单个或者多个透镜。
基部可以支撑发光单元和受光单元,发光单元和受光单元布置在基部上且彼此间隔一特定距离。为了测量机器人周围360度方向上的障碍物情况,可以使基部可旋转地布置在主体上,也可以基部本身不旋转而通过设置旋转元件而使发射光、接收光发生旋转。旋转元件的旋转角速度可以通过设置光耦元件和码盘获得,光耦元件感应码盘上的齿缺,通过齿缺间距的滑过时间和齿缺间距离值相除可得到瞬时角速度。码盘上齿缺的密度越大,测量的准确率和精度也就相应越高,但在结构上就更加精密,计算量也越高;反之,齿缺的密度越小,测量的准确率和精度相应也就越低,但在结构上可以相对简单,计算量也越小,可以降低一些成本。
与受光单元连接的数据处理装置,如DSP,将相对于机器人0度角方向上的所有角度处的障碍物距离值记录并传送给控制系统中的数据处理单元,如包含CPU的应用处理器(AP),CPU运行基于粒子滤波的定位算法获得机器人的当前位置,并根据此位置制图,供导航使用。定位算法优选使用即时定位与地图构建(SLAM)。
基于三角测距法的激光测距装置虽然在原理上可以测量一定距离以外的无限远距离处的距离值,但实际上远距离测量,例如6米以上,的实现是很有难度的,主要因为受光单元的传感器上像素单元的尺寸限制,同时也受传感器的光电转换速度、传感器与连接的DSP之间的数据传输速度、DSP的计算速度影响。激光测距装置受温度影响得到的测量值也会发生系统无法容忍的变化,主要是因为发光单元与受光单元之间的结构发生的热膨胀变形导致入射光和出射光之间的角度变化,发光单元和受光单元自身也会存在温漂问题。激光测距装置长期使用后,由于温度变化、振动等多方面因素累积而造成的形变也会严重影响测量结果。测量结果的准确性直接决定了绘制地图的准确性,是机器人进一步进行策略实行的基础,尤为重要。
机器主体的前向部分可承载缓冲器,在清洁过程中驱动轮模块推进机器人在地面行走时,缓冲器经由传感器系统,例如红外传感器,检测机器人100的行驶路径中的一或多个事件(或对象),机器人可通过由缓冲器检测到的事件(或对象),例如障碍物、墙壁,而控制驱动轮模块使机器人来对所述事件(或对象)做出响应,例如远离障碍物。
控制系统设置在机器主体内的电路主板上,包括与非暂时性存储器,例如硬盘、快闪存储器、随机存取存储器,通信的计算处理器,例如中央处理单元、应用处理器,应用处理器根据激光测距装置反馈的障碍物信息利用定位算法,例如SLAM,绘制机器人所在环境中的即时地图。并且结合缓冲器、悬崖传感器和超声传感器、红外传感器、磁力计、加速度计、陀螺仪、里程计等传感装置反馈的距离信息、速度信息综合判断扫地机当前处于何种工作状态,如过门槛,上地毯,位于悬崖处,上方或者下方被卡住,尘盒满,被拿起等等,还会针对不同情况给出具体的下一步动作策略,使得机器人的工作更加符合主人的要求,有更好的用户体验。进一步地,控制系统能基于SLAM绘制的即时地图信息规划最为高效合理的清扫路径和清扫方式,大大提高机器人的清扫效率。
驱动系统可基于具有距离和角度信息,例如x、y及θ分量的驱动命令而操纵机器人100跨越地面行驶。驱动系统包含驱动轮模块,驱动轮模块可以同时控制左轮和右轮,为了更为精确地控制机器的运动,优选驱动轮模块分别包括左驱动轮模块和右驱动轮模块。左、右驱动轮模块沿着由主体界定的横向轴对置。为了机器人能够在地面上更为稳定地运动或者更强的运动能力,机器人可以包括一个或者多个从动轮,从动轮包括但不限于万向轮。驱动轮模块包括行走轮和驱动马达以及控制驱动马达的控制电路,驱动轮模块还可以连接测量驱动电流的电路和里程计。驱动轮模块可以可拆卸地连接到主体上,方便拆装和维修。驱动轮可具有偏置下落式悬挂系统,以可移动方式紧固,例如以可旋转方式附接,到机器人主体,且接收向下及远离机器人主体偏置的弹簧偏置。弹簧偏置允许驱动轮以一定的着地力维持与地面的接触及牵引,同时机器人100的清洁元件也以一定的压力接触地面10。
清洁系统可为干式清洁系统和/或湿式清洁系统。作为干式清洁系统,主要的清洁功能源于滚刷结构、尘盒结构、风机结构、出风口以及四者之间的连接部件所构成的清扫系统。与地面具有一定干涉的滚刷结构将地面上的垃圾扫起并卷带到滚刷结构与尘盒结构之间的吸尘口前方,然后被风机结构产生并经过尘盒结构的有吸力的气体吸入尘盒结构。扫地机的除尘能力可用垃圾的清扫效率DPU(Dust pick up efficiency)进行表征,清扫效率DPU受滚刷结构和材料影响,受吸尘口、尘盒结构、风机结构、出风口以及四者之间的连接部件所构成的风道的风力利用率影响,受风机的类型和功率影响,是个复杂的系统设计问题。相比于普通的插电吸尘器,除尘能力的提高对于能源有限的清洁机器人来说意义更大。因为除尘能力的提高直接有效降低了对于能源要求,也就是说原来充一次电可以清扫80平米地面的机器,可以进化为充一次电清扫180平米甚至更多。并且减少充电次数的电池的使用寿命也会大大增加,使得用户更换电池的频率也会增加。更为直观和重要的是,除尘能力的提高是最为明显和重要的用户体验,用户会直接得出扫得是否干净/擦得是否干净的结论。干式清洁系统还可包含具有旋转轴的边刷,旋转轴相对于地面成一定角度,以用于将碎屑移动到清洁系统的滚刷区域中。
能源系统包括充电电池,例如镍氢电池和锂电池。充电电池可以连接有充电控制电路、电池组充电温度检测电路和电池欠压监测电路,充电控制电路、电池组充电温度检测电路、电池欠压监测电路再与单片机控制电路相连。主机通过设置在机身侧方或者下方的充电电极与充电桩连接进行充电。
人机交互系统包括主机面板上的按键,按键供用户进行功能选择;还可以包括显示屏和/或指示灯和/或喇叭,显示屏、指示灯和喇叭向用户展示当前机器所处状态或者功能选择项;还可以包括手机客户端程序。对于路径导航型清洁设备,在手机客户端可以向用户展示设备所在环境的地图,以及机器所处位置,可以向用户提供更为丰富和人性化的功能项。
本公开提供的机器人配置有图像采集单元和测距单元;图像采集单元用于采集图像数据,测距单元用于采集测距数据。其中,图像采集单元和测距单元可包含于上述感知系统的位置确定装置中。例如,图像采集单元可以是摄像头,测距单元可以是激光测距装置。又如,图像采集单元和测距单元可集成于摄像头中;例如,可采用具有TOF(Time offlight,飞行时间)功能的深感摄像头,或者采用3D结构光技术的摄像头。当然,本公开并不对图像采集单元和测距单元的具体硬件形式进行限制。
基于上述机器人的结构,本公开提供一种机器人的定位方法。如图2所示,该方法可以包括以下步骤:
在步骤202中,根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到。
在本实施例中,在“历史时刻”采集到的图像数据可理解为机器人在之前(时序上在当前之前)的运行过程(机器人在运动过程中移动)中采集到的图像数据。以自动清洁设备为例(当然,不仅限于自动清洁设备,还可以是其他任意具有自主移动功能的机器人),可将自动清洁设备在首次清洁过程中采集的图像数据作为所述历史图像数据;或者,将自动清洁设备在本次清洁过程之前(即历史清洁过程)采集的图像数据作为所述历史图像数据。需要说明的是,本公开的定位方案是针对自动清洁设备清洁同一环境而言的。
在本实施例中,在一种情况下,“相匹配”可理解为当前图像数据与历史图像数据之间的相似度(或者是匹配度)超过一定的阈值。在另一种情况下,“相匹配”可理解为当前图像数据与历史图像数据中均包含一个或多个同一被摄对象。
在步骤204中,获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息。
在本实施例中,机器人在移动过程中采集图像数据的同时,记录此时自身的位姿信息,并将该图像数据与该位姿信息建立映射关系。其中,位姿信息可包含机器人与被摄对象(即图像采集单元拍摄的对象,图像采集单元通过拍摄被摄对象得到该被摄对象的图像数据)之间的距离、角度、机器人的姿态等可描述机器人与被摄对象之间相对位置的参数。以自动清洁设备配置LDS和摄像头(即LDS为测距单元,摄像头为图像采集单元)为例,摄像头和LDS同时工作以采集相应的数据。比如,自动清洁设备在“历史时刻”的清洁过程中,在通过摄像头采集图像数据的同时,利用LDS采集到的测距数据,通过SLAM算法来形成执行清洁操作的环境的地图,并确定自身当前在该地图中的位置信息;同时,根据其他传感装置(比如,陀螺仪、加速度计、电子罗盘等)采集自身当前的姿态信息,再根据该位置信息和该姿态信息确定出位姿信息。
需要说明的是,由上述针对“相匹配”的描述可知,与某一图像数据相匹配的图像数据可能存在多个,而多个图像数据则对应不同的角度、位置和姿态等。例如,自动清洁设备在清理过程中,可能以不同的角度、距离和姿态拍摄到同一个茶几。
在步骤206中,根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息。
在本实施例中,可根据测距数据和当前机器人的姿态信息,确定机器人的当前位姿信息。以自动清洁设备配置LDS为例,自动清洁设备利用LDS采集到的测距数据,通过SLAM算法来形成执行清洁操作的环境的地图,并确定自身当前在该地图中的位置信息。同时,根据其他传感装置(比如,陀螺仪、加速度计、电子罗盘等)采集自身当前的姿态信息,再根据该位置信息和该姿态信息确定出当前位姿信息。
在步骤608中,根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位。
在本实施例中,基于机器人在移动过程中可通过图像采集单元采集图像数据,并与采集图像数据时所对应的位姿信息建立映射关系,那么在后续机器人的移动过程中,可将与当前图像数据相匹配的历史图像数据对应的历史位姿信息作为参考,并与确定出的当前位姿信息共同作为依据,对机器人的当前位置进行定位,从而提高定位的准确度,进一步提升机器人的工作效率。
由上述步骤202的内容可知,与当前图像数据相匹配的历史图像数据可能包含多个;换言之,步骤204中获取到的历史位姿信息也随之可能包含多个。那么,针对如何利用获取到的多个历史位姿信息以及所述当前位姿信息(步骤206中确定出的当前位姿信息)进行定位的方式,可包括以下两种:
在一实施例中,可先确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息,再根据所述目标历史位姿信息对所述机器人在根据所述测距单元构建出的地图中的当前位置进行定位。
在另一实施例中,可先获取三维环境构图,所述三维环境构图由所述历史图像数据与所述历史位姿信息构建得到,并基于所述三维环境构图确定对应于所述当前图像数据的位姿信息,再根据确定出的位姿信息对所述机器人在根据所述测距单元构建出的地图(根据测距单元采集到的所有测距数据构建得到)中的当前位置进行定位。其中,三维地图可以是在定位时实时生成的,也可以是预先生成的。换言之,在一种情况下,所述三维环境构图为预先根据采集到的所述历史图像数据与所述历史位姿信息而构建得到;在另一种情况下,所述三维环境构图为在确定出匹配于所述当前图像数据的历史图像数据后,基于所述历史图像数据与所述历史位姿信息而构建得到。
在本公开提供的机器人的定位方案中,针对机器人发生劫持事件的情况,可支持对机器人发生劫持事件后的位置进行准确的重定位。作为一示例性实施例,在上述图2所示实施例的基础上,在步骤202之前,还可包括以下步骤:确定所述机器人是否发生劫持事件。那么,在针对机器人发生劫持事件的情况下,上述步骤202中的当前图像数据,应当理解为机器人发生劫持事件后图像采集单元采集的图像数据;同理,上述步骤206中测距单元当前采集到的测距数据,应当理解为机器人发生劫持事件后测距单元采集到的测距数据,即当前位姿信息应当理解为机器人发生劫持事件后根据测距单元采集到的测距数据确定出的当前位姿信息。因此,在机器人发生劫持事件的情况下,步骤208中执行的定位操作可进一步包括:当确定所述机器人发生劫持事件时,根据所述历史位姿信息与所述当前位姿信息,对所述机器人发生劫持事件后的位置进行定位。其中,具体如何执行该定位的操作,可参考上述步骤208中的相关描述,在此不再赘述。
而针对确定机器人发生劫持事件的条件,可参考机器人配置的图像采集单元和测距单元采集到的数据。例如,当机器人发生劫持事件时,图像采集单元采集到的图像数据将发生突变,测距单元采集到的测距数据也将发生突变。因此,作为一示例性实施例,当所述图像采集单元采集到的图像数据和/或所述测距单元采集到的测距数据发生突变时,可确定所述机器人发生劫持事件。可见,通过将图像采集单元采集到的图像数据的变化情况添加到作为判定机器人是否发生劫持事件的依据,可实现对劫持事件的精确检测,从而有助于后续的重定位。
在本公开提供的机器人的定位方案中,可对当前位姿信息(即步骤206中的当前位姿信息)进行校验,并在校验出该当前位姿信息存在错误后对其进行修正。作为一示例性实施例,在上述图2所示实施例的基础上,可判定所述当前位姿信息是否存在错误,并在判定出所述当前位姿信息存在错误时,利用所述历史位姿信息对所述当前位姿信息进行修正,从而有利于提高根据测距单元构建出的地图的准确性。
在一实施例中,当当前所述测距单元被遮挡或所述机器人打滑时,可判定所述当前位姿信息存在错误;在另一实施例中,当所述当前位姿信息与所述历史位姿信息中的任一均不相匹配时,可判定所述当前位姿信息存在错误。
在图2所示的实施例中,通过将与当前图像数据相匹配的历史图像数据对应的历史位姿信息作为参考,来提高定位的准确性。可见,历史图像数据和历史位姿信息能否反映出机器人的实际位置至关重要。因此,可通过以下方式来维护历史图像数据和历史位姿信息。
在一实施例中,在所述机器人执行特定操作的移动过程(以自动清洁设备为例,该移动过程即为自动清洁设备的清洁过程)中,查找与所述图像采集单元采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数。基于对匹配次数的统计,当任一历史图像数据的匹配次数与执行所述特定操作的次数(以自动清洁设备为例,该次数即自动清洁设备的清洁次数)的比例小于预设阈值时,可删除所述任一历史图像数据以及所述机器人在所述任一历史图像数据被采集时所对应的位姿信息。
在另一实施例中,所有历史图像数据与历史位姿信息可存储于预设数据库中。当接收到针对所述预设数据库的更新指令时,可根据所述机器人在移动过程中构建出的地图(例如,可根据测距单元构建得到)确定空旷区域,并在所述空旷区域内通过所述图像采集单元采集图像数据以及相应的位姿信息,以更新所述预设数据库。其中,所述更新指令可由用户通过移动终端(与机器人建立通讯连接)向机器人下发;或者,所述更新指令可由机器人按照预设更新周期生成。
在本实施例中,基于机器人在移动过程中可对所清洁的环境进行图像的采集,可以根据所清洁的环境的场景类型的不同,对机器人(比如,可以是扫地机器人)的清洁策略进行相应的调整,以提升清洁效率以及用户的使用体验。比如,机器人针对不同的场景类型配置有对应的清洁策略;那么,在所述机器人执行清洁操作的过程中,可根据针对所述图像采集单元采集到的图像数据的场景识别结果,采取相应的清洁策略进行清洁。
为了便于理解,下面以机器人为自动清洁设备为例(当然,不仅限于自动清洁设备,还可以是其他任意具有自主移动功能的机器人),结合附图和具体场景对本公开的机器人的定位方案进行详细说明。
请参见图3,图3是一示例性实施例示出的另一种机器人的定位方法的流程图。如图3所示,该方法应用于自动清洁设备(配置有摄像头和LDS,即图像采集单元为摄像头,测距单元为LDS),可以包括以下步骤:
在步骤302中,采集当前图像数据。
在步骤304中,确定与当前图像数据相匹配的历史图像数据。
在本实施例中,自动清洁设备可将在首次清洁过程中采集到的图像数据作为历史图像数据;或者,将在本次清洁过程之前(即历史清洁过程,均为清洁同一环境)采集到的图像数据作为历史图像数据。并且,将历史图像数据与采集该历史图像数据时自身的位姿信息建立映射关系存储于预设数据库中。其中,位姿信息可包含自动清洁设备与被摄对象(即摄像头拍摄的对象,摄像头通过拍摄被摄对象得到该被摄对象的图像数据)之间的距离、角度、机器人的姿态等可描述自动清洁设备与被摄对象之间相对位置的参数。例如,摄像头与LDS在清洁过程中均处于工作状态,位姿信息包括位置信息和姿态信息。那么,自动清洁设备在通过摄像头采集图像数据的同时,利用LDS采集到的测距数据,通过SLAM算法来形成执行清洁操作的环境的地图,并确定自身当前在该地图中的位置信息;同时,根据其他传感装置(比如,陀螺仪、加速度计、电子罗盘等)采集自身的姿态信息,再根据该位置信息和该姿态信息确定出位姿信息。
需要说明的是,在确定与当前图像数据相匹配的历史图像数据时,在一种情况下,“相匹配”可理解为当前图像数据与历史图像数据之间的相似度(或者是匹配度)超过一定的阈值。例如,可采用图像匹配算法(平均绝对差算法、绝对误差和算法、归一化积相关算法等)或机器学习模型来确定预设数据库中所有历史图像数据中,与当前图像数据的相似度超过预设阈值的图像数据作为上述步骤304中的“与当前图像数据相匹配的历史图像数据”。在另一种情况下,“相匹配”可理解为当前图像数据与历史图像数据中均包含一个或多个同一被摄对象。比如,可识别(比如,可通过基于神经网络的图像识别方法、基于小波矩的图像识别方法等对当前图像数据进行识别)出当前图像数据中包含的物体(比如,杯子、茶几、电视等物体),将预设数据库中同样也包含该识别出物体(可能存在多个,可设置为包含全部物体或者包含部分物体)的图像数据作为上述步骤304中的“与当前图像数据相匹配的历史图像数据”。在又一种情况下,还可兼具上述两种情况中的条件作为判定“相匹配”的依据。例如,当当前图像数据与历史图像数据之间的相似度超过一定阈值,并且(或者)均包含一个或多个同一被摄对象时,可判定两者之间为“相匹配”的关系。
在步骤306中,获取自动清洁设备在该历史图像数据被采集时的历史位姿信息。
在本实施例中,可在预设数据库中基于建立的映射关系,查找与步骤304中确定出历史图像数据相对应的历史位姿信息。
在步骤308中,根据LDS当前采集到的测距数据,确定自动清洁设备的当前位姿信息。
在本实施例中,自动清洁设备可利用LDS采集到的测距数据,通过SLAM算法来形成执行清洁操作的环境的地图,并确定自身当前在该地图中的位置信息。同时,根据其他传感装置(比如,陀螺仪、加速度计、电子罗盘等)采集自身当前的姿态信息,再根据该位置信息和该姿态信息确定出当前位姿信息。
在步骤310中,确定历史位姿信息中与当前位姿信息相匹配的目标历史位姿信息。
在本实施例中,与当前图像数据相匹配的历史图像数据可能包含多个。换言之,步骤306中获取到的历史位姿信息也随之可能包含多个。例如,步骤304中获取到的多个历史图像数据均包含同一茶几;其中,自动清洁设备在拍摄各历史图像数据时的拍摄距离、拍摄角度和姿态等不同。
而在确定与当前位姿信息相匹配的目标历史位姿信息时,可将步骤306中获取到的历史位姿信息与当前位姿信息逐一进行比较,以将与当前位姿信息接近甚至相同的历史位姿信息作为该目标历史位姿信息。举例而言,可将步骤306中获取到的历史位姿信息中,距离与当前位姿信息中包含的距离的差值在预设距离阈值内,且角度与当前位姿信息中包含的角度的差值在预设角度阈值的历史位姿信息作为该目标历史位姿信息。
在步骤312中,根据目标历史位姿信息对自动清洁设备在根据测距单元构建出的地图中的当前位置进行定位。
在本实施例中,自动清洁设备可利用SLAM算法来构建出执行清洁操作的环境的地图,进而根据目标历史位姿信息对自动清洁设备的当前位置进行定位。那么,自动清洁设备便可进一步根据该地图以及当前定位,确定执行清洁操作的路线。
通过将与当前图像数据相匹配的历史图像数据对应的历史位姿信息作为参考,来提高定位的准确性。可见,历史图像数据和历史位姿信息能否反映出自动清洁设备的实际位置至关重要。因此,可通过以下方式来维护预设数据库中的历史图像数据和历史位姿信息。
在一实施例中,在自动清洁设备的每次清洁过程中,可查找与摄像头采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数。基于对匹配次数的统计,当任一历史图像数据的匹配次数与清洁次数(可将自动清洁设备从开始清洁所需清洁的环境到将该环境清洁完毕的过程理解为一次清洁过程,即清洁次数记录一次)的比例小于预设阈值时,可删除该任一历史图像数据以及自动清洁设备在该任一历史图像数据被采集时的位姿信息。
在另一实施例中,当接收到针对预设数据库的更新指令时,可根据自动清洁设备在清洁过程中构建出的地图(例如,可根据LDS构建得到)确定空旷区域,那么自动清洁设备可在该空旷区域内通过摄像头采集图像数据以及相应的位姿信息,以更新预设数据库。例如,针对同一个茶杯,自动清洁设备通过旋转来以不同的角度和姿态来拍摄该茶杯,同时记录相应的姿态信息。其中,更新指令可由用户通过移动终端或服务器(与自动清洁设备建立通讯连接)向自动清洁设备下发;或者,更新指令可由自动清洁设备按照预设更新周期生成。
请参见图4,图4是一示例性实施例示出的另一种机器人的定位方法的流程图。如图4所示,该方法应用于自动清洁设备(配置有摄像头和LDS,即图像采集单元为摄像头,测距单元为LDS),可以包括以下步骤:
在步骤402中,采集当前图像数据。
在步骤404中,确定与当前图像数据相匹配的历史图像数据。
在步骤406中,获取自动清洁设备在该历史图像数据被采集时的历史位姿信息。
在本实施例中,步骤402-406的具体过程与上述步骤302-306类似,在此不再赘述。
在步骤408中,获取三维环境构图。
在本实施例中,三维环境构图由步骤404中获取到的历史图像数据与步骤406中获取到的历史位姿信息构建得到。在一种情况下,三维环境构图可以是在采集到该历史图像数据与该历史位姿信息时进行构建的;换言之,在采集到该历史图像数据与该历史位姿信息时便进行构建得到三维地图,那么在执行步骤408时直接读取该三维地图即可。在另一种情况下,三维环境构图为在确定出匹配于当前图像数据的历史图像数据后,基于该历史图像数据与该历史位姿信息而构建得到;换言之,在通过步骤404中获取到该历史图像数据以及通过步骤406获取到该历史位姿信息后,再对该历史图像数据与该历史位姿信息进行构建得到三维地图。
在步骤410中,基于三维环境构图确定对应于当前图像数据的位姿信息。
在本实施例中,可通过PNP算法从三维环境构图中确定对应于当前图像数据的位姿信息。当然,也可采用其他计算位姿信息的算法,本公开并不对此进行限制。
在步骤412中,根据确定出的位姿信息对自动清洁设备在根据LDS构建出的地图中的当前位置进行定位。
在本实施例中,该地图可根据LDS在本次清洁过程中采集到的所有测距数据(包含根据LDS当前采集到的测距数据)构建得到。在确定出当前位置后,自动清洁设备便可进一步根据该地图以及当前位置,确定执行清洁操作的路线。
由上述图3-4所示的实施例可知,基于自动清洁设备在清洁过程中可通过图像采集单元采集图像数据,并与采集图像数据时的位姿信息建立映射关系,那么在后续自动清洁设备的清洁过程中,可将与当前图像数据相匹配的历史图像数据对应的历史位姿信息作为参考,并与确定出的当前位姿信息共同作为依据,对自动清洁设备的当前位置进行定位,从而提高定位的准确度,进一步提升自动清洁设备的清洁效率。
请参见图5,图5是一示例性实施例示出的一种机器人的重定位方法的流程图。如图5所示,该方法应用于自动清洁设备(配置有摄像头和LDS,即图像采集单元为摄像头,测距单元为LDS),可以包括以下步骤:
在步骤502中,获取当前采集到的数据。
在本实施例中,采集到的数据包括摄像头采集到的当前图像数据,以及LDS当前采集到的测距数据。
在步骤504中,判断获取到的数据是否发生突变,若发生了突变,则转入步骤506;否则返回步骤502。
在本实施例中,当自动清洁设备发生劫持事件(劫持事件可理解为自动清洁设备非按照正常执行清洁操作的路线或速度进行移动,例如在清洁过程中被用户强行搬离清扫位置)时,摄像头采集到的图像数据将发生突变,LDS采集到的测距数据也将发生突变。因此,可通过当前采集到的图像数据和/或测距数据是否发生突变来判断自动清洁设备是否发生了劫持事件。可见,通过将摄像头采集到的图像数据的变化情况添加到作为判定自动清洁设备是否发生劫持事件的依据,可实现对劫持事件的精确检测,从而有助于后续的重定位。其中,图像数据发生突变可理解为在时序上相邻的图像帧中包含的信息发生突变;例如,相邻的图像帧中相同的内容所占比例的变化量超过一定的阈值,或者相邻的图像帧中不包含相同的被摄对象等。当然,本公开并不对识别图像数据是否发生突变所采用的算法进行限制。同理,测距数据发生突变可理解为在时序上相邻的测距数据(同一测距数据可包含自动清洁设备周围各个角度的测距数据)发生突变;当然,本公开也不对识别测距数据是否发生突变所采用的算法进行限制。
举例而言,承接于相关技术中图1的举例,即使位置A与位置B在距离方面的数据(即测距数据)类似(即未发生突变),只要位置A与位置B的表面存在差异(例如,扫地机器人100在位置A可通过摄像头拍摄到电视101,而在位置B并不能够通过摄像头拍摄到电视101),那么在扫地机器人100从位置A搬移至位置B的过程中,摄像头采集到的图像数据将发生突变(可理解为摄像头采集到位置A的图像数据,与采集到位置B的图像数据之间的差异较大),从而可判断出扫地机器人100发生了劫持事件,而并不会得出如相关技术中的判定结果(判定扫地机器人100未发生劫持事件)。
在步骤506中,确定与当前图像数据相匹配的历史图像数据。
在本实施例中,在针对自动清洁设备发生劫持事件的情况下,步骤502中采集到的当前图像数据,应当理解为自动清洁设备发生劫持事件后摄像头采集到的图像数据;同理,步骤502中LDS当前采集到的测距数据,应当理解为自动清洁设备发生劫持事件后LDS采集到的测距数据。
在步骤508中,获取自动清洁设备在该历史图像数据被采集时的历史位姿信息。
在步骤510中,获取自动清洁设备被劫持后的位姿信息。
在步骤512中,确定历史位姿信息中与被劫持后的位姿信息相匹配的目标历史位姿信息。
在本实施例中,本领域技术人员应当理解的是,在针对自动清洁设备发生劫持事件的情况下,自动清洁设备被劫持后的位姿信息,即为根据步骤502中LDS当前采集到的测距数据确定出的自动清洁设备的当前位姿信息。
在步骤514中,根据目标历史位姿信息对自动清洁设备被劫持后的位置进行定位。
在本实施例中,本领域技术人员应当理解的是,在针对自动清洁设备发生劫持事件的情况下,步骤514与上述步骤312类似,即在根据测距单元构建出的地图中的当前位置进行定位。在确定出被劫持后的位置后,自动清洁设备便可进一步根据构建的地图以及被劫持后的位置,重新规划执行清洁操作的路线。
需要说明的是,步骤506-514与上述步骤304-312的原理相同,在此不再赘述。
请参见图6,图6是一示例性实施例示出的另一种机器人的重定位方法的流程图。如图6所示,该方法应用于自动清洁设备(配置有摄像头和LDS,即图像采集单元为摄像头,测距单元为LDS),可以包括以下步骤:
在步骤602中,获取当前采集到的数据。
在本实施例中,采集到的数据包括摄像头采集到的当前图像数据,以及LDS当前采集到的测距数据。
在步骤604中,判断获取到的数据是否发生突变,若发生了突变,则转入步骤606;否则返回步骤602。
在本实施例中,步骤602-604与上述步骤502-504类似,在此不再赘述。
在步骤606中,确定与当前图像数据相匹配的历史图像数据。
在本实施例中,在针对自动清洁设备发生劫持事件的情况下,步骤602中采集到的当前图像数据,应当理解为自动清洁设备发生劫持事件后摄像头采集到的图像数据;同理,步骤602中LDS当前采集到的测距数据,应当理解为自动清洁设备发生劫持事件后LDS采集到的测距数据。
在步骤608中,获取自动清洁设备在该历史图像数据被采集时的历史位姿信息。
在步骤610中,获取对应的三维环境构图。
在步骤612中,基于三维环境构图确定对应于当前图像数据的位姿信息。
在步骤614中,根据确定出的位姿信息对自动清洁设备被劫持后的位置进行定位。
在本实施例中,本领域技术人员应当理解的是,在针对自动清洁设备发生劫持事件的情况下,当前位置便是被劫持后的位置,即步骤614与上述步骤412类似。在确定出被劫持后的位置后,自动清洁设备便可进一步根据构建的地图以及被劫持后的位置,重新规划执行清洁操作的路线。
需要说明的是,步骤606-614与上述步骤404-412的原理相同,在此不再赘述。可见,本公开通过在带有测距单元的自动清洁设备上配置图像采集单元,使得自动清洁设备在清洁过程中可采集图像数据,并与采集图像数据时的位姿信息建立映射关系。那么在后续的清洁过程中,可将与当前图像数据相匹配的历史图像数据对应的历史位姿信息作为参考,并与通过测距单元确定出的当前位姿信息共同作为依据,对自动清洁设备的当前位置进行定位,从而提高自动清洁设备自身定位的准确度,进一步提升自动清洁设备的清洁效率。
由上述图5-6所示的实施例可见,通过将摄像头采集到的图像数据的变化情况添加到作为判定自动清洁设备是否发生劫持事件的依据,可实现对劫持事件的精确检测,从而有助于后续的重定位。请参见图7,图7是一示例性实施例示出的一种校验当前位姿信息的流程图。如图7所示,该方法应用于上述任一实施例中的自动清洁设备,可以包括以下步骤:
在步骤702中,获取当前位姿信息。
在本实施例中,当前位姿信息即为上述任一实施例中的当前位姿信息(根据LDS当前采集到的测距数据确定出的自动清洁设备的当前位姿信息)。
在步骤704中,判断当前位姿信息是否存在错误,若存在错误则转入步骤706;否则返回步骤702。
在本实施例中,在一种情况下,当当前LDS被遮挡(例如,LDS的测距数据始终保持不变)或自动清洁设备打滑(例如,自动清洁设备加速度计与里程计的数据不相匹配)时,可判定该当前位姿信息存在错误;在另一种情况下,当当前位姿信息与历史位姿信息中的任一均不相匹配时,可判定当前位姿信息存在错误。
在步骤706中,获取历史位姿信息。
在本实施例中,历史位姿信息即为上述任一实施例中的历史位姿信息(例如,步骤306中的历史位姿信息)。
在步骤708中,利用历史位姿信息对当前位姿信息进行修正。
在本实施例中,在判定出当前位姿信息存在错误时,利用该历史位姿信息对该当前位姿信息进行修正,有利于提高根据LDS构建出的地图的准确性。
图8是根据一示例性实施例示出的一种自动清洁设备执行清洁操作的流程图,如图8所示,该方法应用于上述任一实施例中的自动清洁设备,可以包括以下步骤:
在步骤802中,采集当前图像数据。
在步骤804中,识别当前图像数据的场景类型。
在本实施例中,可采用应用于场景识别的机器学习模型(可通过标记有场景类型的样本数据进行训练得到)进行识别;或者,在预设场景类型数据库(存储有各种场景类型的图像数据,例如,客厅、卫生间、卧室等)中查找与当前图像数据相匹配的图像数据,并将查找到的图像数据的场景类型作为当前图像数据表示的场景类型;或者,可由用户控制自动清洁设备移动至各个场景下拍摄图像数据,并标记出相应的场景类型,那么后续自动清洁设备便可根据该标记识别出所清洁的环境的场景类型。当然,本公开并不对识别场景类型的方式进行限制。
在步骤806中,查找相应的清洁策略。
在本实施例中,基于自动清洁设备在清洁过程中可通过摄像头对所清洁的环境进行图像的采集,可以根据所清洁的环境的场景类型的不同,对自动清洁设备的清洁策略进行相应的调整,以提升清洁效率以及用户的使用体验。
举例而言,假定针对所清洁环境的场景类型,可配置如表1所示的清洁策略:
表1
当然,表1仅仅是对配置清洁策略的一种示例,具体的清洁策略用户可根据实际情况灵活设定,本公开并不对此进行限制。可见,通过针对不同的场景类型配置相应的清洁策略,可满足用户不同的清洁需求,有助于提升用户体验。
在步骤808中,按照查找出的清洁策略进行清洁。
与前述的自动清洁设备的定位方法的实施例相对应,本公开还提供了自动清洁设备的定位装置的实施例。
图9是根据一示例性实施例示出的一种机器人的定位装置的框图。参照图9,该机器人配置有图像采集单元和测距单元;该装置包括图像数据确定单元901,位姿获取单元902、位姿确定单元903和定位单元904。
该图像数据确定单元901被配置为根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;
该位姿获取单元902被配置为获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;
该位姿确定单元903被配置为根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息;
该定位单元904被配置为根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位。
如图10所示,图10是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,还包括:劫持事件确定单元905,该定位单元904包括:第一定位子单元9041。
该劫持事件确定单元905被配置为确定所述机器人是否发生劫持事件;
该第一定位子单元9041被配置为当确定所述机器人发生劫持事件时,根据所述历史位姿信息与所述当前位姿信息,对所述机器人发生劫持事件后的位置进行定位。
如图11所示,图11是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图10所示实施例的基础上,劫持事件确定单元905包括:劫持事件确定子单元9051。
该劫持事件确定子单元9051被配置为当所述图像采集单元采集到的图像数据和/或所述测距单元采集到的测距数据发生突变时,确定所述机器人发生劫持事件。
如图12所示,图12是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,该定位单元904包括:第一确定子单元9042和第二定位子单元9043。
该第一确定子单元9042被配置为确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息;
该第二定位子单元9043被配置为根据所述目标历史位姿信息对所述机器人在根据所述测距单元构建出的地图中的当前位置进行定位。
需要说明的是,上述图12所示的装置实施例中的第一确定子单元9042和第二定位子单元9043的结构也可以包含在前述图10的装置实施例中,对此本公开不进行限制。
如图13所示,图13是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,该定位单元904包括:获取子单元9044、第二确定子单元9045和第三定位子单元9046。
该获取子单元9044被配置为获取三维环境构图,所述三维环境构图由所述历史图像数据与所述历史位姿信息构建得到;
该第二确定子单元9045被配置为基于所述三维环境构图确定对应于所述当前图像数据的位姿信息;
该第三定位子单元9046被配置为根据确定出的位姿信息对所述机器人在根据所述测距单元构建出的地图中的当前位置进行定位。
可选的,所述三维环境构图为预先根据采集到的所述历史图像数据与所述历史位姿信息而构建得到;或者,所述三维环境构图为在确定出匹配于所述当前图像数据的历史图像数据后,基于所述历史图像数据与所述历史位姿信息而构建得到。
需要说明的是,上述图13所示的装置实施例中的获取子单元9044、第二确定子单元9045和第三定位子单元9046的结构也可以包含在前述图10的装置实施例中,对此本公开不进行限制。
如图14所示,图14是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,还包括:判定单元906和修正单元907。
该判定单元906被配置为判定所述当前位姿信息是否存在错误;
该修正单元907被配置为当判定所述当前位姿信息存在错误时,利用所述历史位姿信息对所述当前位姿信息进行修正。
需要说明的是,上述图14所示的装置实施例中的判定单元906和修正单元907的结构也可以包含在前述图10的装置实施例中,对此本公开不进行限制。
如图15所示,图15是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图14所示实施例的基础上,判定单元906包括:第一判定子单元9061。
该第一判定子单元9061被配置为当当前所述测距单元被遮挡或所述机器人打滑时,判定所述当前位姿信息存在错误。
如图16所示,图16是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图14所示实施例的基础上,判定单元906包括:第二判定子单元9062。
该第二判定子单元9062被配置为当所述当前位姿信息与所述历史位姿信息中的任一均不相匹配时,判定所述当前位姿信息存在错误。
如图17所示,图17是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,还包括:统计单元908和删除单元909。
该统计单元908被配置为在所述机器人执行特定操作的移动过程中,查找与所述图像采集单元采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数;
该删除单元909被配置为当任一历史图像数据的匹配次数与执行所述特定操作的次数的比例小于预设阈值时,删除所述任一历史图像数据以及所述机器人在所述任一历史图像数据被采集时所对应的位姿信息。
需要说明的是,上述图17所示的装置实施例中的统计单元908和删除单元909的结构也可以包含在前述图10和图14的装置实施例中,对此本公开不进行限制。
如图18所示,图18是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,所有历史图像数据与历史位姿信息存储于预设数据库中;还包括:空旷区域确定单元910和更新单元911。
该空旷区域确定单元910被配置为当接收到针对所述预设数据库的更新指令时,根据所述机器人在移动过程中构建出的地图确定空旷区域;
该更新单元911被配置为在所述空旷区域内通过所述图像采集单元采集图像数据以及相应的位姿信息,以更新所述预设数据库。
需要说明的是,上述图18所示的装置实施例中的空旷区域确定单元910和更新单元911的结构也可以包含在前述图10、图14和图17的装置实施例中,对此本公开不进行限制。
如图19所示,图19是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,所述机器人针对不同的场景类型配置有对应的清洁策略;还包括:策略调整单元912。
该策略调整单元912被配置为在所述机器人执行清洁操作的过程中,根据针对所述图像采集单元采集到的图像数据的场景识别结果,采取相应的清洁策略进行清洁。
需要说明的是,上述图19所示的装置实施例中的策略调整单元912的结构也可以包含在前述图10、图14、图17和图18的装置实施例中,对此本公开不进行限制。
如图20所示,图20是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,该图像数据确定单元901包括第一图像数据确定子单元9011。
第一图像数据确定子单元9011被配置为当所述当前图像数据与所述历史图像数据之间的相似度(或匹配度)超过预设阈值时,确定所述历史图像数据与所述当前图像数据相匹配。
如图21所示,图21是根据一示例性实施例示出的另一种机器人的定位装置的框图,该实施例在前述图9所示实施例的基础上,该图像数据确定单元901包括第二图像数据确定子单元9012。
第二图像数据确定子单元9012被配置为当所述当前图像数据与所述历史图像数据中均包含一个或多个同一被采集对象时,确定所述历史图像数据与所述当前图像数据相匹配。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应的,本公开还提供一种机器人,所述机器人配置有图像采集单元和测距单元;所述机器人还包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器通过运行所述可执行指令以实现如上述实施例中任一所述的屏幕补光的实现方法,比如该方法可以包括:根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息;根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位。
相应的,本公开还提供一种终端,所述终端包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于实现如上述实施例中任一所述的机器人的定位方法的指令,比如该方法可以包括:根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息;根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位。
图22是根据一示例性实施例示出的一种用于机器人的定位装置2200的框图。例如,装置2200可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图22,装置2200可以包括以下一个或多个组件:处理组件2202,存储器2204,电源组件2206,多媒体组件2208,音频组件2210,输入/输出(I/O)的接口2212,传感器组件2214,以及通信组件2216。
处理组件2202通常控制装置2200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件2202可以包括一个或多个处理器2220来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件2202可以包括一个或多个模块,便于处理组件2202和其他组件之间的交互。例如,处理组件2202可以包括多媒体模块,以方便多媒体组件2208和处理组件2202之间的交互。
存储器2204被配置为存储各种类型的数据以支持在装置2200的操作。这些数据的示例包括用于在装置2200上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器2204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件2206为装置2200的各种组件提供电力。电源组件2206可以包括电源管理系统,一个或多个电源,及其他与为装置2200生成、管理和分配电力相关联的组件。
多媒体组件2208包括在所述装置2200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件2208包括一个前置摄像头和/或后置摄像头。当装置2200处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件2210被配置为输出和/或输入音频信号。例如,音频组件2210包括一个麦克风(MIC),当装置2200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器2204或经由通信组件2216发送。在一些实施例中,音频组件2210还包括一个扬声器,用于输出音频信号。
I/O接口2212为处理组件2202和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件2214包括一个或多个传感器,用于为装置2200提供各个方面的状态评估。例如,传感器组件2214可以检测到装置2200的打开/关闭状态,组件的相对定位,例如所述组件为装置2200的显示器和小键盘,传感器组件2214还可以检测装置2200或装置2200一个组件的位置改变,用户与装置2200接触的存在或不存在,装置2200方位或加速/减速和装置2200的温度变化。传感器组件2214可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件2214还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件2214还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件2216被配置为便于装置2200和其他设备之间有线或无线方式的通信。装置2200可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件2216经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件2216还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置2200可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器2204,上述指令可由装置2200的处理器2220执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (38)

1.一种机器人的定位方法,其特征在于,所述机器人配置有图像采集单元和测距单元;所述方法包括:
根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;
获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;
根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息,所述当前位姿信息包括所述机器人在环境地图中自身所处的位置信息;
根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位;
其中,所述根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位,包括:
确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息;
根据所述目标历史位姿信息对所述机器人在环境地图中的当前位置进行定位。
2.根据权利要求1所述的方法,其特征在于:
所述历史位姿信息与所述历史图像数据具有映射关系。
3.根据权利要求2所述的方法,其特征在于:
所述映射关系在所述机器人构建环境地图的过程中形成。
4.根据权利要求1所述的方法,其特征在于:
确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息包括:将历史位姿信息与当前位姿信息逐一进行比较,将与当前位姿信息接近或相同的历史位姿信息作为所述目标历史位姿信息。
5.根据权利要求4所述的方法,其特征在于:
所述接近包括历史位姿信息中的距离与当前位姿信息中包含的距离的差值在预设距离阈值内。
6.根据权利要求4所述的方法,其特征在于:
所述接近包括历史位姿信息中的角度与当前位姿信息中包含的角度的差值在预设角度阈值内。
7.根据权利要求1所述的方法,其特征在于,
还包括:确定所述机器人是否发生劫持事件;
所述根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位,包括:当确定所述机器人发生劫持事件时,根据所述历史位姿信息与所述当前位姿信息,对所述机器人发生劫持事件后的位置进行定位。
8.根据权利要求7所述的方法,其特征在于,所述确定所述机器人是否发生劫持事件,包括:
当所述图像采集单元采集到的图像数据和/或所述测距单元采集到的测距数据发生突变时,确定所述机器人发生劫持事件。
9.根据权利要求1所述的方法,其特征在于,所述根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,包括:
当所述当前图像数据与所述历史图像数据之间的相似度超过预设阈值时,确定所述历史图像数据与所述当前图像数据相匹配。
10.根据权利要求1所述的方法,其特征在于,所述根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,包括:
当所述当前图像数据与所述历史图像数据中均包含一个或多个同一被采集对象时,确定所述历史图像数据与所述当前图像数据相匹配。
11.根据权利要求1所述的方法,其特征在于,所述根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位,包括:
获取三维环境构图,所述三维环境构图由所述历史图像数据与所述历史位姿信息构建得到;
基于所述三维环境构图确定对应于所述当前图像数据的位姿信息;
根据确定出的位姿信息对所述机器人在环境地图中的当前位置进行定位。
12.根据权利要求11所述的方法,其特征在于,所述三维环境构图为预先根据采集到的所述历史图像数据与所述历史位姿信息而构建得到;或者,所述三维环境构图为在确定出匹配于所述当前图像数据的历史图像数据后,基于所述历史图像数据与所述历史位姿信息而构建得到。
13.根据权利要求1所述的方法,其特征在于,还包括:
判定所述当前位姿信息是否存在错误;
当判定所述当前位姿信息存在错误时,利用所述历史位姿信息对所述当前位姿信息进行修正。
14.根据权利要求13所述的方法,其特征在于,所述判定所述当前位姿信息是否存在错误,包括:
当当前所述测距单元被遮挡或所述机器人打滑时,判定所述当前位姿信息存在错误。
15.根据权利要求13所述的方法,其特征在于,所述判定所述当前位姿信息是否存在错误,包括:
当所述当前位姿信息与所述历史位姿信息中的任一均不相匹配时,判定所述当前位姿信息存在错误。
16.根据权利要求1所述的方法,其特征在于,还包括:
在所述机器人执行特定操作的移动过程中,查找与所述图像采集单元采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数;
当任一历史图像数据的匹配次数与执行所述特定操作的次数的比例小于预设阈值时,删除所述任一历史图像数据以及所述机器人在所述任一历史图像数据被采集时所对应的位姿信息。
17.根据权利要求1所述的方法,其特征在于,所有历史图像数据与历史位姿信息存储于预设数据库中;所述方法还包括:
当接收到针对所述预设数据库的更新指令时,根据所述机器人在移动过程中构建出的地图确定空旷区域;
在所述空旷区域内采集图像数据以及相应的位姿信息,以更新所述预设数据库。
18.根据权利要求1所述的方法,其特征在于,所述机器人针对不同的场景类型配置有对应的清洁策略;所述方法还包括:
在所述机器人执行清洁操作的过程中,根据针对所述图像采集单元采集到的图像数据的场景识别结果,采取相应的清洁策略进行清洁。
19.一种机器人的定位装置,其特征在于,所述机器人配置有图像采集单元和测距单元;所述装置包括:
图像数据确定单元,根据所述图像采集单元采集到的当前图像数据,确定与所述当前图像数据相匹配的历史图像数据,所述历史图像数据由所述图像采集单元在历史时刻采集得到;
位姿获取单元,获取所述机器人在所述历史图像数据被采集时所对应的历史位姿信息;
位姿确定单元,根据所述测距单元当前采集到的测距数据,确定所述机器人的当前位姿信息;
定位单元,根据所述历史位姿信息与所述当前位姿信息,对所述机器人的当前位置进行定位;
其中,所述定位单元还包括:
第一确定子单元,确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息;
第一定位子单元,根据所述目标历史位姿信息对所述机器人在环境地图中的当前位置进行定位。
20.根据权利要求19所述的装置,其特征在于,还包括:劫持事件确定单元,确定所述机器人是否发生劫持事件;
所述定位单元还包括:第二定位子单元,当确定所述机器人发生劫持事件时,根据所述历史位姿信息与所述当前位姿信息,对所述机器人发生劫持事件后的位置进行定位。
21.根据权利要求20所述的装置,其特征在于,所述劫持事件确定单元包括:
劫持事件确定子单元,当所述图像采集单元采集到的图像数据和/或所述测距单元采集到的测距数据发生突变时,确定所述机器人发生劫持事件。
22.根据权利要求19所述的装置,其特征在于,所述定位单元还包括:
获取子单元,获取三维环境构图,所述三维环境构图由所述历史图像数据与所述历史位姿信息构建得到;
第二确定子单元,基于所述三维环境构图确定对应于所述当前图像数据的位姿信息;
第三定位子单元,根据确定出的位姿信息对所述机器人在环境地图中的当前位置进行定位。
23.根据权利要求22所述的装置,其特征在于,所述三维环境构图为预先根据采集到的所述历史图像数据与所述历史位姿信息而构建得到;或者,所述三维环境构图为在确定出匹配于所述当前图像数据的历史图像数据后,基于所述历史图像数据与所述历史位姿信息而构建得到。
24.根据权利要求19所述的装置,其特征在于,还包括:
判定单元,判定所述当前位姿信息是否存在错误;
修正单元,当判定所述当前位姿信息存在错误时,利用所述历史位姿信息对所述当前位姿信息进行修正。
25.根据权利要求24所述的装置,其特征在于,所述判定单元包括:
第一判定子单元,当当前所述测距单元被遮挡或所述机器人打滑时,判定所述当前位姿信息存在错误。
26.根据权利要求24所述的装置,其特征在于,所述判定单元包括:
第二判定子单元,当所述当前位姿信息与所述历史位姿信息中的任一均不相匹配时,判定所述当前位姿信息存在错误。
27.根据权利要求19所述的装置,其特征在于,还包括:
统计单元,在所述机器人执行特定操作的移动过程中,查找与所述图像采集单元采集到的图像数据相匹配的历史图像数据,并统计相应的匹配次数;
删除单元,当任一历史图像数据的匹配次数与执行所述特定操作的次数的比例小于预设阈值时,删除所述任一历史图像数据以及所述机器人在所述任一历史图像数据被采集时所对应的位姿信息。
28.根据权利要求19所述的装置,其特征在于,所有历史图像数据与历史位姿信息存储于预设数据库中;所述装置还包括:空旷区域确定单元,当接收到针对所述预设数据库的更新指令时,根据所述机器人在移动过程中构建出的地图确定空旷区域;
更新单元,在所述空旷区域内通过所述图像采集单元采集图像数据以及相应的位姿信息,以更新所述预设数据库。
29.根据权利要求19所述的装置,其特征在于,所述机器人针对不同的场景类型配置有对应的清洁策略;所述装置还包括:
策略调整单元,在所述机器人执行清洁操作的过程中,根据针对所述图像采集单元采集到的图像数据的场景识别结果,采取相应的清洁策略进行清洁。
30.根据权利要求19所述的装置,其特征在于,所述图像数据确定单元包括:
第一图像数据确定子单元,当所述当前图像数据与所述历史图像数据之间的相似度超过预设阈值时,确定所述历史图像数据与所述当前图像数据相匹配。
31.根据权利要求19所述的装置,其特征在于,所述图像数据确定单元包括:
第二图像数据确定子单元,当所述当前图像数据与所述历史图像数据中均包含一个或多个同一被采集对象时,确定所述历史图像数据与所述当前图像数据相匹配。
32.根据权利要求19所述的装置,其特征在于:
所述历史位姿信息与所述历史图像数据具有映射关系。
33.根据权利要求32所述的装置,其特征在于:
所述映射关系在所述机器人构建环境地图的过程中形成。
34.根据权利要求19所述的装置,其特征在于:
确定所述历史位姿信息中与所述当前位姿信息相匹配的目标历史位姿信息包括:将历史位姿信息与当前位姿信息逐一进行比较,将与当前位姿信息接近或相同的历史位姿信息作为所述目标历史位姿信息。
35.根据权利要求34所述的装置,其特征在于:
所述接近包括历史位姿信息中的距离与当前位姿信息中包含的距离的差值在预设距离阈值内。
36.根据权利要求34所述的装置,其特征在于:
所述接近包括历史位姿信息中的角度与当前位姿信息中包含的角度的差值在预设角度阈值内。
37.一种机器人,其特征在于,所述机器人配置有图像采集单元和测距单元;所述机器人还包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如权利要求1-18中任一项所述的方法。
38.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-18中任一项所述方法的步骤。
CN202210535950.9A 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质 Active CN114847803B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210535950.9A CN114847803B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811268293.6A CN109431381B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质
CN202210535950.9A CN114847803B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201811268293.6A Division CN109431381B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN114847803A CN114847803A (zh) 2022-08-05
CN114847803B true CN114847803B (zh) 2024-04-16

Family

ID=65550206

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210535950.9A Active CN114847803B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质
CN201811268293.6A Active CN109431381B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201811268293.6A Active CN109431381B (zh) 2018-10-29 2018-10-29 机器人的定位方法及装置、电子设备、存储介质

Country Status (1)

Country Link
CN (2) CN114847803B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696157A (zh) * 2019-03-12 2020-09-22 北京京东尚科信息技术有限公司 图像重定位的确定方法、系统、设备和存储介质
CN109993794A (zh) * 2019-03-29 2019-07-09 北京猎户星空科技有限公司 一种机器人重定位方法、装置、控制设备和存储介质
CN111860058A (zh) * 2019-04-29 2020-10-30 杭州萤石软件有限公司 一种移动机器人室内功能区域的定位方法及系统
CN110414353B (zh) * 2019-06-24 2023-06-20 炬星科技(深圳)有限公司 机器人开机定位、运行重定位方法、电子设备及存储介质
CN112205937B (zh) * 2019-07-12 2022-04-05 北京石头世纪科技股份有限公司 一种自动清洁设备控制方法、装置、设备和介质
CN112414391A (zh) * 2019-08-20 2021-02-26 北京京东乾石科技有限公司 一种机器人的重定位方法及装置
CN112444251B (zh) * 2019-08-29 2023-06-13 长沙智能驾驶研究院有限公司 车辆行车位置确定方法、装置、存储介质及计算机设备
CN112766023B (zh) * 2019-11-04 2024-01-19 北京地平线机器人技术研发有限公司 目标对象的姿态确定方法、装置、介质及设备
CN112880691B (zh) * 2019-11-29 2022-12-02 北京魔门塔科技有限公司 一种全局定位初始化方法及装置
CN111784661B (zh) * 2019-12-31 2023-09-05 山东信通电子股份有限公司 一种输电线路检测设备的调整方法、装置、设备及介质
CN111239761B (zh) * 2020-01-20 2021-12-28 西安交通大学 一种用于室内实时建立二维地图的方法
CN111220148A (zh) * 2020-01-21 2020-06-02 珊口(深圳)智能科技有限公司 移动机器人的定位方法、系统、装置及移动机器人
CN113436309A (zh) * 2020-03-23 2021-09-24 南京科沃斯机器人技术有限公司 一种场景重建方法、系统、装置及扫地机器人
CN111443033A (zh) * 2020-04-26 2020-07-24 武汉理工大学 一种扫地机器人地毯检测方法
WO2022027611A1 (zh) * 2020-08-07 2022-02-10 苏州珊口智能科技有限公司 移动机器人的定位方法、构建地图的方法及移动机器人
CN112013840B (zh) * 2020-08-19 2022-10-28 安克创新科技股份有限公司 扫地机器人及其地图构建方法和装置
CN112212853A (zh) * 2020-09-01 2021-01-12 北京石头世纪科技股份有限公司 机器人的定位方法及装置、存储介质
CN112418046B (zh) * 2020-11-17 2023-06-23 武汉云极智能科技有限公司 一种基于云机器人的健身指导方法、存储介质及系统
CN112631303B (zh) * 2020-12-26 2022-12-20 北京云迹科技股份有限公司 一种机器人定位方法、装置及电子设备
CN112987764B (zh) * 2021-02-01 2024-02-20 鹏城实验室 降落方法、装置、无人机以及计算机可读存储介质
CN114941448B (zh) * 2021-02-07 2023-09-05 广东博智林机器人有限公司 灰浆清理方法、装置、系统及存储介质
CN115177178A (zh) * 2021-04-06 2022-10-14 美智纵横科技有限责任公司 一种清扫方法、装置和计算机存储介质
CN113256710B (zh) * 2021-05-21 2022-08-02 深圳市慧鲤科技有限公司 游戏中准星的显示方法、装置、计算机设备及存储介质
CN113554754A (zh) * 2021-07-30 2021-10-26 中国电子科技集团公司第五十四研究所 一种基于计算机视觉的室内定位方法
CN116965745A (zh) * 2022-04-22 2023-10-31 追觅创新科技(苏州)有限公司 坐标重定位方法、系统及清洁机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
WO2017101721A1 (zh) * 2015-12-16 2017-06-22 小米科技有限责任公司 自动清洁设备及清洁方法
CN107357286A (zh) * 2016-05-09 2017-11-17 两只蚂蚁公司 视觉定位导航装置及其方法
CN107796397A (zh) * 2017-09-14 2018-03-13 杭州迦智科技有限公司 一种机器人双目视觉定位方法、装置和存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203341B (zh) * 2016-07-11 2019-05-21 百度在线网络技术(北京)有限公司 一种无人车的车道线识别方法及装置
US10593060B2 (en) * 2017-04-14 2020-03-17 TwoAntz, Inc. Visual positioning and navigation device and method thereof
CN107340522B (zh) * 2017-07-10 2020-04-17 浙江国自机器人技术有限公司 一种激光雷达定位的方法、装置及系统
CN107845114B (zh) * 2017-11-10 2024-03-22 北京三快在线科技有限公司 地图的构建方法、装置及电子设备
CN108125622A (zh) * 2017-12-15 2018-06-08 珊口(上海)智能科技有限公司 控制方法、系统及所适用的清洁机器人
CN108544494B (zh) * 2018-05-31 2023-10-24 珠海一微半导体股份有限公司 一种基于惯性和视觉特征的定位装置、方法及机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101721A1 (zh) * 2015-12-16 2017-06-22 小米科技有限责任公司 自动清洁设备及清洁方法
CN107357286A (zh) * 2016-05-09 2017-11-17 两只蚂蚁公司 视觉定位导航装置及其方法
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN107796397A (zh) * 2017-09-14 2018-03-13 杭州迦智科技有限公司 一种机器人双目视觉定位方法、装置和存储介质

Also Published As

Publication number Publication date
CN109431381B (zh) 2022-06-07
CN114847803A (zh) 2022-08-05
CN109431381A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
CN114847803B (zh) 机器人的定位方法及装置、电子设备、存储介质
CN109947109B (zh) 机器人工作区域地图构建方法、装置、机器人和介质
CN114521836B (zh) 一种自动清洁设备
CN113284240B (zh) 地图构建方法及装置、电子设备和存储介质
WO2019144541A1 (zh) 一种清洁机器人
CN110623606B (zh) 一种清洁机器人及其控制方法
KR102608046B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
CN114468898B (zh) 机器人语音控制方法、装置、机器人和介质
US11561554B2 (en) Self-moving device, working system, automatic scheduling method and method for calculating area
WO2017101721A1 (zh) 自动清洁设备及清洁方法
CN114603559A (zh) 移动机器人的控制方法、装置、移动机器人及存储介质
CN109932726B (zh) 机器人测距校准方法、装置、机器人和介质
CN106175606A (zh) 机器人及其实现自主操控的方法、装置
CN106239517A (zh) 机器人及其实现自主操控的方法、装置
CN111990930B (zh) 一种测距方法、装置、机器人和存储介质
EP4209754A1 (en) Positioning method and apparatus for robot, and storage medium
CN109920425B (zh) 机器人语音控制方法、装置、机器人和介质
CN114557633A (zh) 自动清洁设备清洁参数配置方法、装置、设备及介质
JP2013246589A (ja) 空間情報生成装置、空間情報利用システム、空間情報生成方法、制御プログラム、および、記録媒体
CN112269379B (zh) 障碍物识别信息反馈方法
CN210673215U (zh) 一种多光源探测机器人
CN112244705B (zh) 智能清洁设备、控制方法、计算机存储介质
JP2020027443A (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
CN210673216U (zh) 一种滤光式机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant