CN113379850B - 移动机器人控制方法、装置、移动机器人及存储介质 - Google Patents

移动机器人控制方法、装置、移动机器人及存储介质 Download PDF

Info

Publication number
CN113379850B
CN113379850B CN202110738448.3A CN202110738448A CN113379850B CN 113379850 B CN113379850 B CN 113379850B CN 202110738448 A CN202110738448 A CN 202110738448A CN 113379850 B CN113379850 B CN 113379850B
Authority
CN
China
Prior art keywords
coordinate system
rotation angle
relative
room
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110738448.3A
Other languages
English (en)
Other versions
CN113379850A (zh
Inventor
林李泽
薛昆南
沈玥伶
葛龙渊
王贺升
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Silver Star Intelligent Group Co Ltd
Original Assignee
Shenzhen Silver Star Intelligent Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Silver Star Intelligent Group Co Ltd filed Critical Shenzhen Silver Star Intelligent Group Co Ltd
Priority to CN202110738448.3A priority Critical patent/CN113379850B/zh
Publication of CN113379850A publication Critical patent/CN113379850A/zh
Application granted granted Critical
Publication of CN113379850B publication Critical patent/CN113379850B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及移动机器人技术领域,公开了一种移动机器人控制方法、装置、移动机器人及存储介质,该方法包括:获取图像数据并设定基准坐标系;获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;根据所述第二旋转角控制所述移动机器人的运动方向。本申请能够自动调整移动机器人的姿态,以使移动机器人沿着主方向移动,提高了移动机器人的移动覆盖率,提升了移动机器人的作业效率。

Description

移动机器人控制方法、装置、移动机器人及存储介质
技术领域
本发明实施方式涉及移动机器人技术领域,特别是涉及一种移动机器人控制方法、装置、移动机器人及存储介质。
背景技术
随着技术的发展和人们生活水平的提高,诸如清洁机器人、服务机器人、远程监控机器人等逐渐进入人们的生活中。以清洁机器人为例,为了达到较高的清扫效率,理想的是在清洁机器人进行清洁作业前自动调整机器人的姿态以使其沿主方向移动,即机器人的行进方向垂直于或平行于墙面方向,然后再进行清扫,由此使得机器人在清扫期间能够尽量的减少补扫面积,提高清扫效率。因此,如何准确地调整移动机器人的姿态,以使其沿主方向移动是提高清扫效率的关键因素。
发明内容
为了解决上述技术问题,本发明实施例提供一种移动机器人控制方法、装置、移动机器人及存储介质,解决目前如何自动调整移动机器人的姿态以使其沿主方向移动的问题,以提高移动机器人的作业效率。
为了解决上述技术问题,本发明实施例提供以下技术方案:
第一方面,本发明实施例提供一种移动机器人控制方法,所述方法包括:
获取图像数据并设定基准坐标系;
获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;
根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;
根据所述第二旋转角控制所述移动机器人的运动方向。
可选地,所述获取图像数据并设定基准坐标系,包括:
获取图像数据,所述图像数据包括移动机器人连续采集的k帧图像,k为大于1的整数,将采集第1帧图像对应的采样相机坐标系设定为基准坐标系。
可选地,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿,包括:
获取所述k帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述k帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿;
所述根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角,包括:
根据每帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及每帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿,计算得到每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据;
对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角。
可选地,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,包括:
根据所述图像数据进行直线检测,以获得直线检测结果;
根据所述直线检测结果获取灭点数据;
计算所述灭点数据在所述采样相机坐标系下的反投影,以获得所述灭点数据对应的采样相机坐标系相对于所述房间主方向的第一旋转角。
可选地,所述对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角,包括:
计算所述k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据的平均值;
计算每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据与所述平均值的差的绝对值;
统计小于预设阈值的所述绝对值的比例;
在所述比例大于预设比例值时,确定所述平均值为所述第二旋转角。
可选地,采集所述图像数据的采样相机为双目相机,所述图像数据包括左相机图像数据和右相机图像数据,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角包括:
分别获取左相机图像数据对应的左采样相机坐标系相对于房间主方向的第一旋转角,以及右相机图像数据对应的右采样相机坐标系相对于房间主方向的第一旋转角;
根据所述左采样相机坐标系对应的所述第一旋转角和所述右采样相机坐标系对应的所述第一旋转角判断是否通过双目验证;
若是,保存所述左采样相机坐标系对应的所述第一旋转角,以及所述右采样相机坐标系对应的所述第一旋转角。
可选地,所述对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角的步骤之前,所述方法还包括:
判断采样的所述图像的帧数是否大于预设帧数阈值;
若是,则执行对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角的步骤;
若否,则采集新一帧的图像,并获取所述新一帧的图像对应的所述旋转角数据。
第二方面,本发明实施例提供一种移动机器人控制装置,所述装置包括:
数据处理模块,用于获取图像数据并设定基准坐标系;
第一获取模块,用于获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;
第二获取模块,用于根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;
控制模块,用于根据所述第二旋转角控制所述移动机器人的运动方向。
第三方面,本发明实施例提供一种移动机器人,包括:
至少一个处理器;和
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的移动机器人控制方法。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的移动机器人控制方法。
本发明实施方式的有益效果是:区别于现有技术的情况,本申请实施方式提供一种移动机器人控制方法、装置、移动机器人以及存储介质,通过获取图像数据并设定基准坐标系;获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;根据所述第二旋转角控制所述移动机器人的运动方向。本申请实施例提供的移动机器人控制方法、装置、移动机器人以及存储介质,能够自动调整移动机器人的姿态,以使移动机器人沿着主方向移动,提高了移动机器人的移动覆盖率,提升了移动机器人的作业效率。
附图说明
一个或多个实施例通过与之对应的附图进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例提供的一种应用场景的示意图;
图2是本发明实施例提供的一种移动机器人的结构示意图;
图3是本发明实施例提供的一种移动机器人控制方法的流程图;
图4是图3中的步骤S12中获得第一旋转角的方法步骤的细化流程图;
图5是本发明实施例提供的灭点检测示意图;
图6是图3中的步骤S13中获得第二旋转角的方法步骤的细化流程图;
图7本发明另一实施例提供的一种移动机器人控制方法的流程图;
图8是本发明又一实施例提供的一种移动机器人控制方法的流程图;
图9是本发明实施例提供的一种移动机器人控制装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互组合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块的划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置示意图中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
本发明实施例提供的移动机器人控制方法和装置,可以应用于终端,也可以应用于服务器。在一个实施例中,本发明实施例提供的移动机器人控制方法可以应用于如图1所示的应用环境中。其中,终端10与服务器20通过有线网络或无线网络通讯连接,终端10可主动采集当前应用场景的图像,根据采样的图像获取基础坐标系相对主方向的旋转角,从而根据该旋转角控制移动机器人的运动方向。例如,终端10用于获取图像数据并设定基准坐标系;获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;根据所述第二旋转角控制所述移动机器人的运动方向。
其中,终端10可以但不限于是智能手机、个人计算机、笔记本电脑、平板电脑、便携式可穿戴设备和机器人。所述机器人包括但不限于工业机器人、服务机器人、清洁机器人、自移动机器人以及特种机器人等。在一些实施例中,移动机器人10的数量可以为一个,亦可以为多个。
服务器20可以用独立的服务器或者是多个服务器组成的服务器集群来实现。上述对移动机器人的运动方向的控制过程也可在服务器20中执行,所述终端10可以将采样的图像发送给服务器20,服务器20根据该图像获取基础坐标系相对主方向的旋转角,从而根据该旋转角控制移动机器人的运动方向。例如,服务器20用于获取图像数据并设定基准坐标系;获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;根据所述第二旋转角控制所述移动机器人的运动方向。
可以理解的是,移动机器人可以是扫地机器人、扫拖一体式机器人、擦地机器人、洗地机器人、巡逻机器人或搬运机器人等其中任意一种。
在一个实施例中,请参照图2,机器人包括机器人主体11(图未示)、激光雷达12、摄像单元13、控制器14、行走机构15(图未示)和传感单元16;或者机器人仅采用激光雷达12和摄像单元13之一。其中,机器人主体11是机器人的主体结构,可以根据机器人的实际需要,选用相应的形状结构及制造材质(如硬质塑料或者铝、铁等金属),例如设置为扫地机器人常见的较为扁平的圆柱形。在其他实施方式中,机器人也可以不包括激光雷达12。
行走机构15设置于机器人主体11上,是为机器人提供移动能力的结构装置。该行走机构15具体可以采用任何类型的移动装置实现,例如滚轮、履带式等。激光雷达12用于感知机器人周围环境的障碍物情况,获得障碍物信息。摄像单元13用于拍摄图像,其可以是各种类型的摄像头,比如安装于所述机器人主体11上的广角摄像头。通常而言,激光雷达12和摄像单元13择一选用,以降低成本。
在其中一些实施例中,传感单元16用于采集机器人的一些运动参数及环境空间各类数据,传感单元16包括各类合适传感器,诸如陀螺仪、红外传感器、里程计、磁场计、加速度计或速度计等等。
控制器14是内置于机器人主体11中的电子计算核心,用于执行逻辑运算步骤以实现机器人的智能化控制。控制器14与激光雷达12、摄像单元13和传感单元16连接,用于根据激光雷达12、摄像单元13和传感单元16采集的数据,执行预设的算法以实现移动机器人的运动方向的控制。
需要说明的是,根据所要完成的任务,除了以上的功能模组以外,机器人主体11上还可以搭载一个或者多个其它不同的功能模组(如储水箱、清扫装置等),相互配合用以执行相应的任务。
在一个实施例中,本发明实施例还提供一种移动机器人,包括处理器,存储器,存储在存储器上并可在所述处理器上运行的计算机程序,该计算机程序被处理器执行时实现下述移动机器人控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
在一个实施例中,请参照图3,提供了一种移动机器人控制方法,该方法可应用于图1中的终端10,其具体可以是图2所示的机器人。该方法还可以应用于图1中的服务器20。其中,所述机器人的摄像单元包括单目摄像机,在本实施例中,可以仅基于单目图像就能恢复出移动机器人摄像单元相对于主方向的旋转角。该方法包括:
S11:获取图像数据并设定基准坐标系;
S12:获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;
S13:根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;
S14:根据所述第二旋转角控制所述移动机器人的运动方向。
在本实施例中,可以首先确定房间坐标系和基准坐标系。该房间坐标系即是房间主方向坐标系,通常在所述机器人所应用的房间确定时,该房间主方向坐标系就是固定的,该房间主方向坐标系的x轴和y轴是垂直于房间墙体的,其z轴是垂直向上的,该房间主方向坐标系的原点与基准坐标系的原点重合。所述基准坐标系指的是采集第一帧图像时所述机器人的坐标系,该坐标系可以默认为是世界坐标系,也可以是与世界坐标系存在一定相对位姿的坐标系。假如当前设定了世界坐标系,并且知道拍摄第一帧图像时机器人的坐标系与世界坐标系的相对位姿,那么后续拍摄其他帧图像时的坐标系是相对于所述基准坐标系的,可以根据基准坐标系与世界坐标系的相对位姿获得拍摄其他帧图像时的坐标系与世界坐标系的相对位姿。
在确定所述房间坐标系和所述基准坐标系后,本申请实施例的目的在于测量基准坐标系相对于房间主方向的旋转角。具体地,采样k帧图像,所述k为大于1的整数,在采样该k帧图像时,可以是所述机器人的所述单目摄像机处于不同的视角拍摄的连续的k帧图像,即获得不同的采样相机坐标系的k帧图像,该采样相机即所述单目摄像机。每一帧图像的采样相机坐标系即拍摄该帧图像时所述机器人的坐标系,其中,将采集的第1帧图像对应的采样相机坐标系设定为基准坐标系。获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,比如,获取所述k帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,即获取采样相机在采集该图像数据时的采样相机坐标系与房间主方向坐标系这两个坐标系之间的旋转角。可以默认该采样相机坐标系的原点与房间主方向坐标系的原点重合,可通过旋转角采集设备(比如角度测量仪)来获得该第一旋转角。
还可以通过计算灭点在采样相机坐标系下的反投影来获得该采样相机坐标系相对于房间主方向坐标系的旋转角。需要说明的是,所述采样相机坐标系是采集当前帧图像时的采样相机的坐标系,也即是所述机器人拍摄当前帧图像时的坐标系。
具体的,在一个实施例中,请参照图4,上述步骤S12中,获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角包括:
S121:根据所述图像数据进行直线检测,以获得直线检测结果;
S122:根据所述直线检测结果获取灭点数据;
S123:计算所述灭点数据在所述采样相机坐标系下的反投影,以获得所述灭点数据对应的采样相机坐标系相对于所述房间主方向的第一旋转角。
其中,所述灭点指的是两条或多条代表平行线线条向远处地平线伸展至聚合的那一点,根据图像的坐标系有三个轴的特点,通常一帧图像包括三个灭点,即分别是与x轴、y轴、z轴平行的多条线条分别向远处地平线伸展至聚合的三个点。
对图像进行直线检测是计算机视觉领域中一类典型的任务,在摄像机标定过程中,当前应用的房间中的很多物体都具有直线轮廓,检测并定位这些直线轮廓,从而定位目标,可以为进一步进行目标识别和分析提供条件。在本申请实施例中,对所述多帧图像分别进行直线检测的方法包括但不限于霍夫变换算法、LSD(Line Segment Detector)直线检测算法等,详细地过程可参考相关技术的记载。
可以知道的,通常实际环境比较复杂,为了保证结果的稳定,通过上述方法对图像进行直线检测后,可以剔除长度小于阈值的直线段,仅保留长度大于阈值的直线段。
其中,根据所述直线检测结果获取灭点时,可以根据灭点检测算法得到灭点,灭点检测的示意图如图5所示。灭点检测在三维重建、计算机视觉有着重要应用,主要的应用是根据单幅图像能够获得相机内的参数,适用的大多数场景为曼哈顿结构。在本申请中,默认当前应用的房间是满足曼哈顿结构的,即当前应用的房间是由多个互相正交的平面组成,如天花板,墙面,地板等。
获得所述灭点后,计算所述灭点在所述采样相机坐标系下的反投影。具体地,相机投影公式为:
Zv=KTp;
其中,p为灭点在世界坐标系下的齐次坐标,T为从世界坐标系到采样相机坐标系的变换,K为相机内参数矩阵,Z为灭点深度,v为灭点在像素坐标系下的齐次坐标。
通常包括x、y、z三轴的灭点,以z轴方向的灭点为例,灭点在世界坐标系下的齐次坐标p=[0,0,1,0]T,将世界坐标系到采样相机坐标系的变换按列分解为[r1,r2,r3,t],此时灭点深度Z=1,vz表示Z轴灭点在像素平面的坐标,代入上述相机投影公式中得:
vz=K[r1,r2,r3,t][0,0,1,0]T
vz=K·r3
r3=K-1·vz/||K-1·vz||
基于上述相同的原理,可以分别根据x轴方向和y轴方向的灭点得到r1,r2,最终得到所述第一旋转角R=[r1,r2,r3]。
根据上述方式,可以获得所述直线检测结果所对应的每一帧图像的采样相机坐标系相对于所述房间主方向的第一旋转角。
其中,获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿,即是采样的图像中除了第一帧图像之外的各帧图像相对于第一帧图像的相对位姿。
在本申请实施例中,可以基于当前应用场景,获取在不同的采样相机坐标系下拍摄的多帧图像;测量每一帧图像采集时的采样相机坐标系相对于所述基准坐标系的相对位姿,比如获取所述k帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿。其中,可以使用任意图像采集装置在房间不同坐标系下对场景进行多次拍照,获得真实场景的二维图像序列,同时利用任意位姿测量工具(比如IMU和轮式里程计等设备)测量每一张图像采集时的采样相机坐标系相对于基准坐标系的相对位姿。
其中,步骤S13包括:
根据每帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及每帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿,计算得到每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据;
对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角。
所述第二旋转角是基准坐标系相对于房间主方向坐标系的旋转角,即获得拍摄第一帧图像时机器人的位姿与房间主方向的角度。可以通过所述第一旋转角和所述相对位姿获得所述第二旋转角,即是,根据采样的各帧图像相对于房间主方向的第一旋转角,以及除了第一帧采样图像的各帧图像相对于第一帧图像的相对位姿,来计算获得第一帧图像相对于房间主方向的旋转角。具体地,获取所述第一旋转角对应的多帧采样图像;获取每一所述采样图像对应的相对位姿;将同一所述采样图像对应的所述第一旋转角和所述相对位姿分别进行计算,以获得多个所述第二旋转角。可以知道的,根据上述方法可以获得多个所述第一旋转角和多个所述相对位姿,在确定第二旋转角时,需要保证其对应的第一旋转角和相对位姿都是针对同一采样图像的,以确保结果的准确性。根据所述第一旋转角和所述相对位姿获得所述第二旋转角的过程具体涉及的是两个矩阵的相乘计算,详细过程可参考相关技术的记载。
根据上述方法步骤可以获得多个所述第二旋转角,所述第二旋转角即是机器人拍摄第一帧图像时的位姿相对于房间主方向的旋转角。根据该第二旋转角可以调整机器人的行进方向。为了保证结果的准确性和稳定性,本申请实施例对多帧图像进行随机一致性采样,将获得的多个第二旋转角进行融合处理,以确定最终的一个用于调节移动机器人行进方向的第二旋转角,由此减小随机误差。
在一个实施例中,请参照图6,上述步骤中对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角具体包括:
S131:计算所述k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据的平均值;
S132:计算每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据与所述平均值的差的绝对值;
S133:统计小于预设阈值的所述绝对值的比例;
S134:在所述比例大于预设比例值时,确定所述平均值为所述第二旋转角。
其中,所述预设阈值和预设比例阈值可根据经验由用户输入,或者所述机器人系统自定义设置。
其中,可以从K帧图像中抽取一定比例帧的旋转角数据,计算抽取出的旋转角数据的平均值,该平均值作为多帧融合的基准坐标系相对于主方向的旋转角结果。可进一步判断该平均值的可信度,即计算各帧旋转角与平均值的差的绝对值,如果满足大于一定比例的旋转角结果的差的绝对值小于一定阈值,则判定此多帧融合的旋转角结果足够可信,将差的绝对值小于一定阈值的比例作为置信度,跳出循环并作为最终结果;否则,回到初始步骤,从K帧图像中再抽取一定比例帧的第二旋转角结果,计算抽取出的第二旋转角平均值,并重复上述过程。如果循环次数大于一定阈值,跳出循环,舍弃之前的历史信息,重新开始进行主方向识别;否则,判定此次主方向识别失败。
获得的所述第二旋转角可作为移动机器人的初始主方向校正,比如作为扫地机器人初始主方向校正,以此减少扫地机器人的补扫面积,提高扫地机器人的清扫效率。
还可以应用与移动机器人的智能行走过程中的行进方向的校准,比如,在摆满了平行货架的大仓库或者摆满了平行书架的图书馆中,移动机器人可根据上述方法获得与货架或书架平行的方向,避免碰撞。
还可以应用于无人驾驶智能汽车,通过上述方法可获得车道的主方向,避免汽车偏离车道。
本申请实施例提供的移动机器人控制方法,一方面,充分利用房间满足曼哈顿假设的先验信息,仅基于单目图像就能恢复出相机相对主方向旋转角,避免了误差较大的线段匹配和线段三维重构步骤;另一方面,对多帧图像进行了随机一致性采样,减小随机误差,能在很大范围内保证结果的稳定;最后,根据本申请实施例的方法能够自动调整移动机器人的姿态,以使移动机器人沿着主方向移动,提高了移动机器人的移动覆盖率,提升了移动机器人的作业效率。
在一个实施例中,请参照图7,提供了一种移动机器人控制方法,该方法可应用于图1中的终端10,其具体可以是图2所示的机器人。该方法还可以应用于图1中的服务器20。其中,所述机器人的摄像单元包括双目摄像机,在本实施例中,可以基于双目图像就能恢复出移动机器人摄像单元相对于主方向的旋转角。该方法包括:
S21:分别获取左相机图像数据对应的左采样相机坐标系相对于房间主方向的第一旋转角,以及右相机图像数据对应的右采样相机坐标系相对于房间主方向的第一旋转角;
S22:根据所述左采样相机坐标系对应的所述第一旋转角和所述右采样相机坐标系对应的所述第一旋转角判断是否通过双目验证;
其中,对两个第一旋转角进行双目验证的过程可以是,计算两个第一旋转角的差的绝对值,在所述绝对值小于预设阈值时,则确定通过双目验证,否则,未通过双目验证。该预设阈值的大小可以系统自定义设置也可以人为设置。
若通过双目验证,则执行下述步骤S23。否则,可以跳转至上述步骤S21,根据新一帧图像分别获得左相机和右相机对应的第一旋转角,再重新判断是否通过双目验证。
S23:保存所述左采样相机坐标系对应的所述第一旋转角,以及所述右采样相机坐标系对应的所述第一旋转角;
S24:根据所述采样的图像和基准坐标系,获取采样相机采集每一图像时的坐标系相对于基准坐标系的相对位姿;
S25:根据所述左采样相机坐标系对应的所述第一旋转角和所述相对位姿,获取所述左采样相机的基准坐标系相对于所述房间主方向的第二旋转角;
S26:根据所述右采样相机坐标系对应的所述第一旋转角和所述相对位姿,获取所述右采样相机的基准坐标系相对于所述房间主方向的第二旋转角;
S27:分别融合所述左采样相机的基准坐标系相对于所述房间主方向的第二旋转角,以及所述右采样相机的基准坐标系相对于所述房间主方向的第二旋转角,以获得第三旋转角;
S28:根据所述第三旋转角控制所述移动机器人的运动方向。
上述步骤S23至步骤S28详细地可参考上述方法实施例。
本申请实施例提供的移动机器人控制方法,主要采用双目相机检测移动机器人初始位姿相对于房间主方向的旋转角,其中添加了双目相机校验的步骤,能够提高系统的鲁棒性。本申请实施例的方法同样具有与上述根据单目相机采样结果进行检测的过程的相同的有益效果。
在一个实施例中,请参照图8,提供了一种移动机器人控制方法,该方法可应用于图1中的终端10,其具体可以是图2所示的机器人。该方法包括:
S31:获取图像数据并设定基准坐标系;
S32:获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;
S33:根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;
S34:判断采样的所述图像的帧数是否大于预设帧数阈值;
若是,则执行下述步骤S35;若否,则采集新一帧的图像,并跳转执行步骤S31,根据新一帧图像计算所述第一旋转角、所述相对位姿和所述第二旋转角。
S35:对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角;
S36:根据所述第二旋转角控制所述移动机器人的运动方向。
在本申请实施例中,需要采样的图像帧数满足一定的条件,以减小随机一致性采样的误差。本方法适用于单目摄像机采样的图像,也适用于双目摄像机采样的图像,详细地过程可参考上述方法实施例。
在一个实施例中,请参照图9,提供了一种移动机器人控制装置40,所述移动机器人控制装置40包括:数据处理模块41、第一获取模块42、第二获取模块43以及控制模块44。
其中,数据处理模块41,用于获取图像数据并设定基准坐标系;第一获取模块42,用于获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;第二获取模块43,用于根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;控制模块44,用于根据所述第二旋转角控制所述移动机器人的运动方向。
其中,数据处理模块41具体用于:获取图像数据,所述图像数据包括移动机器人连续采集的k帧图像,k为大于1的整数,将采集第1帧图像对应的采样相机坐标系设定为基准坐标系。
第一获取模块42具体用于:获取所述k帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述k帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿。
第二获取模块43具体用于:基于当前应用场景,获取在不同的采样相机坐标系下拍摄的多帧图像;测量每一帧图像采集时的采样相机坐标系相对于所述基准坐标系的相对位姿。
第三获取模块43具体用于:根据每帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及每帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿,计算得到每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据;对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角。
其中,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,包括:
根据所述图像数据进行直线检测,以获得直线检测结果;
根据所述直线检测结果获取灭点数据;
计算所述灭点数据在所述采样相机坐标系下的反投影,以获得所述灭点数据对应的采样相机坐标系相对于所述房间主方向的第一旋转角。
其中,所述对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角,包括:
计算所述k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据的平均值;
计算每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据与所述平均值的差的绝对值;
统计小于预设阈值的所述绝对值的比例;
在所述比例大于预设比例值时,确定所述平均值为所述第二旋转角。
在一个实施例中,采集所述图像数据的采样相机为双目相机,所述图像数据包括左相机图像数据和右相机图像数据,所述第一获取模块42具体用于:分别获取左相机图像数据对应的左采样相机坐标系相对于房间主方向的第一旋转角,以及右相机图像数据对应的右采样相机坐标系相对于房间主方向的第一旋转角;根据所述左采样相机坐标系对应的所述第一旋转角和所述右采样相机坐标系对应的所述第一旋转角判断是否通过双目验证;若是,保存所述左采样相机坐标系对应的所述第一旋转角,以及所述右采样相机坐标系对应的所述第一旋转角。
在一个实施例中,在执行所述对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角的步骤之前,所述装置40还包括判断模块45和处理模块46。所述判断模块45用于判断采样的所述图像的帧数是否大于预设帧数阈值;所述处理模块46用于若大于预设帧数阈值,则执行对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角的步骤;若不大于预设帧数阈值,则采集新一帧的图像,并获取所述新一帧的图像对应的所述旋转角数据。
需要说明的是,上述移动机器人控制装置可执行本发明实施例所提供的移动机器人控制方法,具备执行方法相应的功能模块和有益效果。未在移动机器人控制装置实施例中详尽描述的技术细节,可参见本发明实施例所提供的移动机器人控制方法。
本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的移动机器人控制方法。
上述计算机可读存储介质可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
需要说明的是,本发明的说明书及其附图中给出了本发明的较佳的实施方式,但是,本发明可以通过许多不同的形式来实现,并不限于本说明书所描述的实施方式,这些实施方式不作为对本发明内容的额外限制,提供这些实施方式的目的是使对本发明的公开内容的理解更加透彻全面。并且,上述各技术特征继续相互组合,形成未在上面列举的各种实施方式,均视为本发明说明书记载的范围;进一步地,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (8)

1.一种移动机器人控制方法,其特征在于,所述方法包括:
获取图像数据并设定基准坐标系;
获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;
根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;
根据所述第二旋转角控制所述移动机器人的运动方向;
其中,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿,包括:
获取k帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述k帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿;
所述根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角,包括:
根据每帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及每帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿,计算得到每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据;
对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角;
所述获取图像数据并设定基准坐标系,包括:
获取图像数据,所述图像数据包括移动机器人连续采集的k帧图像,k为大于1的整数,将采集第1帧图像对应的采样相机坐标系设定为基准坐标系。
2.根据权利要求1所述的方法,其特征在于,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,包括:
根据所述图像数据进行直线检测,以获得直线检测结果;
根据所述直线检测结果获取灭点数据;
计算所述灭点数据在所述采样相机坐标系下的反投影,以获得所述灭点数据对应的采样相机坐标系相对于所述房间主方向的第一旋转角。
3.根据权利要求1所述的方法,其特征在于,所述对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角,包括:
计算所述k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据的平均值;
计算每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据与所述平均值的差的绝对值;
统计小于预设阈值的所述绝对值的比例;
在所述比例大于预设比例值时,确定所述平均值为所述第二旋转角。
4.根据权利要求1所述的方法,其特征在于,采集所述图像数据的采样相机为双目相机,所述图像数据包括左相机图像数据和右相机图像数据,所述获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角包括:
分别获取左相机图像数据对应的左采样相机坐标系相对于房间主方向的第一旋转角,以及右相机图像数据对应的右采样相机坐标系相对于房间主方向的第一旋转角;
根据所述左采样相机坐标系对应的所述第一旋转角和所述右采样相机坐标系对应的所述第一旋转角判断是否通过双目验证;
若是,保存所述左采样相机坐标系对应的所述第一旋转角,以及所述右采样相机坐标系对应的所述第一旋转角。
5.根据权利要求1所述的方法,其特征在于,所述对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角的步骤之前,所述方法还包括:
判断采样的所述图像的帧数是否大于预设帧数阈值;
若是,则执行对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角的步骤;
若否,则采集新一帧的图像,并获取所述新一帧的图像对应的所述旋转角数据。
6.一种移动机器人控制装置,其特征在于,所述装置包括:
数据处理模块,用于获取图像数据并设定基准坐标系;
第一获取模块,用于获取所述图像数据对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述图像数据对应的采样相机坐标系与所述基准坐标系的相对位姿;
第二获取模块,用于根据所述第一旋转角和所述相对位姿,获取所述基准坐标系相对于所述房间主方向的第二旋转角;
控制模块,用于根据所述第二旋转角控制所述移动机器人的运动方向;
其中,第一获取模块具体用于:
获取k帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及获取所述k帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿;
所述第二获取模块具体用于:
根据每帧图像对应的采样相机坐标系相对于房间主方向的第一旋转角,以及每帧图像对应的采样相机坐标系与所述基准坐标系的相对位姿,计算得到每帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据;
对k帧图像对应的基准坐标系相对于所述房间主方向的旋转角数据融合处理得到第二旋转角;
所述获取图像数据并设定基准坐标系,包括:
获取图像数据,所述图像数据包括移动机器人连续采集的k帧图像,k为大于1的整数,将采集第1帧图像对应的采样相机坐标系设定为基准坐标系。
7.一种移动机器人,其特征在于,包括:
至少一个处理器;和
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5任一项所述的移动机器人控制方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任意一项所述的移动机器人控制方法。
CN202110738448.3A 2021-06-30 2021-06-30 移动机器人控制方法、装置、移动机器人及存储介质 Active CN113379850B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110738448.3A CN113379850B (zh) 2021-06-30 2021-06-30 移动机器人控制方法、装置、移动机器人及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110738448.3A CN113379850B (zh) 2021-06-30 2021-06-30 移动机器人控制方法、装置、移动机器人及存储介质

Publications (2)

Publication Number Publication Date
CN113379850A CN113379850A (zh) 2021-09-10
CN113379850B true CN113379850B (zh) 2024-01-30

Family

ID=77580155

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110738448.3A Active CN113379850B (zh) 2021-06-30 2021-06-30 移动机器人控制方法、装置、移动机器人及存储介质

Country Status (1)

Country Link
CN (1) CN113379850B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114098980B (zh) * 2021-11-19 2024-06-11 武汉联影智融医疗科技有限公司 相机位姿调整方法、空间注册方法、系统和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05223535A (ja) * 1992-02-18 1993-08-31 Nec Home Electron Ltd ロボット装置
KR20050108923A (ko) * 2004-05-14 2005-11-17 삼성광주전자 주식회사 모빌로봇, 모빌로봇 시스템, 및 그 경로보정방법
CN109074084A (zh) * 2017-08-02 2018-12-21 珊口(深圳)智能科技有限公司 机器人的控制方法、装置、系统及所适用的机器人
CN109102525A (zh) * 2018-07-19 2018-12-28 浙江工业大学 一种基于自适应位姿估计的移动机器人跟随控制方法
CN111160298A (zh) * 2019-12-31 2020-05-15 深圳市优必选科技股份有限公司 一种机器人及其位姿估计方法和装置
CN111256676A (zh) * 2018-11-30 2020-06-09 杭州海康机器人技术有限公司 移动机器人定位方法、装置和计算机可读存储介质
CN111693053A (zh) * 2020-07-09 2020-09-22 上海大学 一种基于移动机器人的重定位方法及系统
CN111800589A (zh) * 2019-04-08 2020-10-20 清华大学 图像处理方法、装置和系统,以及机器人
CN112697151A (zh) * 2020-12-24 2021-04-23 北京百度网讯科技有限公司 移动机器人的初始点的确定方法、设备和存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05223535A (ja) * 1992-02-18 1993-08-31 Nec Home Electron Ltd ロボット装置
KR20050108923A (ko) * 2004-05-14 2005-11-17 삼성광주전자 주식회사 모빌로봇, 모빌로봇 시스템, 및 그 경로보정방법
CN109074084A (zh) * 2017-08-02 2018-12-21 珊口(深圳)智能科技有限公司 机器人的控制方法、装置、系统及所适用的机器人
CN109102525A (zh) * 2018-07-19 2018-12-28 浙江工业大学 一种基于自适应位姿估计的移动机器人跟随控制方法
CN111256676A (zh) * 2018-11-30 2020-06-09 杭州海康机器人技术有限公司 移动机器人定位方法、装置和计算机可读存储介质
CN111800589A (zh) * 2019-04-08 2020-10-20 清华大学 图像处理方法、装置和系统,以及机器人
CN111160298A (zh) * 2019-12-31 2020-05-15 深圳市优必选科技股份有限公司 一种机器人及其位姿估计方法和装置
CN111693053A (zh) * 2020-07-09 2020-09-22 上海大学 一种基于移动机器人的重定位方法及系统
CN112697151A (zh) * 2020-12-24 2021-04-23 北京百度网讯科技有限公司 移动机器人的初始点的确定方法、设备和存储介质

Also Published As

Publication number Publication date
CN113379850A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN109084732B (zh) 定位与导航方法、装置及处理设备
CN111337947B (zh) 即时建图与定位方法、装置、系统及存储介质
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN107990899B (zh) 一种基于slam的定位方法和系统
US10275649B2 (en) Apparatus of recognizing position of mobile robot using direct tracking and method thereof
JP5987823B2 (ja) 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN112219087A (zh) 位姿预测方法、地图构建方法、可移动平台及存储介质
CN106708048B (zh) 机器人的天花板图像定位方法和系统
US20210183100A1 (en) Data processing method and apparatus
WO2022193508A1 (zh) 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品
CN110553648A (zh) 一种用于室内导航的方法和系统
CN111220148A (zh) 移动机器人的定位方法、系统、装置及移动机器人
CN110597265A (zh) 一种扫地机器人回充方法和装置
CN112254729A (zh) 一种基于多传感器融合的移动机器人定位方法
CN112700486A (zh) 对图像中路面车道线的深度进行估计的方法及装置
CN113587934A (zh) 一种机器人、室内定位方法、装置和可读存储介质
CN113379850B (zh) 移动机器人控制方法、装置、移动机器人及存储介质
CN114593735A (zh) 一种位姿预测方法及装置
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
CN112146620B (zh) 目标物体的测距方法及装置
CN113252066B (zh) 里程计设备参数的标定方法及装置、存储介质、电子装置
CN116958452A (zh) 三维重建方法和系统
CN110648353A (zh) 一种基于单目传感器的机器人室内定位方法和装置
CN113034538B (zh) 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 518000 1701, building 2, Yinxing Zhijie, No. 1301-72, sightseeing Road, Xinlan community, Guanlan street, Longhua District, Shenzhen, Guangdong Province

Applicant after: Shenzhen Yinxing Intelligent Group Co.,Ltd.

Address before: 518000 building A1, Yinxing hi tech Industrial Park, Guanlan street, Longhua District, Shenzhen City, Guangdong Province

Applicant before: Shenzhen Silver Star Intelligent Technology Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant