CN110189373A - 一种基于视觉语义信息的快速重定位方法及装置 - Google Patents
一种基于视觉语义信息的快速重定位方法及装置 Download PDFInfo
- Publication number
- CN110189373A CN110189373A CN201910463935.6A CN201910463935A CN110189373A CN 110189373 A CN110189373 A CN 110189373A CN 201910463935 A CN201910463935 A CN 201910463935A CN 110189373 A CN110189373 A CN 110189373A
- Authority
- CN
- China
- Prior art keywords
- key
- frames
- information
- frame
- semantic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉语义信息的快速重定位方法,包括:A.建立存储获取的关键帧信息的关键帧数据库,关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息;B.将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配更新重定位候选关键帧;C.在重定位候选关键帧选取一个目标关键帧,根据目标关键帧与当前帧的特征点信息,得到当前帧与目标关键帧的相对位置信息,根据目标关键帧的全局位置信息,得到当前帧的全局位置信息。本发明的方法可解决在大场景中重定位方法计算量巨大、重定位延时较大及需要多种传感器造成部署困难的问题。
Description
技术领域
本发明涉及机器人及导航技术领域,特别涉及一种基于视觉语义信息的快速重定位方法及装置。
背景技术
随着机器人相关技术的快速发展,人们对机器人的需求越来越高,特别是机器人的自主导航功能。而机器人的重定位问题已成为该领域备受关注的热点问题。
现有技术中,基于视觉传感器的导航系统,在重定位时,通常要将当前图像帧的图像特征点,分别与地图数据所有关键帧的图像特征点进行匹配,确定出匹配度大于一定阈值的目标关键帧,并根据确定出的目标关键帧,实现机器人的重定位。该方法在环境数据较大时,会使得关键帧数据库特别巨大,会造成重定位方法计算量巨大、重定位延时较大。
现有技术中,申请号为CN201810709562.1(重定位方法、设备及存储介质)的专利申请中,提供了一种基于关键帧的标签位置信息加速重定位的方法,但该方法需要其他传感器辅助获得标签位置信息,使得视觉导航系统的部署更复杂。
综上所述,现有技术存在在大场景中重定位方法计算量巨大、重定位延时较大以及需要多种传感器造成部署困难等问题。
发明内容
本发明的目的是克服上述背景技术中不足,提供一种基于视觉语义信息的快速重定位方法及装置,可有效解决现有技术存在的在大场景中重定位方法计算量巨大、重定位延时较大以及需要多种传感器造成部署困难等问题。
为了达到上述的技术效果,本发明采取以下技术方案:
一种基于视觉语义信息的快速重定位方法,包括以下步骤:
A.建立关键帧数据库,其中,所述关键帧数据库用于存储获取的关键帧信息,所述关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息;
B.将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,再将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配,更新重定位候选关键帧;
C.在重定位候选关键帧选取一个目标关键帧,根据所述目标关键帧与当前帧的特征点信息,得到当前帧与所述目标关键帧的相对位置信息,并根据所述目标关键帧的全局位置信息,得到当前帧的全局位置信息。
进一步地,所述关键帧的所述视觉语义信息至少包括关键帧对应的视觉图像中的物体信息。
进一步地,所述步骤A中获取关键帧的视觉语义信息时,具体包括以下步骤:
S1.采集物体样本,构成物体模型训练数据库,并训练物体检测模型;
S2.根据图像帧及物体检测模型,得到视觉语义信息。
进一步地,所述关键帧的特征点信息包括关键点和描述子。
进一步地,所述步骤C中在重定位候选关键帧选取一个目标关键帧时具体是在重定位候选关键帧中,选取与当前帧特征点信息匹配度最高的作为目标关键帧。
进一步地,所述步骤C中得到当前帧与所述目标关键帧的相对位置信息时具体是采用RANSAC基本矩阵算法或单应矩阵或RANSAC PnP算法或Bundle Adjustment算法或ICP算法,得到当前帧与目标关键帧的相对位置信息。
同时,本发明还公开了一种基于视觉语义信息的快速重定位装置,包括关键帧数据库模块、重定位候选关键帧选择模块、全局位置获取模块,所述关键帧数据库模块用于建立和维护关键帧数据库,所述关键帧数据库用于存储获取的关键帧信息,所述关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息;所述重定位候选关键帧选择模块将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,再将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配,更新重定位候选关键帧;所述全局位置获取模块用于在重定位候选关键帧选取一个目标关键帧,并根据所述目标关键帧与当前帧的特征点信息,得到当前帧与所述目标关键帧的相对位置信息,再根据所述目标关键帧的全局位置信息,得到当前帧的全局位置信息。
进一步地,还包括视觉语义信息获取模块,所述视觉语义信息获取模块用于获取图像帧的视觉语义信息。
进一步地,所述视觉语义信息获取模块获取图像帧的视觉语义信息时,具体方法为:先采集物体样本,构成物体模型训练数据库,并训练物体检测模型;然后根据图像帧及物体检测模型,得到视觉语义信息。
进一步地,重定位候选关键帧选择模块在重定位候选关键帧选取一个目标关键帧时具体是在重定位候选关键帧中,选取与当前帧特征点信息匹配度最高的作为目标关键帧,同时,重定位候选关键帧选择模块具体是采用RANSAC基本矩阵算法或单应矩阵或RANSAC PnP算法或Bundle Adjustment算法或ICP算法,得到当前帧与目标关键帧的相对位置信息。
本发明与现有技术相比,具有以下的有益效果:
本发明的基于视觉语义信息的快速重定位方法及装置,仅使用单一的视觉传感器,结合视觉语义信息,在大场景重定位中,减少了重定位计算量,提升了重定位的实时性,有效解决了现有技术存在的在大场景中重定位方法计算量巨大、重定位延时较大以及需要多种传感器造成部署困难等问题。
附图说明
图1是本发明的基于视觉语义信息的快速重定位方法的示意图。
图2是本发明的基于视觉语义信息的快速重定位装置的示意图。
具体实施方式
下面结合本发明的实施例对本发明作进一步的阐述和说明。
实施例:
实施例一:
如图1所示,一种基于视觉语义信息的快速重定位方法,包括以下步骤:
步骤1.建立关键帧数据库;
其中,关键帧数据库用于存储获取的关键帧信息,关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息;本实施例中,关键帧的视觉语义信息至少包括关键帧对应的视觉图像中的物体信息,关键帧的特征点信息包括关键点和描述子,即关键帧的特征点信息可以为SIFT、SURF、ORB等。
作为优选,本实施例中,关键帧数据库是在SLAM过程中建立,因此关键帧的全局位置信息也在SLAM过程中获取。
具体的,获取关键帧的视觉语义信息时,具体方法为:先采集物体样本,构成物体模型训练数据库,并训练物体检测模型;然后再根据图像帧及物体检测模型,得到视觉语义信息。如本实施例中具体为:基于YOLOv3的目标检测与识别。
即在训练目标检测模型之前,需要准备训练样本库;根据使用场景的特点,指定待检测的目标类别,如空调、电视、洗衣机、灯具等,根据指定的目标类别进行训练样本的采集与整理,并针对机器人的相机视角进行训练样本的补充,则这些样本组成设备模型训练数据库,然后由该数据库训练得到多目标检测与识别的YOLOv3模型,该模型能够同时检测一副图像中不同种类的目标,并得到该目标在图像中的位置信息。因此,本发明的方法是根据使用场景的特点,指定待检测的目标类别,可以有效提升目标检测的速度。
步骤2.将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,再将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配,更新重定位候选关键帧;
具体为:将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,若当前帧和某关键帧的图像中含有相同类别的物体,如都含有电视,则当前帧位置与关键帧的位置可能比较接近,因此将该关键帧作为重定位候选关键帧。
由于视觉导航中计算两帧之间的运动估计时,需要两帧间具有良好的特征点匹配,因此将当前帧与重定位候选关键帧的特征点信息进行匹配,若没达到匹配点数的阈值的关键帧,则从重定位候选关键帧删除,从而完成更新重定位候选关键帧。本方法中,这一步可以保证重定位候选关键帧的质量。
步骤3.在重定位候选关键帧选取一个目标关键帧,根据目标关键帧与当前帧的特征点信息,得到当前帧与目标关键帧的相对位置信息,并根据目标关键帧的全局位置信息,得到当前帧的全局位置信息。
具体的,选取目标关键帧的一种实现方法为:在重定位候选关键帧中,选取与当前帧特征点信息匹配度最高的作为目标关键帧。即最简单的准则就是在重定位候选关键帧中、选取与当前帧的特征点匹配数最多的作为目标关键帧;然后采用RANSAC基本矩阵算法或单应矩阵或RANSAC PnP算法或Bundle Adjustment算法或ICP算法,得到当前帧与目标关键帧的相对位置信息,并根据目标关键帧的全局位置信息,得到当前帧的全局位置信息。
由上可知,本发明提供的基于视觉语义信息的快速重定位方法,实现时仅使用单一的视觉传感器,结合视觉语义信息,在大场景重定位中,减少了重定位计算量,提升了重定位的实时性。
实施例二
如图2所示,一种基于视觉语义信息的快速重定位装置,包括关键帧数据库模块、重定位候选关键帧选择模块、全局位置获取模块、视觉语义信息获取模块。
其中,关键帧数据库模块用于建立和维护关键帧数据库,关键帧数据库用于存储获取的关键帧信息,关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息。
重定位候选关键帧选择模块将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,再将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配,更新重定位候选关键帧。
作为优选,本实施例中,重定位候选关键帧选择模块在重定位候选关键帧选取一个目标关键帧时具体是在重定位候选关键帧中,选取与当前帧特征点信息匹配度最高的作为目标关键帧,同时,重定位候选关键帧选择模块具体是采用RANSAC基本矩阵算法或单应矩阵或RANSAC PnP算法或Bundle Adjustment算法或ICP算法,得到当前帧与目标关键帧的相对位置信息。
全局位置获取模块用于在重定位候选关键帧选取一个目标关键帧,并根据目标关键帧与当前帧的特征点信息,得到当前帧与目标关键帧的相对位置信息,再根据目标关键帧的全局位置信息,得到当前帧的全局位置信息。
视觉语义信息获取模块用于获取图像帧的视觉语义信息。具体的,视觉语义信息获取模块获取图像帧的视觉语义信息时,具体方法为:先采集物体样本,构成物体模型训练数据库,并训练物体检测模型;然后根据图像帧及物体检测模型,得到视觉语义信息。
其中,上述的视觉语义信息至少包括关键帧对应的视觉图像中的物体信息,特征点信息包括关键点和描述子。
通过本实施例的基于视觉语义信息的快速重定位装置实现的一种基于粒子滤波器的快速初始定位的机器人设备中,该机器人能在任意位置、不需运动的情况下,由用户方便快捷的指定初始位置、并获取相对准确的粒子滤波器初始化参数,且经过静止状态下的粒子滤波器采样、重采样,可以实现得到更为准确的初始位置估计。
需要说明的是,本实施例中,本实施例中的各模块是逻辑意义上的,具体实现时,多个模块可以合并成一个模块或单元,一个模块也可以拆分成多个模块或单元。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分流程是可以通过程序来指令相关的硬件来完成,的程序可以存储于计算机可读取存储介质中,该程序在执行时,可包括如上各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (10)
1.一种基于视觉语义信息的快速重定位方法,其特征在于,包括以下步骤:
A.建立关键帧数据库,其中,所述关键帧数据库用于存储获取的关键帧信息,所述关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息;
B.将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,再将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配,更新重定位候选关键帧;
C.在重定位候选关键帧选取一个目标关键帧,根据所述目标关键帧与当前帧的特征点信息,得到当前帧与所述目标关键帧的相对位置信息,并根据所述目标关键帧的全局位置信息,得到当前帧的全局位置信息。
2.根据权利要求1所述的一种基于视觉语义信息的快速重定位方法,其特征在于,所述关键帧的所述视觉语义信息至少包括关键帧对应的视觉图像中的物体信息。
3.根据权利要求1或2所述的一种基于视觉语义信息的快速重定位方法,其特征在于,所述步骤A中获取关键帧的视觉语义信息时,具体包括以下步骤:
S1.采集物体样本,构成物体模型训练数据库,并训练物体检测模型;
S2.根据图像帧及物体检测模型,得到视觉语义信息。
4.根据权利要求1所述的一种基于视觉语义信息的快速重定位方法,其特征在于,所述关键帧的特征点信息包括关键点和描述子。
5.根据权利要求1所述的一种基于视觉语义信息的快速重定位方法,其特征在于,所述步骤C中在重定位候选关键帧选取一个目标关键帧时具体是在重定位候选关键帧中,选取与当前帧特征点信息匹配度最高的作为目标关键帧。
6.根据权利要求1所述的一种基于视觉语义信息的快速重定位方法,其特征在于,所述步骤C中得到当前帧与所述目标关键帧的相对位置信息时具体是采用RANSAC基本矩阵算法或单应矩阵或RANSAC PnP算法或Bundle Adjustment算法或ICP算法,得到当前帧与目标关键帧的相对位置信息。
7.一种基于视觉语义信息的快速重定位装置,其特征在于,包括关键帧数据库模块、重定位候选关键帧选择模块、全局位置获取模块,所述关键帧数据库模块用于建立和维护关键帧数据库,所述关键帧数据库用于存储获取的关键帧信息,所述关键帧信息包括关键帧的全局位置信息、特征点信息和视觉语义信息;所述重定位候选关键帧选择模块将当前帧的视觉语义信息与所有关键帧的视觉语义信息进行匹配,得到重定位候选关键帧,再将当前帧的特征点信息与重定位候选关键帧的特征点信息进行匹配,更新重定位候选关键帧;所述全局位置获取模块用于在重定位候选关键帧选取一个目标关键帧,并根据所述目标关键帧与当前帧的特征点信息,得到当前帧与所述目标关键帧的相对位置信息,再根据所述目标关键帧的全局位置信息,得到当前帧的全局位置信息。
8.根据权利要求7所述的一种基于视觉语义信息的快速重定位装置,其特征在于,还包括视觉语义信息获取模块,所述视觉语义信息获取模块用于获取图像帧的视觉语义信息。
9.根据权利要求8所述的一种基于视觉语义信息的快速重定位装置,其特征在于,所述视觉语义信息获取模块获取图像帧的视觉语义信息时,具体方法为:先采集物体样本,构成物体模型训练数据库,并训练物体检测模型;然后根据图像帧及物体检测模型,得到视觉语义信息。
10.根据权利要求7所述的一种基于视觉语义信息的快速重定位装置,其特征在于,重定位候选关键帧选择模块在重定位候选关键帧选取一个目标关键帧时具体是在重定位候选关键帧中,选取与当前帧特征点信息匹配度最高的作为目标关键帧,同时,重定位候选关键帧选择模块具体是采用RANSAC基本矩阵算法或单应矩阵或RANSAC PnP算法或BundleAdjustment算法或ICP算法,得到当前帧与目标关键帧的相对位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910463935.6A CN110189373A (zh) | 2019-05-30 | 2019-05-30 | 一种基于视觉语义信息的快速重定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910463935.6A CN110189373A (zh) | 2019-05-30 | 2019-05-30 | 一种基于视觉语义信息的快速重定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110189373A true CN110189373A (zh) | 2019-08-30 |
Family
ID=67719011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910463935.6A Pending CN110189373A (zh) | 2019-05-30 | 2019-05-30 | 一种基于视觉语义信息的快速重定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110189373A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110779528A (zh) * | 2019-11-07 | 2020-02-11 | 四川长虹电器股份有限公司 | 基于粒子滤波器的定位恢复方法及机器人设备 |
CN110796706A (zh) * | 2019-11-08 | 2020-02-14 | 四川长虹电器股份有限公司 | 视觉定位方法及系统 |
CN111178342A (zh) * | 2020-04-10 | 2020-05-19 | 浙江欣奕华智能科技有限公司 | 一种位姿图的优化方法、装置、设备及介质 |
CN111325842A (zh) * | 2020-03-04 | 2020-06-23 | Oppo广东移动通信有限公司 | 地图构建方法、重定位方法及装置、存储介质和电子设备 |
CN112102410A (zh) * | 2020-09-24 | 2020-12-18 | 四川长虹电器股份有限公司 | 基于粒子滤波器和视觉辅助的移动机器人定位方法及装置 |
CN113008274A (zh) * | 2021-03-19 | 2021-06-22 | 奥特酷智能科技(南京)有限公司 | 车辆初始化定位方法、系统及计算机可读介质 |
CN113552586A (zh) * | 2020-04-08 | 2021-10-26 | 杭州萤石软件有限公司 | 一种移动机器人的定位方法和移动机器人 |
CN114543819A (zh) * | 2021-09-16 | 2022-05-27 | 北京小米移动软件有限公司 | 车辆定位方法、装置、电子设备及存储介质 |
WO2022193813A1 (en) * | 2021-03-15 | 2022-09-22 | Midea Group Co., Ltd. | Method and apparatus for localizing mobile robot in environment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830220A (zh) * | 2018-06-15 | 2018-11-16 | 山东大学 | 基于深度学习的视觉语义库构建及全局定位方法 |
CN109003303A (zh) * | 2018-06-15 | 2018-12-14 | 四川长虹电器股份有限公司 | 基于语音和空间物体识别及定位的设备控制方法及装置 |
CN109658449A (zh) * | 2018-12-03 | 2019-04-19 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
CN109671105A (zh) * | 2018-12-19 | 2019-04-23 | 青岛小鸟看看科技有限公司 | 一种视觉导航系统的跟踪恢复方法和装置 |
-
2019
- 2019-05-30 CN CN201910463935.6A patent/CN110189373A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830220A (zh) * | 2018-06-15 | 2018-11-16 | 山东大学 | 基于深度学习的视觉语义库构建及全局定位方法 |
CN109003303A (zh) * | 2018-06-15 | 2018-12-14 | 四川长虹电器股份有限公司 | 基于语音和空间物体识别及定位的设备控制方法及装置 |
CN109658449A (zh) * | 2018-12-03 | 2019-04-19 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
CN109671105A (zh) * | 2018-12-19 | 2019-04-23 | 青岛小鸟看看科技有限公司 | 一种视觉导航系统的跟踪恢复方法和装置 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110779528A (zh) * | 2019-11-07 | 2020-02-11 | 四川长虹电器股份有限公司 | 基于粒子滤波器的定位恢复方法及机器人设备 |
CN110779528B (zh) * | 2019-11-07 | 2022-05-31 | 四川长虹电器股份有限公司 | 基于粒子滤波器的定位恢复方法及机器人设备 |
CN110796706A (zh) * | 2019-11-08 | 2020-02-14 | 四川长虹电器股份有限公司 | 视觉定位方法及系统 |
CN111325842B (zh) * | 2020-03-04 | 2023-07-28 | Oppo广东移动通信有限公司 | 地图构建方法、重定位方法及装置、存储介质和电子设备 |
CN111325842A (zh) * | 2020-03-04 | 2020-06-23 | Oppo广东移动通信有限公司 | 地图构建方法、重定位方法及装置、存储介质和电子设备 |
WO2021175022A1 (zh) * | 2020-03-04 | 2021-09-10 | Oppo广东移动通信有限公司 | 地图构建方法、重定位方法及装置、存储介质和电子设备 |
CN113552586A (zh) * | 2020-04-08 | 2021-10-26 | 杭州萤石软件有限公司 | 一种移动机器人的定位方法和移动机器人 |
CN113552586B (zh) * | 2020-04-08 | 2024-04-05 | 杭州萤石软件有限公司 | 一种移动机器人的定位方法和移动机器人 |
CN111178342A (zh) * | 2020-04-10 | 2020-05-19 | 浙江欣奕华智能科技有限公司 | 一种位姿图的优化方法、装置、设备及介质 |
CN111178342B (zh) * | 2020-04-10 | 2020-07-07 | 浙江欣奕华智能科技有限公司 | 一种位姿图的优化方法、装置、设备及介质 |
CN112102410A (zh) * | 2020-09-24 | 2020-12-18 | 四川长虹电器股份有限公司 | 基于粒子滤波器和视觉辅助的移动机器人定位方法及装置 |
WO2022193813A1 (en) * | 2021-03-15 | 2022-09-22 | Midea Group Co., Ltd. | Method and apparatus for localizing mobile robot in environment |
CN113008274A (zh) * | 2021-03-19 | 2021-06-22 | 奥特酷智能科技(南京)有限公司 | 车辆初始化定位方法、系统及计算机可读介质 |
CN114543819B (zh) * | 2021-09-16 | 2024-03-26 | 北京小米移动软件有限公司 | 车辆定位方法、装置、电子设备及存储介质 |
CN114543819A (zh) * | 2021-09-16 | 2022-05-27 | 北京小米移动软件有限公司 | 车辆定位方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110189373A (zh) | 一种基于视觉语义信息的快速重定位方法及装置 | |
CN108665508B (zh) | 一种即时定位与地图构建方法、装置及存储介质 | |
Harville et al. | Foreground segmentation using adaptive mixture models in color and depth | |
Nguyen et al. | Fast occluded object tracking by a robust appearance filter | |
CN107990899A (zh) | 一种基于slam的定位方法和系统 | |
US20180204070A1 (en) | Image processing apparatus and image processing method | |
US7308112B2 (en) | Sign based human-machine interaction | |
Wixson et al. | Using intermediate objects to improve the efficiency of visual search | |
US20120321134A1 (en) | Face tracking method and device | |
CN103105924B (zh) | 人机交互方法和装置 | |
CN106097385B (zh) | 一种目标跟踪的方法和装置 | |
Valiente García et al. | Visual Odometry through Appearance‐and Feature‐Based Method with Omnidirectional Images | |
CN109712171B (zh) | 一种基于相关滤波器的目标跟踪系统及目标跟踪方法 | |
CN113076891B (zh) | 基于改进高分辨率网络的人体姿态预测方法及系统 | |
CN108805056A (zh) | 一种基于3d人脸模型的摄像监控人脸样本扩充方法 | |
CN110287892A (zh) | 空位识别方法及装置 | |
Chiu et al. | Virtual training for multi-view object class recognition | |
CN110909685A (zh) | 姿势估计方法、装置、设备及存储介质 | |
CN107133260A (zh) | 一种地标图像的匹配识别方法和装置 | |
CN110647821B (zh) | 通过图像识别进行物体标识的方法和装置 | |
EP2237227A1 (en) | Video sequence processing method and system | |
CN115862067A (zh) | 手部姿态识别方法、装置、设备及存储介质 | |
KR101853276B1 (ko) | 깊이 영상에서의 손 영역 검출 방법 및 그 장치 | |
Paletta et al. | Context based object detection from video | |
JP2002027480A (ja) | 動画像処理方法および動画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190830 |
|
RJ01 | Rejection of invention patent application after publication |