CN108062537A - 一种3d空间定位方法、装置及计算机可读存储介质 - Google Patents
一种3d空间定位方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108062537A CN108062537A CN201711477476.4A CN201711477476A CN108062537A CN 108062537 A CN108062537 A CN 108062537A CN 201711477476 A CN201711477476 A CN 201711477476A CN 108062537 A CN108062537 A CN 108062537A
- Authority
- CN
- China
- Prior art keywords
- video
- dimensional coordinate
- space
- sparse cloud
- video flowing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种3D空间定位方法、装置及计算机可读存储介质,方法包括:根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。本发明中通过深度学习算法识别并定位视频流中出现的物体,再通过计算机视觉算法为场景构建3D稀疏点云,匹配识别的物体,计算出精度达到毫米级的物体在三维空间中的位置。
Description
技术领域
本发明涉及空间定位技术领域,尤其涉及一种3D空间定位方法、装置及计算机可读存储介质。
背景技术
目前Deep Learning(深度学习),可以识别并定位图片/视频中出现的常见物体。在AR(Augmented Reality,即增强现实技术)中需要对场景中出现的物体进行识别,但是仅仅识别2D图片/视频的位置是不够的,需要确定物体在3D空间的位置,才能精准的对物体进行空间定位。
因此,现有技术还有待于改进和发展。
发明内容
鉴于上述现有技术的不足之处,本发明的目的在于提供一种3D空间定位方法、装置及计算机可读存储介质,旨在解决现有技术中对场景中出现的物体进行识别,仅仅识别2D图片/视频的位置,无法精确确定物体在3D空间的位置的问题。
为了达到上述目的,本发明采取了以下技术方案:
一种3D空间定位方法,其中,所述方法包括以下步骤:
根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;
根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;
将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。
所述3D空间定位方法,其中,所述根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围的步骤,包括:
获取多帧图片流或视频流;
根据深度学习算法对多帧图片流或视频流中所出现的待定位物体进行识别,得到待定位物体的二维坐标范围。
所述3D空间定位方法,其中,所述根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流的步骤,包括:
根据同步定位与建图算法识别视频中待定位物体的特征点;
根据视频拍摄角度获取特征点的三维空间定位信息;
根据待定位物体的特征点、及对应的三维空间定位信息,获取视频中待定位物体的稀疏点云。
所述3D空间定位方法,其中,所述将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标的步骤,包括:
将待定位物体的二维坐标范围对应的直角坐标系带入待定位物体的稀疏点云;
在带入稀疏点云后的直角坐标中,获取与待定位物体的二维坐标范围对应的稀疏点云空间坐标;
根据待定位物体稀疏点云空间坐标,得到待定位物体的三维坐标。
所述3D空间定位方法,其中,所述同步定位与建图算法为扩展卡尔曼滤波法、或无迹卡尔曼滤波法。
一种3D空间定位装置,其中,所述3D空间定位装置包括处理器、存储器及通信总线;
所述通信总线用于实现处理器和存储器之间的连接通信;
所述处理器用于执行存储器中存储的3D空间定位程序,以实现以下步骤:
根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;
根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;
将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。
所述3D空间定位装置,其中,所述根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围的步骤,包括:
获取多帧图片流或视频流;
根据深度学习算法对多帧图片流或视频流中所出现的待定位物体进行识别,得到待定位物体的二维坐标范围。
所述3D空间定位装置,其中,所述根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流的步骤,包括:
根据同步定位与建图算法识别视频中待定位物体的特征点;
根据视频拍摄角度获取特征点的三维空间定位信息;
根据待定位物体的特征点、及对应的三维空间定位信息,获取视频中待定位物体的稀疏点云。
所述3D空间定位装置,其中,所述将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标的步骤,包括:
将待定位物体的二维坐标范围对应的直角坐标系带入待定位物体的稀疏点云;
在带入稀疏点云后的直角坐标中,获取与待定位物体的二维坐标范围对应的稀疏点云空间坐标;
根据待定位物体稀疏点云空间坐标,得到待定位物体的三维坐标。
一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现所述3D空间定位方法的步骤。
本发明提供的3D空间定位方法、装置及计算机可读存储介质,方法包括:根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。本发明中通过深度学习算法识别并定位视频流中出现的物体,再通过计算机视觉算法为场景构建3D稀疏点云,匹配识别的物体,计算出精度达到毫米级的物体在三维空间中的位置。
附图说明
图1为本发明所述的3D空间定位方法较佳实施例的流程图。
图2为本发明所述的3D空间定位方法中步骤S100的流程图。
图3为本发明所述的3D空间定位方法中步骤S200的流程图。
图4为本发明所述的3D空间定位方法中步骤S300的流程图。
图5a为本发明所述的3D空间定位方法的具体实施例中待定位物体的二维坐标范围的示意图。
图5b为本发明所述的3D空间定位方法的具体实施例中待定位物体的稀疏点云的示意图。
图5c为本发明所述的3D空间定位方法的具体实施例中待定位物体的三维坐标的示意图。
具体实施方式
本发明提供一种3D空间定位方法、装置及计算机可读存储介质,为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
请参阅图1,是本发明所述的3D空间定位方法较佳实施例的流程图。如图1所示,所述的3D空间定位方法,包括以下步骤:
步骤S100、根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;
步骤S200、根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;
步骤S300、将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。
本实施例中,通过深度学习算法识别并定位图片流或视频流中出现的物体(即待定位物体)的二维坐标范围。如图5a所示,通过深度学习算法可识别到图片流或视频流中(x1,y1)-(x4,y3)范围内物体为桌子,(x2,y2)-(x3,y4)范围内物体为杯子。
若此时只是知道待定位物体的二维坐标范围,是不足以应用到增强现实的技术中以实现对待定位物体的空间定位。由于摄像机拍摄待定位物体时,随着视频拍摄角度的移动,可以识别待定位物体上的特征点(多个特征点组成稀疏点云),并同时对待定位物体上的特征点进行空间定位。
最后,将待定位物体的稀疏点云对应的坐标系与定位物体的二维坐标系(即平面直角坐标系,X-Y直角坐标系)进行结合,将稀疏点云带入X-Y坐标系,即可准确得到物体在三维空间中的位置。
优选的,如图2所示,所述步骤S100包括:
步骤S101、获取多帧图片流或视频流;
步骤S102、根据深度学习算法对多帧图片流或视频流中所出现的待定位物体进行识别,得到待定位物体的二维坐标范围。
优选的,如图3所示,所述步骤S200包括:
步骤S201、根据同步定位与建图算法识别视频中待定位物体的特征点;
步骤S202、根据视频拍摄角度获取特征点的三维空间定位信息;
步骤S203、根据待定位物体的特征点、及对应的三维空间定位信息,获取视频中待定位物体的稀疏点云。
具体的,如图5b所示,根据同步定位与建图算法(Simultaneous localizationand mapping,简记为SLAM)识别视频流或图片流,生成稀疏点云,即从视频流或图片流中得到杯子的特征点(u1,v1,w1),桌子的第一特征点(u2,v2,w2)和桌子的第二特征点(u3,v3,w3),步骤S201-S203中得到的稀疏点云中包含所有待识别物体的空间坐标。
具体的,步骤S201中采用的所述同步定位与建图算法为扩展卡尔曼滤波法、或无迹卡尔曼滤波法。
优选的,如图4所示,所述步骤S300包括:
步骤S301、将待定位物体的二维坐标范围对应的直角坐标系带入待定位物体的稀疏点云;
步骤S302、在带入稀疏点云后的直角坐标中,获取与待定位物体的二维坐标范围对应的稀疏点云空间坐标;
步骤S303、根据待定位物体稀疏点云空间坐标,得到待定位物体的三维坐标。
具体的,如图5c所示,将X-Y直角坐标系带入SLAM所得到的稀疏点云,确定(x2,y2)-(x3,y4)范围内空间坐标(u1,v1,w1)等坐标为杯子的稀疏点云的空间坐标;确定(x1,y1)-(x4,y3)范围内稀疏点云(u2,v2,w2)和(u3,v3,w3),得到桌子稀疏点云的空间坐标,最终实现确定物体的空间位置。
可见,本发明中通过深度学习算法识别并定位视频流中出现的物体,再通过计算机视觉算法为场景构建3D稀疏点云,匹配识别的物体,计算出精度达到毫米级的物体在三维空间中的位置。
基于上述3D空间定位方法,本发明还提供一种3D空间定位装置。所述3D空间定位装置包括处理器、存储器及通信总线;
所述通信总线用于实现处理器和存储器之间的连接通信;
所述处理器用于执行存储器中存储的3D空间定位程序,以实现以下步骤:
根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;
根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;
将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。
优选的,在所述3D空间定位装置中,所述根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围的步骤,包括:
获取多帧图片流或视频流;
根据深度学习算法对多帧图片流或视频流中所出现的待定位物体进行识别,得到待定位物体的二维坐标范围。
优选的,在所述3D空间定位装置中,所述根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流的步骤,包括:
根据同步定位与建图算法识别视频中待定位物体的特征点;
根据视频拍摄角度获取特征点的三维空间定位信息;
根据待定位物体的特征点、及对应的三维空间定位信息,获取视频中待定位物体的稀疏点云。
优选的,在所述3D空间定位装置中,所述将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标的步骤,包括:
将待定位物体的二维坐标范围对应的直角坐标系带入待定位物体的稀疏点云;
在带入稀疏点云后的直角坐标中,获取与待定位物体的二维坐标范围对应的稀疏点云空间坐标;
根据待定位物体稀疏点云空间坐标,得到待定位物体的三维坐标。
基于上述3D空间定位装置,本发明还提供一种计算机可读存储介质。其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现所述3D空间定位方法的步骤。
综上所述,本发明提供的3D空间定位方法、装置及计算机可读存储介质,方法包括:根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。本发明中通过深度学习算法识别并定位视频流中出现的物体,再通过计算机视觉算法为场景构建3D稀疏点云,匹配识别的物体,计算出精度达到毫米级的物体在三维空间中的位置。
可以理解的是,对本领域普通技术人员来说,可以根据本发明的技术方案及本发明构思加以等同替换或改变,而所有这些改变或替换都应属于本发明所附的权利要求的保护范围。
Claims (10)
1.一种3D空间定位方法,其特征在于,所述方法包括以下步骤:
根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;
根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;
将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。
2.根据权利要求1所述3D空间定位方法,其特征在于,所述根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围的步骤,包括:
获取多帧图片流或视频流;
根据深度学习算法对多帧图片流或视频流中所出现的待定位物体进行识别,得到待定位物体的二维坐标范围。
3.根据权利要求1所述3D空间定位方法,其特征在于,所述根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流的步骤,包括:
根据同步定位与建图算法识别视频中待定位物体的特征点;
根据视频拍摄角度获取特征点的三维空间定位信息;
根据待定位物体的特征点、及对应的三维空间定位信息,获取视频中待定位物体的稀疏点云。
4.根据权利要求3所述3D空间定位方法,其特征在于,所述将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标的步骤,包括:
将待定位物体的二维坐标范围对应的直角坐标系带入待定位物体的稀疏点云;
在带入稀疏点云后的直角坐标中,获取与待定位物体的二维坐标范围对应的稀疏点云空间坐标;
根据待定位物体稀疏点云空间坐标,得到待定位物体的三维坐标。
5.根据权利要求1所述3D空间定位方法,其特征在于,所述同步定位与建图算法为扩展卡尔曼滤波法、或无迹卡尔曼滤波法。
6.一种3D空间定位装置,其特征在于,所述3D空间定位装置包括处理器、存储器及通信总线;
所述通信总线用于实现处理器和存储器之间的连接通信;
所述处理器用于执行存储器中存储的3D空间定位程序,以实现以下步骤:
根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围;
根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流;
将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标。
7.根据权利要求6所述3D空间定位装置,其特征在于,所述根据深度学习算法识别图片流或视频流中待定位物体的二维坐标范围的步骤,包括:
获取多帧图片流或视频流;
根据深度学习算法对多帧图片流或视频流中所出现的待定位物体进行识别,得到待定位物体的二维坐标范围。
8.根据权利要求6所述3D空间定位装置,其特征在于,所述根据同步定位与建图算法获取视频中待定位物体的稀疏点云;其中,视频为图片流或视频流的步骤,包括:
根据同步定位与建图算法识别视频中待定位物体的特征点;
根据视频拍摄角度获取特征点的三维空间定位信息;
根据待定位物体的特征点、及对应的三维空间定位信息,获取视频中待定位物体的稀疏点云。
9.根据权利要求8所述3D空间定位装置,其特征在于,所述将待定位物体的稀疏点云带入待定位物体的二维坐标范围,得到待定位物体的三维坐标的步骤,包括:
将待定位物体的二维坐标范围对应的直角坐标系带入待定位物体的稀疏点云;
在带入稀疏点云后的直角坐标中,获取与待定位物体的二维坐标范围对应的稀疏点云空间坐标;
根据待定位物体稀疏点云空间坐标,得到待定位物体的三维坐标。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-5任一项所述3D空间定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711477476.4A CN108062537A (zh) | 2017-12-29 | 2017-12-29 | 一种3d空间定位方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711477476.4A CN108062537A (zh) | 2017-12-29 | 2017-12-29 | 一种3d空间定位方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108062537A true CN108062537A (zh) | 2018-05-22 |
Family
ID=62140860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711477476.4A Pending CN108062537A (zh) | 2017-12-29 | 2017-12-29 | 一种3d空间定位方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108062537A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109211210A (zh) * | 2018-09-25 | 2019-01-15 | 深圳市超准视觉科技有限公司 | 一种目标物体的识别定位测量方法及装置 |
CN110276801A (zh) * | 2019-06-24 | 2019-09-24 | 深圳前海达闼云端智能科技有限公司 | 一种物体定位方法、装置及存储介质 |
WO2020155615A1 (zh) * | 2019-01-28 | 2020-08-06 | 速感科技(北京)有限公司 | Vslam方法、控制器和可移动设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070031064A1 (en) * | 2004-06-10 | 2007-02-08 | Wenyi Zhao | Method and apparatus for aligning video to three-dimensional point clouds |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN105512646A (zh) * | 2016-01-19 | 2016-04-20 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及终端 |
CN106971403A (zh) * | 2017-04-27 | 2017-07-21 | 武汉数文科技有限公司 | 点云图像处理方法及装置 |
US9773313B1 (en) * | 2014-01-03 | 2017-09-26 | Google Inc. | Image registration with device data |
-
2017
- 2017-12-29 CN CN201711477476.4A patent/CN108062537A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070031064A1 (en) * | 2004-06-10 | 2007-02-08 | Wenyi Zhao | Method and apparatus for aligning video to three-dimensional point clouds |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
US9773313B1 (en) * | 2014-01-03 | 2017-09-26 | Google Inc. | Image registration with device data |
CN105512646A (zh) * | 2016-01-19 | 2016-04-20 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及终端 |
CN106971403A (zh) * | 2017-04-27 | 2017-07-21 | 武汉数文科技有限公司 | 点云图像处理方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109211210A (zh) * | 2018-09-25 | 2019-01-15 | 深圳市超准视觉科技有限公司 | 一种目标物体的识别定位测量方法及装置 |
WO2020155615A1 (zh) * | 2019-01-28 | 2020-08-06 | 速感科技(北京)有限公司 | Vslam方法、控制器和可移动设备 |
CN110276801A (zh) * | 2019-06-24 | 2019-09-24 | 深圳前海达闼云端智能科技有限公司 | 一种物体定位方法、装置及存储介质 |
CN110276801B (zh) * | 2019-06-24 | 2021-09-28 | 达闼机器人有限公司 | 一种物体定位方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986161B (zh) | 一种三维空间坐标估计方法、装置、终端和存储介质 | |
CN106875444B (zh) | 一种目标物定位方法及装置 | |
KR102468897B1 (ko) | 깊이 값을 추정하는 방법 및 장치 | |
JP6338021B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR101633620B1 (ko) | 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법 | |
KR100755450B1 (ko) | 평면 호모그래피를 이용한 3차원 재구성 장치 및 방법 | |
CN112686877B (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
CN106210538A (zh) | 在用户设备上显示基于光场的图像的方法和装置及程序 | |
CN107358633A (zh) | 一种基于三点标定物的多相机内外参标定方法 | |
US9361731B2 (en) | Method and apparatus for displaying video on 3D map | |
EP2917754A1 (en) | Image processing method, particularly used in a vision-based localization of a device | |
CN102395036A (zh) | 用于提供3d增强现实图像的设备和方法 | |
CN108062537A (zh) | 一种3d空间定位方法、装置及计算机可读存储介质 | |
KR20180039013A (ko) | 전자 디바이스 상에서의 환경 맵핑을 위한 피쳐 데이터 관리 | |
CN108534789B (zh) | 一种多路径定位坐标统一方法、电子设备和可读存储介质 | |
CN109903330A (zh) | 一种处理数据的方法和装置 | |
CN108122280A (zh) | 一种三维点云的重建方法及装置 | |
CN110009571A (zh) | 相机图像中检测位置的经纬度计算方法、系统及存储介质 | |
KR20170030325A (ko) | 입방체 복원 장치 및 방법 | |
CN107707899A (zh) | 包含运动目标的多视角图像处理方法、装置及电子设备 | |
Kim et al. | Recursive estimation of motion and a scene model with a two-camera system of divergent view | |
Gao et al. | Marker tracking for video-based augmented reality | |
JP2020201922A (ja) | 拡張現実アプリケーションに関するシステム及び方法 | |
Guo et al. | Optimization design of non-coplanar target for pose measurement with monocular vision system | |
US10657659B1 (en) | Visual simultaneous localization and mapping system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220117 Address after: 210000 room r635, 6 / F, No. 6, shuiyougang, Gulou District, Nanjing, Jiangsu Province Applicant after: Xindiyaoshi (Nanjing) Network Technology Co.,Ltd. Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.) Applicant before: HIPPO INFORMATION TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
TA01 | Transfer of patent application right |