CN109035327B - 基于深度学习的全景相机姿态估计方法 - Google Patents
基于深度学习的全景相机姿态估计方法 Download PDFInfo
- Publication number
- CN109035327B CN109035327B CN201810658881.4A CN201810658881A CN109035327B CN 109035327 B CN109035327 B CN 109035327B CN 201810658881 A CN201810658881 A CN 201810658881A CN 109035327 B CN109035327 B CN 109035327B
- Authority
- CN
- China
- Prior art keywords
- panoramic
- camera
- rotation matrix
- picture
- panoramic camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013135 deep learning Methods 0.000 title claims abstract description 18
- 239000011159 matrix material Substances 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 7
- 238000009877 rendering Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
- G06T3/073—Transforming surfaces of revolution to planar images, e.g. cylindrical surfaces to planar images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公布了一种基于深度学习的全景相机姿态估计方法,基于深度卷积网络和消失点,对全景相机的三维朝向进行估计,只需给定单张全景图片即能较快地估计得到相机相对于世界的旋转矩阵;包括:图像数据采集、图像数据处理、建立用于全景相机姿态估计的新的网络结构PanoNet、训练PanoNet并预测估计全景相机姿态。本发明使用单张全景图片,能够在有遮挡,有空洞,弱纹理等场景下,估计全景相机相对于世界坐标系的旋转。方法的鲁棒性高。
Description
技术领域
本发明涉及全景相机姿态估计方法,尤其涉及一种新的基于深度学习的全景相机姿态估计方法,该方法能够从单张全景图片中准确地估计出相机相对于世界坐标系的旋转矩阵即全景相机姿态。
背景技术
相机姿态估计一直是计算机视觉中热门的研究方向,也是计算机视觉中的一个基本问题,它在我们的生活中具有广泛的应用,比如无人机,自动驾驶,虚拟现实等方面。现有的相机姿态估计主要有三种方法。
第一种方法主要是基于多视点几何,给定多张图片,首先提取每张图片的特征点,主要有SIFT,SURF,ORB等特征点提取方法,然后将每帧的特征点匹配起来,然后根据视觉几何的方法,计算相机的旋转。这种方法主要有两个较大的问题,首先,对于弱纹理或无纹理的场景很难得到鲁棒的结果。其次,采用这种方法,只能得到摄像机相对于初始帧的旋转,无法得到相对于世界坐标系的旋转再者,该方法需要同一个场景的多张图片,对于数据的数量有要求。因此,该方法的局限性比较大。
第二种方法是利用消失点,消失点即空间中的平行直线在图像中的交点。如果能辨识出消失点的平面坐标,也能够估计相机的旋转,但是对于全景相机来说,空间中的直线基本都发生较大的畸变,变成曲线,很难检测到曲线的交点,因此该方法并不直接适用于全景图像。
第三种方法就是当前流行的基于深度学习的方法。利用大量的有标记的图片数据训练神经网络,输出相机的旋转。但是该方法也存在问题,一个是大量标记的数据很难得到,其次是,预测的标签的选择,如果直接输出欧拉角的话,欧拉角具有奇异性,周期性,效果会比较差,而如果输出四元数的话,四元数的语义性比较弱,难以得到较好的结果。
因此,上述现有的三种方法都存在较大的问题,很难应用到实际中去。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于深度学习的全景相机姿态估计方法,将现在流行的深度卷积网络与利用消失点估计相机姿态的方法结合起来,估计全景相机相对于世界坐标系的旋转,从而得到全景相机姿态估计。本发明尽量使用单张全景图片,能够在有遮挡,有空洞,弱纹理等场景下,估计全景相机相对于世界坐标系的旋转,方法的鲁棒性高。
本发明的技术方案如下:
一种基于深度学习的全景相机姿态估计方法,基于深度卷积网络和消失点对全景相机的三维朝向进行估计,使用本发明方法,只需给定单张全景图片就能够较快的估计相机相对于世界的旋转矩阵,在有遮挡,光线较差的条件下仍然能够取得较好的效果;包括如下步骤:
1)图像数据采集:获取区域的全景图片;
具体实施时,在谷歌街景中选取各个大城市,在每个城市中随机选取城市的内部区域,模拟相机采集全景图片;
2)图像数据处理:将全景图片转换为透视投影下的图片,在透视投影图片下,标记相机相对世界坐标系的三维旋转矩阵。然后利用OpenGL的渲染技术以及纹理贴图技术模拟相机的不同旋转,生成新视角的图片以及旋转矩阵。
将全景图片转换为透视投影下的图片,具体地:首先将全景图片纹理映射在单位球的表面,然后在单位球的内部放置同心立方体,在球心处放置虚拟针孔模型相机,得到六张透视投影图片,球心到立方体表面的距离为焦距f。
标记旋转矩阵具体是:在六张透视图片中标记消失点,作为旋转矩阵的三个列向量;标记方法为:选取垂直于地面的多条直线,在图像平面上的这些直线并不平行,求直线簇的交点,同时选取水平两个方向的多条直线,分别计算其交点,得到空间中三个垂直方向的消失点。
在图片中标记空间中两个垂直方向的直线的交点(x1,y1),(x2,y2),然后将焦距作为第三维向量,叉乘,得到第三个方向的点的坐标。
3)网络结构设计:设计具有两个并行输出的网络结构,该网络结构的两个输出分支分别输出两个方向的消失点,该消失点同时是旋转矩阵的两个方向向量。
具体实施时,采用pytorch框架,基于当前流行的卷积网络,包括:Vgg19,GoogLenet,Resnet50,本发明建立了新型的网络结构PanoNet,来进行相机旋转的预测。该网络的输出包含两个并行的分支,分别输出旋转矩阵的两个列向量。
4)训练网络:采用小批量随机梯度下降的方法,利用已采集的和预处理之后的图片训练网络。
具体实施时,采用minibatch SGD,即小批量随机梯度下降的方法,采用从谷歌街景中获取的数据,以及半自动生成的数据,训练本发明建立的网络PanoNet;
再测试网络的输出,可利用测试数据,测试网络的性能,性能包括网络的泛化能力,以及网络的输出的准确性。
5)预测过程:给定单张全景图片,输入到训练好的网络,网络输出两个三维单位列向量,将其作为旋转矩阵的前两列,叉积得到第三列,这样就得到相机相对于世界的旋转矩阵,即全景相机姿态。
旋转矩阵是一个3x3的矩阵R,具体形式如下:
且满足:
RRT=I
det(R)=1
其中,I是三行三列的单位矩阵,det()表示对矩阵求行列式。即旋转矩阵与自身的转置的乘积单位矩阵,旋转矩阵的行列式是1。
通过上述步骤,实现基于深度学习的全景相机姿态估计。
与现有技术相比,本发明的有益效果是:
本发明提供一种基于深度学习的全景相机姿态估计方法,针对现在流行的深度卷积网络,利用消失点估计相机姿态的方法,估计全景相机相对于世界坐标系的旋转矩阵。
本发明方法能够从单张全景图片中准确地估计出相机相对于世界坐标系的旋转矩阵,由于使用了半自动数据生成的方法,因此实际需要标记的数据并不多,而且再用深度卷积网络和消失点结合的方法,既使得网络的预测具有较强的语义性,又使得旋转矩阵估计的鲁棒性比较好,对于一些弱纹理,有遮挡的场景,依然能够得到准确的结果。
附图说明
图1为本发明实施例提供方法的流程框图。
图2为本发明实施例进行数据预处理中的投影变换示意图。
图3为从谷歌街景中采集的实际的数据图片。
图4为本发明实施例采用本发明方法得到的结果图;
其中,实线箭头代表相机坐标系的三个坐标轴向量在世界坐标系下的朝向的真值,虚线代表估计的结果。
具体实施方式
为了更好的理解本发明的技术方案,以下结合附图做进一步的详细说明。
本发明提供一种基于深度学习的全景相机姿态估计方法,将现在流行的深度卷积网络与利用消失点估计相机姿态的方法结合起来,估计全景相机相对于世界坐标系的旋转矩阵。
采用本发明提供方法,利用一台全景相机拍出来的一张图片,估计出相机相对于世界坐标系的旋转矩阵R;估计方法如下:
A.数据采集阶段,包括一个步骤:
1)编写数据采集程序,从谷歌街景采集全景图片;
B.数据预处理阶段,包括三个阶段:
2)将全景图片投影为透视投影图片;
3)编写程序,在透视投影图片下标记相机旋转矩阵;
4)模拟相机的不同旋转,生成新的图片以及旋转矩阵;
C.设计深度卷积网络阶段,包括一个步骤:
5)设计适合于相机姿态估计的网络结构;
D.训练卷积网络,包括两个步骤:
6)采用优化方法训练;
7)测试网络的输出,获得误差为4度的结果。
以下实施例采集谷歌街景图像数据,利用本发明提供的基于深度学习的全景相机姿态估计方法,对全景相机姿态进行估计。图1为本发明实施例提供方法的流程框图。由图1可以看出,基于深度学习的全景相机姿态估计的整个处理过程由四个阶段组成:数据采集,数据预处理,网络结构设计,训练网络。
1、阶段一:图像采集
该阶段包括图像数据采集一个步骤,主要在谷歌街景中选取前十个大城市,然后在这些城市随机选择地点,利用模拟相机拍摄图片数据,图3为从谷歌街景中采集的实际数据。
2、阶段二:数据预处理
此阶段由三个部分组成:透视投影图片转换,标记旋转矩阵生成新的图片以此扩大训练的数据量使旋转矩阵估计更准确。
将阶段一中采集的数据转换为透视投影图片,即普通的针孔相机拍摄的图片,然后在透视图片中标记旋转矩阵,具体标记过程为:分别选取在三维中三个垂直方向的平行直线束,由于采用针孔模型,平行直线束在图像中存在交点,手工标记直线束,并求取三个方向的交点。图2为本发明实施例进行数据预处理中的投影变换示意,为两个同心的立方体和单位球,首先利用OpenGL的纹理贴图,将原始的全景图贴在单位球的表面上,然后从球心引出射线该涉嫌与球面和立方体表面的分别有一个交点,这样可以将球面纹理投影到立方体的表面上,得到六张透视图片,之后在透视图片上进行消失点标记。
为了增大训练数据的数量,利用OpenGL的渲染技术以及纹理贴图技术,模拟摄像机的不同旋转,产生新的视角的全景图片,以及对应的旋转矩阵。
采用这种半自动生成数据的方法,能够在极大的节省手工标注的工作量的同时,生成大量有标记的数据。
3、阶段三:设计深度卷积网络结构
本阶段基于现有的效果较好的基本网络结构Vgg19,Resnet50,GoogLenet,进行改进,建立新的网络结构PanoNet,具体地,输入原始的全景图片,去掉网络已有的全连接层,增加两个并行的全连接分支,分别输出两个三维的列向量,对应于旋转矩阵的前两列。
4、阶段四:利用阶段二构造的数据训练深度卷积网络PanoNet,得到网络的参数,即神经网络的权重以及偏置量;
5、预测阶段:给定一张全景图片,输入到训练好的网络PanoNet,网络输出两个三维的列向量,通过叉积得到第三个列向量,三个列向量分别是旋转矩阵的三列,这样就得到了相机相对于世界坐标系的旋转矩阵。
图4为本发明实施例采用本发明方法进行全景相机姿态估计得到的结果图。实线箭头为相机坐标系在世界坐标系中的真实朝向,虚线箭头是通过本发明的方法估计的结果,可以看到误差基本在度以内,本发明方法的精度超过现有的方法。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (7)
1.一种基于深度学习的全景相机姿态估计方法,基于深度卷积网络和消失点,对全景相机的三维朝向进行估计,只需给定单张全景图片即能估计得到相机相对于世界的旋转矩阵;包括如下步骤:
1)图像数据采集:获取区域的全景图片;
2)图像数据处理,执行如下操作:
21)将全景图片转换为透视投影下的图片;具体地:首先将全景图片纹理映射在单位球的表面,然后在单位球的内部放置同心立方体,在球心处放置虚拟针孔模型相机,球心到立方体表面的距离为焦距f,得到六张透视投影图片;
22)在透视投影图片下,标记相机相对世界坐标系的三维旋转矩阵;
23)利用渲染技术及纹理贴图技术模拟相机的不同旋转,生成新视角的图片及旋转矩阵;标记旋转矩阵;
标记旋转矩阵具体是:在六张透视图片中标记消失点,作为旋转矩阵的三个列向量,即得到三维旋转矩阵;
3)建立用于全景相机姿态估计的新的网络结构PanoNet:设计具有两个并行输出的网络结构,两个并行输出分支分别输出两个方向的消失点,输出的消失点同时是旋转矩阵的两个方向向量;
4)训练步骤3)新建的网络结构,具体是采用小批量随机梯度下降的方法,利用步骤1)和步骤2)得到的图片训练网络;
5)预测估计全景相机姿态:给定单张全景图片,输入到训练好的网络,网络输出两个三维单位列向量,作为旋转矩阵的前两列向量,叉积得到第三列向量,即得到相机相对于世界的旋转矩阵,即全景相机姿态;
所述旋转矩阵是一个3×3的矩阵R;且满足:
RRT=I
det(R)=1
其中,I是三行三列的单位矩阵;det()表示对矩阵求行列式;
通过上述步骤,实现基于深度学习的全景相机姿态估计。
2.如权利要求1所述基于深度学习的全景相机姿态估计方法,其特征是,步骤1)图像数据采集,具体是通过在谷歌街景中选取各个大城市,在每个城市中随机选取城市的内部区域,模拟相机采集全景图片。
3.如权利要求1所述基于深度学习的全景相机姿态估计方法,其特征是,步骤23)具体是利用OpenGL的渲染技术及纹理贴图技术模拟相机的不同旋转,生成新视角的图片以及旋转矩阵。
4.如权利要求1所述基于深度学习的全景相机姿态估计方法,其特征是,步骤23)中,标记消失点的方法具体是:在六张透视图片中,选取垂直于地面的多条直线,在图像平面上的这些直线并不平行,求直线簇的交点;同时选取水平两个方向的多条直线,分别计算交点,得到空间中三个垂直方向的消失点。
5.如权利要求4所述基于深度学习的全景相机姿态估计方法,其特征是,在图片中标记空间中两个垂直方向的直线的交点(x1,y1),(x2,y2),然后将焦距作为第三维向量,进行叉乘,得到第三个方向的点的坐标。
6.如权利要求1所述基于深度学习的全景相机姿态估计方法,其特征是,步骤3)建立用于全景相机姿态估计的新的网络结构,具体采用pytorch框架,基于卷积网络建立新型的网络结构PanoNet,来进行相机旋转的预测;网络结构PanoNet的输出包含两个并行的分支,分别输出两个方向的消失点,输出的消失点同时是旋转矩阵的两个列向量。
7.如权利要求6所述基于深度学习的全景相机姿态估计方法,其特征是,卷积网络包括:Vgg19、GoogLenet、Resnet50。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810658881.4A CN109035327B (zh) | 2018-06-25 | 2018-06-25 | 基于深度学习的全景相机姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810658881.4A CN109035327B (zh) | 2018-06-25 | 2018-06-25 | 基于深度学习的全景相机姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109035327A CN109035327A (zh) | 2018-12-18 |
CN109035327B true CN109035327B (zh) | 2021-10-29 |
Family
ID=64610692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810658881.4A Active CN109035327B (zh) | 2018-06-25 | 2018-06-25 | 基于深度学习的全景相机姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109035327B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903332A (zh) * | 2019-01-08 | 2019-06-18 | 杭州电子科技大学 | 一种基于深度学习的目标姿态估计方法 |
CN109872343B (zh) * | 2019-02-01 | 2020-03-17 | 视辰信息科技(上海)有限公司 | 弱纹理物体姿态跟踪方法、系统及装置 |
CN109977827B (zh) * | 2019-03-17 | 2020-11-13 | 浙江大学 | 一种使用多视图匹配方法的多人三维姿态估计方法 |
CN110248178B (zh) * | 2019-06-18 | 2021-11-23 | 深圳大学 | 利用物体跟踪和历史轨迹全景视频的视口预测方法及系统 |
CN110298881A (zh) * | 2019-08-02 | 2019-10-01 | 苏州天瞳威视电子科技有限公司 | 一种基于图像的相机姿态估计方法 |
CN111161336B (zh) * | 2019-12-18 | 2021-01-29 | 北京城市网邻信息技术有限公司 | 三维重建方法、三维重建装置和计算机可读存储介质 |
CN112634363B (zh) * | 2020-12-10 | 2023-10-03 | 上海零眸智能科技有限公司 | 一种货架姿态预估方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105627991A (zh) * | 2015-12-21 | 2016-06-01 | 武汉大学 | 一种无人机影像实时全景拼接方法及系统 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN107507230A (zh) * | 2017-08-31 | 2017-12-22 | 成都观界创宇科技有限公司 | 应用于全景图像的目标跟踪方法及全景相机 |
CN107622257A (zh) * | 2017-10-13 | 2018-01-23 | 深圳市未来媒体技术研究院 | 一种神经网络训练方法及三维手势姿态估计方法 |
CN108062776A (zh) * | 2018-01-03 | 2018-05-22 | 百度在线网络技术(北京)有限公司 | 相机姿态跟踪方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102209008B1 (ko) * | 2014-02-17 | 2021-01-28 | 삼성전자주식회사 | 카메라 포즈 추정 장치 및 카메라 포즈 추정 방법 |
US20150310601A1 (en) * | 2014-03-07 | 2015-10-29 | Digimarc Corporation | Methods and arrangements for identifying objects |
-
2018
- 2018-06-25 CN CN201810658881.4A patent/CN109035327B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105627991A (zh) * | 2015-12-21 | 2016-06-01 | 武汉大学 | 一种无人机影像实时全景拼接方法及系统 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN107507230A (zh) * | 2017-08-31 | 2017-12-22 | 成都观界创宇科技有限公司 | 应用于全景图像的目标跟踪方法及全景相机 |
CN107622257A (zh) * | 2017-10-13 | 2018-01-23 | 深圳市未来媒体技术研究院 | 一种神经网络训练方法及三维手势姿态估计方法 |
CN108062776A (zh) * | 2018-01-03 | 2018-05-22 | 百度在线网络技术(北京)有限公司 | 相机姿态跟踪方法和装置 |
Non-Patent Citations (4)
Title |
---|
Estimating deformation factors of planar patterns in spherical panoramic images;Bo-Sung Kim等;《Multimedia Systems》;20160418;第23卷;第607-625页 * |
Robust camera pose estimation by viewpoint classification using deep learning;Yoshikatsu Nakajima等;《Computational Visual Media》;20161206;第3卷;第189-198页 * |
Walkthrough in large environments using concatenated panoramas;Xianghua Ying等;《Proceedings of the 2009 IEEE International Conference on Robotics and Biomimetics》;20091223;第286-291页 * |
基于双目视觉的动态目标定位与抓取研究;夏菠等;《中国优秀硕士学位论文全文数据库信息科技辑》;20170315(第03期);第I138-4245页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109035327A (zh) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109035327B (zh) | 基于深度学习的全景相机姿态估计方法 | |
CN102750704B (zh) | 一种摄像机分步自标定方法 | |
CN105825518B (zh) | 基于移动平台拍摄的序列图像快速三维重建方法 | |
Zhuang et al. | Acdnet: Adaptively combined dilated convolution for monocular panorama depth estimation | |
US9942535B2 (en) | Method for 3D scene structure modeling and camera registration from single image | |
CN109472828B (zh) | 一种定位方法、装置、电子设备及计算机可读存储介质 | |
CN106803267A (zh) | 基于Kinect的室内场景三维重建方法 | |
Won et al. | End-to-end learning for omnidirectional stereo matching with uncertainty prior | |
CN114359509B (zh) | 一种基于深度学习的多视图自然场景重建方法 | |
CN110246181A (zh) | 基于锚点的姿态估计模型训练方法、姿态估计方法和系统 | |
CN104463969B (zh) | 一种对航空倾斜拍摄的地理照片的模型的建立方法 | |
CN116051747A (zh) | 一种基于缺失点云数据的房屋三维模型重建方法及设备、介质 | |
Komatsu et al. | 360 depth estimation from multiple fisheye images with origami crown representation of icosahedron | |
CN113034581A (zh) | 基于深度学习的空间目标相对位姿估计方法 | |
CN108010122B (zh) | 一种人体三维模型重建与测量的方法及系统 | |
CN113192200A (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
CN103955960A (zh) | 一种基于单幅输入图像的图像视点变换方法 | |
Zhu et al. | Large-scale architectural asset extraction from panoramic imagery | |
CN107240149A (zh) | 基于图像处理的物体三维模型构建方法 | |
CN114693782A (zh) | 用于确定三维场景模型坐标系和物理坐标系的转换关系的方法及装置 | |
Hyeon et al. | Automatic spatial template generation for realistic 3d modeling of large-scale indoor spaces | |
CN113744361B (zh) | 一种基于三目视觉的三维高精地图构建方法及装置 | |
Tingdahl et al. | Arc3d: A public web service that turns photos into 3d models | |
Skuratovskyi et al. | Outdoor mapping framework: from images to 3d model | |
CN114511637A (zh) | 一种基于构造强特征的弱特征物体图像三维重建系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |