CN112053441A - 一种室内鱼眼图像的全自动布局恢复方法 - Google Patents
一种室内鱼眼图像的全自动布局恢复方法 Download PDFInfo
- Publication number
- CN112053441A CN112053441A CN202011096920.XA CN202011096920A CN112053441A CN 112053441 A CN112053441 A CN 112053441A CN 202011096920 A CN202011096920 A CN 202011096920A CN 112053441 A CN112053441 A CN 112053441A
- Authority
- CN
- China
- Prior art keywords
- image
- coordinates
- corner
- indoor
- layout
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种室内鱼眼图像的全自动布局恢复方法,步骤为:(1)构建室内鱼眼图像数据集;(2)建立基于变形卷积的神经网络模型,设置相应的模型参数;(3)将训练集输入模型进行训练优化;(4)将测试集输入优化后的模型,输出角点概率图和边概率图;(5)将角点概率图二值化,提取角点图像坐标,基于正交投影模型和角点图像坐标,恢复三维室内布局。对于给定的RGB鱼眼图像,本方法首次实现了从单幅鱼眼图像中端到端地恢复出三维室内场景布局,应用于机器人技术和虚拟/增强现实,提升了室内场景理解的速度和精度。
Description
技术领域
本申请实施例涉及室内场景理解技术领域,尤其涉及一种室内鱼眼图像的全自动布局恢复方法。
背景技术
室内场景理解技术领域是指通过对室内场景进行视觉分析,从而得到室内场景的空间布局结构。室内布局估计作为室内场景理解的一个子任务,是指从单张或多张室内照片中估计出三维室内布局,在机器人导航、虚拟/增强现实、智慧城市、室内监控等领域有广泛的应用。
室内布局估计技术领域发展出了很多方法,大多数的方法假设室内布局满足曼哈顿世界模型。传统的室内布局估计方法根据透视图像内的几何信息提取场景内的直线,生成一系列的布局估计假设,然后基于方位图、几何上下文信息选出最符合真实场景的假设最后布局估计的结果。
传统相机拍摄得到的透视图的视角较小,每次只能恢复出室内布局的局部结构,因此Yinda Zhang等人提出使用视角360°的全景图像用于室内布局估计。
卷积神经网络在图像分割、目标识别、图像分类等问题上较好的表现让研究者开始探索基于卷积神经网络解决室内布局估计问题。Zou等人提出一个名为LayoutNet的网络改进布局估计,Sun等人提出名为HorizonNet的网络学习室内布局。
但是,全景图像是将多张透视图像经过图像拼接得到的,会引入一定的误差;而且全景相机拍摄全景图像的成本较高。
发明内容
本发明的技术解决问题:克服全景图像存在一定误差以及拍摄成本高的不足,提出一种室内鱼眼图像的全自动布局恢复方法。
本发明的技术解决方案如下:一种室内鱼眼图像的全自动布局恢复方法,步骤如下:
(1)构建室内鱼眼图像数据集;
(2)建立基于变形卷积的神经网络模型,设置相应的模型参数;
(3)将训练集输入模型进行训练优化;
(4)将测试集输入优化后的模型,输出角点概率图和边概率图;
(5)将角点概率图二值化,提取角点图像坐标,基于正交投影模型和角点图像坐标,恢复三维室内布局。
可选地,所述构建室内鱼眼图像数据集,包括:
(1)获取室内场景的RGB鱼眼图像和角点图像坐标;
(2)生成像素值全为0、大小为1024×1024的像素矩阵,以角点图像坐标为圆心,将半径为6的区域内的像素值改为(0,0,255),把修改后的像素矩阵保存为单通道的角点图;
(3)基于角点图像坐标,生成1024×1024的三通道边图。
可选地,所述建立基于变形卷积的神经网络模型,包括:
(1)提取鱼眼有效区域:以像素点(512,512)为圆心,半径为512像素的区域。将有效区域外像素点的偏移量设置为(0,0);
(2)基于正交投影模型和变形卷积提出正交卷积OrthConv,求解有效区域内像素点的偏移量:正交卷积与标准卷积采样点坐标的差值;
(3)建立基于变形卷积、遵循编码器-解码器策略的网络模型。
可选地,所述将角点概率图二值化,提取角点图像坐标,基于正交投影模型和角点图像坐标,恢复三维室内布局,包含:
(1)将角点概率图二值化,标记二值图像中的连通区域;
(2)求取连通区域的重心作为角点图像坐标;
(3)基于正交投影,将图像坐标转换为空间三维坐标,生成室内布局的三维点云;
(4)将点云的三维空间坐标映射为图像坐标,生成布局纹理。
可选地,所述基于角点图像坐标,生成1024×1024的三通道边图,包括:
u=px-512
v=py-512
x=r×cosθ
y=r×sinθ
(3)将经纬坐标(φ′,θ′)转换为图像坐标(px′,py′),计算公式如下:
px′=512+512×sinφ′×cosθ′
py′=512+512×sinφ′×sinθ′
(4)以图像坐标(px′,py′)为圆心,将半径为2的区域内的像素值改为(0,255,0),将修改后的像素矩阵保存为三通道的边图。
可选地,所述基于变形卷积提出OrthConv,求解有效区域内像素点的偏移量,包含:
其中,kw为卷积核的宽度,imageW为待处理图像的宽度;
其中,Ry(θ)表示将y轴逆时针旋转角度θ得到的旋转矩阵;
(4)将向量p′=[x,y,z]转换为图像坐标(px′,py′),偏移量(offsetx,offsety)的计算公式如下:
offsetx=px′-px
offsety=py′-py
可选地,所述建立基于变形卷积、遵循编码器-解码器策略的网络模型,包含:
(1)编码器包含7层卷积层,每一层卷积后跟随一个ReLU操作和最大池化层,下采样因子为2;
(2)解码器包含2个分支,上层分支作为布局边概率图预测器,下层分支作为布局角点概率图预测器;
(3)解码器分支采用最邻近插值,包含7层上采样操作,上采样后跟随卷积层;
(4)编码器的7层卷积层中前三层使用标准卷积,后四层使用OrthConv,解码器的7层卷积层中前四层使用OrthConv,后三层使用标准卷积。
本发明与现有技术相比的优点在于:
(1)现有的室内布局估计技术对全景图像进行处理。全景图像在由多张透视图进行图像拼接时存在一定误差,对最终的布局恢复结果有一定影响,且全景图像拍摄成本高。本发明采用鱼眼图像作为网络输入,鱼眼图像具有视角大且获取成本较低的特点,更适用于室内布局估计技术。
(2)全景图像和鱼眼图像都存在严重的畸变问题。现有的室内布局估计技术利用基于标准卷积的深度神经网络估计室内布局,标准卷积中卷积核固定的采样方式导致难以适应图像中的几何形变。本发明基于变形卷积和鱼眼图像的正交投影模型提出OrthConv,通过生成固定偏移量的方式改变卷积核的采样方式,更适用于室内布局估计技术。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基于变形卷积神经网络的室内鱼眼图像布局恢复方法的总体流程示意图;
图2为本发明的室内鱼眼图像数据集示意图,(a)为RGB鱼眼图像,(b)为对应的角点图,(c)为对应的边图;
图3为本发明的神经网络结构图;
图4为本发明的网络预测出的角点可视化示意图,(a)为网络预测得到的角点概率图,(b)为网络预测角点在原图上的可视化表示;
图5为本发明的恢复的三维室内布局示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅为本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域的普通技术人员在不付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明提出了一种室内鱼眼图像的全自动布局恢复方法,如图1所示,本发明的总体流程步骤如下:
(1)构建室内鱼眼图像数据集;
a)首先获取室内场景的RGB鱼眼图像和角点图像坐标(即角点在图像中的坐标)。如图2(a)所示,是一张RGB鱼眼图像的示意图,对应的角点图像坐标为(641,252),(621,834),(252,781),(220,312),可选的,数据集中真实角点的信息可通过自动识别,或手工标注得到。
b)然后生成像素值全为0、大小为1024×1024的像素矩阵,以角点图像坐标为圆心,将半径为6的区域内的像素值改为(0,0,255),把修改后的像素矩阵保存为单通道的角点图。图2(b)所示为角点图示意图。
c)最后生成如图2(c)所示的1024×1024的三通道边图。基于正交投影,首先将角点图像坐标(px,py)转换为经纬坐标和空间三维坐标(x,y,z);然后以为增量划分相邻角点的纬度坐标区间(θ1,θ2)(如图2(b)中左上角点和右上角点),求出纬度θ′对应的经度φ′;然后将经纬坐标(φ′,θ′)转换为图像坐标(px′,py′);最后以图像坐标(px′,py′)为圆心,将半径为2的区域内的像素值改为(0,255,0),将修改后的像素矩阵保存为三通道的边图。其中正交投影的定义如下:
rd=f sin(θ)
定义中,rd是鱼眼图像中的点到畸变中心的距离,f是鱼眼相机的焦距,θ是入射角。
(2)建立基于变形卷积的神经网络模型,设置相应的模型参数。
a)提取鱼眼有效区域:如图2(a)所示,鱼眼有效区域为以像素点(512,512)为圆心,半径为512像素的区域。将有效区域外像素点的偏移量设置为(0,0);
其中,kw为卷积核的宽度,imageW为待处理图像的宽度;
其中,Ry(θ)表示将y轴逆时针旋转角度θ得到的旋转矩阵;
最后将向量p′=[x,y,z]转换为图像坐标(px′,py′),偏移量(offsetx,offsety)的计算公式如下:
offsetx=px′-px
offsety=py′-py
c)建立基于变形卷积、遵循编码器-解码器策略的网络模型。如图3所示,编码器前三层卷积层为标准卷积,后四层卷积为OrthConv;解码器有两个分支,每个分支中前四层卷积为OrthConv,后三层卷积为标准卷积。
网络模型中使用跳跃连接,共同预测角点概率图和边概率图。
(3)将训练集输入模型进行训练优化。采用Adam优化器更新网络的参数,学习率为e-4,训练集和验证集的batch size设置为2。
(4)将测试集输入优化后的模型,输出角点概率图和边概率图,网络预测的角点概率图如图4(a)所示。
(5)将角点概率图二值化,提取角点图像坐标,基于正交投影模型和角点图像坐标,恢复三维室内布局。
a)将图4(a)所示的角点概率图二值化,标记二值图像中的连通区域;
b)求取连通区域的重心作为角点图像坐标。从图4(a)所示角点概率图提取出的角点坐标为(643,247),(625,833),(248,783),(218,309),将以上角点坐标显示在原图上,可视化结果如图4(b)所示。
c)基于正交投影,将图像坐标转换为空间三维坐标,生成室内布局的三维点云;
d)将点云的三维空间坐标映射为图像坐标,生成布局纹理。最终,得到如图5所示的三维室内布局。
Claims (7)
1.一种室内鱼眼图像的全自动布局恢复方法,其特征在于,包括如下步骤:
(1)构建室内鱼眼图像数据集;
(2)建立基于变形卷积的神经网络模型,设置相应的模型参数;
(3)将训练集输入模型进行训练优化;
(4)将测试集输入优化后的模型,输出角点概率图和边概率图;
(5)将角点概率图二值化,提取角点图像坐标,基于正交投影模型和角点图像坐标,恢复三维室内布局。
2.根据权利要求1所述的一种室内鱼眼图像的全自动布局恢复方法,其特征在于:所述步骤(1)构建室内鱼眼图像数据集,包括:
(1.1)获取室内场景的RGB鱼眼图像和角点图像坐标,即角点在鱼眼图像中的坐标;
(1.2)生成像素值全为0、大小为1024×1024的像素矩阵,以每个角点图像坐标为圆心,将半径为6的区域内的像素值改为(0,0,255),把修改后的像素矩阵保存为单通道的角点图;
(1.3)基于角点图像坐标,生成1024×1024的三通道边图。
3.根据权利要求1所述的一种室内鱼眼图像的全自动布局恢复方法,其特征在于:所述步骤(2)建立基于变形卷积的神经网络模型,包括:
(2.1)提取鱼眼有效区域:以像素点(512,512)为圆心,半径为512像素的区域,将有效区域外像素点的偏移量设置为(0,0);
(2.2)基于正交投影模型和变形卷积提出正交卷积OrthConv,求解有效区域内像素点的偏移量,即正交卷积与标准卷积采样点坐标的差值;
(2.3)建立基于变形卷积、遵循编码器-解码器策略的网络模型。
4.根据权利要求1所述的一种室内鱼眼图像的全自动布局恢复方法,其特征在于:所述步骤(5)将角点概率图二值化,提取角点图像坐标,基于正交投影模型和角点图像坐标,恢复三维室内布局,包括:
(5.1)将角点概率图二值化,标记二值图像中的连通区域;
(5.2)求取连通区域的重心作为角点图像坐标;
(5.3)基于正交投影,将图像坐标转换为空间三维坐标,生成室内布局的三维点云;
(5.4)将点云的三维空间坐标映射为图像坐标,生成布局纹理。
5.根据权利要求2所述的一种室内鱼眼图像的全自动布局恢复方法,其特征在于:所述步骤(1.3)中基于角点图像坐标,生成1024×1024的三通道边图,包括:
(1.3.2)以为增量划分相邻角点的纬度坐标区间(θ1,θ2),通过相邻角点的空间三维坐标(x1,y1,z1)、(x2,y2,z2)和区间内任一纬度θ′求出对应的经度φ′;其中,在同一面墙上的两个角点就是相邻角点;
(1.3.3)将经纬坐标(φ′,θ′)转换为图像坐标(px′,py′);
(1.3.4)以图像坐标(px′,py′)为圆心,将半径为2的区域内的像素值改为(0,255,0),将修改后的像素矩阵保存为三通道的边图。
6.根据权利要求3所述的一种室内鱼眼图像的全自动布局恢复方法,其特征在于:所述步骤(2.2)中基于变形卷积提出OrthConv,求解有效区域内像素点的偏移量,包括:
其中,kw为卷积核的宽度,imageW为待处理图像的宽度;
其中,Ry(θ)表示将y轴逆时针旋转角度θ得到的旋转矩阵;
(2.2.4)将向量p′=[x,y,z]转换为图像坐标(px′,py′),偏移量(offsetx,offsety)的计算公式如下:
offsetx=px′-px
offsety=py′-py。
7.根据权利要求3所述的一种室内鱼眼图像的全自动布局恢复方法,其特征在于:所述步骤(2.3)建立基于变形卷积、遵循编码器-解码器策略的网络模型,包括:
(2.3.1)编码器包含7层卷积层和最大池化层,下采样因子为2;解码器包含2个分支,上层分支作为布局边概率图预测器,下层分支作为布局角点概率图预测器;每一个分支包含7层上采样操作和卷积层;
(2.3.2)编码器的7层卷积层中前三层使用标准卷积,后四层使用OrthConv,解码器的7层卷积层中前四层使用OrthConv,后三层使用标准卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011096920.XA CN112053441B (zh) | 2020-10-14 | 2020-10-14 | 一种室内鱼眼图像的全自动布局恢复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011096920.XA CN112053441B (zh) | 2020-10-14 | 2020-10-14 | 一种室内鱼眼图像的全自动布局恢复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112053441A true CN112053441A (zh) | 2020-12-08 |
CN112053441B CN112053441B (zh) | 2023-04-07 |
Family
ID=73606078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011096920.XA Active CN112053441B (zh) | 2020-10-14 | 2020-10-14 | 一种室内鱼眼图像的全自动布局恢复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112053441B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113140034A (zh) * | 2021-04-27 | 2021-07-20 | 上海科技大学 | 基于房间布局的全景新视角生成方法、装置、设备和介质 |
CN115546273A (zh) * | 2022-11-09 | 2022-12-30 | 中国传媒大学 | 一种面向室内鱼眼图像的场景结构深度估计方法 |
CN116071490A (zh) * | 2022-10-25 | 2023-05-05 | 杭州华橙软件技术有限公司 | 室内空间布局的重构方法及重构装置、电子设备和介质 |
CN116129036A (zh) * | 2022-12-02 | 2023-05-16 | 中国传媒大学 | 一种深度信息引导的全方向图像三维结构自动恢复方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298284A (zh) * | 2019-06-24 | 2019-10-01 | 火石信科(广州)科技有限公司 | 一种读写场景及读写位置的识别方法 |
-
2020
- 2020-10-14 CN CN202011096920.XA patent/CN112053441B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298284A (zh) * | 2019-06-24 | 2019-10-01 | 火石信科(广州)科技有限公司 | 一种读写场景及读写位置的识别方法 |
Non-Patent Citations (5)
Title |
---|
KUMAR V R等: "Monocular fisheye camera depth estimation using sparse lidar supervision", 《2018 21ST INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC)》 * |
LI M等: "3d room reconstruction from a single fisheye image", 《2019 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》 * |
MENG M等: "Distortion-Aware Room Layout Estimation from A Single Fisheye Image", 《2021 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR)》 * |
WANG K等: "Synthetic data generation and adaption for object detection in smart vending machines", 《ARXIV》 * |
魏利胜等: "基于非线性方程的鱼眼图像畸变矫正方法研究", 《电子测量与仪器学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113140034A (zh) * | 2021-04-27 | 2021-07-20 | 上海科技大学 | 基于房间布局的全景新视角生成方法、装置、设备和介质 |
CN113140034B (zh) * | 2021-04-27 | 2023-08-22 | 上海科技大学 | 基于房间布局的全景新视角生成方法、装置、设备和介质 |
CN116071490A (zh) * | 2022-10-25 | 2023-05-05 | 杭州华橙软件技术有限公司 | 室内空间布局的重构方法及重构装置、电子设备和介质 |
CN115546273A (zh) * | 2022-11-09 | 2022-12-30 | 中国传媒大学 | 一种面向室内鱼眼图像的场景结构深度估计方法 |
CN116129036A (zh) * | 2022-12-02 | 2023-05-16 | 中国传媒大学 | 一种深度信息引导的全方向图像三维结构自动恢复方法 |
CN116129036B (zh) * | 2022-12-02 | 2023-08-29 | 中国传媒大学 | 一种深度信息引导的全方向图像三维结构自动恢复方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112053441B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112053441B (zh) | 一种室内鱼眼图像的全自动布局恢复方法 | |
CN112348815B (zh) | 图像处理方法、图像处理装置以及非瞬时性存储介质 | |
CN108764048B (zh) | 人脸关键点检测方法及装置 | |
Wang et al. | Led2-net: Monocular 360deg layout estimation via differentiable depth rendering | |
CN111862201B (zh) | 一种基于深度学习的空间非合作目标相对位姿估计方法 | |
CN112396640B (zh) | 图像配准方法、装置、电子设备及存储介质 | |
CN110766002B (zh) | 一种基于深度学习的船名字符区域检测方法 | |
CN111401266B (zh) | 绘本角点定位的方法、设备、计算机设备和可读存储介质 | |
WO2022237272A1 (zh) | 用于车道线识别的道路图片标注方法和装置 | |
CN111507908B (zh) | 图像矫正处理方法、装置、存储介质及计算机设备 | |
CN115797350B (zh) | 桥梁病害检测方法、装置、计算机设备和存储介质 | |
CN112084849A (zh) | 图像识别方法和装置 | |
CN113903028A (zh) | 一种目标检测方法及电子设备 | |
CN108694716B (zh) | 一种工件检测方法、模型训练方法及设备 | |
CN110503651A (zh) | 一种图像显著对象分割方法及装置 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及系统 | |
CN112509106A (zh) | 文档图片展平方法、装置以及设备 | |
CN111626241A (zh) | 一种人脸检测方法及装置 | |
CN115018999A (zh) | 一种多机器人协作的稠密点云地图构建方法及装置 | |
CN114119753A (zh) | 面向机械臂抓取的透明物体6d姿态估计方法 | |
CN116912675A (zh) | 一种基于特征迁移的水下目标检测方法及系统 | |
CN112330699A (zh) | 一种基于重叠区域对齐的三维点云分割方法 | |
CN115861922A (zh) | 一种稀疏烟火检测方法、装置、计算机设备及存储介质 | |
CN113269831B (zh) | 基于场景坐标回归网络的视觉重定位方法、系统、装置 | |
CN112927304B (zh) | 一种基于卷积神经网络的鱼眼镜头标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |