CN113393511B - 一种基于多阶段彩色图像引导的道路场景深度补全方法 - Google Patents
一种基于多阶段彩色图像引导的道路场景深度补全方法 Download PDFInfo
- Publication number
- CN113393511B CN113393511B CN202110510868.6A CN202110510868A CN113393511B CN 113393511 B CN113393511 B CN 113393511B CN 202110510868 A CN202110510868 A CN 202110510868A CN 113393511 B CN113393511 B CN 113393511B
- Authority
- CN
- China
- Prior art keywords
- stage
- depth image
- downsampling
- depth
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000295 complement effect Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000008447 perception Effects 0.000 claims abstract description 5
- 238000010586 diagram Methods 0.000 claims description 24
- 238000005070 sampling Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000008521 reorganization Effects 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000010977 unit operation Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 2
- 230000009286 beneficial effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于多阶段彩色图像引导的道路场景深度补全方法。激光雷达得到的道路场景深度图像非常稀疏,缺失的深度信息带来了极大的不确定性,仍难以满足实际应用的需求。因此如何发掘场景稠密彩色图像和稀疏深度图像的内在约束关系,完成稀疏深度图像的高质量补全是目前的研究热点。本发明多阶段彩色图像引导的深度图像补全网络由“彩色引导”和“精细化补全”两个阶段构成,将“彩色引导”阶段重建的特征融合到“精细化补全”阶段中实现了多阶段的特征引导,可以有效实现深度图像的高质量补全。高质量的道路场景深度感知对道路目标检测,自动驾驶智能汽车等应用都是至关重要的,因此本发明具有重要的理论价值和实际意义。
Description
技术领域
本发明属于机器视觉领域,具体涉及一种基于多阶段彩色图像引导的道路场景深度补全方法。
背景技术
高质量的道路场景深度感知对道路目标检测,自动驾驶智能汽车等应用都是至关重要的。激光雷达可以获得高精度的道路场景深度图像,适合道路场景的应用,但是激光雷达得到的深度图像非常稀疏,缺失的深度信息带来了极大的不确定性,仍难以满足后续实际应用的需求。如何发掘场景稠密彩色图像和稀疏深度图像的内在约束关系,完成稀疏深度图像的高质量补全是目前的研究热点,具有重要的理论价值和实际意义。
发明内容
鉴于上述背景技术的不足,本发明的目的在于提供一种基于多阶段彩色图像引导的道路场景深度图像补全方法。本发明深度补全由“彩色引导”和“精细化补全”两个阶段构成,该方法具体步骤如下:
步骤(1):利用激光雷达和彩色相机获取道路场景稀疏深度图像Isparse和稠密彩色图像Icolor,分辨率为M×N,其中M和N分别为图像的高和宽。
步骤(2):构建基于卷积神经网络的彩色图像引导重建分支:
(a)首先将Isparse∈RB×1×H×W和Icolor∈RB×3×H×W沿通道维度进行拼接,得到四通道的输入图像Iconcat∈RB×4×H×W,Iconcat∈RB×4×H×W经过一层卷积核大小为3×3卷积层后得到初始的特征图其中B表示网络的Batch size。
(b)初始的特征图经过三级下采样操作来提取特征得到输出记为Idown∈RB ×128×1/8H×1/8W,记输入的特征图为Xd-1,每级下采样操作的具体步骤如下:
Rdown_conv=ω3×3*Xd-1 (1)
Rdown_maxpool=MaxPool(Xd-1) (2)
Rdown_concat=<Rdown_conv,Rdown_maxpool> (3)
Rdown=σ(bn(Rdown_concat)) (4)
Rdown_split_1,Rdown_split_2=Split(Rdown) (5)
Rregroup=Regroup(Rregroup) (11)
Rtranspose=Transpose(Rregroup) (12)
Rout=Regroup(Rtranspose) (13)
其中<·>代表拼接操作,bn(·)代表Batch Normalization操作,σ(·)代表RectifiedLinear Unit激活层,dropout(·)代表Dropout操作;ω代表卷积核权重,上标用来区分卷积层的顺序,下标为卷积核大小;
首先特征图Xd-1∈RB×C×H×W经过一层卷积核大小为3×3,步长为2的卷积层和一次空间维度的max-pooled操作之后得到特征图Rdown_conv∈RB×C×1/2H×1/2W和Rdown_maxpool∈RB ×C×1/2H×1/2W。然后将特征图Rdown_conv和Rdown_maxpool拼接在一起进行BatchNormalization操作和非线性激活操作得到下采样模块的输出Rdown∈RB×2C×1/2H×1/2W,再将特征图Rdown∈RB ×2C×1/2H×1/2W沿着通道维度进行切片操作得到Rdown_split_1∈RB×C×1/2H×1/2W和Rdown_split_2∈RB ×C×1/2H×1/2W。将Rdown_split_1和Rdown_split_2分别输入到不同尺度的卷积核中得到和/>再将特征图/>和/>沿通道维度拼接在一起并与Rdown进行加法操作得到Rres_out∈RB×2C×1/2H×1/2W。最后将Rres_out进行通道混洗操作,通道混洗操作包含两次通道重组Regroup操作和一次维度交换Transpose操作,得到输出Rout∈RB×2C×1/2H×1/2W,Rout即为每级下采样操作的输出。
(c)将经过三级下采样操作得到的输出Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W,三级上采样操作每级都由反卷积操作和通道感知模块组成,记输入为Xm-1,每级上采样操作的步骤如下:
Rup=σ(bn(convtranspose(Xm-1))) (14)
Mchannel=Sigmod(bn(Rup_concat)) (19)
Rout=Rup*Mchannel (20)
首先将特征图Xm-1∈RB×2C×1/2H×1/2W,经过反卷积、Batch Normalization操作和非线性激活Rectified Linear Unit操作得到特征图Rup∈RB×C×H×W。然后将特征图Rup输入两层3×3卷积层提取特征得到Rup_m∈RB×C×H×W,接着Rup_m沿着空间维度进行max-pooled和average-pooled得到和/>将/>和/>拼接在一起输入1×1卷积层实现降维,接着使用一层1×1卷积层和非线性激活Rectified Linear Unit操作得到Rup_concat∈RB×C×1×1,最后使用Batch Normalization操作将Rup_concat进行归一化操作并输入Sigomd函数进行非线性变换得到空间感知模块权重Mchannel∈RB×C×1×1,将Rup与Mchannel进行乘法操作获得上采样后的输出记为Rout∈RB×C×H×W,按上述方式Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W。
步骤(3):构建基于卷积神经网络的深度图像精细化补全分支:
①首先Isparse∈RB×1×H×W经过一层卷积核大小为3×3的卷积层得到初始特征图,记为深度图像精细化补全分支的下采样结构同样包含三级下采样,分别将步骤(2)彩色图像引导重建分支上采样阶段的Iup_3∈RB×16×H×W、Iup_2∈RB×32×1/2H×1/2W、Iup_1∈RB ×64×1/4H×1/4W和步骤(2)彩色图像引导重建分支下采样的输出Idown∈RB×128×1/8H×1/8W拼接至深度图像精细化补全分支对应的下采样阶段中,具体的操作如下:
R2=Down(σ(bn(ω1×1(<R1,Iup_2>))) (19)
R3=Down(σ(bn(ω1×1(<R2,Iup_1>))) (20)
R4=σ(bn(ω1×1(<R3,Idown>)) (21)
其中,R1∈RB×32×1/2H×1/2W、R2∈RB×64×1/4H×1/4W、R3∈RB×128×1/8H×1/8W为深度图像精细化补全分支每级下采样的结果;Down表示一级下采样结构,具体的操作如步骤(2)中公式(1)~公式(13)所定义的过程,R4∈RB×128×1/8H×1/8W为深度图像精细化补全分支下采样的输出。
②构建深度图像精细化补全分支上采样结构,深度图像精细化补全分支上采样结构和步骤(2)中彩色图像引导重建分支上采样结构相同,由三级上采样操作组成,R4经过三级上采样得到深度图像精细化补全分支上采样结构的输出Irefine∈RB×16×H×W,将Irefine输入一层3×3卷积层得到深度图像精细化补全分支的稠密补全输出Iout_D∈RB×1×H×W,Iout_D即为最终补全重建的高质量道路场景稠密深度图像。
本发明的有益效果:本发明设计了一种新型的多阶段彩色图像引导的道路深度图像补全方法。本发明的网络由“彩色引导”和“精细化补全”两个阶段构成,将“彩色引导”阶段重建的特征融合到“精细化补全”阶段中,从而实现多阶段的特征引导,可以有效实现深度图像的高质量补全。
具体实施方式:
步骤(1):利用激光雷达和彩色相机获取道路场景稀疏深度图像Isparse和稠密彩色图像Icolor,分辨率为M×N,其中M和N分别为图像的高和宽。
步骤(2):构建基于卷积神经网络的彩色图像引导重建分支:
(a)首先将Isparse∈RB×1×H×W和Icolor∈RB×3×H×W沿通道维度进行拼接,得到四通道的输入图像Iconcat∈RB×4×H×W,Iconcat∈RB×4×H×W经过一层卷积核大小为3×3卷积层后得到初始的特征图其中B表示网络的Batch size。
(b)初始的特征图经过三级下采样操作来提取特征得到输出记为Idown∈RB ×128×1/8H×1/8W,记输入的特征图为Xd-1,每级下采样操作的具体步骤如下:
Rdown_conv=ω3×3*Xd-1 (1)
Rdown_maxpool=MaxPool(Xd-1) (2)
Rdown_concat=<Rdown_conv,Rdown_maxpool> (3)
Rdown=σ(bn(Rdown_concat)) (4)
Rdown_split_1,Rdown_split_2=Split(Rdown) (5)
Rregroup=Regroup(Rregroup) (11)
Rtranspose=Transpose(Rregroup) (12)
Rout=Regroup(Rtranspose) (13)
其中<·>代表拼接操作,bn(·)代表Batch Normalization操作,σ(·)代表Rectified Linear Unit激活层,dropout(·)代表Dropout操作;ω代表卷积核权重,上标用来区分卷积层的顺序,下标为卷积核大小;
首先特征图Xd-1∈RB×C×H×W经过一层卷积核大小为3×3,步长为2的卷积层和一次空间维度的max-pooled操作之后得到特征图Rdown_conv∈RB×C×1/2H×1/2W和Rdown_maxpool∈RB ×C×1/2H×1/2W。然后将特征图Rdown_conv和Rdown_maxpool拼接在一起进行BatchNormalization操作和非线性激活操作得到下采样模块的输出Rdown∈RB×2C×1/2H×1/2W,再将特征图Rdown∈RB ×2C×1/2H×1/2W沿着通道维度进行切片操作得到Rdown_split_1∈RB×C×1/2H×1/2W和Rdown_split_2∈RB ×C×1/2H×1/2W。将Rdown_split_1和Rdown_split_2分别输入到不同尺度的卷积核中得到和/>再将特征图/>和/>沿通道维度拼接在一起并与Rdown进行加法操作得到Rres_out∈RB×2C×1/2H×1/2W。最后将Rres_out进行通道混洗操作,通道混洗操作包含两次通道重组Regroup操作和一次维度交换Transpose操作,得到输出Rout∈RB×2C×1/2H×1/2W,Rout即为每级下采样操作的输出。
(c)将经过三级下采样操作得到的输出Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W,三级上采样操作每级都由反卷积操作和通道感知模块组成,记输入为Xm-1,每级上采样操作的步骤如下:
Rup=σ(bn(convtranspose(Xm-1))) (14)
Mchannel=Sigmod(bn(Rup_concat)) (19)
Rout=Rup*Mchannel (20)
首先将特征图Xm-1∈RB×2C×1/2H×1/2W,经过反卷积、Batch Normalization操作和非线性激活Rectified Linear Unit操作得到特征图Rup∈RB×C×H×W。然后将特征图Rup输入两层3×3卷积层提取特征得到Rup_m∈RB×C×H×W,接着Rup_m沿着空间维度进行max-pooled和average-pooled得到和/>将/>和/>拼接在一起输入1×1卷积层实现降维,接着使用一层1×1卷积层和非线性激活Rectified Linear Unit操作得到Rup_concat∈RB×C×1×1,最后使用Batch Normalization操作将Rup_concat进行归一化操作并输入Sigomd函数进行非线性变换得到空间感知模块权重Mchannel∈RB×C×1×1,将Rup与Mchannel进行乘法操作获得上采样后的输出记为Rout∈RB×C×H×W,按上述方式Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W。
步骤(3):构建基于卷积神经网络的深度图像精细化补全分支:
①首先Isparse∈RB×1×H×W经过一层卷积核大小为3×3的卷积层得到初始特征图,记为深度图像精细化补全分支的下采样结构同样包含三级下采样,分别将步骤(2)彩色图像引导重建分支上采样阶段的Iup_3∈RB×16×H×W、Iup_2∈RB×32×1/2H×1/2W、Iup_1∈RB ×64×1/4H×1/4W和步骤(2)彩色图像引导重建分支下采样的输出Idown∈RB×128×1/8H×1/8W拼接至深度图像精细化补全分支对应的下采样阶段中,具体的操作如下:
R2=Down(σ(bn(ω1×1(<R1,Iup_2>))) (19)
R3=Down(σ(bn(ω1×1(<R2,Iup_1>))) (20)
R4=σ(bn(ω1×1(<R3,Idown>)) (21)
其中,R1∈RB×32×1/2H×1/2W、R2∈RB×64×1/4H×1/4W、R3∈RB×128×1/8H×1/8W为深度图像精细化补全分支每级下采样的结果;Down表示一级下采样结构,具体的操作如步骤(2)中公式(1)~公式(13)所定义的过程,R4∈RB×128×1/8H×1/8W为深度图像精细化补全分支下采样的输出。
②构建深度图像精细化补全分支上采样结构,深度图像精细化补全分支上采样结构和步骤(2)中彩色图像引导重建分支上采样结构相同,由三级上采样操作组成,R4经过三级上采样得到深度图像精细化补全分支上采样结构的输出Irefine∈RB×16×H×W,将Irefine输入一层3×3卷积层得到深度图像精细化补全分支的稠密补全输出Iout_D∈RB×1×H×W,Iout_D即为最终补全重建的高质量道路场景稠密深度图像。
Claims (2)
1.一种基于多阶段彩色图像引导的道路场景深度补全方法,其特征在于,该方法的具体步骤是:
步骤(1):获取道路场景稀疏深度图像Isparse和稠密彩色图像Icolor,分辨率为M×N,其中M和N分别为图像的高和宽;
步骤(2):构建基于卷积神经网络的彩色图像引导重建分支:
(a)首先将Isparse∈RB×1×H×W和Icolor∈RB×3×H×W沿通道维度进行拼接,得到四通道的输入图像Iconcat∈RB×4×H×W,Iconcat∈RB×4×H×W经过一层卷积核大小为3×3卷积层后得到初始的特征图其中B表示网络的Batchsize;
(b)初始的特征图经过三级下采样操作来提取特征得到输出记为Idown∈RB ×128×1/8H×1/8W,记输入的特征图为Xd-1,每级下采样操作的具体步骤如下:
Rdown_conv=ω3×3*Xd-1 (1)
Rdown_maxpool=MaxPool(Xd-1) (2)
Rdown_concat=<Rdown_conv,Rdown_maxpool> (3)
Rdown=σ(bn(Rdown_concat)) (4)
Rdown_split_1,Rdown_split_2=Split(Rdown) (5)
Rregroup=Regroup(Rregroup) (11)
Rtranspose=Transpose(Rregroup) (12)
Rout=Regroup(Rtranspose) (13)
其中<·>代表拼接操作,bn(·)代表Batch Normalization操作,σ(·)代表RectifiedLinear Unit激活层,dropout(·)代表Dropout操作;ω代表卷积核权重,上标用来区分卷积层的顺序,下标为卷积核大小;
首先特征图Xd-1∈RB×C×H×W经过一层卷积核大小为3×3,步长为2的卷积层和一次空间维度的max-pooled操作之后得到特征图Rdown_conv∈RB×C×1/2H×1/2W和Rdown_maxpool∈RB×C×1/2H×1/2W;然后将特征图Rdown_conv和Rdown_maxpool拼接在一起进行Batch Normalization操作和非线性激活操作得到下采样模块的输出Rdown∈RB×2C×1/2H×1/2W,再将特征图Rdown∈RB×2C×1/2H×1/2W沿着通道维度进行切片操作得到Rdown_split_1∈RB×C×1/2H×1/2W和Rdown_split_2∈RB×C×1/2H×1/2W;将Rdown_split_1和Rdown_split_2分别输入到不同尺度的卷积核中得到和再将特征图/>和/>沿通道维度拼接在一起并与Rdown进行加法操作得到Rres_out∈RB×2C×1/2H×1/2W;最后将Rres_out进行通道混洗操作,通道混洗操作包含两次通道重组Regroup操作和一次维度交换Transpose操作,得到输出Rout∈RB×2C×1/2H×1/2W,Rout即为每级下采样操作的输出;
(c)将经过三级下采样操作得到的输出Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W,三级上采样操作每级都由反卷积操作和通道感知模块组成,记输入为Xm-1,每级上采样操作的步骤如下:
Rup=σ(bn(convtranspose(Xm-1))) (14)
Mchannel=Sigmod(bn(Rup_concat)) (19)
Rout=Rup*Mchannel (20)
首先将特征图Xm-1∈RB×2C×1/2H×1/2W,经过反卷积、Batch Normalization操作和非线性激活Rectified Linear Unit操作得到特征图Rup∈RB×C×H×W;然后将特征图Rup输入两层3×3卷积层提取特征得到Rup_m∈RB×C×H×W,接着Rup_m沿着空间维度进行max-pooled和average-pooled得到和/>将/>和/>拼接在一起输入1×1卷积层实现降维,接着使用一层1×1卷积层和非线性激活RectifiedLinearUnit操作得到Rup_concat∈RB×C×1×1,最后使用BatchNormalization操作将Rup_concat进行归一化操作并输入Sigomd函数进行非线性变换得到空间感知模块权重Mchannel∈RB×C×1×1,将Rup与Mchannel进行乘法操作获得上采样后的输出记为Rout∈RB×C×H×W,按上述方式Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W;
步骤(3):构建基于卷积神经网络的深度图像精细化补全分支:
①首先Isparse∈RB×1×H×W经过一层卷积核大小为3×3的卷积层得到初始特征图,记为深度图像精细化补全分支的下采样结构同样包含三级下采样,分别将步骤(2)彩色图像引导重建分支上采样阶段的Iup_3∈RB×16×H×W、Iup_2∈RB×32×1/2H×1/2W、Iup_1∈RB ×64×1/4H×1/4W和步骤(2)彩色图像引导重建分支下采样的输出Idown∈RB×128×1/8H×1/8W拼接至深度图像精细化补全分支对应的下采样阶段中,具体的操作如下:
R2=Down(σ(bn(ω1×1(<R1,Iup_2>))) (19)
R3=Down(σ(bn(ω1×1(<R2,Iup_1>))) (20)
R4=σ(bn(ω1×1(<R3,Idown>)) (21)
其中,R1∈RB×32×1/2H×1/2W、R2∈RB×64×1/4H×1/4W、R3∈RB×128×1/8H×1/8W为深度图像精细化补全分支每级下采样的结果;Down表示一级下采样结构,具体的操作如步骤(2)中公式(1)~公式(13)所定义的过程,R4∈RB×128×1/8H×1/8W为深度图像精细化补全分支下采样的输出;
②构建深度图像精细化补全分支上采样结构,深度图像精细化补全分支上采样结构和步骤(2)中彩色图像引导重建分支上采样结构相同,由三级上采样操作组成,R4经过三级上采样得到深度图像精细化补全分支上采样结构的输出Irefine∈RB×16×H×W,将Irefine输入一层3×3卷积层得到深度图像精细化补全分支的稠密补全输出Iout_D∈RB×1×H×W,Iout_D即为最终补全重建的高质量道路场景稠密深度图像。
2.根据权利要求1所述的一种基于多阶段彩色图像引导的道路场景深度补全方法,其特征在于:所述的路场景稀疏深度图像Isparse和稠密彩色图像Icolor通过激光雷达和彩色相机获取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110510868.6A CN113393511B (zh) | 2021-05-11 | 2021-05-11 | 一种基于多阶段彩色图像引导的道路场景深度补全方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110510868.6A CN113393511B (zh) | 2021-05-11 | 2021-05-11 | 一种基于多阶段彩色图像引导的道路场景深度补全方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113393511A CN113393511A (zh) | 2021-09-14 |
CN113393511B true CN113393511B (zh) | 2024-02-02 |
Family
ID=77616904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110510868.6A Active CN113393511B (zh) | 2021-05-11 | 2021-05-11 | 一种基于多阶段彩色图像引导的道路场景深度补全方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113393511B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930342A (zh) * | 2019-10-28 | 2020-03-27 | 杭州电子科技大学 | 一种基于彩色图引导的深度图超分辨率重建网络构建方法 |
CN111275618A (zh) * | 2020-01-12 | 2020-06-12 | 杭州电子科技大学 | 一种基于双支感知的深度图超分辨率重建网络构建方法 |
-
2021
- 2021-05-11 CN CN202110510868.6A patent/CN113393511B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930342A (zh) * | 2019-10-28 | 2020-03-27 | 杭州电子科技大学 | 一种基于彩色图引导的深度图超分辨率重建网络构建方法 |
CN111275618A (zh) * | 2020-01-12 | 2020-06-12 | 杭州电子科技大学 | 一种基于双支感知的深度图超分辨率重建网络构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113393511A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111275618B (zh) | 一种基于双支感知的深度图超分辨率重建网络构建方法 | |
CN112541503B (zh) | 基于上下文注意力机制和信息融合的实时语义分割方法 | |
CN111062892B (zh) | 一种基于复合残差网络和深层监督的单幅图像去雨方法 | |
CN110930342B (zh) | 一种基于彩色图引导的深度图超分辨率重建网络构建方法 | |
WO2023231329A1 (zh) | 一种医学图像的语义分割方法及装置 | |
Hayakawa | Photometric stereo under a light source with arbitrary motion | |
CN111915660A (zh) | 基于共享特征和注意力上采样的双目视差匹配方法及系统 | |
CN113554032B (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN117274760A (zh) | 一种基于多尺度混合变换器的红外与可见光图像融合方法 | |
CN114119975A (zh) | 一种语言引导的跨模态实例分割方法 | |
CN113449691A (zh) | 一种基于非局部注意力机制的人形识别系统及方法 | |
CN113808008A (zh) | 基于Transformer构建生成对抗网络实现妆容迁移的方法 | |
CN115731138A (zh) | 一种基于Transformer与卷积神经网络的图像修复方法 | |
CN117726809A (zh) | 一种基于信息交互增强的小样本语义分割方法 | |
CN115526862A (zh) | 基于CNN和transformer的跨模态人群计数方法 | |
CN117710215A (zh) | 一种基于极线分窗口注意力的双目图像超分辨率方法 | |
CN115830094A (zh) | 一种基于无监督的立体匹配方法 | |
CN115965819A (zh) | 一种基于Transformer结构的轻量化害虫识别方法 | |
CN113393511B (zh) | 一种基于多阶段彩色图像引导的道路场景深度补全方法 | |
CN114898429A (zh) | 一种热红外-可见光跨模态人脸识别的方法 | |
Zhou et al. | An Efficient RGB-D Indoor Scene-Parsing Solution via Lightweight Multiflow Intersection and Knowledge Distillation | |
CN116524207A (zh) | 基于边缘检测辅助的弱监督rgbd图像显著性检测方法 | |
CN115689918A (zh) | 一种基于残差先验注意力机制的并行单幅图像去雨方法 | |
Bu et al. | Full-color holographic system featuring three-dimensional salient object detection based on a U 2-RAS network | |
Guo et al. | DFBDehazeNet: an end-to-end dense feedback network for single image dehazing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |