CN113393511A - 一种基于多阶段彩色图像引导的道路场景深度补全方法 - Google Patents

一种基于多阶段彩色图像引导的道路场景深度补全方法 Download PDF

Info

Publication number
CN113393511A
CN113393511A CN202110510868.6A CN202110510868A CN113393511A CN 113393511 A CN113393511 A CN 113393511A CN 202110510868 A CN202110510868 A CN 202110510868A CN 113393511 A CN113393511 A CN 113393511A
Authority
CN
China
Prior art keywords
sampling
stage
depth image
completion
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110510868.6A
Other languages
English (en)
Other versions
CN113393511B (zh
Inventor
杨宇翔
曹旗
倪志浩
高明裕
董哲康
黄继业
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110510868.6A priority Critical patent/CN113393511B/zh
Publication of CN113393511A publication Critical patent/CN113393511A/zh
Application granted granted Critical
Publication of CN113393511B publication Critical patent/CN113393511B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于多阶段彩色图像引导的道路场景深度补全方法。激光雷达得到的道路场景深度图像非常稀疏,缺失的深度信息带来了极大的不确定性,仍难以满足实际应用的需求。因此如何发掘场景稠密彩色图像和稀疏深度图像的内在约束关系,完成稀疏深度图像的高质量补全是目前的研究热点。本发明多阶段彩色图像引导的深度图像补全网络由“彩色引导”和“精细化补全”两个阶段构成,将“彩色引导”阶段重建的特征融合到“精细化补全”阶段中实现了多阶段的特征引导,可以有效实现深度图像的高质量补全。高质量的道路场景深度感知对道路目标检测,自动驾驶智能汽车等应用都是至关重要的,因此本发明具有重要的理论价值和实际意义。

Description

一种基于多阶段彩色图像引导的道路场景深度补全方法
技术领域
本发明属于机器视觉领域,具体涉及一种基于多阶段彩色图像引导的道路场景深度补全方法。
背景技术
高质量的道路场景深度感知对道路目标检测,自动驾驶智能汽车等应用都是至关重要的。激光雷达可以获得高精度的道路场景深度图像,适合道路场景的应用,但是激光雷达得到的深度图像非常稀疏,缺失的深度信息带来了极大的不确定性,仍难以满足后续实际应用的需求。如何发掘场景稠密彩色图像和稀疏深度图像的内在约束关系,完成稀疏深度图像的高质量补全是目前的研究热点,具有重要的理论价值和实际意义。
发明内容
鉴于上述背景技术的不足,本发明的目的在于提供一种基于多阶段彩色图像引导的道路场景深度图像补全方法。本发明深度补全由“彩色引导”和“精细化补全”两个阶段构成,该方法具体步骤如下:
步骤(1):利用激光雷达和彩色相机获取道路场景稀疏深度图像Isparse和稠密彩色图像Icolor,分辨率为M×N,其中M和N分别为图像的高和宽。
步骤(2):构建基于卷积神经网络的彩色图像引导重建分支:
(a)首先将Isparse∈RB×1×H×W和Icolor∈RB×3×H×W沿通道维度进行拼接,得到四通道的输入图像Iconcat∈RB×4×H×W,Iconcat∈RB×4×H×W经过一层卷积核大小为3×3卷积层后得到初始的特征图
Figure BDA0003060328490000011
其中B表示网络的Batch size。
(b)初始的特征图
Figure BDA0003060328490000012
经过三级下采样操作来提取特征得到输出记为Idown∈RB ×128×1/8H×1/8W,记输入的特征图为Xd-1,每级下采样操作的具体步骤如下:
Rdown_conv=ω3×3*Xd-1 (1)
Rdown_maxpool=MaxPool(Xd-1) (2)
Rdown_concat=<Rdown_conv,Rdown_maxpool> (3)
Rdown=σ(bn(Rdown_concat)) (4)
Rdown_split_1,Rdown_split_2=Split(Rdown) (5)
Figure BDA0003060328490000021
Figure BDA0003060328490000022
Figure BDA0003060328490000023
Figure BDA0003060328490000024
Figure BDA0003060328490000025
Rregroup=Regroup(Rregroup) (11)
Rtranspose=Transpose(Rregroup) (12)
Rout=Regroup(Rtranspose) (13)
其中<·>代表拼接操作,bn(·)代表Batch Normalization操作,σ(·)代表RectifiedLinear Unit激活层,dropout(·)代表Dropout操作;ω代表卷积核权重,上标用来区分卷积层的顺序,下标为卷积核大小;
首先特征图Xd-1∈RB×C×H×W经过一层卷积核大小为3×3,步长为2的卷积层和一次空间维度的max-pooled操作之后得到特征图Rdown_conv∈RB×C×1/2H×1/2W和Rdown_maxpool∈RB ×C×1/2H×1/2W。然后将特征图Rdown_conv和Rdown_maxpool拼接在一起进行BatchNormalization操作和非线性激活操作得到下采样模块的输出Rdown∈RB×2C×1/2H×1/2W,再将特征图Rdown∈RB ×2C×1/2H×1/2W沿着通道维度进行切片操作得到Rdown_split_1∈RB×C×1/2H×1/2W和Rdown_split_2∈RB ×C×1/2H×1/2W。将Rdown_split_1和Rdown_split_2分别输入到不同尺度的卷积核中得到
Figure BDA0003060328490000026
Figure BDA0003060328490000027
再将特征图
Figure BDA0003060328490000028
Figure BDA0003060328490000029
沿通道维度拼接在一起并与Rdown进行加法操作得到Rres_out∈RB×2C×1/2H×1/2W。最后将Rres_out进行通道混洗操作,通道混洗操作包含两次通道重组Regroup操作和一次维度交换Transpose操作,得到输出Rout∈RB ×2C×1/2H×1/2W,Rout即为每级下采样操作的输出。
(c)将经过三级下采样操作得到的输出Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W,三级上采样操作每级都由反卷积操作和通道感知模块组成,记输入为Xm-1,每级上采样操作的步骤如下:
Rup=σ(bn(convtranspose(Xm-1))) (14)
Figure BDA0003060328490000031
Figure BDA0003060328490000032
Figure BDA0003060328490000033
Figure BDA0003060328490000034
Mchannel=Sigmod(bn(Rup_concat)) (19)
Rout=Rup*Mchannel (20)
首先将特征图Xm-1∈RB×2C×1/2H×1/2W,经过反卷积、Batch Normalization操作和非线性激活Rectified Linear Unit操作得到特征图Rup∈RB×C×H×W。然后将特征图Rup输入两层3×3卷积层提取特征得到Rup_m∈RB×C×H×W,接着Rup_m沿着空间维度进行max-pooled和average-pooled得到
Figure BDA0003060328490000035
Figure BDA0003060328490000036
Figure BDA0003060328490000037
Figure BDA0003060328490000038
拼接在一起输入1×1卷积层实现降维,接着使用一层1×1卷积层和非线性激活Rectified Linear Unit操作得到Rup_concat∈RB×C×1×1,最后使用Batch Normalization操作将Rup_concat进行归一化操作并输入Sigomd函数进行非线性变换得到空间感知模块权重Mchannel∈RB×C×1×1,将Rup与Mchannel进行乘法操作获得上采样后的输出记为Rout∈RB×C×H×W,按上述方式Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W
步骤(3):构建基于卷积神经网络的深度图像精细化补全分支:
①首先Isparse∈RB×1×H×W经过一层卷积核大小为3×3的卷积层得到初始特征图,记为
Figure BDA0003060328490000041
深度图像精细化补全分支的下采样结构同样包含三级下采样,分别将步骤(2)彩色图像引导重建分支上采样阶段的Iup_3∈RB×16×H×W、Iup_2∈RB×32×1/2H×1/2W、Iup_1∈RB ×64×1/4H×1/4W和步骤(2)彩色图像引导重建分支下采样的输出Idown∈RB×128×1/8H×1/8W拼接至深度图像精细化补全分支对应的下采样阶段中,具体的操作如下:
Figure BDA0003060328490000042
R2=Down(σ(bn(ω1×1(<R1,Iup_2>))) (19)
R3=Down(σ(bn(ω1×1(<R2,Iup_1>))) (20)
R4=σ(bn(ω1×1(<R3,Idown>)) (21)
其中,R1∈RB×32×1/2H×1/2W、R2∈RB×64×1/4H×1/4W、R3∈RB×128×1/8H×1/8W为深度图像精细化补全分支每级下采样的结果;Down表示一级下采样结构,具体的操作如步骤(2)中公式(1)~公式(13)所定义的过程,R4∈RB×128×1/8H×1/8W为深度图像精细化补全分支下采样的输出。
②构建深度图像精细化补全分支上采样结构,深度图像精细化补全分支上采样结构和步骤(2)中彩色图像引导重建分支上采样结构相同,由三级上采样操作组成,R4经过三级上采样得到深度图像精细化补全分支上采样结构的输出Irefine∈RB×16×H×W,将Irefine输入一层3×3卷积层得到深度图像精细化补全分支的稠密补全输出Iout_D∈RB×1×H×W,Iout_D即为最终补全重建的高质量道路场景稠密深度图像。
本发明的有益效果:本发明设计了一种新型的多阶段彩色图像引导的道路深度图像补全方法。本发明的网络由“彩色引导”和“精细化补全”两个阶段构成,将“彩色引导”阶段重建的特征融合到“精细化补全”阶段中,从而实现多阶段的特征引导,可以有效实现深度图像的高质量补全。
具体实施方式:
步骤(1):利用激光雷达和彩色相机获取道路场景稀疏深度图像Isparse和稠密彩色图像Icolor,分辨率为M×N,其中M和N分别为图像的高和宽。
步骤(2):构建基于卷积神经网络的彩色图像引导重建分支:
(a)首先将Isparse∈RB×1×H×W和Icolor∈RB×3×H×W沿通道维度进行拼接,得到四通道的输入图像Iconcat∈RB×4×H×W,Iconcat∈RB×4×H×W经过一层卷积核大小为3×3卷积层后得到初始的特征图
Figure BDA0003060328490000051
其中B表示网络的Batch size。
(b)初始的特征图
Figure BDA0003060328490000052
经过三级下采样操作来提取特征得到输出记为Idown∈RB ×128×1/8H×1/8W,记输入的特征图为Xd-1,每级下采样操作的具体步骤如下:
Rdown_conv=ω3×3*Xd-1 (1)
Rdown_maxpool=MaxPool(Xd-1) (2)
Rdown_concat=<Rdown_conv,Rdown_maxpool> (3)
Rdown=σ(bn(Rdown_concat)) (4)
Rdown_split_1,Rdown_split_2=Split(Rdown) (5)
Figure BDA0003060328490000053
Figure BDA0003060328490000054
Figure BDA0003060328490000055
Figure BDA0003060328490000056
Figure BDA0003060328490000057
Rregroup=Regroup(Rregroup) (11)
Rtranspose=Transpose(Rregroup) (12)
Rout=Regroup(Rtranspose) (13)
其中<·>代表拼接操作,bn(·)代表Batch Normalization操作,σ(·)代表Rectified Linear Unit激活层,dropout(·)代表Dropout操作;ω代表卷积核权重,上标用来区分卷积层的顺序,下标为卷积核大小;
首先特征图Xd-1∈RB×C×H×W经过一层卷积核大小为3×3,步长为2的卷积层和一次空间维度的max-pooled操作之后得到特征图Rdown_conv∈RB×C×1/2H×1/2W和Rdown_maxpool∈RB ×C×1/2H×1/2W。然后将特征图Rdown_conv和Rdown_maxpool拼接在一起进行BatchNormalization操作和非线性激活操作得到下采样模块的输出Rdown∈RB×2C×1/2H×1/2W,再将特征图Rdown∈RB ×2C×1/2H×1/2W沿着通道维度进行切片操作得到Rdown_split_1∈RB×C×1/2H×1/2W和Rdown_split_2∈RB ×C×1/2H×1/2W。将Rdown_split_1和Rdown_split_2分别输入到不同尺度的卷积核中得到
Figure BDA0003060328490000061
Figure BDA0003060328490000062
再将特征图
Figure BDA0003060328490000063
Figure BDA0003060328490000064
沿通道维度拼接在一起并与Rdown进行加法操作得到Rres_out∈RB×2C×1/2H×1/2W。最后将Rres_out进行通道混洗操作,通道混洗操作包含两次通道重组Regroup操作和一次维度交换Transpose操作,得到输出Rout∈RB ×2C×1/2H×1/2W,Rout即为每级下采样操作的输出。
(c)将经过三级下采样操作得到的输出Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W,三级上采样操作每级都由反卷积操作和通道感知模块组成,记输入为Xm-1,每级上采样操作的步骤如下:
Rup=σ(bn(convtranspose(Xm-1))) (14)
Figure BDA0003060328490000065
Figure BDA0003060328490000066
Figure BDA0003060328490000067
Figure BDA0003060328490000068
Mchannel=Sigmod(bn(Rup_concat)) (19)
Rout=Rup*Mchannel (20)
首先将特征图Xm-1∈RB×2C×1/2H×1/2W,经过反卷积、Batch Normalization操作和非线性激活Rectified Linear Unit操作得到特征图Rup∈RB×C×H×W。然后将特征图Rup输入两层3×3卷积层提取特征得到Rup_m∈RB×C×H×W,接着Rup_m沿着空间维度进行max-pooled和average-pooled得到
Figure BDA0003060328490000071
Figure BDA0003060328490000072
Figure BDA0003060328490000073
Figure BDA0003060328490000074
拼接在一起输入1×1卷积层实现降维,接着使用一层1×1卷积层和非线性激活Rectified Linear Unit操作得到Rup_concat∈RB×C×1×1,最后使用Batch Normalization操作将Rup_concat进行归一化操作并输入Sigomd函数进行非线性变换得到空间感知模块权重Mchannel∈RB×C×1×1,将Rup与Mchannel进行乘法操作获得上采样后的输出记为Rout∈RB×C×H×W,按上述方式Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W
步骤(3):构建基于卷积神经网络的深度图像精细化补全分支:
①首先Isparse∈RB×1×H×W经过一层卷积核大小为3×3的卷积层得到初始特征图,记为
Figure BDA0003060328490000075
深度图像精细化补全分支的下采样结构同样包含三级下采样,分别将步骤(2)彩色图像引导重建分支上采样阶段的Iup_3∈RB×16×H×W、Iup_2∈RB×32×1/2H×1/2W、Iup_1∈RB ×64×1/4H×1/4W和步骤(2)彩色图像引导重建分支下采样的输出Idown∈RB×128×1/8H×1/8W拼接至深度图像精细化补全分支对应的下采样阶段中,具体的操作如下:
Figure BDA0003060328490000076
R2=Down(σ(bn(ω1×1(<R1,Iup_2>))) (19)
R3=Down(σ(bn(ω1×1(<R2,Iup_1>))) (20)
R4=σ(bn(ω1×1(<R3,Idown>)) (21)
其中,R1∈RB×32×1/2H×1/2W、R2∈RB×64×1/4H×1/4W、R3∈RB×128×1/8H×1/8W为深度图像精细化补全分支每级下采样的结果;Down表示一级下采样结构,具体的操作如步骤(2)中公式(1)~公式(13)所定义的过程,R4∈RB×128×1/8H×1/8W为深度图像精细化补全分支下采样的输出。
②构建深度图像精细化补全分支上采样结构,深度图像精细化补全分支上采样结构和步骤(2)中彩色图像引导重建分支上采样结构相同,由三级上采样操作组成,R4经过三级上采样得到深度图像精细化补全分支上采样结构的输出Irefine∈RB×16×H×W,将Irefine输入一层3×3卷积层得到深度图像精细化补全分支的稠密补全输出Iout_D∈RB×1×H×W,Iout_D即为最终补全重建的高质量道路场景稠密深度图像。

Claims (2)

1.一种基于多阶段彩色图像引导的道路场景深度补全方法,其特征在于,该方法的具体步骤是:
步骤(1):获取道路场景稀疏深度图像Isparse和稠密彩色图像Icolor,分辨率为M×N,其中M和N分别为图像的高和宽;
步骤(2):构建基于卷积神经网络的彩色图像引导重建分支:
(a)首先将Isparse∈RB×1×H×W和Icolor∈RB×3×H×W沿通道维度进行拼接,得到四通道的输入图像Iconcat∈RB×4×H×W,Iconcat∈RB×4×H×W经过一层卷积核大小为3×3卷积层后得到初始的特征图
Figure FDA0003060328480000011
其中B表示网络的Batchsize;
(b)初始的特征图
Figure FDA0003060328480000012
经过三级下采样操作来提取特征得到输出记为Idown∈RB ×128×1/8H×1/8W,记输入的特征图为Xd-1,每级下采样操作的具体步骤如下:
Rdown_conv=ω3×3*Xd-1 (1)
Rdown_maxpool=MaxPool(Xd-1) (2)
Rdown_concat=<Rdown_conv,Rdown_maxpool> (3)
Rdown=σ(bn(Rdown_concat)) (4)
Rdown_split_1,Rdown_split_2=Split(Rdown) (5)
Figure FDA0003060328480000013
Figure FDA0003060328480000014
Figure FDA0003060328480000015
Figure FDA0003060328480000016
Figure FDA0003060328480000017
Rregroup=Regroup(Rregroup) (11)
Rtranspose=Transpose(Rregroup) (12)
Rout=Regroup(Rtranspose) (13)
其中<·>代表拼接操作,bn(·)代表Batch Normalization操作,σ(·)代表RectifiedLinear Unit激活层,dropout(·)代表Dropout操作;ω代表卷积核权重,上标用来区分卷积层的顺序,下标为卷积核大小;
首先特征图Xd-1∈RB×C×H×W经过一层卷积核大小为3×3,步长为2的卷积层和一次空间维度的max-pooled操作之后得到特征图Rdown_conv∈RB×C×1/2H×1/2W和Rdown_maxpool∈RB×C×1/2H×1/2W;然后将特征图Rdown_conv和Rdown_maxpool拼接在一起进行Batch Normalization操作和非线性激活操作得到下采样模块的输出Rdown∈RB×2C×1/2H×1/2W,再将特征图Rdown∈RB×2C×1/2H×1/2W沿着通道维度进行切片操作得到Rdown_split_1∈RB×C×1/2H×1/2W和Rdown_split_2∈RB×C×1/2H×1/2W;将Rdown_split_1和Rdown_split_2分别输入到不同尺度的卷积核中得到
Figure FDA0003060328480000021
Figure FDA0003060328480000022
再将特征图
Figure FDA0003060328480000023
Figure FDA0003060328480000024
沿通道维度拼接在一起并与Rdown进行加法操作得到Rres_out∈RB×2C×1/2H×1/2W;最后将Rres_out进行通道混洗操作,通道混洗操作包含两次通道重组Regroup操作和一次维度交换Transpose操作,得到输出Rout∈RB×2C×1/2H×1/2W,Rout即为每级下采样操作的输出;
(c)将经过三级下采样操作得到的输出Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W,三级上采样操作每级都由反卷积操作和通道感知模块组成,记输入为Xm-1,每级上采样操作的步骤如下:
Rup=σ(bn(convtranspose(Xm-1))) (14)
Figure FDA0003060328480000025
Figure FDA0003060328480000026
Figure FDA0003060328480000027
Figure FDA0003060328480000028
Mchannel=Sigmod(bn(Rup_concat)) (19)
Rout=Rup*Mchannel (20)
首先将特征图Xm-1∈RB×2C×1/2H×1/2W,经过反卷积、Batch Normalization操作和非线性激活Rectified Linear Unit操作得到特征图Rup∈RB×C×H×W;然后将特征图Rup输入两层3×3卷积层提取特征得到Rup_m∈RB×C×H×W,接着Rup_m沿着空间维度进行max-pooled和average-pooled得到
Figure FDA0003060328480000029
Figure FDA00030603284800000210
Figure FDA00030603284800000211
Figure FDA00030603284800000212
拼接在一起输入1×1卷积层实现降维,接着使用一层1×1卷积层和非线性激活RectifiedLinearUnit操作得到Rup_concat∈RB×C×1×1,最后使用BatchNormalization操作将Rup_concat进行归一化操作并输入Sigomd函数进行非线性变换得到空间感知模块权重Mchannel∈RB×C×1×1,将Rup与Mchannel进行乘法操作获得上采样后的输出记为Rout∈RB×C×H×W,按上述方式Idown∈RB×128×1/8H×1/8W经过三级上采样操作,分别得到Iup_1∈RB×64×1/4H×1/4W,Iup_2∈RB×32×1/2H×1/2W,Iup_3∈RB×16×H×W
步骤(3):构建基于卷积神经网络的深度图像精细化补全分支:
①首先Isparse∈RB×1×H×W经过一层卷积核大小为3×3的卷积层得到初始特征图,记为
Figure FDA0003060328480000031
深度图像精细化补全分支的下采样结构同样包含三级下采样,分别将步骤(2)彩色图像引导重建分支上采样阶段的Iup_3∈RB×16×H×W、Iup_2∈RB×32×1/2H×1/2W、Iup_1∈RB ×64×1/4H×1/4W和步骤(2)彩色图像引导重建分支下采样的输出Idown∈RB×128×1/8H×1/8W拼接至深度图像精细化补全分支对应的下采样阶段中,具体的操作如下:
Figure FDA0003060328480000032
R2=Down(σ(bn(ω1×1(<R1,Iup_2>))) (19)
R3=Down(σ(bn(ω1×1(<R2,Iup_1>))) (20)
R4=σ(bn(ω1×1(<R3,Idown>)) (21)
其中,R1∈RB×32×1/2H×1/2W、R2∈RB×64×1/4H×1/4W、R3∈RB×128×1/8H×1/8W为深度图像精细化补全分支每级下采样的结果;Down表示一级下采样结构,具体的操作如步骤(2)中公式(1)~公式(13)所定义的过程,R4∈RB×128×1/8H×1/8W为深度图像精细化补全分支下采样的输出;
②构建深度图像精细化补全分支上采样结构,深度图像精细化补全分支上采样结构和步骤(2)中彩色图像引导重建分支上采样结构相同,由三级上采样操作组成,R4经过三级上采样得到深度图像精细化补全分支上采样结构的输出Irefine∈RB×16×H×W,将Irefine输入一层3×3卷积层得到深度图像精细化补全分支的稠密补全输出Iout_D∈RB×1×H×W,Iout_D即为最终补全重建的高质量道路场景稠密深度图像。
2.根据权利要求1所述的一种基于多阶段彩色图像引导的道路场景深度补全方法,其特征在于:所述的路场景稀疏深度图像Isparse和稠密彩色图像Icolor通过激光雷达和彩色相机获取。
CN202110510868.6A 2021-05-11 2021-05-11 一种基于多阶段彩色图像引导的道路场景深度补全方法 Active CN113393511B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110510868.6A CN113393511B (zh) 2021-05-11 2021-05-11 一种基于多阶段彩色图像引导的道路场景深度补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110510868.6A CN113393511B (zh) 2021-05-11 2021-05-11 一种基于多阶段彩色图像引导的道路场景深度补全方法

Publications (2)

Publication Number Publication Date
CN113393511A true CN113393511A (zh) 2021-09-14
CN113393511B CN113393511B (zh) 2024-02-02

Family

ID=77616904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110510868.6A Active CN113393511B (zh) 2021-05-11 2021-05-11 一种基于多阶段彩色图像引导的道路场景深度补全方法

Country Status (1)

Country Link
CN (1) CN113393511B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930342A (zh) * 2019-10-28 2020-03-27 杭州电子科技大学 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN111275618A (zh) * 2020-01-12 2020-06-12 杭州电子科技大学 一种基于双支感知的深度图超分辨率重建网络构建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930342A (zh) * 2019-10-28 2020-03-27 杭州电子科技大学 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN111275618A (zh) * 2020-01-12 2020-06-12 杭州电子科技大学 一种基于双支感知的深度图超分辨率重建网络构建方法

Also Published As

Publication number Publication date
CN113393511B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN111275618B (zh) 一种基于双支感知的深度图超分辨率重建网络构建方法
CN110415170B (zh) 一种基于多尺度注意力卷积神经网络的图像超分辨率方法
CN111161150B (zh) 一种基于多尺度注意级联网络的图像超分辨率重建方法
CN109064396A (zh) 一种基于深度成分学习网络的单幅图像超分辨率重建方法
CN110930342B (zh) 一种基于彩色图引导的深度图超分辨率重建网络构建方法
CN111915660B (zh) 基于共享特征和注意力上采样的双目视差匹配方法及系统
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN113239954B (zh) 基于注意力机制的图像语义分割特征融合方法
CN112990219B (zh) 用于图像语义分割的方法和装置
CN114972746B (zh) 一种基于多分辨率重叠注意力机制的医学影像分割方法
CN113902622B (zh) 基于深度先验联合注意力的光谱超分辨率方法
CN116152062A (zh) 一种轻量化超分辨率重建方法
CN110866938A (zh) 一种全自动视频运动目标分割方法
US20240161531A1 (en) Transformer-based multi-scale pedestrian re-identification method
CN110598537A (zh) 一种基于深度卷积网络的视频显著性检测方法
CN1431523A (zh) 遥感图像双线性插值小波变换融合的优化方法
Gao et al. Shallow network based on depthwise overparameterized convolution for hyperspectral image classification
CN113393511A (zh) 一种基于多阶段彩色图像引导的道路场景深度补全方法
CN117576402A (zh) 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法
CN115984574B (zh) 一种基于循环Transformer的图像信息提取模型、方法及其应用
CN116433904A (zh) 一种基于形状感知和像素卷积的跨模态rgb-d语义分割方法
CN116977631A (zh) 一种基于DeepLabV3+的街景语义分割方法
CN115965819A (zh) 一种基于Transformer结构的轻量化害虫识别方法
Huang et al. Lidar-camera fusion based high-resolution network for efficient road segmentation
CN114693951A (zh) 一种基于全局上下文信息探索的rgb-d显著性目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant