CN112507849A - 一种基于条件生成对抗网络的动态到静态场景转换方法 - Google Patents
一种基于条件生成对抗网络的动态到静态场景转换方法 Download PDFInfo
- Publication number
- CN112507849A CN112507849A CN202011396405.3A CN202011396405A CN112507849A CN 112507849 A CN112507849 A CN 112507849A CN 202011396405 A CN202011396405 A CN 202011396405A CN 112507849 A CN112507849 A CN 112507849A
- Authority
- CN
- China
- Prior art keywords
- network
- dynamic
- scene
- coarse
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 230000003068 static effect Effects 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 108700026244 Open Reading Frames Proteins 0.000 claims 1
- 230000006835 compression Effects 0.000 claims 1
- 238000007906 compression Methods 0.000 claims 1
- 230000009977 dual effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 4
- 108091026890 Coding region Proteins 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000001125 extrusion Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于条件生成对抗网络的动态到静态场景转换方法,该方法生成器为由粗到细的串级两阶段网络,判别器为PatchGAN与SN‑PatchGAN。本发明根据粗网络输出结果与动态场景的像素值差异推断动态区域二值掩膜,随后由细网络对动态区域进行静态恢复。本发明提取细网络编码区的深层与浅层特征后,分别采用上下文注意力机制来优化动态区域场景生成。本发明采用的判别器相较于传统判别器更能关注到图像细节且训练过程更为稳定。本发明相比于传统动态到静态场景转换方法,提取的动态目标区域更为准确,生成的动态场景图像纹理丰富、更接近真实情况。
Description
技术领域
本发明涉及一种转换方法,具体涉及一种基于条件生成对抗网络的动态到静态场景转换方法,属于深度学习与图像生成技术领域。
背景技术
动态场景给基于视觉的机器人的位姿估计以及定位任务提出了较高的挑战。传统的解决方案是利用动态目标检测技术来区分图像区域的有效性,通过舍弃动态区域信息,仅利用静态区域进行位姿估计或定位。然而,当动态目标区域检测不准确或动态区域过大时,这种方法将导致有效信息不准确或太少,继而导致位姿估计或定位误差增大。为了改善这个现象,动态到静态场景转换方法被提出(Bescos B,Neira J,Siegwart R,et al.EmptyCities:Image Inpainting for a Dynamic-Object-Invariant Space[C].ICRA,2019)。其核心思想为,根据动态场景图像的内容推测其对应的静态场景图像。由于深度学习技术的发展,特别是图像生成领域的发展,使得这种转换成为可能。现有转换方法是利用条件生成对抗网络(P.Isola,J.-Y.Zhu,T.Zhou,and A.A.Efros.Image-to-image translationwith conditional adversarial networks[C].CVPR,2017),然而这种方法将生成静态场景图像的所有像素,尽管可以做到整张图像与真实图像平均像素误差较小,但由于均值的影响导致该方法在图像纹理与细节方面表现较差,而在机器人位姿估计与定位任务中图像细节与纹理信息却尤为重要。
发明内容
本发明正是针对现有技术中存在的问题,提供一种基于条件生成对抗网络的动态到静态场景转换方法,该技术方案可以提高图像动态区域的识别准确性以及图像场景转换的精度与语义一致性。
为了实现上述目的,本发明的技术方案如下,一种基于条件生成对抗网络的动态到静态场景转化方法,包括如下步骤:
步骤1,利用RGB相机采集到的城镇场景下相同位置的动态与静态两个场景的图像并裁剪、缩放至指定尺寸,利用标注的方法获得动态场景中动态目标,包括行人、车辆的二值掩膜。
步骤2,构建条件生成网络,生成器是由粗到细的两部分卷积神经网络(Coarse tofine Network)构成,粗粒度生成网络(以下简称粗网络)是遵循U-Net模型结构的全卷积神经网络,细粒度生成网络(以下简称细网络)是含有上下文注意力机制的全卷积神经网络;判别器采用图像块判别器(PatchGAN)与谱归一化判别器(SN-PatchGAN),其中粗网络生成图像输入PatchGAN判别器,细网络生成结果输入SN-PatchGAN判别器。
步骤3,利用采集的城镇场景的动态场景、静态场景、动态目标掩膜训练上述条件生成对抗神经网络。
步骤4,将转换的动态场景裁剪,缩放至指定尺寸,输入训练好的条件生成对抗网络,获得条件生成对抗网络的生成器输出的与动态场景相对应的静态场景。
与现有技术相比,本发明的有益效果是:(1)通过由粗到细的串级两阶段生成网络中的粗网络生成的结果与输入静态场景图像推断动态区域,获得的动态区域掩膜比输入的动态目标掩膜更为准确,如包括了行人与车辆所带来的阴影、行人所持雨伞、行李箱等;(2)细网络考虑生成图像纹理与结构信息,在网络的浅层与深层分别采用上下文注意力机制来优化动态区域场景转换的语义一致性、纹理与细节;(3)采用两种不同的判别器,提高了粗粒度以及细粒度生成图像的真实性;(4)使用PatchGAN判别器与频谱归一化操作,有利于提高训练过程的稳定性。
附图说明
图1是本发明给出的条件生成对抗网络的整体框架图;
图2是本发明提及的粗粒度网络框架图;
图3是本发明提及的细粒度网络框架图。
具体实施方式:
为了加深对本发明的理解,下面结合附图对本实施例做详细的说明。
实施例1:参见图1,一种基于条件生成对抗网络的动态到静态场景转化方法,包括如下步骤:
步骤1:数据预处理阶段;
步骤2:模型构建阶段,所述模型包括由粗到细的串级两阶段生成网络,以及两种类型的判别网络,
步骤3:模型参数训练阶段,
步骤4:动态到静态场景图像转换模块阶段;
在数据预处理阶段,对数据进行处理以满足网络要求。首先对数据集里的图像进行随机裁剪和缩放并制作训练数据,以同一地点的动态场景、动态目标二值掩膜、静态场景为一组数据,构建多组训练数据。
在模型构建阶段,根据模型设计并搭建对应的深度神经网络。所述网络包括生成网络G(包括粗网络G1、细网络G2)以及判别网络D(包括PatchGAN判别网络D1、SN-PatchGAN判别网络D2)。
在模型参数训练阶段,根据构建的模型,设计对应的损失函数,并确定生成网络与判别网络的优化器以及优化过程。
在动态到静态场景图像转换模块阶段,输入动态场景图像x1与动态目标掩膜m1至训练好的生成网络G,网络将输出对应的静态场景图像。
下面介绍各阶段具体内容。
(1)数据预处理阶段,为满足神经网络对输入数据的要求,需要对数据进行预处理。在预处理阶段,对数据进行数值的归一化、图像尺寸调整。首先将图像的像素值放缩到[-1,1]之间,然后对数据尺寸进行调整。模型训练模块要求输入图像的分辨率是256×256,为了避免直接调整图像大小造成的图像失真和信息丢失,若图像的分辨率不是256×256,采取随机裁剪的方式从原图中取一块尺寸为256×256的局部区域图像作为训练图像。
(2)模型构建阶段,所述模型包括由粗到细的串级两阶段生成网络,以及两种类型的判别网络,整体模型框架如图1所示。
其中,粗网络G1采用U-Net,其网络结构如图2所示。考虑通过最小化重建损失以及GAN损失,生成的粗粒度静态场景图像I1与真实静态场景y各个像素值将尽可能接近,故粗网络输出结果与输入的动态场景图像x1的绝对像素误差能反映出动态区域,设误差阈值为τ,则动态区域二值掩膜m2为
m2=filter(m1∨||G1(x1,m1)-x1||>τ)
其中,filter表示滤波操作,以抑制动态区域检测的噪声。
细网络G2是含有跳接的多层全卷积网络,分为编码网络与解码网络,如图3所示。当动态区域掩膜获取后,G2则可视为具有确定性Ground Truth的图像修复网络,设其输入的受损图像为x2,有
x2=x1⊙(1-m2)+G1(x1,m1)⊙m2
由于深度卷积网络的特性,浅层主要包含纹理信息、深度主要包含结构信息,因此提取两种特征并融合至解码网络入口。考虑到上下文注意力机制(Contextual Attention,CA)可以从已知背景图像块借用或复制特征信息的位置以生成缺失图像块,因此利用其图像纹理修复方面的优势分别对浅层与深层网络进行处理。然后将两个方面的特征图通过挤压与激励机制(Squeeze-and-Excitation Network,SENet)进行融合,与编码网络的特征图合并送入解码网络得到最终输出的静态场景图像I2,有
I2=x1⊙(1-m2)+G2(x2,m2)⊙m2
本发明涉及的上下文注意力机制:在背景中提取3×3大小的图像块并将它们重新整形为卷积滤波器,为了匹配前景图像块fx,y,背景图像块bx',y',采用余弦相似度进行测量,得到每个像素注意力得分,再以特征图的形式融入网络进行计算。
其中,Sx,y,x′,y′表示以背景(x′,y′)和前景(x,y)为中心的图像块的相似性,然后在x′y′的维度上以缩放的SoftMax来衡量相似度,得到每个像素的注意力得分。
其中,λ为常数。注意力得分获取后,再据此挑选合适的背景图像块作为反卷积滤波器来重建前景区域。
本发明涉及的挤压与激励机制:首先对卷积得到的特征图进行挤压操作,得到通道级的全局特征,然后对全局特征进行激励操作,得到不同通道的权重,最后乘上原来的特征得到最终特征图。
对于c×H×W大小的特征图,挤压操作对每个通道采用全局平均池化实现,即
为了获取各个通道间的非线性关系,采用激励机制,即Sigmoid形式的门控机制。
s=Fex(z,W)=σ(g(z,W))
其中,g(z,W)=W2·ReLu(W1·z),为了降低模型复杂度以及提升泛化能力,这里采用包含两个全连接层的bottleneck结构,其中第一个FC层起到降维的作用,降维系数为r,然后采用ReLU激活,最后的FC层恢复原始的维度。获取各个通道的激活值后,乘以原始特征,得到最终特征图s·u。
PatchGAN判别器D1为全卷积网络,与普通GAN判别器将输入映射为一个实数(即输入样本为真样本的概率)不同,PatchGAN是将输入映射为N×N的特征图,图中每个值代表相应的图像块(也即感受野)为真样本的概率。之后,再对特征图求取均值作为判别器输出,这样比普通的GAN判别器更能关注到图像细节。
SN-PatchGAN判别器D2是含有谱归一化的全卷积网络,由于细网络只修复动态区域,因此将动态区域二值化掩膜也作为判别器输入。但由于动态区域是任意形式的,故而采用谱归一化使得判别器训练更为稳定。其做法是将神经网络的每层参数做非奇异值分解,然后将其最大奇异值限定为1,以满足1-Lipschitz条件。为提升效率,在实际计算中,通过幂迭代法以获得奇异值的近似解。
(3)模型参数训练阶段,本发明将动态场景图像到静态场景图像的转换过程分为两个子阶段,每个子阶段的优化目标不尽相同,因此在每个阶段都会使用相应的损失函数来指导该阶段网络参数的训练。生成网络方面,粗网络损失函数包括重建损失、GAN损失,细粒度网络包括局部重建损失、GAN损失、感知损失。判别网络方面,两个判别器只涉及对抗损失。
粗网络重建损失:重建损失是对场景转换后的图像与真实静态场景图像在像素空间上的差异进行惩罚,用于确保转换后的场景图像和真实静态图像在像素上相似。避免L2损失下对噪声过于敏感,高频信息处理效果差等问题,本发明采用L1损失,即
粗网络GAN损失:生成对抗网络采用判别网络带来的GAN损失来指导生成网络,使得伪造图像的数据分布和自然图像相近。GAN损失定义如下
其中,D1为粗粒度网络全局判别器。
细网络重建损失:与粗网络类似,但只关注于动态区域部分,其定义如下
细网络GAN损失:与粗网络类似,但SN-PatchGAN判别器增加了m2,有
细网络感知损失:与粗网络类似,但只关注于动态区域部分,有
其中,q是所选择的VGG-16的层数,本发明使用网络层为pool1,pool2,pool3。
PatchGAN判别器损失,考虑真实数据经过判别器输出真的概率尽可能大,伪造数据输出为假的概率尽可能大,因此定义为
同理,SN-PatchGAN判别器损失,定义为
生成网络G的联合损失是重建损失、GAN损失、感知损失的加权和,总的损失函数如下
Lossg=Loss1+Loss2
判别网络D的联合损失函数如下
生成对抗神经网络是通过生成网络和判别网络之间的“博弈”进行训练的,输入的数据组合为同一地点对应的动态场景图像、动态目标二值掩膜,以及真实的静态场景图像,利用联合损失函数,交替训练生成网络和判别网络,训练采用Adam优化器。
为了更精准地获取动态区域掩膜,可以先以Loss1为损失函数训练粗网络、以为损失函数训练PatchGAN判别器参数,之后固定住两者网络参数,再以Loss2训练细网络、以训练SN-PatchGAN判别器参数。
(4)动态到静态场景图像转换模块阶段,输入动态场景图像x1与动态目标掩膜m1至训练好的生成网络,网络将输出对应的静态场景图像I2,其在语义一致性、纹理以及其他细节上皆具有较好的表现。
需要说明的是上述实施例,并非用来限定本发明的保护范围,在上述技术方案的基础上所做出的等同变换或替代均落入本发明权利要求所保护的范围。
Claims (9)
1.一种基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述方法包括以下步骤:
步骤1:数据预处理阶段;
步骤2:模型构建阶段,所述模型包括由粗到细的串级两阶段生成网络,以及两种类型的判别网络;
步骤3:模型参数训练阶段;
步骤4:动态到静态场景图像转换模块阶段。
2.根据权利要求1所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤1,数据预处理阶段,具体如下,利用RGB相机采集到的城镇场景下相同位置的动态与静态两个场景的图像并裁剪、缩放至指定尺寸,利用标注的方法获得动态场景中动态目标,包括行人、车辆的二值掩膜。
3.根据权利要求2所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤2,模型构建阶段,具体如下,构建条件生成网络,生成器是由粗到细的两部分卷积神经网络(Coarse to fine Network)构成,粗粒度生成网络(以下简称粗网络)是遵循U-Net模型结构的全卷积神经网络,细粒度生成网络(以下简称细网络)是含有空间与通道双重注意力机制的全卷积神经网络;判别器采用图像块判别器(PatchGAN)与谱归一化判别器(SN-PatchGAN),其中粗网络生成图像输入PatchGAN判别器,细网络生成结果输入SN-PatchGAN判别器。
4.根据权利要求3所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤3,模型训练阶段,具体如下,利用采集的城镇场景的动态场景、静态场景、动态目标掩膜训练上述条件生成对抗神经网络。
5.根据权利要求3或4所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,步骤4:动态到静态场景图像转换模块阶段,将转换的动态场景裁剪,缩放至指定尺寸,输入训练好的条件生成对抗网络,获得条件生成对抗网络的生成器输出的与动态场景相对应的静态场景。
6.根据权利要求5所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤2中,使用U-Net生成粗粒度静态场景图像,并由输入动态场景图像,计算两张图像像素绝对误差,设定阈值进行划分。
7.根据权利要求6所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤3中,从粗粒度生成网络编码区域提取纹理与结构信息,并通过上下文注意力机制以及挤压与激励机制生成细粒度静态场景图像。
8.根据权利要求6所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤4中,通过两个判别器提高粗粒度结果与细粒度结果的真实性,判别器1采用Patch GAN,判别器2采用SN-PatchGAN,判别器判断每个图像块是否为真实数据。
9.根据权利要求6所述的基于条件生成对抗网络的动态到静态场景转换方法,其特征在于,所述步骤4中,由粗到细的串级两阶段网络的生成器损失函数,以及两种判别器的判别损失,根据判别损失和生成损失计算梯度,并通过反向传播算法优化生成网络与判别网络参数,直到训练达到最大迭代次数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011396405.3A CN112507849A (zh) | 2020-12-04 | 2020-12-04 | 一种基于条件生成对抗网络的动态到静态场景转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011396405.3A CN112507849A (zh) | 2020-12-04 | 2020-12-04 | 一种基于条件生成对抗网络的动态到静态场景转换方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112507849A true CN112507849A (zh) | 2021-03-16 |
Family
ID=74969558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011396405.3A Pending CN112507849A (zh) | 2020-12-04 | 2020-12-04 | 一种基于条件生成对抗网络的动态到静态场景转换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112507849A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096766A (zh) * | 2021-04-08 | 2021-07-09 | 济南大学 | 一种个性化精准放疗计划中的三维剂量预测方法及系统 |
CN113283382A (zh) * | 2021-06-15 | 2021-08-20 | 合肥工业大学 | 一种井下管道泄漏场景描述方法和装置 |
CN115115537A (zh) * | 2022-05-13 | 2022-09-27 | 大连理工大学 | 一种基于掩码训练的图像修复方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580472A (zh) * | 2019-09-12 | 2019-12-17 | 合肥工业大学 | 一种基于全卷积网络和条件对抗网络的视频前景检测方法 |
CN110866455A (zh) * | 2019-10-25 | 2020-03-06 | 南京理工大学 | 一种路面水体检测方法 |
CN111353449A (zh) * | 2020-03-03 | 2020-06-30 | 南京理工大学 | 基于条件生成对抗网络的红外道路图像水体检测方法 |
-
2020
- 2020-12-04 CN CN202011396405.3A patent/CN112507849A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580472A (zh) * | 2019-09-12 | 2019-12-17 | 合肥工业大学 | 一种基于全卷积网络和条件对抗网络的视频前景检测方法 |
CN110866455A (zh) * | 2019-10-25 | 2020-03-06 | 南京理工大学 | 一种路面水体检测方法 |
CN111353449A (zh) * | 2020-03-03 | 2020-06-30 | 南京理工大学 | 基于条件生成对抗网络的红外道路图像水体检测方法 |
Non-Patent Citations (2)
Title |
---|
HONGYU LIU等: "Coherent Semantic Attention for Image Inpainting", 《ARXIV》, 4 July 2019 (2019-07-04), pages 1 - 20 * |
ZHANG等: "AutoRemover: Automatic Object Removal for Autonomous Driving Videos", 《ARXIV》, 28 November 2019 (2019-11-28), pages 1 - 9 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096766A (zh) * | 2021-04-08 | 2021-07-09 | 济南大学 | 一种个性化精准放疗计划中的三维剂量预测方法及系统 |
CN113283382A (zh) * | 2021-06-15 | 2021-08-20 | 合肥工业大学 | 一种井下管道泄漏场景描述方法和装置 |
CN113283382B (zh) * | 2021-06-15 | 2022-08-30 | 合肥工业大学 | 一种井下管道泄漏场景描述方法和装置 |
CN115115537A (zh) * | 2022-05-13 | 2022-09-27 | 大连理工大学 | 一种基于掩码训练的图像修复方法 |
CN115115537B (zh) * | 2022-05-13 | 2024-05-28 | 大连理工大学 | 一种基于掩码训练的图像修复方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639692B (zh) | 一种基于注意力机制的阴影检测方法 | |
CN111462126B (zh) | 一种基于边缘增强的语义图像分割方法及系统 | |
CN112347859B (zh) | 一种光学遥感图像显著性目标检测方法 | |
CN110111366B (zh) | 一种基于多级损失量的端到端光流估计方法 | |
CN113392960B (zh) | 一种基于混合空洞卷积金字塔的目标检测网络及方法 | |
CN112507849A (zh) | 一种基于条件生成对抗网络的动态到静态场景转换方法 | |
CN113011329A (zh) | 一种基于多尺度特征金字塔网络及密集人群计数方法 | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN115512103A (zh) | 多尺度融合遥感图像语义分割方法及系统 | |
CN116469100A (zh) | 一种基于Transformer的双波段图像语义分割方法 | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
CN111696136A (zh) | 一种基于编解码结构的目标跟踪方法 | |
CN113297959A (zh) | 一种基于角点注意力孪生网络的目标跟踪方法及系统 | |
CN115293986A (zh) | 一种多时相遥感图像云区重建方法 | |
CN114266957A (zh) | 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法 | |
CN116485867A (zh) | 一种面向自动驾驶的结构化场景深度估计方法 | |
Lo et al. | RCDPT: Radar-camera fusion dense prediction transformer | |
CN117522674A (zh) | 一种联合局部和全局信息的图像重建系统及方法 | |
CN117765404A (zh) | 一种基于特征相关性神经网络的复杂场景变化检测方法 | |
CN117058392A (zh) | 一种基于卷积局部增强的多尺度Transformer图像语义分割方法 | |
CN116704367A (zh) | 一种多尺度特征融合耕地变化检测方法及系统 | |
CN115170985B (zh) | 一种基于阈值注意力的遥感图像语义分割网络及分割方法 | |
CN115631412A (zh) | 基于坐标注意力和数据相关上采样的遥感图像建筑物提取方法 | |
CN111127355A (zh) | 一种对缺损光流图进行精细补全的方法及其应用 | |
CN113223006A (zh) | 一种基于深度学习的轻量级目标语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |