CN111553869A - 一种空基视角下的生成对抗网络图像补全方法 - Google Patents

一种空基视角下的生成对抗网络图像补全方法 Download PDF

Info

Publication number
CN111553869A
CN111553869A CN202010403925.6A CN202010403925A CN111553869A CN 111553869 A CN111553869 A CN 111553869A CN 202010403925 A CN202010403925 A CN 202010403925A CN 111553869 A CN111553869 A CN 111553869A
Authority
CN
China
Prior art keywords
image
network
completion
contour map
completion network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010403925.6A
Other languages
English (en)
Other versions
CN111553869B (zh
Inventor
曹先彬
罗晓燕
刘旭辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202010403925.6A priority Critical patent/CN111553869B/zh
Publication of CN111553869A publication Critical patent/CN111553869A/zh
Application granted granted Critical
Publication of CN111553869B publication Critical patent/CN111553869B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06T5/77

Abstract

本发明提供了一种空基视角下的生成对抗网络图像补全方法,属于航空监视技术领域。针对因通信或者天气等约束条件,智能无人机拍摄到的图像会有部分缺失的情况,本发明方法首先利用显著性检测模型DeepCut检测出图像中的物体形状,再利用Canny边缘检测得到其轮廓图,该轮廓图是不完整的,再利用生成式对抗网络补全物体的轮廓图,最后将补全的轮廓图作为额外信息与有缺失图像一起输入到图像补全网络中得到最终的完整图像。本发明方法可以有效地提高补全的真实度,效果显著,在空基监视下的安全检测、情报收集分析等应用中都具有重大意义。

Description

一种空基视角下的生成对抗网络图像补全方法
技术领域
本发明属于航空监视技术领域,涉及无人机拍摄图像的补全技术,具体是一种空基视角下的生成对抗网络图像补全方法。
背景技术
随着无人机技术的不断成熟与发展,其应用领域越来越广泛。军事方面可以完美的替代有人机去执行4D任务,比如枯燥乏味、环境恶劣、危险性高、深入敌方的任务。民用方面更是广泛应用于农业、工业、服务行业等各领域,如农药喷洒、火灾救援、地质勘探、考古探险、物流运输等。而无人机在较为恶劣的条件下,如通信受限、天气恶劣等存在许多干扰的条件下工作时,往往会导致传输的图像存在部分缺失的情况,要想使后续的图像分析工作正常进行,图像补全就成了不可缺少的一部分,有着极为重要的意义。
在图像补全领域,基于传统学习的图像补全技术,其核心是从图像未受损的区域采样相似的像素块填充补全区域。这些方法可以有效补全一些背景缺失的图像,但其依赖于缺失区域与背景区域的相似度,不能补全前景目标。
随着深度学习的发展,卷积神经网络及生成对抗网络在图像补全领域也取得了十分优秀的成绩,其生成模型多为编码-解码结构的网络,可以更精细地补全图片纹理信息,但不能保持图像局部一致性,难以补全太大尺寸的缺失,难以解决前景信息缺失的问题。后续涌现的各种补全方法大都针对这些难题而做相应的改进。
发明内容
针对目前对无人机传输的图像补全存在的不能保持图像局部一致性,难以补全太大尺寸的缺失等问题,本发明提出了一种空基视角下的生成对抗网络图像补全方法,用于空基监视下的安全检测、情报收集分析等应用中。
本发明的一种空基视角下的生成对抗网络图像补全方法,包括如下步骤一至步骤六,具体如下:
步骤一、通过无人机采集待检测场景的图像;
步骤二、对无人机采集到的图像添加无规则形状的空白区域,模拟图像缺失现象,生成缺失不规则形状区域的图像;
步骤三、对缺失图像进行尺度归一化处理,然后再进行旋转、平移、翻转等操作,对原始的缺失图像进行变换,将变换前后的所有缺失图像作为训练样本数据集;
步骤四、对于缺失图像,首先利用显著性检测模型DeepCut检测出图像中的目标物体形状,利用Canny边缘检测模型得到目标的轮廓图;所检测得到的轮廓图是缺失图像中显著目标的轮廓图,一般情况下是不完整的;对训练样本进行步骤四处理,获取轮廓图;
步骤五、将缺失图像及不完整的轮廓图输入到轮廓补全网络中,经粗略补全和精细补全两步,生成目标完整的轮廓图;
步骤六、将缺失图像及完整的轮廓图输入到图像补全网络中,经粗略补全和精细补全两步,生成完整的图像。
利用训练样本的轮廓图对轮廓补全网络和图像补全网络进行训练。在训练完成后,对步骤一获取的图像进行尺度归一化处理,然后输入步骤四中检测缺失的轮廓图,然后输入步骤五获取补全的轮廓图,最后经过步骤六的图像补全网络,对图像进行补全,获得完整图像。
所述的步骤五中的轮廓补全网络包括粗略补全网络和精细补全网络两部分。首先,将缺失图像及不完整的轮廓图通过粗略补全网络得到一个粗略补全的轮廓图;粗略补全网络是一种编码-解码结构的卷积神经网络,并通过L2损失函数来反向传播。然后,将粗略补全的结果输入到精细补全网络中得到最终的补全轮廓图。精细补全网络是一种生成式对抗网络,其生成模型与粗略补全网络相似,是一种编码-解码结构的卷积神经网络,通过L2损失函数来反向传播,其判决模型通过对抗损失函数来反向传播。最终,通过生成-判决这个对抗过程生成目标完整的轮廓图。
所述的步骤六中的图像补全网络包括粗略补全网络和精细补全网络两部分。首先,将缺失图像及完整的轮廓图输入到粗略补全网络得到一个粗略补全的图像。粗略补全网络是一种编码-解码结构的卷积神经网络,并通过L2损失函数来反向传播。然后,将粗略补全的结果以及完整的轮廓图输入到精细补全网络中得到最终的补全图像。精细补全网络是一种生成式对抗网络,其生成模型与粗略补全网络相似,是一种编码-解码结构的卷积神经网络,通过L2损失函数来反向传播,其判决网络通过对抗损失函数来反向传播。最终,通过生成-判决这个对抗过程生成完整图像。
本发明与现有技术相比,具有以下优势和积极效果:
(1)本发明的图像补全方法,能够有效解决因天气等各种干扰条件造成的图像部分缺失问题,可以有效补全图像缺失部分,可以有效提升目标检测的准确度,在空基监视下的安全检测、情报收集分析等应用中,以及提升智能无人机的工作效率方面,有着重大的意义;
(2)本发明的图像补全方法,首先生成轮廓图,可以有效地预测前景的形状信息,由此进行图像补全可在一定程度上解决前景信息缺失的问题;由于使用了先粗略补全后精细补全的结构,使生成的图像更加真实,增强了局部一致性,并加入non-local,增强全局信息的提取,极大程度上增强了图像空间信息的提取,可以取得更加逼真自然的补全效果;
(3)本发明方法,通过对缺失图像旋转、平移、翻转等预处理,可以得到更多的训练样本,有利于图像补全网络模型识别各个角度和方向的图像,减小了因无人机拍摄角度问题造成的干扰。
附图说明
图1是本发明实施例中空基视角下生成对抗网络图像补全的流程图;
图2是本发明中轮廓补全以及图像补全网络的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的一种空基视角下的生成对抗网络图像补全方法,首先利用显著性检测模型DeepCut检测出图像中的物体形状,利用Canny边缘检测得到其轮廓图,然后利用生成对抗网络补全物体的轮廓图,最后将补全的轮廓图作为额外信息与有缺失图像一起输入到补全网络中得到最终的完整图像。其中,补全网络由两部分组成:粗略补全网络和精细补全网络。在粗略补全网络和精细补全网络中,本发明方法加入了Non-local注意力机制,可以有效地提高补全的真实度,效果显著,在空基监视下的安全检测、情报收集分析等应用中都具有重大意义。
如图1所示,本发明的一种空基视角下的生成对抗网络图像补全方法的实施分为六个步骤,下面说明各实现步骤。
步骤1,通过无人机拍摄获取完整的待检测场景图像。
智能无人机集群按照一定轨迹飞行,通过每架无人机搭载的高清摄像装置可以拍摄到待检测场景照片,并将图像存储下来,以进行下面图像检测和匹配的功能。
步骤2,对无人机采集到的图像,添加不规则形状的空白区域,模拟在一定约束条件下发生的图像缺失现象。
本发明实施例,以公开数据集QD-IMD(Quick Draw Irregular Mask Dataset,快速绘制不规则掩模数据集,数据链接地址https://github.com/karfly/qd-imd)作为不规则形状空白掩膜,覆盖到无人机采集图像上,生成缺失不规则形状区域的图像,即缺失图像。
步骤3,对步骤2获得的原始缺失图像进行预处理,包括旋转、翻转等操作,对原始缺失图像进行变换,得到更新后的图像数据集。
预处理包括如下步骤3.1~3.3:
步骤3.1,对所有缺失图像进行尺度归一化处理,保存为训练样本集Xa,通过尺度归一化保证每个作为训练样本的图像尺度相同;
步骤3.2,对尺度相同的训练样本分别进行旋转变换;设逆时针旋转角度为θ,旋转前某个训练样本上的某点A坐标为(x0,y0),旋转后该点A的坐标为(x1,y1),则有:
x1=x0cosθ-y0sinθ
y1=x0sinθ+y0cosθ
步骤3.3,对尺度相同的训练样本进行平移操作;
步骤3.4,对尺度相同的训练样本进行进行随机翻转处理;
步骤3.5,对尺度相同的训练样本,进行步骤3.2、步骤3.3和步骤3.4中任意一种或两种或三种的组合操作,将所有得到的训练样本构成新的训练样本集Xb。
将训练样本集Xa和Xb构成新的扩大后的训练样本集。
由于无人机采集图像会有角度、位置等的漂移,本步骤通过对图像预处理,经过旋转、平移翻转模拟了无人机采集图像收到的干扰,获得更多的训练样本,有利于后续模型识别各个角度和方向的图像,减小了因无人机拍摄角度问题造成的干扰。
步骤4,对于缺失图像,首先利用显著性检测模型DeepCut检测出图像中的目标物体形状,利用Canny边缘检测模型得到目标轮廓图像。
首先,使用DeepCut模型自动检测出缺失图像中的显著目标。DeepCut是一种可以提取并结合高层(high-level)特征和低层(low-level)特征,得到带有明确边界的显著目标掩膜的卷积神经网络。
然后,对得到的目标掩膜,使用Canny边缘检测模型得到其轮廓图。
生成的目标轮廓图是缺失图像中显著目标的轮廓图,所以一般情况下也是不完整的。下面结合步骤5和6补全缺失图像,如图2所示。
在训练阶段,对每个训练样本使用显著性检测模型DeepCut和Canny边缘检测模型进行目标检测和目标轮廓识别。
步骤5,将缺失图像与步骤4得到的不完整的目标轮廓图输入轮廓补全网络中,经粗略补全和精细补全,生成目标完整的轮廓图。
首先,将缺失图像及不完整的轮廓图通过粗略补全网络得到一个粗略补全的轮廓图。该粗略补全网络是一种编码-解码结构的卷积神经网络,并通过L2损失函数来反向传播。
然后,将粗略补全的结果输入到精细补全网络中得到最终的补全轮廓图。精细补全网络是一种生成式对抗网络,包括生成模型和判别模型,生成模型与粗略补全网络的结构相似,是一种编码-解码结构,通过L2损失函数来反向传播,判决模型通过对抗损失函数来反向传播。最终,通过生成-判决这个对抗过程生成目标完整的轮廓图。
步骤6,将缺失图像及完整的目标轮廓图输入到图像补全网络中,经粗略补全和精细补全两步,补全缺失图像,生成完整的图像。
首先,将缺失图像及完整的目标轮廓图输入到粗略补全网络得到一个粗略补全的图像。该粗略补全网络是一种编码-解码结构的卷积神经网络,并通过L2损失函数来反向传播。
然后,将粗略补全的结果以及完整的轮廓图输入到精细补全网络中得到最终的补全图像。该精细补全网络一种生成式对抗网络,包括生成模型和判别模型,生成模型与粗略补全网络的结构相似,是一种编码-解码结构,通过L2损失函数来反向传播,判决模型通过对抗损失函数来反向传播。最终,通过生成-判决这个对抗过程生成完整图像。
由于在图像补全任务中,感受野的大小与修补质量密切相关。在步骤5和6提到的粗略补全网络和精细补全网络中,本发明在搭建卷积神经网络时,使用了空洞卷积代替部分池化操作,可以在增大感受野的同时,不减小特征图尺寸,减轻空间信息的丢失问题。
另一方面,因为较高层数的特征图尺寸较小,丢失了一部分空间信息,在进行解码时,本发明对相邻层的特征图进行了特征融合,以融合高层语义信息和底层空间信息。另外,为了增强空间相关性,本发明在进行特征融合时加入Non-local注意力机制,并优化了其计算复杂度,分别增强特征图每行像素点之间的联系以及每列像素点之间的联系。Non-local注意力机制可以在神经网络提取特征时利用其空间维度上其他像素点的信息,即引入全局信息,为图像补全提供更多信息,使得补全效果更佳。
设Non-local注意力机制的输入为x,输出为y,则有:
Figure BDA0002490546630000051
其中,i和j分别代表输入x的某个空间位置,xi,xj代表特征图中的两个像素点,yi代表像素xi的输出;f是一个计算两点间相似关系的函数,此处使用矩阵乘法来实现;g是一个映射函数,将一个点映射成一个向量,可以看成是计算一个点的特征,此处通过卷积层实现。C(x)为归一化函数。
本发明利用卷积神经网络及生成式对抗网络对图像补全,在解码结构上对特征图进行融合优化并加入了Non-local注意力机制,在不引入过多参数的前提下,增强了空间信息的提取,可以将图像编码成高维隐空间的特征,再从这个特征解码成一张修复后的全图,通过生成-对抗的过程使生成的图像与原始图像更为接近。

Claims (3)

1.一种空基视角下的生成对抗网络图像补全方法,其特征在于,该方法包括如下步骤:
步骤1,由无人机采集待检测场景的图像;
步骤2,对缺失图像,首先利用显著性检测模型DeepCut检测出图像中的显著目标,再利用Canny边缘检测算法检测得到目标的轮廓图;所检测到的目标的轮廓图是不完整的;
步骤3,将缺失图像及不完整的轮廓图输入到轮廓补全网络中,经粗略补全和精细补全,生成目标完整的轮廓图;
所述的轮廓补全网络包括粗略补全网络和精细补全网络两部分;其中,粗略补全网络是一种编码-解码结构的卷积神经网络,并通过L2损失函数来反向传播;精细补全网络是一种生成式对抗网络,其中生成模型是一种编码-解码结构的卷积神经网络,通过L2损失函数来反向传播,判决模型通过对抗损失函数来反向传播;缺失图像及不完整的轮廓图输入粗略补全网络,输出的轮廓图输入精细补全网络,输出目标完整的轮廓图;
步骤4,将缺失图像及完整的目标轮廓图输入到图像补全网络中,经粗略补全和精细补全,补全缺失图像,生成完整的图像;
所述的图像补全网络包括粗略补全网络和精细补全网络两部分;其中,粗略补全网络是一种编码-解码结构的卷积神经网络,并通过L2损失函数来反向传播;精细补全网络是一种生成式对抗网络,其中生成模型是一种编码-解码结构的卷积神经网络,通过L2损失函数来反向传播,判决模型通过对抗损失函数来反向传播;缺失图像及完整的目标轮廓图输入粗略补全网络,输出的补全图像和完整的目标轮廓图输入精细补全网络,输出完整的图像;
步骤5,对轮廓补全网络和图像补全网络进行训练;对步骤1采集的图像,通过下面操作获取训练样本数据集,包括:
(1)对无人机采集的图像,添加无规则形状的空白区域,模拟图像缺失;
(2)对缺失图像进行尺度归一化,获取原始训练样本数据集;
(3)对原始训练样本通过旋转、平移和翻转操作,扩展训练样本数据集;
将训练样本进行步骤2,获得不完整的目标轮廓图,输入轮廓补全网络和图像补全网络进行训练;
步骤6,由步骤1获得图像进行尺度归一化,然后经步骤2检测到不完整的轮廓图,输入训练好的轮廓补全网络和图像补全网络进行图像补全。
2.根据权利要求1所述的方法,其特征在于,所述的步骤3和步骤4中,轮廓补全网络和图像补全网络的编码-解码结构的卷积神经网络中,进行解码时,对相邻层的特征图进行特征融合,以融合高层语义信息和底层空间信息;在进行特征融合时加入Non-local注意力机制,分别增强特征图每行像素点之间的联系以及每列像素点之间的联系。
3.根据权利要求1所述的方法,其特征在于,所述的步骤1中,获取训练样本时,使用快速绘制不规则掩模数据集QD-IMD作为不规则形状空白掩膜,覆盖到无人机采集的图像上,生成缺失不规则形状区域的图像。
CN202010403925.6A 2020-05-13 2020-05-13 一种空基视角下的生成对抗网络图像补全方法 Active CN111553869B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010403925.6A CN111553869B (zh) 2020-05-13 2020-05-13 一种空基视角下的生成对抗网络图像补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010403925.6A CN111553869B (zh) 2020-05-13 2020-05-13 一种空基视角下的生成对抗网络图像补全方法

Publications (2)

Publication Number Publication Date
CN111553869A true CN111553869A (zh) 2020-08-18
CN111553869B CN111553869B (zh) 2021-04-06

Family

ID=72004641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010403925.6A Active CN111553869B (zh) 2020-05-13 2020-05-13 一种空基视角下的生成对抗网络图像补全方法

Country Status (1)

Country Link
CN (1) CN111553869B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132790A (zh) * 2020-09-02 2020-12-25 西安国际医学中心有限公司 Dac-gan模型构建方法及在乳腺mr图像中的应用
CN112720494A (zh) * 2020-12-29 2021-04-30 北京航天测控技术有限公司 机械臂避障运动规划方法和装置
CN113139969A (zh) * 2021-05-17 2021-07-20 齐鲁工业大学 一种基于注意力机制的弱监督图像语义分割方法及系统
CN114257759A (zh) * 2020-09-22 2022-03-29 丰田自动车株式会社 用于图像补全的系统
CN117078509A (zh) * 2023-10-18 2023-11-17 荣耀终端有限公司 模型训练方法、照片生成方法及相关设备
CN114257759B (zh) * 2020-09-22 2024-05-10 丰田自动车株式会社 用于图像补全的系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2209090A1 (en) * 2009-01-14 2010-07-21 Samsung Electronics Co., Ltd. Image restoring apparatus and method thereof
CN106296692A (zh) * 2016-08-11 2017-01-04 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
US20190228508A1 (en) * 2018-01-24 2019-07-25 Adobe Inc. Digital Image Fill
CN110473151A (zh) * 2019-07-04 2019-11-19 北京航空航天大学 基于分区卷积和关联损失的双阶段图像补全方法及系统
CN110675339A (zh) * 2019-09-16 2020-01-10 山东师范大学 基于边缘修复和内容修复的图像修复方法及系统
CN110689495A (zh) * 2019-09-25 2020-01-14 安徽信息工程学院 一种深度学习的图像修复方法
US10614557B2 (en) * 2017-10-16 2020-04-07 Adobe Inc. Digital image completion using deep learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2209090A1 (en) * 2009-01-14 2010-07-21 Samsung Electronics Co., Ltd. Image restoring apparatus and method thereof
CN106296692A (zh) * 2016-08-11 2017-01-04 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
US10614557B2 (en) * 2017-10-16 2020-04-07 Adobe Inc. Digital image completion using deep learning
US20190228508A1 (en) * 2018-01-24 2019-07-25 Adobe Inc. Digital Image Fill
CN110473151A (zh) * 2019-07-04 2019-11-19 北京航空航天大学 基于分区卷积和关联损失的双阶段图像补全方法及系统
CN110675339A (zh) * 2019-09-16 2020-01-10 山东师范大学 基于边缘修复和内容修复的图像修复方法及系统
CN110689495A (zh) * 2019-09-25 2020-01-14 安徽信息工程学院 一种深度学习的图像修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FU, HAO 等: "Hyperspectral imaging from a raw mosaic image with end-to-end learning", 《OPTICS EXPRESS》 *
SATOSHI IIZUKA 等: "Globally and Locally Consistent Image Completion", 《ACM TRANSACTIONS ON GRAPHICS》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132790A (zh) * 2020-09-02 2020-12-25 西安国际医学中心有限公司 Dac-gan模型构建方法及在乳腺mr图像中的应用
CN112132790B (zh) * 2020-09-02 2024-05-14 西安国际医学中心有限公司 Dac-gan模型构建方法及在乳腺mr图像中的应用
CN114257759A (zh) * 2020-09-22 2022-03-29 丰田自动车株式会社 用于图像补全的系统
CN114257759B (zh) * 2020-09-22 2024-05-10 丰田自动车株式会社 用于图像补全的系统
CN112720494A (zh) * 2020-12-29 2021-04-30 北京航天测控技术有限公司 机械臂避障运动规划方法和装置
CN113139969A (zh) * 2021-05-17 2021-07-20 齐鲁工业大学 一种基于注意力机制的弱监督图像语义分割方法及系统
CN117078509A (zh) * 2023-10-18 2023-11-17 荣耀终端有限公司 模型训练方法、照片生成方法及相关设备
CN117078509B (zh) * 2023-10-18 2024-04-09 荣耀终端有限公司 模型训练方法、照片生成方法及相关设备

Also Published As

Publication number Publication date
CN111553869B (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
CN112270249B (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
CN113298818B (zh) 基于注意力机制与多尺度特征的遥感图像建筑物分割方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN111553869B (zh) 一种空基视角下的生成对抗网络图像补全方法
CN110084850B (zh) 一种基于图像语义分割的动态场景视觉定位方法
US11182644B2 (en) Method and apparatus for pose planar constraining on the basis of planar feature extraction
CN111161317A (zh) 一种基于多重网络的单目标跟踪方法
CN113052109A (zh) 一种3d目标检测系统及其3d目标检测方法
CN112785526B (zh) 一种用于图形处理的三维点云修复方法
CN112991350B (zh) 一种基于模态差异缩减的rgb-t图像语义分割方法
Holzmann et al. Semantically aware urban 3d reconstruction with plane-based regularization
CN111768415A (zh) 一种无量化池化的图像实例分割方法
CN113610905B (zh) 基于子图像匹配的深度学习遥感图像配准方法及应用
Toriya et al. SAR2OPT: Image alignment between multi-modal images using generative adversarial networks
CN114519819B (zh) 一种基于全局上下文感知的遥感图像目标检测方法
CN112767478B (zh) 一种基于表观指导的六自由度位姿估计方法
Shit et al. An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection
Yun et al. Cut-and-paste dataset generation for balancing domain gaps in object instance detection
CN117218343A (zh) 一种基于深度学习的语义部件姿态估计方法
CN117351078A (zh) 基于形状先验的目标尺寸与6d姿态估计方法
CN114817595A (zh) 基于草图的三维模型检索方法、装置、设备及介质
CN110555483B (zh) 基于fw-dcgan特征生成的极化sar分类方法
Elhousni et al. Height prediction and refinement from aerial images with semantic and geometric guidance
Mahdi et al. Aerial height prediction and refinement neural networks with semantic and geometric guidance
Wang et al. Saliency detection by multilevel deep pyramid model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant