CN111915571A - 融合残差网络与U-Net网络的图像变化检测方法、装置、存储介质及设备 - Google Patents
融合残差网络与U-Net网络的图像变化检测方法、装置、存储介质及设备 Download PDFInfo
- Publication number
- CN111915571A CN111915571A CN202010664086.3A CN202010664086A CN111915571A CN 111915571 A CN111915571 A CN 111915571A CN 202010664086 A CN202010664086 A CN 202010664086A CN 111915571 A CN111915571 A CN 111915571A
- Authority
- CN
- China
- Prior art keywords
- network
- net
- residual error
- image change
- net network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及算机视觉的变化检测领域,具体为一种融合残差网络与U‑Net网络的图像变化检测方法,该方法包括将U‑Net网络的编码部分改造为残差网络,解码部分保持不变;将改造后的U‑Net网络生成孪生网络,分别提取不同时期图像的抽象特征;利用对比损失函数计算网络输出与基准图像之间的差异,来对改造后的U‑Net网络进行训练;使用训练后的网络计算不同时期图像的差异图,并利用图像分割技术来寻找最优的分割阈值将变化区域提取出来;本发明引入残差网络,避免了在层层映射过程中出现的梯度消失问题;采用U‑Net孪生网络,训练时需要更少的参数和更少的数据并且不容易过拟合。
Description
技术领域
本发明涉及算机视觉的变化检测领域,具体为一种图像变化检测方法、装置、存储介质及设备。
背景技术
场景变化检测是计算机视觉领域的一项基本任务。其核心思想是检测同一场景于不同时间点拍摄的多张图像之间的变化。从变化的不同角度来看,它包括两个方面:语义变化(感兴趣区域变化)、噪声变化(干扰变化),变化检测则旨在识别同一场景于不同时间的语义变化而非噪声变化。然而,现实中终究无法避免噪声变化的出现,因而该任务面临的最大的挑战即由各种因素(如:光照、阴影、视点差异等)作用而产生的噪声变化,这些噪声变化极易与语义变化交织在一起从而出现‘语义融合’现象,使得语义变化难以被区分、被测量,提升变化检测的难度。
图像差异法作为变化检测经典的方法,它通过识别图像对之间“显著不同”的像素集合,使用阈值处理获得二元掩模从而生成变化图,凭借其低计算成本被研究人员广泛使用,但存在的缺点是原始RGB特征无法有效区分语义变化和噪声变化。随后为解决该问题又相继提出了图像配准,变化向量分析,马尔可夫随机场,主成分分析和字典学等,可它们面对噪声变化均表现出高敏感性,因而收效甚微。近来,主流的场景变化检测算法几乎都是基于全卷积网络的,这种方法通过学习决策边界、最大化决策边界来检测变化,并非直接衡量差异或者变化。本文的目标是通过直接测量图像对之间的差异或变化,来实现一种端到端的场景变化检测方法。因此,解决该问题最直接的想法:最大程度地检测语义变化的同时剔除噪声变化;一种可行的方法:通过学习判别度量来衡量变化,为语义变化分配更高的测量值,同时赋予噪声变化及不变化更低的测量值,使得检测在面对噪声变化时仍表现出较高的鲁棒性。
如上所述,解决问题的关键即自定义判别度量,从而更好的区分语义变化和噪声变化。然而,想要获得如此度量公式并非易事。近来,深度度量学习已成为计算机视觉任务中学习可辨别特征的关键因素,其广泛应用于各种计算机视觉任务当中,如人脸识别、特征学习。它的核心思想是减小类内差异、增大类间差异。这种学习策略为语义融合问题提供了一种灵活可行的解决方案,即将图像对相同位置发生变化的区域定义为变化对(深度度量学习中的‘正对’),同一位置未发生变化的区域定义为未变化对(‘负对’)。借鉴深度度量学习的思想,网络尝试学习一个隐式度量,它使得未变化对(噪声变化对及真实未变化对)之间的距离尽可能的小,使已变化对(真实变化对)之间的距离尽可能的大。
在卫星遥感应用中,利用卫星图像来进行变化检测是一个重要的研究方向,有着大量的应用。在电力线巡检中,利用卫星数据来辅助进行巡检决策可以作为机巡和人巡的重要补充。卫星的优点是数据观测的幅宽大,能够实现大范围的监测。而且随着卫星图像分辨率的不断提升,越来越多的领域采用高分辨率卫星数据来进行信息提取与作业,能够明显的提高工作效率,降低成本。目前遥感、无人机以及近景在不同时间拍摄的图像数据的变化都会出现检测精度不高的问题,主要在于:(1)传统的变化检测方法一般采用阈值方法或者简单的特征提取,精度不高而且容易受到光照阴影都因素的影响;(2)采用识别的卷积神经网络框架来进行变化检测会导致图像的分辨率下降;(3)采用普通的卷积神经网络会出现梯度消失的问题。
发明内容
本发明的目的在于提供一种融合残差网络与U-Net网络的图像变化检测方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种融合残差网络与U-Net网络的图像变化检测方法,包括
步骤S1:将U-Net网络的编码部分改造为残差网络,解码部分保持不变;
步骤S2:将改造后的U-Net网络生成孪生网络,分别提取不同时期图像的抽象特征;
步骤S3:利用对比损失函数计算网络输出与基准图像之间的差异,来对改造后的U-Net孪生网络进行训练;
步骤S4:使用训练后的网络计算不同时期图像的差异图,并利用图像分割技术来寻找最优的分割阈值将变化区域提取出来。
优选的,所述步骤S1中将残差网络与U-Net网络进行改造融合时,在U-Net网络中引入恒等快捷连接的结构。
优选的,所述快捷连接的结构改造U-Net网络时,可一次跳过一层网络,也可一次跳过多层网络。
优选的,所述U-Net的编码部分对应U-Net网络左侧的收缩路径。
优选的,所述步骤S2中孪生网络的两个分支网络完全相同,两个分支网络的权重用相同的值初始化并通过随机梯度下降算法接收相同的梯度,从图像对中提取对应的特征对。
优选的,所述步骤S3中的损失函数为:
其中d代表样本对经过网络后所得到的特征对之间的欧式距离;y是样本标签,m是设置的一个阈值。
优选的,所述阈值m的取值为默认值2。
为达上述目的,本发明还提供一种图像变化检测装置,包括:
网络改造模块,用于将U-Net网络的编码部分改造为残差网络;
孪生网络提取模块,用于将改造后的U-Net网络生成孪生网络,并提取不同时期图像的抽象特征;
对比损失函数模块,用于对U-Net孪生网络进行训练;
差异图提取模块,用于使用U-Net孪生网络提取不同时期图像的变化区域。
为达上述目的,本发明还提供一种图像变化检测存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时能够实现上述的图像变化检测方法。
为达上述目的,本发明还提供一种图像变化检测设备,包括存储介质、处理器和计算机程序,所述计算机程序存储在存储介质上且可在处理器上运行,所述处理器执行所述程序时能够实现上述的图像变化检测方法。
与现有技术相比,本发明的有益效果是:
(1)引入残差网络,将浅层的输入值直接连接到端部位置,避免了在层层映射过程中,容易出现的梯度消失问题,而且可让网络一直处于最优状态了,性能也不会随着深度增加降低;
(2)采用U-Net孪生网络,网络架构直观,训练需要更少的参数和更少的数据并且不容易过拟合,并且利用U-Net网络上采样来提高特征图的分辨率,能够较为精细的恢复变化区域的细节;
(3)使用对比损失函数来进行网络的训练,通过降维处理,可以很好的反应出样本对之间的相似程度,提高网络的特征提取能力。
附图说明
图1为本发明实施例1的图像变化检测技术流程示意图;
图2为本发明实施例2的图像变化检测装置结构示意图;
图3为本发明实施例1的图像变化检测技术工作流程图;
图4为U-Net网络结构示意图;
图5为残差网络的基础结构示意图;
图6为本发明实施例1修改后的U-Net网络编码分支示意图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,以令本领域技术人员参照说明书文字能够据以实施实施例1
请参阅图1,本实施例提供了一种融合残差网络与U-Net网络的图像变化检测方法,包括以下步骤:
步骤S1:将U-Net网络的编码部分改造为残差网络,解码部分保持不变。
在本步骤中,如图4所示,U-net网络因其形似字母‘U’的结构而得名,它是全卷积神经网络的一种变形。可以通过数据增广的方式有效地使用现有样本,U-net网络主要由两部分组成:收缩路径以及扩展路径,其中收缩路径用来捕捉上下文信息,通过卷积作用对样本数据进行特征提取;扩展路径则在特征上采样过程中,将底层特征图与上一层的特征图相结合,最大程度地保留卷积过程中所提取到的特征信息,完成局部信息与全局信息的完美结合,从而实现精确定位。
残差网络是引入一个快捷连接的结构,如图5所示,可一次跳过一层网络,也可一次跳过多层网络,解决了深度学习层数较多时训练容易出现的梯度消失问题,本步骤中将残差网络的构造引入U-Net中,将残差网络与U-Net网络进行融合,对编码部分进行改造。U-Net的编码部分对应了图2所示左边的分支,该分支的图像分辨率在不断下降的同时获取了图像中的抽象特征,但是采用的方式是传统的卷积网络加池化的操作,本步骤中将U-Net的编码部分引入恒等快捷连接的结构,可以让网络随深度增加而不退化,将浅层的输入值直接连接到端部位置,这样就避免了在层层映射过程中,由于权重小于1而最终导致的梯度消失的现象,改造后的U-Net的编码部分示意图如图6所示。
步骤S2:将改造后的U-Net网络生成孪生网络,分别提取不同时期图像的抽象特征。
本步骤中的孪生网络针对传统的深度神经网络的输入只有一张图像以及对应的一张地面真值图,但用于变化检测任务的神经网络,其输入需要一对图像以及对应的一张地面真值图的问题,采用改造后的U-Net网络,利用U-Net网络上采样来提高特征图的分辨率,能够较为精细的恢复变化区域的细节,而且该孪生网络的两个分支网络完全相同,两个分支网络的权重用相同的值初始化并通过随机梯度下降算法接收相同的梯度,在训练需要更少的参数更少的数据,并且不容易过拟合,从图像对中提取对应的特征对,将输入的图片对映射为高维空间中的特征对。
步骤S3:利用对比损失函数计算网络输出与基准图像之间的差异,来对改造后的U-Net孪生网络进行训练。
本步骤中采用对比损失函数来计算网络输出与基准图像之间的差异,并对改造后的U-Net网络进行训练。对比损失的核心思想是扩大类间差异、减小类内差异。它主要被运用在降维处理过程中,即对相似的样本进行降维处理后,其对应的特征仍然相似,而本不相似的样本经过降维处理后仍旧不相似,因而可以很好的反应出U-Net网络提取对应的特征对之间的相似程度。对比损失函数可以很好的表达成对样本的匹配程度,也能够很好用于训练提取特征的模型。
其方程表达式如下:
其中d代表样本对经过网络后所得到的特征对之间的欧式距离;y是样本标签,当y=0时,代表样本对是相似或者匹配的,当y=1时,代表样本对是不匹配的;m是设置的一个阈值,在本发明中用于计算欧式距离的特征对已经过归一化处理,因而此处m使用默认值2。
由上式可以看出,当样本对相似(即y=0)时,函数只有前半部分(1-y)d2,若原本相似的样本对之间的欧式距离较大,则说明此时网络不佳,函数随即会加大网络损失;而当样本对不相似(即y=1)时,函数只剩后半部分ymax(m-d,0)2,若原本不相似的样本对之间的欧式距离较小,同样说明此时网络不佳,函数一样会加大网络损失,达到我们所需要的效果
步骤S4:使用训练后的网络计算不同时期图像的差异图,并利用图像分割技术来寻找最优的分割阈值将变化区域提取出来。
实施例2
请参阅图2,本实施例提供了一种图像变化检测装置,包括:
网络改造模块,用于将U-Net网络的编码部分改造为残差网络;
孪生网络提取模块,用于将改造后的U-Net网络生成孪生网络,并提取不同时期图像的抽象特征;
对比损失函数模块,用于对U-Net孪生网络进行训练;
差异图提取模块,用于使用U-Net孪生网络提取不同时期图像的变化区域。
实施例3
本实施例提供了一种图像变化检测存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时能够实现上述的图像变化检测方法。
实施例4
本实施例提供了一种图像变化检测设备,包括存储介质、处理器和计算机程序,所述计算机程序存储在存储介质上且可在处理器上运行,所述处理器执行所述程序时能够实现上述的图像变化检测方法
综上,本发明引入残差网络,将浅层的输入值直接连接到端部位置,避免了在层层映射过程中,容易出现的梯度消失问题,而且可让网络一直处于最优状态了,性能也不会随着深度增加降低;采用U-Net孪生网络,网络架构直观,训练需要更少的参数和更少的数据并且不容易过拟合,并且利用U-Net网络上采样来提高特征图的分辨率,能够较为精细的恢复变化区域的细节;而且使用对比损失函数来进行网络的训练,通过降维处理,可以很好的反应出样本对之间的相似程度,提高网络的特征提取能力。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种融合残差网络与U-Net网络的图像变化检测方法,其特征在于,包括以下步骤:
步骤S1:将U-Net网络的编码部分改造为残差网络,解码部分保持不变;
步骤S2:将改造后的U-Net网络生成孪生网络,分别提取不同时期图像的抽象特征;
步骤S3:利用对比损失函数计算网络输出与基准图像之间的差异,来对改造后的U-Net孪生网络进行训练;
步骤S4:使用训练后的网络计算不同时期图像的差异图,并利用图像分割技术来寻找最优的分割阈值将变化区域提取出来。
2.根据权利要求1所述的一种融合残差网络与U-Net网络的图像变化检测方法,其特征在于:所述步骤S1中将残差网络与U-Net网络进行改造融合时,在U-Net网络中引入恒等快捷连接的结构。
3.根据权利要求2所述的一种融合残差网络与U-Net网络的图像变化检测方法,其特征在于:所述快捷连接的结构改造U-Net网络时,可一次跳过一层网络,也可一次跳过多层网络。
4.根据权利要求1所述的一种融合残差网络与U-Net网络的图像变化检测方法,其特征在于:所述U-Net的编码部分对应U-Net网络左侧的收缩路径。
5.根据权利要求1所述的一种融合残差网络与U-Net网络的图像变化检测方法,其特征在于:所述步骤S2中孪生网络的两个分支网络完全相同,两个分支网络的权重用相同的值初始化并通过随机梯度下降算法接收相同的梯度,从图像对中提取对应的特征对。
7.根据权利要求6所述的一种融合残差网络与U-Net网络的图像变化检测方法,其特征在于:所述阈值m的取值为默认值2。
8.一种融合残差网络与U-Net网络的图像变化检测装置,其特征在于:包括:
网络改造模块,用于将U-Net网络的编码部分改造为残差网络;
孪生网络提取模块,用于将改造后的U-Net网络生成孪生网络,并提取不同时期图像的抽象特征;
对比损失函数模块,用于对U-Net孪生网络进行训练;
差异图提取模块,用于使用U-Net孪生网络提取不同时期图像的变化区域。
9.一种融合残差网络与U-Net网络的图像变化检测存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时能够实现权利要求1至7中任一项所述的图像变化检测方法。
10.一种融合残差网络与U-Net网络的图像变化检测设备,包括存储介质、处理器和计算机程序,所述计算机程序存储在存储介质上且可在处理器上运行,其特征在于:所述处理器执行所述计算机程序时能够实现权利要求1至7中任一项所述的图像变化检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010664086.3A CN111915571A (zh) | 2020-07-10 | 2020-07-10 | 融合残差网络与U-Net网络的图像变化检测方法、装置、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010664086.3A CN111915571A (zh) | 2020-07-10 | 2020-07-10 | 融合残差网络与U-Net网络的图像变化检测方法、装置、存储介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111915571A true CN111915571A (zh) | 2020-11-10 |
Family
ID=73226377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010664086.3A Pending CN111915571A (zh) | 2020-07-10 | 2020-07-10 | 融合残差网络与U-Net网络的图像变化检测方法、装置、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111915571A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508936A (zh) * | 2020-12-22 | 2021-03-16 | 中国科学院空天信息创新研究院 | 一种基于深度学习的遥感图像变化检测方法 |
CN112562855A (zh) * | 2020-12-18 | 2021-03-26 | 深圳大学 | 一种肝细胞癌术后早期复发风险预测方法 |
CN112613374A (zh) * | 2020-12-16 | 2021-04-06 | 厦门美图之家科技有限公司 | 人脸可见区域解析与分割方法、人脸上妆方法及移动终端 |
CN112766045A (zh) * | 2020-12-28 | 2021-05-07 | 平安科技(深圳)有限公司 | 场景变化检测方法、系统、电子装置及存储介质 |
CN113506316A (zh) * | 2021-05-27 | 2021-10-15 | 北京迈格威科技有限公司 | 分割视频物体的方法、装置以及网络模型训练方法 |
CN114170094A (zh) * | 2021-11-17 | 2022-03-11 | 北京理工大学 | 基于孪生网络的机载红外图像超分辨率与噪声去除算法 |
CN115937647A (zh) * | 2023-01-31 | 2023-04-07 | 西南石油大学 | 一种多特征融合的图像显著性检测方法 |
CN116452983A (zh) * | 2023-06-12 | 2023-07-18 | 合肥工业大学 | 一种基于无人机航拍影像的国土地貌变化快速发现方法 |
CN117994596A (zh) * | 2024-04-07 | 2024-05-07 | 四川大学华西医院 | 基于孪生网络的肠造口图像识别与分类系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934166A (zh) * | 2019-03-12 | 2019-06-25 | 中山大学 | 基于语义分割和孪生神经网络的无人机图像变化检测方法 |
CN110211137A (zh) * | 2019-06-08 | 2019-09-06 | 西安电子科技大学 | 基于残差网络和U-Net分割网络的卫星图像分割方法 |
CN110322423A (zh) * | 2019-04-29 | 2019-10-11 | 天津大学 | 一种基于图像融合的多模态图像目标检测方法 |
CN110443813A (zh) * | 2019-07-29 | 2019-11-12 | 腾讯医疗健康(深圳)有限公司 | 血管、眼底图像的分割方法、装置、设备及可读存储介质 |
CN111047551A (zh) * | 2019-11-06 | 2020-04-21 | 北京科技大学 | 一种基于U-net改进算法的遥感影像变化检测方法及系统 |
-
2020
- 2020-07-10 CN CN202010664086.3A patent/CN111915571A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934166A (zh) * | 2019-03-12 | 2019-06-25 | 中山大学 | 基于语义分割和孪生神经网络的无人机图像变化检测方法 |
CN110322423A (zh) * | 2019-04-29 | 2019-10-11 | 天津大学 | 一种基于图像融合的多模态图像目标检测方法 |
CN110211137A (zh) * | 2019-06-08 | 2019-09-06 | 西安电子科技大学 | 基于残差网络和U-Net分割网络的卫星图像分割方法 |
CN110443813A (zh) * | 2019-07-29 | 2019-11-12 | 腾讯医疗健康(深圳)有限公司 | 血管、眼底图像的分割方法、装置、设备及可读存储介质 |
CN111047551A (zh) * | 2019-11-06 | 2020-04-21 | 北京科技大学 | 一种基于U-net改进算法的遥感影像变化检测方法及系统 |
Non-Patent Citations (4)
Title |
---|
KAIMING HE等: "Deep Residual Learning for Image Recognition", 《COMPUTER VISION AND PATTERN RECOGNITION》, pages 1 - 12 * |
OLAF RONNEBERGER, PHILIPP FISCHER, THOMAS BROX: "U-Net: Convolutional Networks for Biomedical Image Segmentation", 《COMPUTER VISION AND PATTERN RECOGNITION》, pages 1 - 8 * |
向阳;赵银娣;董霁红;: "基于改进UNet孪生网络的遥感影像矿区变化检测", 煤炭学报, no. 12, pages 3 - 5 * |
陈璐;管霜霜;: "基于深度学习的城市高分遥感图像变化检测方法的研究", 计算机应用研究, no. 1, pages 320 - 323 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613374A (zh) * | 2020-12-16 | 2021-04-06 | 厦门美图之家科技有限公司 | 人脸可见区域解析与分割方法、人脸上妆方法及移动终端 |
CN112562855A (zh) * | 2020-12-18 | 2021-03-26 | 深圳大学 | 一种肝细胞癌术后早期复发风险预测方法 |
CN112508936A (zh) * | 2020-12-22 | 2021-03-16 | 中国科学院空天信息创新研究院 | 一种基于深度学习的遥感图像变化检测方法 |
CN112766045B (zh) * | 2020-12-28 | 2023-11-24 | 平安科技(深圳)有限公司 | 场景变化检测方法、系统、电子装置及存储介质 |
CN112766045A (zh) * | 2020-12-28 | 2021-05-07 | 平安科技(深圳)有限公司 | 场景变化检测方法、系统、电子装置及存储介质 |
CN113506316A (zh) * | 2021-05-27 | 2021-10-15 | 北京迈格威科技有限公司 | 分割视频物体的方法、装置以及网络模型训练方法 |
CN114170094A (zh) * | 2021-11-17 | 2022-03-11 | 北京理工大学 | 基于孪生网络的机载红外图像超分辨率与噪声去除算法 |
CN114170094B (zh) * | 2021-11-17 | 2024-05-31 | 北京理工大学 | 基于孪生网络的机载红外图像超分辨率与噪声去除算法 |
CN115937647A (zh) * | 2023-01-31 | 2023-04-07 | 西南石油大学 | 一种多特征融合的图像显著性检测方法 |
CN115937647B (zh) * | 2023-01-31 | 2023-05-19 | 西南石油大学 | 一种多特征融合的图像显著性检测方法 |
CN116452983B (zh) * | 2023-06-12 | 2023-10-10 | 合肥工业大学 | 一种基于无人机航拍影像的国土地貌变化快速发现方法 |
CN116452983A (zh) * | 2023-06-12 | 2023-07-18 | 合肥工业大学 | 一种基于无人机航拍影像的国土地貌变化快速发现方法 |
CN117994596A (zh) * | 2024-04-07 | 2024-05-07 | 四川大学华西医院 | 基于孪生网络的肠造口图像识别与分类系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915571A (zh) | 融合残差网络与U-Net网络的图像变化检测方法、装置、存储介质及设备 | |
CN104200495B (zh) | 一种视频监控中的多目标跟踪方法 | |
CN103400388A (zh) | 一种利用RANSAC消除Brisk关键点错误匹配点对的方法 | |
CN103593832A (zh) | 一种基于高斯二阶差分特征检测算子的图像拼接方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN114742799B (zh) | 基于自监督异构网络的工业场景未知类型缺陷分割方法 | |
Tinchev et al. | Skd: Keypoint detection for point clouds using saliency estimation | |
CN113505634B (zh) | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 | |
CN115496928A (zh) | 基于多重特征匹配的多模态图像特征匹配方法 | |
CN116912175A (zh) | 一种基于点云体素化TransFormer的Lidar-SLAM回环检测系统及方法 | |
Xu et al. | UCDFormer: Unsupervised change detection using a transformer-driven image translation | |
Ma et al. | 3D convolutional auto-encoder based multi-scale feature extraction for point cloud registration | |
CN114861761A (zh) | 一种基于孪生网络特征与几何验证的回环检测方法 | |
US20240161531A1 (en) | Transformer-based multi-scale pedestrian re-identification method | |
CN117274627A (zh) | 一种基于图像转换的多时相积雪遥感图像匹配方法及系统 | |
Tsintotas et al. | Visual place recognition for simultaneous localization and mapping | |
CN111626417B (zh) | 一种基于无监督深度学习的闭环检测方法 | |
CN115797684A (zh) | 一种基于上下文信息的红外小目标检测方法及系统 | |
CN111931689B (zh) | 一种在线提取视频卫星数据鉴别特征的方法 | |
CN114820732A (zh) | 一种高铁列车图像的关键点检测与描述的系统及方法 | |
Yuan et al. | Graph neural network based multi-feature fusion for building change detection | |
CN117095033B (zh) | 一种基于图像与几何信息引导的多模态点云配准方法 | |
Wang et al. | A Review of Vision SLAM-based Closed-loop Inspection | |
CN117409331B (zh) | 一种油气管线周边环境隐患检测方法、装置及存储介质 | |
Yan et al. | Optical remote sensing image waters extraction technology based on deep learning context-unet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |