CN113129234A - 一种场内外特征融合的残缺图像精细修复方法 - Google Patents
一种场内外特征融合的残缺图像精细修复方法 Download PDFInfo
- Publication number
- CN113129234A CN113129234A CN202110423212.0A CN202110423212A CN113129234A CN 113129234 A CN113129234 A CN 113129234A CN 202110423212 A CN202110423212 A CN 202110423212A CN 113129234 A CN113129234 A CN 113129234A
- Authority
- CN
- China
- Prior art keywords
- feature
- representing
- features
- image
- incomplete
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 230000008439 repair process Effects 0.000 claims abstract description 106
- 230000007246 mechanism Effects 0.000 claims abstract description 34
- 230000007613 environmental effect Effects 0.000 claims abstract description 21
- 230000001427 coherent effect Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 85
- 230000006870 function Effects 0.000 claims description 60
- 230000002950 deficient Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 15
- 230000002452 interceptive effect Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 6
- 230000003042 antagnostic effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000007670 refining Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000005251 gamma ray Effects 0.000 claims description 2
- 230000008685 targeting Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 1
- 230000007812 deficiency Effects 0.000 abstract description 4
- 238000011065 in-situ storage Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 5
- 230000008485 antagonism Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000251729 Elasmobranchii Species 0.000 description 1
- 101000836150 Homo sapiens Transforming acidic coiled-coil-containing protein 3 Proteins 0.000 description 1
- 102100027048 Transforming acidic coiled-coil-containing protein 3 Human genes 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种场内外特征融合的残缺图像精细修复方法,其步骤为:检测残缺图像中存在的目标,利用知识库检索与目标相关的常识性知识,基于RNN的编码器将常识性知识转化为场外特征;提取残缺图像的目标特征信息并进行处理得到场内特征,利用改进的DMN+模型场外特征与场内特征进行融合,得到融合特征;将融合特征输入到带有环境注意机制的粗修复网络,得到粗修复图像;将粗修复图像输入到精细修复网络中进一步细化,从而实现残缺图像的修复。本发明利用知识库中的常识性知识弥补目标信息的不足;环境注意机制更大程度上利用背景信息;增加相关特征连贯层解决了残缺区域的语义相关性和特征连续性的问题,提高图像的修复结果。
Description
技术领域
本发明涉及图像修复的技术领域,尤其涉及一种场内外特征融合的残缺图像精细修复方法。
背景技术
图像修复是指因遮挡、模糊、传输干扰等各种因素造成信息缺失或损坏的图片,可通过利用图像缺失部分邻域的信息和图像整体的结构等信息,按照一定的信息复原技术对图像的缺失或损坏的区域进行修复。但由于图像修复技术具有独特的功能经常被应用到许多图像处理的场景中,例如删除图像中不需要的物体、去除目标物上的遮挡物体、修复损坏等任务,图像修复的核心技术是图像修复区域既要保持全局语义结构,又要保证生成逼真的纹理细节。随着深度学习方法的快速发展,同时也为图像修复模型开辟了一条新的路径。基于深度学习的图像修复模型是将一个深度神经网络通过在数据库中经过大量的训练,学习到图像更多深层次的特征信息,从而得到了更加逼真的图像修复效果。随着生成式对抗网络(GANs)作为一种无监督的深度学习模型被应用于图像修复领域,使得基于深度学习的图像修复得到了进一步的发展。
公开号为CN112381725A的发明专利公开了一种基于深度卷积对抗生成网络的图像修复方法及装置,通过对待修复图像进行预处理以获得边缘原图,然后利用预先训练的深度卷积对抗生成网络,根据边缘原图生成与待修复图像对应的目标生成图像。然而该方法忽略了残缺区域的语义相关性和特征连续性而导致图像的修复效果并不理想。同时上述修复方法面对特征信息严重缺失信息不足的残缺图像时,其修复效果就会显示出不能有效修复的现象。因此,本发明提出了基于场内外特征融合的残缺图像精细修复方法解决上述问题。
发明内容
针对现有图像修复方法的修复效果不理想,不能有效修复的技术问题,本发明提出一种场内外特征融合的残缺图像精细修复方法,利用知识库中的常识性知识,弥补原图像目标信息的不足,利用背景信息及残缺区域的语义相关性和特征连续性,从而提高图像的修复效果。
为了达到上述目的,本发明的技术方案是这样实现的:一种场内外特征融合的残缺图像精细修复方法,其步骤如下:
步骤一:检测残缺图像中存在的目标,利用知识库检索与目标相关的常识性知识,基于RNN的编码器将常识性知识转化为场外特征;
步骤二:提取残缺图像的目标特征信息并进行处理得到场内特征,利用改进的DMN+模型将步骤一得到的场外特征与场内特征进行融合,得到融合特征;
步骤三:将步骤二得到的融合特征输入到带有环境注意机制的粗修复网络,得到粗修复图像;
步骤四:将步骤三得到的粗修复图像输入到精细修复网络中,通过精细修复网络对粗修复图像进一步细化获得精细修复图像,从而实现残缺图像的修复。
所述步骤一中场外特征的获取方法为:
根据知识库中的常识性知识,对残缺图像Iin中的目标β判断推理,推测出可能相关的目标{α1,α2,....,αk};
将常识性描述{m1,m2,...,mn}编码转换成单词序列{M1,M2,...,Mt},通过xt=weMt的映射关系将常识性描述中的每一个单词映射到一个连续的向量空间中;其中,xt表示目标αk的第t个单词的映射向量,we为映射权重;
所述目标β是通过YOLOv3目标识别模型检测残缺图像Iin得到的。
所述场内特征的提取方法为:
将信息残缺图像Iin输入到改进的DMN+模型中,改进的DMN+模型的第一层提取目标特征信息目标特征信息作为改进的DMN+模型的第二层输入,改进的DMN+模型的第三层及以上的层的输入为目标特征信息和前一层输出的总和:其中,i=2,……,ni,ni为改进的DMN+模型的层数;
所述改进的DMN+模型对目标特征信息进行学习,并将提取的特征之间进行信息交互,获取更多的与目标特征信息相关的场外特征;所述改进的DMN+模型将场外特征与场内特征进行融合的方法为:
ft=soft max(W3tanh(W2zt+b2)+b3),
gt=AGRU(XE,ft);
其中,γt-1表示第t-1个场外特征与图像特征在改进的DMN+模型的记忆模块中交互运算后输出的情景记忆状态,zt表示相关的场外特征XE、情景记忆状态γt-1和场内特征X之间的交互运算后的向量,表示向量相乘的运算符号,|·|表示元素的绝对值,[:]表示是多个元素交互运算;ft表示全连接层的输出,W2、W3、b2和b3均表示学习参数,soft max(·)表示输出激活函数,AGRU(·)表示改进的DMN+模型的注意机制循环模块的函数;gt表示第t个场外特征被检测后门循环模块的状态,且:gt=ftGRU(XE,gt-1)+(1-ft-1)gt-1;
通过注意力机制利用当前的状态和改机的DMN+模型的情景记忆状态更新储存器的记忆状态为:γt=ReLU(W4[γt-1:gt:X]+d4);其中,γt表示更新后的情景记忆状态,ReLU()为整流线性激活函数,W4和d4均表示学习参数;
通过改进的DMN+模型提取的场外特征为:
Xr=[X,XE];
其中,表示从生成特征分布Pr和原始特征分布Pg采样点之间的直线上采样的特征,表示特征通过判别器D的输出值,表示1-Lipschithz函数约束下的采样样本,表示特征的分布距离函数,||·||2表示所有矩阵列向量绝对值之和的最大值;S表示掩膜矩阵,λ表示惩罚函数的权重;
其中,Pr表示残缺区域的生成特征Xrs的分布,Pg表示残缺图像对应的原始特征Xrc的分布,∏(Pr,Pg)表示生成特征分布Pr和原始特征分布Pg采样点分布的边际,E[·]为分布特征之间距离函数,inf表示取下限函数,W(Pr,Pg)表示生成特征分布和原始特征分布的距离;
所述WGAN-GP修复模型利用梯度惩罚约束条件训练和优化原始的WGAN-GP网络的生成器,即:
Wasserstein-1距离W(Pr,Pg)通过比较生成数据分布和原始数据分布,目标函数为:
其中,L表示1-Lipschitz函数的集合,Pr表示残缺区域的生成特征分布,Pg表示残缺图像对应的原始特征分布,G表示生成器,D表示判别器,D(Xrs)和D(Xrc)分别表示生成特征和原始特征通过判别器D的输出值;和分别表示生成特征分布和原始特征分布的分布距离函数。
所述粗修复网络的WGAN-GP修复模型的变分自编码器提取具有场外知识弥补的残缺图像信息的深度特征得到原始特征为WGAN-GP修复模型的生成器依据向量元素生成残缺区域特征得到生成特征为其中,表示具有场外知识弥补的图像信息的深度特征的向量元素,k1表示深度特征向量元素的个数其中,表示生成残缺区域特征的向量元素,k2表示生成残缺区域特征向量元素的个数;
其中,a∈(0,k2),k2表示相关环境的个数;
在完整区域中提取与原始特征Xrc相关的完整区域的环境特征:
X′rg=frgA(Xrs,Hrs,Wrs);
其中,Hrs表示输入图像的高度,Wrs表示输入图片的宽度,frgA(c)为全局环境特征的提取函数;
通过1×1卷积层将这局部环境注意机制和全局环境注意机制的背景特征信息进行融合,得到分层的环境注意机制,通过分层的环境注意机制得到的背景特征为:
X′rs-g=fconv([X′rs:X′rg]);
其中,fconv(c)表示卷积运算,[:]是交互运算;
WGAN-GP模型的解码器对残缺区域的生成特征Xrs、原始特征Xrc和背景特征X′rs-g进行解码生成粗修复图像Irou。
所述精细修复网络增加了相关特征连贯层的WGAN-GP修复模型,并通过特征相关性对上下语义情景结构进行保留。
所述精细修复网络的WGAN-GP修复模型的变分自编码器提取粗修复图像Irou的深度特征为Xfc={xfc1,xfc2...,xfck4},其中,表示粗修复图像Irou深度特征的向量元素,k4表示深度特征向量元素的个数;WGAN-GP修复模型的生成器依据向量元素生成残缺区域特征为其中,表示生成残缺区域特征向量元素,k5表示生成残缺区域特征向量元素的个数;
所述改进的DMN+模型的优化损失函数Ld为:Ld=max(0,W6-So(XE,γt)+SR(XE,X));
其中,SO(·)表示情景记忆状态γt和场外特征XE之间的匹配度,SR(·)表示场内特征X和场外特征XE之间的匹配度,W6表示权重,一般取值为0~1;
所述WGAN-GP模型的对抗性损失函数DR为:
所述精细修复网络将变分自编码器和解码器对应层的特征空间设定为目标计算出距离Lc,从而得到一致性损失为:
与现有技术相比,本发明的有益效果:主要分为三个部分:场内外特征融合部分、粗糙修复部分和精细修复部分,将信息残缺的图像Iin输入到场内外特征融合网络得到一个特征信息更加丰富的输出结果,并将其输入到粗糙修复网络中,得到一个粗糙修复图像Irou;将粗糙修复图像Irou输入到精细修复网络中,精细修复网络会迅速的提取叠加区域的有效特征信息;经精细修复网络后,输出一个精细修复图像Ifin,从而实现残缺图像的修复。
本发明提出利用知识库中的常识性知识,弥补原图像目标信息的不足:从知识库中提取关于目标的文字特征描述,并将文字转化成单个单词,通过基于RNN的编码器将场外的文字特征描述编码成特征向量并存储到知识存储单元的内存槽中;并通过改进的DMN+(动态内存网络DMN))模型检索与目标信息相关的特征向量实现融合,从而解决目标信息不足的问题。
由于残缺图像的目标特征严重缺失,极大的影响了残缺图像的修复效果,本发明提出环境注意机制检索相关的环境特征信息:首先利用对抗神经网络构建粗修复网络模型,并在模型中引入分层的环境注意机制,分层的环境注意机制在测试中能够更大程度上利用背景信息,从而得到一个效果较好的图像修复结果。
现有的修复方法往往忽略了残缺区域的语义相关性和特征连续性而导致修复并不理想,因此本发明在粗修复网络模型上再构建一个精细修复网络模型,其网络结构与粗修复网络基本相同,不同的是为了提高语义相关性和特征连续性,本发明提出相关特征连贯层,特征相关性分为两个阶段:搜索阶段和生成阶段,在图像信息完整的区域中寻找与生成特征最匹配特征,同时参考邻近已经生成的特征生成具有特征相关性的特征信息,解决了残缺区域的语义相关性和特征连续性的问题,提高图像的修复结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图。
图2为本发明场内特征和场外特征融合的流程图。
图3为本发明修复结果的对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种场内外特征融合的残缺图像精细修复方法,其步骤为:
步骤一:检测残缺图像中存在的目标,利用知识库检索与目标相关的常识性知识,基于RNN的编码器将常识性知识转化为场外特征。
本发明利用知识库中的常识性知识,弥补原图像目标信息的不足。图像中目标α是残缺的,由于特征信息的不足无法实现对其准确地识别。然而,通过YOLOv3目标识别模型已经检测出残缺图像Iin中存在目标β,根据知识库中相应的常识性知识,对已经检测出的目标β判断推理,从而可以推测出与其可能相关的目标{α1,α2,...,αk}。因此,依据常识性知识得到目标与对象之间的关系可以表示为:
这些目标{α1,α2,...,αk}是根据知识库中的常识性知识推理出来。同时,知识库中还包含着物体的基本特征信息,通过从知识库获得目标相关的常识性知识去弥补原目标信息的不足,从而解决信息不足的问题。从知识库中检索到对目标相关的常识性知识,并且保证检索出来的常识性知识与知识库中相应的语义实体进行匹配,最终从知识库中检索到的目标相关常识性知识可以表示为:
其中,{m1,m2,...,mn}是从知识库中检索到的目标αk的常识性描述,n表示每个目标的常识性描述的个数。为了对检测到的目标相关常识性知识进行编码,将这些常识性描述{m1,m2,...,mn}转换成单词序列{M1,M2,...,Mt},并且通过xt=weMt的映射关系将目标相关常识性知识中的每一个单词映射到一个连续的向量空间中,其中,xt表示映射向量,we为映射权重,然后将通过基于RNN的编码器映射向量进行编码:
其中,xt表示检索到的关于目标αk的第t个单词的映射向量,Tt-1表示编码器的隐藏状态,RNNfast()表示基于RNN的编码器的编码函数,表示第t个单词的映射向量通过基于RNN编码器所得的特征向量,将通过基于RNN的编码器得到的特征向量其定义为场外特征XE,可以表示为
步骤二:提取残缺图像的目标特征信息并进行处理得到场内特征,利用改进的DMN+模型将步骤一得到的场外特征与场内特征进行融合,得到融合特征。
知识库中得到的自然知识编码成向量存储到知识存储单元的内存槽中,并将外部知识融入到目标特征提取的过程中,弥补原目标物特征的不足,从而提高修复模型的修复能力。将k个目标αk在知识库相对应的特征语义描述通过基于RNN的编码器编码到场内外特征融合模型的储存空间中,那么存储空间中就含有k×n个相关的特征向量。然而当储存空间的向量足够大时,将会增加从候选知识中提取有用的信息的难度。为了解决这一问题,提出改进的DMN+模型。同时为了保证改进的DMN+模型对上下文信息的理解和原始输入的记忆,改进了DMN+的输入,将信息残缺图像Iin作为输入信息输入到改进的DMN+模型中,改进的DMN+模型的第一层有效地提取目标特征信息目标特征信息作为改进的DMN+模型的第二层输入,第三层及以上的层的输入为原始输入的目标特征信息和前一层输出的总和:
其中,i=2,……,ni;ni为改进的DMN+模型的层数,ni层数一般大于单词向量的个数。
通过改进的DMN+模型对目标特征的学习,让DNM+模型提取到的特征之间进行信息交互,以获取更多的与目标信息相关的场外特征信息,更有利于实现图像的修复。将待修复目标融合后的特征向量输入到改进的DMN+模型中,其处理过程如下式所示:
ft=soft max(W3 tanh(W2zt+b2)+b3) (7)
gt=AGRU(XE,ft) (8)
其中,X表示图像目标映射后的目标向量,即场内特征,W1和b1表示映射参数,其取值为[0,1],γt-1表示第t-1个单词对应的场外特征向量与图像特征在改进的DMN+模型的记忆模块交互运算后输出的模型情景记忆状态,记忆模块的作用是结合图像特征和场外特征进行迭代生成记忆,并且检索相关的场外向量。zt表示相关的场外特征XE、模型情景记忆状态γt-1和被映射的目标向量X之间的交互运算后的向量,表示向量相乘的运算符号,|·|表示元素的绝对值,[:]表示是多个元素交互运算。值得说明的是,模型情景记忆γt-1和被映射的目标向量X需要先通过复制扩展达到具有相同维度,才能与场外特征XE进行交互运算。ft表示全连接层的输出,W2、W3、b2和b3均表示学习参数,其取值一般在0~0.5之间。softmax(c)表示输出激活函数,AGRU(·)表示改进的DMN+模型的注意机制循环模块(AGRU)的函数;gt表示第t个场外特征被检测后门循环模块(GRU)的状态,其工作原理如下:
gt=ftGRU(XE,gt-1)+(1-ft-1)gt-1 (9)
通过注意力机制利用当前的状态和DMN+模型的情景记忆更新储存器的记忆状态,如公式(10)所示:
γt=Re LU(W4[γt-1:gt:X]+d4) (10)
其中,γt表示更新后的模型情景记忆状态,ReLU()为整流线性激活函数,W4和d4均表示学习参数,其取值一般为0.001~0.1。通过改进的DMN+模型提取场外特征表示为:
Xr=[X,XE] (12)
其中,表示改进的DMN+模型最后一层输出的具有场外知识弥补的图像信息,W5和d5均表示学习参数,其取值为[0,0.5]。XE表示具有相关性的场外特征,Xr表示融合后的特征。最后将输入到改进的DMN+模型输出层,得到经过场外知识优化的残缺图像Iopt。通过公式(4)-公式(12)实现了残缺目标的场内外特征信息的融合,丰富了残缺图像原有的特征信息,解决了缺失目标物的特征信息不足的问题。
如图2所示,模型情景记忆状态γt与场外特征XE交互运算实现相关场外特征的检索,目标共有t个场外特征向量,第一层通过提取目标特征,并依据目标特征检索第一个场外特征向量通过公式(6)、(7)、(9)、(10)的运算输出结果,同时将第一个场外特征向量进行记忆,将具有情景记忆的目标特征检索第2个场外特征向量通过公式(6)、(7)、(9)、(10)的运算输出结果,.....,将第t-1个场外特征向量进行记忆,将具有情景记忆的目标特征检索第t个场外特征向量通过公式(6)、(7)、(9)、(10)的运算输出结果,最终得到公式(11)和公式(12)。
为提高场内外特征融合网络检索相关场外特征的能力和优化注意机制参数,在采用改进的DMN+模型进行场内外特征融合时定义一个优化损失函数Ld,如下式所示:
Ld=max(0,W6-So(XE,γt)+SR(XE,X)) (13)
其中,SO(c)表示情景记忆状态γt和场外特征XE之间的匹配度,SR(·)表示场内特征X和场外特征XE之间的匹配度,W6表示权重,一般取值为0~1。
步骤三:将步骤二得到的融合特征输入到带有环境注意机制的粗修复网络,得到粗修复图像。
本发明的粗略修复网络是基于对抗性神经网络策略的修复模型,是将变分自编码器(VAE)的每一层都与解码器对应层的特征关联起来。编码器生成待修复图像的深度特征表示,通过解码器依据该深度特征预测并生成缺失区域信息。首先通过WGAN-GP修复模型的变分自编码器提取具有场外知识弥补的图像信息信息是最后改进的DNM+输出的图像信息,这个输出的图像信息所包含特征就是Xr。经场外知识优化的残缺图像Iopt的深度特征,并将其表示其中,表示具有场外知识弥补的图像信息(经场外知识优化的残缺图像Iopt)的深度特征的第k1个向量元素,k1表示深度特征向量元素的个数;通过WGAN-GP修复模型的生成器依据向量元素生成残缺区域特征表示为其中,表示生成残缺区域特征的第k2个向量元素,k2表示生成残缺区域特征向量元素的个数。为了更好地提取残缺区域特征,本发明引入Wasserstein-1距离构成惩罚梯度函数对生成器形成约束,其原理为:
其中,表示从生成特征分布Pr和原始特征分布Pg采样点之间的直线上采样的特征,表示特征通过判别器D的输出值,表示1-Lipschithz函数约束下的采样样本,表示特征的分布距离函数,||·||2表示所有矩阵列向量绝对值之和的最大值。S表示掩膜矩阵,缺失像素的掩膜值为0,其它部分的掩膜值为1。λ表示惩罚函数的权重,其取值为[0,0.5]。
图像的WGAN-GP修复模型中的Wasserstein-1距离表示为:
其中,Pr表示残缺区域的生成特征Xrs的分布,Pg表示残缺图像对应的原始特征Xrc分布,∏(Pr,Pg)表示生成特征分布Pr和原始特征分布Pg采样点分布的边际,E[·]分布特征之间距离函数,inf表示取下限函数,W(Pr,Pg)表示生成特征分布和原始特征分布的距离。
利用梯度惩罚约束条件训练和优化原始WGAN-GP网络的生成器,使其更易学习并匹配出待修复区域的有效信息,提升粗修复网络模型的稳定性,其原理如下:
Wasserstein-1距离W(Pr,Pg)是通过比较生成数据分布和原始数据分布,其目标函数为:
其中,L表示1-Lipschitz函数的集合,Pr表示残缺区域的生成特征分布,Pg表示残缺图像对应的原始特征分布,G表示生成器,D表示判别器,D(Xrs)和D(Xrc)分别表示生成特征和原始特征通过判别器D的输出值。和分别表示生成特征分布和原始特征分布的分布距离函数。
为了提高修复模型效果,在粗修复网络中引入环境注意机制,通过分层的环境注意机制对相关环境检索并利用,可以更多的关注背景信息提高修复的效果。为了生成与环境特征匹配的特征,在完整区域中提取与残缺区域的生成特征相关的环境特征并将其整形为卷积滤波器。使用余弦相似度来检测提取的环境特征和残缺区域的生成特征的匹配程度,使用余弦相似度来检测,其原理如下:
其中,表示环境特征和残缺区域的生成特征之间相似度,<·>表示向量间的数量积。然后,环境特征和残缺区域的生成特征之间相似度权衡注意权重,即每个像素的注意程度可以表示为其中,softmax1表示环境注意机制的softmax函数,权重α是一个常数,其取值为[0.5,1]。为了保证所构建的局部环境注意机制能够获取注意力一致的背景特征,通过与注意程度最相关的的值先进行左右传播,然后再进行自上而下的传播,最终获得环境特征的相似度其原理如下所示:
为了更大的利用背景信息,在完整区域中提取与残缺区域的生成特征Xrc相关的完整区域的环境特征:
X′rg=frgA(Xrs,Hrs,Wrs) (19)
其中,Hrs表示输入图片的高度,Wrs表示输入图片的宽度。frgA(·)为全局环境特征的提取函数。
通过公式(16)-公式(19)可以得到局部环境注意机制和全局环境注意机制,接下来通过1×1卷积层将这两部分的背景特征信息融合,从而得到分层的环境注意机制。通过分层的环境注意机制得到的背景特征可以表示为:
X′rs-g=fconv([X′rs:X′rg]) (20)
其中,fconv(·)表示卷积运算,[:]指的是交互运算。分层的环境注意机制在测试中能够更大程度上利用背景信息,在训练中丰富了目标数据。
通过WGAN-GP模型的解码器对残缺区域的生成特征Xrs、深度特征Xrc和背景特征X′rs-g进行解码生成粗修复图像Irou。为了进一步提高图像修复的效果,本发明引入对抗损失,其中,对抗性损失函数DR用于粗修复网络,即:
其中,D代表WGAN-GP网络的判别器,Igt表示没有经过掩膜处理的不残缺的原图像,表示对判别器鉴定后的原始数据取平均值的操作,表示对判别器鉴定后的生成数据取平均值的操作。对抗性损失函数DR用于约束模型的训练,从而提高粗修复的结果。
GAN网络修复的原理是通过编码器将图像特征编码成向量,通过解码器将向量变成图像,通过生成器生成缺失区域的信息,通过判别器判断生成信息是否合理。生成器和判别器之间不停的讨价还价,达成一致后生成修复图像。WGAN-GP网络通过距离W(Pr,Pg)对生成器和判别器形成了约束条件,在这个约束条件下修复的又好又快。
步骤四:将步骤三得到的粗修复图像输入到精细修复网络中,通过精细修复网络对粗修复图像进一步细化获得精细修复图像,从而实现残缺图像的修复。
将粗修复图像Irou输入到精细修复网络中,首先通过WGAN-GP修复模型的变分自编码器提取粗修复图像Irou的深度特征,并将其表示Xfc={xfc1,xfc2...,xfck4},其中,表示粗修复图像Irou深度特征的向量元素,k4表示深度特征向量元素的个数。通过WGAN-GP修复模型的生成器依据向量元素生成残缺区域特征表示为其中,表示生成残缺区域特征向量元素,k5表示生成残缺区域特征向量元素的个数。生成器的工作原理与步骤三相同。为了增强修复区域特征之间的语义相关性和特征连续性,本发明提出新的相关特征连贯层,并通过特征相关性对上下语义情景结构进行保留,使其推测出来的残缺部分更加合理,且其推测出来的残缺部分更加合理。相关特征连贯层实现特征之间语义相关和特征连续分为两个阶段:搜索阶段和生成阶段。对于残缺图像的修复区域生成每一个特征xfsa,其中a∈(1,k5)。在残缺图像信息完整的区域中搜索最匹配的特征用于初始化xfsa。然后,将特征作为主要的特征信息,同时参考已经生成的特征xfsa-1,再生成的特征过程中还原特征xfsa,通过下式判断特征之间的相关度:
其中,Da表示生成特征xfsa和邻近特征xfsa-1之间的相似性,表示最匹配的特征和生成特征xfsa之间的相似性。将相似性和视为生成特征的权重,这样每一个特征都包含着上下文结构和先前特征的信息,因此生成的特征可以表示为:
由于特征的生成过程是一个迭代过程,因此生成特征x′fsa与之前生成所有的特征(xfs1~xfsa-1)和最匹配的特征有关,因此得到的每一个特征同时获得了更多的上下文信息,从而获取更加逼真的修复结果。细修复网络利用相关特征连贯层检测粗修复网络修复的效果,并将融合不同好的特征进行融合。
过去图像修复常常采用感知损失来提高图像修复网络的是识别能力。由于本发明在精细修复网络中引入了一个新的相关特征连贯层,过去的感知损失方法并不能直接用于优化基于卷积的修复模型,会影响到修复模型的训练和修复的结果。为了解决这一问题,本发明调整了感知损失的形式,并提出了一致性损失的解决方案。本发明在Places2数据库中预训练的修复模型变分自编码器提取待修复图像的深度特征;然后,对于待修复图像缺失任何位置,都将变分自编码器和解码器对应层的特征空间设定为目标,根据这个理论计算出距离Lc,从而得到的一致性损失定义如下式所示:
为了使粗略修复图像Ir和精细修复图像Im更加接近于真实图像,将Wasserstein-1距离作为判断条件,修复损失函数如下式所示:
Lr=||Irou-Igt||1+||Ifin-Igt||1 (26)
其中,||Irou-Igt||1表示粗修复网络的损失函数,||Ifin-Igt||1表示细修复网络的损失函数。
为了验证本发明所提出的图像修复模型的性能,在Places2数据集和UnderwaterTarget数据集进行大量的仿真实验。Places2数据集是由麻省理工大学负责维护的场景图像数据集。数据库涉及400多个场景,共包含1千万张照片。该数据集也是图像修复领域广为应用的数据集之一,本发明从Places2数据集中选取大量的建筑和风景照片,用于训练和实验。Underwater Target数据集是实验室团队主要针对水下图像所建立的数据集。在水下图像处理领域的研究中有着重要意义,其中包括鱼雷、潜艇、蛙人、AUV等类别,目前处于进一步建设和完善中。本发明从Underwater Target数据集中选取大量的鱼雷、潜艇、AUV图像进行实验,实验结果如图3所示。本发明的损失函数Lr、PSNR、SSIM值如表1所示。
图3左边为本发明所提修复模型在Place2数据集的实验结果,右边为本发明所提修复模型在Underwater Target数据集实验结果。从实验结果可以得出本发明提出的图像修复方法能有效的修复目标的特征,同时在纹理重建方面也非常合理。如表1所示,本发明的修复模型在Place2和Underwater Target数据集中实验结果的PSNR、SSIM和损失函数Lr值。本发明的修复模型在Place2和Underwater Target数据集的,PSNR值和SSIM值,损失函数Lr的值表1所示。
表1 Place2和Underwater Target数据集各修复结果的SSIM值
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种场内外特征融合的残缺图像精细修复方法,其特征在于,其步骤如下:
步骤一:检测残缺图像中存在的目标,利用知识库检索与目标相关的常识性知识,基于RNN的编码器将常识性知识转化为场外特征;
步骤二:提取残缺图像的目标特征信息并进行处理得到场内特征,利用改进的DMN+模型将步骤一得到的场外特征与场内特征进行融合,得到融合特征;
步骤三:将步骤二得到的融合特征输入到带有环境注意机制的粗修复网络,得到粗修复图像;
步骤四:将步骤三得到的粗修复图像输入到精细修复网络中,通过精细修复网络对粗修复图像进一步细化获得精细修复图像,从而实现残缺图像的修复。
2.根据权利要求1所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述步骤一中场外特征的获取方法为:
根据知识库中的常识性知识,对残缺图像Iin中的目标β判断推理,推测出可能相关的目标{α1,α2,...,αk};
将常识性描述{m1,m2,...,mn}编码转换成单词序列{M1,M2,...,Mt},通过xt=weMt的映射关系将常识性描述中的每一个单词映射到一个连续的向量空间中;其中,xt表示目标αk的第t个单词的映射向量,we为映射权重;
3.根据权利要求2所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述目标β是通过YOLOv3目标识别模型检测残缺图像Iin得到的。
5.根据权利要求4所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述改进的DMN+模型对目标特征信息进行学习,并将提取的特征之间进行信息交互,获取更多的与目标特征信息相关的场外特征;所述改进的DMN+模型将场外特征与场内特征进行融合的方法为:
ft=softmax(W3tanh(W2zt+b2)+b3),
gt=AGRU(XE,ft);
其中,γt-1表示第t-1个场外特征与图像特征在改进的DMN+模型的记忆模块中交互运算后输出的情景记忆状态,zt表示相关的场外特征XE、情景记忆状态γt-1和场内特征X之间的交互运算后的向量,表示向量相乘的运算符号,|·|表示元素的绝对值,[:]表示是多个元素交互运算;ft表示全连接层的输出,W2、W3、b2和b3均表示学习参数,softmax(·)表示输出激活函数,AGRU(·)表示改进的DMN+模型的注意机制循环模块的函数;gt表示第t个场外特征被检测后门循环模块的状态,且:gt=ftGRU(XE,gt-1)+(1-ft-1)gt-1;
通过注意力机制利用当前的状态和改机的DMN+模型的情景记忆状态更新储存器的记忆状态为:γt=ReLU(W4[γt-1:gt:X]+d4);其中,γt表示更新后的情景记忆状态,ReLU()为整流线性激活函数,W4和d4均表示学习参数;
通过改进的DMN+模型提取的场外特征为:
Xr=[X,XE];
6.根据权利要求1、2或5所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述粗修复网络是基于对抗性神经网络策略的WGAN-GP修复模型,WGAN-GP修复模型利用Wasserstein-1距离构成惩罚梯度函数对生成器形成约束为:
其中,表示从生成特征分布Pr和原始特征分布Pg采样点之间的直线上采样的特征,表示特征通过判别器D的输出值,表示1-Lipschithz函数约束下的采样样本,表示特征的分布距离函数,||·||2表示所有矩阵列向量绝对值之和的最大值;S表示掩膜矩阵,λ表示惩罚函数的权重;
其中,Pr表示残缺区域的生成特征Xrs的分布,Pg表示残缺图像对应的原始特征Xrc的分布,П(Pr,Pg)表示生成特征分布Pr和原始特征分布Pg采样点分布的边际,E[·]为分布特征之间距离函数,inf表示取下限函数,W(Pr,Pg)表示生成特征分布和原始特征分布的距离;
所述WGAN-GP修复模型利用梯度惩罚约束条件训练和优化原始的WGAN-GP网络的生成器,即:
Wasserstein-1距离W(Pr,Pg)通过比较生成数据分布和原始数据分布,目标函数为:
7.根据权利要求5所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述粗修复网络的WGAN-GP修复模型的变分自编码器提取具有场外知识弥补的残缺图像信息的深度特征得到原始特征为WGAN-GP修复模型的生成器依据向量元素生成残缺区域特征得到生成特征为其中,表示具有场外知识弥补的图像信息的深度特征的向量元素,k1表示深度特征向量元素的个数其中,表示生成残缺区域特征的向量元素,k2表示生成残缺区域特征向量元素的个数;
其中,a∈(0,k2),k2表示相关环境的个数;
在完整区域中提取与原始特征Xrc相关的完整区域的环境特征:
X′rg=frgA(Xrs,Hrs,Wrs);
其中,Hrs表示输入图像的高度,Wrs表示输入图片的宽度,frgA(·)为全局环境特征的提取函数;
通过1×1卷积层将这局部环境注意机制和全局环境注意机制的背景特征信息进行融合,得到分层的环境注意机制,通过分层的环境注意机制得到的背景特征为:
X′rs-g=fconv([X′rs:X′rg]);
其中,fconv(·)表示卷积运算,[:]是交互运算;
WGAN-GP模型的解码器对残缺区域的生成特征Xrs、原始特征Xrc和背景特征X′rs-g进行解码生成粗修复图像Irou。
8.根据权利要求1、2、5或7所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述精细修复网络增加了相关特征连贯层的WGAN-GP修复模型,并通过特征相关性对上下语义情景结构进行保留。
9.根据权利要求8所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述精细修复网络的WGAN-GP修复模型的变分自编码器提取粗修复图像Irou的深度特征为Xfc={xfc1,xfc2...,xfck4},其中,表示粗修复图像Irou深度特征的向量元素,k4表示深度特征向量元素的个数;WGAN-GP修复模型的生成器依据向量元素生成残缺区域特征为其中,表示生成残缺区域特征向量元素,k5表示生成残缺区域特征向量元素的个数;
10.根据权利要求9所述的场内外特征融合的残缺图像精细修复方法,其特征在于,所述改进的DMN+模型的优化损失函数Ld为:Ld=max(0,W6-So(XE,γt)+SR(XE,X));
其中,SO(·)表示情景记忆状态γt和场外特征XE之间的匹配度,SR(·)表示场内特征X和场外特征XE之间的匹配度,W6表示权重,一般取值为0~1;
所述WGAN-GP模型的对抗性损失函数DR为:
所述精细修复网络将变分自编码器和解码器对应层的特征空间设定为目标计算出距离Lc,从而得到一致性损失为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110423212.0A CN113129234B (zh) | 2021-04-20 | 2021-04-20 | 一种场内外特征融合的残缺图像精细修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110423212.0A CN113129234B (zh) | 2021-04-20 | 2021-04-20 | 一种场内外特征融合的残缺图像精细修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129234A true CN113129234A (zh) | 2021-07-16 |
CN113129234B CN113129234B (zh) | 2022-11-01 |
Family
ID=76778307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110423212.0A Active CN113129234B (zh) | 2021-04-20 | 2021-04-20 | 一种场内外特征融合的残缺图像精细修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129234B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115795081A (zh) * | 2023-01-20 | 2023-03-14 | 安徽大学 | 一种基于多通道融合的跨域残缺足迹图像检索系统 |
CN116051936A (zh) * | 2023-03-23 | 2023-05-02 | 中国海洋大学 | 基于时空分离外部注意力的叶绿素浓度有序补全方法 |
CN116523985A (zh) * | 2023-05-06 | 2023-08-01 | 兰州交通大学 | 一种结构和纹理特征引导的双编码器图像修复方法 |
CN116843572A (zh) * | 2023-07-03 | 2023-10-03 | 广东开放大学(广东理工职业学院) | 一种基于坐标的图像修复方法 |
CN118069870A (zh) * | 2024-01-25 | 2024-05-24 | 飞虎互动科技(北京)有限公司 | 基于信息融合特征建立环境信息档案的方法、系统及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108920587A (zh) * | 2018-06-26 | 2018-11-30 | 清华大学 | 融合外部知识的开放域视觉问答方法及装置 |
US20190355102A1 (en) * | 2018-05-15 | 2019-11-21 | Adobe Inc. | Digital Image Completion by Learning Generation and Patch Matching Jointly |
CN112184582A (zh) * | 2020-09-28 | 2021-01-05 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种基于注意力机制的图像补全方法及装置 |
-
2021
- 2021-04-20 CN CN202110423212.0A patent/CN113129234B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190355102A1 (en) * | 2018-05-15 | 2019-11-21 | Adobe Inc. | Digital Image Completion by Learning Generation and Patch Matching Jointly |
CN108920587A (zh) * | 2018-06-26 | 2018-11-30 | 清华大学 | 融合外部知识的开放域视觉问答方法及装置 |
CN112184582A (zh) * | 2020-09-28 | 2021-01-05 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种基于注意力机制的图像补全方法及装置 |
Non-Patent Citations (5)
Title |
---|
HONGYU LIU ET AL.: "Coherent semantic attention for image inpainting", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
JIUXIANG GU ET AL.: "Scene graph generation with external knowledge and image reconstruction", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
TAO XU ET AL.: "Underwater Target Detection Method Based on Third Party Information Transfer Learning", 《2020 5TH INTERNATIONAL CONFERENCE ON ADVANCED ROBOTICS AND MECHATRONICS (ICARM)》 * |
刘建伟 等: "生成对抗网络在各领域应用研究进展", 《自动化学报》 * |
邵杭 等: "基于并行对抗与多条件融合的生成式高分辨率图像修复", 《模式识别与人工智能》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115795081A (zh) * | 2023-01-20 | 2023-03-14 | 安徽大学 | 一种基于多通道融合的跨域残缺足迹图像检索系统 |
CN116051936A (zh) * | 2023-03-23 | 2023-05-02 | 中国海洋大学 | 基于时空分离外部注意力的叶绿素浓度有序补全方法 |
CN116051936B (zh) * | 2023-03-23 | 2023-06-20 | 中国海洋大学 | 基于时空分离外部注意力的叶绿素浓度有序补全方法 |
CN116523985A (zh) * | 2023-05-06 | 2023-08-01 | 兰州交通大学 | 一种结构和纹理特征引导的双编码器图像修复方法 |
CN116523985B (zh) * | 2023-05-06 | 2024-01-02 | 兰州交通大学 | 一种结构和纹理特征引导的双编码器图像修复方法 |
CN116843572A (zh) * | 2023-07-03 | 2023-10-03 | 广东开放大学(广东理工职业学院) | 一种基于坐标的图像修复方法 |
CN116843572B (zh) * | 2023-07-03 | 2024-04-05 | 广东开放大学(广东理工职业学院) | 一种基于坐标的图像修复方法 |
CN118069870A (zh) * | 2024-01-25 | 2024-05-24 | 飞虎互动科技(北京)有限公司 | 基于信息融合特征建立环境信息档案的方法、系统及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113129234B (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113129234B (zh) | 一种场内外特征融合的残缺图像精细修复方法 | |
CN111291212B (zh) | 基于图卷积神经网络的零样本草图图像检索方法和系统 | |
CN112084331B (zh) | 文本处理、模型训练方法、装置、计算机设备和存储介质 | |
CN110516095B (zh) | 基于语义迁移的弱监督深度哈希社交图像检索方法和系统 | |
CN109711463A (zh) | 基于注意力的重要对象检测方法 | |
CN112949647B (zh) | 三维场景描述方法、装置、电子设备和存储介质 | |
CN113780149A (zh) | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 | |
CN110516530A (zh) | 一种基于非对齐多视图特征增强的图像描述方法 | |
CN113298815A (zh) | 一种半监督遥感图像语义分割方法、装置和计算机设备 | |
CN114463492A (zh) | 一种基于深度学习的自适应通道注意力三维重建方法 | |
CN112035689A (zh) | 一种基于视觉转语义网络的零样本图像哈希检索方法 | |
CN114758152A (zh) | 一种基于注意力机制和邻域一致性的特征匹配方法 | |
CN115578574A (zh) | 一种基于深度学习和拓扑感知的三维点云补全方法 | |
CN116188825A (zh) | 一种基于并行注意力机制的高效特征匹配方法 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN114187506B (zh) | 视点意识的动态路由胶囊网络的遥感图像场景分类方法 | |
Hughes et al. | A semi-supervised approach to SAR-optical image matching | |
CN115222954A (zh) | 弱感知目标检测方法及相关设备 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
CN115758159B (zh) | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 | |
CN104700380B (zh) | 基于单照片与画像对的人脸画像合成方法 | |
CN116934593A (zh) | 基于语义推理和交叉卷积的图像超分辨率方法及系统 | |
CN111553371B (zh) | 一种基于多特征提取的图像语义描述方法及系统 | |
CN114299536A (zh) | 一种基于关键点相关性的人体姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |