CN111046738B - 针对指静脉分割的轻量化u-net的精度提升方法 - Google Patents
针对指静脉分割的轻量化u-net的精度提升方法 Download PDFInfo
- Publication number
- CN111046738B CN111046738B CN201911112828.5A CN201911112828A CN111046738B CN 111046738 B CN111046738 B CN 111046738B CN 201911112828 A CN201911112828 A CN 201911112828A CN 111046738 B CN111046738 B CN 111046738B
- Authority
- CN
- China
- Prior art keywords
- net network
- net
- network
- finger vein
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Abstract
本发明公开了一种针对指静脉分割的轻量化u‑net的精度提升方法,由于深度可分离卷积相对于普通卷积方法可以大大减少参数用以满足移动端移植的要求,因此可以将u‑net中普通卷积替换为深度可分离卷,但是减少参数的同时,分割精度又会不可避免的降低,因此本方法加入了知识蒸馏的方法,用参数正常结构相同的u‑net来辅助训练轻量级的网络,既不会增加网络本身的大小,又可以提高因为参数减少的精度。
Description
技术领域
本发明涉及生物识别技术领域,尤其是一种针对指静脉分割的轻量化u-net的精度提升方法。
背景技术
近年来,随着人们对生物识别系统安全性和准确性的要求越来越高,生物特征识别技术得到越来越多的关注。手指静脉识别作为众多生物特征识别技术中的一种,由于具有非接触式采集、活体检测、不易伪造、成本较低等优点,成为当前研究的热点。而手指静脉图像血管的分割是指静脉识别技术中的一个关键步骤,分割效果的优劣直接影响后续识别的精度和准确度。同时常用的分割网络又过于庞大,导致指静脉图像分割在移动端难以实现,其次,在模型进行轻量级操作后,由于网络的参数减少,精度往往与之前相差较多。
目前,一般使用U型卷积神经网络(U-Net)进行纹理图像的分割,但是由于传统U-Net框架的参数量较大,导致运算量大,不利于将指静脉图像识别技术应用于对实时性要求较高的移动终端上。
发明内容
为解决上述问题,本发明的目的在于提供一种针对指静脉分割的轻量化u-net的精度提升方法,通过加入知识蒸馏的运用,采用参数正常结构相同的u-net来辅助训练轻量级的网络,既不会增加网络本身的大小,又可以提高因为参数减少的精度。
本发明解决其问题所采用的技术方案是:
第一方面,本发明实施例提出了一种针对指静脉分割的轻量化u-net的精度提升方法,包括:
对指静脉图像进行数据扩充;
搭建u-net网络,将指静脉图像输入到u-net网络进行训练;
对u-net网络深度可分离卷积,得到轻量级的s-net网络;
加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练。
进一步,所述搭建u-net网络,将指静脉图像输入到u-net网络进行训练包括:构造下采样与上采样都为四层的u-net网络结构并进行指静脉图像分割训练。
进一步,所述对u-net网络深度可分离卷积,得到轻量级的s-net网络包括:建立MobileNetV2网络结构,所述MobileNetV2网络结构包括Bottleneck处理,所述Bottleneck处理依次包括升维操作、正常卷积以及降维操作;将u-net网络压缩路径和扩张路径二者的所有标准卷积均替换为Bottleneck处理,得到轻量级的s-net网络。
进一步,所述加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练包括:将s-net网络下采样的第三层和上采样的第三层通过提示损失函数连接到u-net网络,在网络的部分输出产生的损失来使得u-net网络对s-net网络进行辅助训练。
进一步,所述加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练包括:构造u-net网络与s-net网络的联合损失函数,在输出结果上进行修正反馈,在网络的整体输出产生的损失来使得u-net网络对s-net网络进行辅助训练。
进一步,所述联合损失函数定义为其中,H为交叉熵,λ是用于平衡交叉熵的参数at和as分别作为u-net网络和s-net网络的输出,τ是缓和系数,softmax变换可以获得软化的概率分布数值介于0~1之间。
第二方面,本发明实施例还提出了一种针对指静脉分割的轻量化u-net的精度提升装置,包括:
图像预处理模块,用于对指静脉图像进行数据扩充;
u-net网络训练模块,用于搭建u-net网络,将指静脉图像输入到u-net网络进行训练;
s-net网络搭建模块,用于对u-net网络深度可分离卷积,得到轻量级的s-net网络;
辅助训练模块,用于加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练。
第三方面,本发明实施例还提出了一种针对指静脉分割的轻量化u-net的精度提升设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明第一方面所述的方法。
第四方面,本发明实施例还提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行本发明第一方面所述的方法。
本发明实施例中提供的一个或多个技术方案,至少具有如下有益效果:本发明提供的一种针对指静脉分割的轻量化u-net的精度提升方法,由于深度可分离卷积相对于普通卷积方法可以大大减少参数用以满足移动端移植的要求,因此可以将u-net中普通卷积替换为深度可分离卷,但是减少参数的同时,分割精度又会不可避免的降低,因此本方法加入了知识蒸馏的方法,用参数正常结构相同的u-net来辅助训练轻量级的网络,既不会增加网络本身的大小,又可以提高因为参数减少的精度。
附图说明
下面结合附图和实例对本发明作进一步说明。
图1是本发明第一实施例中针对指静脉分割的轻量化u-net的精度提升方法的流程简图;
图2是本发明第一实施例中“老师模型”u-net网络架构图;
图3是本发明第一实施例中“学生模型”s-net网络使用的MobileNetV2的Bottleneck结构图;
图4是本发明第一实施例中“老师模型”辅助“学生模型”训练的网络架构图;
图5是本发明第二实施例中针对指静脉分割的轻量化u-net的精度提升装置的结构简图;
图6是本发明第三实施例中针对指静脉分割的轻量化u-net的精度提升设备的结构简图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
下面结合附图,对本发明实施例作进一步阐述。
如图1所示,本发明的第一实施例提供了一种针对指静脉分割的轻量化u-net的精度提升方法,包括但不限于以下步骤:
S100:对指静脉图像进行数据扩充;
S200:搭建u-net网络,将指静脉图像输入到u-net网络进行训练;
S300:对u-net网络深度可分离卷积,得到轻量级的s-net网络;
S400:加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练。
在步骤S100中,从公开库中选取指静脉图像,通过传统的gamma transformation,shear,translation,rotation,enlargement和channel color shifting进行简单的数据扩充,使网络可以学习到更多的特征,有利于提高网络的分割精度和增强其鲁棒性。
如图2所示,在步骤S200中,构造下采样与上采样都为四层的u-net结构并进行指静脉分割训练,训练的结果作为“老师模型”用于之后的辅助训练。
在步骤S300中,构造mobilenetV2中的深度可分离卷积结构Bottleneck,Bottleneck处理依次包括升维操作、正常卷积以及降维操作。如图3所示,H、w、k、s分别代表图片的高、宽、通道数和卷积stride。特别的,针对stride=1和stride=2,在block上有稍微不同,主要是为了与shortcut的维度匹配,因此,stride=2时,不采用shortcut。对于一个输入到神经网络中feature map的尺寸为DF*DF*M,其输出的feature map为DF*DF*N,卷积核的大小为Dk*Dk*N。对于标准卷积操作的运算量为M*N*Dk*Dk。而对于深度可分离卷积,其中的计算量为Dk*Dk*M+1*1*M*N。将深度可分离卷积与标准卷积的参数量进行对比,假设输入和输出都是大小相同的feature map,得到:其中N的值一般较大,则前一项的大小可以忽略。假设我们设置的Dk卷积核的大小为3*3那么我们相对于标准卷积可以将参数量减小,可以说完成了对模型的剪裁。通过深度可分离卷积的方式,使u-net实现了模型的缩小和低延时的效果。将新的u-net网络模型中的所有普通卷积替换为Bottleneck结构,得到轻量级的s-net网络。
如图4所示,在步骤S400中,加入知识蒸馏(Knowledge Distillation)用作s-net网络的辅助训练,将u-net设为“老师模型”,s-net设为“学生模型”。
“老师模型”辅助“学生模型”训练,将s-net网络下采样的第三层和上采样的第三层通过提示损失函数连接到u-net网络,当“老师模型”和“学生模型”在该层的输出不一致时,在网络的部分输出产生的损失来使得“老师模型”辅助“学生模型”训练。
“老师模型”与“学生模型”的联合损失函数构造,在输出结果上进行修正反馈,在网络的整体输出产生的损失来使得“老师模型”辅助“学生模型”训练。
其中,联合损失函数定义为其中,H为交叉熵,λ是用于平衡交叉熵的参数at和as分别作为u-net网络和s-net网络的输出,τ是缓和系数,softmax变换可以获得软化的概率分布数值介于0~1之间,取值分布较为缓和。
综上所述,与现有技术相比,本针对指静脉分割的轻量化u-net的精度提升方法的优点在于:由于深度可分离卷积相对于普通卷积方法可以大大减少参数用以满足移动端移植的要求,因此可以将u-net中普通卷积替换为深度可分离卷,但是减少参数的同时,分割精度又会不可避免的降低,因此本方法加入了知识蒸馏的方法,用参数正常结构相同的u-net来辅助训练轻量级的网络,既不会增加网络本身的大小,又可以提高因为参数减少的精度。
另外,如图5所示,本发明的第二实施例提供了一种针对指静脉分割的轻量化u-net的精度提升装置,包括:
图像预处理模块110,用于对指静脉图像进行数据扩充;
u-net网络训练模块120,用于搭建u-net网络,将指静脉图像输入到u-net网络进行训练;
s-net网络搭建模块130,用于对u-net网络深度可分离卷积,得到轻量级的s-net网络;
辅助训练模块140,用于加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练。
本实施例中的针对指静脉分割的轻量化u-net的精度提升装置与第一实施例中的针对指静脉分割的轻量化u-net的精度提升方法基于相同的发明构思,因此,本实施例中的针对指静脉分割的轻量化u-net的精度提升系统具有相同的有益效果:通过加入知识蒸馏的运用,用参数正常结构相同的u-net来辅助训练轻量级的网络,既不会增加网络本身的大小,又可以提高因为参数减少的精度。
如图6所示,本发明的第三实施例还提供了一种针对指静脉分割的轻量化u-net的精度提升设备,包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述第一实施例中任意一种针对指静脉分割的轻量化u-net的精度提升方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的虚拟影像控制方法对应的程序指令/模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行立体成像处理装置的各种功能应用以及数据处理,即实现上述任一方法实施例的针对指静脉分割的轻量化u-net的精度提升方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据立体成像处理装置的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该立体投影装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器中,当被所述一个或者多个处理器执行时,执行上述任意方法实施例中的针对指静脉分割的轻量化u-net的精度提升方法,例如第一实施例中的方法步骤S100至S400。
本发明的第四实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器执行,可使得上述一个或多个处理器执行上述方法实施例中的一种针对指静脉分割的轻量化u-net的精度提升方法,例如第一实施例中的方法步骤S100至S400。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (7)
1.一种针对指静脉分割的轻量化u-net的精度提升方法,其特征在于,包括:
对指静脉图像进行数据扩充;
搭建u-net网络,将指静脉图像输入到u-net网络进行训练;
对u-net网络深度可分离卷积,得到轻量级的s-net网络;
加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练;
其中,所述搭建u-net网络,将指静脉图像输入到u-net网络进行训练包括:构造下采样与上采样都为四层的u-net网络结构并进行指静脉图像分割训练;所述对u-net网络深度可分离卷积,得到轻量级的s-net网络包括:建立MobileNetV2网络结构,所述MobileNetV2网络结构包括Bottleneck处理,所述Bottleneck处理依次包括升维操作、正常卷积以及降维操作;将u-net网络压缩路径和扩张路径二者的所有标准卷积均替换为Bottleneck处理,得到轻量级的s-net网络;所述加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练包括:将s-net网络下采样的第三层和上采样的第三层通过提示损失函数连接到u-net网络,在网络的部分输出产生的损失来使得u-net网络对s-net网络进行辅助训练。
3.根据权利要求1所述的一种针对指静脉分割的轻量化u-net的精度提升方法,其特征在于,所述加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练包括:构造u-net网络与s-net网络的联合损失函数,在输出结果上进行修正反馈,在网络的整体输出产生的损失来使得u-net网络对s-net网络进行辅助训练。
5.一种针对指静脉分割的轻量化u-net的精度提升装置,其特征在于,包括:
图像预处理模块,用于对指静脉图像进行数据扩充;
u-net网络训练模块,用于搭建u-net网络,将指静脉图像输入到u-net网络进行训练;
s-net网络搭建模块,用于对u-net网络深度可分离卷积,得到轻量级的s-net网络;
辅助训练模块,用于加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练;
其中,所述搭建u-net网络,将指静脉图像输入到u-net网络进行训练包括:构造下采样与上采样都为四层的u-net网络结构并进行指静脉图像分割训练;所述对u-net网络深度可分离卷积,得到轻量级的s-net网络包括:建立MobileNetV2网络结构,所述MobileNetV2网络结构包括Bottleneck处理,所述Bottleneck处理依次包括升维操作、正常卷积以及降维操作;将u-net网络压缩路径和扩张路径二者的所有标准卷积均替换为Bottleneck处理,得到轻量级的s-net网络;所述加入知识蒸馏,利用u-net网络对s-net网络进行辅助训练包括:将s-net网络下采样的第三层和上采样的第三层通过提示损失函数连接到u-net网络,在网络的部分输出产生的损失来使得u-net网络对s-net网络进行辅助训练。
6.一种针对指静脉分割的轻量化u-net的精度提升设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至4任一项所述的方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1至4任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911112828.5A CN111046738B (zh) | 2019-11-14 | 2019-11-14 | 针对指静脉分割的轻量化u-net的精度提升方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911112828.5A CN111046738B (zh) | 2019-11-14 | 2019-11-14 | 针对指静脉分割的轻量化u-net的精度提升方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111046738A CN111046738A (zh) | 2020-04-21 |
CN111046738B true CN111046738B (zh) | 2023-03-17 |
Family
ID=70232005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911112828.5A Active CN111046738B (zh) | 2019-11-14 | 2019-11-14 | 针对指静脉分割的轻量化u-net的精度提升方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111046738B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070163B (zh) * | 2020-09-09 | 2023-11-24 | 抖音视界有限公司 | 图像分割模型训练和图像分割方法、装置、设备 |
CN112733777B (zh) * | 2021-01-18 | 2023-12-05 | 华侨大学 | 一种遥感图像的道路提取方法、装置、设备和存储介质 |
CN113837931A (zh) * | 2021-09-27 | 2021-12-24 | 海南长光卫星信息技术有限公司 | 遥感图像的变换检测方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729820A (zh) * | 2017-09-27 | 2018-02-23 | 五邑大学 | 一种基于多尺度hog的手指静脉识别方法 |
CN109919050A (zh) * | 2019-02-21 | 2019-06-21 | 天津惊帆科技有限公司 | 身份识别方法和装置 |
CN110084238A (zh) * | 2019-04-09 | 2019-08-02 | 五邑大学 | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 |
CN110263659A (zh) * | 2019-05-27 | 2019-09-20 | 南京航空航天大学 | 一种基于三元组损失和轻量级网络的指静脉识别方法及系统 |
-
2019
- 2019-11-14 CN CN201911112828.5A patent/CN111046738B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729820A (zh) * | 2017-09-27 | 2018-02-23 | 五邑大学 | 一种基于多尺度hog的手指静脉识别方法 |
CN109919050A (zh) * | 2019-02-21 | 2019-06-21 | 天津惊帆科技有限公司 | 身份识别方法和装置 |
CN110084238A (zh) * | 2019-04-09 | 2019-08-02 | 五邑大学 | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 |
CN110263659A (zh) * | 2019-05-27 | 2019-09-20 | 南京航空航天大学 | 一种基于三元组损失和轻量级网络的指静脉识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111046738A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113240580B (zh) | 一种基于多维度知识蒸馏的轻量级图像超分辨率重建方法 | |
CN111046738B (zh) | 针对指静脉分割的轻量化u-net的精度提升方法 | |
CN112132156A (zh) | 多深度特征融合的图像显著性目标检测方法及系统 | |
CN111696110B (zh) | 场景分割方法及系统 | |
CN112634296A (zh) | 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端 | |
CN111784623A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112088393A (zh) | 图像处理方法、装置及设备 | |
CN114820408A (zh) | 基于自注意力和卷积神经网络的红外可见光图像融合方法 | |
CN111476133A (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN113361387A (zh) | 人脸图像融合方法及装置、存储介质及电子设备 | |
CN113297959A (zh) | 一种基于角点注意力孪生网络的目标跟踪方法及系统 | |
CN113066089B (zh) | 一种基于注意力引导机制的实时图像语义分割方法 | |
WO2023284255A1 (en) | Systems and methods for processing images | |
CN113837941B (zh) | 图像超分模型的训练方法、装置及计算机可读存储介质 | |
CN114596503A (zh) | 一种基于遥感卫星影像的道路提取方法 | |
CN113837290A (zh) | 一种基于注意力生成器网络的无监督非成对图像翻译方法 | |
CN112733777A (zh) | 一种遥感图像的道路提取方法、装置、设备和存储介质 | |
CN115035402B (zh) | 一种用于土地覆盖分类问题的多级特征聚合系统及方法 | |
CN116524307A (zh) | 一种基于扩散模型的自监督预训练方法 | |
CN115577768A (zh) | 半监督模型训练方法和装置 | |
CN111325068A (zh) | 基于卷积神经网络的视频描述方法及装置 | |
CN117033609B (zh) | 文本视觉问答方法、装置、计算机设备和存储介质 | |
CN115631115B (zh) | 基于递归Transformer的动态图像复原方法 | |
CN116363646A (zh) | 一种面向交通场景的实时语义分割方法 | |
Zhu et al. | Deep Learning Methods for Infrared Small Object Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |