CN110309858B - 基于判别学习的细粒度图像分类方法 - Google Patents
基于判别学习的细粒度图像分类方法 Download PDFInfo
- Publication number
- CN110309858B CN110309858B CN201910485179.7A CN201910485179A CN110309858B CN 110309858 B CN110309858 B CN 110309858B CN 201910485179 A CN201910485179 A CN 201910485179A CN 110309858 B CN110309858 B CN 110309858B
- Authority
- CN
- China
- Prior art keywords
- autoregressive
- patch
- network
- discriminant
- discriminative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于计算机视觉技术领域,提供了一种基于判别学习的细粒度图像分类方法。提出了一种新的端到端自回归定位与判别性先验网络模型,该模型学习探索更准确的判别patch大小,并能够实时分类图像。具体而言,设计了一个多任务判别学习网络,包含一个自回归定位子网络和一个判别性的先验子网络,判别性的先验子网络具有引导损失函数和一致性损失函数来同时学习自回归系数和判别性的先验map。自回归系数可以减少判别性patch中的噪声信息,判别性先验map通过学习判别概率值将数千个候选patch过滤成个位数数量patch。大量实验表明,所提出的SDN模型在准确性和效率方面均达到了最新水平。
Description
技术领域
本发明属于计算机视觉技术领域,以提高细粒度图像分类准确性和效率为出发点,提出基于判别学习的细粒度图像分类方法。
背景技术
与一般图像分类不同,弱监督的细粒度图像分类(WFGIC)仅使用图像级标签在更详细的类别和粒度下识别对象。由于其在图像理解和计算机视觉系统中的众多潜在应用,WFGIC受到了学术界和工业界的广泛关注。WFGIC是计算机视觉领域的一个开放性问题,不仅因为属于同一子类别的图像在大小,姿势,颜色和背景方面存在很大差异,而属于不同子类别的图像在这些方面可能非常相似,而且仅使用图像级标签提取辨别特征难度很大。
从系统的角度来看,图像中局部区域的微小和微妙差异对于区分细粒度子类别非常重要。最近,大多数表现最佳的WFGIC方案都专注于挑选局部判别patch以提取最具辨别力的特征。首先,一些自下而上的方法通过使用选择性搜索(SS)从原始图像生成大量候选patch,然后他们试图挑选出有辨别力的patch。然而,这些自下而上的过程缺乏一种机制来确保所选择的判别性patch在最终分类阶段发挥重要作用。许多工作已经表明,通过使用自上而下的过程去除有噪声的图像块并保留那些包含有区别区域块的图像,可以克服这个问题。然而,所选patch内的内容仍然包含一些噪声信息,例如图1(a)中的背景区域。在这项工作中,我们提出了一个自回归定位子网络,其引导损失用于学习自回归系数,用于调整所选patch的大小以找到准确的判别区域,如图1(b)所示。具体而言,当使用原始图像的全局特征预测的所选区域的概率值大于预测概率值时,引导损失被设计为隐含地学习自回归系数。
为了挑选出最具辨别力的patch,一些方法应用了部分对齐或CNN探测器。通过SS生成的大约2000个大量候选patch需要通过深度CNN分类网络预测是否包含判别特征,这需要高计算成本。一些方法设计了端到端网络,以避免保留大量候选patch。在这些工作中,WSDL使用了更快的RCNN框架,它保留了大约300个候选patch。在这项工作中,我们提出具有一致损失的判别性先验网络,以将patch数量减少到个位数,大约5-8,以实现实时效率,如图1(c)所示。当判别概率值尽可能接近所选patch中的分类概率时,所提出的一致性损失促使判别性先验映射学习图像的判别概率值。
发明内容
本发明提出了一个基于判别学习的细粒度图像分类方法,如图2所示。
本发明的技术方案:
一种基于判别学习的细粒度图像分类方法,其特征在于,
两个子网络:
(1)自回归定位子网络
自回归定位子网络学习自回归系数以调整判别patch的大小,使用三个patch生成器层来生成默认的patch;不同层的特征图具有不同的感受野;设计patch的比例尺寸、缩放步长和纵横比,以便不同的特征图对不同大小的判别区域负责;
在获得图像特征MI及其相应的patch坐标向量Vc后,通过双层网络将图像特征输入到自回归函数;其中,自回归函数是有一个卷积操作和对齐操作;
第一层是卷积层:
MSR=f(MI) (1)
其中,MI∈RW×H×C,其中W,H表示图像特征的宽度和高度,C是通道的数量;MSR∈RW ×H×2K是自回归系数图,K是给定位置默认的patch的数量;
f是卷积运算:
f(MI)=g(WI,R·MI+bR) (2)
其中,g是非线性函数,WI,R∈Ra×a×C×2K是学习参数,其中a是卷积核的大小,bR表示自回归定位子网络中卷积层的偏置;
第二层是对齐层:映射函数h用于将自回归系数与相关联的patch对齐;
VSR=h(Wp⊙MSR) (3)
其中,Wp是映射权重,⊙表示权重矩阵和系数矩阵之间的乘法;通过映射,将矩阵表示MSR∈RW×H×2K转换为矢量表示VsR∈R2K;VSR是2K维向量,对应于默认patch的宽度和高度的自回归系数,向量的长度等于patch总数的两倍;
使用提出的引导损失函数使网络关注判别区域的大小,然后让网络学习自回归系数;根据每个默认patch的自回归系数,调整每个候选patch:其中,是第i个默认patch的坐标,i的范围是从1到patch的数量;然后,将学习到的自回归系数和分别和对应的候选patch的宽度和高度相乘;通过这种方式,自动调整默认patch的长宽比例来减少默认框中的无用信息;
(2)判别性的先验子网络
判别性的先验子网络用于引导网络搜索具有判别区域的patch;添加一个1×1×K的卷积层来学习判别概率图,来显示patch中的判别区域对最终分类结果的影响;
MDP=g(WI,D·MI+bD) (4)
VDP=h(δ(WDMDP)) (5)
其中,WI,D∈Ra×a×C×K是学习参数,a是卷积核的大小,bD表示判别性的先验子网络中卷积层偏置,g是非线性函数,WD表示对其层的权重,MDP∈RW×H×K是学习的判别概率图;
还通过映射函数h将矩阵表示MDP∈RW×H×K转换为矢量表示VDP∈RK;以这种方式,将辨别概率与对应的patch对齐;δ是sigmoid函数,用于确保判别概率值介于0和1之间;
(3)结合自自回归定位子网络和判别性的先验子网络
将自回归定位子网络和判别的先验子网络组合成一个统一的网络,为弱监督细粒度图像分类挑选出最具辨识力的patch;首先将判别先验概率和自回归比例系数分配给每个默认patch;公式表示:每个patch都有其默认坐标(tx,ty,tw,th)和判别概率ts以及两个自回归比例系数(sw,sh);因此,自回归框BBox表示如下:
BBox=[tx,ty,tw×sw,th×sh,ts] (6)
网络与SR和DP一起运行,并选择具有大于阈值θ的判别概率的BBox;使用阈值,仅选择包含判别特征的少量(5-8个)patch,因此复杂性已显着降低;根据剩余BBox的坐标,从原始图像中裁剪出剩余的patch,并通过Resnet-50提取特征,以生成高质量的patch级判别特征;
(4)Loss函数的设计
将所选择的判别区域表示为R={R1,R2,...,RN},并将相应的判别概率得分表示为S={S1,S2,...,SN};然后,引导损失和一致损失定义如下:
其中,X是原始图像,函数C是置信函数,反映了分类到正确类别的概率;
引导损失旨在学习自回归系数,当使用整个图像的全局特征使所选区域的预测概率值低于预测概率值时,网络将受到惩罚并通过反向传播进行权重调整;一致性损失约束判别概率尽可能接近分类概率,可促使网络选择最具判别性的区域。
本发明的有益效果
(1)我们提出了一种具有判别性先验网络(SDN)模型的端到端自回归定位,用于弱监督细粒度图像分类,学习探索更准确的判别patch大小,并能够实时分类图像。
(2)我们设计引导损失和一致性损失,以指导SDN中的多任务学习,提供自回归系数来降低选择的patch中的噪声,并提供判别性的先验映射,以减少patch的数量,从而实现准确有效的分类。
附图说明
图1为本发明提出的用于细粒度图像分类的流程图。
图2为本发明提出的用于细粒度图像分类的网络框架图。
图3为本发明提出的自回归定位子网络和判别性先验子网络的网络框架图。
图4为本发明的自回归网络在CUB-200-2011上的定位效果,内框表示使用自回归定位之后的结果,外框表示使用自回归定位之前的结果。
图5为本发明的判别性先验网络在CUB-200-2011上的概率预测效果。从左到右,第一列是原图,第二列到第四列是分别与不同尺度特征图相关联的判别先验概率图。只显示长宽比为1:1的默认框的判别性先验概率图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面对本发明的具体实施方式作进一步的详细描述。
实验评估是在两个基准数据集上进行的:Caltech-UCSD Birds-200-2011和Stanford Cars,它们是用于细粒度图像分类的广泛使用的基准。鸟类包括11,788张图像,共有200类。汽车包括16,185张图像,共有196类。
实施细节:在我们的实验中,所有图像大小都调整为448×448。我们使用ResNet-50作为骨干网络,批量标准化作为正则项。我们优化器使用momentum SGD,初始学习率设为0.001,并在每60个epoch后乘以0.1。权重衰减率设定为1e-4。为了减少patch冗余,我们使用了非最大抑制(NMS),并且NMS阈值设置为0.25。
消融实验:我们进行了一些消融实验,以说明我们提出的策略的有效性,包括判别先验和自回归位置的影响。
首先,我们通过Resnet-50从整个图像中提取特征,没有任何对象或部分注释用于细粒度分类,并将其设置为基线。然后,我们通过ResNet-50的分类结果选择默认patch作为本地特征。大量未经过滤的patch导致高计算成本。当我们添加判别性先验网络(DP)时,CUB-200-2011数据集的top-1分类精度提高了1.1%,并实现了50fps的实时速度。然后,我们引入了自回归定位网络,分类精度提高了1.8%,速度仍然保持在50fps。结果报告在表1中。消融实验表明,所提出的网络确实学习了判别区域并过滤了冗余patch,有效地提高了准确性并降低了计算复杂度。
表1本发明方法的不同变种的消融实验的识别结果
定量比较:我们的比较侧重于弱监督方法,因为所提出的模型仅使用图像级注释而不是任何对象或部分注释。如表2所示,我们展示了CUB-200-2011数据集和StanfordCars-196数据集上不同方法的性能。我们将最后一行中具有判别性先验网络的自回归定位模型表示为SDN。第一行和第二行是具有强监督对象甚至部分注释的最佳结果,而我们的方法甚至优于这些方法。与其他弱监督方法相比,该方法实现了最先进的性能。由于我们学习了自回归系数来调整默认patch的大小以包含尽可能多的判别区域,所以提出的SDN比NTS-Net在鸟类上的优势明显优于1.8%,在汽车上优于0.2%。DFL-CNN可以轻松地对要素图执行全局最大池(GMP)以过滤patch,同时我们了解判别概率值以保留更重要的patch,在鸟类高1.1%和汽车高0.3%。
表2在CUB-200-2011和Stanford Cars-196的不同方法的结果。
定性比较:自回归定位:如图4所示,绿框显示选择的自回归定位的选择patch。与没有自回归定位的patch(红框)相比,自回归定位网络(SR)确实通过学习自回归系数来调整候选贴片的大小以减少无用信息。
判别性先验:为了更好地显示判别先验的影响,我们将图5中的判别性先验地图可视化。我们可以观察到,通过联合学习的地图倾向于关注一些一致的区域(例如,头部,脚部)。此外,来自不同层的特征图具有不同的接收字段大小和对特定区域的特定大小的响应。P3层具有较小的接收区域,因此DP映射关注于多个局部细节。P5层具有全局视图,并且关注最具辨别力的区域。P4层可以弥补被忽视的判别区域的规模。
速度分析:我们使用Titan X的图形卡测量每次输入八张图像的速度。表3显示了与其他端到端方法的比较。WSDL和NTS-Net也应用多尺度特征来生成patch并尝试选择判别区域。当我们选择2个判别区域来进行分类时,速度和准确性都优于其他方法,并实现最先进的性能。当我们将区别区域从2增加到4时,SDN实现了最高的分类精度,同时也实现了实时分类。实验结果表明我们的方法既准确又有效。
表3在CUB-200-2011上其他端到端方法的有对比
本发明的方法中,采用了一种新的端到端自回归定位与判别性先验网络(SDN)模型,该模型学习探索更准确的判别patch大小,并能够实时分类图像。具体而言,设计了一个多任务判别学习网络,包含一个自回归定位子网络和一个判别性的先验子网络,判别性的先验子网络具有引导损失和一致性损失来同时学习自回归系数和判别性的先验map。自回归系数可以减少判别性patch中的噪声信息,判别性先验map通过学习判别概率值将数千个候选patch过滤成个位数数量patch。大量实验表明,所提出的SDN模型在准确性和效率方面均达到了最新水平。
以上的所述乃是本发明的具体实施例及所运用的技术原理,若依本发明的构想所作的改变,其所产生的功能作用仍未超出说明书及附图所涵盖的精神时,仍应属本发明的保护范围。
Claims (1)
1.一种基于判别学习的细粒度图像分类方法,其特征在于,
两个子网络:
(1)自回归定位子网络
自回归定位子网络学习自回归系数以调整判别patch的大小,使用三个patch生成器层来生成默认的patch;不同层的特征图具有不同的感受野;设计patch的比例尺寸、缩放步长和纵横比,以便不同的特征图对不同大小的判别区域负责;
在获得图像特征MI及其相应的patch坐标向量Vc后,通过双层网络将图像特征输入到自回归函数;其中,自回归函数是有一个卷积操作和对齐操作;
第一层是卷积层:
MSR=f(MI) (1)
其中,MI∈RW×H×C,其中W,H表示图像特征的宽度和高度,C是通道的数量;MSR∈RW×H×2K是自回归系数图,K是给定位置默认的patch的数量;
f是卷积运算:
f(MI)=g(WI,R·MI+bR) (2)
其中,g是非线性函数,WI,R∈Ra×a×C×2K是学习参数,其中a是卷积核的大小,bR表示自回归定位子网络中卷积层的偏置;
第二层是对齐层:映射函数h用于将自回归系数与相关联的patch对齐;
VSR=h(Wp⊙MSR) (3)
其中,Wp是映射权重,⊙表示权重矩阵和系数矩阵之间的乘法;通过映射,将矩阵表示MSR∈RW×H×2K转换为矢量表示VSR∈R2K;VSR是2K维向量,对应于默认patch的宽度和高度的自回归系数,向量的长度等于patch总数的两倍;
使用提出的引导损失函数使网络关注判别区域的大小,然后让网络学习自回归系数;根据每个默认patch的自回归系数,调整每个候选patch:其中,是第i个默认patch的坐标,i的范围是从1到patch的数量;然后,将学习到的自回归系数和分别和对应的候选patch的宽度和高度相乘;自动调整默认patch的长宽比例来减少默认框中的无用信息;
(2)判别性的先验子网络
判别性的先验子网络用于引导网络搜索具有判别区域的patch;添加一个1×1×K的卷积层来学习判别概率图,来显示patch中的判别区域对最终分类结果的影响;
MDP=g(WI,D·MI+bD) (4)
VDP=h(δ(WDMDP)) (5)
其中,WI,D∈Ra×a×C×K是学习参数,a是卷积核的大小,bD表示判别性的先验子网络中卷积层偏置,g是非线性函数,WD表示对其层的权重,MDP∈RW×H×K是学习的判别概率图;
还通过映射函数h将矩阵表示MDP∈RW×H×K转换为矢量表示VDP∈RK;以这种方式,将辨别概率与对应的patch对齐;δ是Sigmoid激活函数,用于确保判别概率值介于0和1之间;
(3)结合自回归定位子网络和判别性的先验子网络
将自回归定位子网络和判别的先验子网络组合成一个统一的网络,为弱监督细粒度图像分类挑选出最具辨识力的patch;首先将判别先验概率和自回归比例系数分配给每个默认patch;每个patch都有其默认坐标(tx,ty,tw,th)和判别概率ts以及两个自回归比例系数(sw,sh);因此,自回归框BBox表示如下:
BBox=[tx,ty,tw×sw,th×sh,ts] (6)
网络与自回归定位网络SR和判别性先验网络DP一起运行,并选择具有大于阈值θ的判别概率的BBox;使用阈值,仅选择包含判别特征的少量patch,因此复杂性已显着降低;根据剩余BBox的坐标,从原始图像中裁剪出剩余的patch,并通过Resnet-50提取特征,以生成高质量的patch级判别特征;
(4)Loss函数的设计
将所选择的判别区域表示为R={R1,R2,...,RN},并将相应的判别概率得分表示为S={S1,S2,...,SN};然后,引导损失和一致损失定义如下:
其中,X是原始图像,函数C是置信函数,反映了分类到正确类别的概率;
引导损失旨在学习自回归系数,当使用整个图像的全局特征使所选区域的预测概率值低于预测概率值时,网络将受到惩罚并通过反向传播进行权重调整;一致性损失约束判别概率尽可能接近分类概率,可促使网络选择最具判别性的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910485179.7A CN110309858B (zh) | 2019-06-05 | 2019-06-05 | 基于判别学习的细粒度图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910485179.7A CN110309858B (zh) | 2019-06-05 | 2019-06-05 | 基于判别学习的细粒度图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110309858A CN110309858A (zh) | 2019-10-08 |
CN110309858B true CN110309858B (zh) | 2022-07-01 |
Family
ID=68075043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910485179.7A Active CN110309858B (zh) | 2019-06-05 | 2019-06-05 | 基于判别学习的细粒度图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110309858B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796183A (zh) * | 2019-10-17 | 2020-02-14 | 大连理工大学 | 基于相关性引导的判别学习的弱监督细粒度图像分类算法 |
CN111062438B (zh) * | 2019-12-17 | 2023-06-16 | 大连理工大学 | 基于相关学习的图传播的弱监督细粒度图像分类算法 |
CN111242102B (zh) * | 2019-12-17 | 2022-11-18 | 大连理工大学 | 基于判别性特征导向的高斯混合模型的细粒度图像识别算法 |
CN111783886B (zh) * | 2020-06-30 | 2023-01-20 | 创新奇智(青岛)科技有限公司 | 一种识别产品缺陷的方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766890A (zh) * | 2017-10-31 | 2018-03-06 | 天津大学 | 一种细粒度识别中判别性图块学习的改进方法 |
CN109086792A (zh) * | 2018-06-26 | 2018-12-25 | 上海理工大学 | 基于检测和识别网络架构的细粒度图像分类方法 |
CN109359684A (zh) * | 2018-10-17 | 2019-02-19 | 苏州大学 | 基于弱监督定位和子类别相似性度量的细粒度车型识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8879855B2 (en) * | 2012-08-17 | 2014-11-04 | Nec Laboratories America, Inc. | Image segmentation for large-scale fine-grained recognition |
US9665802B2 (en) * | 2014-11-13 | 2017-05-30 | Nec Corporation | Object-centric fine-grained image classification |
-
2019
- 2019-06-05 CN CN201910485179.7A patent/CN110309858B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766890A (zh) * | 2017-10-31 | 2018-03-06 | 天津大学 | 一种细粒度识别中判别性图块学习的改进方法 |
CN109086792A (zh) * | 2018-06-26 | 2018-12-25 | 上海理工大学 | 基于检测和识别网络架构的细粒度图像分类方法 |
CN109359684A (zh) * | 2018-10-17 | 2019-02-19 | 苏州大学 | 基于弱监督定位和子类别相似性度量的细粒度车型识别方法 |
Non-Patent Citations (3)
Title |
---|
Efficient Fine-Grained Classification and Part Localization Using One Compact Network;Xiyang Dai等;《2017 IEEE International Conference on Computer Vision Workshops (ICCVW)》;20180123;第996-1004页 * |
Fast Fine-grained Image Classification via;Xiangteng He等;《arXiv》;20170930;第1-13页 * |
Fine-grained Discriminative Localization via Saliency-guided Faster R-CNN;Xiangteng He等;《arXiv》;20170925;第1-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110309858A (zh) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110309858B (zh) | 基于判别学习的细粒度图像分类方法 | |
CN109359684B (zh) | 基于弱监督定位和子类别相似性度量的细粒度车型识别方法 | |
CN108108657B (zh) | 基于多任务深度学习的修正局部敏感哈希车辆检索方法 | |
CN110837836A (zh) | 基于最大化置信度的半监督语义分割方法 | |
CN113408605B (zh) | 基于小样本学习的高光谱图像半监督分类方法 | |
CN113505670B (zh) | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 | |
CN111310622A (zh) | 一种面向水下机器人智能作业的鱼群目标识别方法 | |
CN109035300B (zh) | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 | |
CN113484875B (zh) | 一种基于混合高斯排序的激光雷达点云目标分级识别方法 | |
CN112861919A (zh) | 一种基于改进YOLOv3-tiny的水下声纳图像目标检测方法 | |
CN113343989B (zh) | 一种基于前景选择域自适应的目标检测方法及系统 | |
CN110147841A (zh) | 基于弱监督及无监督部件检测和分割的细粒度分类方法 | |
CN113657409A (zh) | 车辆损失检测方法、装置、电子设备及存储介质 | |
CN111950525A (zh) | 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法 | |
CN114529516A (zh) | 基于多注意力与多任务特征融合的肺结节检测与分类方法 | |
CN110008900A (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
CN110796183A (zh) | 基于相关性引导的判别学习的弱监督细粒度图像分类算法 | |
CN113469294A (zh) | 一种rpa机器人中图标检测方法及其系统 | |
Zhao et al. | Research on detection method for the leakage of underwater pipeline by YOLOv3 | |
CN112541884A (zh) | 缺陷检测方法及设备、计算机可读存储介质 | |
CN112950615B (zh) | 一种基于深度学习分割网络的甲状腺结节侵袭性预测方法 | |
CN116844143B (zh) | 基于边缘增强的胚胎发育阶段预测与质量评估系统 | |
CN111275732A (zh) | 一种基于深度卷积神经网络的前景对象图像分割方法 | |
CN116188428A (zh) | 一种桥接多源域自适应的跨域组织病理学图像识别方法 | |
Dinç et al. | Super-thresholding: Supervised thresholding of protein crystal images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |