CN115392344A - 一种具有难样本感知的强弱双分支网络的长尾识别方法 - Google Patents

一种具有难样本感知的强弱双分支网络的长尾识别方法 Download PDF

Info

Publication number
CN115392344A
CN115392344A CN202210859915.2A CN202210859915A CN115392344A CN 115392344 A CN115392344 A CN 115392344A CN 202210859915 A CN202210859915 A CN 202210859915A CN 115392344 A CN115392344 A CN 115392344A
Authority
CN
China
Prior art keywords
strong
training
weak
class
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210859915.2A
Other languages
English (en)
Inventor
叶海波
章青衡
胡译仁
杨易
祝予晗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202210859915.2A priority Critical patent/CN115392344A/zh
Publication of CN115392344A publication Critical patent/CN115392344A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种具有难样本感知的强弱双分支网络的长尾识别方法,用于解决长尾分布数据识别的难题,所述方法包括构建了强分支和弱分支两个残差网络结构,两个分支的区别在于处理输入数据,一个分支使用强增强数据,另一个分支使用弱增强数据。同时,本发明通过最大化KL散度来增加两个分支之间的差异。此外,本发明为该网络结构提出了一种新的学习策略来将学习的重点从差异转到分类,通过构建的难样本感知损失函数,能够更有效地关注到困难样本,进一步提升预测的准确性。

Description

一种具有难样本感知的强弱双分支网络的长尾识别方法
技术领域
本发明属于长尾分布视觉识别领域,具体涉及一种具有难样本感知的强弱双分支网络的长尾识别方法。
背景技术
现实世界的数据通常呈现长尾分布,其中大多数示例仅来自少数几个类。在这种情况下,每个类的训练实例数量差异很大,从尾部类的几个样本到头部类的数千个样本。最先进的分类模型的性能通常有利于大多数类,导致罕见类的泛化性能较差。
早期工作通过重新平衡数据分布来缓解长尾训练数据的恶化。这些方法可以有效地减少头类在训练过程中的主导地位,但由于原始数据分布失真,它们往往存在过度拟合尾类的风险。最近,许多两阶段方法与一阶段重新平衡方法相比取得了显著的改进。延迟重采样和延迟重加权方法首先在第一阶段训练具有长尾分布的网络,然后在第二阶段使用不同的重采样或重加权策略调整网络。这种简单的两阶段训练方案已被证明能够处理过度拟合,并在许多长尾基准上设置新的最先进性能。最近还出现了许多将长尾数据分组训练的集成方法,例如LFME和BBN。这些方法通常为每个组训练一个模型,然后在多分支框架中组合各个模型。具体来说,LFME引用将数据集分为多类、中类和少类,并为每个子集分配单独的分支来学习特征表示。BBN提出了一种双边分支网络,通过动态组合实例平衡采样器和反向平衡采样器来模拟延迟重采样(DRS)过程。
发明内容
发明目的:为了解决长尾数据识别中对尾部类识别不准确的问题以及困难样本难以学习的问题,本发明提供一种具有难样本感知的强弱双分支网络的长尾识别方法。
技术方案:一种具有难样本感知的强弱双分支网络的长尾识别方法,包括如下步骤:
(1)构建双分支的网络结构:所述双分支网路结构为相同的残差网络结构,包括弱分支和强分支,其中:弱分支基于传统的数据增强策略,对于强分支进行随机添加灰度、模糊和颜色失真处理,包括添加正则化项提高两个分支之间的差异;
(2)从差异到分类的学习策略:在训练的早期阶段通过差异损失获得尽可能不同的分支,并随着训练的进展逐渐将训练的重点转移到分类;
(3)构建难样本感知损失函数,在长尾数据识别中,当且仅当训练接近尾声且每类精度稳定时,通过难样本感知损失代替分类损失LDAM-DRW,所述难样本感知损失函数的表达式如下:
Figure BDA0003757882350000021
其中
Figure BDA0003757882350000022
是第c类的难样本感知损失权重,M是训练示例的数量,C是类的数量,wc是第c类的权重,
Figure BDA0003757882350000023
是训练示例m的第c类的目标标签,
Figure BDA0003757882350000024
由Softmax(z)计算;
Figure BDA0003757882350000025
的设置规则如下:
Figure BDA0003757882350000026
其中
Figure BDA0003757882350000027
表示第c类在第e轮迭代的权重,m是动量因子,
Figure BDA0003757882350000028
是第c类在第e轮迭代的验证集上的精度。
进一步的,所述方法对于图像长尾数据识别的总损失定义如下:
LSDN=λ(Lcls(y,Ps)+Lcls(y,Pw))+(1-λ)Ldiff(Ps||Pw)
其中λ和1-λ分别是分类损失和差异损失的权重;λ定义如下:
Figure BDA0003757882350000029
上式中,Emax是总训练迭代数,E是当前迭代。
更进一步的,双分支的网络结构的训练包括如下计算过程:
(1.1)令x表示训练样本,y∈{1,2,…,C}中的y是其标签,其中C是类数,分别对“强分支”和“弱分支”应用强增强和弱增强策略,然后获得两个增强样本(x_s,y)和(x_w,y)作为输入数据,其中(x_s,y)表示强分支,(x_w,y)表示弱分支;
(1.2)将步骤(1.1)得到的两个样本发送到其相应的分支,获得特征向量f_s和f_w;
(1.3)将步骤(1.2)得到的两个特征向量将分别发送到分类器W_s和W_w;输出对数公式如下:
Figure BDA0003757882350000031
其中zs,zw分别表示强分支和弱分支的预测输出;
其中通过softmax函数计算类的概率如下所示:
Figure BDA0003757882350000032
此外,该方法通过增加正则化项以确保两个分支之间的差异。
其中,步骤(1)包括将两个分支在总计C类别上的分类概率的KL发散最大化为:
Figure BDA0003757882350000033
其中,Ldiff表示差异损失。
进一步的,所述方法从针对单标签分类的交叉熵损失函数开始引入难样本感知损失函数,所述交叉熵损失函数如下:
Figure BDA0003757882350000034
其中,M是训练示例的数量,C是类的数量,
Figure BDA0003757882350000035
是训练示例m的第c类的目标标签,
Figure BDA0003757882350000036
是训练示例m的第c类的估计概率,
Figure BDA0003757882350000037
由Softmax(z)计算。
进而可得,重新加权损失公式化表示为:
Figure BDA0003757882350000038
其中,wc是第c类的权重,所述方法中LDAM-DRW损失引用作为LWCE
最后可得,难样本感知损失函数公式化表示为:
Figure BDA0003757882350000039
其中
Figure BDA00037578823500000310
的设置规则如下:
Figure BDA00037578823500000311
其中表示第c类在第e轮迭代的权重,m是动量因子,是第c类在第e轮迭代的验证集上的精度。
有益效果:本发明所构建的双分支的网络结构和难样本损失函数的有效性与现有的长尾数据识别方法有明显的提高,包括在不平衡率方面的表现均优越,极大的提高了长尾数据识别过程中的准确率,提高了处理图像长尾数据的识别处理能力。
附图说明
图1为本发明所述方法的实施流程图;
图2为本发明具有难样本感知损失的强弱双分支网络的总体框架。
具体实施方式
为详细说明本发明所公开的技术方案,下面结合说明书附图做进一步的阐述。
目前存在的多分支方法本质上增加了分支之间的差异,因此本发明首先是提出一种简单而有效的方法来增加分支之间的差异,并取得了良好的效果。此外,还发现验证集的准确率与训练样本数不呈正相关。有些类有大量图片,但准确率不高,而有些类有少量图片,但准确率高。针对这一现象,本发明所述方法中,进一步的提供一种新的难样本感知损失函数,该函数在训练过程中动态调整困难类和简单类的权重,使模型更加关注困难样本。
本发明所述方法用于解决长尾分布数据识别的难题,尤其涉及在图像处理领域中,本发明为强表示学习和弱表示学习设计了两个分支。两个分支的区别在于处理输入数据时,一个分支使用强增强数据,另一个分支使用弱增强数据。同时,通过最大化KL散度来增加两个分支之间的差异。此外,该方法包括为该网络结构设计一种新的学习策略来将学习的重点从差异转到分类。针对困难样本设计了一个新的难样本感知损失函数,该损失函数能够更有效地关注到困难样本,进一步提升预测的准确性。
实施例1
结合图1和图2,图2展示了具有难样本感知损失的强弱双分支网络的总体框架。本发明所述方法的实施过程具体如下:
(1)构建强弱双分支网络结构
这两个分支使用相同的残差网络结构,分别称为弱分支和强分支。对于弱分支,遵循传统的数据增强策略,而对于强分支,通过随机添加灰度、模糊和颜色失真来提高训练及提高结果的差异。
令x表示训练样本,y∈{1,2,…,C}中的y是其标签,其中C是类数。分别对强分支和弱分支应用强增强和弱增强策略,然后获得两个增强样本(x_s,y)和(x_w,y)作为输入数据,其中(x_s,y)表示强分支,(x_w,y)表示弱分支。将这两个样本发送到其相应的分支,获得特征向量f_s和f_w。然后,这两个特征向量将分别发送到分类器W_s和W_w。输出对数公式如下:
Figure BDA0003757882350000051
其中zs,zw分别表示强分支和弱分支的预测输出。通过softmax函数计算类的概率为:
Figure BDA0003757882350000052
此外,本发明添加了正则化项以确保两个分支之间的差异。将两个分支在总计C类别上的分类概率的KL发散最大化为:
Figure BDA0003757882350000053
其中Ldiff表示差异损失。
结合重新加权损失(LDAM-DRW损失)将分类损失定义为Lcls,最终损失定义为:
LSDN=λ(Lcls(y,Ps)+Lcls(y,Pw))+(1-λ)Ldiff(Ps||Pw)
其中λ和1-λ分别是分类损失和差异损失的权重。λ的具体描述参见步骤(2)。
(2)构建从差异到分类的学习策略
该步骤提出一种新的学习策略,将学习重点从差异转移到分类。具体来说,希望在训练的早期阶段通过差异损失获得尽可能不同的分支,并随着训练的进展逐渐将训练的重点转移到分类。对此,λ定义如下:
Figure BDA0003757882350000054
其中,Emax是总训练迭代数,E是当前迭代。据此可以看到λ是根据训练训练迭代次数自动生成的,并将随着训练迭代的增加而逐渐增加λ控制学习策略从差异到分类的速度。
(3)构建新的难样本损失函数
基于大量的现有技术及试验表明,在长尾数据识别任务中,具有少量样本的类不一定是难以学习的类,同样,具有大量样本的类也不一定是易于学习的类。然而,常见的重加权损失函数只是根据类别数为不同类别分配不同的权重,即样本数越大的类别,类别的权重越小。这会导致一些样本量大的困难类别学习不足,而一些样本量小的简单类别学习过度。为了解决上述问题,步骤(3)构建一种新的损失函数,称为难样本感知损失(HL)。
首先从针对单标签分类的交叉熵损失函数开始引入难样本感知损失函数。
Figure BDA0003757882350000061
其中,M是训练示例的数量,C是类的数量,
Figure BDA0003757882350000062
是训练示例m的第c类的目标标签,
Figure BDA0003757882350000063
是训练示例m的第c类的估计概率。这里
Figure BDA0003757882350000064
由Softmax(z)计算。
常见的重新加权损失可以公式化为:
Figure BDA0003757882350000065
其中,wc是第c类的权重。本实施例使用LDAM-DRW损失引用作为LWCE
形式上,在重新加权损失函数中引入权重项
Figure BDA0003757882350000066
以获得步骤(3)所述的难样本感知损失函数:
Figure BDA0003757882350000067
其中
Figure BDA0003757882350000068
是第c类的难样本感知损失权重。使用以下规则设置
Figure BDA0003757882350000069
Figure BDA00037578823500000610
其中
Figure BDA00037578823500000611
表示第c类在第e轮迭代的权重,m是动量因子,
Figure BDA00037578823500000612
是第c类在第e轮迭代的验证集上的精度。
注意,当且仅当训练接近尾声且每类精度稳定时,才使用难样本感知损失代替分类损失LDAM-DRW。此外,动量因子还为难样本感知权重的变化提供了稳定性。
综上,介绍了一种简单而有效的结构,称为强弱双分支网络,具有特殊的差异到分类的学习策略,用于长尾视觉识别。此外,本发明针对难以学习的样本提出了一种新的难样本感知损失。大量实验表明,该方法优于以前的工作,在长尾基准测试上有很大的优势。
表1.ResNet-32在Long-tailed CIFAR-10/100上的top-1精度
Figure BDA0003757882350000071
表1报告了使用ResNet-32的cifar-10-LT和cifar-100-LT的top-1精度。不平衡比率为200、100、50和20。本发明所述方法在所有数据集中表现最好,这证明了该方法的通用性。与之前的重加权和多分支方法相比,可以看到本发明所述方法明显优于其他现有技术,这表明了本发明中损失函数和架构的有效性。与强增强方法相比,本发明也超越了它们,这表明该方法的改进不仅仅是由于数据增强。与其他最近的竞争方法相比,在所有不同的不平衡率方面也优于现有技术。可以看出,与CIFAR-10-LT相比,CIFAR-100-LT的改进更大,这表明本发明所述方法在面对更困难的数据集时可以获得更好的结果。本实施例还根据每类训练样本的数量报告了多类、中类和少类上的准确性以上。
表2.ResNet-10/ResNet-50在ImageNet-LT和iNaturalist 2018上的top-1精度
Figure BDA0003757882350000072
在ImageNet LT和iNaturalist 2018上进一步验证了本发明所述方法的有效性。这两个大规模不平衡数据集的结果在表2中报告。在ImageNet LT上,本发明比RIDE分别高出2.2%(ResNet-10)和1.9%(ResNet-50),在iNaturalist2018上,本发明比RIDE高出1.1%(ResNet-50),表明本发明可以有效地推广到大规模数据集。
实施例2
进一步的结合图1,下面通过算法实施例来阐述本发明的应用。
数据集采用ImageNet-LT,编程语言为Python3,框架采用Pytorch1.7.1。
准备数据集ImageNet-LT,该数据集共有1000个类别,整体呈现长尾分布。训练集包含11万多张图片,每个类别的图片最多的有1280张,最少的只有5张;测试集包含5万张图片,每个类别包含的图片均为50张。准备特征提取网络ResNet-50,输出特征维度为512维,分类器采用全连接层,输入特征维度为512,输出特征维度为1000,随机初始化神经网络的参数。
训练阶段:对一张图片经过随机裁剪-随机进行水平翻转-自动增强-归一化后的图片作为弱增强的图片,在弱增强的基础上加入随机添加灰度、模糊和颜色失真的图片作为强增强的图片,送入双分支的网络进行训练,训练的过程中最大化KL散度和最小化分类损失来保证双分支的差异以及分类的准确度,同时在训练的过程中使用从差异到分类的学习策略,将重点慢慢从差异转到分类上来。在训练接近尾声时,我们将分类损失函数替换为新提出的难样本感知损失函数,用于增大难样本的权重进行微调。
训练的批大小为128,一共200次迭代,其中最后20轮迭代使用的难样本感知损失函数。初始学习率为0.05,在120和160轮时分别将学习率衰减为原来的0.1和0.01。
测试阶段:构造ImageNet-LT test集,每个类别有50张图片,将图片经过缩放-中心裁剪-归一化的操作后送入网络进行预测,集成双分支的输出作为最终结果,整个测试集上的准确率达到了56.31%,取得了目前最好的效果。

Claims (5)

1.一种具有难样本感知的强弱双分支网络的长尾识别方法,其特征在于:包括如下步骤:
(1)构建双分支的网络结构:所述双分支网路结构为相同的残差网络结构,包括弱分支和强分支,其中:弱分支基于传统的数据增强策略,对于强分支在弱分支的基础上随机添加灰度、模糊和颜色失真处理,包括添加正则化项提高两个分支之间的差异;
(2)从差异到分类的学习策略:在训练的早期阶段通过差异损失获得尽可能不同的分支,并随着训练的进展逐渐将训练的重点转移到分类;
(3)构建难样本感知损失函数,在长尾数据识别中,当且仅当训练接近尾声且每类精度稳定时,通过难样本感知损失代替分类损失LDAM-DRW,所述难样本感知损失函数的表达式如下:
Figure FDA0003757882340000011
其中
Figure FDA0003757882340000012
是第c类的难样本感知损失权重,M是训练示例的数量,C是类的数量,wc是第c类的权重,
Figure FDA0003757882340000013
是训练示例m的第c类的目标标签,
Figure FDA0003757882340000014
由Softmax(z)计算;
Figure FDA0003757882340000015
的设置规则如下:
Figure FDA0003757882340000016
其中
Figure FDA0003757882340000017
表示第c类在第e轮迭代的权重,m是动量因子,
Figure FDA0003757882340000018
是第c类在第e轮迭代的验证集上的精度。
2.根据权利要求1所述的具有难样本感知的强弱双分支网络的长尾识别方法,其特征在于:所述方法对于图像长尾数据识别的总损失定义如下:
LSDN=λ(Lcls(y,Ps)+Lcls(y,Pw))+(1-λ)Ldiff(Ps||Pw)
其中λ和1-λ分别是分类损失和差异损失的权重;λ定义如下:
Figure FDA0003757882340000019
上式中,Emax是总训练迭代数,E是当前迭代数。
3.根据权利要求1所述的具有难样本感知的强弱双分支网络的长尾识别方法,其特征在于:双分支的网络结构的训练包括如下计算过程:
(1.1)令x表示训练样本,y∈{1,2,…,C}中的y是其标签,其中C是类数,分别对“强分支”和“弱分支”应用强增强和弱增强策略,然后获得两个增强样本(x_s,y)和(x_w,y)作为输入数据,其中(x_s,y)表示强分支,(x_w,y)表示弱分支;
(1.2)将步骤(1.1)得到的两个样本发送到其相应的分支,获得特征向量f_s和f_w;
(1.3)将步骤(1.2)得到的两个特征向量将分别发送到分类器W_s和W_w;输出对数公式如下:
Figure FDA0003757882340000021
其中zs,zw分别表示强分支和弱分支的预测输出;
其中通过softmax函数计算类的概率如下所示:
Figure FDA0003757882340000022
此外,该方法通过增加正则化项以确保两个分支之间的差异。
4.根据权利要求2所述的具有难样本感知的强弱双分支网络的长尾识别方法,其特征在于:所述方法包括将两个分支在总计C类别上的分类概率的KL发散最大化为:
Figure FDA0003757882340000023
其中,Ldiff表示差异损失。
5.根据权利要求1所述的具有难样本感知的强弱双分支网络的长尾识别方法,其特征在于:所述方法从针对单标签分类的交叉熵损失函数开始引入难样本感知损失函数,所述交叉熵损失函数如下:
Figure FDA0003757882340000024
其中,M是训练示例的数量,C是类的数量,
Figure FDA0003757882340000025
是训练示例m的第c类的目标标签,
Figure FDA0003757882340000026
是训练示例m的第c类的估计概率,
Figure FDA0003757882340000027
由Softmax(z)计算;
对应的重新加权损失公式化表示为:
Figure FDA0003757882340000031
其中,wc是第c类的权重,所述方法中LDAM-DRW损失引用作为LWCE
CN202210859915.2A 2022-07-21 2022-07-21 一种具有难样本感知的强弱双分支网络的长尾识别方法 Pending CN115392344A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210859915.2A CN115392344A (zh) 2022-07-21 2022-07-21 一种具有难样本感知的强弱双分支网络的长尾识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210859915.2A CN115392344A (zh) 2022-07-21 2022-07-21 一种具有难样本感知的强弱双分支网络的长尾识别方法

Publications (1)

Publication Number Publication Date
CN115392344A true CN115392344A (zh) 2022-11-25

Family

ID=84117221

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210859915.2A Pending CN115392344A (zh) 2022-07-21 2022-07-21 一种具有难样本感知的强弱双分支网络的长尾识别方法

Country Status (1)

Country Link
CN (1) CN115392344A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115602330A (zh) * 2022-12-15 2023-01-13 北京鹰瞳科技发展股份有限公司(Cn) 对评估冠心病危险级别的评估模型进行训练的方法和设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115602330A (zh) * 2022-12-15 2023-01-13 北京鹰瞳科技发展股份有限公司(Cn) 对评估冠心病危险级别的评估模型进行训练的方法和设备

Similar Documents

Publication Publication Date Title
Park et al. The majority can help the minority: Context-rich minority oversampling for long-tailed classification
Li et al. Long-tailed visual recognition via gaussian clouded logit adjustment
CN106023195B (zh) 基于自适应遗传算法的bp神经网络图像分割方法及装置
CN111489364B (zh) 基于轻量级全卷积神经网络的医学图像分割方法
CN110349103A (zh) 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法
CN107392919B (zh) 基于自适应遗传算法的灰度阈值获取方法、图像分割方法
US12067989B2 (en) Combined learning method and apparatus using deepening neural network based feature enhancement and modified loss function for speaker recognition robust to noisy environments
CN109543502A (zh) 一种基于深度多尺度神经网络的语义分割方法
CN109740679B (zh) 一种基于卷积神经网络和朴素贝叶斯的目标识别方法
CN110428045A (zh) 基于Tucker算法的深度卷积神经网络压缩方法
CN109934826A (zh) 一种基于图卷积网络的图像特征分割方法
WO2021157067A1 (ja) 学習処理装置及び方法
CN114511576B (zh) 尺度自适应特征增强深度神经网络的图像分割方法与系统
CN109740695A (zh) 基于自适应全卷积注意力网络的图像识别方法
CN113516207B (zh) 一种带噪声标签的长尾分布图像分类方法
CN113222998B (zh) 基于自监督低秩网络的半监督图像语义分割方法及装置
WO2022062164A1 (zh) 基于偏微分算子的广义等变卷积网络模型的图像分类方法
CN109949200B (zh) 基于滤波器子集选择和cnn的隐写分析框架构建方法
CN114004333A (zh) 一种基于多假类生成对抗网络的过采样方法
CN112861982A (zh) 一种基于梯度平均的长尾目标检测方法
CN115270004B (zh) 一种基于场因子分解的教育资源推荐方法
CN115392344A (zh) 一种具有难样本感知的强弱双分支网络的长尾识别方法
CN111105241A (zh) 一种应用于信用卡交易反欺诈的识别方法
CN114419361B (zh) 基于门控局部通道注意力的神经网络图像分类方法
CN115937693A (zh) 一种基于遥感图像的道路识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination