CN114120367B - 元学习框架下基于圆损失度量的行人重识别方法及系统 - Google Patents
元学习框架下基于圆损失度量的行人重识别方法及系统 Download PDFInfo
- Publication number
- CN114120367B CN114120367B CN202111432749.XA CN202111432749A CN114120367B CN 114120367 B CN114120367 B CN 114120367B CN 202111432749 A CN202111432749 A CN 202111432749A CN 114120367 B CN114120367 B CN 114120367B
- Authority
- CN
- China
- Prior art keywords
- query
- pedestrian
- loss
- sample
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像识别处理技术领域,公开一种元学习框架下基于圆损失度量的行人重识别方法及系统,使用基于度量的元学习方式对行人重识别问题进行建模,同时引入改进的圆损失进行度量学习,实现了样本相似性自适应加权优化的目的。本发明在基于度量的元学习框架下,对行人重识别任务进行建模;通过引入圆损失并对其进行改进,以适应元度量学习的学习方式,对查询集和支持集之间的相似性分数进行自适应加权,改善样本的相似性优化性能,从而提升模型的训练效果。
Description
技术领域
本发明属于图像识别处理技术领域,尤其涉及一种元学习框架下基于圆损失度量的行人重识别方法及系统。
背景技术
一般的行人重识别流程以及基于度量学习的行人重识别流程如下:假设训练数据集为测试集为Te。其中,/>表示输入图像,h、w、c分别表示图像的高、宽、通道数,/>表示该图像对应的行人ID,N表示训练集中的样本总数。不同于一般的图像分类问题,行人重识别所用的训练集和测试集的行人ID(即样本类别编号)并不相交,因此是一种开放集测试问题,这样更符合现实场景中的应用。
一般的行人重识别流程如图1所示,首先设计合理的网络结构,并在训练数据集上使用批次数据训练模型,然后将训练后的模型作为特征提取器,在测试集上进行图像检索测试。这里,若仅关注训练集上的训练过程,该过程与标准的图像分类模型训练过程一致,但在应用中仅使用网络的特征提取部分。
其中,mbs表示输入样本的批次大小,θ表示模型待学习的参数,λ表示正则化项的系数。loss函数表示输入样本的预测值与真实值之间的损失度量函数,例如,采用图像分类问题经常使用的交叉熵损失函数,如下:
反向传播中,利用Adam等优化方法更新网络参数,直到网络收敛为止。
现有度量学习损失函数有多种,例如对比损失、三元组损失、N对损失等,这些方法及其改进版在一定程度上促进了基于度量学习的行人重识别技术发展,但仍然难以有效解决所训练的模型泛化性不佳的问题,导致模型在训练集上拟合的效果较好,但在测试集上的性能下降较大,从而影响行人识别效果的问题。
发明内容
本发明针对现有行人重识别方法泛化效果不佳的问题,提出一种元学习框架下基于圆损失度量的行人重识别方法及系统,使用基于度量的元学习方式对行人重识别问题进行建模,同时引入改进的圆损失进行度量学习,实现了样本相似性自适应加权优化的目的。
为了实现上述目的,本发明采用以下技术方案:
本发明一方面提出一种元学习框架下基于圆损失度量的行人重识别方法,包括:在基于度量的元学习框架下,对行人重识别任务进行建模,并基于构建的模型进行行人重识别;通过引入圆损失并对其进行改进,以适应元度量学习的学习方式;对查询集和支持集的样本之间的相似性分数进行自适应加权,以改善样本的相似性优化性能。
进一步地,包括:
步骤1:将待行人重识别的任务图像分解成多个子任务图像,将子任务图像划分为支持集和查询集;
步骤2:将支持集和查询集中的样本投影到度量空间中;
步骤3:在度量空间中通过交叉熵损失函数计算查询集与支持集样本之间的距离损失;
步骤4:使用改进的圆损失函数,对每个查询样本和支持样本之间的相似性分数进行自适应加权;
步骤5:通过步骤1-步骤4的方式对每个子任务图像进行训练,得到基于元度量学习的行人重识别模型;
步骤6:基于训练好的行人重识别模型进行行人重识别。
进一步地,所述步骤4中改进的圆损失函数为:
其中lossCircle表示改进的圆损失函数;γ表示比例因子;querym′表示查询集样本;表示与querym′同一类别的第i个支持集样本,1≤i≤K;K表示支持集中与querym′为同一类别的样本数;/>表示与querym′同一类别的第i个支持集样本与querym′的相似性分数;/>表示与querym′不同类别的第j个支持集样本,1≤j≤L;L表示支持集中与querym′不同类别的样本数;m′表示查询集样本的类别;m表示支持集样本的类别;f(querym′)表示querym′对应的特征向量;/>表示/>对应的特征向量;/>和表示相似性分数的自适应加权因子;[·]+表示取正损失,用于保证/>和/>均为非负值;mr表示相似性分数之间的间隔,用以更好地分隔样本之间的相似性分数;D(.)表示度量空间中的距离;Δn和Δp分别表示类间和类内的相似性分数间隔;Op和On分别为/>和/>的最优值。
本发明另一方面提出一种元学习框架下基于圆损失度量的行人重识别系统,该系统用于在基于度量的元学习框架下,对行人重识别任务进行建模,并基于构建的模型进行行人重识别;通过引入圆损失并对其进行改进,以适应元度量学习的学习方式;对查询集和支持集的样本之间的相似性分数进行自适应加权,以改善样本的相似性优化性能。
进一步地,包括:
任务图像分解模块,用于将待行人重识别的任务图像分解成多个子任务图像,将子任务图像划分为支持集和查询集;
样本投影模块,用于将支持集和查询集中的样本投影到度量空间中;
距离损失计算模块,用于在度量空间中通过交叉熵损失函数计算查询集与支持集样本之间的距离损失;
自适应加权模块,用于使用改进的圆损失函数,对每个查询样本和支持样本之间的相似性分数进行自适应加权;
模型训练模块,用于通过任务图像分解模块、样本投影模块、距离损失计算模块、自适应加权模块的方式对每个子任务图像进行训练,得到基于元度量学习的行人重识别模型;
行人重识别模块,用于基于训练好的行人重识别模型进行行人重识别。
进一步地,所述自适应加权模块中改进的圆损失函数为:
其中lossCircle表示改进的圆损失函数;γ表示比例因子;querym′表示查询集样本;表示与querym′同一类别的第i个支持集样本,1≤i≤K;K表示支持集中与querym′为同一类别的样本数;/>表示与querym′同一类别的第i个支持集样本与querym′的相似性分数;/>表示与querym′不同类别的第j个支持集样本,1≤j≤L;L表示支持集中与querym′不同类别的样本数;m′表示查询集样本的类别;m表示支持集样本的类别;f(querym′)表示querym′对应的特征向量;/>表示/>对应的特征向量;/>和表示相似性分数的自适应加权因子;[·]+表示取正损失,用于保证/>和/>均为非负值;mr表示相似性分数之间的间隔,用以更好地分隔样本之间的相似性分数;D(.)表示度量空间中的距离;Δn和Δp分别表示类间和类内的相似性分数间隔;Op和On分别为/>和/>的最优值。
与现有技术相比,本发明具有的有益效果:
本发明提出了一种元学习框架下基于圆损失度量的行人重识别方法及系统,在基于度量的元学习框架下,对行人重识别任务进行建模。通过引入圆损失函数并对其进行改进,以适应元度量学习的学习方式,对查询集和支持集之间的相似性分数进行自适应加权,改善样本的相似性优化性能,从而提升模型的训练效果。
附图说明
图1为一般的行人重识别流程示意图;
图2为本发明实施例一种元学习框架下基于圆损失度量的行人重识别方法流程示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的解释说明:
本发明一方面提出一种元学习框架下基于圆损失度量的行人重识别方法,包括:在基于度量的元学习框架下,对行人重识别任务进行建模,并基于构建的模型进行行人重识别;通过引入圆损失并对其进行改进,以适应元度量学习的学习方式;对查询集和支持集的样本之间的相似性分数进行自适应加权,以改善样本的相似性优化性能。
进一步地,一种元学习框架下基于圆损失度量的行人重识别方法,包括:
步骤1:将待行人重识别的任务图像分解成多个子任务图像,将子任务图像划分为支持集和查询集;
步骤2:将支持集和查询集中的样本投影到度量空间中;
步骤3:在度量空间中通过交叉熵损失函数计算查询集与支持集样本之间的距离损失;
步骤4:使用改进的圆损失函数,对每个查询样本和支持样本之间的相似性分数进行自适应加权;
步骤5:通过步骤1-步骤4的方式对每个子任务图像进行训练,得到基于元度量学习的行人重识别模型;
步骤6:基于训练好的行人重识别模型进行行人重识别。
具体地,如图2所示,元学习框架下基于圆损失度量的行人重识别包括:将总任务T分解成多个子任务Tk(k=1,2,…,K),每个子任务均采样于总任务T的(图像)数据分布p(T)。假设整个(图像)数据集含有N个类别,每个子任务所用的训练样本包括M(M<N)个类别,它们从整个数据集的N个类别中采样得到,称为一个episode(批次)。对于子任务的训练样本,将其分成支持集S和查询集Q。其中,支持集为:
查询集为:
Q={query1,query2,…,queryM} (5)
其中,上标m(m=1,2,…,M)表示样本对应的类别标记,下标i表示每个类别的样本编号。表示支持集样本中类别m对应的样本个数。/>表示支持集类别m中的第i个样本,querym表示查询集类别m中的样本。为简便起见,设置支持集中每个类别样本个数相同,即/>
将每个episode作为元学习的一个子任务,在每个子任务中,将查询集-支持集样本投影到度量空间中,计算查询集-支持集样本之间的距离损失,然后反向传播更新参数。按照元学习的方式,每个子任务中类似于一个批次,所有子任务的最终优化目标为模型参数θ:
其中,Lossk表示第k个子任务对应的损失。所有子任务接续进行,因此可实现从任务中学习的目的。
对于模型的损失函数,本发明将交叉熵损失和改进的圆损失相结合,前者用于约束分类结果的正确性,后者用于约束查询集-支持集样本在度量空间中的相似性。
使用交叉熵损失的目的是利用行人图像的标签实现类级别的学习,例如将第i个输入样本xi对应的特征向量f(xi)输入到分类层中,得到将其分类为第j个类别的Softmax分数,如下:
上式中,mbs表示批次样本数量,n表示输出层类别数。为简便起见,上式省略了模型参数的正则化项。
行人图像检索过程中使用特征向量计算度量空间中的距离并排序。因此,仅仅使用交叉熵损失只能保证分类正确,无法保证特征向量在度量空间中的距离较近。为了进一步提升检索效果,本发明引入改进的圆损失函数,约束度量空间的特征向量,对每个查询样本和支持样本之间的相似性分数进行自适应加权。
对于查询集样本querym′,假设支持集中与其为同一类别的样本有K个,其中第i(1≤i≤K)个样本与其相似性分数为:
设支持集中与其不同类别的样本有L个,其中第j(1≤j≤L)个样本与其相似性分数为:
总的损失函数由交叉熵损失和改进的圆损失组成,定义如下:
Loss=lossCE+λ·lossCircle (13)
其中,λ为两部分损失间的调和参数。当λ=0时,仅含有交叉熵损失,此时同样可以训练模型,与一般的行人重识别流程相同。后一项主要用于约束样本在度量空间中的距离。
为了更清晰地描述基于元度量学习的行人重识别模型的训练过程,本节以算法的形式对其进行展开描述。该算法的输入为逐个子任务对应的episode数据,episode的数据构成由参数控制,输出为训练后的模型。在训练时,按照元度量学习从任务中学习的模式,不断从训练集中采样一个个子任务,每个子任务对应的episode数据均由查询集和支持集组成,在子任务内部以查询集-支持集的方式模拟检索学习。同时,结合难样本挖掘策略,即选取同类样本中距离最大的样本、异类样本中距离最小的样本,以此计算每个子任务的损失函数值并更新参数。其中,子任务的数量可根据数据集的大小确定。
在上述实施例的基础上,本发明还提出一种元学习框架下基于圆损失度量的行人重识别系统,该系统用于在基于度量的元学习框架下,对行人重识别任务进行建模,并基于构建的模型进行行人重识别;通过引入圆损失并对其进行改进,以适应元度量学习的学习方式;对查询集和支持集的样本之间的相似性分数进行自适应加权,以改善样本的相似性优化性能。
进一步地,一种元学习框架下基于圆损失度量的行人重识别系统,包括:
任务图像分解模块,用于将待行人重识别的任务图像分解成多个子任务图像,将子任务图像划分为支持集和查询集;
样本投影模块,用于将支持集和查询集中的样本投影到度量空间中;
距离损失计算模块,用于在度量空间中通过交叉熵损失函数计算查询集与支持集样本之间的距离损失;
自适应加权模块,用于使用改进的圆损失函数,对每个查询样本和支持样本之间的相似性分数进行自适应加权;
模型训练模块,用于通过任务图像分解模块、样本投影模块、距离损失计算模块、自适应加权模块的方式对每个子任务图像进行训练,得到基于元度量学习的行人重识别模型;
行人重识别模块,用于基于训练好的行人重识别模型进行行人重识别。
进一步地,所述自适应加权模块中改进的圆损失函数为:
其中lossCircle表示改进的圆损失函数;γ表示比例因子;querym′表示查询集样本;表示与querym′同一类别的第i个支持集样本,1≤i≤K;K表示支持集中与querym′为同一类别的样本数;/>表示与querym′同一类别的第i个支持集样本与querym′的相似性分数;/>表示与querym′不同类别的第j个支持集样本,1≤j≤L;L表示支持集中与querym′不同类别的样本数;m′表示查询集样本的类别;m表示支持集样本的类别;f(querym′)表示querym′对应的特征向量;/>表示/>对应的特征向量;/>和表示相似性分数的自适应加权因子;[·]+表示取正损失,用于保证/>和/>均为非负值;mr表示相似性分数之间的间隔,用以更好地分隔样本之间的相似性分数;D(.)表示度量空间中的距离;Δn和Δp分别表示类间和类内的相似性分数间隔;Op和On分别为/>和/>的最优值。
综上,本发明提出了一种元学习框架下基于圆损失度量的行人重识别方法及系统,在基于度量的元学习框架下,对行人重识别任务进行建模。通过引入圆损失函数并对其进行改进,以适应元度量学习的学习方式,对查询集和支持集之间的相似性分数进行自适应加权,改善样本的相似性优化性能,从而提升模型的训练效果。
以上所示仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种元学习框架下基于圆损失度量的行人重识别方法,其特征在于,包括:在基于度量的元学习框架下,对行人重识别任务进行建模,并基于构建的模型进行行人重识别;通过引入圆损失函数并对其进行改进,以适应元度量学习的学习方式;对查询集和支持集的样本之间的相似性分数进行自适应加权,以改善样本的相似性优化性能;
按照以下方式对圆损失函数进行改进:
Op=1+mr
On=-mr
其中lossCircle表示改进的圆损失函数;γ表示比例因子;querym′表示查询集样本;表示与querym′同一类别的第i个支持集样本,1≤i≤K;K表示支持集中与querym′为同一类别的样本数;/>表示与querym′同一类别的第i个支持集样本与querym′的相似性分数;/>表示与querym′不同类别的第j个支持集样本,1≤j≤L;L表示支持集中与querym′不同类别的样本数;m′表示查询集样本的类别;m表示支持集样本的类别;f(querym′)表示querym′对应的特征向量;/>表示/>对应的特征向量;/>和表示相似性分数的自适应加权因子;[·]+表示取正损失,用于保证/>和/>均为非负值;mr表示相似性分数之间的间隔,用以更好地分隔样本之间的相似性分数;D(.)表示度量空间中的距离;Δn和Δp分别表示类间和类内的相似性分数间隔;Op和On分别为/>和/>的最优值。
2.根据权利要求1所述的元学习框架下基于圆损失度量的行人重识别方法,其特征在于,包括:
步骤1:将待行人重识别的任务图像分解成多个子任务图像,将子任务图像划分为支持集和查询集;
步骤2:将支持集和查询集中的样本投影到度量空间中;
步骤3:在度量空间中通过交叉熵损失函数计算查询集与支持集样本之间的距离损失;
步骤4:使用改进的圆损失函数,对每个查询样本和支持样本之间的相似性分数进行自适应加权;
步骤5:通过步骤1-步骤4的方式对每个子任务图像进行训练,得到基于元度量学习的行人重识别模型;
步骤6:基于训练好的行人重识别模型进行行人重识别。
3.一种元学习框架下基于圆损失度量的行人重识别系统,其特征在于,该系统用于在基于度量的元学习框架下,对行人重识别任务进行建模,并基于构建的模型进行行人重识别;通过引入圆损失函数并对其进行改进,以适应元度量学习的学习方式;对查询集和支持集的样本之间的相似性分数进行自适应加权,以改善样本的相似性优化性能;
按照以下方式对圆损失函数进行改进:
Op=1+mr
On=-mr
其中lossCircle表示改进的圆损失函数;γ表示比例因子;querym′表示查询集样本;表示与querym′同一类别的第i个支持集样本,1≤i≤K;K表示支持集中与querym′为同一类别的样本数;/>表示与querym′同一类别的第i个支持集样本与querym′的相似性分数;/>表示与querym′不同类别的第j个支持集样本,1≤j≤L;L表示支持集中与querym′不同类别的样本数;m′表示查询集样本的类别;m表示支持集样本的类别;f(querym′)表示querym′对应的特征向量;/>表示/>对应的特征向量;/>和表示相似性分数的自适应加权因子;[·]+表示取正损失,用于保证/>和/>均为非负值;mr表示相似性分数之间的间隔,用以更好地分隔样本之间的相似性分数;D(.)表示度量空间中的距离;Δn和Δp分别表示类间和类内的相似性分数间隔;Op和On分别为/>和/>的最优值。
4.根据权利要求3所述的元学习框架下基于圆损失度量的行人重识别系统,其特征在于,包括:
任务图像分解模块,用于将待行人重识别的任务图像分解成多个子任务图像,将子任务图像划分为支持集和查询集;
样本投影模块,用于将支持集和查询集中的样本投影到度量空间中;
距离损失计算模块,用于在度量空间中通过交叉熵损失函数计算查询集与支持集样本之间的距离损失;
自适应加权模块,用于使用改进的圆损失函数,对每个查询样本和支持样本之间的相似性分数进行自适应加权;
模型训练模块,用于通过任务图像分解模块、样本投影模块、距离损失计算模块、自适应加权模块的方式对每个子任务图像进行训练,得到基于元度量学习的行人重识别模型;
行人重识别模块,用于基于训练好的行人重识别模型进行行人重识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111432749.XA CN114120367B (zh) | 2021-11-29 | 2021-11-29 | 元学习框架下基于圆损失度量的行人重识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111432749.XA CN114120367B (zh) | 2021-11-29 | 2021-11-29 | 元学习框架下基于圆损失度量的行人重识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114120367A CN114120367A (zh) | 2022-03-01 |
CN114120367B true CN114120367B (zh) | 2023-06-13 |
Family
ID=80371367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111432749.XA Active CN114120367B (zh) | 2021-11-29 | 2021-11-29 | 元学习框架下基于圆损失度量的行人重识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114120367B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115527269B (zh) * | 2022-10-10 | 2023-05-16 | 动自由(北京)科技有限公司 | 一种人体姿态图像智能识别方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948674A (zh) * | 2019-03-05 | 2019-06-28 | 清华大学 | 基于深度元学习的相似性度量方法及系统 |
CN110059616A (zh) * | 2019-04-17 | 2019-07-26 | 南京邮电大学 | 基于融合损失函数的行人重识别模型优化方法 |
CN112949534A (zh) * | 2021-03-15 | 2021-06-11 | 鹏城实验室 | 一种行人重识别方法、智能终端及计算机可读存储介质 |
CN113569657A (zh) * | 2021-07-05 | 2021-10-29 | 浙江大华技术股份有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
-
2021
- 2021-11-29 CN CN202111432749.XA patent/CN114120367B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114120367A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111929748B (zh) | 一种气象要素预报方法和系统 | |
CN111160474A (zh) | 一种基于深度课程学习的图像识别方法 | |
CN114841257B (zh) | 一种基于自监督对比约束下的小样本目标检测方法 | |
CN104933428B (zh) | 一种基于张量描述的人脸识别方法及装置 | |
CN111160538B (zh) | 一种损失函数中margin参数值的更新方法和系统 | |
CN113128478A (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN111414845A (zh) | 利用空间-时间图推理网络解决多形态语句视频定位任务的方法 | |
CN115563327A (zh) | 基于Transformer网络选择性蒸馏的零样本跨模态检索方法 | |
CN113159292A (zh) | 一种基于神经网络最小化熵的因果网络发现方法及系统 | |
CN114781611A (zh) | 自然语言处理方法、语言模型训练方法及其相关设备 | |
CN114120367B (zh) | 元学习框架下基于圆损失度量的行人重识别方法及系统 | |
CN115063664A (zh) | 用于工业视觉检测的模型学习方法、训练方法及系统 | |
CN113989655A (zh) | 基于自动化深度学习的雷达或声呐图像目标检测与分类方法 | |
CN112905750A (zh) | 一种优化模型的生成方法和设备 | |
CN116757195A (zh) | 一种基于提示学习的隐性情感识别方法 | |
CN116680578A (zh) | 一种基于跨模态模型的深度语义理解方法 | |
CN116051924A (zh) | 一种图像对抗样本的分治防御方法 | |
CN116521863A (zh) | 一种基于半监督学习的标签抗噪文本分类方法 | |
CN115661542A (zh) | 一种基于特征关系迁移的小样本目标检测方法 | |
Kulkarni et al. | Dynamic binary cross entropy: An effective and quick method for model convergence | |
CN110472653A (zh) | 一种基于最大化区域互信息的语义分割方法 | |
CN114385805B (zh) | 一种提高深度文本匹配模型适应性的小样本学习方法 | |
CN116563882A (zh) | 基于分组感知标签的自适应记忆无监督行人重识别方法 | |
CN118132720A (zh) | 一种基于弱监督对齐机制的统计图自动问答方法 | |
CN118246810A (zh) | 基于改进动态贝叶斯网络的软件类学科竞赛表现评估方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |