CN113516141B - 深度度量模型的优化方法、设备及存储介质 - Google Patents
深度度量模型的优化方法、设备及存储介质 Download PDFInfo
- Publication number
- CN113516141B CN113516141B CN202011231255.0A CN202011231255A CN113516141B CN 113516141 B CN113516141 B CN 113516141B CN 202011231255 A CN202011231255 A CN 202011231255A CN 113516141 B CN113516141 B CN 113516141B
- Authority
- CN
- China
- Prior art keywords
- graph
- model
- sample data
- sample
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000005457 optimization Methods 0.000 title description 18
- 238000012549 training Methods 0.000 claims abstract description 43
- 230000006870 function Effects 0.000 claims description 100
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请实施例提供一种深度度量模型的优化方法、设备及存储介质。在训练深度度量模型时,获取深度度量模型针对不同样本数据组输出的图模型,基于不同的图模型在结构方面表现出的特征,可获取图一致性损失,该图一致性损失可以有效表征深度度量模型在特征辨识方面的稳定性。基于该图一致性损失对深度度量模型进行训练,可针对性地提升深度度量模型对不同特征以及相同特征的辨识能力,提升深度度量模型在分类、查询等多种任务中的性能。
Description
技术领域
本申请涉及深度学习技术领域,尤其涉及一种深度度量模型的优化方法、设备及存储介质。
背景技术
在深度学习领域中,深度度量学习(Deep Metric Learning,DML)具有广泛的应用。例如,在基于深度学习的检索任务中,可基于DML学习如何使得同类特征尽量接近,而不同类的特征距离尽量远,以提升检索结果的可靠性。
现有的度量学习方法,不易提升深度度量模型对特征的判别能力。因此,有待提出一种新的解决方案。
发明内容
本申请的多个方面提供一种深度度量模型的优化方法、设备及存储介质,用以提升深度度量模型对特征的判别能力。
本申请实施例提供一种深度度量模型的优化方法,包括:响应客户端对第一接口的调用请求,获取接口参数包含的多个样本数据组;将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度;根据所述多个图模型的结构,构造图一致性损失函数;依据所述图一致性损失函数,对所述深度度量模型进行迭代训练,并将训练得到的结果模型返回至所述客户端。
本申请实施例还提供一种深度度量模型的优化方法,包括:获取多个样本图像组;将所述多个样本图像组输入深度度量模型,得到所述多个样本图像组对应的多个图模型;其中,图模型中的节点用于表示样本图像,相邻节点之间的边长用于表示相邻节点对应的样本图像的特征相似度;根据所述多个图模型的结构,构造图一致性损失函数;依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
本申请实施例还提供一种深度度量模型的优化方法,包括:获取多个样本数据组;将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度;根据所述多个图模型的结构,构造图一致性损失函数;依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
进一步可选地,获取多个样本数据组,包括:从样本数据集中,确定指定的w个样本类别;分别对所述w个样本类别对应的样本数据进行随机采样,得到每个样本类别对应的k个样本数据;将采样得到的w*k个样本数据,作为一个样本数据组。
进一步可选地,根据所述多个图模型的结构,构造图一致性损失函数,包括:根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异;根据所述第一特征判别差异和/或所述第二特征判别差异,确定所述图一致性损失函数。
进一步可选地,根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异,包括:从所述多个图模型中的第一图模型以及第二图模型中,分别获取样本类别相同的节点之间的边长,得到多个第一类型的边长,和/或,分别获取样本类别不同的节点之间的边长,得到多个第二类型的边长;基于所述多个第一类型的边长之间的差,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,基于所述多个第二类型的边长之间的差,确定所述深度度量模型对类别不同的样本数据的第二特征判别差异。
进一步可选地,根据所述多个图模型的结构,计算所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异,包括:基于所述第一图模型中的任意相邻节点之间的边长,构造所述第一图模型的相似度矩阵,以及,基于所述第二图模型中的任意相邻节点之间的边长,构造所述第二图模型的相似度矩阵;根据所述第一图模型的相似度矩阵与所述第二图模型的相似度矩阵差的范数,确定所述第一特征判别差异和所述第二特征判别差异。
进一步可选地,基于所述第一图模型中的任意相邻节点之间的边长,构造所述第一图模型的相似度矩阵,包括:将所述第一图模型中的第i个样本数据对应的节点与第j个样本数据对应的节点之间的边长,作所述第一图模型的相似度矩阵中第i行、第j列的元素;其中,i=1,2…n,j=1,2…n,n为所述第一图模型对应的样本数据组中的样本数据的总数量。
进一步可选地,依据所述图一致性损失函数,对所述深度度量模型进行迭代训练,包括:确定所述图一致性损失函数与所述深度度量模型的度量学习损失函数,作为所述深度度量模型的联合损失函数;根据所述联合损失函数,对所述深度度量模型进行迭代训练,直至所述联合损失函数收敛到指定范围。
进一步可选地,所述度量学习损失函数,包括:三元组损失函数、N-pair损失函数以及二项式损失函数中的至少一种。
本申请实施例提供的基于深度度量学习的模型优化方法中,在训练深度度量模型时,获取深度度量模型针对不同样本数据组输出的图模型,基于不同的图模型在结构方面表现出的特征,可获取图一致性损失,该图一致性损失可以有效表征深度度量模型在特征辨识方面的稳定性。基于该图一致性损失对深度度量模型进行训练,可针对性地提升深度度量模型对不同特征以及相同特征的辨识能力,提升深度度量模型在分类、查询等多种任务中的性能。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请一示例性实施例提供的深度度量模型的优化方法的流程示意图;
图2为本申请一示例性实施例提供的深度度量模型输出的图模型的图结构优化示意图;
图3为本申请另一示例性实施例提供的深度度量模型的优化方法的流程示意图;
图4为本申请又一示例性实施例提供的深度度量模型的优化方法的流程示意图;
图5为本申请一示例性实施例提供的电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
深度度量学习,主要用于基于训练数据,自主学习基于数据的特征对数据进行距离计算,使得具有同类特征的数据尽量接近,具有不同类特征的数据尽量远的能力。深度度量学习多用于基于深度学习的检索任务以及分类任务中,并发挥重要的作用。例如,在分类任务中,基于深度度量学习,可计算两张图片之间的相似度,使得输入图片被归入到相似度大的图片类别中去。
目前,为提升深度度量模型对特征的辨识性能,存在多种不同的深度度量模型优化方法。一种典型的方法致力于改进基于样本对的损失函数。在这种方式中,通常针对样本对的损失设置一个margin的参数;若样本对的距离小于预设的margin的参数值,将导致损失为0,参数更新停止,使得模型很难继续达到更好的判别能力。另一种典型的方法致力于提升困难样本的挖掘技巧。但是这种方法对样本的采样技巧较为敏感,导致模型的训练过程不稳定,容易陷入局部最小值点。
针对上述技术问题,在本申请一些实施例中,提供了一种解决方案,以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本申请一示例性实施例提供的深度度量模型的优化方法的流程示意图,如图1所示,该方法包括:
步骤101、获取多个样本数据组。
步骤102、将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度。
步骤103、根据所述多个图模型的结构,构造图一致性损失函数。
步骤104、依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
其中,获取到的多个样本数据组,可包括两个样本数据组,或者两个以上的样本数据组。其中,每个样本数据组中,可包含多个样本数据。在不同的应用场景中,样本数据的实现形式不同。例如,在基于图像的学习任务中,样本数据可实现为训练所需的样本图像。在基于自然语言的学习任务中,样本数据可实现为训练语料等等,本实施例不做限制。
在训练阶段,将样本数据组输入深度度量模型后,深度度量模型用于对输入的样本数据组中的任意两个样本数据进行距离度量,该度量得到的距离,用于表征两个样本数据的特征的相似度。在本实施例中,为便于描述,将任意两个样本数据的特征的相似度,描述为该任意两个样本数据的特征相似度。
在本实施例中,深度度量模型的输出为图模型。图模型是由节点和连接线(边)组成的用于描述节点之间的结构的图形。
将多个样本数据组输入深度度量模型后,深度度量模型可基于当前的模型参数,对每个样本数据组中的样本数据进行相似度计算,得到每个样本数据组各自的图模型。其中,每个样本数据组对应的图模型中的节点,与该样本数据组中的样本数据一一对应,任意两个节点之间的边,用于表征该任意两个节点对应的样本数据的特征相似度。
例如,将第一样本数据组输入深度度量模型,可得到第一图模型,该第一图模型用于表征深度度量模型对第一样本数据组中的样本数据的相似度度量结果。将第二样本数据组输入深度度量模型,可得到第二图模型,该第二图模型用于表征深度度量模型对第二样本数据组中的样本数据的相似度度量结果。
由于样本数据组为训练深度度量模型所需的样本数据集的子集,因此,每个样本数据组对应的图模型,又可称为样本数据集对应的图模型的子图。
深度度量模型的优化目标为:使得具有同类特征的数据尽量接近,使得具有不同类特征的数据尽量远离。也就是说,使得不同样本数据组对应的图模型,具有一定的结构相似性。该结构相似性可表现为:具有相同或者相似特征的样本数据之间的边长具有相似性,具有不同特征的样本数据之间的边具有相似性。
为满足上述需求,在本实施例中,利用深度度量模型输出的多个图模型的结构,构造图一致性损失函数(Graph-Consistent Regularization,GCR),并依据该图一致性损失函数对深度度量模型进行优化。
其中,该图一致性损失函数,指的是深度度量模型输出的多个图模型在结构一致性方面的损失。该结构一致性方面的损失,可包括:不同图模型中,具有相同或者相似特征的样本数据对应的图结构在一致性方面的损失,和/或,不同图模型中,具有不同特征的样本数据对应的图结构在一致性方面的损失。
在训练深度度量模型时,不断优化深度度量模型的参数,以使得图一致性损失函数逐步收敛,可缩小深度模型输出的不同图模型在结构上的差异特征。进而,深度度量模型可不断地学习如何提升针对不同类别的特征的辨识能力,以及学习如何提升针对相同类别的特征的辨识能力。
本实施例中,在训练深度度量模型时,获取深度度量模型针对不同样本数据组输出的图模型,基于不同的图模型在结构方面表现出的特征,可获取图一致性损失,该图一致性损失可以有效表征深度度量模型在特征辨识方面的稳定性。基于该图一致性损失对深度度量模型进行训练,可针对性地提升深度度量模型对不同特征以及相同特征的辨识能力,提升深度度量模型在分类、查询等多种任务中的性能。
在一些可选的实施例中,在从样本数据集中随机采样样本数据组时,可确保每个样本数据组包含相同类别的样本数据形成的正例样本对,相同类别的样本数据对具有相同或者相似的特征,进而可以使得深度度量模型学习分辨相同或者相似的特征。可选地,可确保每个样本数据组包含不同类别的样本数据对形成的负例样本对,不同类别的样本数据对具有不同的特征,进而可以使得深度度量模型学习分辨不同的特征。
为便于比较不同样本数据组的图模型在结构方面的差异性,可使得不同样本数据组之间,至少具有一组相同类别的正例样本对以及至少一组相同类别的负例样本对。以下将进行示例性说明。
例如,第一样本数据组包含两个类别a的样本数据组成的正例样本对1,以及,一个类别a的样本数据和一个类别b的样本数据组成的负例样本对1。第二样本数据组包含两个类别a的样本数据组成的正例样本对2,以及,一个类别a的样本数据和一个类别b的样本数据组成的负例样本对2。
其中,正例样本对1和正例样本对2,可描述为不同样本数据组之间的相同类别的正例样本对。负例样本对1和负例样本对2,可描述为不同样本数据组之间的相同类别的负例样本对。基于上述,获取到第一样本数据组和第二样本数据组各自对应的图模型之后,可基于正例样本对1和正例样本对2在图模型中对应的结构的差异性,分析深度度量模型辨别相同特征的能力。同时,可基于负例样本对1和负例样本对2在图模型中对应的结构的差异性,分析深度模型辨别不同特征的能力。
为满足上述样本采样需求,在获取多个样本数据组时,可从样本数据集中,确定指定的w个样本类别;分别对该w个样本类别对应的样本数据进行随机采样,得到每个样本类别对应的k个样本数据;将采样得到的w*k个样本数据,作为一个样本数据组。基于上述方式进行多次采样,可得到多个样本数据组。
其中,每个样本数据组,可描述为以下的数组X,X={xi},i=1,2,3,…,w*k。
其中,w和k的取值可以根据实际需求进行设置。例如,在一些实施例中,可取w=5,k=6;在另一些实施例中,可取w=13,k=10,本实施例不做限制。
其中,每个样本数据组中的样本数据,可按照特定的类别顺序进行排列,以使得多个样本数据组中的样本数据具有相同的类别顺序,便于后续的计算过程中快速确定相同类别的样本数据以及不同类别的样本数据。
在一些可选的实施例中,根据该多个图模型的结构,构造图一致性损失函数的一种方式,可包括:根据该多个图模型的结构,确定深度度量模型对类别相同的样本数据的第一特征判别差异,并根据该第一特征判别差异,确定图一致性损失函数。在这种实施方式中,基于图一致性损失函数对深度度量模型进行训练,可用于提升深度度量模型针对相同特征的辨别能力。
在另一些可选的实施例中,可根据该多个图模型的结构,确定深度度量模型对类别不同的样本数据的第二特征判别差异,并根据第二特征判别差异,确定图一致性损失函数。在这种实施方式中,基于图一致性损失函数对深度度量模型进行训练,可用于提升深度度量模型针对不同特征的辨别能力。
在又一些可选的实施例中,可根据该多个图模型的结构,确定深度度量模型对类别相同的样本数据的第一特征判别差异;以及,根据该多个图模型的结构,确定深度度量模型对类别不同的样本数据的第二特征判别差异。根据第一特征判别差异和第二特征判别差异,确定图一致性损失函数。在这种实施方式中,基于图一致性损失函数对深度度量模型进行训练,可用于提升深度度量模型针对相同特征的辨别能力以及针对不同特征的辨别能力。
以下部分,将对根据多个图模型计算第一特征判别差异和第二特征判别差异的可选实施方式,进行示例性说明。
在实施方式A中,可分别计算第一特征判别差异和第二特征判别差异。
以下部分将以深度度量模型输出的多个图模型中的第一图模型以及第二图模型为例进行示例性说明。
可选地,计算第一特征判别差异时,可从第一图模型以及第二图模型中,分别获取样本类别相同的节点之间的边长,得到多个第一类型的边长。接下来,基于该多个第一类型的边长之间的差,确定深度度量模型对类别相同的样本数据的第一特征判别差异。其中,样本类别相同的节点,指的是节点对应的样本数据的类别相同。第一类型的边长,表征了样本类别相同的样本数据的特征相似度。
例如,可从第一图模型中获取正例样本对对应的节点之间的边长S1,从第二图模型中获取正例样本对对应的节点之间的边长S1`。
可选地,该第一特征判别差异,可通过多个第一类型的边长的差值确定。例如,承接上述例子,可将△1=|S1-S1`|作为第一特征判别差异。
可选地,计算第二特征判别差异时,可从第一图模型以及第二图模型中,分别获取样本类别不同的节点之间的边长,得到多个第二类型的边长。基于该多个第二类型的边长之间的差,确定深度度量模型对类别不同的样本数据的第二特征判别差异。其中,样本类别不同的节点,指的是节点对应的样本数据的类别不相同。第二类型的边长,表征了样本类别不同的样本数据的特征相似度。
例如,可从第一图模型中获取负例样本对对应的节点之间的边长S2,从第二图模型中获取负例样本对对应的节点之间的边长S2`。
可选地,该第二特征判别差异,可通过多个第二类型的边长的差值确定。例如,承接上述例子,可将△2=|S2-S2`|作为第二特征判别差异。
在实施方式A中,图一致性损失函数,可以为△1或者△2。或者,当基于多个第一类型的边长计算得到多个△1时,图一致性损失函数可以为多个△1的加权和。或者,当基于多个第二类型的边长计算得到多个△2时,图一致性损失函数可以为多个△2的加权和。或者,图一致性损失函数可以为至少一个△1和至少一个△2的加权和,不再赘述。
在实施方式B中,可基于图模型对应的相似度矩阵,同步计算第一特征判别差异和第二特征判别差异。
可选地,在这种实施方式中,可基于第一图模型中的任意相邻节点之间的边长,构造第一图模型的相似度矩阵,并基于第二图模型中的任意相邻节点之间的边长,构造第二图模型的相似度矩阵。
可选地,在上述实施例中,基于第一图模型中的任意相邻节点之间的边长,构造第一图模型的相似度矩阵的一种方式,可包括:将第一图模型中的第i个样本数据对应的节点与第j个样本数据对应的节点之间的边长,作第一图模型的相似度矩阵中第i行、第j列的元素;其中,i=1,2…n,j=1,2…n,n为所述第一图模型对应的样本数据组中的样本数据的总数量。
应当理解,任意相邻节点之间的边长,用于表征该相邻节点对应的样本数据的相似度。因此,上述过程可采用以下公式1进行描述:
在公式1中,σ表示超参数,包括深度度量模型当前的模型参数。xi表示第i个样本数据的特征,xj表示第j个样本数据的特征;sij表示相似度矩阵中的第i行、第j列的元素。
接下来,可根据第一图模型的相似度矩阵S`与第二图模型的相似度矩阵S``差的范数,确定第一特征判别差异和第二特征判别差异。
其中,第一特征判别差异可表现为:相似度矩阵S`与相似度矩阵S``中,坐标相同的第一类元素的差运算结果;其中,第一类元素用于表示相同类别的样本数据的相似度。其中,第二特征判别差异可表现为:相似度矩阵S`与相似度矩阵S``中,坐标相同的第二类元素的差运算结果;其中,第二类元素用于表示不同类别的样本数据的相似度。
基于上述,包含第一特征判别差异和第二特征判别差异的图一致性损失函数可描述为以下公式2:
基于上述,在确定图一致性损失函数之后,可依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
在一些可选的实施例中,可进一步确定图一致性损失函数与深度度量模型的其他度量学习损失函数,作为深度度量模型的联合损失函数,并根据该联合损失函数,对深度度量模型进行迭代训练,直至联合损失函数收敛到指定范围。
其中,该联合损失函数可采用以下公式3进行描述:
其中,为Lgc的上限函数。其中,/>
其中,该度量学习损失函数,可包括:三元组损失函数、N-pair(N对)损失函数以及二项式(Binomial)损失函数中的至少一种,本实施例不做限制。
其中,三元组损失函数如以下公式4所示:
公式4中,m为距离超参数,N表示每批次输入深度度量模型的样本数据的数量,当每批训练样本包括两个样本数据组时,N=2n。
其中,N-pair损失函数如以下公式5所示:
公式5中,yi、yj表示样本数据样的标签值。
其中,二项式损失函数如以下公式6所示:
公式6中,α、β以及ηij表示超参数。
在上述各实施例中,训练深度度量模型采用的训练样本集可包括但不限于:CUB数据集、CARS数据集,Standford Online Products and In-Shop数据集等。其中,深度度量模型可基于InceptionV1和InceptionBN网络实现。在一些实施例中,基于联合损失函数对深度度量模型的参数进行梯度优化时,可采用Adam优化器,并设置优化器的学习率1e-5,权重衰减因子weight_decay=2e-4。
基于上述联合损失函数,可使得图一致性损失函数在训练深度度量模型的过程中,起到较好的正则作用,该正则作用可对多种样本对的损失进行更好地约束,从而提升深度度量模型的判别能力。以下将结合图2进行说明。
在图2的示意中,颜色相同的节点表示具有同类特征的数据。α表示具有同类特征的数据之间的距离,即类内距离;β表示具有不同类特征的数据之间的距离,即类间距离。在正则化之前,类内距离较大,类间距离相对较小,导致不同样本数据组对应的图模型无法一致。经过正则化之后,深度度量模型对同类特征以及不同类特征的判别能力极大提升,其输出的图模型中,类内距离增大,类间距离减小,不同样本数据组对应的图模型接近一致。
图3为本申请另一示例性实施例提供的深度度量模型的优化方法的流程示意图,如图3所示,该方法包括:
步骤301、响应客户端对第一接口的调用请求,获取接口参数包含的多个样本数据组。
步骤302、将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度。
步骤303、根据所述多个图模型的结构,构造图一致性损失函数。
步骤304、依据所述图一致性损失函数,对所述深度度量模型进行迭代训练,并将训练得到的结果模型返回至所述客户端。
本实施例的执行主体可以是服务端设备,例如常规服务器或者云服务器。其中,客户端可实现为用户侧的手机、计算机、平板电脑等设备。
在本实施例中,可将前述各实施例提供的深度度量模型的优化方法封装为可供第三方使用的软件工具,例如SaaS(Software-as-a-Service,软件即服务)工具。其中,该SaaS工具可实现为插件或者应用程序。该插件或者应用程序可以被部署在服务端设备上,并可向客户端等第三方用户开放指定的接口。为便于描述,在本实施例中,将该指定的接口描述为第一接口。进而,客户端等第三方用户通过调用该第一接口,便捷地访问并使用服务端设备提供的深度度量模型的优化方法。
例如,在一些场景下,该SaaS工具可被部署在云服务器,第三方用户可调用云服务器提供的第一接口来在线使用该SaaS工具。其中,第三方用户调用第一接口时,可通过配置第一接口的接口参数,向SaaS工具提供深度度量模型的优化操作所需的输入数据,即本实施例所述的多个样本数据组(多批样本数据)。可选地,该多批样本数据,可以是多批图像样本数据、多批语料样本数据等等,视具体的应用场景而定,本实施例不做限制。
SaaS工具接收到针对第一接口的调用请求后,可通过解析第一接口的接口参数,获取客户端提供的多个样本数据组。SaaS工具基于多批样本数组对深度度量模型进行优化并得到结果模型后,可通过该第一接口或者其他通信方式,将训练得到的结果模型返回至客户端,以供客户端基于该结果模型进行度量计算。其中,基于多个样本数据组优化深度度量模型的可选实施方式可参考前述实施例的记载,此处不再赘述。
在本实施例中,服务端设备可基于其上运行的SaaS工具,向客户端提供深度度量模型训练服务,客户端用户可通过调用SaaS工具提供的接口使用服务端设备提供的深度度量模型训练服务。基于客户端与服务端设备的交互,客户端可将深度度量模型的训练操作完全交由服务端设备执行,进而,可借助服务端设备强大的计算能力和可靠的属性识别算法,实现低成本、高效率率的模型训练操作。
图4为本申请又一示例性实施例提供的深度度量模型的优化方法的流程示意图,如图4所示,该方法包括:
步骤401、获取多个样本图像组。
步骤402、将所述多个样本图像组输入深度度量模型,得到所述多个样本图像组对应的多个图模型;其中,图模型中的节点用于表示样本图像,相邻节点之间的边长用于表示相邻节点对应的样本图像的特征相似度。
步骤403、根据所述多个图模型的结构,构造图一致性损失函数。
步骤404、依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
在本实施例中,度量学习,体现为针对图像的相似度学习。在训练深度度量模型时,输入深度度量模型的训练数据为多个样本图像组,每个样本图像组包含多张样本图像。基于本实施例中的优化方法,可使得深度度量模型更好地学习度量图片之间的相似度,并可在图一致性损失函数的约束下,使得深度度量模型输出的不同类别的图像的相似度较小,相同类别的图像的相似度较大。
基于该实施例训练得到的深度度量模型,可广泛应用在基于图像的检索任务、分类任务中。
例如,在一些实施例中,向用户提供商品搜索服务时,可获取用户提供的待识别的商品图像,并将该商品图像输入深度度量模型。深度度量模型的另一部分输入数据,可以为预先收集的不同商品的图像。基于预先学习到的参数,深度度量模型可分别计算用户提供的商品图像与预先收集的每一张商品的图像的相似度,并输出图模型。该图模型,可展示用户提供的商品图像与预先收集的不同商品的图像的相似度。基于该相似度,可确定与该商品图像匹配的商品,并向用户返回准确的商品搜索结果。
又例如,在一些实施例中,获取到对多种不同场景进行拍摄的监控图像后,存在一种按照场景类别对大量监控图像进行分类的需求。此时,可将大量的监控图像输入深度度量模型,由深度度量模型基于预先学习到的参数,计算任意两张监控图像的相似度,并输出图模型。对相同场景进行拍摄得到的监控图像具有较高的相似度,对不同场景进行拍摄得到的监控图像具有较低的相似度,该相似度反映在图模型上,可以表现为多个节点会聚成多簇节点的效果。其中,每一簇节点对应一组相同场景下拍摄到的监控图像,基于会聚后的多簇节点,可确定大量监控图像的分类结果,得到每个场景对应的监控图像,不再赘述。
需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤201至步骤204的执行主体可以为设备A;又比如,步骤201和202的执行主体可以为设备A,步骤203的执行主体可以为设备B;等等。
另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如201、202等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
图5是本申请一示例性实施例提供的电子设备的结构示意图,如图5所示,该电子设备包括:存储器501以及处理器502。
存储器501,用于存储计算机程序,并可被配置为存储其它各种数据以支持在电子设备上的操作。这些数据的示例包括用于在电子设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
其中,存储器501可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
处理器502,与存储器501耦合,用于执行存储器501中的计算机程序,以用于:获取多个样本数据组;将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度;根据所述多个图模型的结构,构造图一致性损失函数;依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
进一步可选地,处理器502在获取多个样本数据组时,具体用于:从样本数据集中,确定指定的w个样本类别;分别对所述w个样本类别对应的样本数据进行随机采样,得到每个样本类别对应的k个样本数据;将采样得到的w*k个样本数据,作为一个样本数据组。
进一步可选地,处理器502在根据所述多个图模型的结构,构造图一致性损失函数时,具体用于:根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异;根据所述第一特征判别差异和/或所述第二特征判别差异,确定所述图一致性损失函数。
进一步可选地,处理器502在根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异时,具体用于:从所述多个图模型中的第一图模型以及第二图模型中,分别获取样本类别相同的节点之间的边长,得到多个第一类型的边长,和/或,分别获取样本类别不同的节点之间的边长,得到多个第二类型的边长;基于所述多个第一类型的边长之间的差,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,基于所述多个第二类型的边长之间的差,确定所述深度度量模型对类别不同的样本数据的第二特征判别差异。
进一步可选地,处理器502在根据所述多个图模型的结构,计算所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异时,具体用于:基于所述第一图模型中的任意相邻节点之间的边长,构造所述第一图模型的相似度矩阵,以及,基于所述第二图模型中的任意相邻节点之间的边长,构造所述第二图模型的相似度矩阵;根据所述第一图模型的相似度矩阵与所述第二图模型的相似度矩阵差的范数,确定所述第一特征判别差异和所述第二特征判别差异。
进一步可选地,处理器502在基于所述第一图模型中的任意相邻节点之间的边长,构造所述第一图模型的相似度矩阵时,具体用于:将所述第一图模型中的第i个样本数据对应的节点与第j个样本数据对应的节点之间的边长,作所述第一图模型的相似度矩阵中第i行、第j列的元素;其中,i=1,2…n,j=1,2…n,n为所述第一图模型对应的样本数据组中的样本数据的总数量。
进一步可选地,处理器502在依据所述图一致性损失函数,对所述深度度量模型进行迭代训练时,具体用于:确定所述图一致性损失函数与所述深度度量模型的度量学习损失函数,作为所述深度度量模型的联合损失函数;根据所述联合损失函数,对所述深度度量模型进行迭代训练,直至所述联合损失函数收敛到指定范围。
进一步可选地,所述度量学习损失函数,包括:三元组损失函数、N-pair损失函数以及二项式损失函数中的至少一种。
进一步,如图5所示,该电子设备还包括:通信组件503、显示组件504、电源组件505、音频组件506等其它组件。图5中仅示意性给出部分组件,并不意味着电子设备只包括图5所示组件。
其中,通信组件503被配置为便于通信组件所在设备和其他设备之间有线或无线方式的通信。通信组件所在设备可以接入基于通信标准的无线网络,如WiFi,2G、3G、4G或5G,或它们的组合。在一个示例性实施例中,通信组件经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件可基于近场通信(NFC)技术、射频识别(RFID)技术、红外数据协会(IrDA)技术、超宽带(UWB)技术、蓝牙(BT)技术和其他技术来实现。
其中,显示组件504包括屏幕,其屏幕可以包括液晶显示组件(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
其中,电源组件505,为电源组件所在设备的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源,及其他与为电源组件所在设备生成、管理和分配电力相关联的组件。
本实施例中,在训练深度度量模型时,获取深度度量模型针对不同样本数据组输出的图模型,基于不同的图模型在结构方面表现出的特征,可获取图一致性损失,该图一致性损失可以有效表征深度度量模型在特征辨识方面的稳定性。基于该图一致性损失对深度度量模型进行训练,可针对性地提升深度度量模型对不同特征以及相同特征的辨识能力,提升深度度量模型在分类、查询等多种任务中的性能。
图5所示的电子设备还可执行如下的深度度量模型优化逻辑:处理器502响应客户端对第一接口的调用请求,获取接口参数包含的多个样本数据组;将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度;根据所述多个图模型的结构,构造图一致性损失函数;依据所述图一致性损失函数,对所述深度度量模型进行迭代训练,并将训练得到的结果模型返回至所述客户端。
图5所示的电子设备还可执行如下的深度度量模型优化逻辑:处理器502获取多个样本图像组;将所述多个样本图像组输入深度度量模型,得到所述多个样本图像组对应的多个图模型;其中,图模型中的节点用于表示样本图像,相邻节点之间的边长用于表示相邻节点对应的样本图像的特征相似度;根据所述多个图模型的结构,构造图一致性损失函数;依据所述图一致性损失函数,对所述深度度量模型进行迭代训练。
相应地,本申请实施例还提供一种存储有计算机程序的计算机可读存储介质,计算机程序被执行时能够实现上述方法实施例中可由电子设备执行的各步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程基于深度度量学习的模型优化设备的处理器以产生一个机器,使得通过计算机或其他可编程基于深度度量学习的模型优化设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程基于深度度量学习的模型优化设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程基于深度度量学习的模型优化设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (9)
1.一种深度度量模型的优化方法,其特征在于,包括:
响应客户端对第一接口的调用请求,获取接口参数包含的多个样本数据组;
将所述多个样本数据组输入深度度量模型,得到所述多个样本数据组对应的多个图模型;其中,图模型中的节点用于表示样本数据,相邻节点之间的边长用于表示相邻节点对应的样本数据的特征相似度;
根据所述多个图模型的结构,构造图一致性损失函数;
依据所述图一致性损失函数,对所述深度度量模型进行迭代训练,并将训练得到的结果模型返回至所述客户端;
其中,根据所述多个图模型的结构,构造图一致性损失函数,包括:根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异;根据所述第一特征判别差异和/或所述第二特征判别差异,确定所述图一致性损失函数;
其中,根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异,包括:从所述多个图模型中的第一图模型以及第二图模型中,分别获取样本类别相同的节点之间的边长,得到多个第一类型的边长,和/或,分别获取样本类别不同的节点之间的边长,得到多个第二类型的边长;基于所述多个第一类型的边长之间的差,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,基于所述多个第二类型的边长之间的差,确定所述深度度量模型对类别不同的样本数据的第二特征判别差异。
2.根据权利要求1所述的方法,其特征在于,获取多个样本数据组,包括:
从样本数据集中,确定指定的w个样本类别;
分别对所述w个样本类别对应的样本数据进行随机采样,得到每个样本类别对应的k个样本数据;
将采样得到的w*k个样本数据,作为一个样本数据组。
3.根据权利要求1所述的方法,其特征在于,根据所述多个图模型的结构,计算所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异,包括:
基于第一图模型中的任意相邻节点之间的边长,构造所述第一图模型的相似度矩阵,以及,基于第二图模型中的任意相邻节点之间的边长,构造所述第二图模型的相似度矩阵;
根据所述第一图模型的相似度矩阵与所述第二图模型的相似度矩阵差的范数,确定所述第一特征判别差异和所述第二特征判别差异。
4.根据权利要求3所述方法,其特征在于,基于所述第一图模型中的任意相邻节点之间的边长,构造所述第一图模型的相似度矩阵,包括:
将所述第一图模型中的第i个样本数据对应的节点与第j个样本数据对应的节点之间的边长,作所述第一图模型的相似度矩阵中第i行、第j列的元素;
其中,i=1,2…n,j=1,2…n,n为所述第一图模型对应的样本数据组中的样本数据的总数量。
5.根据权利要求1-3任一项所述的方法,其特征在于,依据所述图一致性损失函数,对所述深度度量模型进行迭代训练,包括:
确定所述图一致性损失函数与所述深度度量模型的度量学习损失函数,作为所述深度度量模型的联合损失函数;
根据所述联合损失函数,对所述深度度量模型进行迭代训练,直至所述联合损失函数收敛到指定范围。
6.根据权利要求5所述的方法,其特征在于,所述度量学习损失函数,包括:三元组损失函数、N-pair损失函数以及二项式损失函数中的至少一种。
7.一种深度度量模型的优化方法,其特征在于,包括:
获取多个样本图像组;
将所述多个样本图像组输入深度度量模型,得到所述多个样本图像组对应的多个图模型;其中,图模型中的节点用于表示样本图像,相邻节点之间的边长用于表示相邻节点对应的样本图像的特征相似度;
根据所述多个图模型的结构,构造图一致性损失函数;
依据所述图一致性损失函数,对所述深度度量模型进行迭代训练;
其中,根据所述多个图模型的结构,构造图一致性损失函数,包括:根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异;根据所述第一特征判别差异和/或所述第二特征判别差异,确定所述图一致性损失函数;
其中,根据所述多个图模型的结构,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,对类别不同的样本数据的第二特征判别差异,包括:从所述多个图模型中的第一图模型以及第二图模型中,分别获取样本类别相同的节点之间的边长,得到多个第一类型的边长,和/或,分别获取样本类别不同的节点之间的边长,得到多个第二类型的边长;基于所述多个第一类型的边长之间的差,确定所述深度度量模型对类别相同的样本数据的第一特征判别差异,和/或,基于所述多个第二类型的边长之间的差,确定所述深度度量模型对类别不同的样本数据的第二特征判别差异。
8.一种电子设备,其特征在于,包括:存储器和处理器;
所述存储器用于存储一条或多条计算机指令;
所述处理器用于执行所述一条或多条计算机指令以用于:执行权利要求1-7任一项所述方法中的步骤。
9.一种存储有计算机程序的计算机可读存储介质,其特征在于,计算机程序被执行时能够实现权利要求1-7任一项所述的方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011231255.0A CN113516141B (zh) | 2020-11-06 | 2020-11-06 | 深度度量模型的优化方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011231255.0A CN113516141B (zh) | 2020-11-06 | 2020-11-06 | 深度度量模型的优化方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516141A CN113516141A (zh) | 2021-10-19 |
CN113516141B true CN113516141B (zh) | 2024-03-01 |
Family
ID=78060832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011231255.0A Active CN113516141B (zh) | 2020-11-06 | 2020-11-06 | 深度度量模型的优化方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516141B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163246A (zh) * | 2019-04-08 | 2019-08-23 | 杭州电子科技大学 | 基于卷积神经网络的单目光场图像无监督深度估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102516001B1 (ko) * | 2017-10-24 | 2023-03-29 | 로레알 | 심층 신경망을 사용하는 이미지 처리를 위한 시스템 및 방법 |
-
2020
- 2020-11-06 CN CN202011231255.0A patent/CN113516141B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163246A (zh) * | 2019-04-08 | 2019-08-23 | 杭州电子科技大学 | 基于卷积神经网络的单目光场图像无监督深度估计方法 |
Non-Patent Citations (1)
Title |
---|
基于自学习的稀疏正则化图像超分辨率方法;李娟;吴谨;陈振学;杨莘;刘劲;;仪器仪表学报(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113516141A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11119980B2 (en) | Self-learning operational database management | |
US9454580B2 (en) | Recommendation system with metric transformation | |
CN109360028B (zh) | 用于推送信息的方法和装置 | |
US20230139783A1 (en) | Schema-adaptable data enrichment and retrieval | |
CN108205581B (zh) | 生成数字媒介环境中的紧凑视频特征表示 | |
CN108288208B (zh) | 基于图像内容的展示对象确定方法、装置、介质及设备 | |
US11741147B2 (en) | Selecting balanced clusters of descriptive vectors | |
US9754015B2 (en) | Feature rich view of an entity subgraph | |
US10394907B2 (en) | Filtering data objects | |
US10789240B2 (en) | Duplicative data detection | |
US20230206072A1 (en) | System and method for generating scores for predicting probabilities of task completion | |
CN111625638B (zh) | 一种问句处理方法、装置、设备及可读存储介质 | |
CN110598084A (zh) | 对象排序方法、商品排序方法、装置及电子设备 | |
US20150278910A1 (en) | Directed Recommendations | |
CN113516141B (zh) | 深度度量模型的优化方法、设备及存储介质 | |
CN112925939A (zh) | 图片搜索方法、描述信息生成方法、设备及存储介质 | |
CN115470190A (zh) | 一种多存储池数据分类存储方法、系统与电子设备 | |
CN114528491A (zh) | 信息处理方法、装置、计算机设备和存储介质 | |
CN113515995A (zh) | 移动对象的重识别、模型训练方法、设备及存储介质 | |
CN114168589A (zh) | 索引构建方法及装置 | |
CN113139121A (zh) | 查询方法、模型训练方法、装置、设备及存储介质 | |
CN112149692B (zh) | 基于人工智能的视觉关系识别方法、装置及电子设备 | |
CN115205576A (zh) | 图像分类、数据分类、模型训练方法、设备及存储介质 | |
US20240231678A9 (en) | Automated data archival framework using artificial intelligence techniques | |
US20240134562A1 (en) | Automated data archival framework using artificial intelligence techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |