CN107423306B - 一种图像检索方法及装置 - Google Patents
一种图像检索方法及装置 Download PDFInfo
- Publication number
- CN107423306B CN107423306B CN201610350337.4A CN201610350337A CN107423306B CN 107423306 B CN107423306 B CN 107423306B CN 201610350337 A CN201610350337 A CN 201610350337A CN 107423306 B CN107423306 B CN 107423306B
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- network model
- deep neural
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明实施例公开了一种图像检索方法,包括:通过深度神经网络模型获取训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征;计算第一深度特征和第二深度特征的特征距离的平方值;计算鲁棒对比损失函数的输出控制参数平方值;若训练图像对是相同物品的两张不同拍摄场景图像,则从输出控制参数的平方值和特征距离的平方值中选取较小值,根据选取的较小值调整深度神经网络模型的网络参数;获取检索匹配图像,并通过修正后的深度神经网络模型从图像数据库中查找满足检索匹配图像对应的匹配规则的目标图像。本发明实施例还公开了一种图像检索装置。采用本发明实施例,具有可提高图像检索的效率,增强图像检索的性能的优点。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种图像检索方法及装置。
背景技术
物品图像检索是利用物品的视觉信息在物品数据库中检索与该物品语义上相似或者相同的物品,随着电子商务平台的日益发展普及,物品图像检索也随着日益发展重要。
现有技术一通过将从物品图像中提取的不同视觉特征组成新的视觉特征,通过分类器对新的视觉特征进行训练,生成训练好的相似度分类器。物品图像检索时,通过训练好的相似度分类器检索满足相似度需求的图像。现有技术一中假设了相同物品在不同图像上的视觉特征是高度相似的,进而通过视觉特征的相似性来确定物品图像的相似度。然而,由于拍摄场景、拍摄角度以及拍摄装置等条件的不同,这样的假设实现难度高,检索遗漏性高,适用性低。
现有技术二采用神经网络对物品图像检索进行建模,在神经网络分类器的训练过程中,使用物品类别作为标签对神经网络分类器进行训练,在物品图像检索中,通过训练得到的神经网络分类器检索目标。现有技术二只能对物品类别进行分类,无法准确反映两张物品图像中包含的物品是否为相同物品,检索准确率低。
发明内容
本申请提供了一种图像检索方法及装置,可过滤训练数据中的噪音,提高图像检索的效率,增强图像检索的性能。
第一方面,提供了一种图像检索方法,其可包括:
获取用于训练深度神经网络模型的训练图像对,通过深度神经网络模型获取所述训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征;
计算所述第一深度特征和所述第二深度特征的特征距离的平方值;
获取鲁棒对比损失函数的输出控制参数,并计算所述输出控制参数的平方值;
判断所述第一训练图像和所述第二训练图像是否是相同物品的两张不同拍摄场景图像;
若所述第一训练图像和所述第二训练图像是相同物品的两张不同拍摄场景图像,则从所述输出控制参数的平方值和所述特征距离的平方值中选取较小值,并将选取的所述较小值确定为所述鲁棒对比损失函数的输出值;
根据所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数,以得到修正后的深度神经网络模型;
获取检索匹配图像,并通过所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像。
本申请可从获取的用于训练深度神经网络模型的训练图像对中选取相同物品的两张不同拍摄场景图像,通过深度神经网络模型分别获取两张图像中的第一图像的第一深度特征和第二图像的第二深度特征,进而可计算第一深度特征和第二深度特征的特征距离的平方值。本申请使用相同物品的两张不同图像来训练深度神经网络模型,可提高训练得到的深度神经网络模型分辨两张不同图像的类型的准确率,增强深度神经网络模型的图像检索性能。进一步的,可获取鲁棒对比损失函数的输出控制参数,计算输出控制参数的平方值,并从输出控制参数的平方值和深度特征的特征距离的平方值中选取较小值确定为鲁棒对比损失函数的输出值。本申请将鲁棒对比损失函数的输出控制参数的平方值加入到鲁棒对比损失函数的输出值的确定中,可通过输出控制参数来控制鲁棒对比损失函数的输出值的变化幅度,过滤训练图像中的噪音,降低过拟合的可能性,增强图像检索的性能。最后,可根据鲁棒对比损失函数的输出值对应的调整规则来调整深度神经网络模型的网络参数,并通过修正后的深度神经网络模型从图像数据库中查找模块图像,通过对深度神经网络模型的修正来提高深度神经网络模型的图像检索准确率,提高图像检索的效率。
结合第一方面,在第一种可能的实现方式中,所述方法还包括:
若所述第一训练图像和所述第二训练图像不是相同物品的两张不同拍摄场景图像,则判断所述第一训练图像和所述第二训练图像是否是不同物品的两张图像;
若所述第一训练图像和所述第二训练图像是不同物品的两张图像,则计算所述输出控制参数的平方值和所述特征距离的平方值的差值,从所述差值和零中选取较大值,并将选取的所述较大值确定为所述鲁棒对比损失函数的输出值。
本申请可从获取的用于训练深度神经网络模型的训练图像对中选取不同物品的两张图像,通过深度神经网络模型分别获取两张图像中的第一图像的第一深度特征和第二图像的第二深度特征,进而可计算第一深度特征和第二深度特征的特征距离的平方值。本申请使用相同物品的两张不同图像和不同物品的两张图像来训练深度神经网络模型,可进一步完善深度神经网络模型的训练图像数据库中的图像类型,进而可提高训练得到的深度神经网络模型分辨两张不同图像的类型的准确率,增强深度神经网络模型的图像检索性能。进一步的,当训练图像对为不同物品的两张图像时,可获取鲁棒对比损失函数的输出控制参数,计算输出控制参数的平方值,以及输出控制参数的平方值和深度特征的特征距离的平方值的差值,并从上述差值和零中选取较大值确定为鲁棒对比损失函数的输出值。本申请将鲁棒对比损失函数的输出控制参数的平方值和零加入到鲁棒对比损失函数的输出值的确定中,可通过输出控制参数和零来控制鲁棒对比损失函数的输出值的变化幅度,过滤训练图像中的噪音,降低过拟合的可能性,增强图像检索的性能。
结合第一方面或者第一方面第一种可能的实现方式,在第二种可能的实现方式中,所述通过所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像包括:
将所述检索匹配图像输入所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
本申请训练得到修正后的深度神经网络模型之后,可在获取到检索匹配图像时,通过修正后的深度神经网络模型获取检索匹配图像的深度特征。本申请还可通过修正后的深度神经网络模型获取图像数据库中存储的所有待检索图像的深度特征,并从所有待检索图像的深度特征中选取与检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,通过目标深度特征查找得到目标特征。本申请通过深度特征的特征距离的匹配来查找目标图像,操作简单,图像检索效率高。
结合第一方面第二种可能的实现方式,在第三种可能的实现方式中,若所述目标图像多于一个,则所述将所述目标深度特征对应的待检索图像确定为目标图像之后,所述方法还包括:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
本申请查找得到目标图像之后,若目标图像有多个,则可根据目标图像的深度特征和检索匹配图像的深度特征的特征距离的大小关系将多个目标图像进行排序输出,可增强图像检索的结果的可视化效果,增强了图像检索的用户体验。
结合第一方面至第一方面第三种可能的实现方式中任一种,在第四种可能的实现方式中,所述深度特征的特征距离包括:所述深度特征的欧式距离,或者所述深度特征的余弦距离。
本申请可采用欧式距离或者余弦距离来确定深度特征的特征距离,计算简单,操作便捷,提高了图像检索的效率。
结合第一方面或者第一方面第一种可能的实现方式,在第五种可能的实现方式中,所述根据所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数,包括:
将所述鲁棒对比损失函数的输出值和预存的上一对训练图像对应的鲁棒对比损失函数的输出值进行比对,根据比对结果确定所述鲁棒对比损失函数的梯度;
根据所述鲁棒对比损失函数的梯度确定所述深度神经网络模型的网络参数的调整规则,并根据所述调整规则调整所述深度神经网络模型的网络参数。
本申请可根据当前训练图像对对应的鲁棒对比损失函数的输出值,结合预存的上一对训练图像对应的鲁棒对比损失函数的输出值来确定鲁棒对比损失函数的梯度,并根据鲁棒对比损失函数的梯度确定对深度神经网络模型的网络参数进行调整的调整规则,进而可根据上述调整规则对深度神经网络模型的网络参数进行调整以修正深度神经网络模型,降低深度神经网络模型的过拟合概率,提高深度神经网络模型的适用性。
第二方面,提供了一种图像检索装置,其可包括:
获取模块,用于获取用于训练深度神经网络模型的训练图像对,通过深度神经网络模型获取所述训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征;
计算模块,用于计算所述获取模块获取的所述第一深度特征和所述第二深度特征的特征距离的平方值;
所述获取模块,还用于获取鲁棒对比损失函数的输出控制参数,并计算所述输出控制参数的平方值;
判断模块,用于判断所述获取模块获取的所述第一训练图像和所述第二训练图像是否是相同物品的两张不同拍摄场景图像;
选取模块,用于在所述判断模块判断得所述第一训练图像和所述第二训练图像是相同物品的两张不同拍摄场景图像时,从所述输出控制参数的平方值和所述计算模块计算的所述特征距离的平方值中选取较小值,并将选取的所述较小值确定为所述鲁棒对比损失函数的输出值;
修正模块,用于根据所述选取模块确定的所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数,以得到修正后的深度神经网络模型;
查找模块,用于获取检索匹配图像,并通过所述修正模块调整得到的所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像。
结合第二方面,在第一种可能的实现方式中,所述判断模块还用于:
判断所述获取模块获取的所述第一训练图像和所述第二训练图像是否是不同物品的两张图像;
所述选取模块,还用于在所述判断模块判断得所述第一训练图像和所述第二训练图像是不同物品的两张图像时,计算所述输出控制参数的平方值和所述特征距离的平方值的差值,从所述差值和零中选取较大值,并将选取的所述较大值确定为所述鲁棒对比损失函数的输出值。
结合第二方面或第二方面第一种可能的实现方式,在第二种可能的实现方式中,所述查找模块具体用于:
将获取的所述检索匹配图像输入所述修正模块调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正模块调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
结合第二方面第二种可能的实现方式,在第三种可能的实现方式中,若所述目标图像多于一个,所述查找模块还用于:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
结合第二方面至第二方面第三种可能的实现方式中任一种,在第四种可能的实现方式中,所述深度特征的特征距离包括:所述深度特征的欧式距离,或者所述深度特征的余弦距离。
结合第二方面或者第二方面第一种可能的实现方式,在第五种可能的实现方式中,所述修正模块具体用于:
将所述鲁棒对比损失函数的输出值和预存的上一对训练图像对应的鲁棒对比损失函数的输出值进行比对,根据比对结果确定所述鲁棒对比损失函数的梯度;
根据所述鲁棒对比损失函数的梯度确定所述深度神经网络模型的网络参数的调整规则,并根据所述调整规则调整所述深度神经网络模型的网络参数。
第三方面,提供了一种终端,其可包括:存储器和处理器,所述存储器和所述处理器连接;
所述存储器用于存储一组程序代码;
所述处理器用于调用所述存储器中存储的程序代码执行如上述第一方面提供的任一种可能的实现方式。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的图像检索方法的流程示意图;
图2是本发明实施例提供的图像检索装置的结构示意图;
图3是本发明实施例提供的终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的图像检索方法的流程示意图。本发明实施例提供的方法,包括步骤:
S101,获取用于训练深度神经网络模型的训练图像对,通过深度神经网络模型获取所述训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征。
具体实现中,本发明实施例提供的图像检索方法的执行主体可为智能手机、平板电脑(portable android device,PAD)、掌上电脑(Personal Digital Assistant,PDA)或者可穿戴设备等终端,在此不做限制。下面将以终端为执行主体对本发明实施例提供的图像检索方法及装置进行描述。
在一些可行的实施方式中,本发明实施例提供的图像检索方法的实现过程可包括图像检索模型的训练过程,和利用训练得到的图像检索模型检索图像的过程。具体实现中,上述图像检索模型可为深度神经网络模型,例如,卷积神经网络,或者感知机等。本发明实施例所描述的深度神经网络模型可以以卷积神经网络为例进行说明。
在一些可行的实施方式中,在上述图像检索模型的训练过程中,可预先建立一个深度神经网络模型的初始模型,再通过大量的图像对上述初始模型进行训练,在训练的过程中根据深度神经网络模型的输出结果调整深度神经网络模型的网络参数直至深度神经网络模型的输出趋向收敛,以此得到一个具有较高检索准确率的深度神经网络模型。具体实现中,在深度神经网络模型的训练过程中,可首先获取用于训练深度神经网络模型的训练图像对,并通过深度神经网络模型获取训练图像对中的第一图像的深度特征(即第一深度特征)和第二图像的深度特征(即第二深度特征)。其中,上述用于获取训练图像对的深度特征的深度神经网络模型可为预先建立的初始模型,也可为经过若干次训练之后还需进行再次训练并进行修正的模型,在此不做限制。
具体实现中,上述训练图像对可为用户实时输入的训练图像对,或者预先存储在终端的指定存储空间的训练图像对,具体可根据实际应用场景确定,在此不做限制。其中,上述训练图像对可包括相同物品的两张不同拍摄场景图像,或者不同物品的两张图像等。其中,上述指定存储空间可包括终端的内置存储空间、外扩存储空间(如SD卡等)或者云存储空间等,在此不做限制。上述相同物品的两张不同拍摄场景图像可为在不同的拍摄场景中拍摄得到的同一个样式的物品的两张图像。上述不同物品的两张图像可为在不同拍摄场景中拍摄得到的不同样式的物品的两张图像,或者在相同拍摄场景中拍摄得到的不同样式的物品的两张图像等。其中,上述不同拍摄场景可包括不同拍摄背景、不同拍摄角度、不同拍摄方式、不同拍摄设备以及不同拍摄模式等,在此不做限制。上述同一个样式的物品包括:相同类型的两个物品,或者相同类型的相同形状的两个物品等,在此不做限制。上述不同样式的物品可包括:不同类型的两个物品,或者相同类型的不同形状的物品等,在此不做限制。例如,上述相同物品的两张不同拍摄场景图像可为在室内或者室外拍摄同一款车(例如相同品牌并且相同型号等各项特征都相同的两部车)的两张图像,或者水平角度拍摄或者俯视角度拍摄同一款车的两张图像,或者横向拍摄或者竖向拍摄同一款车的两张图像,或者卡片机拍摄或者单反拍摄同一款车的两张图像,或者复古模式或者黑白模式拍摄同一款车的两张图像等,在此不做限制。
S102,计算所述第一深度特征和所述第二深度特征的特征距离的平方值。
在一些可行的实施方式中,终端通过深度神经网络模型获取到第一深度特征和第二深度特征之后,则可计算第一深度特征和第二深度特征的特征距离的平方值。其中,上述第一深度特征和第二深度特征的特征距离可包括:第一深度特征和第二深度特征的欧式距离,或者第一深度特征和第二深度特征的余弦距离。
S103,获取鲁棒对比损失函数的输出控制参数,并计算所述输出控制参数的平方值。
在一些可行的实施方式中,终端计算得到第一深度特征和第二深度特征的特征距离的平方值之后,可从指定存储空间中调用鲁棒对比损失函数。其中,上述鲁棒对比损失函数包括如下等式1和等式2:
其中,上述等式1为上述第一训练图像和第二训练图像为相同物品的两张不同拍摄场景图像时对应的鲁棒对比损失函数的输出值的计算等式,等式2为上述第一训练图像和第二训练图像为不同物品的两张图像时对应的鲁棒对比损失函数的输出值的计算等式。其中,为训练图像I的深度特征,θ为深度神经网络模型的网络参数。上述m为鲁棒对比损失函数的输出控制参数,可通过m来控制鲁棒对比损失函数的输出边界值。表示训练图像p的深度特征,表示训练图像q的深度特征。在等式1中,训练图像p(假设为第一训练图像)和训练图像q(假设为第二训练图像)为相同物品的两张不同拍摄场景图像。在等式2中,训练图像p和训练图像q为不同物品的两张图像。训练图像p的深度特征为可设定为第一深度特征,训练图像q的深度特征可设定为第二深度特征。为训练图像第一深度特征和第二深度特征的欧式距离。上述欧式距离为第一深度特征和第二深度特征的特征距离的表现形式之一,具体还可通过余弦距离等距离表现形式来表示第一深度特征和第二深度特征。
具体实现中,上述鲁棒对比损失函数用于控制深度神经网络模型的训练方向。即,终端可根据上述鲁棒对比损失函数的输出结果来确定深度神经网络模型的网络参数的调整规则,进而可通过深度神经网络模型的网络参数的调整来使鲁棒对比损失函数的损失最小,提高深度神经网络模型进行图像检索的准确性。
在一些可行的实施方式中,终端获取鲁棒对比损失函数时,可根据获取的鲁棒对比损失函数确定鲁棒对比损失函数的输出控制参数m,进而可计算m的平方值m2。
S104,判断所述第一训练图像和所述第二训练图像是否是相同物品的两张不同拍摄场景图像,若判断结果为是,则执行步骤S105。
在一些可行的实施方式中,终端通过深度神经网络模型获取得到第一训练图像的第一深度特征和第二训练图像的第二深度特征,并且计算得到第一深度特征和第二深度特征的特征距离的平方值,以及鲁棒对比损失函数的输出控制参数的平方值之和,则可根据第一训练图像和第二训练图像的类型来确定鲁棒对比损失函数的输出值。具体的,终端可获取用户输入的用于训练深度神经网络模型的训练图像对,通过上述图像训练对中携带的标识信息判断上述训练图像对中包括的第一训练图像和第二训练图像是否为相同物品的两张不同拍摄场景图像。在上述实现方式中,用户输入训练图像对时,可根据训练图像对的两张图像的类型为训练图像对添加标识信息,进而可将上述标识信息与训练图像对一并输入。例如,若用户输入的训练图像对中包含的两张图像为相同物品的两张不同拍摄场景图像,则可在上述训练图像对中添加标识信息为A。若用户输入的训练图像对中包含的两张图像为不同物品的两张图像,则可在上述训练图像对中添加标识信息为B。终端获取到上述训练图像对之后,则可根据上述训练图像对中携带的标识信息来确定上述训练图像对中的第一图像和第二图像是否为相同物品的两张不同拍摄场景图像。
S105,从所述输出控制参数的平方值和所述特征距离的平方值中选取较小值,并将选取的所述较小值确定为所述鲁棒对比损失函数的输出值。
在一些可行的实施方式中,终端判断得到第一训练图像和第二训练图像是相同物品的两张不同拍摄场景图像时,则可调用鲁棒对比损失函数中的等式1来计算鲁棒对比损失函数的输出值。如等式1,终端可从上述m2和第一深度特征和第二深度特征的特征距离的平方值中选取较小值,进而可将选取的较小值确定为鲁棒对比损失函数的输出值。在上述鲁棒比对损失函数的等式1中,m2决定了鲁棒对比损失函数的最大输出值,如此可在第一训练图像和第二训练图像的特征距离较大时,将其特征距离的平方值忽略。对于相同物品的两张不同拍摄场景图像,通过等式1来计算鲁棒对比损失函数的输出值,可降低训练得到的深度神经网络模型的过拟合风险,可更好地将相同类型的物品进行分类,提高了深度神经网络模型的图像检索的准确性。
进一步的,在本发明实施例中,当终端判断得第一训练图像和第二训练图像不是相同物品的两张不同拍摄场景图像,则可根据训练图像对携带的标识信息判断上述第一训练图像和第二训练图像是否为不同物品的两张图像。若终端判断得第一训练图像和第二训练图像是不同物品的两张图像,则可调用鲁棒对比损失函数中的等式2来计算鲁棒对比损失函数的输出值。如等式2,终端可计算输出控制参数的平方值和特征距离的平方值的差值,从计算得到的差值和零中选取较大值,并将选取的较大值确定为鲁棒对比损失函数的输出值。需要说明的是,若训练图像对既不是相同物品的两张不同拍摄场景图像,也不是不同物品的两张图像,则可将其确定为相同物品的相同拍摄场景图像。即,训练图像对为两张相同的图像,此时,则不计算鲁棒对比损失函数的输出值,并重新获取训练图像对进行深度神经网络模型的训练。
终端可对相同物品的两张不同拍摄场景图像以及不同物品的两张图像分别采用不同的等式计算鲁棒对比损失函数的输出值,可提高鲁棒对比损失函数的输出值的计算准确性,增强了根据鲁棒对比损失函数的输出值修正得到的深度神经网络模型的图像检索性能。
S106,根据所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数。
在一些可行的实施方式中,终端确定了鲁棒对比损失函数的输出值之后,可将上述鲁棒对比损失函数的输出值和预存的上一对训练图像对应的鲁棒对比损失函数的输出值进行比对,根据比对结果计算鲁棒对比损失函数的梯度。具体实现中,终端使用训练图像对训练深度神经网络模型时,每一对训练图像的鲁棒对比损失函数的输出值都可存储在终端的指定存储空间,用于与下一对训练图像的鲁棒对比损失函数的输出值进行比较,以确定深度神经网络模型的训练效果为正向效果还是反向效果,即深度神经网络模型的图像检索的准确性是往准确性高的方向发展还是准确性低的方向发展。终端计算得到上述鲁棒对比损失函数的梯度之后,则可根据上述鲁棒对比损失函数的梯度确定深度神经网络模型的网络参数的调整规则,并根据确定的调整规则调整深度神经网络模型的网络参数,以得到修正后的深度神经网络模型。
具体实现中,深度神经网络模型的网络参数往鲁棒对比损失函数的梯度负方向调整,即深度神经网络模型的网络参数的调整使调整后的网络参数对应的训练图像对对应的鲁棒对比损失函数的输出值小于调整前的网络参数对应的训练图像对对应的鲁棒对比损失函数的输出值。通过深度神经网络模型的网络参数的调整使训练图像对对应的鲁棒对比损失函数的输出值趋向最小,进而可提高深度神经网络模型的图像检索准确性。当鲁棒对比损失函数的梯度为0,即本次输入的训练图像对对应的鲁棒对比损失函数的输出值和上一对训练图像对应的鲁棒对比损失函数的输出值相同(如等式1输出值均为m2)时,第一深度特征和第二深度特征的特征距离的平方值大于m2。然而,若第一深度特征和第二深度特征的特征距离过大,则根据第一训练图像和第二训练图像对应的鲁棒对比损失函数的输出值来调整深度神经网络模型的网络参数将可能造成深度神经网络模型的过拟合。此时深度神经网络模型可将本次输入的训练图像对的输出结果忽略,不用做深度神经网络模型的网络参数的调整,从而避免过拟合。
S107,获取检索匹配图像,并通过所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像。
在一些可行的实施方式中,终端得到修正后的深度神经网络模型之后,当终端获取得到检索匹配图像时,则可通过上述修正后的深度神经网络模型从图像数据库中查找满足检索匹配图像对应的匹配规则的目标图像。其中,上述图像数据库中存储着多个待检索图像,其中,包含与检索匹配图像为相同物品的不同拍摄场景图像的待检索图像,以及与检索匹配图像为不同物品的不同拍摄场景图像的待检索图像。上述检索匹配图像对应的匹配规则包括查找与检索匹配图像为相同物品的不同拍摄场景图像的待检索图像,并且两张图像的相似度大于或者等于预设相似度阈值。其中,上述两张图像的相似度可通过两张图像的深度特征的特征距离表示,当两张图像的深度特征的特征距离小于或者等于预设距离阈值时,则可确定两张图像的相似度大于或者等于预设相似度阈值。具体的,上述特征距离的预设距离阈值或者相似度的预设相似度阈值可根据实际应用场景需求确定,在此不做限制。
具体实现中,终端可将获取的检索匹配图像输入修正后的深度神经网络模型,通过修正后的深度神经网络模型获取检索匹配图像的深度特征。终端还可将图像数据库中包含多种待检索图像分别输入修正后的深度神经网络模型,通过修正后的深度神经网络模型获取每张待检索图像的深度特征。其中,上述图像数据库中包含的待检索图像的深度特征的获取可在终端得到修正后的深度神经网络模型之后,并且在终端获取到检索匹配图像之前进行,进而可将获取到的待检索图像的深度特征存储在图像数据库中。终端通过修正后的深度神经网络模型获取到检索匹配图像之后,则可从图像数据库中调用待检索图像的深度特征,并从所有待检索图像的深度特征中选取与检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征。通过待检索图像的深度特征的预先获取可提高图像检索的效率,提高用户体验。终端可通过深度特征的比对,从待检索图像中查找得到深度特征与检索匹配图像的深度特征的特征距离小于或者预设距离阈值的目标深度特征,进而可将目标深度特征对应的待检索图像确定为目标图像。
进一步的,若查找得到的目标图像有多个,即目标图像多于一个,则可根据每个目标图像的深度特征与检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的目标图像进行排序输出。即,可将满足要求的图像按照与检索匹配图像的相似度从高到低的顺序进行排序,提高了检索结果的查阅便捷性,增强了图像检索的用户体验。
在本发明实施例中,终端可首先使用相同物品的两张不同拍摄场景图像对深度神经网络模型进行训练,可提高训练得到的深度神经网络模型分辨两张不同图像的类型的准确率,增强深度神经网络模型的图像检索性能。进一步的,终端可获取鲁棒对比损失函数的输出控制参数,计算输出控制参数的平方值,并从输出控制参数的平方值和深度特征的特征距离的平方值中选取较小值确定为鲁棒对比损失函数的输出值。终端将鲁棒对比损失函数的输出控制参数的平方值加入到鲁棒对比损失函数的输出值的确定中,可通过输出控制参数来控制鲁棒对比损失函数的输出值的变化幅度,过滤训练图像中的噪音,降低过拟合的可能性,增强图像检索的性能。终端还可根据鲁棒对比损失函数的输出值对应的调整规则来调整深度神经网络模型的网络参数,并通过修正后的深度神经网络模型从图像数据库中查找模块图像,通过对深度神经网络模型的修正来提高深度神经网络模型的图像检索准确率,提高图像检索的效率。
参见图2,图2是本发明实施例提供的图像检索装置的结构示意图。本发明实施例提供的图像检索装置,包括:
获取模块10,用于获取用于训练深度神经网络模型的训练图像对,通过深度神经网络模型获取所述训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征。
计算模块20,用于计算所述获取模块10获取的所述第一深度特征和所述第二深度特征的特征距离的平方值。
所述获取模块10,还用于获取鲁棒对比损失函数的输出控制参数,并计算所述输出控制参数的平方值。
判断模块60,用于判断所述获取模块10获取的所述第一训练图像和所述第二训练图像是否是相同物品的两张不同拍摄场景图像。
选取模块30,用于在所述判断模块60判断得所述第一训练图像和所述第二训练图像是相同物品的两张不同拍摄场景图像时,从所剩获取模块10计算的所述输出控制参数的平方值和所述计算模块20计算的所述特征距离的平方值中选取较小值,并将选取的所述较小值确定为所述鲁棒对比损失函数的输出值。
修正模块40,用于根据所述选取模块30确定的所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数,以得到修正后的深度神经网络模型。
查找模块50,用于获取检索匹配图像,并通过所述修正模块40调整得到的所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像。
在一些可行的实施方式中,所述判断模块60还用于:
判断所述获取模块10获取的所述第一训练图像和所述第二训练图像是否是不同物品的两张图像;
所述选取模块30,还用于在所述判断模块60判断得所述第一训练图像和所述第二训练图像是不同物品的两张图像时,计算所述输出控制参数的平方值和所述特征距离的平方值的差值,从所述差值和零中选取较大值,并将选取的所述较大值确定为所述鲁棒对比损失函数的输出值。
在一些可行的实施方式中,所述查找模块50具体用于:
将获取的所述检索匹配图像输入所述修正模块40调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正模块40调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
在一些可行的实施方式中,若所述目标图像多于一个,则所述查找模块50还用于:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
在一些可行的实施方式中,所述深度特征的特征距离包括:所述深度特征的欧式距离,或者所述深度特征的余弦距离。
在一些可行的实施方式中,所述修正模块40具体用于:
将所述鲁棒对比损失函数的输出值和预存的上一对训练图像对应的鲁棒对比损失函数的输出值进行比对,根据比对结果确定所述鲁棒对比损失函数的梯度;
根据所述鲁棒对比损失函数的梯度确定所述深度神经网络模型的网络参数的调整规则,并根据所述调整规则调整所述深度神经网络模型的网络参数。
具体实现中,本发明实施例提供的图像检索装置可为本发明实施例中描述的终端,终端可通过其内置的各个模块执行上述图像检索方法的实施例中各个步骤所描述的实现方式,具体可参见上述实施例,在此不再赘述。
在本发明实施例中,终端可首先使用相同物品的两张不同拍摄场景图像对深度神经网络模型进行训练,可提高训练得到的深度神经网络模型分辨两张不同图像的类型的准确率,增强深度神经网络模型的图像检索性能。进一步的,终端可获取鲁棒对比损失函数的输出控制参数,计算输出控制参数的平方值,并从输出控制参数的平方值和深度特征的特征距离的平方值中选取较小值确定为鲁棒对比损失函数的输出值。终端将鲁棒对比损失函数的输出控制参数的平方值加入到鲁棒对比损失函数的输出值的确定中,可通过输出控制参数来控制鲁棒对比损失函数的输出值的变化幅度,过滤训练图像中的噪音,降低过拟合的可能性,增强图像检索的性能。终端还可根据鲁棒对比损失函数的输出值对应的调整规则来调整深度神经网络模型的网络参数,并通过修正后的深度神经网络模型从图像数据库中查找模块图像,通过对深度神经网络模型的修正来提高深度神经网络模型的图像检索准确率,提高图像检索的效率。
参见图3,是本发明实施例提供的终端的结构示意图。本发明实施例提供的终端,包括:存储器1000和处理器2000。上述存储器1000和处理器2000连接。
上述存储器1000用于存储一组程序代码。
上述处理器2000用于调用上述存储器1000中存储的程序代码执行如上述本发明实施例提供的图像检索方法中各个步骤所描述的实现方式,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (16)
1.一种图像检索方法,其特征在于,包括:
获取用于训练深度神经网络模型的训练图像对,通过深度神经网络模型获取所述训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征;
计算所述第一深度特征和所述第二深度特征的特征距离的平方值;
获取鲁棒对比损失函数的输出控制参数,并计算所述输出控制参数的平方值;
判断所述第一训练图像和所述第二训练图像是否是相同物品的两张不同拍摄场景图像;
若所述第一训练图像和所述第二训练图像是相同物品的两张不同拍摄场景图像,则从所述输出控制参数的平方值和所述特征距离的平方值中选取较小值,并将选取的所述较小值确定为所述鲁棒对比损失函数的输出值;
根据所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数,以得到修正后的深度神经网络模型;
获取检索匹配图像,并通过所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
若所述第一训练图像和所述第二训练图像不是相同物品的两张不同拍摄场景图像,则判断所述第一训练图像和所述第二训练图像是否是不同物品的两张图像;
若所述第一训练图像和所述第二训练图像是不同物品的两张图像,则计算所述输出控制参数的平方值和所述特征距离的平方值的差值,从所述差值和零中选取较大值,并将选取的所述较大值确定为所述鲁棒对比损失函数的输出值。
3.如权利要求1所述的方法,其特征在于,所述通过所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像包括:
将所述检索匹配图像输入所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
4.如权利要求1所述的方法,其特征在于,所述通过所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像包括:
将所述检索匹配图像输入所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
5.如权利要求3所述的方法,其特征在于,若所述目标图像多于一个,则所述将所述目标深度特征对应的待检索图像确定为目标图像之后,所述方法还包括:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
6.如权利要求4所述的方法,其特征在于,若所述目标图像多于一个,则所述将所述目标深度特征对应的待检索图像确定为目标图像之后,所述方法还包括:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
7.如权利要求1-6任一项所述的方法,其特征在于,所述深度特征的特征距离包括:所述深度特征的欧式距离,或者所述深度特征的余弦距离。
8.一种图像检索装置,其特征在于,包括:
获取模块,用于获取用于训练深度神经网络模型的训练图像对,通过深度神经网络模型获取所述训练图像对中的第一训练图像的第一深度特征和第二训练图像的第二深度特征;
计算模块,用于计算所述获取模块获取的所述第一深度特征和所述第二深度特征的特征距离的平方值;
所述获取模块,还用于获取鲁棒对比损失函数的输出控制参数,并计算所述输出控制参数的平方值;
判断模块,用于判断所述获取模块获取的所述第一训练图像和所述第二训练图像是否是相同物品的两张不同拍摄场景图像;
选取模块,用于在所述判断模块判断得所述第一训练图像和所述第二训练图像是相同物品的两张不同拍摄场景图像时,从所述输出控制参数的平方值和所述计算模块计算的所述特征距离的平方值中选取较小值,并将选取的所述较小值确定为所述鲁棒对比损失函数的输出值;
修正模块,用于根据所述选取模块确定的所述鲁棒对比损失函数的输出值对应的调整规则调整所述深度神经网络模型的网络参数,以得到修正后的深度神经网络模型;
查找模块,用于获取检索匹配图像,并通过所述修正模块调整得到的所述修正后的深度神经网络模型从图像数据库中查找满足所述检索匹配图像对应的匹配规则的目标图像。
9.如权利要求8所述的图像检索装置,其特征在于,所述判断模块还用于:
判断所述获取模块获取的所述第一训练图像和所述第二训练图像是否是不同物品的两张图像;
所述选取模块,还用于在所述判断模块判断得所述第一训练图像和所述第二训练图像是不同物品的两张图像时,计算所述输出控制参数的平方值和所述特征距离的平方值的差值,从所述差值和零中选取较大值,并将选取的所述较大值确定为所述鲁棒对比损失函数的输出值。
10.如权利要求8所述的图像检索装置,其特征在于,所述查找模块具体用于:
将获取的所述检索匹配图像输入所述修正模块调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正模块调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
11.如权利要求9所述的图像检索装置,其特征在于,所述查找模块具体用于:
将获取的所述检索匹配图像输入所述修正模块调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取所述检索匹配图像的深度特征;
将图像数据库中包含的至少一张待检索图像输入所述修正模块调整得到的所述修正后的深度神经网络模型,通过所述修正后的深度神经网络模型获取每张所述待检索图像的深度特征;
从所有所述待检索图像的深度特征中选取与所述检索匹配图像的深度特征的特征距离满足预设距离阈值的目标深度特征,并将所述目标深度特征对应的待检索图像确定为目标图像。
12.如权利要求10所述的图像检索装置,其特征在于,若所述目标图像多于一个,所述查找模块还用于:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
13.如权利要求11所述的图像检索装置,其特征在于,若所述目标图像多于一个,所述查找模块还用于:
根据每个所述目标图像的深度特征与所述检索匹配图像的深度特征的特征距离从小到大的顺序将多于一个的所述目标图像进行排序输出。
14.如权利要求8-13任一项所述的图像检索装置,其特征在于,所述深度特征的特征距离包括:所述深度特征的欧式距离,或者所述深度特征的余弦距离。
15.一种终端,其特征在于,包括:存储器和处理器,所述存储器和所述处理器连接;
所述存储器用于存储一组程序代码;
所述处理器用于调用所述存储器中存储的程序代码执行如权利要求1-7任一项所述的方法。
16.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质被硬件执行时能够实现权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610350337.4A CN107423306B (zh) | 2016-05-24 | 2016-05-24 | 一种图像检索方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610350337.4A CN107423306B (zh) | 2016-05-24 | 2016-05-24 | 一种图像检索方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107423306A CN107423306A (zh) | 2017-12-01 |
CN107423306B true CN107423306B (zh) | 2021-01-29 |
Family
ID=60422784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610350337.4A Active CN107423306B (zh) | 2016-05-24 | 2016-05-24 | 一种图像检索方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107423306B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102563752B1 (ko) * | 2017-09-29 | 2023-08-04 | 삼성전자주식회사 | 뉴럴 네트워크를 위한 트레이닝 방법, 뉴럴 네트워크를 이용한 인식 방법 및 그 장치들 |
CN108563692B (zh) * | 2018-03-16 | 2021-08-06 | 新智认知数据服务有限公司 | 一种目标查重方法及装置 |
CN108491794B (zh) * | 2018-03-22 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 面部识别的方法和装置 |
CN108537264B (zh) * | 2018-03-30 | 2021-09-07 | 西安电子科技大学 | 基于深度学习的异源图像匹配方法 |
CN109918532B (zh) * | 2019-03-08 | 2023-08-18 | 苏州大学 | 图像检索方法、装置、设备及计算机可读存储介质 |
CN110069985B (zh) * | 2019-03-12 | 2020-08-28 | 北京三快在线科技有限公司 | 基于图像的目标点位置检测方法、装置、电子设备 |
CN111090768A (zh) * | 2019-12-17 | 2020-05-01 | 杭州深绘智能科技有限公司 | 一种基于深度卷积神经网络的相似图像检索系统和方法 |
CN113642593B (zh) * | 2020-04-27 | 2024-03-01 | 台达电子工业股份有限公司 | 影像处理方法与影像处理系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102846326A (zh) * | 2011-06-03 | 2013-01-02 | 通用电气公司 | 用于处理选通图像数据的方法和系统 |
CN104268594A (zh) * | 2014-09-24 | 2015-01-07 | 中安消技术有限公司 | 一种视频异常事件检测方法及装置 |
WO2015078185A1 (zh) * | 2013-11-29 | 2015-06-04 | 华为技术有限公司 | 卷积神经网络和基于卷积神经网络的目标物体检测方法 |
CN105512273A (zh) * | 2015-12-03 | 2016-04-20 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
CN105912611A (zh) * | 2016-04-05 | 2016-08-31 | 中国科学技术大学 | 一种基于cnn的快速图像检索方法 |
-
2016
- 2016-05-24 CN CN201610350337.4A patent/CN107423306B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102846326A (zh) * | 2011-06-03 | 2013-01-02 | 通用电气公司 | 用于处理选通图像数据的方法和系统 |
WO2015078185A1 (zh) * | 2013-11-29 | 2015-06-04 | 华为技术有限公司 | 卷积神经网络和基于卷积神经网络的目标物体检测方法 |
CN104268594A (zh) * | 2014-09-24 | 2015-01-07 | 中安消技术有限公司 | 一种视频异常事件检测方法及装置 |
CN105512273A (zh) * | 2015-12-03 | 2016-04-20 | 中山大学 | 一种基于可变长深度哈希学习的图像检索方法 |
CN105912611A (zh) * | 2016-04-05 | 2016-08-31 | 中国科学技术大学 | 一种基于cnn的快速图像检索方法 |
Non-Patent Citations (1)
Title |
---|
""Fudan-Huawei at MediaEval 2015:Detecting Violent Scenes and Affective Impact in Movie swith Deep Learning"";Qi dai;《Media Eval 2015 Workshop》;20150930;正文第1-3页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107423306A (zh) | 2017-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423306B (zh) | 一种图像检索方法及装置 | |
CN108230383B (zh) | 手部三维数据确定方法、装置及电子设备 | |
CN108960211B (zh) | 一种多目标人体姿态检测方法以及系统 | |
CN108830892B (zh) | 人脸图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN110546651B (zh) | 用于识别对象的方法、系统和计算机可读介质 | |
CN111626371B (zh) | 一种图像分类方法、装置、设备及可读存储介质 | |
US8634656B2 (en) | Recognizing objects by utilizing dictionary data and probability data determined by machine learning | |
CN108875487B (zh) | 行人重识别网络的训练及基于其的行人重识别 | |
CN110569731A (zh) | 一种人脸识别方法、装置及电子设备 | |
CN107463865B (zh) | 人脸检测模型训练方法、人脸检测方法及装置 | |
CN109871821B (zh) | 自适应网络的行人重识别方法、装置、设备及存储介质 | |
US10650234B2 (en) | Eyeball movement capturing method and device, and storage medium | |
WO2021004186A1 (zh) | 一种人脸采集方法、装置、系统、设备及介质 | |
CN112001403B (zh) | 一种图像轮廓检测方法及系统 | |
WO2010043954A1 (en) | Method, apparatus and computer program product for providing pattern detection with unknown noise levels | |
JP2010205067A (ja) | 領域抽出装置、領域抽出方法及び領域抽出プログラム | |
CN111177470A (zh) | 视频的处理方法、视频的搜索方法及终端设备 | |
CN114299363A (zh) | 图像处理模型的训练方法、图像分类方法及装置 | |
CN111260655B (zh) | 基于深度神经网络模型的图像生成方法与装置 | |
CN106096520A (zh) | 一种信息推送方法及装置 | |
CN109961103B (zh) | 特征提取模型的训练方法、图像特征的提取方法及装置 | |
CN113963149A (zh) | 一种医疗票据图片的模糊判断方法、系统、设备及介质 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN111339973A (zh) | 一种对象识别方法、装置、设备及存储介质 | |
EP3076370B1 (en) | Method and system for selecting optimum values for parameter set for disparity calculation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |