CN111401521B - 神经网络模型训练方法及装置、图像识别方法及装置 - Google Patents
神经网络模型训练方法及装置、图像识别方法及装置 Download PDFInfo
- Publication number
- CN111401521B CN111401521B CN202010168707.9A CN202010168707A CN111401521B CN 111401521 B CN111401521 B CN 111401521B CN 202010168707 A CN202010168707 A CN 202010168707A CN 111401521 B CN111401521 B CN 111401521B
- Authority
- CN
- China
- Prior art keywords
- target sample
- loss value
- target
- sample
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 149
- 238000003062 neural network model Methods 0.000 title claims abstract description 136
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims description 48
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 75
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种神经网络模型训练方法及装置、图像识别方法及装置,涉及深度学习技术领域,该方法包括:从第一训练样本集获取目标样本,利用神经网络模型对目标样本进行特征提取,得到目标样本的个体特征,利用神经网络模型对第二训练样本集中的各样本进行特征提取,得到第二训练样本集对应的群体特征;群体特征包括第二训练样本集中每个样本的个体特征;基于目标样本的个体特征和群体特征确定目标样本对应的损失值;基于目标样本对应的损失值,对神经网络模型的参数进行迭代更新。本发明提升了训练后的神经网络模型的识别精度。
Description
技术领域
本发明涉及深度学习技术领域,尤其是涉及一种神经网络模型训练方法及装置、图像识别方法及装置。
背景技术
人脸识别是计算机视觉研究中的重要领域,被认为是生物特征识别领域甚至人工智能领域最困难的研究课题之一,人脸识别的困难主要是人脸作为生物特征的特点所带来的。目前的人脸识别已广泛用于政府、银行、社会福利保障、电子商务、安全防务等领域,随着人脸识别日常生活中的应用越来越广泛,各行业对于人脸识别精度的要求也越来越高。在使用神经网络模型进行人脸识别之前,首先需要使用训练样本对神经网络模型进行训练。然而,目前的神经网络模型大都是基于训练样本的个体特征训练得到的,导致训练得到的神经网络模型还存在识别精度较低的问题。
发明内容
有鉴于此,本发明的目的在于提供一种神经网络模型训练方法及装置、图像识别方法及装置,能够提升训练后的神经网络模型的识别精度。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种神经网络模型训练方法,包括:从第一训练样本集获取目标样本;利用所述神经网络模型对所述目标样本进行特征提取,得到所述目标样本的个体特征,利用所述神经网络模型对第二训练样本集中的各样本进行特征提取,得到所述第二训练样本集对应的群体特征;所述群体特征包括所述第二训练样本集中每个样本的个体特征;基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值;基于所述目标样本对应的损失值,对所述神经网络模型的参数进行迭代更新。
进一步,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值的步骤,包括:将所述目标样本的个体特征与所述群体特征中的每个个体特征进行逐一比较,得到所述目标样本的全局特征;基于所述目标样本的个体特征和所述目标样本的全局特征,得到所述目标样本对应的损失值。
进一步,本发明实施例提供了第一方面的第二种可能的实施方式,其中,所述将所述目标样本的个体特征与所述群体特征中的每个个体特征进行逐一比较,得到所述目标样本的全局特征的步骤,包括:计算所述目标样本的个体特征与所述群体特征中的各个体特征之间的相似度,得到所述目标样本与所述第二训练样本集的相似度向量;将所述相似度向量作为所述目标样本的全局特征。
进一步,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值的步骤,包括:将所述目标样本的个体特征与所述全局特征进行融合,得到所述目标样本的融合特征;基于所述目标样本的个体特征及所述目标样本的融合特征,得到所述目标样本对应的损失值。
进一步,本发明实施例提供了第一方面的第四种可能的实施方式,其中,所述基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值的步骤,包括:基于所述目标样本的个体特征、所述目标样本的全局特征及所述目标样本的融合特征,得到所述目标样本对应的损失值。
进一步,本发明实施例提供了第一方面的第五种可能的实施方式,其中,所述将所述目标样本的个体特征与所述全局特征进行融合,得到所述目标样本的融合特征的步骤,包括:对所述目标样本的个体特征与所述全局特征进行拼接,并将拼接后的特征输入所述神经网络模型的全连接层,得到所述全连接层输出的所述目标样本的融合特征。
进一步,本发明实施例提供了第一方面的第六种可能的实施方式,其中,所述基于所述目标样本的个体特征和所述目标样本的全局特征,得到所述目标样本对应的损失值的步骤,包括:将所述目标样本的个体特征输入第一目标损失函数,得到第一损失值;其中,所述目标样本对应的损失值包括分类损失值和相对损失值,所述第一目标损失函数是基于分类损失函数和相对损失函数得到的;将所述目标样本的全局特征输入所述第一目标损失函数,得到第二损失值;根据所述第一损失值、所述第二损失值和第二目标损失函数,得到所述目标样本的分类损失值;所述第二目标损失函数的计算算式为:
Loss 2=a*loss1+b*loss2
其中,Loss2为所述目标样本对应的损失值,loss1为所述第一损失值,loss2为所述第二损失值,a和b分别为所述第一损失值和所述第二损失值的平衡调节参数。
进一步,本发明实施例提供了第一方面的第七种可能的实施方式,其中,所述基于所述目标样本的个体特征及所述目标样本的融合特征,得到所述目标样本对应的损失值的步骤,包括:将所述目标样本的个体特征输入第一目标损失函数,得到第一损失值;将所述目标样本的融合特征输入所述第一目标损失函数,得到第三损失值;根据所述第一损失值、所述第三损失值和第三目标损失函数,得到所述目标样本的分类损失值;所述第三目标损失函数的计算算式为:
Loss3=a*loss1+c*loss3
其中,Loss3为所述目标样本对应的损失值,loss1为所述第一损失值,loss3为所述第三损失值,a和c分别为所述第一损失值和所述第三损失值的平衡调节参数。
进一步,本发明实施例提供了第一方面的第八种可能的实施方式,其中,所述基于所述目标样本的个体特征、所述目标样本的全局特征及所述目标样本的融合特征,得到所述目标样本对应的损失值的步骤,包括:将所述目标样本的个体特征输入第一目标损失函数,得到第一损失值;将所述目标样本的全局特征输入所述第一目标损失函数,得到第二损失值;将所述目标样本的融合特征输入所述第一目标损失函数,得到第三损失值;根据所述第一损失值、所述第二损失值、所述第三损失值和第四目标损失函数,得到所述目标样本的分类损失值;所述第四目标损失函数的计算算式为:
Loss4=a*loss1+b*loss2+c*loss3
其中,Loss4为所述目标样本对应的损失值,loss1为所述第一损失值,loss2为所述第二损失值,loss3为所述第三损失值,a、b和c分别为所述第一损失值、所述第二损失值和所述第三损失值的平衡调节参数。
进一步,本发明实施例提供了第一方面的第九种可能的实施方式,其中,所述方法还包括:当所述参数迭代的次数达到预设的迭代次数和/或所述目标样本对应的损失值收敛至预设的损失阈值,训练结束,得到训练后的神经网络模型。
第二方面,本发明实施例还提供了一种图像识别方法,包括:将待识别图像输入预设神经网络模型;其中,所述预设神经网络模型是基于第一方面任一项所述的神经网络模型训练方法训练得到的;通过所述预设神经网络模型提取所述待识别图像的个体特征,并基于所述待识别图像的个体特征与预存的目标图像的个体特征之间的特征距离,得到所述待识别图像对应的识别结果。
第三方面,本发明实施例提供了一种神经网络模型训练装置,包括:样本获取模块,用于从第一训练样本集获取目标样本;特征提取模块,用于利用所述神经网络模型对所述目标样本进行特征提取,得到所述目标样本的个体特征,利用所述神经网络模型对第二训练样本集中的各样本进行特征提取,得到所述第二训练样本集对应的群体特征;所述群体特征包括所述第二训练样本集中每个样本的个体特征;损失值计算模块,用于基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值;参数更新模块,用于基于所述目标样本对应的损失值,对所述神经网络模型的参数进行迭代更新。
第四方面,本发明实施例提供了一种图像识别装置,包括:图像输入模块,用于将待识别图像输入预设神经网络模型;其中,所述预设神经网络模型是基于第一方面任一项所述的神经网络模型训练方法训练得到的;图像识别模块,用于通过所述预设神经网络模型提取所述待识别图像的个体特征,并基于所述待识别图像的个体特征与预存的目标图像的个体特征之间的特征距离,得到所述待识别图像对应的识别结果。
第五方面,本发明实施例提供了一种电子设备,包括:处理器和存储装置;所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行上述第一方面任一项所述的方法或第二方面所述的方法。
第六方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面任一项所述的方法的步骤或第二方面所述的方法的步骤。
本发明实施例提供了一种神经网络模型训练方法及装置、图像识别方法及装置,该方法包括:首先从第一训练样本集获取目标样本;利用神经网络模型对目标样本进行特征提取,得到目标样本的个体特征,利用神经网络模型对第二训练样本集中的各样本进行特征提取,得到第二训练样本集对应的群体特征(包括第二训练样本集中每个样本的个体特征);基于目标样本的个体特征和群体特征确定目标样本对应的损失值,基于所述目标样本对应的损失值,对所述神经网络模型的参数进行迭代更新。通过分别提取目标样本的个体特征及第二训练样本集中的样本对应的群体特征,并在神经网络模型的训练中基于目标样本的个体特征及第二训练样本集中的样本对应的群体特征确定目标样本对应的损失值,增加了群体特征对于神经网络模型训练损失的约束,提升了神经网络模型的泛化能力,进一步的,基于目标样本对应的损失值对神经网络模型进行参数更新,提升了训练后的神经网络模型的识别精度。
本发明实施例的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本发明实施例的上述技术即可得知。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例所提供的一种电子设备结构示意图;
图2示出了本发明实施例所提供的一种神经网络模型训练方法流程图;
图3示出了本发明实施例所提供的一种图像识别方法流程图;
图4示出了本发明实施例所提供的一种特征提取流程图;
图5示出了本发明实施例所提供的一种神经网络模型训练装置结构示意图;
图6示出了本发明实施例所提供的一种图像识别装置结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
考虑到目前的神经网络模型大都是基于训练样本的个体特征训练得到的,导致训练得到的神经网络模型还存在识别精度较低的问题,为改善此问题,本发明实施例提供的一种神经网络模型训练方法及装置、图像识别方法及装置,该技术可应用于提升训练后的神经网络模型的识别精度。以下对本发明实施例进行详细介绍。
实施例一:
首先,参照图1来描述用于实现本发明实施例的一种神经网络模型训练方法及装置、图像识别方法及装置的示例电子设备100。
如图1所示的一种电子设备的结构示意图,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输入装置106、输出装置108以及图像采集装置110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以采用数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)中的至少一种硬件形式来实现,所述处理器102可以是中央处理单元(CPU)、图形处理单元(GPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元中的一种或几种的组合,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
所述图像采集装置110可以拍摄用户期望的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的神经网络模型训练方法及装置、图像识别方法及装置的示例电子设备可以被实现为诸如智能手机、平板电脑、计算机等智能终端。
实施例二:
本实施例提供了一种神经网络模型训练方法,该方法可以诸如计算机等上述电子设备执行,参见图2所示的神经网络模型训练方法流程图,该方法主要包括以下步骤S202~步骤S204:
步骤S202,从第一训练样本集获取目标样本。
上述第一训练样本集为预先标注好的样本集,在一种具体的实施方式中,可以将第一训练样本集中的各类样本逐一作为目标样本,也可以根据实际需求从第一训练样本集中获取所需的目标样本,将获取到的目标样本输入神经网络模型,以基于目标样本对神经网络模型进行训练。
步骤S204,利用神经网络模型对目标样本进行特征提取,得到目标样本的个体特征,利用神经网络模型对第二训练样本集中的各样本进行特征提取,得到第二训练样本集对应的群体特征。
上述群体特征包括第二训练样本集中每个样本的个体特征。上述第二训练样本集可以包括第一训练样本集中除目标样本之外的样本中的一个或多个,也可以包括除第一训练样本集之外的其他相关样本。在基于上述目标样本对神经网络模型进行训练时,为了获取目标样本与其他样本之间的关系及目标样本在模型训练中的整体表现,上述第二训练样本集的数量可以设置为较大的数值。
为了得到目标样本对应的损失值,首先利用神经网络模型(诸如卷积神经网络)获取目标样本的个体特征(也可以称为局部特征),该个体特征是从目标样本中抽取的特征,诸如当目标样本为图像时,该个体特征是从目标样本的图像中抽取的特征,包括边缘、角点、线、曲线和特别属性的区域等。然后再利用神经网络模型从第二训练样本集中提取群体特征,该群体特征包括第二训练样本集中所有样本的个体特征或局部特征。
步骤S206,基于目标样本的个体特征和群体特征确定目标样本对应的损失值。
在神经网络模型的每一轮迭代训练中,首先基于每个目标样本进行前向传播,根据目标样本的个体特征和第二训练样本集的群体特征计算得到目标样本对应的损失值。由于上述目标样本对应的损失值不仅仅是依据目标样本的个体特征得到的,在计算损失值时还考虑到了除目标样本的个体特征之外的群体特征对于损失值的约束,从而提升了神经网络模型的泛化能力。
步骤S208,基于目标样本对应的损失值,对神经网络模型的参数进行迭代更新。
基于该损失值对神经网络模型进行反向传播以更新神经网络的参数诸如权重等。重复执行上述训练操作至训练结束,得到训练后的神经网络模型。对于第一训练样本集中的每一个样本均重复执行上述训练操作至训练结束,即对第一训练样本集中的每一个样本均进行神经网络模型的前向传播过程,以计算样本对应的损失值,并基于该损失值对神经网络模型进行反向传播过程以更新神经网络模型中的参数。当神经网络模型的训练过程结束时,得到训练后的神经网络模型。
本实施例提供的上述神经网络模型训练方法,通过分别提取目标样本的个体特征及第二训练样本集中的样本对应的群体特征,并在神经网络模型的训练中基于目标样本的个体特征及第二训练样本集中的样本对应的群体特征确定目标样本对应的损失值,增加了群体特征对于神经网络模型训练损失的约束,提升了模型的泛化能力,进一步的,基于目标样本对应的损失值对神经网络模型进行参数更新,提升了训练后的神经网络模型的识别精度。
为了进一步提升神经网络模型的泛化能力,本实施例提供了三种基于目标样本的个体特征和群体特征确定目标样本对应的损失值的实施方式,具体可参照如下实施方式一~实施方式三执行:
实施方式一:该实施方式中引入了目标样本的全局特征,基于目标样本的个体特征和全局特征确定目标样本对应的损失值,具体可参照如下步骤(1)~步骤(2)执行:
步骤(1):将目标样本的个体特征与群体特征中的每个个体特征进行逐一比较,得到目标样本的全局特征。
将目标样本的个体特征与第二训练样本集的群体特征中的全部特征进行逐一比较,计算目标样本的个体特征与群体特征中每个特征之间的相似度,该相似度的大小可以用闵可夫斯基距离、曼哈顿距离、欧式距离和切比雪夫距离等特征度量方式中的任意一种距离表示,得到目标样本与第二训练样本集的相似度向量,将该相似度向量作为目标样本的全局特征,该相似度向量的长度与第二训练样本集中样本的数量相同,诸如,当第二训练样本集中样本的数量为80时,上述相似度向量的长度为80。上述相似度向量为上述目标样本在全局的特征表示,即目标样本的全局特征。
步骤(2):基于目标样本的个体特征和目标样本的全局特征,得到目标样本对应的损失值。
基于目标样本的个体特征、目标样本的全局特征、目标样本的融合特征及第一目标损失函数,得到目标样本对应的损失值;将目标样本的个体特征输入第一目标损失函数,得到第一损失值,将目标样本的全局特征输入第一目标损失函数,得到第二损失值,根据第一损失值、第二损失值和第二目标损失函数,得到目标样本的分类损失值;上述第二目标损失函数的计算算式为:
Loss 2=a*loss1+b*loss2
其中,Loss2为目标样本对应的损失值,loss1为第一损失值,loss2为第二损失值,a和b分别为第一损失值和第二损失值的平衡调节参数。将上述目标样本的第一损失值和第二损失值代入上述第二目标损失函数的计算算式中,得到目标样本的分类损失值Loss2。
其中,上述目标样本对应的损失值包括分类损失值和相对损失值,第一目标损失函数是基于分类损失函数和相对损失函数得到的。在一种具体的实施方式中,上述第一目标损失函数的计算算式为:
loss=L+ltri
其中,L为通过分类损失函数计算得到的分类损失值,ltri为通过相对损失函数计算得到的相对损失值。损失函数一般可以分为分类和回归两大类的损失函数,上述分类损失函数是在分类问题中使用的损失函数,诸如可以将现有的解决分类问题的损失函数作为上述分类损失函数,进而求解到目标样本的分类损失值。上述分类损失函数的计算算式可以为:
上述j为分类总数的变量,j的取值范围是从2到最大分类总数,该最大分类总数可以是人为设置的,Wyi和Wj均为神经网络模型全连接层的权重,yi为分类标签,大小为从2到最大分类总数之间的任意一个值。byi和bj均为全连接层的bias,属于全连接层的参数。xi为输入的特征,诸如可以是目标样本的个体特征、目标样本的全局特征或目标样本的融合特征。
上述相对损失函数的计算算式可以为:
ltri=max(||xi-xp||-||xi-xn||+α,0)
其中,α为超参数,诸如可以设置为0.35,max为在||xi-xp||-||xi-xn||+和0之间取最大值的计算。上述xi为输入的特征,诸如可以是目标样本的个体特征、目标样本的全局特征或目标样本的融合特征,xp为标注有与目标样本相同目标的样本的特征,且该特征为与xi相对应的个体特征、全局特征或融合特征;xn为标注有与目标样本的不同目标的样本的特征,且该特征为与xi相对应的个体特征、全局特征或融合特征。诸如,上述目标样本为标注有人物A的图像,该图像为人物A的正面图像,在计算目标样本的个体特征的相对损失时,上述相对损失函数中的xi为目标样本的个体特征。上述xp为第二目标样本的个体特征,该第二目标样本为标注有人物A的图像,且该图像为人物A的背面或侧面图像,由于上述目标样本与第二目标样本属于同一类目标(人物A)的样本,通过上述||xi-xp||可以计算出类内距离分部相似性损失。上述xn为第三目标样本的个体特征,该第三目标样本为标注有人物B的图像,由于上述目标样本与第三目标样本属于不同类的样本,通过上述||xi-xn||可以计算类间距离差异性损失。
实施方式二:该实施方式中引入了目标样本的融合特征,基于目标样本的个体特征和融合特征确定目标样本对应的损失值,具体可参照如下步骤1~步骤2执行:
步骤1:将目标样本的个体特征与全局特征进行融合,得到目标样本的融合特征。
将目标样本的个体特征和全局特征相结合,得到目标样本的融合特征。利用concate函数对目标样本的个体特征与全局特征进行拼接,并将拼接后的特征输入神经网络模型的全连接层,得到全连接层输出的目标样本的融合特征。还可以利用其它向量拼接函数对目标样本的个体特征与全局特征进行拼接,并将拼接后的特征经过神经网络模型中的一层全连接层,得到目标样本的融合特征,诸如,上述个体特征的长度为128,上述全局特征的长度为80,则得到的融合特征的长度为208。
步骤2:基于目标样本的个体特征及目标样本的融合特征,得到目标样本对应的损失值。
将目标样本的个体特征输入上述第一目标损失函数,得到第一损失值;将目标样本的融合特征输入第一目标损失函数,得到第三损失值;根据第一损失值、第三损失值和第三目标损失函数,得到目标样本的分类损失值;上述第三目标损失函数的计算算式为:
Loss3=a*loss1+c*loss3
其中,Loss3为目标样本对应的损失值,loss1为第一损失值,loss3为第三损失值,a和c分别为第一损失值和第三损失值的平衡调节参数。将上述目标样本的第一损失值和第三损失值代入上述第三目标损失函数的计算算式中,得到目标样本的分类损失值Loss2。上述第一目标损失函数与实施方式一中的第一目标损失函数为同一个损失函数。
实施方式三:该实施方式基于目标样本的个体特征、目标样本的全局特征及目标样本的融合特征,得到目标样本对应的损失值,具体可参照如下步骤1)~步骤4)执行:
步骤1):将目标样本的个体特征输入第一目标损失函数,得到第一损失值。
将目标样本的个体特征x1输入第一目标损失函数,计算得到目标样本的个体特征对应的第一损失值loss1。
其中,x1p为标注有与目标样本同类目标的样本的个体特征,x1n为标注有与目标样本的不同类目标的样本的个体特征。在实际应用中,上述实施方式一和实施方式二中第一损失值的计算方式与本实施方式中第一损失值的计算方式相同。
步骤2):将目标样本的全局特征输入第一目标损失函数,得到第二损失值。
将目标样本的全局特征x2输入第一目标损失函数,计算得到目标样本的个体特征对应的第一损失值loss2。
其中,x2p为标注有与目标样本同类目标的样本的全局特征,x2n为标注有与目标样本的不同类目标的样本的全局特征。在实际应用中,上述实施方式一中第二损失值的计算方式与本实施方式中第二损失值的计算方式相同。
步骤3):将目标样本的融合特征输入第一目标损失函数,得到第三损失值。
将目标样本的全局特征x3输入第一目标损失函数,计算得到目标样本的个体特征对应的第一损失值loss3。
其中,x3p为标注有与目标样本同类目标的样本的融合特征,x3n为标注有与目标样本的不同类目标的样本的融合特征。在实际应用中,上述实施方式二中第三损失值的计算方式与本实施方式中第三损失值的计算方式相同。
步骤4):根据第一损失值、第二损失值、第三损失值和第四目标损失函数,得到目标样本的分类损失值。
将第一损失值、第二损失值和第三损失值输入第四目标损失函数,得到目标样本的分类损失值;上述第四目标损失函数的计算算式为:
Loss 4=a*loss1+b*loss2+c*loss3其中,Loss4为目标样本对应的损失值,loss1为第一损失值,loss2为第二损失值,loss3为第三损失值,a、b和c分别为第一损失值、第二损失值和第三损失值的平衡调节参数,该平衡调节参数的大小可以根据实际训练情况认为设置,在一种具体的实施方式中,上述参数的大小关系可以是a=b>c,诸如,上述a和b的取值均可以为1,上述c的取值可以为0.1,其中,上述实施方式一和实施方式二中a、b和c的取值与本实施方式中a、b和c的取值相同。
为了得到训练后的神经网络,本实施例提供的方法还包括:当参数迭代的次数达到预设的迭代次数和/或目标样本对应的损失值收敛至预设的损失阈值,训练结束,得到训练后的神经网络模型。对于上述第一训练样本集中的每个样本均重复执行前向传播计算样本损失值、反向传播更新模型参数的过程,第一训练样本集中的所有样本均完成前向传播和反向传播过程时认为完成一轮迭代,当迭代次数达到预设的迭代次数,或者目标样本对应的损失值收敛至预设的损失阈值时,停止执行上述训练操作过程,得到训练后的神经网络模型。
本实施例提供的上述神经网络模型训练方法,基于目标样本的个体特征、目标样本的全局特征和目标样本的融合特征计算得到目标样本对应的损失值,由于上述全局特征和融合特征均是通过计算目标样本的个体特征与训练样本集中的其他样本的特征之间的距离分布得到的,且上述损失值是基于类内距离分布相似性损失和类间距离差异性损失得到的,增加了距离分布对最终训练损失的约束,提升了神经网络模型的泛化能力。
实施例三:
对于实施例二中所提供的神经网络模型训练方法,本实施例提供了一种图像识别方法,该方法可以由设置有实施例二提供的神经网络模型训练方法训练得到的神经网络模型的电子设备执行,参见如图3所示的图像识别方法流程图,该方法主要包括以下步骤S302~步骤S304执行:
步骤S302:将待识别图像输入预设神经网络模型。
其中,上述预设神经网络模型是基于实施例二提供的神经网络模型训练方法训练得到的。上述实施例二得到的训练后的神经网络模型为经过第一训练样本集和训练样本集训练后,上述训练后的神经网络模型为优化参数后的模型。
步骤S304:通过预设神经网络模型提取待识别图像的个体特征,并基于待识别图像的个体特征与预存的目标图像的个体特征之间的特征距离,得到待识别图像对应的识别结果。
上述待识别图像也可以称为解锁图,上述预存的目标图像也可以称为神经网络模型的底库图,在进行图像识别时,神经网络模型首先提取待识别图像的个体特征,通过比较待识别图像的个体特征与预存的目标图像的个体特征之间的特征值距离,判断待识别图像中是否为预存的目标图像标注的目标,诸如判断待识别图像中的人物与预存的目标图像中的人物是否为同一个人,当待识别图像的个体特征与预存的目标图像的个体特征之间的特征值距离小于预设阈值时,即待识别图像中的目标与预存的目标图像中的目标为同一类目标。
本实施例提供的上述图像识别方法,通过比较待识别图像的个体特征与预存的目标图像的个体特征之间的特征值距离,判断待识别图像中的目标与预存的目标图像中的目标的相似性,提升了神经网络模型的识别准确率。
实施例三:
在前述实施例的基础上,本实施例提供了一种应用前述神经网络模型训练方法和图像识别方法的具体示例,以人脸识别模型的训练及识别为例,该人脸识别模型为卷积神经网络,具体可参照如下步骤a~步骤e执行:
步骤a:利用卷积神经网络获取训练样本集中每个人物样本的局部特征、全局特征和融合特征。
上述训练样本集为预先标注好的训练样本,以训练样本集中的其中一个人物1的人脸图片样本为例,参见如图4所示的特征提取流程图,首先利用卷积神经网络从人物1的图像样本中提取人物1的局部特征,也可以称为人物1的个体特征;然后利用卷积神经网络从第二样本集中提取该样本集的群体特征,该第二样本集可以包括上述训练样本集中除人物1的图像样本之外的其他任意图像样本,也可以包括与上述训练样本集中不同人物的图像样本,上述群体特征中包括第二样本集中所有人物样本的特征。
如图4所示,将从人物1的图像样本中提取的局部特征与上述群体特征中的每个样本的局部特征进行逐一比较,得到人物1的图像样本的全局特征,该全局特征是一个长度为第二样本集数量的相似度向量。将从人物1的图像样本中提取的局部特征与全局特征进行融合,得到人物1的图像样本的融合特征。基于上述特征获取方式可以获取训练样本集中每个人物图像样本的局部特征、全局特征和融合特征。此外,上述第二样本集中的样本是可以变换的,诸如当获取训练样本集中人物2的图像样本的局部特征、全局特征和融合特征时,上述第二样本集可以包括上述训练样本集中除人物2的图像样本之外的其他任意图像样本,诸如可以包括人物1的图像样本,因此,在对不同的样本进行训练时,提取群体的特征的第二样本集也可以是不同的。
步骤b:在卷积神经网络的前向传播过程中,基于训练样本集中每个人物样本的局部特征、全局特征和融合特征确定每个人物样本的损失值。
基于上述第一目标损失函数和第二目标损失函数可以确定每个人物样本的损失值。
步骤c:基于每个人物样本的损失值对上述前向传播后的卷积神经网络进行反向传播以优化更新卷积神经网络的参数。
步骤d:重复执行上述步骤b~步骤c直至达到预设的执行次数,得到训练后的卷积神经网络,即人脸识别模型。
步骤e:将待识别的人脸图像输入人脸识别模型,通过比较待识别的人脸图像的局部特征与预存的目标图像的局部特征之间的特征距离,得到人脸识别结果。
本实施例提供的上述人脸识别模型训练及识别方法,通过获取人物样本的局部特征、全局特征和融合特征,并在神经网络模型的训练中基于人物样本的局部特征、全局特征和融合特征确定人物样本的损失值,基于特征之间的距离分布对神经网络模型进行训练,提升了神经网络模型的泛化能力。
实施例四:
对于实施例二中所提供的神经网络模型训练方法,本发明实施例提供了一种神经网络模型训练装置,参见图5所示的一种神经网络模型训练装置结构示意图,该装置包括以下模块:
样本获取模块51,用于从第一训练样本集获取目标样本。
特征提取模块52,用于利用神经网络模型对目标样本进行特征提取,得到目标样本的个体特征,利用神经网络模型对第二训练样本集中的各样本进行特征提取,得到第二训练样本集对应的群体特征;群体特征包括第二训练样本集中每个样本的个体特征。
损失值计算模块53,用于基于目标样本的个体特征和群体特征确定目标样本对应的损失值。
参数更新模块54,用于基于目标样本对应的损失值,对神经网络模型的参数进行迭代更新。
本实施例提供的上述神经网络模型训练装置,通过分别提取目标样本的个体特征及第二训练样本集中的样本对应的群体特征,并在神经网络模型的训练中基于目标样本的个体特征及第二训练样本集中的样本对应的群体特征确定目标样本对应的损失值,增加了群体特征对于神经网络模型训练损失的约束,提升了模型的泛化能力,进一步的,基于目标样本对应的损失值对神经网络模型进行参数更新,提升了训练后的神经网络模型的识别精度。
在一种实施方式中,上述损失值计算模块53,进一步用于将目标样本的个体特征与群体特征中的每个个体特征进行逐一比较,得到目标样本的全局特征;基于目标样本的个体特征和目标样本的全局特征,得到目标样本对应的损失值。
在一种实施方式中,上述损失值计算模块53,进一步用于计算目标样本的个体特征与群体特征中的各个体特征之间的相似度,得到目标样本与第二训练样本集的相似度向量;将相似度向量作为目标样本的全局特征。
在一种实施方式中,上述损失值计算模块53,进一步用于将目标样本的个体特征与全局特征进行融合,得到目标样本的融合特征;基于目标样本的个体特征及目标样本的融合特征,得到目标样本对应的损失值。
在一种实施方式中,上述损失值计算模块53,进一步用于基于目标样本的个体特征、目标样本的全局特征及目标样本的融合特征,得到目标样本对应的损失值。
在一种实施方式中,上述损失值计算模块53,进一步用于对目标样本的个体特征与全局特征进行拼接,并将拼接后的特征输入神经网络模型的全连接层,得到全连接层输出的目标样本的融合特征。
在一种实施方式中,上述损失值计算模块53,进一步用于将目标样本的个体特征输入第一目标损失函数,得到第一损失值;其中,目标样本对应的损失值包括分类损失值和相对损失值,第一目标损失函数是基于分类损失函数和相对损失函数得到的;将目标样本的全局特征输入第一目标损失函数,得到第二损失值;根据第一损失值、第二损失值和第二目标损失函数,得到目标样本的分类损失值;第二目标损失函数的计算算式为:
Loss 2=a*loss1+b*loss2
其中,Loss2为目标样本对应的损失值,loss1为第一损失值,loss2为第二损失值,a和b分别为第一损失值和第二损失值的平衡调节参数。
在一种实施方式中,上述损失值计算模块53,进一步用于将目标样本的个体特征输入第一目标损失函数,得到第一损失值;将目标样本的融合特征输入第一目标损失函数,得到第三损失值;根据第一损失值、第三损失值和第三目标损失函数,得到目标样本的分类损失值;第三目标损失函数的计算算式为:
Loss3=a*loss1+c*loss3
其中,Loss3为目标样本对应的损失值,loss1为第一损失值,loss3为第三损失值,a和c分别为第一损失值和第三损失值的平衡调节参数。
在一种实施方式中,上述损失值计算模块53,进一步用于将目标样本的个体特征输入第一目标损失函数,得到第一损失值;将目标样本的全局特征输入第一目标损失函数,得到第二损失值;将目标样本的融合特征输入第一目标损失函数,得到第三损失值;根据第一损失值、第二损失值、第三损失值和第四目标损失函数,得到目标样本的分类损失值;第四目标损失函数的计算算式为:
Loss4=a*loss1+b*loss2+c*loss3
其中,Loss4为目标样本对应的损失值,loss1为第一损失值,loss2为第二损失值,loss3为第三损失值,a、b和c分别为第一损失值、第二损失值和第三损失值的平衡调节参数,上述*均为乘积运算符号。
在一种实施方式中,上述装置还包括:
结束训练模块,用于在参数迭代的次数达到预设的迭代次数和/或目标样本对应的损失值收敛至预设的损失阈值时,训练结束,得到训练后的神经网络模型。
本实施例提供的上述神经网络模型训练装置,基于目标样本的个体特征、目标样本的全局特征和目标样本的融合特征计算得到目标样本对应的损失值,由于上述全局特征和融合特征均是通过计算目标样本的个体特征与训练样本集中的其他样本的特征之间的距离分布得到的,且上述损失值是基于类内距离分布相似性损失和类间距离差异性损失得到的,增加了距离分布对最终训练损失的约束,提升了神经网络模型的泛化能力。
本实施例所提供的装置,其实现原理及产生的技术效果和前述实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
实施例五:
对应于前述实施例所提供的图像识别方法,参见图6所示的一种图像识别装置结构示意图,本发明实施例提供了一种图像识别装置,该装置包括:
图像输入模块61,用于将待识别图像输入预设神经网络模型;其中,预设神经网络模型是基于实施例二提供的神经网络模型训练方法训练得到的。
图像识别模块62,用于通过预设神经网络模型提取待识别图像的个体特征,并基于待识别图像的个体特征与预存的目标图像的个体特征之间的特征距离,得到待识别图像对应的识别结果。
本实施例提供的上述图像识别装置,通过比较待识别图像的个体特征与预存的目标图像的个体特征之间的特征值距离,判断待识别图像中的目标与预存的目标图像中的目标的相似性,提升了神经网络模型的识别准确率。
本实施例所提供的装置,其实现原理及产生的技术效果和前述图像识别方法的实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述图像识别方法实施例中相应内容。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统具体工作过程,可以参考前述实施例中的对应过程,在此不再赘述。
本发明实施例所提供的神经网络模型训练方法及装置、图像识别方法及装置的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (15)
1.一种神经网络模型训练方法,其特征在于,包括:
从第一训练样本集获取目标样本,所述第一训练样本集为预先标注好的样本集;
利用所述神经网络模型对所述目标样本进行特征提取,得到所述目标样本的个体特征,利用所述神经网络模型对第二训练样本集中的各样本进行特征提取,得到所述第二训练样本集对应的群体特征;所述群体特征包括所述第二训练样本集中每个样本的个体特征,所述第二训练样本集包括所述第一训练样本集中除所述目标样本之外的样本中的一个或多个,或者包括除所述第一训练样本集之外的其他相关样本;
基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值;
基于所述目标样本对应的损失值,对所述神经网络模型的参数进行迭代更新。
2.根据权利要求1所述的方法,其特征在于,所述基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值的步骤,包括:
将所述目标样本的个体特征与所述群体特征中的每个个体特征进行逐一比较,得到所述目标样本的全局特征;
基于所述目标样本的个体特征和所述目标样本的全局特征,得到所述目标样本对应的损失值。
3.根据权利要求2所述的方法,其特征在于,所述将所述目标样本的个体特征与所述群体特征中的每个个体特征进行逐一比较,得到所述目标样本的全局特征的步骤,包括:
计算所述目标样本的个体特征与所述群体特征中的各个体特征之间的相似度,得到所述目标样本与所述第二训练样本集的相似度向量;
将所述相似度向量作为所述目标样本的全局特征。
4.根据权利要求3所述的方法,其特征在于,所述基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值的步骤,包括:
将所述目标样本的个体特征与所述全局特征进行融合,得到所述目标样本的融合特征;
基于所述目标样本的个体特征及所述目标样本的融合特征,得到所述目标样本对应的损失值。
5.根据权利要求4所述的方法,其特征在于,所述基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值的步骤,包括:
基于所述目标样本的个体特征、所述目标样本的全局特征及所述目标样本的融合特征,得到所述目标样本对应的损失值。
6.根据权利要求4所述的方法,其特征在于,所述将所述目标样本的个体特征与所述全局特征进行融合,得到所述目标样本的融合特征的步骤,包括:
对所述目标样本的个体特征与所述全局特征进行拼接,并将拼接后的特征输入所述神经网络模型的全连接层,得到所述全连接层输出的所述目标样本的融合特征。
7.根据权利要求2所述的方法,其特征在于,所述基于所述目标样本的个体特征和所述目标样本的全局特征,得到所述目标样本对应的损失值的步骤,包括:
将所述目标样本的个体特征输入第一目标损失函数,得到第一损失值;其中,所述目标样本对应的损失值包括分类损失值和相对损失值,所述第一目标损失函数是基于分类损失函数和相对损失函数得到的;
将所述目标样本的全局特征输入所述第一目标损失函数,得到第二损失值;
根据所述第一损失值、所述第二损失值和第二目标损失函数,得到所述目标样本的分类损失值;所述第二目标损失函数的计算算式为:
Loss 2=a*loss1+b*loss2
其中,Loss2为所述目标样本对应的损失值,loss1为所述第一损失值,loss2为所述第二损失值,a和b分别为所述第一损失值和所述第二损失值的平衡调节参数。
8.根据权利要求4所述的方法,其特征在于,所述基于所述目标样本的个体特征及所述目标样本的融合特征,得到所述目标样本对应的损失值的步骤,包括:
将所述目标样本的个体特征输入第一目标损失函数,得到第一损失值;
将所述目标样本的融合特征输入所述第一目标损失函数,得到第三损失值;
根据所述第一损失值、所述第三损失值和第三目标损失函数,得到所述目标样本的分类损失值;所述第三目标损失函数的计算算式为:
Loss3=a*loss1+c*loss3
其中,Loss3为所述目标样本对应的损失值,loss1为所述第一损失值,loss3为所述第三损失值,a和c分别为所述第一损失值和所述第三损失值的平衡调节参数。
9.根据权利要求5所述的方法,其特征在于,所述基于所述目标样本的个体特征、所述目标样本的全局特征及所述目标样本的融合特征,得到所述目标样本对应的损失值的步骤,包括:
将所述目标样本的个体特征输入第一目标损失函数,得到第一损失值;
将所述目标样本的全局特征输入所述第一目标损失函数,得到第二损失值;
将所述目标样本的融合特征输入所述第一目标损失函数,得到第三损失值;
根据所述第一损失值、所述第二损失值、所述第三损失值和第四目标损失函数,得到所述目标样本的分类损失值;所述第四目标损失函数的计算算式为:
Loss4=a*loss1+b*loss2+c*loss3
其中,Loss4为所述目标样本对应的损失值,loss1为所述第一损失值,loss2为所述第二损失值,loss3为所述第三损失值,a、b和c分别为所述第一损失值、所述第二损失值和所述第三损失值的平衡调节参数。
10.根据权利要求1-9任一项所述的方法,其特征在于,还包括:
当所述参数迭代的次数达到预设的迭代次数和/或所述目标样本对应的损失值收敛至预设的损失阈值,训练结束,得到训练后的神经网络模型。
11.一种图像识别方法,其特征在于,包括:
将待识别图像输入预设神经网络模型;其中,所述预设神经网络模型是基于权利要求1-10任一项所述的神经网络模型训练方法训练得到的;
通过所述预设神经网络模型提取所述待识别图像的个体特征,并基于所述待识别图像的个体特征与预存的目标图像的个体特征之间的特征距离,得到所述待识别图像对应的识别结果。
12.一种神经网络模型训练装置,其特征在于,包括:
样本获取模块,用于从第一训练样本集获取目标样本,所述第一训练样本集为预先标注好的样本集;
特征提取模块,用于利用所述神经网络模型对所述目标样本进行特征提取,得到所述目标样本的个体特征,利用所述神经网络模型对第二训练样本集中的各样本进行特征提取,得到所述第二训练样本集对应的群体特征;所述群体特征包括所述第二训练样本集中每个样本的个体特征,所述第二训练样本集包括所述第一训练样本集中除所述目标样本之外的样本中的一个或多个,或者包括除所述第一训练样本集之外的其他相关样本;
损失值计算模块,用于基于所述目标样本的个体特征和所述群体特征确定所述目标样本对应的损失值;
参数更新模块,用于基于所述目标样本对应的损失值,对所述神经网络模型的参数进行迭代更新。
13.一种图像识别装置,其特征在于,包括:
图像输入模块,用于将待识别图像输入预设神经网络模型;其中,所述预设神经网络模型是基于权利要求1-10任一项所述的神经网络模型训练方法训练得到的;
图像识别模块,用于通过所述预设神经网络模型提取所述待识别图像的个体特征,并基于所述待识别图像的个体特征与预存的目标图像的个体特征之间的特征距离,得到所述待识别图像对应的识别结果。
14.一种电子设备,其特征在于,包括:处理器和存储装置;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至10任一项所述的方法或权利要求11所述的方法。
15.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至10任一项所述的方法的步骤或权利要求11所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010168707.9A CN111401521B (zh) | 2020-03-11 | 2020-03-11 | 神经网络模型训练方法及装置、图像识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010168707.9A CN111401521B (zh) | 2020-03-11 | 2020-03-11 | 神经网络模型训练方法及装置、图像识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401521A CN111401521A (zh) | 2020-07-10 |
CN111401521B true CN111401521B (zh) | 2023-10-31 |
Family
ID=71436201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010168707.9A Active CN111401521B (zh) | 2020-03-11 | 2020-03-11 | 神经网络模型训练方法及装置、图像识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401521B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111950728B (zh) * | 2020-08-17 | 2024-06-18 | 珠海格力电器股份有限公司 | 图像特征提取模型的构建方法、图像检索方法及存储介质 |
CN114202782A (zh) * | 2020-09-02 | 2022-03-18 | 四川大学 | 一种基于传统特征与神经网络的人脸深度伪造检测方法 |
CN112115997B (zh) * | 2020-09-11 | 2022-12-02 | 苏州浪潮智能科技有限公司 | 一种物体识别模型的训练方法、系统及装置 |
CN112580689A (zh) * | 2020-11-23 | 2021-03-30 | 北京迈格威科技有限公司 | 神经网络模型的训练方法、应用方法、装置和电子设备 |
KR102689030B1 (ko) * | 2021-03-11 | 2024-07-29 | 구글 엘엘씨 | 측지 거리를 사용하여 이미지들의 조밀한 대응관계를 예측하기 위한 트레이닝 모델용 시스템 및 방법 |
CN113191461B (zh) * | 2021-06-29 | 2021-09-17 | 苏州浪潮智能科技有限公司 | 一种图片识别方法、装置、设备及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229379A (zh) * | 2017-12-29 | 2018-06-29 | 广东欧珀移动通信有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN108388888A (zh) * | 2018-03-23 | 2018-08-10 | 腾讯科技(深圳)有限公司 | 一种车辆识别方法、装置和存储介质 |
CN108898218A (zh) * | 2018-05-24 | 2018-11-27 | 阿里巴巴集团控股有限公司 | 一种神经网络模型的训练方法、装置、及计算机设备 |
CN110532956A (zh) * | 2019-08-30 | 2019-12-03 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
-
2020
- 2020-03-11 CN CN202010168707.9A patent/CN111401521B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229379A (zh) * | 2017-12-29 | 2018-06-29 | 广东欧珀移动通信有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN108388888A (zh) * | 2018-03-23 | 2018-08-10 | 腾讯科技(深圳)有限公司 | 一种车辆识别方法、装置和存储介质 |
CN108898218A (zh) * | 2018-05-24 | 2018-11-27 | 阿里巴巴集团控股有限公司 | 一种神经网络模型的训练方法、装置、及计算机设备 |
CN110532956A (zh) * | 2019-08-30 | 2019-12-03 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
刘敦强;沈峘;夏瀚笙;王莹;贾燕晨.一种基于深度残差网络的车型识别方法.计算机技术与发展.2018,(05),全文. * |
基于深度神经网络的社会媒体网络分析;张艳红;王宝会;;计算机科学(04);全文 * |
视频监控中人群流量和密度估计算法分析;苏航;郑世宝;杨华;;电视技术(11);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111401521A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401521B (zh) | 神经网络模型训练方法及装置、图像识别方法及装置 | |
CN109255352B (zh) | 目标检测方法、装置及系统 | |
CN111476284B (zh) | 图像识别模型训练及图像识别方法、装置、电子设备 | |
WO2021077984A1 (zh) | 对象识别方法、装置、电子设备及可读存储介质 | |
CN109145766B (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
Piao et al. | Saliency detection via depth-induced cellular automata on light field | |
CN109522945B (zh) | 一种群体情感识别方法、装置、智能设备及存储介质 | |
CN112395979B (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
CN109359214A (zh) | 基于神经网络的视频描述生成方法、存储介质及终端设备 | |
CN112598643A (zh) | 深度伪造图像检测及模型训练方法、装置、设备、介质 | |
CN112651333B (zh) | 静默活体检测方法、装置、终端设备和存储介质 | |
CN111814620A (zh) | 人脸图像质量评价模型建立方法、优选方法、介质及装置 | |
CN113011387B (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
CN112560710B (zh) | 一种用于构建指静脉识别系统的方法及指静脉识别系统 | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN111291760A (zh) | 图像的语义分割方法、装置及电子设备 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN113177449A (zh) | 人脸识别的方法、装置、计算机设备及存储介质 | |
CN111325237A (zh) | 一种基于注意力交互机制的图像识别方法 | |
CN114241587B (zh) | 人脸活体检测对抗鲁棒性的评估方法及装置 | |
CN112818915A (zh) | 基于3dmm软生物特征的深度伪造视频检测方法及系统 | |
CN112597997A (zh) | 感兴趣区域确定方法、图像内容识别方法及装置 | |
CN109961103B (zh) | 特征提取模型的训练方法、图像特征的提取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |