CN111753793B - 模型训练方法、装置、人脸筛选方法及电子设备 - Google Patents
模型训练方法、装置、人脸筛选方法及电子设备 Download PDFInfo
- Publication number
- CN111753793B CN111753793B CN202010623482.1A CN202010623482A CN111753793B CN 111753793 B CN111753793 B CN 111753793B CN 202010623482 A CN202010623482 A CN 202010623482A CN 111753793 B CN111753793 B CN 111753793B
- Authority
- CN
- China
- Prior art keywords
- network model
- neural network
- face
- image
- optimized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请供一种模型训练方法、装置、人脸筛选方法及电子设备。通过该模型训练方法,由于在训练时所使用了人脸关键点图像以及人脸置信度图像,因此,图像中所携带的人脸关键点以及人脸置信度可以用于“指导”神经网络模型进行特征提取。同时,保持基于人脸关键点图像所获得的待优化的神经网络结构中部分网络层的参数不变,通过人脸置信度图像对该待优化的神经网络模型进行训练,调整其中其他网络层的参数,使得训练好的神经网络能够兼顾基于人脸关键点图像训练出的特征提取方式,以及基于人脸置信度图像训练处的特征提取方式,进而提高对人脸图像的分辨精度。
Description
技术领域
本申请涉及数据处理领域,具体而言,涉及一种模型训练方法、装置、人脸筛选方法及电子设备。
背景技术
随着深度学习技术在计算机视觉领域取得巨大成功,应用于监控视频的人脸识别技术也取得了长足的进步和发展。在实际的业务中,需要将视频图像中出现的人脸进行抓拍,将抓拍的人脸图像用于后续的其他应用(例如,目标人物的识别、目标人物跟踪等)。为了尽可能的将视频图像中的人脸抓拍全,往往会将用于触发抓拍动作的相关阈值配置得较小。由于用于触发抓拍动作的相关阈值配置得较小,会使得抓拍的人脸图像中会出现一些疑似人脸的非人脸图像。该非人脸图像会对后续的其他处理造成一定的影响。
发明内容
为了克服现有技术中的至少一个不足,本申请实施例的目的之一在于提供一种模型训练方法,应用于电子设备,所述电子设备配置有未训练好的神经网络模型,所述方法包括:
获取样本图像,所述样本图像包括人脸关键点图像以及人脸置信度图像;
通过所述人脸关键点图像训练所述神经网络模型进行人脸图像筛选,获得待优化的神经网络模型;
保持所述待优化的神经网络模型中第一网络层的参数,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得训练好的神经网络模型。
可选地,所述电子设备还配置有教师网络模型,所述教师网络模型包括所述待优化的神经网络模型中的第二网络层的网络结构,其中,所述第二网络层属于所述第一网络层的一部分;
所述通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得最终训练好的神经网络模型的之前,还包括:
保持所述第二网络层的参数;
通过所述人脸置信度图像训练所述教师网络模型进行人脸图像筛选,获得训练好的教师网络模型;
所述通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得最终训练好的神经网络模型的步骤,包括:
结合所述训练好的教师网络模型,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得所述训练好的神经网络模型。
可选地,所述教师网络模型中的网络层数大于所述待优化的神经网络模型中的网络层数。
可选地,所述结合所述训练好的教师网络模型,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得所述训练好的神经网络模型的步骤,包括:
基于所述神经网络模型的第一损失函数,获得通过所述人脸置信度图像训练所述待优化的神经网络模型时的第一损失值;
基于所述训练好的教师网络模型的第二损失函数,获得通过所述训练好的教师网络模型筛选所述人脸置信度图像时的第二损失值;
根据所述第一损失值的第一权值以及所述第二损失值的第二权值,获得所述第一损失值以及所述第二损失值的加权求和结果,其中,所述第一权值大于所述第二权值;
判断所述加权求和结果是否小于损失阈值;
若所述加权求和结果小于所述损失阈值,则获得所述训练好的神经网络模型;
若所述加权求和结果不小于损失阈值,则根据所述加权求和结果调整所述待优化的神经网络模型的权值,再次从所述基于所述神经网络模型的第一损失函数,获得通过所述人脸置信度图像训练所述待优化的神经网络模型时的第一损失值的步骤执行。
可选地,所述教师网络模型包括残差网络。
本申请实施例的目的之二在于提供一种人脸筛选方法,应用于电子设备,所述电子设备配置有经模型训练方法训练好的神经网络模型,所述方法包括:
获取待筛选人脸图像;
通过所述训练好的神经网络模型对所述待筛选人脸图像进行人脸图像筛选,获得筛选结果。
本申请实施例的目的之三在于提供一种模型训练装置,应用于电子设备,所述电子设备配置有未训练好的神经网络模型,所述模型训练装置还包括:
样本获取模块,用于获取样本图像,所述样本图像包括人脸关键点图像以及人脸置信度图像;
第一训练模块,用于通过所述人脸关键点图像训练所述神经网络模型进行人脸图像筛选,获得待优化的神经网络模型;
第二训练模块,用于保持所述待优化的神经网络模型中第一网络层的参数,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得训练好的神经网络模型。
可选地,所述电子设备还配置有教师网络模型,所述教师网络模型包括所述待优化的神经网络模型中的第二网络层的网络结构,其中,所述第二网络层属于所述第一网络层的一部分,所述第二训练模块的训练步骤,包括:
保持所述待优化的神经网络模型中第一网络层的参数;
通过所述人脸置信度图像训练所述教师网络模型进行人脸图像筛选,获得训练好的教师网络模型;
所述通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得最终训练好的神经网络模型的步骤,包括:
结合所述训练好的教师网络模型,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得所述训练好的神经网络模型。
本申请实施例的目的之四在于提供一种电子设备,所述电子设备包括处理器以及存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述机器可执行被所述处理器执行时,实现所述的模型训练方法。
本申请实施例的目的之五在于提供.一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现所述的模型训练方法。
相对于现有技术而言,本申请具有以下有益效果:
本申请实施例提供的模型训练方法、装置、人脸筛选方法及电子设备。通过该模型训练方法,由于在训练时所使用了人脸关键点图像以及人脸置信度图像,因此,图像中所携带的人脸关键点以及人脸置信度可以用于“指导”神经网络模型进行特征提取。同时,保持基于人脸关键点图像所获得的待优化的神经网络结构中部分网络层的参数不变,通过人脸置信度图像对该待优化的神经网络模型进行训练,调整其中其他网络层的参数,使得训练好的神经网络能够兼顾基于人脸关键点图像训练出的特征提取方式,以及基于人脸置信度图像训练处的特征提取方式,进而提高对人脸图像的分辨精度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的硬件结构示意图;
图2为本申请实施例提供的模型训练方法的步骤流程图;
图3为本申请实施例提供的网络模型的结构示意图;
图4为本申请实施例提供的人脸筛选方法的步骤流程图;
图5为本申请实施例提供的模型训练装置的结构示意图。
图标:110-模型训练装置;120-存储器;130-处理器;700-待优化的神经网络模型;800-教师网络模型;1101-样本获取模块;1102-第一训练模块;1103-第二训练模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本申请的描述中,需要说明的是,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
如背景技术所介绍的,随着深度学习技术在计算机视觉领域取得巨大成功,应用于监控视频的人脸识别技术也取得了长足的进步和发展。在实际的业务中,需要将视频图像中出现的人脸进行抓拍,将抓拍的人脸图像用于后续的其他应用(例如,目标人物的识别、目标人物跟踪等)。为了尽可能的将图像中的人脸抓拍全,往往会将用于触发抓拍动作的相关阈值配置得较小,使得抓拍的人脸图像中会出现一些疑似人脸的非人脸图像。该非人脸图像会对后续的其他处理造成一定的影响。
鉴于此,可以通过深度神经网络模型将人脸检测与人脸筛选相结合。该方案中,通过深度神经网络在图像中输出人脸检测框的同时,针对每个人脸检测框输出对应是置信度分数。该置信度分数用于指示该人脸检测框位置的图像属于人脸的概率。另外,还可以通过对待筛选图像进行人脸关键点以及人脸角度等信息的提取,基于提取的人脸关键点以及人脸角度等信息判断待筛选图像是否属于人脸图像。
上述方案中,存在应用灵活性欠佳、稳定性较差、计算复杂度高等问题,而且,实际使用效果容易受光照、角度、遮挡、人物表情等因素影响。本申请实施例提供一种模型训练方法,应用于电子设备,其中,电子设备配置有未训练好的神经网络模型。该模型训练方法用于对未训练好的神经网络模型进行训练,将训练好的神经网络模型单独用于对抓拍的待筛选人脸图像进行人脸图像筛选。
其中,针对该电子设备,请参照图1,为本申请实施例提供的该电子设备的结构示意图。该电子设备包括模型训练装置110、存储器120以及处理器130。
所述存储器120、处理器130以及其他各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述模型训练装置110包括至少一个可以软件或固件(firmware)的形式存储于所述存储器120中或固化在所述电子设备的操作系统(operating system,OS)中的软件功能模块。所述处理器130用于执行所述存储器120中存储的可执行模块,例如所述模型训练装置110所包括的软件功能模块及计算机程序等。
其中,所述存储器120可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器120用于存储程序,所述处理器130在接收到执行指令后,执行所述程序。
针对该模型训练方法,请参照图2,为本申请实施例提供的该模型训练方法的步骤流程图,以下将对方法包括各个步骤进行详细阐述。
步骤S100,获取样本图像,样本图像包括人脸关键点图像以及人脸置信度图像。
本申请实施例中,在训练神经网络模型时通过训练样本所携带的人脸关键点“告知”该神经网络模型,如何检测提取人脸图像中的各器官的特征信息,以及人脸图像中各器官的相对位置信息。同时,通过人脸置信度图像“告知”该神经网络模型,哪些样本图像具有典型的人脸特征信息。
因此,本申请实施例中,通过人脸关键点图像以及人脸置信度图像中所携带的关键点信息以及置信度信息“指导”该神经网络模型进行特征提取。
步骤S200,通过人脸关键点图像训练神经网络模型进行人脸图像筛选,获得待优化的神经网络模型。
步骤S300,保持待优化的神经网络模型中第一网络层的参数,通过人脸置信度图像再次训练待优化的神经网络模型进行人脸图像筛选,获得训练好的神经网络模型。
应理解的是,通过人脸关键点图像训练出的待优化的神经网络模型能够提取足够好的人脸特征。同时,考虑到神经网络模型所提取的浅层特征具有很大的相似性,因此,该电子设备可以保持该待优化的神经网络模型中浅层网络层的参数不变,通过人脸置信度图像再次训练该待优化的神经网络模型,使得训练好的神经网络能够兼顾基于人脸关键点图像训练出的特征提取方式,以及基于人脸置信度图像训练处的特征提取方式。
在一种可能的示例中,该待优化的神经网络模型包括9个卷积层以及2个连接层。由于该待优化的神经网络模型中的前几层卷积层所提取的特征为浅层特征,因此,可以保持第1层至第4层的参数不变,通过人脸置信度图像对待优化的神经网络模型进行训练,调整剩余网络层的参数。
值得说明的是,具体保持第几层的网络参数不变,可以根据网络层的具体数量以及具体的训练需求进行适应性调整,本申请实施例不做过多的限定。
通过该模型训练方法,由于在训练时所使用了人脸关键点图像以及人脸置信度图像,因此,图像中所携带的人脸关键点以及人脸置信度可以用于“指导”神经网络模型进行特征提取。同时,保持基于人脸关键点图像所获得的待优化的神经网络结构中部分网络层的参数不变,通过人脸置信度图像对该待优化的神经网络模型进行训练,调整其中其他网络层的参数,使得训练好的神经网络能够兼顾基于人脸关键点图像训练出的特征提取方式,以及基于人脸置信度图像训练处的特征提取方式。使得训练好的神经网络模型能够高效、准确地对抓拍的人脸图像进行筛选。例如,遮挡人脸、大角度人脸或者模糊人脸等难例人脸。
进一步地,由于神经网络模型的计算量与网络层数成正相关,但考虑到网络层数越多,能够获得更好的拟合效果,因此,本申请实施例中,为了提高神经网络模型计算效率同时,保证该神经网络模型的拟合效果。
请参照图3,该电子设备还配置有用于监督该待优化的神经网络模型700的教师网络模型800。该教师网络模型800包括待优化的神经网络模型700中第二网络层的网络结构,即该教师网络模型800与待优化的神经网络模型700共享该第二网络层的结构以及参数,其中,该第二网络层属于第一网络层的一部分。
应理解的是,该教师网络模型800所包括的网络层数大于该待优化的神经网络模型700所包括的网络层数,如此,以确保该教师网络模型800相较于该待优化的神经网络模型700,具有更好的拟合效果。
然而,由于教师网络模型800的网络层数与待优化的神经网络模型700所包括的网络层数相差较大时,会使得教师网络模型800与待优化的神经网络模型700之间在模型结构上存在较大的差异,进而导致教师网络模型800与待优化的神经网络模型700之间出现信息鸿沟,使得教师网络模型800并不能对待优化的神经网络模型700起到监督效果,因此,教师网络模型800所包括的网络层数不能远大于待优化的神经网络模型700所包括的网络层数。
经研究发现,该教师网络模型800的网络层数是待优化的神经网络模型700的网络层数的1.5-2倍时,教师网络模型800能够对待优化的神经网络模型700起到较好的监督效果。
同时,由于教师网络模型800所包括的网络层数大于该待优化的神经网络模型700所包括的网络层数,为了避免因为网络层数的增加所带来的退化问题,即随着网络层数增加,但教师网络模型800在训练集上的准确率却饱和甚至下降。该教师网络模型800包括一定数量的残差网络,用以克服退化问题。
由于该教师网络模型800与待优化的神经网络模型700共享第二网络层的结构以及参数,为了避免人脸置信度图像影响浅层网络的权值参数,在本申请实施例中,该电子设备保持该第二网络层的参数不变,通过人脸置信度图像训练该教师网络模型进行人脸图像筛选,获得训练好的教师网络模型800。
其中,值得说明的是,由于教师网络模型800与待优化的神经网络模型700共享第二网络层的结构以及参数,在相同的样本图像的情况下,教师网络模型800的拟合能力会强于待优化的神经网络模型700。为了待优化的神经网络模型700的鲁棒性能最大程度的逼近教师网络模型,经研究发现,教师网络模型800保持参数不变的网络层数越少,待优化的神经网络模型700保持参数不变的层数越多,会使得待优化的神经网络模型700更容易拟合样本图像。即第二网络层属于第一网络层的一部分时,会使得待优化的神经网络模型700更容易拟合样本图像。
其中,在确定第二网络层的具体数量时,研究发现,第二网络层的数量选取教师网络模型800中网络层数的0.2-0.25倍时,可以使得教师网络模型800能够获得较好的浅层特征以及较好的鲁棒性能。
进一步地,该电子设备将训练好的教师网络模型800在筛选人脸置信度图像时的输出结果作为参考,通过人脸置信度图像再次训练待优化的神经网络模型700进行人脸图像筛选,获得训练好的神经网络模型。
其中,通过人脸置信度图像再次训练待优化的神经网络模型700进行人脸图像筛选时,作为一种可能的实施方式,该电子设备保持待优化的神经网络模型700中第二网络层的权值,基于神经网络模型的第一损失函数,获得通过人脸置信度图像训练待优化的神经网络模型700时的第一损失值;基于训练好的教师网络模型的第二损失函数,获得通过训练好的教师网络模型筛选人脸置信度图像时的第二损失值。
其中,该第一损失函数可以是欧式距离损失函数,第二损失函数可以是sigmoid损失函数。
该电子设备根据第一损失值的第一权值以及第二损失值的第二权值,获得第一损失值以及第二损失值的加权求和结果,其中,第一权值大于第二权值;判断加权求和结果是否小于损失阈值;若加权求和结果小于损失阈值,则获得训练好的神经网络模型。
若加权求和结果不小于损失阈值,该电子设备则根据加权求和结果调整待优化的神经网络模型700的权值,再次对输入的人脸置信度图像进行筛选,直到该加权求和结果小于该损失阈值。
由于通过人脸置信度图像进行训练的主要目标是待优化的神经网络模型,因此,第一权值大于第二权值时,能够取的比较好的训练结果。
本申请实施例还提供一种人脸筛选方法,应用于电子设备,该电子设备配置有经上述模型训练方法训练好的神经网络模型。请参照图4,为本申请实施例提供的该人脸筛选方法的步骤流程图。
步骤S500,获取待筛选人脸图像。
其中,该待筛选人脸图像可以是图像采集装置抓拍的人脸图像。为了确保将图像中的人脸抓拍全,会将用于触发抓拍动作的相关阈值配置得较小。由于用于触发抓拍动作的相关阈值配置得较小,会使得抓拍的人脸图像中会出现一些疑似人脸的非人脸图像。例如,头盔等球状物体的图像。
步骤S600,通过训练好的神经网络模型对待筛选人脸图像进行人脸图像筛选,获得筛选结果。
该电子设备通过训练好的神经网络模型对待筛选人脸图像处理后,输出一概率值,将该概率值与概率阈值进行比较,若超过该概率阈值,则将待筛选人脸图像确定为真正的人脸图像,并对其进行输出。若未超过该预设阈值,则该待筛选人脸图像为非人脸图像。
其中,该概率阈值可以是0.5。
本申请实施例还提供给一种模型训练装置110,应用于电子设备。该电子设备配置有未训练好的神经网络模型,模型训练装置110包括至少一个可以软件形式存储于存储器120中的功能模块。请参照图5,从功能上划分,模型训练装置110可以包括:
样本获取模块1101,用于获取样本图像,样本图像包括人脸关键点图像以及人脸置信度图像。
在本申请实施例中,该样本获取模块1101用于执行图2中的步骤S100,关于该样本获取模块1101的详细描述可以参考步骤S100的详细描述。
第一训练模块1102,用于通过人脸关键点图像训练神经网络模型进行人脸图像筛选,获得待优化的神经网络模型700。
在本申请实施例中,该第一训练模块1102用于执行图2中的步骤S200,关于该第一训练模块1102的详细描述可以参考步骤S200的详细描述。
第二训练模块1103,用于保持待优化的神经网络模型700中第一网络层的参数,通过人脸置信度图像再次训练待优化的神经网络模型700进行人脸图像筛选,获得训练好的神经网络模型。
在本申请实施例中,该第二训练模块1103用于执行图2中的步骤S300,关于该第二训练模块1103的详细描述可以参考步骤S300的详细描述。
其中,该电子设备还配置有教师网络模型800。该教师网络模型800包括待优化的神经网络模型700中的第二网络层的网络结构,其中,第二网络层属于第一网络层的一部分。其中,第二训练模块1103的训练步骤,包括:
保持待优化的神经网络模型700中第一网络层的参数;
通过人脸置信度图像训练教师网络模型进行人脸图像筛选,获得训练好的教师网络模型;
通过人脸置信度图像再次训练待优化的神经网络模型700进行人脸图像筛选,获得最终训练好的神经网络模型的步骤,包括:
结合训练好的教师网络模型,通过人脸置信度图像再次训练待优化的神经网络模型700进行人脸图像筛选,获得训练好的神经网络模型。
本申请实施例还提供一种电子设备。该电子设备包括处理器130以及存储器120。该存储器120存储有能够被处理器130执行的机器可执行指令。该机器可执行被处理器130执行时,实现上述模型训练方法。
其中,该电子设备可以是,但不限于,智能手机、个人电脑(personal computer,PC)、平板电脑、个人数字助理(personal digital assistant,PDA)、移动上网设备(mobileInternet device,MID)、服务器以及图像采集设备等。
本申请实施例还提供一种存储介质。该存储介质存储有计算机程序,计算机程序被处理器130执行时,实现上述模型训练方法。
综上所述,本申请实施例提供的模型训练方法、装置、人脸筛选方法及电子设备。通过该模型训练方法,由于在训练时所使用了人脸关键点图像以及人脸置信度图像,因此,图像中所携带的人脸关键点以及人脸置信度可以用于“指导”神经网络模型进行特征提取。同时,保持基于人脸关键点图像所获得的待优化的神经网络结构中部分网络层的参数不变,通过人脸置信度图像对该待优化的神经网络模型进行训练,调整其中其他网络层的参数,使得训练好的神经网络能够兼顾基于人脸关键点图像训练出的特征提取方式,以及基于人脸置信度图像训练处的特征提取方式,进而提高对人脸图像的分辨精度。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述,仅为本申请的各种实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (8)
1.一种模型训练方法,其特征在于,应用于电子设备,所述电子设备配置有未训练好的神经网络模型以及教师网络模型,所述方法包括:
获取样本图像,所述样本图像包括人脸关键点图像以及人脸置信度图像;
通过所述人脸关键点图像训练所述神经网络模型进行人脸图像筛选,获得待优化的神经网络模型;其中,所述教师网络模型包括所述待优化的神经网络模型中的第二网络层的网络结构,所述第二网络层属于第一网络层的一部分;
保持所述第二网络层的参数;
通过所述人脸置信度图像训练所述教师网络模型进行人脸图像筛选,获得训练好的教师网络模型;
保持所述待优化的神经网络模型中第一网络层的参数,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得训练好的神经网络模型,包括:
结合所述训练好的教师网络模型,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得所述训练好的神经网络模型。
2.根据权利要求1所述的模型训练方法,其特征在于,所述教师网络模型中的网络层数大于所述待优化的神经网络模型中的网络层数。
3.根据权利要求1所述的模型训练方法,其特征在于,所述结合所述训练好的教师网络模型,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得所述训练好的神经网络模型的步骤,包括:
基于所述神经网络模型的第一损失函数,获得通过所述人脸置信度图像训练所述待优化的神经网络模型时的第一损失值;
基于所述训练好的教师网络模型的第二损失函数,获得通过所述训练好的教师网络模型筛选所述人脸置信度图像时的第二损失值;
根据所述第一损失值的第一权值以及所述第二损失值的第二权值,获得所述第一损失值以及所述第二损失值的加权求和结果,其中,所述第一权值大于所述第二权值;
判断所述加权求和结果是否小于损失阈值;
若所述加权求和结果小于所述损失阈值,则获得所述训练好的神经网络模型;
若所述加权求和结果不小于损失阈值,则根据所述加权求和结果调整所述待优化的神经网络模型的权值,再次从所述基于所述神经网络模型的第一损失函数,获得通过所述人脸置信度图像训练所述待优化的神经网络模型时的第一损失值的步骤执行。
4.根据权利要求1所述的模型训练方法,其特征在于,所述教师网络模型包括残差网络。
5.一种人脸筛选方法,其特征在于,应用于电子设备,所述电子设备配置有经权利要求1-4任意一项所述的模型训练方法训练好的神经网络模型,所述方法包括:
获取待筛选人脸图像;
通过所述训练好的神经网络模型对所述待筛选人脸图像进行人脸图像筛选,获得筛选结果。
6.一种模型训练装置,其特征在于,应用于电子设备,所述电子设备配置有未训练好的神经网络模型以及教师网络模型,所述模型训练装置还包括:
样本获取模块,用于获取样本图像,所述样本图像包括人脸关键点图像以及人脸置信度图像;
第一训练模块,用于通过所述人脸关键点图像训练所述神经网络模型进行人脸图像筛选,获得待优化的神经网络模型;其中,所述教师网络模型包括所述待优化的神经网络模型中的第二网络层的网络结构,所述第二网络层属于第一网络层的一部分;
保持所述待优化的神经网络模型中第一网络层的参数;
通过所述人脸置信度图像训练所述教师网络模型进行人脸图像筛选,获得训练好的教师网络模型;
第二训练模块,用于保持所述待优化的神经网络模型中第一网络层的参数,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得训练好的神经网络模型,包括:
结合所述训练好的教师网络模型,通过所述人脸置信度图像再次训练所述待优化的神经网络模型进行人脸图像筛选,获得所述训练好的神经网络模型。
7.一种电子设备,其特征在于,所述电子设备包括处理器以及存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述机器可执行指令被所述处理器执行时,实现如权利要求1-5任意一项所述的模型训练方法。
8.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如权利要求1-5任意一项所述的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010623482.1A CN111753793B (zh) | 2020-06-30 | 2020-06-30 | 模型训练方法、装置、人脸筛选方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010623482.1A CN111753793B (zh) | 2020-06-30 | 2020-06-30 | 模型训练方法、装置、人脸筛选方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111753793A CN111753793A (zh) | 2020-10-09 |
CN111753793B true CN111753793B (zh) | 2022-11-22 |
Family
ID=72680331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010623482.1A Active CN111753793B (zh) | 2020-06-30 | 2020-06-30 | 模型训练方法、装置、人脸筛选方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753793B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1818930A (zh) * | 2006-03-23 | 2006-08-16 | 上海交通大学 | 基于识别模型的多神经网络结合的睁眼检测方法 |
CN108121952A (zh) * | 2017-12-12 | 2018-06-05 | 北京小米移动软件有限公司 | 人脸关键点定位方法、装置、设备及存储介质 |
CN108171256A (zh) * | 2017-11-27 | 2018-06-15 | 深圳市深网视界科技有限公司 | 人脸图像质评模型构建、筛选、识别方法及设备和介质 |
WO2018170864A1 (zh) * | 2017-03-20 | 2018-09-27 | 成都通甲优博科技有限责任公司 | 一种人脸识别跟踪方法 |
CN109063565A (zh) * | 2018-06-29 | 2018-12-21 | 中国科学院信息工程研究所 | 一种低分辨率人脸识别方法及装置 |
CN109214343A (zh) * | 2018-09-14 | 2019-01-15 | 北京字节跳动网络技术有限公司 | 用于生成人脸关键点检测模型的方法和装置 |
CN109712144A (zh) * | 2018-10-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 面部图像的处理方法、训练方法、设备和存储介质 |
CN110889446A (zh) * | 2019-11-22 | 2020-03-17 | 高创安邦(北京)技术有限公司 | 人脸图像识别模型训练及人脸图像识别方法和装置 |
CN111126573A (zh) * | 2019-12-27 | 2020-05-08 | 深圳力维智联技术有限公司 | 基于个体学习的模型蒸馏改进方法、设备及存储介质 |
-
2020
- 2020-06-30 CN CN202010623482.1A patent/CN111753793B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1818930A (zh) * | 2006-03-23 | 2006-08-16 | 上海交通大学 | 基于识别模型的多神经网络结合的睁眼检测方法 |
WO2018170864A1 (zh) * | 2017-03-20 | 2018-09-27 | 成都通甲优博科技有限责任公司 | 一种人脸识别跟踪方法 |
CN108171256A (zh) * | 2017-11-27 | 2018-06-15 | 深圳市深网视界科技有限公司 | 人脸图像质评模型构建、筛选、识别方法及设备和介质 |
CN108121952A (zh) * | 2017-12-12 | 2018-06-05 | 北京小米移动软件有限公司 | 人脸关键点定位方法、装置、设备及存储介质 |
CN109063565A (zh) * | 2018-06-29 | 2018-12-21 | 中国科学院信息工程研究所 | 一种低分辨率人脸识别方法及装置 |
CN109214343A (zh) * | 2018-09-14 | 2019-01-15 | 北京字节跳动网络技术有限公司 | 用于生成人脸关键点检测模型的方法和装置 |
CN109712144A (zh) * | 2018-10-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 面部图像的处理方法、训练方法、设备和存储介质 |
CN110889446A (zh) * | 2019-11-22 | 2020-03-17 | 高创安邦(北京)技术有限公司 | 人脸图像识别模型训练及人脸图像识别方法和装置 |
CN111126573A (zh) * | 2019-12-27 | 2020-05-08 | 深圳力维智联技术有限公司 | 基于个体学习的模型蒸馏改进方法、设备及存储介质 |
Non-Patent Citations (5)
Title |
---|
Philipp Terhörst等.Reliable Age and Gender Estimation from Face Images: Stating the Confidence of Model Predictions.《2019 IEEE 10th International Conference on Biometrics Theory, Applications and Systems (BTAS)》.2019, * |
基于深度卷积网络的多视角人脸检测研究;林祥等;《湖南文理学院学报 (自然科学版)》;20180530;第30卷(第2期);30-34 * |
基于特征融合的人脸素描自动生成系统研究;黄双萍等;《计算机应用与软件》;20150430;第32卷(第4期);175-180 * |
引入全局约束的精简人脸关键点检测网络;张伟等;《信号处理》;20190325(第03期);195-203 * |
置信度判别嵌入式隐马尔可夫模型人脸识别;张练兴等;《计算机应用研究》;20100515;第27卷(第5期);1987-1990 * |
Also Published As
Publication number | Publication date |
---|---|
CN111753793A (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
WO2021184894A1 (zh) | 一种去模糊的人脸识别方法、系统和一种巡检机器人 | |
CN111178183B (zh) | 人脸检测方法及相关装置 | |
CN108229297B (zh) | 人脸识别方法和装置、电子设备、计算机存储介质 | |
CN110059642B (zh) | 人脸图像筛选方法与装置 | |
CN114241548A (zh) | 一种基于改进YOLOv5的小目标检测算法 | |
US8842889B1 (en) | System and method for automatic face recognition | |
CN110059634B (zh) | 一种大场景人脸抓拍方法 | |
CN109255360B (zh) | 一种目标分类方法、装置及系统 | |
CN111401349A (zh) | 一种人脸测温方法、装置、电子设备及存储介质 | |
CN111263955A (zh) | 一种目标对象的移动轨迹确定方法和装置 | |
CN112150457A (zh) | 视频检测方法、装置及计算机可读存储介质 | |
CN112766028A (zh) | 人脸模糊处理方法、装置、电子设备及存储介质 | |
CN111753793B (zh) | 模型训练方法、装置、人脸筛选方法及电子设备 | |
CN116110095A (zh) | 一种人脸过滤模型的训练方法、人脸识别方法及装置 | |
CN111126283A (zh) | 一种自动过滤模糊人脸的快速活体检测方法及系统 | |
CN112907206B (zh) | 一种基于视频对象识别的业务审核方法、装置及设备 | |
CN114745592A (zh) | 基于人脸识别的弹幕消息的显示方法及系统、设备及介质 | |
Kristanto et al. | Forensic analysis of faces on low-quality images using detection and recognition methods | |
CN117671473B (zh) | 基于注意力和多尺度特征融合的水下目标检测模型及方法 | |
CN112329606B (zh) | 一种活体检测方法、装置、电子设备及可读存储介质 | |
CN111008582B (zh) | 一种头部照片分析方法、系统和设备 | |
CN114529990A (zh) | 拍照行为识别方法、装置、电子设备和存储介质 | |
CN114399801A (zh) | 目标检测方法及装置 | |
Kavin Kumar et al. | Assisting Visually Challenged Person in the Library Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |