CN110619315B - 人脸识别模型的训练方法、装置及电子设备 - Google Patents

人脸识别模型的训练方法、装置及电子设备 Download PDF

Info

Publication number
CN110619315B
CN110619315B CN201910906112.6A CN201910906112A CN110619315B CN 110619315 B CN110619315 B CN 110619315B CN 201910906112 A CN201910906112 A CN 201910906112A CN 110619315 B CN110619315 B CN 110619315B
Authority
CN
China
Prior art keywords
model
neural network
convolutional neural
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910906112.6A
Other languages
English (en)
Other versions
CN110619315A (zh
Inventor
刘铂涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Unisinsight Technology Co Ltd
Original Assignee
Chongqing Unisinsight Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Unisinsight Technology Co Ltd filed Critical Chongqing Unisinsight Technology Co Ltd
Priority to CN201910906112.6A priority Critical patent/CN110619315B/zh
Publication of CN110619315A publication Critical patent/CN110619315A/zh
Application granted granted Critical
Publication of CN110619315B publication Critical patent/CN110619315B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例提出一种人脸识别模型的训练方法、装置及电子设备,涉及监控技术领域。其中,人脸识别模型的训练方法通过利用第一模型处理具有人物标签的第一图像,得到第一特征编码;利用第二模型处理所述第一特征编码得到监控风格的第二图像;利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到人脸识别模型。通过将第一图像的风格转为监控风格,从而能够快速得到具有人物标签的监控风格图像。基于第二图像训练得到的人脸识别模型能够准确地识别监控图像中的人脸,从而,提高该人脸识别模型用于人脸动态布控时的召回率。

Description

人脸识别模型的训练方法、装置及电子设备
技术领域
本发明涉及监控技术领域,具体而言,涉及一种人脸识别模型的训练方法、装置及电子设备。
背景技术
随着人脸识别技术的进步,人脸识别技术已经应用于各个领域,给人们的生活带来便利。其中,在监控领域进行人脸动态布控是人脸识别技术目前比较重要的应用场景之一。
相关技术中,通过生活照(比如证件照)训练得到的人脸识别模型,并基于该人脸识别模型对监控图像进行识别。然而,即便是同一人,其证件照与其监控图像之间的相似度并不高。也就意味着,利用生活照训练得到的人脸识别模型对监控图像进行人脸动态布控时,得到的召回率(即,实际报警次数与应该报警次数之间的比例)不够高。
发明内容
有鉴于此,本发明的目的在于提供一种人脸识别模型的训练方法、装置及电子设备。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供一种人脸识别模型的训练方法,所述人脸识别模型用于识别监控图像中的人脸;所述人脸识别模型的训练方法包括:利用第一模型处理具有人物标签的第一图像,得到第一特征编码;其中,所述第一图像为包含人脸的生活照;所述第一模型为通过训练得到的用于提取生活风格特征编码的模型;利用第二模型处理所述第一特征编码得到监控风格的第二图像;其中,所述第二模型处理为通过训练得到的用于解码生成监控风格图像的模型;利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到所述人脸识别模型。
第二方面,本发明实施例提供一种人脸识别模型的训练装置,所述人脸识别模型用于识别监控图像中的人脸;所述人脸识别模型的训练装置包括:编码模块,用于利用第一模型处理具有人物标签的第一图像,得到第一特征编码;其中,所述第一图像为包含人脸的生活照;所述第一模型为通过训练得到的用于提取生活风格特征编码的模型;解码模块,用于利用第二模型处理所述第一特征编码得到监控风格的第二图像;其中,所述第二模型处理为通过训练得到的用于解码生成监控风格图像的模型;训练模块,用于利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到所述人脸识别模型。
第三方面,本发明实施例提供一种电子设备,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器可执行所述机器可执行指令以实现前述实施方式任一所述的方法。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前述实施方式中任一项所述的方法。
与现有技术相比,本发明实施例提供的人脸识别模型的训练方法:首先,利用第一模型处理具有人物标签的第一图像,得到第一特征编码,并采用第二模型处理第一特征编码得到监控风格的第二图像。也就是,将具有人物标签的生活照转换为监控风格的图像,从而得到训练所需的样本图像。再利用第二图像及对应的人物标签,训练预设的深度学习模型,得到人脸识别模型。第二图像为监控风格图像,也就意味着第二图像与真实的监控图像之间的相似度较高。因此,基于第二图像训练得到的人脸识别模型能够准确地识别监控图像中的人脸,从而,提高该人脸识别模型用于人脸动态布控时的召回率。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的电子设备的示意图。
图2示出了本发明实施例提供的人脸识别模型的训练方法的步骤流程图之一。
图3示出了本发明实施例提供的人脸识别模型的训练方法的步骤流程图之二。
图4为图3中步骤S202的子步骤流程图。
图5为图3中子步骤S2022对应的数据流向图。
图6为图3中步骤S202的子步骤流程图的另一部分。
图7为图6中子步骤S2025对应的数据流向图。
图8示出了本发明实施例提供的人脸识别模型的训练装置的示意图。
图标:100-电子设备;110-存储器;120-处理器;130-通信模块;300-人脸识别模型的训练装置;301-编码模块;302-解码模块;303-训练模块;304-获取模块;305-迭代模块。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例中提到的监控照可以是由监控设备(比如,监控摄像头)采集到的图像数据;本发明实施例中提到的监控风格图像可以是通过处理得到的类似于监控照的图像数据;本发明实施例中提到的生活照可以是专业设备(比如,专业相机)在标准环境下采集到的图像数据,比如,职业照、证件照。本发明实施例中提到的生活风格图像可以是通过处理得到的类似于生活照的图像数据。
可以理解地,由于采集设备、采集环境等之间的差异,即便是同一用户,其生活照与监控照之间的相似度并不高,因此,利用生活照训练得到的人脸识别模型对监控图像进行人脸识别的准确性不高,从而,使上述模型用于监控领域的人脸动态布控时召回率(即,实际报警次数与应该报警次数之间的比例)不够高。
然而,目前的人脸识别模型依然是采用生活照进行训练得到的。究其原因在于,具有人物标签的生活照数量大且容易获得,适合用于进行模型训练。虽然监控照也容易大量获取,但监控照不具有人物标签。故,若是利用监控照进行人脸识别模型训练,需要一一对监控照进行人物标注,耗费大量的人力物力,且容易出错。
因此,本发明提供了一种人脸识别模型的训练方法、装置及电子设备,以解决上述问题。
请参照图1,是电子设备100的方框示意图。所述电子设备100包括存储器110、处理器120及通信模块130。所述存储器110、处理器120以及通信模块130各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
其中,存储器110用于存储程序或者数据。比如,预选的多个卷积神经网络、利用生活照训练得到的常规人脸识别模型。上述卷积神经网络包括第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络、第六卷积神经网络及预选的深度学习模型。所述存储器110可以是,但不限于,随机存取存储器110(RandomAccess Memory,RAM),只读存储器110(Read Only Memory,ROM),可编程只读存储器110(Programmable Read-Only Memory,PROM),可擦除只读存储器110(ErasableProgrammable Read-Only Memory,EPROM),电可擦除只读存储器110(Electric ErasableProgrammable Read-Only Memory,EEPROM)等。
处理器120用于读/写存储器110中存储的数据或程序,并执行相应地功能。
通信模块130用于通过所述网络建立所述电子设备100与其它通信终端之间的通信连接,并用于通过所述网络收发数据。
应当理解的是,图1所示的结构仅为电子设备100的结构示意图,所述电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
第一实施例
请参考图2,图2示出了本发明实施例提供的一种人脸识别模型的训练方法,上述人脸识别模型的训练方法应用于电子设备100。可以理解的,该人脸识别模型用于识别监控图像中的人脸。如图2所示,上述人脸识别模型的训练方法包括以下步骤:
步骤S101,利用第一模型处理具有人物标签的第一图像,得到第一特征编码。
在本发明实施例中,首先,获取生活照样本图像集。上述生活照样本图像集包括多张样本图像,该样本图像为具有人物标签的生活照。可选地,具有人物标签的生活照比较容易收集,且目前已掌握足够多的具有人物标签的生活照。可选地,上述生活照中人脸图像区域的占比大于背景图像区域。上述生活照可以属于不同人,且每张生活照具有对应的人物标签。上述人物标签可以是该生活照中显示的人物的身份信息,比如,人物标签可以是人物ID。
其次,从上述生活照样本图像集中确定多张样本图像作为第一图像。比如,可以依次将生活照样本图像集中每一张样本图像作为第一图像。再比如,可以将生活照样本图像集中多张样本图像作为第一图像。可以理解的,上述第一图像为包含人脸图像区域。可选地,生活照样本图像集中的样本图像均预先经过相似变换对齐,使得每张样本图像中人脸显示位置相同,使人脸上的双眼、鼻尖、嘴巴在样本图像中位置基本一致。
然后,将第一图像输入第一模型,以便由第一模型对第一图像处理后输出第一特征编码。可以理解地,上述第一模型是卷积神经网络模型。该第一模型可接受的输入数据为图片,该第一模型输出的数据为多个属于(-∞,+∞)区间的数字组成的字符串。上述第一模型为通过训练得到的、能够提取生活风格特征编码的模型。上述生活风格特征编码是与生活照的风格相关的特征编码数据。可以理解地,上述第一特征编码为从第一图像中提取到的生活风格特征编码。
步骤S102,利用第二模型处理第一特征编码得到监控风格的第二图像。
在本发明实施例中,上述第二模型是卷积神经网络模型,该第二模型可接受的输入数据是由多个属于(-∞,+∞)区间的数字组成的字符串。该第二模型输出的数据为图片。上述第二模型处理为通过训练得到的、能够基于输入该第二模型的数据进行解码,从而生成监控风格图像的模型。
通过步骤S101和步骤S102的配合,可以将第一图像从生活照转换为具有监控照风格的第二图像。也就是,通过生活照与监控照之间的风格转换,快速获得大量具有人物标签的监控风格的图像。
步骤S103,利用第二图像及对应的人物标签,训练预设的深度学习模型,得到人脸识别模型。
在本发明实施例中,上述第二图像为由第一图像转化得到的监控风格图像,故,其对应的人物标签为第一图像携带的人物标签。将第二图像输入深度学习模型,基于深度学习模型的输出及对应的人物标签,对深度学习模型的模型参数进行迭代。可以理解地,上述第二图像可以包括多张,在深度学习模型的模型参数经过多次迭代后得到人脸识别模型。
可以理解地,由于监控风格图像与真实的监控照之间的相似度极高。因此,将基于第二图像训练得到的人脸识别模型用于识别监控图像时,其准确性相较于基于生活照训练得到的人脸识别模型能够有效地提高。
另外,虽然容易掌握大量的监控照,但是监控照均没有人物标签。因此,直接采用监控照训练人脸识别模型是不可行的。若要使用监控照训练人脸识别模型,需要逐一对监控照进行人物标签标注。然而,逐一标注的监控照,工作量特别大。本发明实施例中,充分利用具有人物标签的生活照容易大量获得的这一优势,通过将生活照进行风格转换得到监控风格图像,使用大量具有人物标签的监控风格图像进行人脸识别模型训练。从而,在提高得到人脸识别模型对监控图像的识别准确性的同时,节约大量的人力成本。
正如前所述,上述第一模型和第二模型均为通过大量训练得到。如图3所示,上述人脸识别模型的训练方法还包括:
步骤S201,获取生活照样本图像集和监控照样本图像集。
在本发明实施例中,上述监控照样本图像集可以包括多张样本图像。监控照样本图像集中的样本图像可以从监控设备采集的媒体流中截取的具有人脸的图像帧。可选地,监控照样本图像集中的样本图像均预先经过相似变换对齐,使得每张样本图像中人脸显示位置相同,使人脸上的双眼、鼻尖、嘴巴在样本图像中位置基本一致。需要说明的是,监控照样本图像集中的样本图像与生活照样本图像集中的样本图像之间可以没有必然的对应关系,同时不限定监控照样本图像集中样本图像显示的人的身份。从而降低获取到生活照样本图像集和监控照样本图像集的难度,从而减少不必要的工作量。当然,可选地,两个训练集的图片尺寸可以一致。
可以理解地,上述生活照样本图像集和监控照样本图像集均容易得到。比如,生活照样本图像集可以根据目前人脸识别的公开训练集和公司自己搜集的训练集能够很轻易地达到数十万人物标签和数百万张图片数。上述监控照样本图像集可以是从普通的监控视频流中以每秒1张的频率抓取得到,然后运用普通的人脸检测模型从中截取人脸作为样本图像,从而构建监控照样本图像集。
步骤S202,利用生活照样本图像集和监控照样本图像集,结合第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络、第六卷积神经网络、预选的常规人脸识别模型,对第一卷积神经网络的模型参数进行迭代得到所述第一模型和对所述第四卷积神经网络的模型参数进行迭代得到所述第二模型。
上述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络和第六卷积神经网络均为预先选择的初始网络模型。
可选地,上述第一卷积神经网络为提取生活风格特征编码的初始网络模型,上述第一卷积神经网络可接受的输入数据为图片,该第一卷积神经网络输出的数据为多个属于(-∞,+∞)区间的数字组成的字符串。
可选地,上述第二卷积神经网络为基于输入的特征编码解码出生活风格图像的初始网络模型。上述第二卷积神经网络可接受的输入数据是由多个属于(-∞,+∞)区间的数字组成的字符串。该第二卷积神经网络输出的数据为图片。
可选地,上述第三卷积神经网络为提取监控风格特征编码的初始网络模型。上述第三卷积神经网络可接受的输入数据为图片,该第三卷积神经网络输出的数据为多个属于(-∞,+∞)区间的数字组成的字符串。
可选地,上述第四卷积神经网络为基于输入的特征编码解码出监控风格图像的初始网络模型。上述第四卷积神经网络可接受的输入数据是由多个属于(-∞,+∞)区间的数字组成的字符串,该第四卷积神经网络输出的数据为图片。
可选地,上述第五卷积神经网络为识别所述输入图像的监控风格程度的初始网络模型。
可选地,上述第六卷积神经网络为识别输入图像的生活风格程度的初始网络模型。
可选地,上述预选的常规人脸识别模型可接受的输入数据为图片,输出数据为多个(-∞,+∞)上的数字组成的数组。这个网络是直接利用生活照训练好的对人脸进行特征提取的网络。该常规人脸识别模型能把一张人脸图片转化成一个若干维的特征向量。可以理解地,利用常规人脸识别模型可以帮助第二卷积神经网络和第四卷积神经网络输出的图像中人物不失真,也就是,确保经过风格转换后,图像中的人脸依然能与人物标签对应。
在本发明实施例中,常规人脸识别模型的模型参数在此步骤之前已经确定。上述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络在训练过程中彼此配合,四个模型同时进行模型参数迭代。
可选地,如图4所示,上述步骤S202包括如下子步骤:
子步骤S2021,从生活照样本图像集中随机获取第一样本图及从监控照样本图像集中随机获取第二样本图。
子步骤S2022,利用所述第一样本图和所述第二样本图,结合所述第一卷积神经网络、所述第二卷积神经网络、所述第三卷积神经网络、所述第四卷积神经网络、第五卷积神经网络及第六卷积神经网络,对所述第五卷积神经网络的模型参数进行迭代得到第三模型和对所述第六卷积神经网络的模型参数进行迭代得到第四模型。
可选地,上述第三模型为用于识别输入图像的监控风格程度的模型。上述第三模型可接受的输入数据为图片,该第三模型输出的数据为属于(0,1)之间的一个数字,即作为表征上述监控风格程度的数值,以下称之为监控风格值。可以理解地,若输入第三模型的图像为监控照,则输出的值尽量接近1,若输入第三模型的图像为经过第二模型处理后得到的监控风格图像时,输出的值尽量接近0。可以理解地,利用第三模型可以帮助第四卷积神经网络输出的监控风格图像接近真实的监控照。
可选地,上述第四模型为用于识别输入图像的生活风格程度的模型。上述第四模型可接受的输入数据为图片,该第四模型输出的数据为属于(0,1)之间的一个数字,即作为表征上述生活风格程度的数值,以下称之为生活风格值。可以理解地,若输入第四模型的图像为生活照,则输出的值尽量接近1,若输入第四模型的图像为经过处理后得到的生活风格图像时,输出的值尽量接近0。可以理解地,利用第四模型可以帮助第二卷积神经网络输出的生活风格图像接近真实的生活照。
作为一种实施方式,上述子步骤S2022中对所述第五卷积神经网络的模型参数进行迭代得到第三模型的步骤包括:首先,从生活照样本图像集中随机获取第一样本图及从监控照样本图像集中随机获取第二样本图。其次,将第一样本图输入第一卷积神经网络得到第一输出编码特征;将所述第一输出编码特征输入所述第四卷积神经网络得到第二输出图像;将所述第二输出图像输入所述第五卷积神经网络得到第二监控风格值;将所述第二样本图输入所述第五卷积神经网络得到第三监控风格值。最后,根据第二监控风格值及所述第三监控风格值,利用损失函数:
Figure BDA0002213313670000121
对所述第五卷积神经网络的模型参数进行迭代得到所述第三模型,
Figure BDA0002213313670000122
代表第二监控风格值;
Figure BDA0002213313670000123
代表第三监控风格。
作为一种实施方式,上述子步骤S2022中对第六卷积神经网络的模型参数进行迭代得到第四模型的步骤包括:从所述生活照样本图像集中随机获取第一样本图及从所述监控照样本图像集中随机获取第二样本图;将所述第二样本图输入所述第三卷积神经网络得到第三输出编码特征;将所述第三输出编码特征输入所述第二卷积神经网络得到第五输出图像;将所述第五输出图像输入所述第六卷积神经网络得到第二生活风格值;将所述第一样本图输入所述第六卷积神经网络得到第三生活风格值;根据所述第二生活风格值及所述第三生活风格值,利用损失函数:
Figure BDA0002213313670000124
对所述第六卷积神经网络的模型参数进行迭代得到所述第四模型;
Figure BDA0002213313670000125
代表第二生活风格值;
Figure BDA0002213313670000126
代表第三生活风格值。
子步骤S2023,将第一样本图输入彼此配合的上述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、上述第三模型、第四模型及常规人脸识别模型,得到对应的输出数据。
在本发明实施例中,结合图5参考,上述子步骤S2023可以是:将所述第一样本图Xb输入第一卷积神经网络Eb0得到第一输出编码特征hb;将所述第一输出编码特征hb输入所述第二卷积神经网络DEb0得到第一输出图像Xbb;将所述第一输出编码特征hb输入所述第四卷积神经网络DEa0得到第二输出图像Xba;将所述第二输出图像Xba输入第三模型DISa得到第一监控风格值
Figure BDA0002213313670000135
将所述第二输出图像Xba输入所述第三卷积神经网络Ea0得到第二输出编码特征hba;将所述第二输出编码特征hba输入所述第二卷积神经网络DEb0得到第三输出图像Xbab;将所述第二输出图像Xba输入所述常规人脸识别模型F得到第一人脸特征fba;将所述第一样本图Xb输入所述常规人脸识别模型F得到第二人脸特征fb
子步骤S2024,根据第一输出图像、第一样本图、第一输出编码特征、第三输出图像、第二输出编码特征、第一监控风格值、第一人脸特征和第二人脸特征,利用以下损失函数之一或者多个之间的组合:
L1=MAE(xbb-xb),
Figure BDA0002213313670000131
L3=MAE(xbab-xb),
Figure BDA0002213313670000132
Figure BDA0002213313670000133
Figure BDA0002213313670000134
对第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络的模型参数进行同步迭代,以得到所述第一模型及所述第二模型。
可以理解地,虽然第一模型是由第一卷积神经网络训练得到、第二模型是由第四卷积神经网络训练得到,但是第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络在每一轮实际训练过程中,四个模型的模型参数会同步迭代。
在本发明实施例中,依据第一输出图像、第一样本图、第一输出编码特征、第三输出图像、第二输出编码特征、第一监控风格值、第一人脸特征和第二人脸特征,依次结合上述损失函数对第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络的模型参数执行一次同步迭代,以便于损失函数逐次收敛。可以理解地,L1代表定义的第一损失函数,xbb代表所述第一输出图像,xb代表所述第一样本图,MAE代表计算平均绝对误差;L2代表定义的第二损失函数,hb代表所述第一输出编码特征,n1代表所述第一输出编码特征的维度;L3代表定义的第三损失函数,xbab代表所述第三输出图像;L4代表定义的第四损失函数,hba代表所述第二输出编码特征,n2代表所述第二输出编码特征的维度;L5代表定义的第五损失函数,
Figure BDA0002213313670000141
代表所述第一监控风格值;L6代表定义的第六损失函数,fba代表所述第一人脸特征;fb代表所述第二人脸特征,n3代表所述第一人脸特征的维度。
在其他实施例中,如图6所示,上述步骤S202还可以包括如下子步骤:
子步骤S2025,将第二样本图输入彼此配合的上述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、上述第三模型、第四模型及常规人脸识别模型,得到对应的输出数据。
在本发明实施例中,结合图7参考,上述子步骤S2025可以是:将所述第二样本图Xa输入所述第三卷积神经网络Ea0得到第三输出编码特征ha;将所述第三输出编码特征ha输入所述第四卷积神经网络DEa0得到第四输出图像Xaa;将所述第三输出编码特征ha输入所述第二卷积神经网络DEb0得到第五输出图像Xab;将所述第五输出图像Xab输入所述第四模型DISb得到第一生活风格值
Figure BDA0002213313670000151
将所述第五输出图像Xab输入所述第一卷积神经网络Eb0得到第四输出编码特征hab;将所述第四输出编码特征hab输入第四卷积神经网络DEa0得到第六输出图像Xaba;将第五输出图像Xab输入常规人脸识别模型F得到第三人脸特征fab;将第二样本图输入所述常规人脸识别模型F得到第四人脸特征fa
子步骤S2026,根据第四输出图像、第二样本图、第三输出编码特征、第六输出图像、第四输出编码特征、第一生活风格值、第三人脸特征和第四人脸特征,利用以下损失函数之一或者多个之间的组合:
L7=MAE(xaa-xa),
Figure BDA0002213313670000152
L9=MAE(xaba-xa),
Figure BDA0002213313670000153
Figure BDA0002213313670000154
Figure BDA0002213313670000155
对第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络的模型参数进行同步迭代,以得到所述第一模型及所述第二模型。
在本发明实施例中,依据第四输出图像、第二样本图、第三输出编码特征、第六输出图像、第四输出编码特征、第一生活风格值、第三人脸特征和第四人脸特征,依次结合上述损失函数对第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络的模型参数执行一次同步迭代,以便于损失函数逐次收敛。可以理解地,L7代表定义的第七损失函数,xaa代表所述第四输出图像,xa代表所述第二样本图,MAE代表计算平均绝对误差;L8代表定义的第八损失函数,ha代表所述第三输出编码特征,m1代表所述第三输出编码特征的维度;L9代表定义的第九损失函数,xaba代表所述第六输出图像;L10代表定义的第十损失函数,hab代表所述第四输出编码特征,m2代表所述第四输出编码特征的维度;L11代表定义的第十一损失函数,
Figure BDA0002213313670000161
代表所述第一生活风格值;L12代表定义的第十二损失函数,fab代表所述第三人脸特征;fa代表所述第四人脸特征;m3代表所述第三人脸特征的维度。
经过多个第一样本图和第二样本图对第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络的模型参数进行多次迭代直到模型收敛。之后,在一些实施例中,还可将得到的第一模型和第二模型组成的复合网络,将第一图像输入该复合网络后,得到第二图像。
为了执行上述实施例及各个可能的方式中的相应步骤,下面给出一种人脸识别模型的训练装置300的实现方式,可选地,该人脸识别模型的训练装置300可以采用上述图1所示的电子设备100的器件结构。进一步地,请参阅图8,图8为本发明实施例提供的一种人脸识别模型的训练装置300的功能模块图。需要说明的是,本实施例所提供的人脸识别模型的训练装置300,其基本原理及产生的技术效果和上述实施例相同,为简要描述,本实施例部分未提及之处,可参考上述的实施例中相应内容。该人脸识别模型的训练装置300包括:编码模块301、解码模块302、训练模块303、获取模块304及迭代模块305。
上述编码模块301,用于利用第一模型处理具有人物标签的第一图像,得到第一特征编码;其中,所述第一图像为包含人脸的生活照;所述第一模型为通过训练得到的用于提取生活风格特征编码的模型。
上述解码模块302,用于利用第二模型处理所述第一特征编码得到监控风格的第二图像;其中,所述第二模型处理为通过训练得到的用于解码生成监控风格图像的模型。
上述训练模块303,用于利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到所述人脸识别模型。
上述获取模块304,用于获取生活照样本图像集和监控照样本图像集。
上述迭代模块305,用于利用所述生活照样本图像集和监控照样本图像集,结合第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络、第六卷积神经网络、预选的常规人脸识别模型,对所述第一卷积神经网络的模型参数进行迭代得到所述第一模型和对所述第四卷积神经网络的模型参数进行迭代得到所述第二模型。
可选地,上述模块可以软件或固件(Firmware)的形式存储于图1所示的存储器中或固化于该电子设备的操作系统(Operating System,OS)中,并可由图1中的处理器执行。同时,执行上述模块所需的数据、程序的代码等可以存储在存储器中。
综上所述,本发明实施例提供了一种人脸识别模型的训练方法、装置及电子设备,其中,上述人脸识别模型的训练方法通过利用第一模型处理具有人物标签的第一图像,得到第一特征编码;其中,所述第一图像为包含人脸的生活照;所述第一模型为通过训练得到的用于提取生活风格特征编码的模型;利用第二模型处理所述第一特征编码得到监控风格的第二图像;其中,所述第二模型处理为通过训练得到的用于解码生成监控风格图像的模型;利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到所述人脸识别模型。通过将第一图像进行风格转换为第二图像,从而得到大量的具有人物标签的监控风格图像。利用大量监控风格图像训练得到的人脸识别模型在识别监控图像时准确性高,从而提高该人脸识别模型用于人脸动态布控时的召回率。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种人脸识别模型的训练方法,其特征在于,所述人脸识别模型用于识别监控图像中的人脸;所述人脸识别模型的训练方法包括:
利用第一模型处理具有人物标签的第一图像,得到第一特征编码;其中,所述第一图像为包含人脸的生活照;所述第一模型为通过训练得到的用于提取生活风格特征编码的模型;
利用第二模型处理所述第一特征编码得到监控风格的第二图像;其中,所述第二模型处理为通过训练得到的用于解码生成监控风格图像的模型;
利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到所述人脸识别模型;
其中,所述第一模型和第二模型的生成过程如下:分别通过从获得的生活照样本图像集中随机获取第一样本图及从获得的监控照样本图像集中随机获取第二样本图;利用所述第一样本图和所述第二样本图,结合第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络及第六卷积神经网络,对所述第五卷积神经网络的模型参数进行迭代得到第三模型和对所述第六卷积神经网络的模型参数进行迭代得到第四模型;其中,所述第三模型为用于识别输入图像的监控风格程度的模型;所述第四模型为用于识别输入图像的生活风格程度的模型;将所述第一样本图输入所述第一卷积神经网络得到第一输出编码特征;将所述第一输出编码特征输入所述第二卷积神经网络得到第一输出图像;将所述第一输出编码特征输入所述第四卷积神经网络得到第二输出图像;将所述第二输出图像输入所述第三模型得到第一监控风格值;将所述第二输出图像输入所述第三卷积神经网络得到第二输出编码特征;将所述第二输出编码特征输入所述第二卷积神经网络得到第三输出图像;将所述第二输出图像输入常规人脸识别模型得到第一人脸特征;将所述第一样本图输入所述常规人脸识别模型得到第二人脸特征;根据所述第一输出图像、所述第一样本图、所述第一输出编码特征、所述第三输出图像、所述第二输出编码特征、所述第一监控风格值、所述第一人脸特征和第二人脸特征,对所述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络的模型参数进行同步迭代,以得到所述第一模型和第二模型。
2.根据权利要求1所述的人脸识别模型的训练方法,其特征在于,所述人脸识别模型的训练方法还包括:
获取生活照样本图像集和监控照样本图像集;
利用所述生活照样本图像集和监控照样本图像集,结合第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络、第六卷积神经网络、预选的常规人脸识别模型,对所述第一卷积神经网络的模型参数进行迭代得到所述第一模型和对所述第四卷积神经网络的模型参数进行迭代得到所述第二模型;
其中,所述第一卷积神经网络为提取生活风格特征编码的初始网络模型;所述第二卷积神经网络为基于输入的特征编码解码出生活风格图像的初始网络模型;所述第三卷积神经网络为提取监控风格特征编码的初始网络模型;所述第四卷积神经网络为基于输入的特征编码解码出监控风格图像的初始网络模型;所述第五卷积神经网络为识别输入图像的监控风格程度的初始网络模型;所述第六卷积神经网络为识别所述输入图像的生活风格程度的初始网络模型。
3.根据权利要求2所述的人脸识别模型的训练方法,其特征在于,
根据所述第一输出图像、所述第一样本图、所述第一输出编码特征、所述第三输出图像、所述第二输出编码特征、所述第一监控风格值、所述第一人脸特征和第二人脸特征,利用以下损失函数之一或者多个之间的组合:
L1=MAE(xbb-xb),
Figure FDA0002587937080000031
L3=MAE(xbab-xb),
Figure FDA0002587937080000032
Figure FDA0002587937080000033
Figure FDA0002587937080000034
对所述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络的模型参数进行同步迭代,以得到所述第一模型和第二模型;其中,L1代表定义的第一损失函数,xbb代表所述第一输出图像,xb代表所述第一样本图,MAE代表计算平均绝对误差;L2代表定义的第二损失函数,hb代表所述第一输出编码特征,n1代表所述第一输出编码特征的维度;L3代表定义的第三损失函数,xbab代表所述第三输出图像;L4代表定义的第四损失函数,hba代表所述第二输出编码特征,n2代表所述第二输出编码特征的维度;L5代表定义的第五损失函数,
Figure FDA0002587937080000041
代表所述第一监控风格值;L6代表定义的第六损失函数,fba代表所述第一人脸特征;fb代表所述第二人脸特征,n3代表所述第一人脸特征的维度。
4.根据权利要求3所述的人脸识别模型的训练方法,其特征在于,所述对所述第一卷积神经网络的模型参数进行迭代得到所述第一模型和对所述第四卷积神经网络的模型参数进行迭代得到所述第二模型的步骤还包括:
将所述第二样本图输入所述第三卷积神经网络得到第三输出编码特征;将所述第三输出编码特征输入所述第四卷积神经网络得到第四输出图像;将所述第三输出编码特征输入所述第二卷积神经网络得到第五输出图像;将所述第五输出图像输入所述第四模型得到第一生活风格值;将所述第五输出图像输入所述第一卷积神经网络得到第四输出编码特征;将所述第四输出编码特征输入所述第四卷积神经网络得到第六输出图像;将所述第五输出图像输入所述常规人脸识别模型得到第三人脸特征;将所述第二样本图输入所述常规人脸识别模型得到第四人脸特征;
根据所述第四输出图像、所述第二样本图、所述第三输出编码特征、所述第六输出图像、所述第四输出编码特征、所述第一生活风格值、所述第三人脸特征和第四人脸特征,利用以下损失函数之一或者多个之间的组合:
L7=MAE(xaa-xa),
Figure FDA0002587937080000051
L9=MAE(xaba-xa),
Figure FDA0002587937080000052
Figure FDA0002587937080000053
Figure FDA0002587937080000054
对所述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络的模型参数进行同步迭代,以得到所述第一模型及所述第二模型;其中,L7代表定义的第七损失函数,xaa代表所述第四输出图像,xa代表所述第二样本图,MAE代表计算平均绝对误差;L8代表定义的第八损失函数,ha代表所述第三输出编码特征,m1代表所述第三输出编码特征的维度;L9代表定义的第九损失函数,xaba代表所述第六输出图像;L10代表定义的第十损失函数,hab代表所述第四输出编码特征,m2代表所述第四输出编码特征的维度;L11代表定义的第十一损失函数,
Figure FDA0002587937080000055
代表所述第一生活风格值;L12代表定义的第十二损失函数,fab代表所述第三人脸特征;fa代表所述第四人脸特征;m3代表所述第三人脸特征的维度。
5.根据权利要求3所述的人脸识别模型的训练方法,其特征在于,所述对所述第五卷积神经网络的模型参数进行迭代得到所述第三模型的步骤包括:
将所述第一样本图输入所述第一卷积神经网络得到第一输出编码特征;将所述第一输出编码特征输入所述第四卷积神经网络得到第二输出图像;将所述第二输出图像输入所述第五卷积神经网络得到第二监控风格值;将所述第二样本图输入所述第五卷积神经网络得到第三监控风格值;
根据所述第二监控风格值及所述第三监控风格值,利用损失函数:
Figure FDA0002587937080000061
对所述第五卷积神经网络的模型参数进行迭代得到所述第三模型;其中,L代表所述损失函数;
Figure FDA0002587937080000062
代表第二监控风格值;
Figure FDA0002587937080000063
代表第三监控风格。
6.根据权利要求3所述的人脸识别模型的训练方法,其特征在于,所述对所述第六卷积神经网络的模型参数进行迭代得到所述第四模型的步骤包括:
将所述第二样本图输入所述第三卷积神经网络得到第三输出编码特征;将所述第三输出编码特征输入所述第二卷积神经网络得到第五输出图像;将所述第五输出图像输入所述第六卷积神经网络得到第二生活风格值;将所述第一样本图输入所述第六卷积神经网络得到第三生活风格值;
根据所述第二生活风格值及所述第三生活风格值,利用损失函数:
Figure FDA0002587937080000064
对所述第六卷积神经网络的模型参数进行迭代得到所述第四模型;
Figure FDA0002587937080000065
代表第二生活风格值;
Figure FDA0002587937080000066
代表第三生活风格值。
7.一种人脸识别模型的训练装置,其特征在于,所述人脸识别模型用于识别监控图像中的人脸;所述人脸识别模型的训练装置包括:
编码模块,用于利用第一模型处理具有人物标签的第一图像,得到第一特征编码;其中,所述第一图像为包含人脸的生活照;所述第一模型为通过训练得到的用于提取生活风格特征编码的模型;
解码模块,用于利用第二模型处理所述第一特征编码得到监控风格的第二图像;其中,所述第二模型处理为通过训练得到的用于解码生成监控风格图像的模型;
训练模块,用于利用所述第二图像及对应的人物标签,训练预设的深度学习模型,得到所述人脸识别模型;
其中,所述第一模型和第二模块的生成过程如下:分别通过从获得的生活照样本图像集中随机获取第一样本图及从获得的监控照样本图像集中随机获取第二样本图;利用所述第一样本图和所述第二样本图,结合第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络及第六卷积神经网络,对所述第五卷积神经网络的模型参数进行迭代得到第三模型和对所述第六卷积神经网络的模型参数进行迭代得到第四模型;其中,所述第三模型为用于识别输入图像的监控风格程度的模型;所述第四模型为用于识别输入图像的生活风格程度的模型;将所述第一样本图输入所述第一卷积神经网络得到第一输出编码特征;将所述第一输出编码特征输入所述第二卷积神经网络得到第一输出图像;将所述第一输出编码特征输入所述第四卷积神经网络得到第二输出图像;将所述第二输出图像输入所述第三模型得到第一监控风格值;将所述第二输出图像输入所述第三卷积神经网络得到第二输出编码特征;将所述第二输出编码特征输入所述第二卷积神经网络得到第三输出图像;将所述第二输出图像输入常规人脸识别模型得到第一人脸特征;将所述第一样本图输入所述常规人脸识别模型得到第二人脸特征;根据所述第一输出图像、所述第一样本图、所述第一输出编码特征、所述第三输出图像、所述第二输出编码特征、所述第一监控风格值、所述第一人脸特征和第二人脸特征,对所述第一卷积神经网络、第二卷积神经网络、第三卷积神经网络及第四卷积神经网络的模型参数进行同步迭代,以得到所述第一模型和第二模型。
8.根据权利要求7所述的人脸识别模型的训练装置,其特征在于,所述人脸识别模型的训练装置还包括:
获取模块,用于获取生活照样本图像集和监控照样本图像集;
迭代模块,用于利用所述生活照样本图像集和监控照样本图像集,结合第一卷积神经网络、第二卷积神经网络、第三卷积神经网络、第四卷积神经网络、第五卷积神经网络、第六卷积神经网络、预选的常规人脸识别模型,对所述第一卷积神经网络的模型参数进行迭代得到所述第一模型和对所述第四卷积神经网络的模型参数进行迭代得到所述第二模型;
其中,所述第一卷积神经网络为提取生活风格特征编码的初始网络模型;所述第二卷积神经网络为基于输入的特征编码解码出生活风格图像的初始网络模型;所述第三卷积神经网络为提取监控风格特征编码的初始网络模型;所述第四卷积神经网络为基于输入的特征编码解码出监控风格图像的初始网络模型;所述第五卷积神经网络为识别输入图像的监控风格程度的初始网络模型;所述第六卷积神经网络为识别所述输入图像的生活风格程度的初始网络模型。
9.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器可执行所述机器可执行指令以实现权利要求1-6任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
CN201910906112.6A 2019-09-24 2019-09-24 人脸识别模型的训练方法、装置及电子设备 Active CN110619315B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910906112.6A CN110619315B (zh) 2019-09-24 2019-09-24 人脸识别模型的训练方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910906112.6A CN110619315B (zh) 2019-09-24 2019-09-24 人脸识别模型的训练方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN110619315A CN110619315A (zh) 2019-12-27
CN110619315B true CN110619315B (zh) 2020-10-30

Family

ID=68924186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910906112.6A Active CN110619315B (zh) 2019-09-24 2019-09-24 人脸识别模型的训练方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN110619315B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667014B (zh) * 2020-06-11 2022-12-02 重庆紫光华山智安科技有限公司 训练方法、图像编辑方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090406A (zh) * 2016-11-23 2018-05-29 浙江宇视科技有限公司 人脸识别方法及系统
CN108256439A (zh) * 2017-12-26 2018-07-06 北京大学 一种基于循环生成式对抗网络的行人图像生成方法及系统
CN108564127A (zh) * 2018-04-19 2018-09-21 腾讯科技(深圳)有限公司 图像转换方法、装置、计算机设备及存储介质
CN108875559A (zh) * 2018-04-27 2018-11-23 中国科学院自动化研究所 基于证件照与现场照的人脸识别方法及系统
CN109508669A (zh) * 2018-11-09 2019-03-22 厦门大学 一种基于生成式对抗网络的人脸表情识别方法
CN109829537A (zh) * 2019-01-30 2019-05-31 华侨大学 基于深度学习gan网络童装服装的风格转移方法及设备
CN109934116A (zh) * 2019-02-19 2019-06-25 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339607B (zh) * 2008-08-15 2012-08-01 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
AU2017101166A4 (en) * 2017-08-25 2017-11-02 Lai, Haodong MR A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks
CN108133238B (zh) * 2017-12-29 2020-05-19 国信优易数据有限公司 一种人脸识别模型训练方法和装置及人脸识别方法和装置
CN110135574A (zh) * 2018-02-09 2019-08-16 北京世纪好未来教育科技有限公司 神经网络训练方法、图像生成方法及计算机存储介质
CN108596024B (zh) * 2018-03-13 2021-05-04 杭州电子科技大学 一种基于人脸结构信息的肖像生成方法
US10314477B1 (en) * 2018-10-31 2019-06-11 Capital One Services, Llc Systems and methods for dynamically modifying visual content to account for user visual impairment
CN109544442B (zh) * 2018-11-12 2023-05-23 南京邮电大学 基于双重对抗的生成式对抗网络的图像局部风格迁移方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090406A (zh) * 2016-11-23 2018-05-29 浙江宇视科技有限公司 人脸识别方法及系统
CN108256439A (zh) * 2017-12-26 2018-07-06 北京大学 一种基于循环生成式对抗网络的行人图像生成方法及系统
CN108564127A (zh) * 2018-04-19 2018-09-21 腾讯科技(深圳)有限公司 图像转换方法、装置、计算机设备及存储介质
CN108875559A (zh) * 2018-04-27 2018-11-23 中国科学院自动化研究所 基于证件照与现场照的人脸识别方法及系统
CN109508669A (zh) * 2018-11-09 2019-03-22 厦门大学 一种基于生成式对抗网络的人脸表情识别方法
CN109829537A (zh) * 2019-01-30 2019-05-31 华侨大学 基于深度学习gan网络童装服装的风格转移方法及设备
CN109934116A (zh) * 2019-02-19 2019-06-25 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Camera Style Adaptation for Person Re-identification;Zhun Zhong et al;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20180623;正文第1节、第3节 *
CamStyle: A Novel Data Augmentation Method for Person Re-Identification;Zhun Zhong et al;《 IEEE Transactions on Image Processing》;20190331;第28卷(第3期);第1176-1190页 *
Domain Adaptive Person Re-Identification via Camera Style Generation and Label Propagation;Chuan-Xian Ren et al;《 IEEE Transactions on Information Forensics and Security 》;20190905;第1290-1302页 *
Person Transfer GAN to Bridge Domain Gap for Person Re-Identification;Longhui Wei et al;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20180623;第79-88页 *
Targeted style transfer using cycle consistent generative adversarial networks with quantitative analysis of different loss functions1;kaur,Mannat et al;《International Journal of Knowledge-based and Intelligent Engineering Systems》;20181224;第22卷(第4期);正文第1-2节 *

Also Published As

Publication number Publication date
CN110619315A (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
US11270099B2 (en) Method and apparatus for generating facial feature
CN110210513B (zh) 数据分类方法、装置及终端设备
CN110929622A (zh) 视频分类方法、模型训练方法、装置、设备及存储介质
US11288851B2 (en) Signal change apparatus, method, and program
CN111553267B (zh) 图像处理方法、图像处理模型训练方法及设备
CN112200081A (zh) 异常行为识别方法、装置、电子设备及存储介质
CN108388889B (zh) 用于分析人脸图像的方法和装置
KR101996371B1 (ko) 영상 캡션 생성 시스템과 방법 및 이를 위한 컴퓨터 프로그램
CN114972929B (zh) 一种医学多模态模型的预训练方法及装置
CN112883980B (zh) 一种数据处理方法及系统
CN107609487B (zh) 一种用户头像的生成方法和装置
CN112949750A (zh) 一种图像分类方法及计算机可读存储介质
CN110619315B (zh) 人脸识别模型的训练方法、装置及电子设备
CN114170468B (zh) 文本识别方法、存储介质及计算机终端
CN114332911A (zh) 一种头部姿态检测方法、装置及计算机设备
CN113283336A (zh) 一种文本识别方法与系统
CN116486308A (zh) 基于智慧教育的教学管理系统及其方法
CN114596618A (zh) 戴口罩的人脸识别训练方法、装置、电子设备及存储介质
CN108764248B (zh) 图像特征点的提取方法和装置
CN116933137A (zh) 脑电跨被试的情绪识别方法、装置、设备及介质
CN113393544A (zh) 一种图像处理方法、装置、设备及介质
Rafiq et al. Real-time vision-based bangla sign language detection using convolutional neural network
CN116094971A (zh) 一种工控协议识别方法、装置、电子设备及存储介质
CN113255402A (zh) 动作识别方法、装置以及电子设备
CN111832364A (zh) 一种人脸识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant