CN110390254A - 基于人脸的性格分析方法、装置、计算机设备及存储介质 - Google Patents

基于人脸的性格分析方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN110390254A
CN110390254A CN201910441885.1A CN201910441885A CN110390254A CN 110390254 A CN110390254 A CN 110390254A CN 201910441885 A CN201910441885 A CN 201910441885A CN 110390254 A CN110390254 A CN 110390254A
Authority
CN
China
Prior art keywords
personality
analyzed
facial image
neural networks
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910441885.1A
Other languages
English (en)
Other versions
CN110390254B (zh
Inventor
汪飙
宋晨
陆进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910441885.1A priority Critical patent/CN110390254B/zh
Publication of CN110390254A publication Critical patent/CN110390254A/zh
Application granted granted Critical
Publication of CN110390254B publication Critical patent/CN110390254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于人脸的性格分析方法、装置、计算机设备及存储介质,所述方法包括:获取卡特尔十六种人格因素作为待分析性格,并训练每一待分析性格对应的全卷积神经网络;获取待识别的人脸图像,并对所述人脸图像执行预处理;遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性格分析;获取每一待分析性格对应的全卷积神经网络输出的热图,其中,所述热图通过不同的色彩表示人脸的不同区域对所述待分析性格的响应程度。本发明解决了现有技术在性格分析时存在的特征提取准确率欠佳、难以直观表达人脸与性格的关系的问题。

Description

基于人脸的性格分析方法、装置、计算机设备及存储介质
技术领域
本发明涉及信息技术领域,尤其涉及一种基于人脸的性格分析方法、装 置、计算机设备及存储介质。
背景技术
现有基于人脸的性格识别主要是基于中国传统的性格知识库,比如《人 脸面部属性估计与老化合成研究》提出的一种基于性格知识库的人脸性格估 计方法,在知识库中存储着人脸面部的属性值对应着的人的性格的描述词, 通过查询知识库得到人脸性格,该方法过度依赖性格知识库,且无法评估人 脸对性格影响的主要区域。为了摆脱对知识库的依赖,《基于人脸表情识别 的视觉应用研究与实现》提出了一种基于LBP纹理特征与KPCA特征的人脸 表情特征提取方法,建立了基于FCBR(模糊逻辑与案例推理)的表情分类方 法,以及表情与心情之间的转换方程,然而该方法使用传统特征提取方式, 特征提取准确率欠佳,难以直观地探寻到人脸与性格的真实直接关系。可见, 现有技术还没有科学的人脸-性格预测方法。
因此,寻找一种提高人脸特征提取准确率、实现视觉上的人脸和性格的 分析方法成为本领域技术人员亟需解决的问题。
发明内容
本发明实施例提供了一种基于人脸的性格分析方法、装置、计算机设备 及存储介质,以解决现有技术在性格分析时存在的特征提取准确率欠佳、难 以直观表达人脸与性格的关系的问题。
一种基于人脸的性格分析方法,包括:
获取卡特尔十六种人格因素作为待分析性格,并训练每一待分析性格对 应的全卷积神经网络;
获取待识别的人脸图像,并对所述人脸图像执行预处理;
遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待 分析性格对应的全卷积神经网络,以对所述人脸图像执行性格分析;
获取每一待分析性格对应的全卷积神经网络输出的热图,其中,所述热 图通过不同的色彩表示人脸的不同区域对所述待分析性格的响应程度。
进一步地,所述训练每一待分析性格对应的全卷积神经网络包括:
获取若干用户的多张人脸图像作为训练样本集;
遍历所述训练样本集中的每一张人脸图像,对所述人脸图像执行预处理;
获取所述训练样本集中每一用户关于每一所述待分析性格的性格分数, 将每一所述性格分数量化为性格标签;
将同一用户关于每一所述待分析性格的性格标签作为所述用户的人脸图 像的性格标签;
遍历每一待分析性格,将所述训练样本集中每一用户的人脸图像以及所 述待分析性格对应的性格标签作为输入传入所述待分析性格对应的全卷积神 经网络,以对所述待分析性格的全卷积神经网络进行训练。
进一步地,所述获取所述训练样本集中每一用户关于每一所述待分析性 格的性格分数,将每一所述性格分数量化为性格标签包括:
获取训练样本集中每一用户的人格因素问卷调查结果,得到每一用户关 于每一所述待分析性格的原始分;
按照预设的常模表将每一用户关于每一所述待分析性格的原始分转换为 标准分;
对每一用户关于每一所述待分析性格的标准分执行量化处理,得到每一 用户关于每一所述待分析性格的性格标签。
进一步地,所述遍历每一待分析性格,将所述训练样本集中每一用户的 人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格 对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练包 括:
获取待分析性格及其对应的全卷积神经网络;
将训练样本集中每一用户的人脸图像以及所述待分析性格的性格标签传 入所述全卷积神经网络,通过所述全卷积神经网络的卷积层对所述人脸图像 执行特征提取;
对全卷积神经网络中的若干个卷积层的输出执行反卷积操作,得到和所 述人脸图像相同大小的特征图;
根据所述特征图中每个矩阵像素的预测结果对所述特征图进行色彩编 码,得到所述人脸图像的热图。
进一步地,所述对所述人脸图像执行预处理包括:
检测所述人脸图像中的人脸位置;
根据所述人脸位置将所述人脸图像对齐到人脸标准图。
进一步地,所述遍历每一待分析性格,将预处理后的所述人脸图像作为 输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性 格分析包括:
遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待 分析性格对应的全卷积神经网络,通过所述全卷积神经网络的卷积层对所述 人脸图像执行特征提取,得到高层级语义特征图;
获取所述全卷积神经网络的一个卷积层输出的低层级语义特征图,并按 照所述低层级语义特征图的大小对所述高层级语义特征图进行上采样;
将上采样后的所述高层级语义特征图与低层级语义特征图进行融合,得 到融合特征图;
按照所述人脸图像的大小对所述融合特征图进行上采样,得到所述人脸 图像的热图。
一种基于人脸的性格分析装置,包括:
训练模块,用于获取卡特尔十六种人格因素作为待分析性格,并训练每 一待分析性格对应的全卷积神经网络;
预处理模块,用于获取待识别的人脸图像,并对所述人脸图像执行预处 理;
分析模块,用于遍历每一待分析性格,将预处理后的所述人脸图像作为 输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性 格分析;
获取模块,用于获取每一待分析性格对应的全卷积神经网络输出的热图, 其中,所述热图通过不同的色彩表示人脸的不同区域对所述待分析性格的响 应程度。
进一步地,所述训练模块包括:
获取单元,用于获取若干用户的多张人脸图像作为训练样本集;
预处理单元,用于遍历所述训练样本集中的每一张人脸图像,对所述人 脸图像执行预处理;
量化单元,用于获取所述训练样本集中每一用户关于每一所述待分析性 格的性格分数,将每一所述性格分数量化为性格标签;
标签单元,用于将同一用户关于每一所述待分析性格的性格标签作为所 述用户的人脸图像的性格标签;
训练单元,用于遍历每一待分析性格,将所述训练样本集中每一用户的 人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格 对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在 所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上 述基于人脸的性格分析方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程 序,所述计算机程序被处理器执行时实现上述基于人脸的性格分析方法。
本发明实施例通过获取卡特尔十六种人格因素作为待分析性格,构建并 训练每一待分析性格对应的全卷积神经网络;在执行性格分析时,获取待识 别的人脸图像,并对所述人脸图像执行预处理;然后遍历每一待分析性格, 将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积神经 网络,以对所述人脸图像执行性格分析;最后获取每一待分析性格对应的全 卷积神经网络输出的热图,其中,所述热图通过不同的色彩表示人脸的不同 区域对所述待分析性格的响应程度。本发明通过采用基于深度学习的卷积神 经网络,提高了特征提取的准确率;通过采用全卷积神经网络输出热图,得 到人脸不同区域与性格之间的关系,实现了视觉上的人脸和性格的分析。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的 描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅 仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性 劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于人脸的性格分析方法的一流程图;
图2是本发明一实施例中步骤S102所述的对所述人脸图像执行预处理的 一流程图;
图3是本发明一实施例中步骤S103所述的将预处理后的所述人脸图像作 为输入传入所述待分析性格对应的全卷积神经网络的一流程图;
图4是本发明一实施例中预处理后的人脸图像以及待分析性格中乐群性 的热图,其中图4(a)为预处理后的人脸图像,图4(b)为乐群性的热图;
图5是本发明一实施例中步骤S101中的训练待分析性格对应的全卷积神 经网络的一流程图;
图6是本发明一实施例中步骤S503的一流程图;
图7是本发明一实施例中步骤S505的一流程图;
图8是本发明一实施例中基于人脸的性格分析装置的一原理框图;
图9是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行 清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是 全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创 造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的基于人脸的性格分析方法应用于服务器。所述服务 器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。在一实 施例中,如图1所示,提供一种基于人脸的性格分析方法,包括如下步骤:
在步骤S101中,获取卡特尔十六种人格因素作为待分析性格,并训练每 一待分析性格对应的全卷积神经网络。
在本实施例中,所述待分析性格为根据卡特尔十六种人格因素问卷(16Personality Factor,16PF)细分的十六种性格特质,包括乐群性、聪慧性、稳 定性、恃强性、兴奋性、有恒性、敢为性、敏感性、怀疑性、幻想性、世故 性、忧虑性、实验性、独立性、自律性、紧张性,一种人格因素对应一种待 分析性格。对于每一待分析性格,预先构建并训练其对应的全卷积神经网络, 得到16种全卷积神经网络。本实施例采用16PF方法来细化不同的性格类别, 相比于现有技术采用基于性格知识库的方法,能够更合理、客观地反映出个体的真实性格,提高人脸与性格关系分析的实用性。
然后遍历每一待分析性格,训练其对应的全卷积神经网络(Fully ConvolutionalNetworks,FCN)。在本实施例中,每一待分析性格对应一个全 卷积神经网络,通过所述全卷积神经网络可以得到所述待分析性格的热图, 应用于本发明实施例提供的基于人脸的性格分析方法。
在步骤S102中,获取待识别的人脸图像,并对所述人脸图像执行预处理。
在本发明实施例中,可以根据实际需要或者应用场景的需要获取待识别 的人脸图像。例如,服务器可以从预设数据库中获取待识别的人脸图像,所 述预设数据库中预先收集了大量的人脸图像。又例如,服务器可以在AI面试、 晋升评估、犯罪预测等指定的应用场合下获取终端上传的人脸图像作为待识 别的人脸图像。可以理解的是,服务器还可以通过多种方式获取到待识别的 人脸图像,此处不再过多赘述。
在使用全卷积神经网络之前,本实施例首先对待识别的人脸图像进行预 处理,以提高对人脸与性格关系分析的准确度。可选地,如图2所示,步骤 S102所述的对所述人脸图像执行预处理包括:
在步骤S201中,检测所述人脸图像中的人脸位置。
服务器获取到的人脸图像中人脸的位置可能是倾斜的,需要执行人脸检 测。在这里,检测人脸位置是指在图像中检测人脸的位置以及定位两只眼睛、 鼻子、左嘴角和右嘴角五个特征。检测方法包括但不限于方向梯度直方图 (Histogram of OrientedGradient,HOG)特征提取法、支持向量机特征提取法 (Support Vector Machine,SVM)、强级联卷积神经网络(Compact CascadeCNN)、多任务级联卷积神经网络(Multi-task CNN)。
在步骤S202中,根据所述人脸位置将所述人脸图像对齐到人脸标准图。
为了提高全卷积网络对人脸识别的精度,从人脸图像中检测到人脸后, 还需要对所述人脸进行对齐。可选地,在得到人脸框以及两只眼睛、鼻子、 左嘴角和右嘴角五个特征点后,可以以两只眼睛位置为关键点,通过OpenCV 里的仿射变换,使所述人脸框对齐,即将所述人脸图像对齐到人脸标准图。 在这里,所述人脸标准图为前视角观看到的人脸图。
在步骤S103中,遍历每一待分析性格,将预处理后的所述人脸图像作为 输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性 格分析。
与卷积神经网络将卷积层产生的特征图通过全连接层映射成一个固定长 度的特征向量不同,全卷积神经网络通过使用卷积层替换全连接层,实现了 对图像进行像素级的分类,从而解决了语义级别的图像分割(semantic segmentation)问题。全卷积神经网络可以接受任意尺寸的输入图像,采用反 卷积层对最后一个卷积层的特征图进行上采样,使它恢复到输入图像相同的 尺寸,从而可以对每个像素都产生了一个预测,同时保留了原始输入图像中的 空间信息,最后在上采样的特征图上进行逐像素分类。如图3所示,所述步骤S103将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积 神经网络包括:
在步骤S301中,遍历每一待分析性格,将预处理后的所述人脸图像作为 输入传入所述待分析性格对应的全卷积神经网络,通过所述全卷积神经网络 的卷积层对所述人脸图像执行特征提取,得到高层级语义特征图。
如前所述,全卷积神经网络使用卷积层替换了全连接层,即全卷积神经 网络包括若干层卷积层。可选地,每一所述卷积层后还可以包括池化层,每 一层卷积层通过预设的卷积核对所述人脸图像进行特征提取,并通过池化层 对所述提取的特征进行缩减。为了便于描述,本实施例定义经过全卷积神经 网络的所有卷积层后输出的特征图为高层级语义特征图,而其中任一卷积层 后输出的特征图为低层级语义特征图。相比于现有技术基于局部二值模式 (Local Binary Pattern,LBP)特征、方向梯度直方图(Histogram ofOriented Gradient,HOG)特征、Gabor特征或者核主成分分析(Kernel PrincipalComponent Analysis,KPCA)特征,本实施例采用卷积神经网络来提取人脸特 征,能够更科学、有效地根据任务提取人脸的主要特征,提高特征提取的准 确性。
在步骤S302中,获取所述全卷积神经网络的一个卷积层输出的低层级语 义特征图,并按照所述低层级语义特征图的大小对所述高层级语义特征图进 行上采样。
在这里,对高层级语义特征图进行上采样还原的是最后一层卷积层得到 的特征,精度较低。为了提高上采样得到的热图的精度和分类能力,本实施 例使用低层级语义特征图来对所述高层级语义特征图进行细节补充。在得到 高层级语义特征图后,从所述全卷积神经网络中获取一个卷积层输出的低层 级语义特征图,并按照该卷积层的卷积核大小对所述高层级语义特征图进行 反卷积操作,使得所述高层级语义特征图上采样为与所述低层级语义特征图 相同大小。在这里,上采样,也即插值处理,主要目的是放大图像,提高分辨率。如果上采样系数为k,则在原图n与n+1两点之间插入k-1个点,使其 构成k分。可选地,本发明实施例采用双线性插值法对所述高层级语义特征 图上采样至所述低层级语义特征图的大小,即对所述高层级语义特征图的每 行插值完之后对于每列也进行插值。
在步骤S303中,将上采样后的所述高层级语义特征图与低层级语义特征 图进行融合,得到融合特征图。
将上采样后的所述高层级语义特征图与所述低层级语义特征图进行融 合,以补充所述高层级语义特征图中的细节。由于上采样后的所述高层级语 义特征图和低层级语义特征图为具有相同尺寸的分类置信度图,所述分类置 信度通过特征图中的每一个像素的颜色值表示。作为本发明的一个优选示例, 在进行融合时,可以通过对上采样后的所述高层级语义特征图和低层级语义 特征图中相同位置的像素的颜色值执行相加求和,从而得到所述融合特征图。
在步骤S304中,按照所述人脸图像的大小对所述融合特征图进行上采样, 得到所述人脸图像的热图。
在得到融合特征图之后,在按照所述人脸图像的大小对所述融合特征图 进行上采样,所得到的图像作为所述人脸图像的热图。在所述热图中,人脸 图像中不同人脸区域对所述待分析性格的响应强度通过不同的色彩展示。可 选地,所述响应强度可以划分为10个强度,分别为0、1、2、3、4、5、6、7、 8、9共10个强度,其中强度0表示对所述待分析性格的响应强度最低,在热 图中通过蓝色展示;强度9表示对所述待分析性格的响应强度最强,在热图 中通过红色展示。
在步骤S104中,获取每一待分析性格对应的全卷积神经网络输出的热图, 其中,所述热图通过不同的色彩表示人脸的不同区域对所述待分析性格的响 应程度。
针对每一种待分析性格,获取其对应的全卷积神经网络;然后将所述人 脸图像传入所述待分析性格的全卷积神经网络,得到所述全卷积神经网络输 出的所述待分析性格的热图。如前所述,所述热图通过不同的色彩展示了人 脸图像中不同人脸区域对所述待分析性格的响应强度。通过分析所述若干种 待分析性格对应的热图,可以得到人脸对性格影响的主要区域,实现了直观、 形象地观察和总结人脸与性格的关联关系。
示例性地,图4给出了本实施例提供的预处理后的人脸图像以及待分析 性格中乐群性的热图。图4(a)为预处理后的人脸图像,图4(b)为乐群性 的热图。应当理解,所述热图在实际中是彩色图像,这里处理成黑白图像, 其中通过白色表示热图中的红色,通过黑色表示热图中的蓝色,通过不同的 灰度表示红色至蓝色之间的色彩。因此,从图4(b)中,可以直观地观察到 下巴部分呈现白色,说明在热图中是呈红色的,对应强度9,因此下巴部分对乐群性的响应较强;头顶部分呈现黑色,说明在热图中呈蓝色的,对应强度0, 因此头顶部分对乐群性的响应较弱;其他待分析性格以此类推;从而实现了 视觉上对人脸与性格的分析,能够直观、形象地观察和总结人脸与性格的关 联关系。
综上所述,本实施例通过获取卡特尔十六种人格因素作为待分析性格, 构建并训练每一待分析性格对应的全卷积神经网络;在执行性格分析时,获 取待识别的人脸图像,并对所述人脸图像执行预处理;然后遍历每一待分析 性格,将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷 积神经网络,以对所述人脸图像执行性格分析;最后获取每一待分析性格对 应的全卷积神经网络输出的热图,其中,所述热图通过不同的色彩表示人脸 的不同区域对所述待分析性格的响应程度。本发明实施例通过采用深度学习的卷积神经网络,提高了特征提取的准确率;通过采用全卷积神经网络,得 到人脸不同区域与性格之间的关系,实现了视觉上的人脸和性格的分析。
在本发明实施例中,每一所述待分析性格类型分别对应一个全卷积神经 网络,其训练方式相同。为便于理解,下面将对全卷积神经网络的训练过程 进行详细描述。如图5所示,步骤S101所述的训练每一种待分析性格对应的 全卷积神经网络包括:
在步骤S501中,获取若干用户的多张人脸图像作为训练样本集。
在这里,所述训练样本集中的人脸图像数量与待分析性格类型相关,每 一个用户对应多张人脸图像,可以根据实际的训练需求设置,此处不做限定。
在步骤S502中,遍历所述训练样本集中的每一张人脸图像,对所述人脸 图像执行预处理。
在这里,对所述人脸图像执行预处理与上述步骤S102中所述的对人脸图 像执行预处理相同,包括人脸检测和人脸对齐,具体请参见上述实施例的叙 述,此处不再赘述。
本发明实施例以预处理后的所述人脸图像作为所述全卷积神经网络的输 入对所述全卷积神经网络进行训练。每次训练若干张人脸图像。
在步骤S503中,获取所述训练样本集中每一用户关于每一所述待分析性 格的性格分数,将每一所述性格分数量化为性格标签。
在这里,所述性格分数通过卡特尔十六种人格因素问卷调查得到。中国 成人十六种人格因素常模表是在卡特尔十六种人格因素问卷调查结果表引进 国内时修订的参照标准,以后才可以在国内使用所述卡特尔十六种人格因素 问卷。在中国成人十六种人格因素常模表中,包括男性常模表和女性常模表, 卡特尔十六种人格因素分别对应常模表中的因素A、B、C、E、F、G、H、I、 L、M、N、O、Q1、Q2、Q3、Q4。可选地,如图6所示,所述步骤S503包 括:
在步骤S601中,获取训练样本集中每一用户的人格因素问卷调查结果, 得到每一用户关于每一所述待分析性格的原始分。
在这里,本发明实施例预先对训练样本集中的每个用户进行卡特尔十六 种人格因素问卷调查,一种人格因素对应一种待分析性格。因此,每个人会 得到对应的十六种人格因素的原始分,即十六种待分析性格的原始分。
在步骤S602中,按照预设的常模表将每一用户关于每一所述待分析性格 的原始分转换为标准分。
对于每一个用户,本发明实施例遍历每一种人格因素的原始分,通过查 阅中国成人十六种人格因素男性常模表或者中国成人十六种人格因素女性常 模表,得到所述待分析性格的原始分对应的标准分,以将原始分换算为标准 分。在这里,标准分的范围为1-10共十个等级。
在步骤S603中,对每一用户关于每一所述待分析性格的标准分执行量化 处理,得到每一用户关于每一所述待分析性格的性格标签。
在这里,本发明实施例将每个用户的十六种待分析性格得到的标准分统 一减去1,以将标准分的范围转换成0-9,使得每个用户的十六种待分析性格 被量化成十六个0-9之间的整数标签,共10个等级,得到每个用户的十六种 性格标签,简称16PF标签。一个用户关于一种待分析性格的性格标签表示所 述用户具备所述待分析性格的可能性。其中性格标签9的可能性最大,性格 标签8至1的可能性递减,性格标签0的可能性最小。
在步骤S504中,将同一用户关于每一所述待分析性格的性格标签作为所 述用户的人脸图像的性格标签。
应当理解,每一个用户的人脸图像对应十六种待分析性格的性格标签。
在步骤S505中,遍历每一待分析性格,将所述训练样本集中每一用户的 人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格 对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练。
本发明实施例以所述十六种人格因素中的每一种人格因素作为一个待分 析性格,构建对应的FCN模型。每个待分析性格对应一个FCN模型,通过步 骤S505的训练,可以得到十六个FCN模型。在这里,所述FCN模型包括输 入层、卷积层、最大池化层、反卷积层以及输出层。不同待分析性格对应FCN 模型中的卷积层个数、最大池化层个数、反卷积层个数,可根据具体训练需 求进行增加或删减,此处不做限制。
为了便于理解,以下给出对一个待分析性格训练其FCN模型的具体步骤, 如图7所示,所述步骤S505包括:
在步骤S701中,获取待分析性格及其对应的全卷积神经网络。
在步骤S702中,将训练样本集中每一用户的人脸图像以及所述待分析性 格的性格标签传入所述全卷积神经网络,通过所述全卷积神经网络的卷积层 对所述人脸图像执行特征提取。
在训练时,每个FCN模型只对一种待分析性格进行训练,即只训练一个 类别的性格标签,比如待分析性格A。当FCN模型收敛到指定程度,比如FCN 模型交叉熵损失收敛到0.00001以下,训练集准确率达到99%,测试集准确率 达到90%以上,则停止训练。
在步骤S703中,对全卷积神经网络中的若干个卷积层的输出执行反卷积 操作,得到和所述人脸图像相同大小的特征图。
在这里,所述若干个卷积层根据具体需求设置,不同待分析性格对应的 FCN模型中的反卷积层可以不相同,比如有些反卷积层为3层,此处不作限 制。如前所述,本实施例定义经过全卷积神经网络的所有卷积层后输出的特 征图为高层级语义特征图,而其中任一卷积层后输出的特征图为低层级语义 特征图。所述反卷积操作包括按照所述低层级语义特征图的大小对所述高层 级语义特征图进行上采样,以及将上采样后的所述高层级语义特征图与低层 级语义特征图进行融合,得到的融合特征图即为反卷积操作后得到的特征图。 所述反卷积操作后所得到的特征图中包括若干个矩阵元素的预测结果,每个 矩阵元素的预测结果为所述矩阵元素对应所述人脸图像中的每个像素关于待 分析性格的分类结果。所述分类结果表示每个像素关于待分析性格的响应强 度,因此分类结果的范围与待分析性格对应的性格标签表示的范围相同,即 0-9共十个等级。
在步骤S704中,根据所述特征图中每个矩阵像素的预测结果对所述特征 图进行色彩编码,得到所述人脸图像的热图。
在这里,本发明实施例预先对每个待分析性格对应的性格标签进行颜色 赋值,得到每个待分析性格对应的每一性格标签与颜色信息之间的对应关系。 例如等级9响应强度最高,对应红色(255,0,0),等级0响应强度最低, 对应蓝色(0,0,255),等级8至1则在红色-蓝色的颜色空间中均匀分布。
在得到特征图之后,根据特征图中的每个矩阵元素的预测结果查询所述 对应关系,得到颜色信息,将所述矩阵元素中的像素编码为所述颜色,从而 得到该待分析性格的热力图。
依次对16种待分析性格进行上述步骤S701至S704的训练过程,从而可 以得到16种待分析性格的FCN模型和人脸图像对应的热图。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后, 各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实 施过程构成任何限定。
在一实施例中,提供一种基于人脸的性格分析装置,该基于人脸的性格 分析装置与上述实施例中基于人脸的性格分析方法一一对应。如图8所示, 该基于人脸的性格分析装置包括训练模块、预处理模块、分析模块、获取模 块。各功能模块详细说明如下:
训练模块81,用于获取卡特尔十六种人格因素作为待分析性格,并训练 每一待分析性格对应的全卷积神经网络;
预处理模块82,用于获取待识别的人脸图像,并对所述人脸图像执行预 处理;
分析模块83,用于遍历每一待分析性格,将预处理后的所述人脸图像作 为输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行 性格分析;
获取模块84,用于获取每一待分析性格对应的全卷积神经网络输出的热 图,其中,所述热图通过不同的色彩表示人脸的不同区域对所述待分析性格 的响应程度。
可选地,所述训练模块81包括:
获取单元,用于获取若干用户的多张人脸图像作为训练样本集;
预处理单元,用于遍历所述训练样本集中的每一张人脸图像,对所述人 脸图像执行预处理;
量化单元,用于获取所述训练样本集中每一用户关于每一所述待分析性 格的性格分数,将每一所述性格分数量化为性格标签;
标签单元,用于将同一用户关于每一所述待分析性格的性格标签作为所 述用户的人脸图像的性格标签;
训练单元,用于遍历每一待分析性格,将所述训练样本集中每一用户的 人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格 对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练。
可选地,所述量化单元包括:
第一获取子单元,用于获取训练样本集中每一用户的人格因素问卷调查 结果,得到每一用户关于每一所述待分析性格的原始分;
转换子单元,用于按照预设的常模表将每一用户关于每一所述待分析性 格的原始分转换为标准分;
量化子单元,用于对每一用户关于每一所述待分析性格的标准分执行量 化处理,得到每一用户关于每一所述待分析性格的性格标签。
可选地,所述训练单元包括:
第二获取子单元,用于获取待分析性格及其对应的全卷积神经网络;
特征提取子单元,用于将训练样本集中每一用户的人脸图像以及所述待 分析性格的性格标签传入所述全卷积神经网络,通过所述全卷积神经网络的 卷积层对所述人脸图像执行特征提取;
反卷积子单元,用于对全卷积神经网络中的若干个卷积层的输出执行反 卷积操作,得到和所述人脸图像相同大小的特征图;
编码子单元,用于根据所述特征图中每个矩阵像素的预测结果对所述特 征图进行色彩编码,得到所述人脸图像的热图。
可选地,所述预处理模块82包括:
检测单元,用于检测所述人脸图像中的人脸位置;
对齐单元,用于根据所述人脸位置将所述人脸图像对齐到人脸标准图。
可选地,所述分析模块83包括:
特征提取单元,用于遍历每一待分析性格,将预处理后的所述人脸图像 作为输入传入所述待分析性格对应的全卷积神经网络,通过所述全卷积神经 网络的卷积层对所述人脸图像执行特征提取,得到高层级语义特征图;
第一上采样单元,用于获取所述全卷积神经网络的一个卷积层输出的低 层级语义特征图,并按照所述低层级语义特征图的大小对所述高层级语义特 征图进行上采样;
融合单元,用于将上采样后的所述高层级语义特征图与低层级语义特征 图进行融合,得到融合特征图;
第二上采样单元,用于按照所述人脸图像的大小对所述融合特征图进行 上采样,得到所述人脸图像的热图。
关于基于人脸的性格分析装置的具体限定可以参见上文中对于基于人脸 的性格分析方法的限定,在此不再赘述。上述基于人脸的性格分析装置中的 各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬 件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于 计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器, 其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理 器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计 算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。 该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为 非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设 备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人脸的性格分析方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储 在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实 现以下步骤:
获取卡特尔十六种人格因素作为待分析性格,并训练每一待分析性格对 应的全卷积神经网络;
获取待识别的人脸图像,并对所述人脸图像执行预处理;
遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待 分析性格对应的全卷积神经网络,以对所述人脸图像执行性格分析;
获取每一待分析性格对应的全卷积神经网络输出的热图,其中,所述热 图通过不同的色彩表示人脸的不同区域对所述待分析性格的响应程度。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流 程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可 存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包 括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用 的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或 易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM (PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM) 或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存 储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、 动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM (SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器 总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以 上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而 将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划 分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参 照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理 解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部 分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本 质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范 围之内。

Claims (10)

1.一种基于人脸的性格分析方法,其特征在于,包括:
获取卡特尔十六种人格因素作为待分析性格,并训练每一待分析性格对应的全卷积神经网络;
获取待识别的人脸图像,并对所述人脸图像执行预处理;
遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性格分析;
获取每一待分析性格对应的全卷积神经网络输出的热图,其中,所述热图通过不同的色彩表示人脸的不同区域对所述待分析性格的响应程度。
2.如权利要求1所述的基于人脸的性格分析方法,其特征在于,所述训练每一待分析性格对应的全卷积神经网络包括:
获取若干用户的多张人脸图像作为训练样本集;
遍历所述训练样本集中的每一张人脸图像,对所述人脸图像执行预处理;
获取所述训练样本集中每一用户关于每一所述待分析性格的性格分数,将每一所述性格分数量化为性格标签;
将同一用户关于每一所述待分析性格的性格标签作为所述用户的人脸图像的性格标签;
遍历每一待分析性格,将所述训练样本集中每一用户的人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练。
3.如权利要求2所述的基于人脸的性格分析方法,其特征在于,所述获取所述训练样本集中每一用户关于每一所述待分析性格的性格分数,将每一所述性格分数量化为性格标签包括:
获取训练样本集中每一用户的人格因素问卷调查结果,得到每一用户关于每一所述待分析性格的原始分;
按照预设的常模表将每一用户关于每一所述待分析性格的原始分转换为标准分;
对每一用户关于每一所述待分析性格的标准分执行量化处理,得到每一用户关于每一所述待分析性格的性格标签。
4.如权利要求2所述的基于人脸的性格分析方法,其特征在于,所述遍历每一待分析性格,将所述训练样本集中每一用户的人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练包括:
获取待分析性格及其对应的全卷积神经网络;
将训练样本集中每一用户的人脸图像以及所述待分析性格的性格标签传入所述全卷积神经网络,通过所述全卷积神经网络的卷积层对所述人脸图像执行特征提取;
对全卷积神经网络中的若干个卷积层的输出执行反卷积操作,得到和所述人脸图像相同大小的特征图;
根据所述特征图中每个矩阵像素的预测结果对所述特征图进行色彩编码,得到所述人脸图像的热图。
5.如权利要求1或2所述的基于人脸的性格分析方法,其特征在于,所述对所述人脸图像执行预处理包括:
检测所述人脸图像中的人脸位置;
根据所述人脸位置将所述人脸图像对齐到人脸标准图。
6.如权利要求1所述的基于人脸的性格分析方法,其特征在于,所述遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性格分析包括:
遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积神经网络,通过所述全卷积神经网络的卷积层对所述人脸图像执行特征提取,得到高层级语义特征图;
获取所述全卷积神经网络的一个卷积层输出的低层级语义特征图,并按照所述低层级语义特征图的大小对所述高层级语义特征图进行上采样;
将上采样后的所述高层级语义特征图与低层级语义特征图进行融合,得到融合特征图;
按照所述人脸图像的大小对所述融合特征图进行上采样,得到所述人脸图像的热图。
7.一种基于人脸的性格分析装置,其特征在于,包括:
训练模块,用于获取卡特尔十六种人格因素作为待分析性格,并训练每一待分析性格对应的全卷积神经网络;
预处理模块,用于获取待识别的人脸图像,并对所述人脸图像执行预处理;
分析模块,用于遍历每一待分析性格,将预处理后的所述人脸图像作为输入传入所述待分析性格对应的全卷积神经网络,以对所述人脸图像执行性格分析;
获取模块,用于获取每一待分析性格对应的全卷积神经网络输出的热图,其中,所述热图通过不同的色彩表示人脸的不同区域对所述待分析性格的响应程度。
8.如权利要求7所述的基于人脸的性格分析装置,其特征在于,所述训练模块包括:
获取单元,用于获取若干用户的多张人脸图像作为训练样本集;
预处理单元,用于遍历所述训练样本集中的每一张人脸图像,对所述人脸图像执行预处理;
量化单元,用于获取所述训练样本集中每一用户关于每一所述待分析性格的性格分数,将每一所述性格分数量化为性格标签;
标签单元,用于将同一用户关于每一所述待分析性格的性格标签作为所述用户的人脸图像的性格标签;
训练单元,用于遍历每一待分析性格,将所述训练样本集中每一用户的人脸图像以及所述待分析性格对应的性格标签作为输入传入所述待分析性格对应的全卷积神经网络,以对所述待分析性格的全卷积神经网络进行训练。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的基于人脸的性格分析方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的基于人脸的性格分析方法。
CN201910441885.1A 2019-05-24 2019-05-24 基于人脸的性格分析方法、装置、计算机设备及存储介质 Active CN110390254B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910441885.1A CN110390254B (zh) 2019-05-24 2019-05-24 基于人脸的性格分析方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910441885.1A CN110390254B (zh) 2019-05-24 2019-05-24 基于人脸的性格分析方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN110390254A true CN110390254A (zh) 2019-10-29
CN110390254B CN110390254B (zh) 2023-09-05

Family

ID=68285409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910441885.1A Active CN110390254B (zh) 2019-05-24 2019-05-24 基于人脸的性格分析方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN110390254B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062435A (zh) * 2019-12-13 2020-04-24 北京奇艺世纪科技有限公司 图像分析方法、装置及电子设备
CN113593674A (zh) * 2020-04-30 2021-11-02 北京心数矩阵科技有限公司 一种基于结构化神经网络的性格影响因子分析方法
CN115373407A (zh) * 2022-10-26 2022-11-22 北京云迹科技股份有限公司 机器人自动避开安全警戒线的方法及装置
WO2023033754A1 (en) * 2021-09-06 2023-03-09 Inc Yazilim Çözümleri̇ Ti̇caret Li̇mi̇ted Şi̇rketi̇ A system making character analysis from face

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018060993A1 (en) * 2016-09-27 2018-04-05 Faception Ltd. Method and system for personality-weighted emotion analysis
CN109409196A (zh) * 2018-08-30 2019-03-01 深圳壹账通智能科技有限公司 基于人脸的性格预测方法、装置、电子设备
CN109784153A (zh) * 2018-12-10 2019-05-21 平安科技(深圳)有限公司 情绪识别方法、装置、计算机设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018060993A1 (en) * 2016-09-27 2018-04-05 Faception Ltd. Method and system for personality-weighted emotion analysis
CN109409196A (zh) * 2018-08-30 2019-03-01 深圳壹账通智能科技有限公司 基于人脸的性格预测方法、装置、电子设备
CN109784153A (zh) * 2018-12-10 2019-05-21 平安科技(深圳)有限公司 情绪识别方法、装置、计算机设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062435A (zh) * 2019-12-13 2020-04-24 北京奇艺世纪科技有限公司 图像分析方法、装置及电子设备
CN113593674A (zh) * 2020-04-30 2021-11-02 北京心数矩阵科技有限公司 一种基于结构化神经网络的性格影响因子分析方法
CN113593674B (zh) * 2020-04-30 2024-05-31 北京心数矩阵科技有限公司 一种基于结构化神经网络的性格影响因子分析方法
WO2023033754A1 (en) * 2021-09-06 2023-03-09 Inc Yazilim Çözümleri̇ Ti̇caret Li̇mi̇ted Şi̇rketi̇ A system making character analysis from face
CN115373407A (zh) * 2022-10-26 2022-11-22 北京云迹科技股份有限公司 机器人自动避开安全警戒线的方法及装置

Also Published As

Publication number Publication date
CN110390254B (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
CN110390254A (zh) 基于人脸的性格分析方法、装置、计算机设备及存储介质
CN105354248B (zh) 基于灰度的分布式图像底层特征识别方法及系统
CN109102037A (zh) 中文模型训练、中文图像识别方法、装置、设备及介质
Daihong et al. Multi-scale generative adversarial network for image super-resolution
CN111028305A (zh) 表情生成方法、装置、设备及存储介质
CN112651978A (zh) 舌下微循环图像分割方法和装置、电子设备、存储介质
CN109657582A (zh) 人脸情绪的识别方法、装置、计算机设备及存储介质
CN109255826B (zh) 中文训练图像生成方法、装置、计算机设备及存储介质
WO2024109374A1 (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
WO2022156621A1 (zh) 基于人工智能的图像上色方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN110288513A (zh) 用于改变人脸属性的方法、装置、设备和存储介质
CN111739027A (zh) 一种图像处理方法、装置、设备及可读存储介质
CN115131698B (zh) 视频属性确定方法、装置、设备及存储介质
CN111126464A (zh) 一种基于无监督域对抗领域适应的图像分类方法
CN117520209B (zh) 代码评审方法、装置、计算机设备和存储介质
Roy et al. Tips: Text-induced pose synthesis
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN113705301A (zh) 图像处理方法及装置
CN113408721A (zh) 神经网络结构搜索方法、装置、计算机设备和存储介质
CN117541668A (zh) 虚拟角色的生成方法、装置、设备及存储介质
Song et al. Talking face video generation with editable expression
CN112016592A (zh) 基于交叉领域类别感知的领域适应语义分割方法及装置
CN113298841B (zh) 一种肤质油份分型方法、计算机设备、系统及存储介质
Wang et al. Automatic colorization for Thangka sketch-based paintings
Megahed et al. Identify videos with facial manipulations based on convolution neural network and dynamic texture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant