CN112560639B - 人脸关键点数目转换方法、系统、电子设备及存储介质 - Google Patents
人脸关键点数目转换方法、系统、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112560639B CN112560639B CN202011439657.XA CN202011439657A CN112560639B CN 112560639 B CN112560639 B CN 112560639B CN 202011439657 A CN202011439657 A CN 202011439657A CN 112560639 B CN112560639 B CN 112560639B
- Authority
- CN
- China
- Prior art keywords
- key point
- face
- neural network
- network model
- point coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000003062 neural network model Methods 0.000 claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 238000002372 labelling Methods 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 50
- 210000002569 neuron Anatomy 0.000 claims description 31
- 230000004913 activation Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004751 neurological system process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开人脸关键点数目转换方法、系统、电子设备及存储介质。人脸关键点数目转换方法,包括:坐标标注步骤:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;训练步骤:将所述原始关键点坐标输入神经网络模型并通过反向传播算法对所述神经网络模型进行训练;转换步骤:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成人脸图片的目标关键点坐标。本发明提出人脸关键点数目转换方法、系统、电子设备及存储介质,通过使用反向传播算法训练神经网络模型,实现人脸图片关键点的坐标转换,能够快速、准确、低成本地转换不同数目的人脸关键点信息。
Description
技术领域
本申请涉及人脸识别技术领域,尤其涉及人脸关键点数目转换方法、系统、电子设备及存储介质。
背景技术
在人脸识别任务中,通常需要得到人脸关键点的坐标,通过关键点坐标信息将人脸进行对齐。这些坐标点位于人脸的眉毛、眼睛、鼻子等轮廓上。不同的人脸识别算法工具使用的关键点数目不一样,如68点、72点、98点、106点等,使用不同数目关键点的人脸识别算法不能互相兼容相同或者相似技术问题的现有技术方案如下:人工补充标注的方法:如果现有的人脸关键点是72个点,当需要扩充到98个关键点使,通常需要人工补充标注缺少的关键点;插值的方法:在图1和图2中,可以由图1中的0-12号点,通过空间插值得到图2中的1-33号点,但插值多项式通常是由人工选择得到,不能真正反映人脸轮廓的光滑性。此外,图1中鼻子外轮廓有47-56号点,在图2中并没有鼻子外轮廓的点,通过其他点进行插值得到的结果并不准确。以上现有技术虽能解决相似或者相同的技术问题,但人工补充标注需要较长的时间和较高的成本,空间插值的方法由于人工选择插值多项式,得到的结果准确度不够。
因此,针对以上现状,本发明提出人脸关键点数目转换方法、系统、电子设备及存储介质,将人脸关键点的坐标分别作为神经网络模型的输入、输出,ReLU函数作为神经元的激活函数,训练阶段采用dropout策略,以均方根误差作为损失函数,使用反向传播算法训练神经网络模型,实现人脸图片关键点的坐标转换,能够快速、准确、低成本地转换不同数目的人脸关键点信息。
发明内容
本申请实施例提供了人脸关键点数目转换方法、系统、电子设备及存储介质,以至少解决相关技术中主观因素影响的问题。
本发明提供了人脸关键点数目转换方法,包括:
坐标标注步骤:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;
训练步骤:将所述原始关键点坐标输入到神经网络模型中并通过反向传播算法对所述神经网络模型进行训练;
转换步骤:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成人脸图片的目标关键点坐标。
上述的人脸关键点数目转换方法,所述坐标标注步骤包括,收集经过人脸检测器得到的标准大小的人脸图片,将在所述人脸图片上标注所述原始关键点坐标。
上述的人脸关键点数目转换方法,所述训练步骤包括,将所述原始关键点坐标输入所述神经网络模型,ReLU函数作为神经元的激活函数,使用所述反向传播算法训练所述神经网络模型。
上述的人脸关键点数目转换方法,所述转换步骤包括,将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型中,通过所述神经网络模型将所述原始关键点坐标转换成人脸图片的所述目标关键点坐标。
本发明提供人脸关键点数目转换系统,其特征在于,适用于上述所述的人脸关键点数目转换方法,包括:
坐标标注单元:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;
训练单元:将所述原始关键点坐标输入到神经网络模型中并通过反向传播算法对所述神经网络模型进行训练;
转换单元:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成人脸图片的目标关键点坐标。
上述的人脸关键点数目转换系统,所述坐标标注单元包括,收集经过人脸检测器得到的标准大小的人脸图片,将在所述人脸图片上标注所述原始关键点坐标。
上述的人脸关键点数目转换系统,所述训练单元包括,将所述原始关键点坐标输入所述神经网络模型,ReLU函数作为神经元的激活函数,使用所述反向传播算法训练所述神经网络模型。
上述的人脸关键点数目转换系统,所述转换单元包括,将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型中,通过所述神经网络模型将所述原始关键点坐标转换成人脸图片的所述目标关键点坐标。
进一步的,本发明提供一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述任一项所述的人脸关键点数目转换方法。
本发明提供一种电子设备可读存储介质,所述电子设备可读存储介质上存储有计算机程序指令,所述计算机程序指令被所述处理器执行时实现上述任一项所述的人脸关键点数目转换方法。
相比于相关技术,本发明提出人脸关键点数目转换方法、系统、电子设备及存储介质,将人脸关键点的坐标分别作为神经网络模型的输入、输出,ReLU函数作为神经元的激活函数,训练阶段采用dropout策略,以均方根误差作为损失函数,使用反向传播算法训练神经网络模型,实现人脸图片关键点的坐标转换,能够快速、准确、低成本地转换不同数目的人脸关键点信息。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的人脸72个关键点的分布示意图;
图2是根据本申请实施例的人脸98个关键点的分布示意图;
图3是根据本申请实施例的关键点数目转换神经网络结构图;
图4是根据本申请实施例的人脸关键点数目转换方法流程图;
图5为本发明的人脸关键点数目转换系统的结构示意图;
图6是根据本申请实施例的电子设备的框架图。
其中,附图标记为:
坐标标注单元:41;
训练单元:42;
转换单元:43;
81:处理器;
82:存储器;
83:通信接口;
80:总线。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
本发明基于神经网络,下面进行简要的介绍。
人工神经网络是基于称为人工神经元的连接单元或节点所构成的集合,这些单元或节点松散地模拟生物大脑中的神经元。像生物大脑中的突触一样,每个连接可以将信号从一个人工神经元传输到另一个人工神经元。接收信号的人工神经元可以对其进行处理,然后向与之相连的附加人造神经元发出信号。在常见的人工神经网络实现中,人造神经元之间连接处的信号是一个实数,每个人工神经元的输出由它的输入之和的一些非线性函数计算。人造神经元之间的联结被称为“边”。人造神经元和边通常具有随着学习进行而调整的权重。权重可以增加或减少连接处的信号强度。人造神经元可能有一个阈值,使得只有当总信号超过该阈值时才发送信号。典型的神经网络中,每一层都由多个人造神经元聚合而成。不同的层可以对它们的输入执行不同种类的转换。信号从第一层(输入层)传播到最后一层(输出层),可能在这过程之间会多次穿过这些层。人工神经网络方法的最初目标是以与人脑相同的方式解决问题。然而,随着时间的推移,人们的注意力转移到了执行特定的任务上,从而逐渐偏离了生物学人工神经网络已被用于各种任务,包括计算机视觉、语音识别、机器翻译、社交网络过滤、玩棋盘和电子游戏和医学诊断。沃伦·麦卡洛克和沃尔特·皮茨(1943)基于数学和算法创建了神经网络的计算模型,称为阈值逻辑。该模型为神经网络研究分成两种方法铺平了道路。一种方法侧重于大脑中的生物过程,而另一种方法侧重于神经网络在人工智能中的应用。这项工作引领了对神经网络及其与有限自动机的联系的研究。人工神经网络是由叫做人造神经元的简单元素构成的网络,其接收输入,改变其内部状态(激活),并根据输入和激活产生输出。人工神经元模仿有输入和输出的生物物理学神经元模型,但不是生物神经元模型。神经网络通过将某些神经元的输出与其他神经元的输入连接形成一个有向加权图。权重以及计算激活的函数可以通过学习得到,这个过程由一个学习规则所定义。
人们重新对神经网络和学习感兴趣的一个关键触发因素是Werbos(1975)反向传播算法,该算法通过使多层网络的训练可行且有效,有效地解决了异或问题。反向传播通过修改每个节点的权重,将误差项分布在各个层中。在20世纪80年代中期,并行分布式处理以联结主义的名字开始流行。如梅哈特和麦克莱兰(1986)描述了使用联结主义的方式来模拟神经过程。支持向量机和其他更简单的方法,如线性分类器,在机器学习中逐渐取代了神经网络。然而,神经网络使得一些领域产生了变革,例如蛋白质结构的预测。1992年,人们引入了“最大池化”来实现最小位移不变性和变形容耐性,以帮助实现3D对象识别。2010年,通过最大池化来进行反向传播,并利用GPU加速其训练,结果显示其性能优于其他池化变体。梯度消失问题影响使用反向传播算法的多层次的前馈网络和递归神经网络(RNNs)。随着误差从一层传播到另一层,它们随着层数呈指数级衰减,阻碍了神经元权重基于这些误差调整,特别是对深层网络的影响尤其大。为了克服这个问题,施密休伯采用了多级网络体系(1992年),通过无监督学习一次预训练一级,并通过反向传播进行微调。贝南克(2003)在解决关于图像重建和人脸定位等问题时,只依赖梯度的正负符号(Rprop)。韩丁等人(2006)建议使用二进制或实值隐变量的连续层来学习高级表示,其中由受限玻尔兹曼机来模拟每一层。一旦学习了足够多的层,当从顶层特征激活层对模型(“祖先通道”)进行下采样时,通过再生成数据,可以将这样的深层架构用作生成模型。]2012年,Ng和Dean创建了一个网络,通过观看从YouTube视频中拍摄的未标记图像,学会识别更高级别的概念,比如猫。通过诸如无监督预训练等方法,成功解决了早期在训练深度神经网络方面的挑战,同时通过使用GPU和分布式计算提高了可用的计算能力。从此神经网络被大规模地应用,特别是在图像和视觉识别问题中。这被称为“深度学习”。DNN可以用标准反向传播算法进行判别训练。反向传播算法是一种计算损失数(产生与给定状态相关的成本)相对于ANN中权重的梯度的方法。连续反向传播的基础由1960年凯利在控制论的背景下,和1961年由布赖森使用动态规划的原理推导出来。1962年,德雷福斯发表了一个仅基于链式法则的更简单的推导。Bryson和Ho在1969年将其描述为一种多阶段动态系统优化方法。1970年,林奈玛最终发表了嵌套可微函数的离散连通网络的自动微分的通用方法。这对应于现代版本的反向传播,即使网络很稀疏,反向传播也是有效的。1973年,德雷福斯使用反向传播来根据误差梯度调整控制器的参数。1974年,Werbos提到了将这一原理应用于人工神经网络的可能性,1982年,他将林奈玛的AD方法应用于神经网络,这种方法在今天得到了广泛的应用。1986年,鲁梅尔哈特、韩丁和威廉姆斯指出,这种方法可以在神经网络的隐藏层中生成输入数据的有用的内部表示。1993年,Wan第一次通过反向传播赢得国际模式识别比赛。反向传播的权重更新可以通过使用以下等式的随机梯度下降来完成:其中,是学习率,是成本(损失)函数,是一个统计量。成本函数的选择取决于学习类型(监督、非监督、强化等)和激活功能。例如,当对多类分类问题执行监督学习时,激活函数和成本函数的常见选择分别是softmax函数和交叉熵函数。softmax函数定义为,其中表示类别概率(单位的输出),和各自表示同一层级的单位和的总输入。交叉熵定义为,其中表示输出单位在输入为时的训练目标值,是在激活函数之后的输出,表示预测结果为的概率。这些可以用于以二进制掩码的形式输出图片中要预测的对象的边框。它们还可用于多尺度回归,以提高定位精度。基于DNN的回归除了作为一个好的分类器之外,还可以学习捕获几何信息的特征。DNN不需要显式地对各部分及它们内部之间的关系进行建模。这有助于拓宽可以学习的对象的种类。该模型由多个层组成,每个层都有一个ReLU作为非线性变换的激活函数。有些层是卷积的,而其他层是全连接的。每个卷积层都有一个额外的最大池化层。该网络在整个训练集上的被训练以最小化L2误差,用于预测图片中对象的掩码,这个训练集中包含了以掩码的方式表示的边框。反向传播的替代方案包括极限学习机,No-prop网络,无回溯的训练,无权重”网络,和非连接神经网络。
神经网络模型可以看作是定义了一个函数的简单数学模型,可以看作在上或者和两者都有的一种分布。有时模型与特定的学习规则密切相关。术语“人工神经网络模型”的一个常见用法是定义了一类这样的函数(通过改变不同的参数、连接权重、或者特定的网络架构(例如神经元的数量和连接关系)来得到这类函数中的成员)。数学上,神经元网络的函数被定义为其他函数的组合,可以进一步分解成其他函数。这可以方便地表示为网络结构,用箭头描述函数之间的依赖关系。一种广泛使用的组合是非线性加权和,其中,其中(通常称为激活函数)是一些预定义的函数,例如双曲正切或S型函数或softmax函数或ReLU函数。激活函数的重要特征是,当输入值改变时,它提供平滑过渡,即输入的小变化产生输出的小变化。以下我们用向量来描述函数的集合。该图描述了这样一种的分解,变量之间的依赖关系由箭头表示。这些可以用两种方式解释。第一个观点是函数观点:输入被转换成一个三维向量,然后将其转换成二维向量,最终转化为。这种观点最常见于优化任务中。第二种观点是概率观点:随机变量取决于随机变量,取决于,这取决于随机变量。这种观点最常见于图模型中。这两种观点基本是等价的。在任一种情况下,对于特定的体系结构,各个层内部相互独立(例如给定网络的输入,向量中的各个部分相互独立)。这自然会在实现中实现一定程度的并行性。像前面这样的网络通常被称为前馈,因为它们的图是一个有向无环图。具有环的网络通常称为循环网络。这种网络通常以图中顶部所示的方式描述,其中依赖于自身。然而,图中没有显示出隐含的时间依赖。
本发明提出本发明提出人脸关键点数目转换方法、系统、电子设备及存储介质,将人脸关键点的坐标分别作为神经网络模型的输入、输出,ReLU函数作为神经元的激活函数,训练阶段采用dropout策略,以均方根误差作为损失函数,使用反向传播算法训练神经网络模型,实现人脸图片关键点的坐标转换,能够快速、准确、低成本地转换不同数目的人脸关键点信息。
下面将人脸关键点转换方法为例对本申请实施例进行说明。
实施例一
本实施例提供了人脸关键点数目转换方法。请参照图1-图4,图1是根据本申请实施例的人脸72个关键点的分布示意图;图2是根据本申请实施例的人脸98个关键点的分布示意图;图3是根据本申请实施例的关键点数目转换神经网络结构图;图4是根据本申请实施例的人脸关键点数目转换方法流程图,如图所示,人脸关键点数目转换方法,包括如下步骤:
坐标标注步骤S1:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;
训练步骤S2:将所述原始关键点坐标输入到神经网络模型中并通过反向传播算法对所述神经网络模型进行训练;
转换步骤S3:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成人脸图片的目标关键点坐标。
实施例中,所述坐标标注步骤S1包括,收集经过人脸检测器得到的标准大小的人脸图片,将在所述人脸图片上标注所述原始关键点坐标。
具体的说,收集一批经过人脸检测器得到的标准大小人脸图片(如112*112像素),对每张人脸图片,分别标注72个关键点的坐标位置和98个关键点的坐标位置。
实施例中,所述训练步骤S2包括,将所述原始关键点坐标输入所述神经网络模型,ReLU函数作为神经元的激活函数,使用所述反向传播算法训练所述神经网络模型。
具体的说,训练步骤S2中,图3为一个具有3个隐含层的全连接神经网络,将72个关键点的xy坐标共144个数作为神经网络的输入,98个关键点的xy坐标共196个数作为神经网络的输出。使用ReLU函数作为神经元的激活函数,训练阶段采用dropout策略,以均方根误差作为损失函数。使用反向传播算法将神经网络训练完一定的轮次后算法收敛,保存训练好的模型权重参数。
实施例中,所述转换步骤S3包括,将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型中,通过所述神经网络模型将所述原始关键点坐标转换成人脸图片的所述目标关键点坐标。
具体的说,对于新的人脸图片的72个关键点,输入神经网络后,网络前向计算可以直接得到该人脸的98个关键点坐标。
由此,本发明提出人脸关键点数目转换方法、系统、电子设备及存储介质,将人脸关键点的坐标分别作为神经网络模型的输入、输出,ReLU函数作为神经元的激活函数,训练阶段采用dropout策略,以均方根误差作为损失函数,使用反向传播算法训练神经网络模型,实现人脸图片关键点的坐标转换,能够快速、准确、低成本地转换不同数目的人脸关键点信息。
实施例二
请参照图5,图5为本发明的人脸关键点数目转换系统的结构示意图。如图5所示,发明的人脸关键点数目转换系统,适用于上述的人脸关键点数目转换方法,人脸关键点数目转换系统包括:
坐标标注单元41:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;
训练单元42:将所述原始关键点坐标输入到神经网络模型中并通过反向传播算法对所述神经网络模型进行训练;
转换单元43:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成人脸图片的目标关键点坐标。
在本实施例中,所述坐标标注单元41包括,收集经过人脸检测器得到的标准大小的人脸图片,将在所述人脸图片上标注所述原始关键点坐标。
在本实施例中,所述训练单元42包括,将所述原始关键点坐标输入所述神经网络模型,ReLU函数作为神经元的激活函数,使用所述反向传播算法训练所述神经网络模型。
在本实施例中,所述转换单元43包括,将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型中,通过所述神经网络模型将所述原始关键点坐标转换成人脸图片的所述目标关键点坐标。
实施例三
结合图6所示,本实施例揭示了一种电子设备的一种具体实施方式。电子设备可以包括处理器81以及存储有计算机程序指令的存储器82。
具体地,上述处理器81可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器82可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器82可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器82可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器82可在数据处理装置的内部或外部。在特定实施例中,存储器82是非易失性(Non-Volatile)存储器。在特定实施例中,存储器82包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为FPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EFPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器82可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器81所执行的可能的计算机程序指令。
处理器81通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意人脸关键点数目转换方法。
在其中一些实施例中,电子设备还可包括通信接口83和总线80。其中,如图6所示,处理器81、存储器82、通信接口83通过总线80连接并完成相互间的通信。
通信接口83用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口83还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线80包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线80包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(Control Bus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线80可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(Front Side Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线80可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
电子设备可连接人脸关键点数目转换系统,从而实现结合图1-图4描述的方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.人脸关键点数目转换方法,其特征在于,所述人脸关键点数目转换方法包括:
坐标标注步骤:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;
训练步骤:将所述原始关键点坐标输入到神经网络模型中并通过反向传播算法对所述神经网络模型进行训练;
转换步骤:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成不同数目的人脸图片的目标关键点坐标。
2.根据权利要求1所述的人脸关键点数目转换方法,其特征在于,所述坐标标注步骤包括,收集经过人脸检测器得到的标准大小的人脸图片,将在所述人脸图片上标注所述原始关键点坐标。
3.根据权利要求1所述的人脸关键点数目转换方法,其特征在于,所述训练步骤包括,将所述原始关键点坐标输入所述神经网络模型,ReLU函数作为神经元的激活函数,使用所述反向传播算法训练所述神经网络模型。
4.根据权利要求1所述的人脸关键点数目转换方法,其特征在于,所述转换步骤包括,将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型中,通过所述神经网络模型将所述原始关键点坐标转换成人脸图片的所述目标关键点坐标。
5.人脸关键点数目转换系统,其特征在于,适用于上述权利要求1-4中任一项所述的人脸关键点数目转换方法,包括:
坐标标注单元:收集人脸图片,将所述人脸图片上分别标注原始关键点坐标;
训练单元:将所述原始关键点坐标输入到神经网络模型中并通过反向传播算法对所述神经网络模型进行训练;
转换单元:将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型后,人脸图片的所述原始关键点坐标通过所述神经网络模型转换成不同数目的人脸图片的目标关键点坐标。
6.根据权利要求5所述的人脸关键点数目转换系统,其特征在于,所述坐标标注单元包括,收集经过人脸检测器得到的标准大小的人脸图片,将在所述人脸图片上标注所述原始关键点坐标。
7.根据权利要求6所述的人脸关键点数目转换系统,其特征在于,所述训练单元包括,将所述原始关键点坐标输入所述神经网络模型,ReLU函数作为神经元的激活函数,使用所述反向传播算法训练所述神经网络模型。
8.根据权利要求7所述的人脸关键点数目转换系统,其特征在于,所述转换单元包括,将新的人脸图片的所述原始关键点坐标输入到所述神经网络模型中,通过所述神经网络模型将所述原始关键点坐标转换成人脸图片的所述目标关键点坐标。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的人脸关键点数目转换方法。
10.一种电子设备可读存储介质,所述电子设备可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述权利要求1至4中任一项所述的人脸关键点数目转换方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011439657.XA CN112560639B (zh) | 2020-12-11 | 2020-12-11 | 人脸关键点数目转换方法、系统、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011439657.XA CN112560639B (zh) | 2020-12-11 | 2020-12-11 | 人脸关键点数目转换方法、系统、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112560639A CN112560639A (zh) | 2021-03-26 |
CN112560639B true CN112560639B (zh) | 2023-12-12 |
Family
ID=75060583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011439657.XA Active CN112560639B (zh) | 2020-12-11 | 2020-12-11 | 人脸关键点数目转换方法、系统、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112560639B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113556125B (zh) * | 2021-06-28 | 2024-02-06 | 青岛中科英泰商用系统股份有限公司 | 一种提高ad转换效率的方法、系统、电子设备及介质 |
CN113723214B (zh) * | 2021-08-06 | 2023-10-13 | 武汉光庭信息技术股份有限公司 | 一种人脸关键点标注方法、系统、电子设备及存储介质 |
CN116580445B (zh) * | 2023-07-14 | 2024-01-09 | 江西脑控科技有限公司 | 一种大语言模型人脸特征分析方法、系统及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309706A (zh) * | 2019-05-06 | 2019-10-08 | 深圳市华付信息技术有限公司 | 人脸关键点检测方法、装置、计算机设备及存储介质 |
CN110334587A (zh) * | 2019-05-23 | 2019-10-15 | 北京市威富安防科技有限公司 | 人脸关键点定位模型的训练方法、装置及关键点定位方法 |
CN111079570A (zh) * | 2019-11-29 | 2020-04-28 | 北京奇艺世纪科技有限公司 | 一种人体关键点识别方法、装置及电子设备 |
-
2020
- 2020-12-11 CN CN202011439657.XA patent/CN112560639B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309706A (zh) * | 2019-05-06 | 2019-10-08 | 深圳市华付信息技术有限公司 | 人脸关键点检测方法、装置、计算机设备及存储介质 |
CN110334587A (zh) * | 2019-05-23 | 2019-10-15 | 北京市威富安防科技有限公司 | 人脸关键点定位模型的训练方法、装置及关键点定位方法 |
CN111079570A (zh) * | 2019-11-29 | 2020-04-28 | 北京奇艺世纪科技有限公司 | 一种人体关键点识别方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112560639A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560639B (zh) | 人脸关键点数目转换方法、系统、电子设备及存储介质 | |
Mukhometzianov et al. | CapsNet comparative performance evaluation for image classification | |
KR102545128B1 (ko) | 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템 | |
CN112446476A (zh) | 神经网络模型压缩的方法、装置、存储介质和芯片 | |
Xie et al. | Generative VoxelNet: Learning energy-based models for 3D shape synthesis and analysis | |
JP2019032808A (ja) | 機械学習方法および装置 | |
US8504493B2 (en) | Self-organizing sequential memory pattern machine and reinforcement learning method | |
US11443514B2 (en) | Recognizing minutes-long activities in videos | |
CN110222718B (zh) | 图像处理的方法及装置 | |
Patel et al. | Neural network with deep learning architectures | |
CN112529146B (zh) | 神经网络模型训练的方法和装置 | |
CN112633463A (zh) | 用于建模序列数据中长期依赖性的双重递归神经网络架构 | |
CN113159236A (zh) | 基于多尺度变换的多聚焦图像融合方法及装置 | |
CN114330736A (zh) | 具有噪声对比先验的潜在变量生成性模型 | |
Dong et al. | Research on image classification based on capsnet | |
CN113158970B (zh) | 一种基于快慢双流图卷积神经网络的动作识别方法与系统 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN114925320A (zh) | 一种数据处理方法及相关装置 | |
CN116452599A (zh) | 基于轮廓的图像实例分割方法及系统 | |
CN115409159A (zh) | 对象操作方法、装置、计算机设备以及计算机存储介质 | |
Xia et al. | Efficient synthesis of compact deep neural networks | |
CN113516670A (zh) | 一种反馈注意力增强的非模式图像分割方法及装置 | |
CN116030181A (zh) | 3d虚拟形象生成方法与装置 | |
CN112884640A (zh) | 模型训练方法及相关装置、可读存储介质 | |
EP4075343A1 (en) | Device and method for realizing data synchronization in neural network inference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |