CN109948441B - 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 - Google Patents

模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN109948441B
CN109948441B CN201910115532.2A CN201910115532A CN109948441B CN 109948441 B CN109948441 B CN 109948441B CN 201910115532 A CN201910115532 A CN 201910115532A CN 109948441 B CN109948441 B CN 109948441B
Authority
CN
China
Prior art keywords
face
probability distribution
standard
segmentation
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910115532.2A
Other languages
English (en)
Other versions
CN109948441A (zh
Inventor
刘思阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN201910115532.2A priority Critical patent/CN109948441B/zh
Publication of CN109948441A publication Critical patent/CN109948441A/zh
Application granted granted Critical
Publication of CN109948441B publication Critical patent/CN109948441B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种模型训练、图像处理方法、装置、电子设备、计算机可读存储介质,该模型训练方法包括:获取第一训练样本集,第一训练样本集包括第一人脸图像以及第一人脸图像的第一人脸关键点信息;获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;根据标准人脸概率分布结果、标准人脸关键点信息以及第一人脸关键点信息,获取第一人脸图像的第一概率分布结果;根据第一人脸图像和第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。本发明训练得到的人脸语义分割模型提升了对人脸图像的不同人脸语义区域的分割准确度。

Description

模型训练、图像处理方法、装置、电子设备及计算机可读存储 介质
技术领域
本发明涉及机器学习技术领域,特别是涉及一种模型训练、图像处理方法、装置、电子设备及计算机可读存储介质。
背景技术
随着计算机技术的不断发展,对人脸图像进行美化的软件越来越多。在对人脸图像进行美化时,需要识别人脸图像中对应不同人脸部件(例如五官、脸部轮廓)的区域,其中,不同人脸部件的区域可以理解为具有不同人脸语义的区域,为了识别人脸图像中具有不同人脸语义的区域,需要进行人脸图像进行语义分割。
目前的人脸语义分割算法主要是将人脸图像作为训练数据,通过对神经网络模型的训练,来使得经过训练的神经网络模型可以对人脸图像进行语义分割,从而得到对应不同人脸部件的区域。
但是,相关技术中训练得到的神经网络模型容易对输入的人脸图像进行错误的语义分割,即,将不属于某个人脸部件的多个像素点分割到该人脸部件对应的区域中,存在着人脸部件的分割结果不准确的问题。
发明内容
本发明提供了一种模型训练、图像处理方法、装置、电子设备及计算机可读存储介质,以解决相关技术中的人脸语义分割方案在对人脸图像进行语义分割时,所存在的人脸部件的分割结果准确度较低的问题。
为了解决上述问题,根据本发明的第一方面,本发明公开了一种模型训练方法,包括:
获取第一训练样本集,所述第一训练样本集包括第一人脸图像以及所述第一人脸图像的第一人脸关键点信息;
获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。
根据本发明的第二方面,本发明公开了一种图像处理方法,包括:
获取待分割的第一人脸图像;
获取所述第一人脸图像的第一人脸关键点信息;
获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
将所述第一人脸图像和所述第一概率分布结果输入至预先经过训练的人脸语义分割模型,得到与不同人脸分割对象匹配的多个目标人脸语义分割结果。
根据本发明的第三方面,本发明还公开了一种模型训练装置,包括:
第一获取模块,用于获取第一训练样本集,所述第一训练样本集包括第一人脸图像以及所述第一人脸图像的第一人脸关键点信息;
第二获取模块,用于获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
第三获取模块,用于根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
训练模块,用于根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。
根据本发明的第四方面,本发明还公开了一种图像处理装置,包括:
第一获取模块,用于获取待分割的第一人脸图像;
第二获取模块,用于获取所述第一人脸图像的第一人脸关键点信息;
第三获取模块,用于获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
第四获取模块,用于根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
语义分割模块,用于将所述第一人脸图像和所述第一概率分布结果输入至预先经过训练的人脸语义分割模型,得到与不同人脸分割对象匹配的多个目标人脸语义分割结果。
根据本发明的第五方面,本发明还公开了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的模型训练程序或图像处理程序,所述模型训练程序被所述处理器执行时实现如上述任意一项所述的模型训练方法的步骤,所述图像处理程序被所述处理器执行时实现上述图像处理方法的步骤。
根据本发明的第六方面,本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有模型训练程序或图像处理程序,所述模型训练程序被处理器执行时实现如上述任意一项所述的模型训练方法中的步骤,所述图像处理程序被所述处理器执行时实现上述图像处理方法的步骤。
与现有技术相比,本发明包括以下优点:
在本发明实施例中,利用先验的标准人脸关键点信息、预先配置的标准人脸概率分布结果以及第一训练集中每个第一人脸图像的人脸关键点信息,可以获取到第一人脸图像的第一概率分布结果,由于第一概率分布结果是基于标准人脸概率分布结果和标准人脸关键点信息而确定出来的,其中,标准人脸概率分布结果在标准人脸图像中能够对各个人脸分割对象所在的区别进行限制,因此,该第一概率分布结果也能够对第一人脸图像中各个人脸分割对象所在的区域进行限制,那么在利用第一人脸图像以及第一人脸图像的第一概率分布结果来对神经网络模型进行训练时,则可以使训练得到的人脸语义分割模型学习在该第一概率分布结果限制的各个区域内进行各个人脸分割对象的语义识别和分割,能够防止训练后得到的人脸语义分割模型对各个区域外的部分进行误识别,提升了训练后得到的人脸语义分割模型对人脸图像的不同人脸语义区域的分割准确度。
附图说明
图1是本发明的一种模型训练方法实施例的步骤流程图;
图2是本发明的一种标准人脸图像实施例的示意图;
图3是本发明的另一种模型训练方法实施例的步骤流程图;
图4是本发明的一种第二人脸图像实施例的示意图;
图5是本发明的一种获取与鼻子匹配的标准概率分布结果实施例的示意图;
图6是本发明的一种图像处理方法实施例的步骤流程图;
图7是一种模型训练装置实施例的结构框图;
图8是一种图像处理装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明的一种模型训练方法实施例的步骤流程图,具体可以包括如下步骤:
步骤101,获取第一训练样本集;
本发明实施例为了训练神经网络模型(其网络结构可以是任意一种神经网络模型,本发明对此不做限制)来得到人脸语义分割模型,这里需要获取该第一训练样本集,其中,所述第一训练样本集可以包括多组样本,每一组样本包括人脸图像(即第一人脸图像),以及该人脸图像的人脸关键点信息(即第一人脸关键点信息);
其中,第一人脸关键点信息可以是多个预设人脸关键点的坐标信息,其中,预设人脸关键点可以包括但不限于左眼关键点、右眼关键点、鼻子关键点、嘴巴关键点。
以左眼为例,左眼关键点的坐标信息可以是第一人脸图像中的左眼上的任意一个坐标位置,本发明实施例中,左眼关键点的坐标信息可以是左眼的瞳孔的坐标信息。对于其他预设人脸关键点的坐标信息也是类似的,这里不再列举。
例如人脸图像样本i的5个预设人脸关键点的坐标信息分别为:
左眼关键点的坐标为:
Figure BDA0001969613370000051
右眼关键点的坐标为:
Figure BDA0001969613370000052
鼻尖关键点的坐标为:
Figure BDA0001969613370000053
左嘴角关键点的坐标为:
Figure BDA0001969613370000054
右嘴角关键点的坐标为:
Figure BDA0001969613370000055
步骤102,获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
其中,本发明实施例的方法可以预先配置标准人脸关键点信息,标准人脸关键点信息表达了标准人脸图像(图像中的人脸完整、人脸中的各个人脸部件都是正对镜头的,例如如图2所示的标准人脸图像)中多个预设人脸关键点的坐标信息。其中,图2示出了5个标准人脸关键点,分别为左眼关键点21、右眼关键点22、鼻尖关键点23、左嘴角关键点24和右嘴角关键点25。
对于上述5个标准人脸关键点的坐标信息,本发明实施例的方法可以根据先验知识来人工配置,本步骤只需要获取预先配置的这5个标准人脸关键点的坐标信息。
例如,左眼关键点21的坐标为:p1(x1,y1);右眼关键点22的坐标为:p2(x2,y2);鼻尖关键点23的坐标为:p3(x3,y3);左嘴角关键点24的坐标为:p4(x4,y4);右嘴角关键点25的坐标为:p5(x5,y5)。
此外,本发明实施例的方法还可以预先配置标准人脸概率分布结果,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果。
其中,如图2所示,人脸分割对象可以包括人脸图像中的人脸部件以及人脸部件的背景31,在本发明实施例中,人脸分割对象可以包括但不限于头发32、面部33、左眉毛34、右眉毛35、左眼睛36、右眼睛37、鼻子38、上嘴唇39、口腔39、下嘴唇39(这里为了简便,嘴部的三个分割对象都以一个图像区域示出)。因此,一般情况下,一个人脸图像可以包括11个人脸分割对象,本发明实施例训练神经网络模型的目的,旨在使得训练后得到人脸语义分割模型能够对人脸图像分割出11个人脸分割对象。
其中,本发明实施例的方法可以预先配置标准人脸概率分布结果,该标准人脸概率分布结果为基于人脸语义分割的数据集(即下述第二训练数据集)而确定的结果。其中,标准人脸概率分布结果表达了在基于分割数据集所确定的标准人脸图像(例如图2所示的图像)中,每个人脸分割对象对应的区域内的各个坐标点对应的像素属于该人脸分割对象的概率。因此,所述标准人脸概率分布结果可以包括与不同人脸分割对象匹配的多个标准概率分布结果。
本步骤需要获取预先配置的标准人脸概率分布结果。
步骤103,根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
可选地,在执行步骤103时,可以首先根据所述标准人脸关键点信息和所述第一人脸关键点信息,获取第二仿射矩阵;然后,根据所述第二仿射矩阵,对所述多个标准概率分布结果分别进行仿射变换,得到所述第一人脸图像的第一概率分布结果。
具体而言,对于第一训练集中的任意一组样本,可以根据所述标准人脸关键点信息和所述第一人脸关键点信息,获取第二仿射矩阵。
以第一训练集中的人脸图像1为例,可以对5个标准人脸关键点p1~p5的坐标和图像样本1的5个预设人脸关键点
Figure BDA0001969613370000061
的坐标进行仿射变换,得到两组人脸关键点之间的仿射矩阵A1
Figure BDA0001969613370000071
其中,仿射矩阵中的a、t表示向量。
而多个标准概率分布结果表达了标准人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于该人脸分割对象的概率,而第一训练集中的第一人脸图像并非是标准人脸图像,其脸部可以是任意角度,那么为了获取在第一人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于该人脸分割对象的概率,这里可以根据仿射矩阵A1,对所述多个标准概率分布结果分别进行仿射变换,从而可以得到所述第一人脸图像的第一概率分布结果。该第一概率分布结果则表达了在第一人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于该人脸分割对象的概率。那么概率高的像素点属于对应人脸分割对象的可能性就大,这样,第一概率分布结果相当于表达了第一人脸图像中任意一个像素点属于某个人脸分割对象的概率,且一个像素点只属于一个人脸分割对象。
那么如果按照不同的人脸分割对象来说,则所述第一概率分布结果可以包括与所述不同人脸分割对象匹配的多个第一局部概率分布结果。
例如,对应于鼻子的局部概率分布结果包括:对应于鼻子的区域1中各个像素点属于鼻子的概率。
这样,本发明实施例根据训练样本集中第一人脸图像的第一人脸关键点信息和标准人脸关键点信息,获取它们之间的仿射矩阵,再利用仿射矩阵来对标准人脸的多个标准概率分布结果分别进行仿射变换,从而可以得到该第一人脸图像的第一概率分布结果,其中,所述第一概率分布结果可以包括与所述不同人脸分割对象匹配的多个第一局部概率分布结果,这样,就获得了训练样本集中第一人脸图像中各个人脸分割对象的大致边界,那么再利用该第一概率分布结果来对神经网络模型进行训练时,则可以使得训练后得到的人脸语义分割模型学习到在各个人脸分割对象的大致边界内进行各个人脸分割对象的识别,从而得到与不同人脸分割对象匹配的多个人脸语义分割结果,提升人脸语义分割结果的准确度。
步骤104,根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。
在本发明实施例中,对于第一训练集中的每个第一人脸图像都执行步骤102~步骤104的训练步骤,从而可以使得经过训练后的神经网络模型,即得到的所述人脸语义分割模型能够用于根据待分割人脸图像的概率分布结果(与上述第一概率分布结果表达的意思类似),对待分割人脸图像进行人脸语义的细化分割,输出与不同人脸分割对象匹配的多个目标人脸语义分割结果。
在本发明实施例中,利用先验的标准人脸关键点信息、预先配置的标准人脸概率分布结果以及第一训练集中每个第一人脸图像的人脸关键点信息,可以获取到第一人脸图像的第一概率分布结果,由于第一概率分布结果是基于标准人脸概率分布结果和标准人脸关键点信息而确定出来的,其中,标准人脸概率分布结果在标准人脸图像中能够对各个人脸分割对象所在的区别进行限制,因此,该第一概率分布结果也能够对第一人脸图像中各个人脸分割对象所在的区域进行限制,那么在利用第一人脸图像以及第一人脸图像的第一概率分布结果来对神经网络模型进行训练时,则可以使训练得到的人脸语义分割模型学习在该第一概率分布结果限制的各个区域内进行各个人脸分割对象的语义识别和分割,能够防止训练后得到的人脸语义分割模型对各个区域外的部分进行误识别,提升了训练后得到的人脸语义分割模型对人脸图像的不同人脸语义区域的分割准确度。
相较于相关技术中只将图像的RGB(红绿蓝)矩阵送入神经网络模型进行训练方案来说,本发明实施例的方法将第一人脸图像以及该第一人脸图像的概率分布结果(即该第一人脸图像的多个人脸分割对象的概率分布矩阵)均输入至神经网络模型进行训练,可以使得训练得到的人脸语义分割模型更加精准的对人脸分割对象进行准确的语义分割。
可选地,所述第一概率分布结果可以包括第一概率分布矩阵,那么在执行步骤104时,可以首先获取与所述第一人脸图像匹配的第一人脸图像矩阵;然后,对所述第一人脸图像矩阵和所述第一概率分布矩阵进行矩阵连接处理;最后,根据经过所述矩阵连接处理后的矩阵数据对神经网络模型进行训练。
具体而言,在对第一训练集中的图像样本经过步骤101~步骤103的处理后,可以对每个第一人脸图像都得到对应的第一概率分布结果,而第一概率分布结果可以以矩阵的形式存在,这里记为第一概率分布矩阵。此外,由于第一概率分布结果包括与不同人脸分割对象匹配的多个第一局部概率分布结果,例如人脸分割对象的数量为上述列举的11个人脸分割对象,那么这里的第一概率分布矩阵则是W*H*11的概率分布矩阵。每一个W*H的概率分布矩阵对应一个人脸分割对象。
其中,第一人脸图像为RGB图像,因此,第一人脸图像中的每个像素点都包括R(红色)值、G(绿色)值和B(蓝色)值,例如第一人脸图像的尺寸为W*H,即宽度为W,在宽度方向上包括W个像素点,长度为H,在长度方向上包括H个像素点。那么第一人脸图像中任意一个颜色都可以构成一个W*H*1的矩阵,第一人脸图像中的R值构成一个矩阵,G值构成一个矩阵,B值构成一个矩阵,且每个矩阵的长度是H,宽度是W,所以,第一人脸图像的第一人脸图像矩阵是W*H*3的图像矩阵,即包括三层W*H的矩阵。
因此,一个图像的图像矩阵就是以矩阵的方式来表达出的图像数据,或者说是该图像的矩阵结构。
那么可以将所述第一人脸图像矩阵W*H*3和所述第一概率分布矩阵W*H*11作矩阵连接处理,得到W*H*14的矩阵数据;最后,根据W*H*14的矩阵数据对神经网络模型进行训练。
这样,本发明实施例通过获取第一训练集中第一人脸图像的第一人脸图像矩阵,以矩阵数据的方式来表达图像数据,此外,还获取到以矩阵数据的方式来表达的该第一人脸图像中,与不同人脸分割对象匹配的第一概率分布矩阵,并将这两个矩阵数据作拼接,利用拼接后的矩阵数据来对神经网络模型进行训练,相对于相关技术中只将训练样本的图像矩阵输入到神经网络模型进行人脸语义的分割,本发明实施例还将该训练样本的与不同人脸分割对象匹配的第一概率分布矩阵输入到神经网络模型进行训练,可以使得训练后得到的人脸语义分割模型更加精准的对各个人脸部件进行语义分割,而不会将不属于某个人脸分割对象的像素点分割到该人脸分割对象对应的区域内,提升了训练后的人脸语义分割模型对人脸语义分割的准确度。
可选地,在步骤101之前,根据本发明实施例的方法还可以包括:生成标准人脸关键点信息。
在生成标准人脸关键点信息时,本发明实施例的方法可以根据经验人工设置在例如如图2所示的标准人脸图像的状态下,各个预设人脸关键点的标准坐标信息,例如在图2中,左眼关键点21的坐标为:p1(x1,y1);右眼关键点22的坐标为:p2(x2,y2);鼻尖关键点23的坐标为:p3(x3,y3);左嘴角关键点24的坐标为:p4(x4,y4);右嘴角关键点25的坐标为:p5(x5,y5)。
可选地,在步骤101之前,根据本发明实施例的方法还可以包括:生成标准人脸概率分布结果。
在生成标准人脸概率分布结果时,本发明实施例还可以通过人脸语义分割的数据集,来统计标准人脸图像中各个人脸分割对象的概率分布,即标准人脸概率分布结果。
这样,本发明实施例通过生成标准人脸关键点的信息,以及标准人脸概率分布结果,并利用这两项信息,来对第一训练集中的第一人脸图像进行处理,来获取第一人脸图像的第一概率分布结果,并利用第一人脸图像和第一概率分布结果来对神经网络模型进行训练,使得训练得到的人脸语义分割模型能够利用第一概率分布结果来对待分割人脸图像中的目标人脸分割对象所在的区域进行约束和限制,防止将目标人脸分割对象所在的区域外面的像素点分割到该目标人脸分割对象的情况,提升了人脸语义分割的准确度。
可选地,在生成标准人脸概率分布结果时,可以通过如图3所示的方法来实现:
S201,获取第二训练样本集;
其中,所述第二训练样本集包括多组样本;
每一组样本包括一个第二人脸图像、与不同分割对象匹配的多个第二人脸语义分割结果、第二人脸关键点信息,其中,所述多个第二人脸语义分割结果以及所述第二人脸关键点信息均与所述第二人脸图像匹配;
在一个示例中,以一组样本为例来说明,该一组样本包括一个原始人脸图像,即上述第二人脸图像,该原始人脸图像对应11个人工分割图片(这11个分割图片分别对应于上文所述的11个人脸分割对象),即上述多个第二人脸语义分割结果,一个文本文件。
其中,每张分割图片表示对应人脸分割对象的人工分割结果,且每张分割图片是二值化处理后的图片,在该分割图片中属于该分割对象的像素点取值为1,不属于该分割对象的像素值取值为0。可以理解为每张分割图片都是一个人脸分割对象的矩阵。
其中,文本文件中记录有该原始人脸图像中5个预设人脸关键点的坐标信息,例如左眼,右眼,鼻尖,左嘴角,右嘴角五个关键点的坐标。
需要说明的是,本发明实施例中各个人脸图像的预设关键点的坐标信息和标准人脸关键点的坐标信息是基于同一个直角坐标系的,且二者的关键点类型相同。
在一个示例中,图4示出了一个第二人脸图像的11个分割对象对应的区域,以及第二人脸图像中的5个预设人脸关键点,其中,图4中的附图标记与图2中的附图标记相同,因此,这里不再赘述。
S202,针对所述第二训练样本集中的任意一个第二人脸图像,根据所述第二人脸关键点信息和预先配置的标准人脸关键点信息,获取第一仿射矩阵;
举例来说,图4所示的第二人脸图像中的5个预设人脸关键点具有5个坐标信息,而根据经验确定的5个标准人脸关键点也具有5个坐标信息,那么可以对这两组人脸关键点的坐标信息进行仿射变换,从而得到第一仿射矩阵。
S203,根据所述第一仿射矩阵,对所述多个第二人脸语义分割结果分别进行仿射变换,生成与所述不同人脸分割对象匹配的多个标准人脸语义分割结果;
继续以上例举例来说,第二训练集中的第二人脸图像对应有11个人脸语义分割结果,那么按照上述第一仿射矩阵,来对11个人脸语义分割结果分别进行仿射变换,即图4中的11个人脸分割对象对应的11个区域,向图2所示的11个人脸分割对象对应的11个区域进行仿射变换,从而可以将第二训练样本集中第二人脸图像的角度不标准的11个区域变换为角度标准的11个区域,即上述多个标准人脸语义分割结果。
S204,根据每个第二人脸图像对应的所述多个标准人脸语义分割结果,获取与不同人脸分割对象匹配的多个标准概率分布结果。
其中,第二训练集中的每个第二人脸图像都可以经过S202~S203来得到角度标准的11个区域,那么可以利用第二训练集中所有第二人脸图像的多组11个区域,来获取在标准人脸图像中的标准人脸概率分布结果,其中,该标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果。
其中,多个标准概率分布结果表达了标准人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于该人脸分割对象的概率。
这样,本发明实施例为了生成标准人脸概率分布结果,利用标准人脸关键点信息和第二训练样本集中第二人脸图像的第二人脸关键点信息,来获取第一仿射矩阵,并利用该第一仿射矩阵,来对第二人脸图像的人工分割的多个人脸语义分割结果进行仿射变换,从而能够将第二人脸图像中原本角度不正的多个人脸语义分割结果转换成在标准人脸状态下,即角度标准下的多个标准人脸语义分割结果,最后,利用第二训练集中每个第二人脸图像对应的所述多个标准人脸语义分割结果,来获取与不同人脸分割对象匹配的多个标准概率分布结果,多个标准概率分布结果表达了标准人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于该人脸分割对象的概率。这样,就通过人脸语义分割的数据集(即第二训练集)统计出了与不同人脸分割对象匹配的多个标准概率分布结果,其中,第二训练集中的第二人脸图像中越可能属于某个人脸分割对象的像素点,其概率值就越大。那么后续在利用该标准人脸概率分布结果来对神经网络模型进行训练时,可以对各个分割目标(即人脸分割对象)进行边界的约束,防止在人脸分割对象所在区域的外面出现错误分割的情况。
可选地,在执行S204时,可以按照如下公式1获取与人脸分割对象l匹配的标准概率分布结果
Figure BDA0001969613370000131
Figure BDA0001969613370000132
其中,j表示所述第二训练样本集中的第j个第二人脸图像,1≤j≤k,j为整数,j分别取值1,2,3……k,k为所述第二训练样本集中所述第二人脸图像的总个数;
img(l)j表示与人脸分割对象l匹配的标准人脸语义分割结果,其中,所述标准语义分割结果对应于第j个第二人脸图像;
Figure BDA0001969613370000133
表示所述标准人脸语义分割结果img(l)j中坐标(a,b)的数值,其中,坐标(a,b)为所述标准人脸语义分割结果img(l)j中的每个坐标;
Figure BDA0001969613370000134
为k个第二人脸图像对应的k个
Figure BDA0001969613370000135
的平均值,
Figure BDA0001969613370000136
表示坐标(a,b)对应的像素点属于所述人脸分割对象l的概率值。
这里结合图5以人脸分割对象l为鼻子,来对本发明实施例的上述公式1进行解释:
例如k=3,即第二训练样本集包括3组样本,图5示出了第二人脸图像1中鼻子的标准人脸语义分割结果51,第二人脸图像2中鼻子的标准人脸语义分割结果52和第二人脸图像3中鼻子的标准人脸语义分割结果53,其中,标准人脸语义分割结果也是一个矩阵,矩阵中的数值为1表示该位置对应的像素点属于鼻子,矩阵中的数值为0表示该位置对应的像素点不属于鼻子。
那么为了利用图5所示的标准人脸语义分割结果51、标准人脸语义分割结果52和标准人脸语义分割结果53,来获取与鼻子匹配的标准概率分布结果54,需要对矩阵中的四个坐标的值重新进行计算。如图5所示,在计算标准概率分布结果54的左上角的坐标(1,1)的数值时,则是将第二人脸图像1中鼻子的标准人脸语义分割结果51中的左上角的坐标(1,1)的数值、第二人脸图像2中鼻子的标准人脸语义分割结果52中的左上角的坐标(1,1)的数值、以及第二人脸图像3中鼻子的标准人脸语义分割结果53中的左上角的坐标(1,1)的数值作平均值计算,即(0+1+1)/3=0.67,得到标准概率分布结果54中左上角的坐标(1,1)对应的像素点属于鼻子的概率为0.67。对于标准概率分布结果54中其他坐标上的概率值的计算采用类似的方式,具体参照图5即可。这样,就根据第二训练集得到了人脸分割对象——鼻子的标准概率分布结果,即以概率矩阵的方式来表达出在标准人脸图像中像素点属于鼻子的概率。类似的,还可以得到其他人脸分割对象的标准概率分布结果。
这样,本发明实施例根据第二训练集中每个第二人脸图像对应的多个标准人脸语义分割结果,按照人脸分割对象的不同,来分别计算各个人脸分割对象下的标准概率分布结果,从而得到与不同人脸分割对象匹配的多个标准概率分布结果,通过配置该多个标准概率分布结果,可以使用该多个标准概率分布结果来对神经网络模型进行训练,从而达到对各个人脸分割对象所在的区域进行限制的目的,使得训练后得到的人脸语义分割模型只在各个人脸分割对象所在的大区域内进行细化分割,而不会将不属于该人脸分割对象的像素点分割到该人脸分割对象下,提升了人脸语义分割的准确度。
这里示意性的示出了本发明实施例的神经网络模型,也即训练后得到的人脸语义分割模型的网络结构:
网络输入为(w*h*14)的矩阵;
第1层为有128个3×3卷积核的卷积层,输入尺寸为w×h×14,输出尺寸为w×h×128。
第2层为有128个3×3卷积核的卷积层,输入尺寸为w×h×128,输出尺寸为w×h×128。
第3层为有2×2池化核的最大池化层,输入尺寸为w×h×128,输出尺寸为w/2×h/2×128。
第4层为有256个3×3卷积核的卷积层,输入尺寸为w/2×h/2×128,输出尺寸为w/2×h/2×256。
第5层为有256个3×3卷积核的卷积层,输入尺寸为w/2×h/2×256,输出尺寸为w/2×h/2×256。
第6层为有2×2池化核的最大池化层,输入尺寸为w/2×h/2×256,输出尺寸为w/4×h/4×256。
第7层为有512个3×3卷积核的卷积层,输入尺寸为w/4×h/4×256,输出尺寸为w/4×h/4×512。
第8层为有512个3×3卷积核的卷积层,输入尺寸为w/4×h/4×512,输出尺寸为w/4×h/4×512。
第9层为有2×2池化核的最大池化层,输入尺寸为w/4×h/4×512,输出尺寸为w/8×h/8×512。
第10层为有1024个3×3卷积核的卷积层,输入尺寸为w/8×h/8×512,输出尺寸为w/8×h/8×1024。
第11层为有1024个3×3卷积核的卷积层,输入尺寸为w/8×h/8×1024,输出尺寸为w/8×h/8×1024。
第12层为有2×2池化核的最大池化层,输入尺寸为w/8×h/8×1024,输出尺寸为w/16×h/16×1024。
第13层为有2048个3×3卷积核的卷积层,输入尺寸为w/16×h/16×1024,输出尺寸为w/16×h/16×2048。
第14层为有2048个3×3卷积核的卷积层,输入尺寸为w/16×h/16×2048,输出尺寸为w/16×h/16×2048。
第15层为有2×2池化核的最大池化层,输入尺寸为w/16×h/16×2048,输出尺寸为w/32×h/32×2048。
第16层为行和列上采样因子为(2,2)的上采样层,输入尺寸为w/32×h/32×2048,输出尺寸为w/16×h/16×2048。
第17层为有1024个3×3卷积核的卷积层,输入尺寸为w/16×h/16×2048,输出尺寸为w/16×h/16×1024。
第18层为拼接层,将第17层的输出和第12层的输出拼接,输入尺寸为两个w/16×h/16×1024,输出尺寸为w/16×h/16×2048。
第19层为有1024个3×3卷积核的卷积层,输入尺寸为w/16×h/16×2048,输出尺寸为w/16×h/16×1024。
第20层为行和列上采样因子为(2,2)的上采样层,输入尺寸为w/16×h/16×1024,输出尺寸为w/8×h/8×1024。
第21层为有512个3×3卷积核的卷积层,输入尺寸为w/8×h/8×1024,输出尺寸为w/8×h/8×512。
第22层为拼接层,将第21层的输出和第9层的输出拼接,输入尺寸为两个w/8×h/8×512,输出尺寸为w/8×h/8×1024。
第23层为有512个3×3卷积核的卷积层,输入尺寸为w/8×h/8×1024,输出尺寸为w/8×h/8×512。
第24层为行和列上采样因子为(2,2)的上采样层,输入尺寸为w/8×h/8×512,输出尺寸为w/4×h/4×512。
第25层为有256个3×3卷积核的卷积层,输入尺寸为w/4×h/4×512,输出尺寸为w/4×h/4×256。
第26层为拼接层,将第25层的输出和第6层的输出拼接,输入尺寸为两个w/4×h/4×256,输出尺寸为w/4×h/4×512。
第27层为有256个3×3卷积核的卷积层,输入尺寸为w/4×h/4×512,输出尺寸为w/4×h/4×256。
第28层为行和列上采样因子为(2,2)的上采样层,输入尺寸为w/4×h/4×256,输出尺寸为w/2×h/2×256。
第29层为有128个3×3卷积核的卷积层,输入尺寸为w/2×h/2×256,输出尺寸为w/2×h/2×128。
第30层为拼接层,将第29层的输出和第3层的输出拼接,输入尺寸为两个w/2×h/2×128,输出尺寸为w/2×h/2×256。
第31层为有128个3×3卷积核的卷积层,输入尺寸为w/2×h/2×256,输出尺寸为w/2×h/2×128。
第32层为行和列上采样因子为(2,2)的上采样层,输入尺寸为w/2×h/2×128,输出尺寸为w×h×128。
第33层为有128个3×3卷积核的卷积层,输入尺寸为w×h×128,输出尺寸为w×h×128。
第34层为拼接层,将第33层的输出和第1层的输出拼接,输入尺寸为两个w×h×128,输出尺寸为w×h×256。
第35层为有128个3×3卷积核的卷积层,输入尺寸为w×h×256,输出尺寸为w×h×128。
第36层为有311个3×3卷积核的卷积层,输入尺寸为w×h×128,输出尺寸为w×h×114。
参照图6,示出了本发明的一种图像处理方法实施例的步骤流程图,具体可以包括如下步骤:
步骤601,获取待分割的第三人脸图像;
步骤602,获取所述第三人脸图像的第三人脸关键点信息;
这里的第三人脸关键点信息与上述模型训练方法中的第一人脸关键点信息的原理类似,这里不再赘述。
步骤603,获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
其中,本步骤与上述模型训练方法中的步骤102类似,具体参照上文,这里不再赘述。
步骤604,根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第三人脸关键点信息,获取所述第三人脸图像的第三概率分布结果;
其中,本步骤的执行原理与上述模型训练方法中的步骤103类似,具体参照上文,这里不再赘述。
步骤605,将所述第三人脸图像和所述第三概率分布结果输入至预先经过训练的人脸语义分割模型,得到与不同人脸分割对象匹配的多个目标人脸语义分割结果;
其中,这里的人脸语义分割模型即为上述实施例训练得到的人脸语义分割模型。
其中,所述人脸语义分割模型用于根据所述第一概率分布结果,对第一人脸图像进行人脸语义的细化分割,输出与不同人脸分割对象匹配的多个目标人脸语义分割结果。
在本发明实施例中,利用先验的标准人脸关键点信息、预先配置的标准人脸概率分布结果以及待分割的第三人脸图像的第三人脸关键点信息,可以获取到第三人脸图像的第三概率分布结果,该第三概率分布结果能够对第三人脸图像中各个人脸分割对象所在的区域进行限制,那么在将第三人脸图像以及第三人脸图像的第三概率分布结果输入至预先经过训练的人脸语义分割模型后,人脸语义分割模型则可以在该第三概率分布结果限制的各个区域内对第三人脸图像进行各个人脸分割对象的语义识别和分割,能够防止人脸语义分割模型对各个区域外的部分进行误识别,提升了对人脸图像进行人脸语义分割时的准确度。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
与上述本发明实施例所提供的模型训练方法相对应,参照图7,示出了本发明一种模型训练装置实施例的结构框图,具体可以包括如下模块:
第一获取模块701,用于获取第一训练样本集,所述第一训练样本集包括第一人脸图像以及所述第一人脸图像的第一人脸关键点信息;
第二获取模块702,用于获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
第三获取模块703,用于根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
训练模块704,用于根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。
可选地,所述装置还包括:
第四获取模块,用于获取第二训练样本集,所述第二训练样本集包括第二人脸图像、与不同分割对象匹配的多个第二人脸语义分割结果、第二人脸关键点信息,其中,所述多个第二人脸语义分割结果以及所述第二人脸关键点信息均与所述第二人脸图像匹配;
第五获取模块,用于针对所述第二训练样本集中的任意一个第二人脸图像,根据所述第二人脸关键点信息和预先配置的标准人脸关键点信息,获取第一仿射矩阵;
生成模块,用于根据所述第一仿射矩阵,对所述多个第二人脸语义分割结果分别进行仿射变换,生成与所述不同人脸分割对象匹配的多个标准人脸语义分割结果;
第六获取模块,用于根据每个第二人脸图像对应的所述多个标准人脸语义分割结果,获取与不同人脸分割对象匹配的多个标准概率分布结果。
可选地,所述第六获取模块,还用于按照如下公式获取与人脸分割对象l匹配的标准概率分布结果
Figure BDA0001969613370000191
Figure BDA0001969613370000192
其中,j表示所述第二训练样本集中的第j个第二人脸图像,1≤j≤k,j为整数,j分别取值1,2,3……k,k为所述第二训练样本集中所述第二人脸图像的总个数;
img(l)j表示与人脸分割对象l匹配的标准人脸语义分割结果,其中,所述标准语义分割结果对应于第j个第二人脸图像;
Figure BDA0001969613370000193
表示所述标准人脸语义分割结果img(l)j中坐标(a,b)的数值,其中,坐标(a,b)为所述标准人脸语义分割结果img(l)j中的每个坐标;
Figure BDA0001969613370000194
为k个第二人脸图像对应的k个
Figure BDA0001969613370000195
的平均值,
Figure BDA0001969613370000196
表示坐标(a,b)对应的像素点属于所述人脸分割对象l的概率值。
可选地,所述第三获取模块703包括:
第一获取子模块,用于根据所述标准人脸关键点信息和所述第一人脸关键点信息,获取第二仿射矩阵;
变换子模块,用于根据所述第二仿射矩阵,对所述多个标准概率分布结果分别进行仿射变换,得到所述第一人脸图像的第一概率分布结果,其中,所述第一概率分布结果包括与所述不同人脸分割对象匹配的多个第一局部概率分布结果。
可选地,所述训练模块704包括:
第二获取子模块,用于当所述第一概率分布结果包括第一概率分布矩阵时,获取与所述第一人脸图像匹配的第一人脸图像矩阵;
处理子模块,用于对所述第一人脸图像矩阵和所述第一概率分布矩阵进行矩阵连接处理;
训练子模块,用于根据经过所述矩阵连接处理后的矩阵数据对神经网络模型进行训练。
对于模型训练装置实施例而言,由于其与模型训练方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
与上述本发明实施例所提供的图像处理方法相对应,参照图8,示出了本发明一种图像处理装置实施例的结构框图,具体可以包括如下模块:
第七获取模块801,用于获取待分割的第一人脸图像;
第八获取模块802,用于获取所述第一人脸图像的第一人脸关键点信息;
第九获取模块803,用于获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
第十获取模块804,用于根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果;
语义分割模块805,用于将所述第一人脸图像和所述第一概率分布结果输入至预先经过训练的人脸语义分割模型,得到与不同人脸分割对象匹配的多个目标人脸语义分割结果。
对于图像处理装置实施例而言,由于其与图像处理方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
根据本发明的又一个实施例,本发明还提供了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的模型训练程序或图像处理程序,所述模型训练程序被所述处理器执行时实现如上述任意一个实施例所述的模型训练方法的步骤,所述图像处理程序被所述处理器执行时实现上述任意一个实施例所述的图像处理方法的步骤。
根据本发明的再一个实施例,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有模型训练程序或图像处理程序,所述模型训练程序被处理器执行时实现如上述任意一个实施例所述的模型训练方法中的步骤,所述图像处理程序被所述处理器执行时实现上述任意一个实施例所述的图像处理方法的步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种模型训练方法、一种模型训练装置、一种图像处理方法、一种图像处理装置、一种电子设备、一种计算机可读存储介质,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (14)

1.一种模型训练方法,其特征在于,包括:
获取第一训练样本集,所述第一训练样本集包括第一人脸图像以及所述第一人脸图像的第一人脸关键点信息;
获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果,所述第一概率分布结果表征在所述第一人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于所述人脸分割对象的概率;
根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。
2.根据权利要求1所述的方法,其特征在于,所述获取第一训练样本集之前,所述方法还包括:
获取第二训练样本集,所述第二训练样本集包括第二人脸图像、与不同分割对象匹配的多个第二人脸语义分割结果、第二人脸关键点信息,其中,所述多个第二人脸语义分割结果以及所述第二人脸关键点信息均与所述第二人脸图像匹配;
针对所述第二训练样本集中的任意一个第二人脸图像,根据所述第二人脸关键点信息和预先配置的标准人脸关键点信息,获取第一仿射矩阵;
根据所述第一仿射矩阵,对所述多个第二人脸语义分割结果分别进行仿射变换,生成与所述不同人脸分割对象匹配的多个标准人脸语义分割结果;
根据每个第二人脸图像对应的所述多个标准人脸语义分割结果,获取与不同人脸分割对象匹配的多个标准概率分布结果。
3.根据权利要求2所述的方法,其特征在于,所述根据每个第二人脸图像对应的所述多个标准人脸语义分割结果,获取与不同人脸分割对象匹配的多个标准概率分布结果,包括:
按照如下公式获取与人脸分割对象l匹配的标准概率分布结果
Figure FDA0002858590010000011
Figure FDA0002858590010000021
其中,j表示所述第二训练样本集中的第j个第二人脸图像,1≤j≤k,j为整数,j分别取值1,2,3……k,k为所述第二训练样本集中所述第二人脸图像的总个数;
img(l)j表示与人脸分割对象l匹配的标准人脸语义分割结果,其中,所述标准语义分割结果对应于第j个第二人脸图像;
Figure FDA0002858590010000022
表示所述标准人脸语义分割结果img(l)j中坐标(a,b)的数值,其中,坐标(a,b)为所述标准人脸语义分割结果img(l)j中的每个坐标;
Figure FDA0002858590010000023
为k个第二人脸图像对应的k个
Figure FDA0002858590010000024
的平均值,
Figure FDA0002858590010000025
表示坐标(a,b)对应的像素点属于所述人脸分割对象l的概率值。
4.根据权利要求1所述的方法,其特征在于,所述根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果,包括:
根据所述标准人脸关键点信息和所述第一人脸关键点信息,获取第二仿射矩阵;
根据所述第二仿射矩阵,对所述多个标准概率分布结果分别进行仿射变换,得到所述第一人脸图像的第一概率分布结果,其中,所述第一概率分布结果包括与所述不同人脸分割对象匹配的多个第一局部概率分布结果。
5.根据权利要求1所述的方法,其特征在于,所述第一概率分布结果包括第一概率分布矩阵,所述根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,包括:
获取与所述第一人脸图像匹配的第一人脸图像矩阵;
对所述第一人脸图像矩阵和所述第一概率分布矩阵进行矩阵连接处理;
根据经过所述矩阵连接处理后的矩阵数据对神经网络模型进行训练。
6.一种图像处理方法,其特征在于,包括:
获取待分割的第一人脸图像;
获取所述第一人脸图像的第一人脸关键点信息;
获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果,所述第一概率分布结果表征在所述第一人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于所述人脸分割对象的概率;
将所述第一人脸图像和所述第一概率分布结果输入至预先经过训练的人脸语义分割模型,得到与不同人脸分割对象匹配的多个目标人脸语义分割结果。
7.一种模型训练装置,其特征在于,包括:
第一获取模块,用于获取第一训练样本集,所述第一训练样本集包括第一人脸图像以及所述第一人脸图像的第一人脸关键点信息;
第二获取模块,用于获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
第三获取模块,用于根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果,所述第一概率分布结果表征在所述第一人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于所述人脸分割对象的概率;
训练模块,用于根据所述第一人脸图像和所述第一概率分布结果对神经网络模型进行训练,以获得人脸语义分割模型。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第四获取模块,用于获取第二训练样本集,所述第二训练样本集包括第二人脸图像、与不同分割对象匹配的多个第二人脸语义分割结果、第二人脸关键点信息,其中,所述多个第二人脸语义分割结果以及所述第二人脸关键点信息均与所述第二人脸图像匹配;
第五获取模块,用于针对所述第二训练样本集中的任意一个第二人脸图像,根据所述第二人脸关键点信息和预先配置的标准人脸关键点信息,获取第一仿射矩阵;
生成模块,用于根据所述第一仿射矩阵,对所述多个第二人脸语义分割结果分别进行仿射变换,生成与所述不同人脸分割对象匹配的多个标准人脸语义分割结果;
第六获取模块,用于根据每个第二人脸图像对应的所述多个标准人脸语义分割结果,获取与不同人脸分割对象匹配的多个标准概率分布结果。
9.根据权利要求8所述的装置,其特征在于,
所述第六获取模块,还用于按照如下公式获取与人脸分割对象l匹配的标准概率分布结果
Figure FDA0002858590010000041
Figure FDA0002858590010000042
其中,j表示所述第二训练样本集中的第j个第二人脸图像,1≤j≤k,j为整数,j分别取值1,2,3……k,k为所述第二训练样本集中所述第二人脸图像的总个数;
img(l)j表示与人脸分割对象l匹配的标准人脸语义分割结果,其中,所述标准语义分割结果对应于第j个第二人脸图像;
Figure FDA0002858590010000043
表示所述标准人脸语义分割结果img(l)j中坐标(a,b)的数值,其中,坐标(a,b)为所述标准人脸语义分割结果img(l)j中的每个坐标;
Figure FDA0002858590010000044
为k个第二人脸图像对应的k个
Figure FDA0002858590010000045
的平均值,
Figure FDA0002858590010000046
表示坐标(a,b)对应的像素点属于所述人脸分割对象l的概率值。
10.根据权利要求7所述的装置,其特征在于,所述第三获取模块包括:
第一获取子模块,用于根据所述标准人脸关键点信息和所述第一人脸关键点信息,获取第二仿射矩阵;
变换子模块,用于根据所述第二仿射矩阵,对所述多个标准概率分布结果分别进行仿射变换,得到所述第一人脸图像的第一概率分布结果,其中,所述第一概率分布结果包括与所述不同人脸分割对象匹配的多个第一局部概率分布结果。
11.根据权利要求7所述的装置,其特征在于,所述训练模块包括:
第二获取子模块,用于当所述第一概率分布结果包括第一概率分布矩阵时,获取与所述第一人脸图像匹配的第一人脸图像矩阵;
处理子模块,用于对所述第一人脸图像矩阵和所述第一概率分布矩阵进行矩阵连接处理;
训练子模块,用于根据经过所述矩阵连接处理后的矩阵数据对神经网络模型进行训练。
12.一种图像处理装置,其特征在于,包括:
第一获取模块,用于获取待分割的第一人脸图像;
第二获取模块,用于获取所述第一人脸图像的第一人脸关键点信息;
第三获取模块,用于获取预先配置的标准人脸概率分布结果以及标准人脸关键点信息,其中,所述标准人脸概率分布结果包括与不同人脸分割对象匹配的多个标准概率分布结果;
第四获取模块,用于根据所述标准人脸概率分布结果、所述标准人脸关键点信息以及所述第一人脸关键点信息,获取所述第一人脸图像的第一概率分布结果,所述第一概率分布结果表征在所述第一人脸图像中每个分割对象对应的区域内,各个坐标点对应的像素属于所述人脸分割对象的概率;
语义分割模块,用于将所述第一人脸图像和所述第一概率分布结果输入至预先经过训练的人脸语义分割模型,得到与不同人脸分割对象匹配的多个目标人脸语义分割结果。
13.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的模型训练程序或图像处理程序,所述模型训练程序被所述处理器执行时实现如权利要求1至5中任一项所述的模型训练方法的步骤,所述图像处理程序被所述处理器执行时实现如权利要求6所述的图像处理方法的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有模型训练程序或图像处理程序,所述模型训练程序被处理器执行时实现如权利要求1至5中任一项所述的模型训练方法中的步骤,所述图像处理程序被所述处理器执行时实现如权利要求6所述的图像处理方法的步骤。
CN201910115532.2A 2019-02-14 2019-02-14 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 Active CN109948441B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910115532.2A CN109948441B (zh) 2019-02-14 2019-02-14 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910115532.2A CN109948441B (zh) 2019-02-14 2019-02-14 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN109948441A CN109948441A (zh) 2019-06-28
CN109948441B true CN109948441B (zh) 2021-03-26

Family

ID=67007563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910115532.2A Active CN109948441B (zh) 2019-02-14 2019-02-14 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN109948441B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992371B (zh) * 2019-11-20 2023-10-27 北京奇艺世纪科技有限公司 一种基于先验信息的人像分割方法、装置及电子设备
CN111354079B (zh) * 2020-03-11 2023-05-02 腾讯科技(深圳)有限公司 三维人脸重建网络训练及虚拟人脸形象生成方法和装置
CN111709878B (zh) 2020-06-17 2023-06-23 北京百度网讯科技有限公司 人脸超分辨率实现方法、装置、电子设备及存储介质
CN112464839A (zh) * 2020-12-04 2021-03-09 深圳市优必选科技股份有限公司 人像分割方法、装置、机器人及存储介质
CN112597944B (zh) * 2020-12-29 2024-06-11 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002037401A3 (en) * 2000-11-06 2002-07-11 Koninkl Philips Electronics Nv Method and apparatus for determining a number of states for a hidden markov model in a signal processing system.
CN106203533A (zh) * 2016-07-26 2016-12-07 厦门大学 基于混合训练的深度学习人脸验证方法
CN107679490A (zh) * 2017-09-29 2018-02-09 百度在线网络技术(北京)有限公司 用于检测图像质量的方法和装置
CN108875540A (zh) * 2018-03-12 2018-11-23 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218603B (zh) * 2013-04-03 2016-06-01 哈尔滨工业大学深圳研究生院 一种人脸自动标注方法及系统
CN104318221A (zh) * 2014-11-05 2015-01-28 中南大学 一种基于elm的人脸表情识别方法
CN105373777B (zh) * 2015-10-30 2019-01-08 中国科学院自动化研究所 一种用于人脸识别的方法及装置
CN106446781A (zh) * 2016-08-29 2017-02-22 厦门美图之家科技有限公司 一种人脸图像处理方法及装置
CN106780512B (zh) * 2016-11-30 2020-01-17 厦门美图之家科技有限公司 分割图像的方法、应用及计算设备
CN108280388A (zh) * 2017-01-06 2018-07-13 富士通株式会社 训练面部检测模型的方法和装置以及面部检测方法和装置
CN107423707A (zh) * 2017-07-25 2017-12-01 深圳帕罗人工智能科技有限公司 一种基于复杂环境下的人脸情绪识别方法
CN108304765B (zh) * 2017-12-11 2020-08-11 中国科学院自动化研究所 用于人脸关键点定位与语义分割的多任务检测装置
CN108268859A (zh) * 2018-02-08 2018-07-10 南京邮电大学 一种基于深度学习的人脸表情识别方法
CN108920999A (zh) * 2018-04-16 2018-11-30 深圳市深网视界科技有限公司 一种头部角度预测模型训练方法、预测方法、设备和介质
CN109284779A (zh) * 2018-09-04 2019-01-29 中国人民解放军陆军工程大学 基于深度全卷积网络的物体检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002037401A3 (en) * 2000-11-06 2002-07-11 Koninkl Philips Electronics Nv Method and apparatus for determining a number of states for a hidden markov model in a signal processing system.
CN106203533A (zh) * 2016-07-26 2016-12-07 厦门大学 基于混合训练的深度学习人脸验证方法
CN107679490A (zh) * 2017-09-29 2018-02-09 百度在线网络技术(北京)有限公司 用于检测图像质量的方法和装置
CN108875540A (zh) * 2018-03-12 2018-11-23 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质

Also Published As

Publication number Publication date
CN109948441A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
CN109948441B (zh) 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质
CN109416727B (zh) 一种人脸图像中眼镜去除方法及装置
CN110020620B (zh) 一种大姿态下的人脸识别方法、装置及设备
TWI742690B (zh) 人體檢測方法、裝置、電腦設備及儲存媒體
CN110008817B (zh) 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质
CN105981051B (zh) 用于图像解析的分层互连多尺度卷积网络
CN109840477B (zh) 基于特征变换的受遮挡人脸识别方法及装置
CN109117801A (zh) 人脸识别的方法、装置、终端及计算机可读存储介质
CN108921942B (zh) 对图像进行2d转制3d的方法及装置
CN111723691A (zh) 一种三维人脸识别方法、装置、电子设备及存储介质
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN111383232A (zh) 抠图方法、装置、终端设备及计算机可读存储介质
CN115690708A (zh) 基于跨模态知识蒸馏训练三维目标检测模型的方法和装置
CN110310247A (zh) 图像处理方法、装置、终端及计算机可读存储介质
CN110827371A (zh) 证件照生成方法、装置、电子设备及存储介质
CN105513105A (zh) 基于显著图的图像背景虚化方法
CN111080670A (zh) 图像提取方法、装置、设备及存储介质
CN109410158B (zh) 一种基于卷积神经网络的多焦点图像融合方法
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN110705530A (zh) 基于活体识别的同一人脸框确认方法、装置、设备及介质
CN110619334A (zh) 基于深度学习的人像分割方法、架构及相关装置
CN115270184A (zh) 视频脱敏、车辆的视频脱敏方法、车载处理系统
CN117058606A (zh) 一种x射线图像违禁品检测方法
CN113744280B (zh) 图像处理方法、装置、设备及介质
CN113505885A (zh) 基于预设的损失函数的单目深度估计网络的训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant