CN113469040A - 一种图像处理方法、装置、计算机设备和存储介质 - Google Patents
一种图像处理方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113469040A CN113469040A CN202110738813.0A CN202110738813A CN113469040A CN 113469040 A CN113469040 A CN 113469040A CN 202110738813 A CN202110738813 A CN 202110738813A CN 113469040 A CN113469040 A CN 113469040A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- key point
- feature
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 230000011218 segmentation Effects 0.000 claims abstract description 132
- 238000012545 processing Methods 0.000 claims abstract description 83
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000013528 artificial neural network Methods 0.000 claims abstract description 44
- 230000000694 effects Effects 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 31
- 238000007499 fusion processing Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了一种图像处理方法、装置、计算机设备和存储介质,其中,该方法包括:获取待追踪对象的目标人脸关键点组;将目标图像中的每个待匹配对象的人脸对应的关键点组与目标人脸关键点组进行匹配,确定待追踪对象在目标图像中的人脸关键点组;根据人脸关键点组对目标图像进行裁剪,得到待分割人脸图像;利用预先训练好的深度神经网络,对待分割人脸图像进行人脸区域的分割处理,得到目标图像对应的人脸分割结果。
Description
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种图像处理方法、装置、计算机设备和存储介质。
背景技术
针对包括多个对象的视频文件,其中的多帧图像往往会出现同一目标对象,在一些特定的场景下,可能存在对目标对象的特定身体部位进行特效处理的需求。比如,对目标对象进行脸部的特效处理以增强目标对象在视频文件的美感,以及使目标对象在视频文件中相对其他对象更突出。
现有技术中,为满足上述需要,需对每帧图像中出现的目标对象进行追踪识别,并对识别到的目标对象进行分割以得到目标对象的特定身体部位的分割图像,从而,利用分割图像对特定身体部位进行特效处理。
由于分割图像是通过对目标对象的整体人体进行分割得到的,需要处理的图像范围较大,因此,无法保证特定身体部位的分割精度和效率,并且,还无法在保证分割精度的同时,保证对目标对象的追踪效果。
发明内容
本公开实施例至少提供一种图像处理方法、装置、计算机设备和存储介质。
第一方面,本公开实施例提供了一种图像处理方法,包括:
获取待追踪对象的目标人脸关键点组;
将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组;
根据所述人脸关键点组对所述目标图像进行裁剪,得到待分割人脸图像;
利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
该实施方式,通过将目标图像中的每个待匹配对象的人脸对应的关键点组与目标人脸关键点组进行匹配,能够实现对目标人脸关键点组对应的待追踪对象的追踪,进而,基于匹配结果,能够准确地从待匹配对象中确定出待追踪对象以及待追踪对象对应在目标图像中的人脸关键点组。再根据人脸关键点组对目标图像进行裁剪,能够准确地得到人脸关键点组对应的人脸的待分割图像。进而,只需要对待分割图像进行人脸区域的分割处理,既能够缩小图像处理的范围,还能够保证需要处理的图像区域(人脸区域)的准确性,在减少需要处理的图像细节的基础上,减少了分割过程中的计算量,提高了部分人体分割效率和分割精度。并且,由于只需要对待分割图像的图像细节进行处理,所以有利于提高人脸分割的分割精度,得到更加准确的人脸分割结果。
在一种可能的实施方式中,所述关键点组包括第一关键点组;所述待匹配对象包括第一待匹配对象;
所述方法还包括:确定所述目标图像中的每个待匹配对象的人脸对应的关键点组的步骤:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第一待匹配对象中的每个第一待匹配对象的第一关键点组;
所述将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组,包括:
针对每个所述第一待匹配对象,基于所述第一待匹配对象的人脸对应的第一关键点组,确定所述第一待匹配对象对应的第一关键点特征;
获取待追踪对象对应的第二关键点特征;其中,所述第二关键点特征为所述待追踪对象的目标人脸关键点组对应的关键点特征;
将与所述第二关键点特征相匹配的第一关键点特征对应的第一待匹配对象作为所述待追踪对象,并将所述待追踪对象的第一关键点组作为所述目标图像中的所述人脸关键点组。
同一对象的人脸在不同的图像中的人脸关键点组对应的关键点特征一定是匹配的。因此,基于每个第一待匹配对象的人脸对应的第一关键点组,首先能够准确地确定出每个一待匹配对象的第一关键点特征,然后通过将第一关键点特征和待追踪对象对应的关键点特征进行匹配,能够准确地筛选出与待追踪对象对应的关键点特征相匹配的第一关键点特征,进而,可以准确地确定出与待追踪对象相匹配的待匹配对象,从而,准确地确定出待追踪对象对应在目标图像中的人脸关键点组。
在一种可能的实施方式中,所述关键点组包括第二关键点组;所述待匹配对象包括第二待匹配对象;
所述方法还包括:确定所述目标图像中的每个待匹配对象的人脸对应的关键点组的步骤:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第二待匹配对象中的每个第二待匹配对象的第二关键点组;
所述将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组,包括:
根据每个所述第二待匹配对象的第二关键点组,分别确定每个所述第二待匹配对象对应的第一人脸图像特征;
获取待追踪对象对应的第二人脸图像特征;
将与所述第二人脸图像特征相匹配的第一人脸图像特征对应的第二待匹配对象作为所述待追踪对象,并将所述待追踪对象的第二关键点组作为所述目标图像中的人脸关键点组。
人脸关键点组对应的图像区域的图像特征能够表征该人脸关键点组对应的人脸的人脸图像特征,人脸图像特征能够反映人脸在图像中的特征,同一对象的人脸在不同图像中的特征一定是匹配的。因此,基于确定的每个第二待匹配对象的第二关键点组,能够确定出每个第二待匹配对象对应的第一人脸图像特征,通过将第一人脸图像特征和待追踪对象对应的第二人脸图像特征相匹配,能够准确地从第二待匹配对象中筛选出与待追踪对象相匹配的第二待匹配对象,从而,可以准确地确定出待追踪对象对应在目标图像中的人脸关键点组。
在一种可能的实施方式中,所述获取待追踪对象的目标人脸关键点组,包括:
获取追踪图像;
对所述追踪图像进行人脸的关键点检测,确定所述追踪图像中的至少一个初始对象对应的初始关键点组;
基于所述至少一个初始对象中每个初始对象对应的初始关键点组的置信度,从所述初始对象中确定所述待追踪对象,并将所述待追踪对象对应的初始关键点组作为所述目标人脸关键点组;
在所述获取待追踪对象对应的第二关键点特征之前,所述方法还包括:
根据所述目标人脸关键点组,确定所述待追踪对象对应的所述第二关键点特征。
关键点的置信度越高,说明确定的关键点越准确,进而,基于每个初始对象对应的初始关键点组的置信度,能够筛选出关键点置信度最高的初始关键点组,进而,将置信度最高的初始关键点组对应的初始对象作为待追踪对象,不仅有利于提高确定的待追踪对象的准确性,而且可以防止确定出的准确性较低的待追踪对象为错误的对象,从而导致后续对该待追踪对象进行追踪时,无法有效的追踪到该待追踪对象,导致追踪失败。因此,将置信度最高的初始关键点组对应的初始对象作为待追踪对象,还能够有效提高追踪成功的概率。
在一种可能的实施方式中,所述方法还包括:
在基于所述第一关键点特征和所述第二关键点特征未检测出目标图像中的人脸关键点组的情况下,获取每个所述第一关键点组的置信度;
将具有最大的置信度的第一关键点组作为所述目标图像中的人脸关键点组,并将所述具有最大的置信度的第一关键点组对应的第一待匹配对象作为新的待追踪对象。
将具有最大的置信度的第一关键点组对应的第一待匹配对象作为新的待追踪对象,能够提高确定的新的待追踪对象的准确性,从而,有利于提高对新的待追踪对象追踪成功的概率。另外,基于新的待追踪对象进行继续追踪和分割,保证了对象最终的连续性。
在一种可能的实施方式中,所述利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果,包括:
利用预先训练好的所述深度神经网络,提取所述待分割人脸图像的图像特征信息和结构化信息;
提取所述待分割人脸图像中与不同特征维度分别对应的图像特征信息;其中,多个特征维度中包括相邻的第一特征维度和第二特征维度,所述第一特征维度低于所述第二特征维度;所述第一特征维度对应的图像特征信息是基于所述第二特征维度对应的图像特征信息以及第二特征维度对应的图像特征信息的结构化信息确定的;所述第二特征维度对应的图像特征信息的结构化信息为利用预先训练好的所述深度神经网络提取得到的;
基于不同特征维度分别对应的图像特征信息对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
低特征维度能够反映待分割人脸图像主体部分的深度特征,高特征维度能够反映待分割人脸图像边缘部分的深度特征,因此,利用不同特征维度的图像特征信息,能够完整、准确地反映待分割人脸图像整体的深度特征,从而,基于不同特征维度的图像特征信息进行人脸区域的分割处理,能够提高分割的精度,从而,能够得到准确地人脸分割结果。
在一种可能的实施方式中,所述基于不同特征维度分别对应的图像特征信息对所述待分割人脸图像进行人脸区域的分割处理,包括:
针对所述不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定所述待分割人脸图像在该特征维度下的第一语义预测结果;
基于所述待分割人脸图像在每个特征维度下的第一语义预测结果,确定所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
基于所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率和预设分割概率值,对所述待分割人脸图像进行人脸区域的分割处理。
第一语义预测结果用于表征每个像素点为人脸对应的像素点的概率,利用预设分割概率值能够筛选出概率较低的像素点,保留了概率较高的像素点,利用像素点对应的多个维度的概率和预设分割概率值进行人脸区域的分割处理,有利于提高人脸区域的分割的精度。
在一种可能的实施方式中,所述基于所述待分割人脸图像在每个特征维度下的第一语义预测结果,确定所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率,包括:
按照所述不同特征维度由低到高的顺序执行多次融合处理之后,得到所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
其中,所述多次融合处理中第i次融合处理包括:
确定所述第一特征维度下的第一语义预测结果的语义置信度信息;
利用所述第一特征维度下的第一语义预测结果的语义置信度信息,对所述第一特征维度下的第一语义预测结果和所述第二特征维度下的第一语义预测结果进行融合,得到所述第二特征维度下的目标语义预测结果;
将所述目标语义预测结果更新为第i+1次融合过程中第一特征维度的第一语义预测结果。
语义置信度信息能够反映第一语义预测结果的准确性,按照不同特征维度由低到高的顺序执行多次融合处理,最终得到融合各个第一语义预测结果的目标语义预测结果,可以使深度神经网络能够对多个特征维度的第一语义预测结果产生不同的注意力,进而提高深度神经网络的精确度。
在一种可能的实施方式中,所述针对所述不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定所述待分割人脸图像在该特征维度下的第一语义预测结果,包括:
针对最低特征维度,基于所述最低特征维度对应的图像特征信息,确定所述待分割人脸图像在所述最低特征维度下的第一语义预测结果;
针对除最低特征维度外的每个所述第二特征维度,基于该第二特征维度对应的图像特征信息和所述待分割人脸图像在所述第一特征维度下的第一语义预测结果,确定所述待分割人脸图像在该第二特征维度下的第一语义预测结果。
通过前一特征维度的第一语义预测结果以及当前特征维度对应的图像特征信息确定当前特征维度的第一语义预测结果,使第一语义预测结果携带各个特征维度的特征,进而提高神经网络的精确度。
在一种可能的实施方式中,在所述得到目标图像对应的人脸分割结果之后,还包括:
基于所述人脸分割结果,将所述目标图像中的人脸区域对应的像素点的颜色值设置为第一目标值;
将所述目标图像中的除所述人脸区域以外的像素点的颜色值设置为第二目标值。
这样,能够在目标图像中清楚地展现出分割出的人脸。
在一种可能的实施方式中,在所述得到目标图像对应的人脸分割结果之后,还包括:
获取针对所述目标图像的特效处理信息;
基于所述人脸分割结果和所述特效处理信息,对所述目标图像中的人脸区域和/或非人脸区域进行特效处理。
这样,能够实现对目标图像的特效处理,得到带有不同特效的目标图像。
第二方面,本公开实施例还提供一种图像处理装置,包括:
获取模块,用于获取待追踪对象的目标人脸关键点组;
匹配模块,用于将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组;
裁剪模块,用于根据所述人脸关键点组对所述目标图像进行裁剪,得到待分割人脸图像;
分割模块,用于利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
在一种可能的实施方式中,所述关键点组包括第一关键点组;所述待匹配对象包括第一待匹配对象;
所述装置还包括:
第一检测模块,用于按照以下步骤确定所述目标图像中的每个待匹配对象的人脸对应的关键点组:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第一待匹配对象中的每个第一待匹配对象的第一关键点组;
所述匹配模块,用于针对每个所述第一待匹配对象,基于所述第一待匹配对象的人脸对应的第一关键点组,确定所述第一待匹配对象对应的第一关键点特征;
获取待追踪对象对应的第二关键点特征;其中,所述第二关键点特征为所述待追踪对象的目标人脸关键点组对应的关键点特征;
将与所述第二关键点特征相匹配的第一关键点特征对应的第一待匹配对象作为所述待追踪对象,并将所述待追踪对象的第一关键点组作为所述目标图像中的所述人脸关键点组。
在一种可能的实施方式中,所述关键点组包括第二关键点组;所述待匹配对象包括第二待匹配对象;
所述装置还包括:
第二检测模块,用于按照以下步骤确定所述目标图像中的每个待匹配对象的人脸对应的关键点组:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第二待匹配对象中的每个第二待匹配对象的第二关键点组;
所述匹配模块,用于根据每个所述第二待匹配对象的第二关键点组,分别确定每个所述第二待匹配对象对应的第一人脸图像特征;
获取待追踪对象对应的第二人脸图像特征;
将与所述第二人脸图像特征相匹配的第一人脸图像特征对应的第二待匹配对象作为所述待追踪对象,并将所述待追踪对象的第二关键点组作为所述目标图像中的人脸关键点组。
在一种可能的实施方式中,所述获取模块,用于获取追踪图像;
所述第一检测模块,用于对所述追踪图像进行人脸的关键点检测,确定所述追踪图像中的至少一个初始对象对应的初始关键点组;
所述匹配模块,用于基于所述至少一个初始对象中每个初始对象对应的初始关键点组的置信度,从所述初始对象中确定所述待追踪对象,并将所述待追踪对象对应的初始关键点组作为所述目标人脸关键点组;
所述装置还包括:
确定模块,用于在所述获取待追踪对象对应的第二关键点特征之前,根据所述目标人脸关键点组,确定所述待追踪对象对应的所述第二关键点特征。
在一种可能的实施方式中,所述匹配装置,还用于在基于所述第一关键点特征和所述第二关键点特征未检测出目标图像中的人脸关键点组的情况下,获取每个所述第一关键点组的置信度;
将具有最大的置信度的第一关键点组作为所述目标图像中的人脸关键点组,并将所述具有最大的置信度的第一关键点组对应的第一待匹配对象作为新的待追踪对象。
在一种可能的实施方式中,所述分割模块,用于利用预先训练好的所述深度神经网络,提取所述待分割人脸图像的图像特征信息和结构化信息;
提取所述待分割人脸图像中与不同特征维度分别对应的图像特征信息;其中,多个特征维度中包括相邻的第一特征维度和第二特征维度,所述第一特征维度低于所述第二特征维度;所述第一特征维度对应的图像特征信息是基于所述第二特征维度对应的图像特征信息以及第二特征维度对应的图像特征信息的结构化信息确定的;所述第二特征维度对应的图像特征信息的结构化信息为利用预先训练好的所述深度神经网络提取得到的;
基于不同特征维度分别对应的图像特征信息对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
在一种可能的实施方式中,所述分割模块,用于针对所述不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定所述待分割人脸图像在该特征维度下的第一语义预测结果;
基于所述待分割人脸图像在每个特征维度下的第一语义预测结果,确定所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
基于所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率和预设分割概率值,对所述待分割人脸图像进行人脸区域的分割处理。
在一种可能的实施方式中,所述分割模块,用于按照所述不同特征维度由低到高的顺序执行多次融合处理之后,得到所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
其中,所述多次融合处理中第i次融合处理包括:
确定所述第一特征维度下的第一语义预测结果的语义置信度信息;
利用所述第一特征维度下的第一语义预测结果的语义置信度信息,对所述第一特征维度下的第一语义预测结果和所述第二特征维度下的第一语义预测结果进行融合,得到所述第二特征维度下的目标语义预测结果;
将所述目标语义预测结果更新为第i+1次融合过程中第一特征维度的第一语义预测结果。
在一种可能的实施方式中,所述分割模块,用于针对最低特征维度,基于所述最低特征维度对应的图像特征信息,确定所述待分割人脸图像在所述最低特征维度下的第一语义预测结果;
针对除最低特征维度外的每个所述第二特征维度,基于该第二特征维度对应的图像特征信息和所述待分割人脸图像在所述第一特征维度下的第一语义预测结果,确定所述待分割人脸图像在该第二特征维度下的第一语义预测结果。
在一种可能的实施方式中,所述装置还包括:
设置模块,用于在所述得到目标图像对应的人脸分割结果之后,基于所述人脸分割结果,将所述目标图像中的人脸区域对应的像素点的颜色值设置为第一目标值;
将所述目标图像中的除所述人脸区域以外的像素点的颜色值设置为第二目标值。
在一种可能的实施方式中,所述装置还包括:
处理模块,用于在所述得到目标图像对应的人脸分割结果之后,获取针对所述目标图像的特效处理信息;
基于所述人脸分割结果和所述特效处理信息,对所述目标图像中的人脸区域和/或非人脸区域进行特效处理。
第三方面,本公开可选实现方式还提供一种计算机设备,处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述处理器用于执行所述存储器中存储的机器可读指令,所述机器可读指令被所述处理器执行时,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
第四方面,本公开可选实现方式还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
关于上述图像处理装置、计算机设备、及计算机可读存储介质的效果描述参见上述图像处理方法的说明,这里不再赘述。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种图像处理方法的流程图;
图2示出了本公开实施例所提供的一种确定待分割人脸图像的示意图;
图3示出了本公开实施例所提供的一种确定目标图像中的人脸关键点组的方法的流程图;
图4示出了本公开实施例所提供的另一种确定目标图像中的人脸关键点组的方法的流程图;
图5示出了本公开实施例所提供的一种获取待追踪对象的目标人脸关键点组的方法的流程图;
图6示出了本公开实施例所提供的一种对待分割人脸图像进行人脸区域的分割处理的方法的流程图;
图7示出了本公开实施例所提供的一种对待分割人脸图像进行人脸区域的分割的方法的流程图;
图8示出了本公开实施例所提供的一种融合处理过程的流程图;
图9示出了本公开实施例所提供的一种深度神经网络对待分割人脸图像进行分割处理的示意图;
图10示出了本公开实施例所提供的一种确定目标图像对应的人脸分割图像的流程示意图;
图11示出了本公开实施例所提供的一种图像处理装置示意图;
图12示出了本公开实施例所提供的一种计算机设备结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
另外,本公开实施例中的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。
在本文中提及的“多个或者若干个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
经研究发现,针对包括多个对象的视频文件,其中的多帧图像往往会出现同一目标对象,在一些特定的场景下,可能存在对目标对象的特定身体部位进行特效处理的需求。比如,对目标对象进行脸部的特效处理以增强目标对象在视频文件的美感,以及使目标对象在视频文件中相对其他对象更突出。
现有技术中,为满足上述需要,需对每帧图像中出现的目标对象进行追踪识别,并对识别到的目标对象进行分割以得到目标对象的特定身体部位的分割图像,从而,利用分割图像对特定身体部位进行特效处理。
由于分割图像是通过对目标对象的整体人体进行分割得到的,需要处理的图像范围较大,因此,无法保证特定身体部位的分割精度和效率,并且,还无法在保证分割精度的同时,保证对目标对象的追踪效果。
基于上述研究,本公开提供了一种图像处理方法、装置、计算机设备和存储介质,通过将目标图像中的每个待匹配对象的人脸对应的关键点组与目标人脸关键点组进行匹配,能够实现对目标人脸关键点组对应的待追踪对象的追踪,进而,基于匹配结果,能够准确地从待匹配对象中确定出待追踪对象以及待追踪对象对应在目标图像中的人脸关键点组。再根据人脸关键点组对目标图像进行裁剪,能够准确地得到人脸关键点组对应的人脸的待分割图像。进而,只需要对待分割图像进行人脸区域的分割处理,既能够缩小图像处理的范围,还能够保证需要处理的图像区域(人脸区域)的准确性,在减少需要处理的图像细节的基础上,减少了分割过程中的计算量,提高了部分人体分割效率和分割精度。并且,由于只需要对待分割图像的图像细节进行处理,所以有利于提高人脸分割的分割精度,得到更加准确的人脸分割结果。
针对以上方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本公开针对上述问题所提出的解决方案,都应该是发明人在本公开过程中对本公开做出的贡献。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种图像处理方法进行详细介绍,本公开实施例所提供的图像处理方法的执行主体一般为具有一定计算能力的计算机设备,在一些可能的实现方式中,该图像处理方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
下面以执行主体为计算机设备为例对本公开实施例提供的图像处理方法加以说明。
如图1所示,为本公开实施例提供的一种图像处理方法的流程图,可以包括步骤:
S101:获取待追踪对象的目标人脸关键点组。
这里,待追踪对象可以为需要进行追踪的对象。例如,待追踪对象可以是在禁烟场所抽烟的对象。
具体的,待追踪对象可以为出现在任一视频片段对应的至少部分帧图像中的对象。
目标人脸关键点组为预先生成并存储的待追踪对象的人脸关键点组,由待追踪对象的人脸区域对应的若干个目标人脸关键点组成。
具体实施时,当确定需要对下述目标图像进行追踪的情况下,可以从数据库中获取预先存储的待追踪对象的目标人脸关键点组。
S102:将目标图像中的每个待匹配对象的人脸对应的关键点组与目标人脸关键点组进行匹配,确定待追踪对象在目标图像中的人脸关键点组。
这里,目标图像可以为待追踪对象对应的视频片段中一帧图像,其中可以包括至少一个待匹配对象。待匹配对象为出现在目标图像中并且需要与待追踪对象进行匹配的对象,经过匹配操作,与待追踪对象匹配的待匹配对象,即为待追踪对象。
具体的,待匹配对象可以是目标图像中出现的各个目标人物。
目标图像可以是在获取到待追踪对象对应的视频片段之后,正在处理的当前帧图像,也可以是用户直接输入的指定的图像。
具体实施时,针对目标图像,可以对目标图像进行图像识别处理,确定目标图像包括的至少一个待匹配对象,以及至少一个待匹配对象中的每个待匹配对象的人脸对应的关键点组。
然后可以将每个待匹配对象的人脸对应的关键点组与获取的待追踪对象的目标人脸关键点组进行匹配,确定是否存在与目标人脸关键点组相匹配的关键点组。如果是,则可以将该与目标人脸关键点组相匹配的关键点组对应的待匹配对象作为待追踪对象,将该关键点组作为待追踪对象在目标图像中的人脸关键点组。
这样,通过将目标图像中的每个待匹配对象的人脸对应的关键点组与目标人脸关键点组进行匹配,能够实现对目标人脸关键点组对应的待追踪对象的追踪,进而,基于匹配结果,能够准确地从待匹配对象中确定出待追踪对象以及待追踪对象对应在目标图像中的人脸关键点组。
S103:根据人脸关键点组对目标图像进行裁剪,得到待分割人脸图像。
本步骤中,待分割人脸图像为待追踪对象在目标图像中的人脸对应的图像,包括待追踪对象在目标图像中对应的整体人体的部分人体(人脸)。
在确定待追踪对象在目标图像中的人脸关键点组之后,可以根据人脸关键点组,确定待追踪对象的人脸在目标图像中所对应的人脸区域。之后,可以根据该人脸区域,对目标图像进行裁剪,从目标图像中得到待追踪对象的人脸对应的待分割人脸图像。
示例性的,在确定待追踪对象在目标图像中的人脸关键点组之后,可以根据人脸关键点组,确定由人脸关键点组决定的外接矩形区域,然后可以将该外接矩形区域作为待追踪对象的人脸在目标图像中所对应的人脸区域。之后,可以根据该人脸区域,对目标图像进行裁剪,得到待分割人脸图像。
如图2所示,为本公开实施例提供的一种确定待分割人脸图像的示意图。其中,A表示确定的待追踪对象的人脸在目标图像中所对应的人脸区域,A中的点表示人脸关键点组中的人脸关键点。
S104:利用预先训练好的深度神经网络,对待分割人脸图像进行人脸区域的分割处理,得到目标图像对应的人脸分割结果。
这里,预先训练好的深度神经网络可以是人脸分割深度神经网络。
具体实施时,针对确定的待分割人脸图像,可以利用该人脸分割网络对待分割人脸图像进行语义分割,确定待分割人脸图像中的每个像素点的为人脸对应的像素点的概率,之后,可以基于确定的概率,从待分割人脸图像中的每个像素点中筛选出人脸对应的像素点。进而,可以基于筛选出的人脸对应的像素点,对待分割人脸图像进行人脸区域的分割处理,从而,得到待分割人脸图像对应的人脸分割结果。
其中,待分割人脸图像对应的人脸分割结果可以在待分割图像上进行展示。
进一步的,可以根据待分割人脸图像对应的人脸分割结果,确定目标图像对应的人脸分割结果。
具体实施时,可以基于待分割人脸图像和目标图像之间的图像位置关系,将包含人脸分割结果的待分割人脸图像贴回目标图像,从而,得到目标图像对应的人脸分割结果。
或者,在另一种实施例中,由于待分割图像为从目标图像中分割出的部分图像,因此,在得到待分割人脸图像对应的人脸分割结果之后,可以直接将待分割人脸图像对应的人脸分割结果作为目标图像对应的人脸分割结果。
另外,本公开实施例中所提及的预先训练好的深度神经网络还可以根据应用于的计算机设备的处理能力进行调整,在不影响分割精度的基础上,兼容各种计算机设备。
在一种实施例中,关键点组包括第一关键点组;待匹配对象包括第一待匹配对象。
在该实施例对应的实施方式中,第一待匹配对象为出现在目标图像中的并且需要与待追踪对象进行匹配的对象,匹配成功的第一待匹配对象即为待追踪对象。
针对S102,在确定人脸关键点组之前,还需要确定目标图像中的每个第一待匹配对象的人脸对应的关键点组。具体的,可以在获取目标图像之后,对目标图像进行人脸的关键点检测,基于检测结果,确定目标图像中的至少一个第一待匹配对象中的每个第一待匹配对象的第一关键点组。
具体实施时,可以利用人脸关键点检测神经网络对目标图像进行人脸的关键点检测。例如,可以将目标图像输入到预先训练好的人脸关键点检测神经网络,利用人脸关键点检测神经网络对目标图像进行处理,确定目标图像中的所有人脸关键点。
然后,可以根据每个人脸关键点之间的位置关系,确定属于同一个第一待匹配对象的人脸的人脸关键点,并将属于同一个第一待匹配对象的人脸关键点作为该第一待匹配对象的第一关键点组。进而,可以确定出目标图像中的至少一个第一待匹配对象中的每个第一待匹配对象的第一关键点组。
进而,针对S102,可以按照如图3所示的方法,确定待追踪对象在目标图像中的人脸关键点组,如图3所示,为本公开实施例所提供的一种确定目标图像中的人脸关键点组的方法的流程图,可以包括以下步骤:
S301:针对每个第一待匹配对象,基于第一待匹配对象的人脸对应的第一关键点组,确定第一待匹配对象对应的第一关键点特征。
这里,关键点特征可以为关键点组对应的特征,能够表征关键点组对应的待匹配对象的人脸的人脸特征。具体的,关键点特征可以为关键点组对应的颜色信息、纹理信息、第一关键点组中的人脸关键点之间的结构信息等。
本步骤中,在获取每个第一待匹配对象的第一关键点组之后,针对每个第一待匹配对象,可以基于该第一待匹配对象对应的第一关键点组中的每个人脸关键点对应的点特征,确定第一关键点组对应的第一关键点特征,然后将该第一关键点特征作为该第一关键点组对应的第一待匹配对象所对应的第一关键点特征。其中,点特征可以为第一关键点的颜色信息、纹理信息等。
具体实施时,针对该第一关键点组,可以直接将该第一关键点组中的每个人脸关键点对应的点特征直接作为该第一关键点组对应的第一关键点特征,也即,可以直接将上述每个人脸关键点对应的点特征作为第一待匹配对象对应的第一关键点特征。
S302:获取待追踪对象对应的第二关键点特征。
其中,第二关键点特征为待追踪对象的目标人脸关键点组对应的关键点特征。
具体实施时,待追踪对象对应的第二关键点特征可以是预先存储的,可以在获取待追踪对象的目标人脸关键点组的同时获取,也可以在需要进行关键点特征的比对时获取,这里不进行限定。
或者,第二关键点特征还可以是在获取目标人脸关键点组之后,基于目标人脸关键点组中的每个目标人脸关键点的目标人脸关键点特征确定的。
示例性的,在获取目标人脸关键点组之后,可以直接将每个目标人脸关键点的目标人脸关键点特征作为待追踪对象对应的第二关键点特征。
S303:将与第二关键点特征相匹配的第一关键点特征对应的第一待匹配对象作为待追踪对象,并将待追踪对象的第一关键点组作为目标图像中的人脸关键点组。
这里,可以将确定的每个第一关键点特征与第二关键点特征进行匹配,确定第一关键点特征中是否存在与第二关键点特征相匹配的第一关键点特征。例如,可以确定是否存在与第二关键点特征一致的第一关键点特征。
如果是,则可以直接将与第二关键点特征相匹配的第一关键点特征对应的第一待匹配对象作为待追踪对象,并将该第一关键点特征对应的第一关键点组作为目标图像中的人脸关键点组。
另外,如果是直接将第一关键点组中的人脸关键点的点特征作为第一待匹配对象的第一关键点特征,以及直接将目标人脸关键点的目标人脸关键点特征作为待追踪对象对应的第二关键点特征,针对每个第一关键点特征,可以直接将该第一关键点特征对应的每个子特征依次和第二关键点特征对应的每个目标人脸关键点特征进行相似度匹配,确定每个子特征和每个目标人脸关键点特征之间的相似度。
然后确定大于预设的相似度阈值的相似度的数量,在确定该数量大于预设数量的情况下,确定该第一关键点特征与第二关键点特征相匹配,进而,可以将该第一关键点特征对应的第一待匹配对象作为待追踪对象,并将该第一关键点特征对应的第一关键点组作为目标图像中的人脸关键点组。
在另一种实施例中,关键点组包括第二关键点组;待匹配对象包括第二待匹配对象。
这里,在该实施例对应的实施方式中,第二待匹配对象为出现在目标图像中的并且需要与待追踪对象进行匹配的对象,匹配成功的第二待匹配对象即为待追踪对象。
针对S102,在确定人脸关键点组之前,还需要确定目标图像中的每个第二待匹配对象的人脸对应的关键点组。具体的,可以在获取目标图像之后,对目标图像进行人脸的关键点检测,基于检测结果,确定目标图像中的至少一个第二待匹配对象中的每个第二待匹配对象的第二关键点组。
具体实施时,可以利用人脸关键点检测神经网络对目标图像进行人脸的关键点检测,基于确定的目标图像中的所有的人脸关键点,确定每个第二待匹配对象的第二关键点组。关于确定每个第二待匹配对象的第二关键点组的具体实施过程,可以参照上述实施例中确定每个第一待匹配对象的第一关键点组的介绍,这里不再赘述。
进而,针对S102,可以按照如图4所示的方法,确定待追踪对象在目标图像中的人脸关键点组,如图4所示,为本公开实施例所提供的另一种确定目标图像中的人脸关键点组的方法的流程图,可以包括以下步骤:
S401:根据每个第二待匹配对象的第二关键点组,分别确定每个第二待匹配对象对应的第一人脸图像特征。
这里,人脸图像特征为人脸对应的图像区域的图像特征,能够反映人脸在图像中的特征。其中,图像特征可以包括图像区域对应的颜色信息,纹理信息等。人脸关键点组对应的图像区域的图像特征能够决定该人脸关键点组对应的人脸的人脸图像特征。
具体实施时,针对每个第二待匹配对象,可以基于该第二待匹配对象的第二关键点组,确定该第二关键点组对应的图像区域。例如,可以将第二关键点组中的每个人脸关键点所围成的区域作为该第二关键点组对应的图像区域,或者,可以将第二关键点组对应的外接矩形区域作为第二关键点组对应的图像区域。
进而,可以提取图像区域对应的图像的特征信息,将提取的特征信息作为图像区域对应的图像特征,也即,提取的特征信息作为待匹配对象对应的第一人脸图像特征。
基于上述步骤,可以确定个第二待匹配对象对应的第一人脸图像特征
S402:获取待追踪对象对应的第二人脸图像特征。
其中,第二人脸图像特征可以是预先存储的。
具体实施时,可以直接在数据库中获取预先存储的第二人脸图像特征。
S403:将与第二人脸图像特征相匹配的第一人脸图像特征对应的第二待匹配对象作为待追踪对象,并将待追踪对象的第二关键点组作为目标图像中的人脸关键点组。
本步骤中,可以将每个第一人脸图像特征与获取的第二人脸图像特征进行比较,分别确定每个第一人脸图像特征与第二人脸图像特征之间的图像特征相似度。
进而,可以确定是否存在大于预设的特征相似度阈值的图像特征相似度,如果是,则可以将该图像特征相似度对应的第一人脸图像特征作为与第二人脸图像特征相匹配的人脸特征,进而,将该图像特征相似度对应的第二待匹配对象作为待追踪对象,并将图像特征相似度对应的第二关键点组作为目标图像中的人脸关键点组。
在一种实施例中,针对S101,可以按照如图5所示的方法获取待追踪对象的目标人脸关键点组,如图5所示,为本公开实施例所提供的一种获取待追踪对象的目标人脸关键点组的方法的流程图,可以包括以下步骤:
S501:获取追踪图像。
这里,追踪图像为包括待追踪对象的图像。其中,追踪图像可以是视频片段中目标图像对应的邻帧图像,也可以是视频片段中目标图像对应的非邻帧图像,这里不进行限定。
示例性的,追踪图像可以为待追踪对象第一次出现的图像。
S502:对追踪图像进行人脸的关键点检测,确定追踪图像中的至少一个初始对象对应的初始关键点组。
这里,初始对象为追踪图像中包括的对象,初始关键点组为初始对象的人脸对应的关键点组,其中,置信度最大的初始关键点组对应的初始对象可以作为待追踪对象。
本步骤中,在获取到追踪图像之后,可以利用预先训练好的人脸关键点检测神经网络对追踪图像进行人脸的关键点检测,确定追踪图像中包括的至少一个初始对象中的每个初始对象的人脸对应的初始关键点组。
并且,人脸关键点检测神经网络在确定每个初始对象的人脸对应的人脸关键点的同时,还可以输出每个人脸关键点的关键点置信度信息。
S503:基于至少一个初始对象中每个初始对象对应的初始关键点组的置信度,从初始对象中确定待追踪对象,并将待追踪对象对应的初始关键点组作为目标人脸关键点组。
本步骤中,可以基于每个初始对象对应的人脸关键点的关键点置信度信息对应的置信度,确定该初始对象的初始关键点组的置信度。
具体实施时,可以根据该初始对象的初始关键点组中的每个人脸关键点的置信度,确定出该初始关键点组的置信度的总和,然后将确定出的总和作为该初始关键点组的置信度。
或者,可以根据初始关键点组中的每个人脸关键点的置信度以及关键点的数量,确定初始关键点组对应的置信度方差,并将该置信度方差作为初始关键点组的置信度。
再或者,也可以根据初始关键点组中的每个人脸关键点的重要程度,对每个人脸关键点的置信度进行加权,然后对加权的结果求和,得到求和结果,进而,可以将该求和结果作为初始关键点组的置信度。
另外,在一种实施方式中,人脸关键点检测神经网络可以直接输出每个初始关键点组的置信度。
关于确定初始关键点组的置信度的确定方式,可以根据开发需要进行设置,本公开实施例不进行具体限定。
在确定至少一个初始对象中每个初始对象对应的初始关键点组的置信度之后,可以确定出置信度最大的初始关键点组,进而,可以将置信度最大的初始关键点组对应的初始对象中作为待追踪对象,并将该初始关键点组作为待追踪对象对应的目标人脸关键点组。
进一步的,可以根据确定的目标人脸关键点组,确定待追踪对象对应的第二关键点特征。
具体实施时,可以直接将该目标人脸关键点组中的每个目标人脸关键点的目标人脸关键点特征作为待追踪对象对应的第二关键点特征,并将第二关键点特征进行存储。
或者,根据确定的目标人脸关键点组,可以确定目标人脸关键点组在追踪图像中对应的图像区域,之后,可以提取该图像区域对应的图像特征,并将该图像特征作为待追踪对象的第二人脸图像特征。进而,可以将第二人脸图像特征进行存储,例如,存储在数据库中。
在另一种实施例中,在获取追踪图像之后,还可以确定用户在追踪图像指定的追踪区域,然后可以直接对指定的追踪区域进行人脸关键点检测,确定该区域的初始对象,并将该初始对象作为待追踪对象。
同样的,针对目标图像,也可以确定是否存在用户指定的追踪区域,如果是,则可以直接将该区域对应的待匹配对象作为待追踪对象。
在一种实施例中,在基于第一关键点特征和第二关键点特征未检测出目标图像中的人脸关键点组的情况下,也即,在不存在与第二关键点特征相匹配的第一关键点特征的情况下,获取每个第一关键点特征对应的第一关键点组的置信度。关于获取第一关键点组的置信度的具体介绍,可以参照上述实施例中确定初始关键点组的置信度的介绍,这里不再赘述。
进而,在获取每个第一关键点组的置信度之后,可以筛选出具有最大的置信度的第一关键点组,之后,可以将该第一关键点组作为目标图像中的人脸关键点组,并将该第一关键点组对应的第一待匹配对象作为新的待追踪对象。
同样的,在基于第二人脸图像特征和第一人脸图像特征未检测出目标图像中的人脸关键点组的情况下,也可以基于每个第一关键点组的置信度,确定新的待追踪对象。具体确定的新的待追踪对象的步骤,可以参照上述实施例,这里不再赘述。
在一种实施例中,针对S104,可以按照如图6所示的方法,对待分割人脸图像进行人脸区域的分割处理,得到目标图像对应的人脸分割结果,如图6所示,为本公开实施例所提供的一种对待分割人脸图像进行人脸区域的分割处理的方法的流程图,可以包括以下步骤:
S601:利用预先训练好的深度神经网络,提取待分割人脸图像的图像特征信息和结构化信息。
这里,图像特征信息可以包括颜色特征信息、特征点、结构化信息等,其中,特征点可以根据待分割人脸图像中的像素点确定,与待分割人脸图像中的像素点存在对应关系。如,1个特征点对应于5个像素点。颜色特征信息能够反映特征点的颜色。结构化信息是一种用于表征图像特征信息中特征点的位置关系的信息。
具体实施时,可以将待分割人脸图像输入到预先训练好的深度神经网络,之后,该深度神经网络可以提取出待分割人脸图像的图像特征信息,同时,也可以提取出待分割人脸图像的结构化信息。
S602:提取待分割人脸图像中与不同特征维度分别对应的图像特征信息。
其中,多个特征维度中包括相邻的第一特征维度和第二特征维度,第一特征维度低于第二特征维度。
第一特征维度对应的图像特征信息是基于第二特征维度对应的图像特征信息以及第二特征维度对应的图像特征信息的结构化信息确定的。
第二特征维度对应的图像特征信息的结构化信息为利用预先训练好的深度神经网络提取得到的。
本步骤中,预先训练好的深度神经网络包括分别与多个特征维度对应的特征提取器;每个特征提取器可以提取其对应的特征维度下的图像特征信息。基于多个特征提取器,可以分别提取出待分割人脸图像中与不同特征维度分别对应的图像特征信息。例如,预先训练好的深度神经网络可以包括4个特征提取器,能够提出4个特征维度下的图像特征信息。
其中,特征维度可以为图像分辨率,且待分割人脸图像具有初始图像分辨率。具体的,初始图像分辨率也可以为目标图像具有的图像分辨率。
具体实施时,首先可以利用预先训练好的深度神经网络提取出与待分割人脸图像的初始图像分辨对应的图像特征信息和结构化信息。然后将该初始图像分辨率作为第二特征维度,基于该第二特征维度对应的图像特征信息和结构化信息,确定与第一特征维度对应的图像特征信息。并且,在确定与第一特征维度对应的图像特征信息的同时,还可以确定该图像特征信息的结构化信息。
之后,可以将该第一特征维度作为新的第二特征维度,确定低于该新的第二特征维度的、下一个第一特征维度对应的图像特征信息和结构化信息。从而,可以实现分别提取出待分割人脸图像中与不同特征维度分别对应的图像特征信息以及图像特征信息中的结构化信息。其中,初始图像分辨对应的特征维度为最高的特征维度。
S603:基于不同特征维度分别对应的图像特征信息对待分割人脸图像进行人脸区域的分割处理,得到目标图像对应的人脸分割结果。
高特征维度下的图像特征信息能够反映待分割人脸图像边缘部分的深度特征,低特征维度下的图像特征信息能够反映待分割人脸图像主体部分的深度特征。
具体实施时,基于不同特征维度分别对应的图像特征信息,可以确定待分割人脸图像中属于人脸的主体区域和边缘区域,进而,可以确定待分割人脸图像中的人脸对应的区域。
进一步的,基于确定的人脸对应的区域,能够完成对待分割人脸图像的人脸区域的分割处理,得到目标图像对应的人脸分割结果。
在一种实施例中,第二特征维度对应的图像特征信息的结构化信息包括第二特征维度对应的图像特征信息中的第一特征点之间的位置关系。关于确定第一特征维度对应的图像特征信息的步骤,可以按照以下步骤实施:
步骤一:针对第一特征维度中的每个第二特征点,基于该第二特征点的位置信息,从第二特征维度对应的第一特征点中筛选与该第二特征点对应的第一目标特征点。
这里,每个特征维度对应的图像特征信息包括不同数量的特征点,第一特征维度对应的图像特征信息中的第二特征点的数量小于第二特征维度对应的图像特征信息中的第一特征点的数量。也即,低图像分辨率对应的特征点的数量小于高图像分辨率对应的特征点的数量。
第一特征维度对应的每个第二特征点,在第二特征维度中都存在一个与该第二特征点对应的第一特征点。
本步骤中,针对第一特征维度中的每个第二特征点,可以确定该第二特征点的位置信息,针对第二特征维度中的每个第一特征点,也可以确定该第一特征点的位置信息。之后,基于第一特征维度中每个第二特征点的位置信息和第二特征维度中的每个第一特征点的位置信息,可以分别在第一特征维度中和第二特征维度中确定位置相同的第一特征点和第二特征点,并将上述第二特征点作为筛选出的与上述第一特征点对应的第一目标特征点。也即,可以从第二特征维度对应的第一特征点中,确定与第一特征维度中的每个第二特征点对应的第一目标特征点。
步骤二、基于第一特征维度和第二特征维度,确定第一特征维度中的一个第二特征点对应于第二特征维度中的第一特征点的目标数量。
这里,第一特征维度中的一个第二特征点的图像特征信息可以根据第二特征维度中的多个第一特征点的图像特征信息确定。
具体实施时,可以基于第一特征维度和第二特征维度之间的转换关系,确定第一特征维度中一个第二特征点对应于第二特征维度中的第一特征点的目标数量。例如,一个第一特征维度中第二特征点可以对应于10个第二特征维度中的第二特征点。
步骤三、基于第一特征点之间的位置关系以及第一目标特征点的位置信息,从第二特征维度对应的第一特征点中筛选目标数量的第二目标特征点。
本步骤中,基于第二特征维度对应的结构化信息,可以确定第二特征维度中的第一特征点之间的位置关系,然后,针对确定的每个第一目标特征点,可以根据该第一目标特征点的位置信息和第一特征点之间的位置关系,从第二特征维度对应的第一特征点中筛选出目标数量的第一特征点,作为第二目标特征点。
具体实施时,可以根据该第一目标特征点的位置信息和第一特征点之间的位置关系,从第二特征维度对应的第一特征点中筛选出与第一目标特征点具有预设距离的、目标数量的第一特征点作为第二目标特征点。
步骤四、基于第二目标特征点的图像特征信息,确定该第二特征点的图像特征信息,并基于确定的第一特征维度中的每个第二特征点的图像特征信息,确定第一特征维度对应的图像特征信息。
这里,根据确定的目标数量的第二目标特征点中每个第二目标特征点的图像特征信息,可以确定第二目标特征点对应的第一特征维度中的第二特征点的图像特征信息。
进而,基于上述步骤,可以确定第一特征维度中的每个第二特征点的图像特征信息,基于每个第二特征点的图像特征信息,可以确定第一特征维度对应的图像特征信息。
这样,能够分别提取出待分割人脸图像中与不同特征维度分别对应的图像特征信息。
具体实施时,针对第二特征维度对应的图像特征信息,第一特征维度对应的特征提取器可以利用下采样的方式,对第二特征维度对应的图像特征信息进行下采样以确定第一特征维度对应的图像特征信息。
进一步的,在得到不同特征维度分别对应的图像特征信息之后,可以按照如图7所示的方法对待分割人脸图像进行人脸区域的分割,如图7所示,为本公开实施例所提供的一种对待分割人脸图像进行人脸区域的分割的方法的流程图,可以包括以下步骤:
S701:针对不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定待分割人脸图像在该特征维度下的第一语义预测结果。
这里,第一语义预测结果用于表征待分割人脸图像中的像素点为人脸对应的像素点的概率。
具体实施时,针对每个特征维度,深度神经网络中与该特征维度对应的特征提取器在确定该特征维度对应的图像特征信息之后,与该特征维度对应的分类器可以根据该特征维度对应的图像特征信息,确定待分割人脸图像在该特征维度下的第一语义预测结果。
进而,基于深度神经网络中的每个分类器,可以确定待分割人脸图像在不同特征维度下的第一语义预测结果。
在一种实施方式中,针对S701,可以按照以下步骤确定待分割人脸图像在每个特征维度下的第一语义预测结果:
步骤一、针对最低特征维度,基于最低特征维度对应的图像特征信息,确定待分割人脸图像在所述最低特征维度下的第一语义预测结果。
在得到每个特征维度对应的图像特征信息之后,针对最低特征维度,该最低特征维度对应的分类器,可以根据该最低特征维度对应的图像特征信息,输出待分割人脸图像在最低特征维度下的第一语义预测结果。
步骤二、针对除最低特征维度外的每个第二特征维度,基于该第二特征维度对应的图像特征信息和待分割人脸图像在第一特征维度下的第一语义预测结果,确定待分割人脸图像在该第二特征维度下的第一语义预测结果。
这里,由于第一特征维度低于第二特征维度,所以最低特征维度一定是一个第一特征维度。在最低特征维度对应的分类器确定该最低特征维度下的第一语义预测结果之后,该最低特征维度对应的第二特征维度所对应的分类器,可以基于最低特征维度下的第一语义预测结果和该第二特征维度下的图像特征信息,确定待分割人脸图像在该第二特征维度的下的第一语义预测结果。进而,每个第二特征维度对应的分类器,可以基于第一特征维度下的第一语义预测结果和该第二特征维度下的图像特征信息,确定该第二特征维度下的第一语义预测结果。
具体实施时,不同特征维度对应的分类器可以利用上采样的方式,对低特征维度对应的第一语义预测结果和第二特征维度的图像特征信息进行上采样,确定该第二特征维度的第一语义预测结果。
S702:基于待分割人脸图像在每个特征维度下的第一语义预测结果,确定待分割人脸图像中各个像素点为人脸区域对应的像素点的概率。
这里,在得到每个特征维度下的第一语义预测结果之后,可以按照不同特征维度由低到高的顺序执行多次融合处理,之后,可以得到待分割人脸图像中各个像素点为人脸区域对应的像素点的概率。
S703:基于待分割人脸图像中各个像素点为人脸区域对应的像素点的概率和预设分割概率值,对待分割人脸图像进行人脸区域的分割处理。
具体实施时,可以将待分割人脸图像中各个像素点为人脸区域对应的像素点的概率与预设分割概率值比较,在确定上述概率大于预设分割概率值的情况下,将该像素点作为人脸区域对应的像素点,在确定上述概率不大于预设分割概率值的情况下,确定该像素点不是人脸区域对应的像素点。
进而,可以确定待分割人脸图像中属于人脸区域的像素点和非人脸区域的像素点,并基于确定的结果,完成对待分割人脸图像的分割处理,得到目标图像对应的人脸分割结果。
具体实施时,人脸分割结果可以是人脸区域对应的人脸分割图像。
在一种实施例中,针对多次融合处理中第i次融合处理,可以按照如图8所示的融合处理过程进行融合处理,如图8所示,为本公开实施例所提供一种融合处理过程的流程图,可以包括以下步骤:
S801:确定第一特征维度下的第一语义预测结果的语义置信度信息。
这里,第一特征维度为最低特征维度。
具体实施时,可以先确定与该第一特征维度对应的第二特征维度,并确定与该第二特征维度对应的融合结构。之后,该第二特征维度对应的融合结构,可以根据其中的激活函数公式,确定第一特征维度下的第一语义预测结果的语义置信度,得到语义置信度信息。
其中,激活函数公式可以为softmax函数的公式。
S802:利用第一特征维度下的第一语义预测结果的语义置信度信息,对第一特征维度下的第一语义预测结果和第二特征维度下的第一语义预测结果进行融合,得到第二特征维度下的目标语义预测结果。
本步骤中,在得到第一特征维度下的第一语义预测结果的语义置信度信息之后,融合结构可以基于该语义置信度信息,对第一特征维度下的第一语义预测结果和第二特征维度下的第一语义预测结果进行融合,得到第二特征维度下的目标语义预测结果。
具体实施时,根据每个像素点的第一语义预测结果的语义置信度信息,确定每个像素点的第一语义预测结果的语义置信度,将每个像素点的第一语义预测结果的语义置信度与预设的置信度阈值进行比较,在确定语义置信度不小于预设的置信度阈值的情况下,将该语义置信度对应的像素点的第一语义预测结果作为第二特征维度下的第一语义预测结果。在确定语义置信度小于预设的置信度阈值的情况下,将该语义置信度对应的像素点在第二特征维度下的第一语义预测结果作为目标语义预测结果。
S803:将目标语义预测结果更新为第i+1次融合过程中第一特征维度的第一语义预测结果。
具体实施时,可以将上述第二特征维度作为新的第一特征维度,将上述第二特征维度下的目标语义预测结果更新为第i+1次融合过程中的新的第一特征维度第一语义预测结果。
基于上述步骤,可以确定最高特征维度下的目标语义预测结果,其中,目标语义预测结果也用于表征待分割人脸图像中每个像素点为人脸区域对应的像素点的概率。
从而,基于最高特征维度下的目标语义预测结果,可以确定待分割人脸图像中各个像素点为人脸区域对应的像素点的概率。
如图9所示,为本公开实施例所提供的一种深度神经网络对待分割人脸图像进行分割处理的示意图,其中,特征提取器a,特征提取器b,特征提取器c和特征提取器d为不同特征维度对应的特征提取器,能够提取待分割人脸图像中与不同特征维度对应的图像特征信息。其中,特征提取器a能够提取特征维度X1对应的图像特征信息、特征提取器b能够提取特征维度X2对应的图像特征信息、特征提取器c能够提取特征维度X3对应的图像特征信息、特征提取器d能够提取特征维度X4对应的图像特征信息,其中,X1高于X2高于X3高于X4。分类器a,分类器b,分类器c,分类器d为不同特征维度对应的分类器,分类器d可以基于特征维度X4对应的图像特征信息,确定特征维度X4下的第一语义预测结果,分类器c可以基于特征维度X4下的第一语义预测结果和特征维度X3对应的图像特征信息,确定特征维度X3下的第一语义预测结果,分类器b可以基于特征维度X3下的第一语义预测结果和特征维度X2对应的图像特征信息,确定特征维度X2下的第一语义预测结果,分类器a以基于特征维度X2下的第一语义预测结果和特征维度X1对应的图像特征信息,确定特征维度X1下的第一语义预测结果。融合结构c可以基于分类器d输出的第一语义预测结果和分类器c输出的第一语义预测结果,确定与分类器c对应的特征维度X3下的目标语义预测结果,融合结构b可以基于融合结构c输出的目标语义预测结果和分类器b输出的第一语义预测结果,确定与分类器b对应的特征维度X2下的目标语义预测结果,融合结构a可以基于融合结构b输出的目标语义预测结果和分类器a输出的第一语义预测结果,确定与分类器a对应的特征维度X1下的目标语义预测结果,之后,深度神经网络可以基于分类器a对应的特征维度X1下的目标语义预测结果,完成对待分割人脸图像的分割处理,得到人脸分割图像。
在一种实施例中,在得到目标图像对应的人脸分割结果之后,还可以基于确定的人脸分割结果,将目标图像中的人脸区域对应的像素点的颜色值设置为第一目标值。并且将目标图像中的除人脸区域以外的像素点的颜色值设置为第二目标值。
具体实施时,在得到人脸分割结果之后,可以先将目标图像中的每个像素点的颜色值统一设置为第二目标值,如,黑色对应的颜色值。之后,可以基于待分割人脸图像中属于人脸区域的每个像素点的位置和目标图像中每个像素点的位置,确定目标图像中的属于人脸区域的像素点,将上述像素点的颜色值设置为第一目标值,如,白色对应的颜色值。从而,可以得到目标图像对应的人脸分割图像。
并且,在一种实施例中,训练好的深度神经网络可以直接输出目标图像对应的人脸分割图像。
如图10所示,为本公开实施例所提供的一种确定目标图像对应的人脸分割图像的流程示意图。其中,A表示确定的待追踪对象的人脸在目标图像中所对应的人脸区域,B表示对目标图像进行人脸关键点检测后确定的包括人脸关键点组的图像。
在一种实施例中,在得到目标图像对应的人脸分割结果之后,还可以获取针对目标图像的特效处理信息。
这里,针对目标图像的特效处理信息可以是用户提交的对目标图像进行特效处理的信息。其中,特效处理信息可以包括对目标图像中的人脸区域进行特效处理的信息和/或对目标图像中的非人脸区域进行特效处理的信息。例如,特效处理信息可以为对目标图像中的人脸区域进行美白、磨皮、添加卡通特效等的特效处理的信息。
之后,可以基于人脸分割结果和特效处理信息,对目标图像中的人脸区域和/或非人脸区域进行特效处理。
具体实施时,在基于人脸分割结果,确定目标图像中的人脸区域的具体位置之后,可以基于特效处理信息,对人脸区域对应的每个像素点进行特效处理,进而,可以完成对目标图像中的人脸区域的特效处理。同样,也可以基于特效处理信息,对非人脸区域对应的每个像素点进行特效处理,以完成对目标图像的特效处理。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与图像处理方法对应的图像处理装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述图像处理方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
如图11所示,为本公开实施例提供的一种图像处理装置示意图,包括:
获取模块1101,用于获取待追踪对象的目标人脸关键点组;
匹配模块1102,用于将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组;
裁剪模块1103,用于根据所述人脸关键点组对所述目标图像进行裁剪,得到待分割人脸图像;
分割模块1104,用于利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
在一种可能的实施方式中,所述关键点组包括第一关键点组;所述待匹配对象包括第一待匹配对象;
所述装置还包括:
第一检测模块1105,用于按照以下步骤确定所述目标图像中的每个待匹配对象的人脸对应的关键点组:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第一待匹配对象中的每个第一待匹配对象的第一关键点组;
所述匹配模块1102,用于针对每个所述第一待匹配对象,基于所述第一待匹配对象的人脸对应的第一关键点组,确定所述第一待匹配对象对应的第一关键点特征;
获取待追踪对象对应的第二关键点特征;其中,所述第二关键点特征为所述待追踪对象的目标人脸关键点组对应的关键点特征;
将与所述第二关键点特征相匹配的第一关键点特征对应的第一待匹配对象作为所述待追踪对象,并将所述待追踪对象的第一关键点组作为所述目标图像中的所述人脸关键点组。
在一种可能的实施方式中,所述关键点组包括第二关键点组;所述待匹配对象包括第二待匹配对象;
所述装置还包括:
第二检测模块1106,用于按照以下步骤确定所述目标图像中的每个待匹配对象的人脸对应的关键点组:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第二待匹配对象中的每个第二待匹配对象的第二关键点组;
所述匹配模块1102,用于根据每个所述第二待匹配对象的第二关键点组,分别确定每个所述第二待匹配对象对应的第一人脸图像特征;
获取待追踪对象对应的第二人脸图像特征;
将与所述第二人脸图像特征相匹配的第一人脸图像特征对应的第二待匹配对象作为所述待追踪对象,并将所述待追踪对象的第二关键点组作为所述目标图像中的人脸关键点组。
在一种可能的实施方式中,所述获取模块1101,用于获取追踪图像;
所述第一检测模块1105,用于对所述追踪图像进行人脸的关键点检测,确定所述追踪图像中的至少一个初始对象对应的初始关键点组;
所述匹配模块1102,用于基于所述至少一个初始对象中每个初始对象对应的初始关键点组的置信度,从所述初始对象中确定所述待追踪对象,并将所述待追踪对象对应的初始关键点组作为所述目标人脸关键点组;
所述装置还包括:
确定模块1107,用于在所述获取待追踪对象对应的第二关键点特征之前,根据所述目标人脸关键点组,确定所述待追踪对象对应的所述第二关键点特征。
在一种可能的实施方式中,所述匹配装置1102,还用于在基于所述第一关键点特征和所述第二关键点特征未检测出目标图像中的人脸关键点组的情况下,获取每个所述第一关键点组的置信度;
将具有最大的置信度的第一关键点组作为所述目标图像中的人脸关键点组,并将所述具有最大的置信度的第一关键点组对应的第一待匹配对象作为新的待追踪对象。
在一种可能的实施方式中,所述分割模块1104,用于利用预先训练好的所述深度神经网络,提取所述待分割人脸图像的图像特征信息和结构化信息;
提取所述待分割人脸图像中与不同特征维度分别对应的图像特征信息;其中,多个特征维度中包括相邻的第一特征维度和第二特征维度,所述第一特征维度低于所述第二特征维度;所述第一特征维度对应的图像特征信息是基于所述第二特征维度对应的图像特征信息以及第二特征维度对应的图像特征信息的结构化信息确定的;所述第二特征维度对应的图像特征信息的结构化信息为利用预先训练好的所述深度神经网络提取得到的;
基于不同特征维度分别对应的图像特征信息对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
在一种可能的实施方式中,所述分割模块1104,用于针对所述不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定所述待分割人脸图像在该特征维度下的第一语义预测结果;
基于所述待分割人脸图像在每个特征维度下的第一语义预测结果,确定所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
基于所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率和预设分割概率值,对所述待分割人脸图像进行人脸区域的分割处理。
在一种可能的实施方式中,所述分割模块1104,用于按照所述不同特征维度由低到高的顺序执行多次融合处理之后,得到所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
其中,所述多次融合处理中第i次融合处理包括:
确定所述第一特征维度下的第一语义预测结果的语义置信度信息;
利用所述第一特征维度下的第一语义预测结果的语义置信度信息,对所述第一特征维度下的第一语义预测结果和所述第二特征维度下的第一语义预测结果进行融合,得到所述第二特征维度下的目标语义预测结果;
将所述目标语义预测结果更新为第i+1次融合过程中第一特征维度的第一语义预测结果。
在一种可能的实施方式中,所述分割模块1104,用于针对最低特征维度,基于所述最低特征维度对应的图像特征信息,确定所述待分割人脸图像在所述最低特征维度下的第一语义预测结果;
针对除最低特征维度外的每个所述第二特征维度,基于该第二特征维度对应的图像特征信息和所述待分割人脸图像在所述第一特征维度下的第一语义预测结果,确定所述待分割人脸图像在该第二特征维度下的第一语义预测结果。
在一种可能的实施方式中,所述装置还包括:
设置模块1108,用于在所述得到目标图像对应的人脸分割结果之后,基于所述人脸分割结果,将所述目标图像中的人脸区域对应的像素点的颜色值设置为第一目标值;
将所述目标图像中的除所述人脸区域以外的像素点的颜色值设置为第二目标值。
在一种可能的实施方式中,所述装置还包括:
处理模块1109,用于在所述得到目标图像对应的人脸分割结果之后,获取针对所述目标图像的特效处理信息;
基于所述人脸分割结果和所述特效处理信息,对所述目标图像中的人脸区域和/或非人脸区域进行特效处理。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
本公开实施例还提供了一种计算机设备,如图12所示,为本公开实施例提供的一种计算机设备结构示意图,包括:
处理器1201和存储器1202;所述存储器1202存储有处理器1201可执行的机器可读指令,处理器1201用于执行存储器1202中存储的机器可读指令,所述机器可读指令被处理器1201执行时,处理器1201执行下述步骤:S101:获取待追踪对象的目标人脸关键点组;S102:将目标图像中的每个待匹配对象的人脸对应的关键点组与目标人脸关键点组进行匹配,确定待追踪对象在目标图像中的人脸关键点组;S103:根据人脸关键点组对目标图像进行裁剪,得到待分割人脸图像以及S104:利用预先训练好的深度神经网络,对待分割人脸图像进行人脸区域的分割处理,得到目标图像对应的人脸分割结果。
上述存储器1202包括内存1221和外部存储器1222;这里的内存1221也称内存储器,用于暂时存放处理器1201中的运算数据,以及与硬盘等外部存储器1222交换的数据,处理器1201通过内存1221与外部存储器1222进行数据交换。
上述指令的具体执行过程可以参考本公开实施例中所述的图像处理方法的步骤,此处不再赘述。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的图像处理方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的图像处理方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的图像处理方法的步骤,具体可参见上述方法实施例,在此不再赘述。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (14)
1.一种图像处理方法,其特征在于,包括:
获取待追踪对象的目标人脸关键点组;
将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组;
根据所述人脸关键点组对所述目标图像进行裁剪,得到待分割人脸图像;
利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
2.根据权利要求1所述的方法,其特征在于,所述关键点组包括第一关键点组;所述待匹配对象包括第一待匹配对象;
所述方法还包括:确定所述目标图像中的每个待匹配对象的人脸对应的关键点组的步骤:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第一待匹配对象中的每个第一待匹配对象的第一关键点组;
所述将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组,包括:
针对每个所述第一待匹配对象,基于所述第一待匹配对象的人脸对应的第一关键点组,确定所述第一待匹配对象对应的第一关键点特征;
获取待追踪对象对应的第二关键点特征;其中,所述第二关键点特征为所述待追踪对象的目标人脸关键点组对应的关键点特征;
将与所述第二关键点特征相匹配的第一关键点特征对应的第一待匹配对象作为所述待追踪对象,并将所述待追踪对象的第一关键点组作为所述目标图像中的所述人脸关键点组。
3.根据权利要求1所述的方法,其特征在于,所述关键点组包括第二关键点组;所述待匹配对象包括第二待匹配对象;
所述方法还包括:确定所述目标图像中的每个待匹配对象的人脸对应的关键点组的步骤:
对所述目标图像进行人脸的关键点检测,确定所述目标图像中的至少一个第二待匹配对象中的每个第二待匹配对象的第二关键点组;
所述将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组,包括:
根据每个所述第二待匹配对象的第二关键点组,分别确定每个所述第二待匹配对象对应的第一人脸图像特征;
获取待追踪对象对应的第二人脸图像特征;
将与所述第二人脸图像特征相匹配的第一人脸图像特征对应的第二待匹配对象作为所述待追踪对象,并将所述待追踪对象的第二关键点组作为所述目标图像中的人脸关键点组。
4.根据权利要求2所述的方法,其特征在于,所述获取待追踪对象的目标人脸关键点组,包括:
获取追踪图像;
对所述追踪图像进行人脸的关键点检测,确定所述追踪图像中的至少一个初始对象对应的初始关键点组;
基于所述至少一个初始对象中每个初始对象对应的初始关键点组的置信度,从所述初始对象中确定所述待追踪对象,并将所述待追踪对象对应的初始关键点组作为所述目标人脸关键点组;
在所述获取待追踪对象对应的第二关键点特征之前,所述方法还包括:
根据所述目标人脸关键点组,确定所述待追踪对象对应的所述第二关键点特征。
5.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在基于所述第一关键点特征和所述第二关键点特征未检测出目标图像中的人脸关键点组的情况下,获取每个所述第一关键点组的置信度;
将具有最大的置信度的第一关键点组作为所述目标图像中的人脸关键点组,并将所述具有最大的置信度的第一关键点组对应的第一待匹配对象作为新的待追踪对象。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果,包括:
利用预先训练好的所述深度神经网络,提取所述待分割人脸图像的图像特征信息和结构化信息;
提取所述待分割人脸图像中与不同特征维度分别对应的图像特征信息;其中,多个特征维度中包括相邻的第一特征维度和第二特征维度,所述第一特征维度低于所述第二特征维度;所述第一特征维度对应的图像特征信息是基于所述第二特征维度对应的图像特征信息以及第二特征维度对应的图像特征信息的结构化信息确定的;所述第二特征维度对应的图像特征信息的结构化信息为利用预先训练好的所述深度神经网络提取得到的;
基于不同特征维度分别对应的图像特征信息对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
7.根据权利要求6所述的方法,其特征在于,所述基于不同特征维度分别对应的图像特征信息对所述待分割人脸图像进行人脸区域的分割处理,包括:
针对所述不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定所述待分割人脸图像在该特征维度下的第一语义预测结果;
基于所述待分割人脸图像在每个特征维度下的第一语义预测结果,确定所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
基于所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率和预设分割概率值,对所述待分割人脸图像进行人脸区域的分割处理。
8.根据权利要求7所述的方法,其特征在于,所述基于所述待分割人脸图像在每个特征维度下的第一语义预测结果,确定所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率,包括:
按照所述不同特征维度由低到高的顺序执行多次融合处理之后,得到所述待分割人脸图像中各个像素点为人脸区域对应的像素点的概率;
其中,所述多次融合处理中第i次融合处理包括:
确定所述第一特征维度下的第一语义预测结果的语义置信度信息;
利用所述第一特征维度下的第一语义预测结果的语义置信度信息,对所述第一特征维度下的第一语义预测结果和所述第二特征维度下的第一语义预测结果进行融合,得到所述第二特征维度下的目标语义预测结果;
将所述目标语义预测结果更新为第i+1次融合过程中第一特征维度的第一语义预测结果。
9.根据权利要求7或8所述的方法,其特征在于,所述针对所述不同特征维度中的每个特征维度,基于该特征维度对应的图像特征信息,确定所述待分割人脸图像在该特征维度下的第一语义预测结果,包括:
针对最低特征维度,基于所述最低特征维度对应的图像特征信息,确定所述待分割人脸图像在所述最低特征维度下的第一语义预测结果;
针对除最低特征维度外的每个所述第二特征维度,基于该第二特征维度对应的图像特征信息和所述待分割人脸图像在所述第一特征维度下的第一语义预测结果,确定所述待分割人脸图像在该第二特征维度下的第一语义预测结果。
10.根据权利要求1至9任一项所述的方法,其特征在于,在所述得到目标图像对应的人脸分割结果之后,还包括:
基于所述人脸分割结果,将所述目标图像中的人脸区域对应的像素点的颜色值设置为第一目标值;
将所述目标图像中的除所述人脸区域以外的像素点的颜色值设置为第二目标值。
11.根据权利要求1至10任一项所述的方法,其特征在于,在所述得到目标图像对应的人脸分割结果之后,还包括:
获取针对所述目标图像的特效处理信息;
基于所述人脸分割结果和所述特效处理信息,对所述目标图像中的人脸区域和/或非人脸区域进行特效处理。
12.一种图像处理装置,其特征在于,包括:
获取模块,用于获取待追踪对象的目标人脸关键点组;
匹配模块,用于将目标图像中的每个待匹配对象的人脸对应的关键点组与所述目标人脸关键点组进行匹配,确定所述待追踪对象在目标图像中的人脸关键点组;
裁剪模块,用于根据所述人脸关键点组对所述目标图像进行裁剪,得到待分割人脸图像;
分割模块,用于利用预先训练好的深度神经网络,对所述待分割人脸图像进行人脸区域的分割处理,得到所述目标图像对应的人脸分割结果。
13.一种计算机设备,其特征在于,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述处理器用于执行所述存储器中存储的机器可读指令,所述机器可读指令被所述处理器执行时,所述处理器执行如权利要求1至11任意一项所述的图像处理方法的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被计算机设备运行时,所述计算机设备执行如权利要求1至11任意一项所述的图像处理方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738813.0A CN113469040B (zh) | 2021-06-30 | 2021-06-30 | 一种图像处理方法、装置、计算机设备和存储介质 |
PCT/CN2021/124897 WO2023273022A1 (zh) | 2021-06-30 | 2021-10-20 | 一种图像处理方法、装置、计算机设备、存储介质和计算机程序产品 |
TW110147666A TW202303514A (zh) | 2021-06-30 | 2021-12-20 | 一種圖像處理方法、電腦設備、電腦可讀儲存媒體 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738813.0A CN113469040B (zh) | 2021-06-30 | 2021-06-30 | 一种图像处理方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113469040A true CN113469040A (zh) | 2021-10-01 |
CN113469040B CN113469040B (zh) | 2023-10-24 |
Family
ID=77876733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110738813.0A Active CN113469040B (zh) | 2021-06-30 | 2021-06-30 | 一种图像处理方法、装置、计算机设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN113469040B (zh) |
TW (1) | TW202303514A (zh) |
WO (1) | WO2023273022A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850245A (zh) * | 2021-11-30 | 2021-12-28 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114821752A (zh) * | 2022-06-28 | 2022-07-29 | 杭州登虹科技有限公司 | 一种基于混合特征的年龄估算方法、电子设备及存储介质 |
WO2023273022A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备、存储介质和计算机程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870824A (zh) * | 2014-03-28 | 2014-06-18 | 海信集团有限公司 | 一种在人脸检测跟踪过程中的人脸捕捉方法及装置 |
CN105373777A (zh) * | 2015-10-30 | 2016-03-02 | 中国科学院自动化研究所 | 一种用于人脸识别的方法及装置 |
US20160371537A1 (en) * | 2015-03-26 | 2016-12-22 | Beijing Kuangshi Technology Co., Ltd. | Method, system, and computer program product for recognizing face |
CN108985181A (zh) * | 2018-06-22 | 2018-12-11 | 华中科技大学 | 一种基于检测分割的端对端人脸标注方法 |
CN109325964A (zh) * | 2018-08-17 | 2019-02-12 | 深圳市中电数通智慧安全科技股份有限公司 | 一种人脸追踪方法、装置及终端 |
CN110097586A (zh) * | 2019-04-30 | 2019-08-06 | 青岛海信网络科技股份有限公司 | 一种人脸检测追踪方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469040B (zh) * | 2021-06-30 | 2023-10-24 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备和存储介质 |
-
2021
- 2021-06-30 CN CN202110738813.0A patent/CN113469040B/zh active Active
- 2021-10-20 WO PCT/CN2021/124897 patent/WO2023273022A1/zh unknown
- 2021-12-20 TW TW110147666A patent/TW202303514A/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870824A (zh) * | 2014-03-28 | 2014-06-18 | 海信集团有限公司 | 一种在人脸检测跟踪过程中的人脸捕捉方法及装置 |
US20160371537A1 (en) * | 2015-03-26 | 2016-12-22 | Beijing Kuangshi Technology Co., Ltd. | Method, system, and computer program product for recognizing face |
CN105373777A (zh) * | 2015-10-30 | 2016-03-02 | 中国科学院自动化研究所 | 一种用于人脸识别的方法及装置 |
CN108985181A (zh) * | 2018-06-22 | 2018-12-11 | 华中科技大学 | 一种基于检测分割的端对端人脸标注方法 |
CN109325964A (zh) * | 2018-08-17 | 2019-02-12 | 深圳市中电数通智慧安全科技股份有限公司 | 一种人脸追踪方法、装置及终端 |
CN110097586A (zh) * | 2019-04-30 | 2019-08-06 | 青岛海信网络科技股份有限公司 | 一种人脸检测追踪方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023273022A1 (zh) * | 2021-06-30 | 2023-01-05 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备、存储介质和计算机程序产品 |
CN113850245A (zh) * | 2021-11-30 | 2021-12-28 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
WO2023098635A1 (zh) * | 2021-11-30 | 2023-06-08 | 上海商汤智能科技有限公司 | 图像处理 |
CN114821752A (zh) * | 2022-06-28 | 2022-07-29 | 杭州登虹科技有限公司 | 一种基于混合特征的年龄估算方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113469040B (zh) | 2023-10-24 |
WO2023273022A1 (zh) | 2023-01-05 |
TW202303514A (zh) | 2023-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113469040A (zh) | 一种图像处理方法、装置、计算机设备和存储介质 | |
Yao et al. | Deep discriminative cnn with temporal ensembling for ambiguously-labeled image classification | |
Ban et al. | Face detection based on skin color likelihood | |
EP3229171A1 (en) | Method and device for determining identity identifier of human face in human face image, and terminal | |
CN110569731B (zh) | 一种人脸识别方法、装置及电子设备 | |
US20210117651A1 (en) | Facial image identification system, identifier generation device, identification device, image identification system, and identification system | |
JP2016081212A (ja) | 画像認識装置、画像認識方法、および、画像認識プログラム | |
EP3174012A1 (en) | Locating and tracking fingernails in images | |
CN111597884A (zh) | 面部动作单元识别方法、装置、电子设备及存储介质 | |
CN111291887A (zh) | 神经网络的训练方法、图像识别方法、装置及电子设备 | |
CN111783882B (zh) | 关键点检测方法、装置、电子设备及存储介质 | |
CN110210480B (zh) | 文字识别方法、装置、电子设备和计算机可读存储介质 | |
CN112651364B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113657404B (zh) | 一种东巴象形文字的图像处理方法 | |
CN112818955A (zh) | 一种图像分割方法、装置、计算机设备以及存储介质 | |
CN111108508B (zh) | 脸部情感识别方法、智能装置和计算机可读存储介质 | |
CN112802081A (zh) | 一种深度检测方法、装置、电子设备及存储介质 | |
JP5755046B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
Sahoo et al. | Indian sign language recognition using skin color detection | |
JP2021103538A (ja) | 情報処理装置、情報処理方法、および、情報処理プログラム | |
CN113469041A (zh) | 一种图像处理方法、装置、计算机设备和存储介质 | |
CN111639537A (zh) | 人脸动作单元识别方法、装置、电子设备及存储介质 | |
CN115482571A (zh) | 一种适用于遮挡情况的人脸识别方法、装置及存储介质 | |
CN107992853B (zh) | 人眼检测方法、装置、计算机设备及存储介质 | |
Jagadesh et al. | A Robust Skin Colour Segmentation Using Bivariate Pearson Type II [alpha][alpha](Bivariate Beta) Mixture Model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40052317 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |