CN109544445B - 一种图像处理方法、装置及移动终端 - Google Patents
一种图像处理方法、装置及移动终端 Download PDFInfo
- Publication number
- CN109544445B CN109544445B CN201811512365.7A CN201811512365A CN109544445B CN 109544445 B CN109544445 B CN 109544445B CN 201811512365 A CN201811512365 A CN 201811512365A CN 109544445 B CN109544445 B CN 109544445B
- Authority
- CN
- China
- Prior art keywords
- area
- hairline
- hair
- region
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 210000004209 hair Anatomy 0.000 claims abstract description 124
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000012545 processing Methods 0.000 claims abstract description 35
- 238000004590 computer program Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 210000001061 forehead Anatomy 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种图像处理方法、装置及移动终端。该方法包括:识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;根据所述发际线位置,对所述目标图像中的人脸区域进行处理。本发明通过识别出目标图像中人脸区域所包括的头发区域和相邻的皮肤区域,并根据头发区域和皮肤区域的深度信息来识别该发际线位置,即便环境光线较暗,也能够准确的识别到人脸区域中发际线位置,从而可以根据发际线位置来对目标图像进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像处理方法、装置及移动终端。
背景技术
随着互联网技术的不断发展,移动终端的普及给用户提供了极大的便利,例如,由于智能终端的便携性,用户使用手机替代相机进行拍照。
在拍照或在对图像进行处理的过程中,可以对图像进行瘦脸、美白、增大眼睛等美颜处理。但是,难以准确地找到发际线的位置,并对其作美颜处理。
发明内容
本发明实施例提供一种图像处理方法、装置及移动终端,以解决相关技术中的图像处理方法所存在的难以准确地找到发际线的位置,并对其作美颜处理的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种图像处理方法,应用于移动终端,所述方法包括:
识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;
根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
第二方面,本发明实施例还提供了一种图像处理装置,应用于移动终端,所述图像处理装置包括:
第一识别模块,用于识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
确定模块,用于根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;
处理模块,用于根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
第三方面,本发明实施例还提供了一种移动终端,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现所述的图像处理方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述的图像处理方法的步骤。
这样,在本发明实施例中,通过识别出目标图像中人脸区域所包括的头发区域和相邻的皮肤区域,并根据头发区域和皮肤区域的深度信息来识别该发际线位置,即便环境光线较暗,也能够准确的识别到人脸区域中发际线位置,从而可以根据发际线位置来对目标图像进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明第一实施例的图像处理方法的流程图;
图2是本发明第二实施例的图像处理方法的流程图;
图3是本发明第三实施例的图像处理方法的流程图;
图4是本发明的一个目标发际线区域实施例的示意图;
图5是本发明第四实施例的图像处理装置的框图;
图6是本发明第五实施例的图像处理装置的框图;
图7是本发明第六实施例的移动终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
第一实施例
参照图1,示出了本发明一个实施例的图像处理方法的流程图,应用于移动终端,所述方法具体可以包括如下步骤:
步骤101,识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
其中,目标图像为待识别图像,该目标图像中包括人物,人物具有人脸、毛发等。本步骤主要是从目标图像的人脸区域(包括头发区域)中识别出一个初始发际线区域,该初始发际线区域包括头发区域,以及与头发区域相邻的皮肤区域。
其中,该目标图像可以是二维图像,也可以是三维图像。
当然,这里识别到的头发区域的边界和皮肤区域的边界并不一定是真实的边界,可能皮肤区域中存在部分区域为头发特征点,也可能头发区域中存在部分区域为皮肤特征点。这里只是从目标图像的人脸区域中识别出一个涵盖发际线位置的初始发际线区域,识别该初始发际线区域的方式为识别头发区域以及与该头发区域相邻的皮肤区域。
步骤102,根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;
其中,可以针对步骤101中得到的头发区域,获取其深度信息,以及针对步骤101得到的皮肤区域,获取其深度信息。然后,根据这两个区域的深度信息,来识别出处于初始发际线区域中的发际线位置。
其中,一个图像区域的深度信息,反映了被拍摄的图像区域与移动终端的摄像头传感器之间的距离。
其中,人物的发际线位置处于人脸皮肤与头发的交界处,而从额头的皮肤向上延伸到头发边界时,会有明显的一段Z方向的深度信息差,因此,本步骤可以利用头发区域的深度信息和所述皮肤区域的深度信息,来确定目标图像中的发际线位置。
步骤103,根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
其中,可以根据在目标图像中确定的发际线位置,来确定该发际线相对于该目标图像中的人脸是偏高还是偏低。
如果是偏高,则可以采用与发际线偏高相对应的各种第一图像处理方法来对该目标图像的人脸进行处理。其中,该第一图像处理方法包括但不限于:将目标图像中的发际线所在位置下移,以便使人脸的额头看着更小;在目标图像中的发际线位置作植发的美妆处理以遮挡发际线;在目标图像的头部增加帽子,以遮挡发际线;对目标图像中人物的发型作遮挡发际线的设计,提供该美发设计提供给用户选择使用等等。
其中,上述任意一种第一图像处理方法都可以推荐给用户供用户选择,从而将用户选择的第一图像处理方法应用到目标图像中,达到降低发际线或遮挡发际线的目的。
如果是偏低,则可以采用与发际线偏低相对应的各种第二图像处理方法来对目标图像的人脸进行上妆处理。该第二图像处理方法包括但不限于:将目标图像中的发际线所在位置上移,以便使人脸的额头看着更大一点;对目标图像中人物的发型作遮挡发际线的设计,提供该美发设计提供给用户选择使用等等。
其中,对于何种发际线位置,就属于发际线偏高的情况,或者何种发际线位置,就属于发际线偏低的情况,在判断上,本发明实施例的方法可以预先对大量的人脸图像进行发际线位置的深度学习,从而能够对任意一个人脸图像以及其中标注的发际线的位置,来判断出该发际线位置相较于该人脸图像而言,属于发际线偏高还是偏低,或者正常。
这样,在本发明实施例中,通过识别出目标图像中人脸区域所包括的头发区域和相邻的皮肤区域,并根据头发区域和皮肤区域的深度信息来识别该发际线位置,即便环境光线较暗,也能够准确的识别到人脸区域中发际线位置,从而可以根据发际线位置来对目标图像进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
可选地,本发明实施例的方法不仅可以利用深度信息来准确地识别发际线位置。在另一个实施例中,本发明实施例的方法还可以包括:
采用深度摄像头对人物进行拍摄,得到目标图像;其中,深度摄像头可以发射红外光,而由于头发和皮肤的纹理不同,对红外光的反射率也是存在差异的,因此,图4所示的发际线上方区域31b和发际线下方区域31a这两个区域返回的红外线的能量是不同的。所以,可以获取目标发际线区域中各个点返回的红外线的能力;并计算目标发际线区域中各个点所返回的红外线的能量之间的差异;根据该差异来识别目标发际线区域31中的发际线32所在的位置,提升对发际线位置的检测准确度。
第二实施例
参照图2,示出了本发明另一个实施例的图像处理方法的流程图,应用于移动终端,具体可以包括如下步骤:
步骤201,识别目标图像中的人脸区域的位置信息以及角度信息;
其中,可以识别目标图像中人脸区域所在的位置,此外,还可以识别该人脸区域所处的三维角度(例如低头30度,或者,抬头30度等)。
步骤202,根据所述位置信息和所述角度信息,识别所述目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
即,根据所述位置信息和所述角度信息,来得到初始发际线区域(由上述头发区域和与之相邻的上述皮肤区域构成);
其中,本发明实施例预先可以利用大量的人脸图像样本来对发际线识别模型进行训练,输入的数据包括人脸图像样本,以及该人脸图像样本中人脸所在的位置、角度,且人脸图像样本标注有发际线区域的位置(或者标注有头发区域位置,以及标注有与头发区域位置相邻的皮肤区域的位置),通过对该模型进行训练,可以使训练后的发际线识别模型对输入的任意一个待识别图像,结合输入的该待识别图像中人脸区域所处的位置信息和角度信息,来识别出该待识别图像中的初始发际线区域,即一个粗略估计的发际线区域(或者,识别出头发区域,以及与头发区域相邻的皮肤区域)。
那么本步骤中,就可以利用预先经过训练的发际线识别模型,来对输入的目标图像中人脸的位置信息以及角度信息,以及目标图像,来识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域,即初始发际线区域。
其中,由于初始发际线区域所涵盖的范围较大,对后续利用该初始发际线区域识别发际线位置的难度、效率有影响,因此,本实施例中,还可以包括下述步骤203和步骤204,来达到对该初始发际线区域作进一步纠正和细化的目的,从而在目标图像中识别出目标发际线区域(是较为准确的包含发际线的区域)
那么发明人发现位于发际线上方的头发与位于发际线下方区域的皮肤的纹理是不同的,因此,本发明实施例的方法还可以利用纹理特征来对上述初始发际线区域进行进一步的精细化区域的确定,得到目标发际线区域,其中,目标发际线区域可以选自初始发际线区域中的一部分区域,也可以包括人脸区域中与该初始发际线区域不同的位置区域。具体参照步骤203和步骤204。
步骤203,获取所述目标图像中所述头发区域的第一纹理特征和所述皮肤区域的第二纹理特征;
其中,可以采用矩形框来对目标图像中的人脸区域进行标注,那么矩形框内部区域主要是皮肤区域,而矩形框外部区域则主要是头发区域,因此,可以获取矩形框内部区域的纹理特征(均记为第一纹理特征),以及获取矩形框外部区域的纹理特征(均记为第二纹理特征)。
当然,获取头发区域以及上述相邻的皮肤区域的各自纹理特征的方法并不限于上述矩形框的方法,可以采用任意一种传统方法来实现。
步骤204,根据所述第一纹理特征和所述第二纹理特征之间的纹理差异,识别所述人脸区域中的目标发际线区域;
其中,由于皮肤和头发的纹理差异是很大的,因此,可以对上述皮肤区域和头发区域的两组纹理特征进行比对,从而确定两个区域之间纹理差异较大的一些特征点,那么根据纹理特征差异较大的这些特征点的所在位置,就可以对该初始发际线区域作进一步纠正和细化,从而确定出人脸区域中的目标发际线区域。
在一个示例中,如图4所示,示出了目标发际线区域31,在目标发际线区域31内包括虚线所示的发际线32,为了准确的识别目标图像中发际线32的位置,还需要借助于该目标发际线区域31的深度信息。
步骤205,根据所述目标发际线区域的深度信息,确定发际线位置;
其中,可以预先获取该目标发际线区域的深度信息,获取一个图像区域的深度信息的方法可以采用任意一种传统方法,这里不再赘述。
那么相较于第一实施例中,根据初始发际线区域的深度信息,来确定发际线位置,本实施例的利用对初始发际线区域作进一步精细化纠正和分割得到的目标发际线区域的深度信息,则可以更加准确的识别到人脸区域中的发际线位置。
其中,这里的目标发际线区域的深度信息,可以是该目标发际线区域中每个像素点的深度信息,也可以是部分像素点的深度信息,只要可以准确识别发际线位置即可。
目标发际线区域的深度信息,反映了被拍摄的目标发际线区域与移动终端的摄像头传感器之间的距离。
其中,如上所述,而从额头的皮肤向上延伸到头发边界(即发际线)时,会有明显的一段Z方向的深度差,那么参照图4,可以根据发际线32的位置将目标发际线区域划分为发际线上方区域31b和发际线下方区域31a。那么在发际线下方区域31a(即部分皮肤区域)中,从该发际线下方区域31a的下边界向发际线方向延伸,也会有明显的一段Z方向的深度差。此外,发际线上方区域31b(即部分头发区域)与发际线32之间也是存在Z方向的深度差的。其中,Z方向即与该图4所在的平面垂直的方向。
所以,可以根据该目标发际线区域31的各个像素点的深度信息(即深度值),来识别出该目标发际线区域31中的发际线32所在的位置。
可选地,在一个实施例中,在步骤205之前,该方法还可以包括:
S401,获取与所述目标图像对应的深度图像;
本步骤的原理与下述第三实施例的步骤302类似,这里不再赘述。
S402,提取所述深度图像中所述目标发际线区域的深度信息;
本步骤的原理与下述第三实施例的步骤303类似,这里不再赘述。
那么在执行步骤205时,则可以通过S403和S404来实现:
S403,根据所述目标发际线区域中每个像素点的深度信息,计算所述目标发际线区域中相邻像素点之间的深度信息的差值;
如第一实施例所述,被拍摄的人物的发际线位置处于人脸皮肤与头发的交界处,而从额头的皮肤向上延伸到头发边界时,会有明显的一段Z方向的深度差,即深度信息不同。因此,本步骤可以根据目标发际线区域中每个像素点的深度信息,来计算该目标发际线区域中各个相邻像素点之间的深度信息的差值,其中,这里的差值可以取绝对值,使得深度信息差值均是大于零的。
S404,根据所述深度信息的差值,识别所述目标发际线区域中的发际线位置;
其中,可以理解的是,目标发际线区域可以包括部分头发区域,以及与头发相邻的部分皮肤区域,其中,在该目标发际线区域中,发际线位置的深度值是相对较大的,而头发区域和皮肤区域相对发际线位置的深度值都是较小的。那么根据目标发际线区域中各个相邻像素点之间的深度值的差值,就可以识别出图4所示目标发际线区域31中的发际线32所处的准确位置。
在本发明实施例中,通过获取目标图像对应的深度图像,并提取深度图像中对应目标发际线区域的深度信息,以及根据发际线区域中每个像素点的深度信息,来计算各个相邻像素点之间的深度信息之间的差值,从而可以利用该深度信息的差值,来识别出目标发际线区域中准确的发际线位置,即便环境光线较暗,也能够准确的识别到人脸的发际线位置,从而可以根据发际线位置来对目标图像中的发际线进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
步骤206,根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
具体参照第一实施例的步骤103,这里不再赘述。
在本发明实施例中,通过识别出目标图像中人脸区域的位置信息以及角度信息,来对目标图像进行粗略的发际线区域的确定,得到初始发际线区域;然后再利用头发和皮肤的纹理不同的原理,来获取初始发际线区域中头发区域的第一纹理特征以及皮肤区域的第二纹理特征,利用两个区域的纹理特征的差异,来对初始发际线区域进行校正和细化,从而确定目标发际线区域,能够使用目标发际线区域的深度信息,来准确的识别到人脸的发际线位置,提升了对目标图像中的发际线的位置识别的准确度。
第三实施例
参照图3,示出了本发明又一个实施例的图像处理方法的流程图,应用于移动终端,具体可以包括如下步骤:
步骤301,识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
具体参照第一实施例的步骤101,这里不再赘述。
步骤302,获取与所述目标图像对应的深度图像;
其中,目标图像为二维图像,获取与该二维图像对应的深度图像的方法很多。这里示意性的列举几个方法来说明:
可以利用三维(3D)摄像头来拍摄人物,从而不仅可以得到目标图像,还可以得到与该目标图像对应的深度图像;
或者,还可以对该目标图像进行3D建模,来得到与目标图像对应的3D图像,再从该3D图像中获取各个像素点的深度信息,从而得到上述深度图像;
或者,还可以采用两个RGB摄像头来对该被拍摄人物进行拍摄,得到两个二维图像,其中,一个二维图像为目标图像。然后,根据这两个二维图像的位移差来计算目标图像中每个像素点的深度信息,从而得到该深度图像。
其中,深度图像中每个像素点的坐标与目标图像中每个像素点的坐标都是一一对应的,只不过深度图像的像素值反映了像素点的深度信息,而目标图像中的像素值则反应了RGB值。
其中,本发明对于步骤301和步骤302的执行顺序不做限制。
步骤303,提取所述深度图像中与所述头发区域对应的深度信息,以及与所述皮肤区域对应的深度信息;
其中,由于步骤301已经识别有头发区域以及与头发区域相邻的皮肤区域的位置,而深度图像与目标图像之间各个像素点都是一一对应的,因此,可以在深度图像中提取到对应所述头发区域的深度信息(其中,可以是该头发区域中每个像素点的深度信息),以及对应所述皮肤区域的深度信息(其中,可以是该皮肤区域中每个像素点的深度信息)。
步骤304,根据所述头发区域中像素点的深度信息,以及所述皮肤区域中像素点的深度信息,计算所述头发区域与所述皮肤区域之间相邻像素点的深度信息的差值;
其中,由于发际线的位置位于头发区域和皮肤区域之间,而两个区域之间相邻的像素点又存在着深度差,所以,可以利用头发区域中全部或部分像素点的深度信息,以及皮肤区域中全部或部分像素点的深度信息,来计算头发区域与皮肤区域之间相邻像素点之间的深度信息的差值。当然,这里的相邻像素点在各自区域中的数量并不限定为一个,可以是多个,因为,头发区域中从外向发际线位置延伸也是存在深度差的,类似的皮肤区域从外向发际线位置延伸也是存在深度差的,这样,可以提升识别到的发际线位置的准确度。
步骤305,根据所述深度信息的差值,确定发际线位置;
其中,可以理解的是,在该初始发际线区域中,发际线位置的深度值是相对较大的,而其中的头发区域和皮肤区域相对发际线位置的深度值都是较小的。那么根据相邻像素点之间的深度值的差值,就可以识别出初始发际线区域中的发际线所处的准确位置。
步骤306,根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
具体参照第一实施例的步骤103,这里不再赘述。
在本发明实施例中,通过获取目标图像对应的深度图像,并提取深度图像中对应所述头发区域的深度信息,以及相邻的皮肤区域的深度信息,并根据头发区域和皮肤区域中像素点的深度信息,来计算所述头发区域与所述皮肤区域之间相邻像素点的深度信息的差值,从而可以利用该深度信息的差值,来识别出初始发际线区域中准确的发际线位置,即便环境光线较暗,也能够准确的识别到人脸的发际线位置,从而可以根据发际线位置来对目标图像中的发际线进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
第四实施例
参照图5,示出了本发明一个实施例的图像处理装置的框图,应用于移动终端。图5所示图像处理装置包括:
第一识别模块51,用于识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
确定模块52,用于根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;
处理模块53,用于根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
这样,在本发明实施例中,通过识别出目标图像中人脸区域所包括的头发区域和相邻的皮肤区域,并根据头发区域和皮肤区域的深度信息来识别该发际线位置,即便环境光线较暗,也能够准确的识别到人脸区域中发际线位置,从而可以根据发际线位置来对目标图像进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
第五实施例
参照图6,示出了本发明一个实施例的图像处理装置的框图,应用于移动终端。图6所示图像处理装置包括:
第一识别模块51,用于识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
确定模块52,用于根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;
处理模块53,用于根据所述发际线位置,对所述目标图像中的人脸区域进行处理;
可选地,所述第一识别模块51包括:
第一识别子模块511,用于识别目标图像中的人脸区域的位置信息以及角度信息;
第二识别子模块512,用于根据所述位置信息和所述角度信息,识别所述目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域。
可选地,所述装置还包括:
第一获取模块54,用于获取所述目标图像中所述头发区域的第一纹理特征和所述皮肤区域的第二纹理特征;
第二识别模块55,用于根据所述第一纹理特征和所述第二纹理特征之间的纹理差异,识别所述人脸区域中的目标发际线区域;
所述确定模块52,还用于根据所述目标发际线区域的深度信息,确定发际线位置。
可选地,所述装置还包括:
第二获取模块56,用于获取与所述目标图像对应的深度图像;
提取模块57,用于提取所述深度图像中与所述头发区域对应的深度信息,以及与所述皮肤区域对应的深度信息。
可选地,所述确定模块52包括:
计算子模块521,用于根据所述头发区域中像素点的深度信息,以及所述皮肤区域中像素点的深度信息,计算所述头发区域与所述皮肤区域之间相邻像素点的深度信息的差值;
确定子模块522,用于根据所述深度信息的差值,确定发际线位置。
本发明实施例提供的图像处理装置能够实现图1至图4的方法实施例中图像处理方法实现的各个过程,为避免重复,这里不再赘述。
第六实施例
图7为实现本发明各个实施例的一种移动终端的硬件结构示意图,
该移动终端700包括但不限于:射频单元701、网络模块702、音频输出单元703、输入单元704、传感器705、显示单元706、用户输入单元707、接口单元708、存储器709、处理器710、以及电源711等部件。本领域技术人员可以理解,图7中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,移动终端包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器710,用于识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置;根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
这样,在本发明实施例中,通过识别出目标图像中人脸区域所包括的头发区域和相邻的皮肤区域,并根据头发区域和皮肤区域的深度信息来识别该发际线位置,即便环境光线较暗,也能够准确的识别到人脸区域中发际线位置,从而可以根据发际线位置来对目标图像进行合理的上妆处理,达到对发际线美颜的目的,使得处理后的图像中的人脸比例更加协调。
应理解的是,本发明实施例中,射频单元701可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器710处理;另外,将上行的数据发送给基站。通常,射频单元701包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元701还可以通过无线通信系统与网络和其他设备通信。
移动终端通过网络模块702为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元703可以将射频单元701或网络模块702接收的或者在存储器709中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元703还可以提供与移动终端700执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元703包括扬声器、蜂鸣器以及受话器等。
输入单元704用于接收音频或视频信号。输入单元704可以包括图形处理器(Graphics Processing Unit,GPU)7041和麦克风7042,图形处理器7041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元706上。经图形处理器7041处理后的图像帧可以存储在存储器709(或其它存储介质)中或者经由射频单元701或网络模块702进行发送。麦克风7042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元701发送到移动通信基站的格式输出。
移动终端700还包括至少一种传感器705,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板7061的亮度,接近传感器可在移动终端700移动到耳边时,关闭显示面板7061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器705还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元706用于显示由用户输入的信息或提供给用户的信息。显示单元706可包括显示面板7061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板7061。
用户输入单元707可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元707包括触控面板7071以及其他输入设备7072。触控面板7071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板7071上或在触控面板7071附近的操作)。触控面板7071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器710,接收处理器710发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板7071。除了触控面板7071,用户输入单元707还可以包括其他输入设备7072。具体地,其他输入设备7072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板7071可覆盖在显示面板7061上,当触控面板7071检测到在其上或附近的触摸操作后,传送给处理器710以确定触摸事件的类型,随后处理器710根据触摸事件的类型在显示面板7061上提供相应的视觉输出。虽然在图7中,触控面板7071与显示面板7061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板7071与显示面板7061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元708为外部装置与移动终端700连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元708可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端700内的一个或多个元件或者可以用于在移动终端700和外部装置之间传输数据。
存储器709可用于存储软件程序以及各种数据。存储器709可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器709可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器710是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器709内的软件程序和/或模块,以及调用存储在存储器709内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器710可包括一个或多个处理单元;优选的,处理器710可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器710中。
移动终端700还可以包括给各个部件供电的电源711(比如电池),优选的,电源711可以通过电源管理系统与处理器710逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,移动终端700包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种移动终端,包括处理器110,存储器109,存储在存储器109上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器110执行时实现上述图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (10)
1.一种图像处理方法,应用于移动终端,其特征在于,所述方法包括:
识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
根据所述头发区域的深度信息和所述皮肤区域的深度信息,确定发际线位置;其中,所述深度信息反映被拍摄的图像区域与所述移动终端的摄像头传感器之间的距离;
根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
2.根据权利要求1所述的方法,其特征在于,所述识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域,包括:
识别目标图像中的人脸区域的位置信息以及角度信息;
根据所述位置信息和所述角度信息,识别所述目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域。
3.根据权利要求1所述的方法,其特征在于,
所述根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置之前,所述方法还包括:
获取所述目标图像中所述头发区域的第一纹理特征和所述皮肤区域的第二纹理特征;
根据所述第一纹理特征和所述第二纹理特征之间的纹理差异,识别所述人脸区域中的目标发际线区域;
所述根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置,包括:
根据所述目标发际线区域的深度信息,确定发际线位置。
4.根据权利要求1所述的方法,其特征在于,所述根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置之前,所述方法还包括:
获取与所述目标图像对应的深度图像;
提取所述深度图像中与所述头发区域对应的深度信息,以及与所述皮肤区域对应的深度信息。
5.根据权利要求1所述的方法,其特征在于,所述根据所述头发区域和所述皮肤区域的深度信息,确定发际线位置,包括:
根据所述头发区域中像素点的深度信息,以及所述皮肤区域中像素点的深度信息,计算所述头发区域与所述皮肤区域之间相邻像素点的深度信息的差值;
根据所述深度信息的差值,确定发际线位置。
6.一种图像处理装置,应用于移动终端,其特征在于,所述图像处理装置包括:
第一识别模块,用于识别目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域;
确定模块,用于根据所述头发区域的深度信息和所述皮肤区域的深度信息,确定发际线位置;其中,所述深度信息反映被拍摄的图像区域与所述移动终端的摄像头传感器之间的距离;
处理模块,用于根据所述发际线位置,对所述目标图像中的人脸区域进行处理。
7.根据权利要求6所述的装置,其特征在于,所述第一识别模块包括:
第一识别子模块,用于识别目标图像中的人脸区域的位置信息以及角度信息;
第二识别子模块,用于根据所述位置信息和所述角度信息,识别所述目标图像中的人脸区域所包括的头发区域以及与所述头发区域相邻的皮肤区域。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第一获取模块,用于获取所述目标图像中所述头发区域的第一纹理特征和所述皮肤区域的第二纹理特征;
第二识别模块,用于根据所述第一纹理特征和所述第二纹理特征之间的纹理差异,识别所述人脸区域中的目标发际线区域;
所述确定模块,还用于根据所述目标发际线区域的深度信息,确定发际线位置。
9.一种移动终端,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的图像处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的图像处理方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811512365.7A CN109544445B (zh) | 2018-12-11 | 2018-12-11 | 一种图像处理方法、装置及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811512365.7A CN109544445B (zh) | 2018-12-11 | 2018-12-11 | 一种图像处理方法、装置及移动终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109544445A CN109544445A (zh) | 2019-03-29 |
CN109544445B true CN109544445B (zh) | 2023-04-07 |
Family
ID=65854162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811512365.7A Active CN109544445B (zh) | 2018-12-11 | 2018-12-11 | 一种图像处理方法、装置及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109544445B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110047126B (zh) * | 2019-04-25 | 2023-11-24 | 北京字节跳动网络技术有限公司 | 渲染图像的方法、装置、电子设备和计算机可读存储介质 |
CN111402115B (zh) * | 2020-03-10 | 2024-02-20 | 维沃移动通信有限公司 | 一种图像处理方法及电子设备 |
CN112862807B (zh) * | 2021-03-08 | 2024-06-25 | 网易(杭州)网络有限公司 | 基于头发图像的数据处理方法及装置 |
CN113034349B (zh) * | 2021-03-24 | 2023-11-14 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108463823B (zh) * | 2016-11-24 | 2021-06-01 | 荣耀终端有限公司 | 一种用户头发模型的重建方法、装置及终端 |
CN107480615B (zh) * | 2017-07-31 | 2020-01-10 | Oppo广东移动通信有限公司 | 美颜处理方法、装置及移动设备 |
CN107730444B (zh) * | 2017-10-31 | 2022-02-01 | Oppo广东移动通信有限公司 | 图像处理方法、装置、可读存储介质和计算机设备 |
-
2018
- 2018-12-11 CN CN201811512365.7A patent/CN109544445B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109544445A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109600550B (zh) | 一种拍摄提示方法及终端设备 | |
CN107817939B (zh) | 一种图像处理方法及移动终端 | |
CN109544445B (zh) | 一种图像处理方法、装置及移动终端 | |
CN108495029B (zh) | 一种拍照方法及移动终端 | |
CN109151442B (zh) | 一种图像拍摄方法及终端 | |
CN108712603B (zh) | 一种图像处理方法及移动终端 | |
CN110062171B (zh) | 一种拍摄方法及终端 | |
CN107749046B (zh) | 一种图像处理方法及移动终端 | |
CN109241832B (zh) | 一种人脸活体检测的方法及终端设备 | |
CN107730460B (zh) | 一种图像处理方法及移动终端 | |
CN109272473B (zh) | 一种图像处理方法及移动终端 | |
CN107644396B (zh) | 一种唇色调整方法和装置 | |
JP7467667B2 (ja) | 検出結果出力方法、電子機器及び媒体 | |
CN109618218B (zh) | 一种视频处理方法及移动终端 | |
CN109671034B (zh) | 一种图像处理方法及终端设备 | |
CN109448069B (zh) | 一种模板生成方法及移动终端 | |
CN110908517B (zh) | 图像编辑方法、装置、电子设备及介质 | |
CN108881721B (zh) | 一种显示方法及终端 | |
CN108174110B (zh) | 一种拍照方法及柔性屏终端 | |
CN111080747B (zh) | 一种人脸图像处理方法及电子设备 | |
CN109639981B (zh) | 一种图像拍摄方法及移动终端 | |
CN109840476B (zh) | 一种脸型检测方法及终端设备 | |
CN110944112A (zh) | 一种图像处理方法及电子设备 | |
CN111091519A (zh) | 一种图像处理方法及装置 | |
CN108156386B (zh) | 一种全景拍照方法及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |