CN111145119B - 一种图像处理方法及电子设备 - Google Patents

一种图像处理方法及电子设备 Download PDF

Info

Publication number
CN111145119B
CN111145119B CN201911354895.8A CN201911354895A CN111145119B CN 111145119 B CN111145119 B CN 111145119B CN 201911354895 A CN201911354895 A CN 201911354895A CN 111145119 B CN111145119 B CN 111145119B
Authority
CN
China
Prior art keywords
face
included angle
processing
image
dimensional face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911354895.8A
Other languages
English (en)
Other versions
CN111145119A (zh
Inventor
李阳勤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Hangzhou Co Ltd
Original Assignee
Vivo Mobile Communication Hangzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Hangzhou Co Ltd filed Critical Vivo Mobile Communication Hangzhou Co Ltd
Priority to CN201911354895.8A priority Critical patent/CN111145119B/zh
Publication of CN111145119A publication Critical patent/CN111145119A/zh
Application granted granted Critical
Publication of CN111145119B publication Critical patent/CN111145119B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像处理方法及电子设备,该方法包括:确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;根据所述夹角信息确定处理系数;根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。本发明实施例中,根据夹角信息确定处理系数,并根据处理系数处理二维人脸图像中第二人脸区域,得到目标图像,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对二维人脸图像中不同第二人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。

Description

一种图像处理方法及电子设备
技术领域
本发明涉及通信技术领域,尤其涉及到一种图像处理方法及电子设备。
背景技术
随着科技的发展,电子设备上所具有的功能也越来越多。当前电子设备可以拍摄人脸图像,并对拍摄得到的人脸图像进行磨皮处理,或者在拍摄人脸图像的同时即对人脸图像进行磨皮处理,这样,可以增强人脸图像的显示效果,但是在实际的使用中,当前的电子设备通常是检测出人脸图像中的脸部区域后,直接对脸部区域进行统一磨皮处理,从而导致人脸图像的失真现象较为严重。
发明内容
本发明实施例提供一种图像处理方法及电子设备,以解决电子设备得到的人脸图像的失真现象较为严重的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种图像处理方法,包括:
确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;
根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;
根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。
第二方面,本发明实施例提供了一种电子设备,包括:
第一确定模块,用于确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;
第二确定模块,用于根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;
处理模块,用于根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。
第三方面,本发明实施例还提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述一种图像处理方法中的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述一种图像处理方法中的步骤。
在本发明实施例中,确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。这样,根据夹角信息确定处理系数,并根据处理系数处理二维人脸图像中第二人脸区域,得到目标图像,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对二维人脸图像中不同第二人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像处理方法的流程图;
图2是本发明实施例提供的另一种图像处理方法的流程图;
图3是本发明实施例提供的一种夹角信息与融合力度的关系图;
图4是本发明实施例提供的另一种图像处理方法的流程图;
图5是本发明实施例提供的一种电子设备的结构示意图;
图6是本发明实施例提供的另一种电子设备的结构示意图;
图7是本发明实施例提供的另一种电子设备的结构示意图;
图8是本发明实施例提供的另一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,本发明实施例提供一种图像处理方法的流程图,如图1所示,所述方法包括以下步骤:
步骤101、确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域。
其中,本实施例中的方法可以应用于电子设备上,而三维人脸模型可以为电子设备获取得到的,当然,三维人脸模型也可以是电子设备根据二维人脸图像生成得到的,具体方式在此不做限定。
其中,第一人脸区域的在三维人脸模型中的位置在此不做具体限定,优选的,第一人脸区域可以为三维人脸模型中的皮肤区域,例如:第一人脸区域可以为三维人脸模型的鼻尖区域或者脸颊区域。
另外,作为一种可选的实施方式,当第一人脸区域或者第二人脸区域为皮肤区域时,在确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息之前,所述方法还可以包括:对人脸图像进行肤色区域的检测和提取,并通过关键点(Outline)检测技术检测出肤色区域中的五官区域,相应的,肤色区域中除五官区域之外的区域即为皮肤区域。这样,通过识别出皮肤区域,并对皮肤区域进行滤波处理,可以避免对五官区域进行滤波处理(即磨皮处理)造成失真现象的发生,同时还可以提高对人脸图像中皮肤区域进行磨皮处理的准确度。另外,后续只需要对皮肤区域进行滤波处理,节省了算法处理开销,同时还可以避免对五官区域或者其他区域进行不必要的滤波处理,避免人脸图像显示效果变差的现象的发生。
其中,第一人脸区域的形状和大小在此不做具体限定,例如:第一人脸区域的形状可以为曲面,具体可以为朝向外界环境凸起的曲面,或者朝背离外界环境方向凸起的曲面;另外,第一人脸区域中可以包括一个像素点,以及该像素点周围的多个像素点,这样,该像素点以及该像素点周围的多个像素点所对应的人脸区域即为第一人脸区域。
需要说明的是,第一人脸区域中表面单位法向量可以表示第一人脸区域这一部分区域内的人脸姿态方向。当然,第一人脸区域这一部分区域内的人脸姿态方向也可以理解为人脸的朝向。
其中,预设方向在此不做具体限定,例如:预设方向可以为垂直于显示二维人脸图像的显示界面的方向,当然,预设方向也可以被称作用户的视线方向,例如:用户的视线方向可以为垂直于电子设备的显示屏的方向。
步骤102、根据所述夹角信息确定处理系数,所述处理系数包括滤波半径。
其中,夹角信息的具体类型在此不做限定,例如:夹角信息可以为夹角值或者夹角值的余弦值或者正弦值等。
另外,夹角信息与处理系数之间的关系在此不做具体限定,例如:夹角信息与处理系数之间的关系可以为正比例关系或者反比例关系,当然,也可以为正相关关系或者反相关关系。
步骤103、根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。
其中,根据处理系数处理二维人脸图像中第二人脸区域,通常指的是对二维人脸图像中第二人脸区域进行滤波处理,但是滤波处理的具体类型在此不做限定,例如:可以采用高斯滤波的方法,当然,还可以采用其他更复杂的滤波方法。
其中,作为一种可选的实施方式,处理系数也可以包括滤波直径。当处理系数包括滤波半径或者滤波直径时,可以以第二人脸区域的中间位置为圆心,以上述滤波半径或者滤波直径对第二人脸区域进行滤波处理。这样,第二人脸区域中进行滤波处理的区域的形状为圆形。
当然,处理系数也可以包括滤波宽度,且可以以第二人脸区域的某一位置为起点沿某一方向对第二人脸区域进行滤波处理,这样,第二人脸区域中进行滤波处理的区域的形状为矩形。
本发明实施例中,上述电子设备可以是手机、平板电脑(Tablet PersonalComputer)、膝上型电脑(Laptop Computer)、个人数字助理(Personal DigitalAssistant,简称PDA)、移动上网装置(Mobile Internet Device,MID)或可穿戴式设备(Wearable Device)等等。
在本发明实施例中,确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。这样,根据夹角信息确定处理系数,并根据处理系数处理二维人脸图像中第二人脸区域,得到目标图像,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对二维人脸图像中不同第二人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。同时,本方法可以实现自动化且高保真的磨皮效果,利用算法自动识别人脸中需要进行磨皮的区域,并对待磨皮区域进行不同程度的磨皮,使得磨皮的同时还能保持人脸面部结构信息,最终得到平滑且不失真的磨皮图像,使得美颜图像更符合大众审美。
参见图2,图2是本发明实施例提供的另一种图像处理方法的流程图。本实施例与上个实施例的主要区别在于:三维人脸模型为根据获取的二维人脸图像生成的。如图2所示,包括以下步骤:
步骤201、获取二维人脸图像,并根据所述二维人脸图像生成所述三维人脸模型。
其中,二维人脸图像的获取方式在此不做限定,例如:二维人脸图像可以为电子设备通过摄像头对用户进行图像采集得到的,当然,二维人脸图像也可以为电子设备从服务器上下载的,或者接收其他电子设备发送的。
当然,电子设备还可以直接获取带有深度信息的二维人脸图像,并可以根据带有深度信息的二维人脸图像进行人脸模型建模,以得到三维人脸模型。
另外,三维人脸模型的生成方式在此也不做具体限定,例如:三维人脸模型可以为电子设备通过使用深度扫描仪、校准的立体图像、立体视频或者高清晰度的单目视频重建得到。
另外,作为一种可选的实施方式,当第一人脸区域或者第二人脸区域为皮肤区域时,在获取二维人脸图像之后,所述方法还可以包括:对人脸图像进行肤色区域的检测和提取,并通过轮廓线(Outline)检测技术检测出肤色区域中的五官区域,相应的,肤色区域中除五官区域之外的区域即为皮肤区域。这样,通过识别出皮肤区域,并对皮肤区域进行滤波处理,可以避免对五官区域进行滤波处理(即磨皮处理)造成失真现象的发生,同时还可以提高对人脸图像中皮肤区域进行磨皮处理的准确度。另外,后续只需要对皮肤区域进行滤波处理,节省了算法处理开销,同时还可以避免对五官区域或者其他区域进行不必要的滤波处理,避免人脸图像显示效果变差的现象的发生。
另外,生成三维人脸模型之后,还可以计算三维人脸模型(也可以被称作为3D人脸模型)与输入人脸图像(即二维人脸图像)之间的2D-3D关系,记作T∈R4×4。该姿态(2D-3D关系)用于表征三维人脸模型与电子设备的相机坐标系之间的关系,即相机外参。上述可以理解为:通过建立2D-3D关系,从而使得三维人脸模型可以具有姿态信息。
另外,还可以将三维人脸模型和二维人脸图像中的像素点进行关联,例如:可以通过相机内参建立相机坐标系与图像坐标系之间的关系。相机内参已知的情况下,推荐采用透视投影,若相机内参未知,也可以采用弱透视投影模型。
需要说明的是,步骤201为可选的。
步骤202、确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域。
其中,第一人脸区域和预设方向可以参见上述实施例中关于第一人脸区域和预设方向的相应表述,具体在此不再赘述。
可选的,所述确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,包括:
确定所述三维人脸图像中的空间点云;
对所述空间点云进行无线网格重建,得到所述第一人脸区域;
确定所述第一人脸区域中表面单位法向量与所述预设方向之间的夹角信息。
其中,空间点云的个数在此不做限定,例如:空间点云的数量可以为多个,例如:上述多个空间点云可以以某一个点云为中心,其他点云可以分布于点云的周围,当然,各点云之间的距离在此不做限定,且任意两个点云之间的距离可以相同也可以不相同。
其中,在得到了三维人脸模型之后,可以通过点云中点及其领域信息估计一个范围内,并可以确定该范围的法线方向,该范围即为第一人脸区域所在的区域。另外,为了降低点云噪声引入的误差,可以对上述点云中点及其领域信息进行无线网格重建,并可以确定无线网格重建得到的曲面的法线方向(即第一人脸区域中表面单位法向量)。
需要说明的是,无线网格重建的方式在此不做具体限定,例如:无线网格重建可以采用泊松曲面重建的方式进行无线网格重建,并在重建得到的曲面(即第一人脸区域)计算该曲面的中的法线方向(即第一人脸区域中表面单位法向量)。
本发明实施方式中,通过对空间点云进行无线网格重建得到第一人脸区域,并确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,这样,可以降低其他非空间点云对夹角信息的检测结果造成的误差,提高夹角信息检测结果的准确度。
可选的,所述确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,包括:
检测所述第二人脸区域的第一纹理变化梯度和第二纹理变化梯度,所述第一纹理变化梯度为在水平方向上的纹理变化梯度,所述第二纹理变化梯度为在垂直方向上的纹理变化梯度;
在所述第一纹理变化梯度小于第一阈值,且所述第二纹理变化梯度小于第二阈值的情况下,确定所述第一人脸区域中表面单位法向量与所述预设方向之间的夹角信息。
其中,第一阈值和第二阈值可以相同,也可以不相同,另外,第一阈值和第二阈值的具体取值在此也不做限定。
其中,当第一纹理变化梯度大于第一阈值,或者,第二纹理变化梯度大于第二阈值时,说明此时第二人脸区域的结构信息特征较为明显,若对第二人脸区域进行滤波处理,则容易导致结构信息丢失,从而导致人脸图像失真现象较为明显。
需要说明的是,在人脸图像的五官区域,第一纹理变化梯度和第二纹理变化梯度一般较大,而在人脸图像的皮肤区域,第一纹理变化梯度和第二纹理变化梯度一般较小,因此,适合在人脸图像的皮肤区域进行滤波处理。
因此,本发明实施方式中,当第一纹理变化梯度小于第一阈值,且第二纹理变化梯度小于第二阈值的情况下,说明此时第二人脸区域的结构信息特征不明显,若对第二人脸区域进行滤波处理,不会导致结构信息丢失,也不会导致人脸图像失真现象的出现,同时还可以滤除其他像素点的干扰,增强人脸图像的显示效果。
步骤203、根据所述夹角信息确定处理系数,所述处理系数包括滤波半径。
其中,关于夹角信息和处理系数可以参见上述实施例中关于夹角信息和处理系数的相应表述,在此不再赘述。
可选的,所述处理系数还包括融合力度,根据所述融合力度对第一显示参数和第二显示参数加权求和,可得到所述第二人脸区域在所述目标图像中的目标显示参数;其中,所述第一显示参数为所述二维人脸图像中的所述第二人脸区域经过滤波处理之后的显示参数,所述第二显示参数为所述第二人脸区域在所述二维人脸图像中的显示参数。
其中,融合力度越大,表示第一显示参数的特征越明显。例如:当融合力度为1时,则表示第二人脸区域在目标图像中完全按照第一显示参数显示;当融合力度为0.5时,则表示第二人脸区域在目标图像中按照第一显示参数和第二显示参数的平均值进行显示。
另外,第一显示参数和第二显示参数可以指的是RGB值,而RGB值也可以被称作为RGB颜色值。
需要说明的是,融合力度可以与夹角信息呈对应关系,例如:当预设方向为垂直于显示二维人脸图像的显示界面的方向,且夹角信息为夹角值的余弦值时,融合力度可以与夹角值的余弦值成正比例关系,参见图3。当然,在cosα<0.5,融合力度可设为0。
本发明实施方式中,由于处理系数还包括融合力度,从而增加了第二人脸区域的处理方式的多样性,同时也增加了对第二人脸区域进行处理的灵活性。
可选的,所述预设方向为垂直于显示所述二维人脸图像的显示界面的方向,所述夹角信息为夹角值或者所述夹角值的余弦值,所述夹角值越小,所述滤波半径越大,所述融合力度越大;所述夹角值的余弦值越大,所述滤波半径越大,所述融合力度越大。
其中,当电子设备上显示二维人脸图像时,用户的视线垂直于电子设备的显示屏时,上述预设方向也可以被称作为用户的视线方向。
其中,夹角值可以用α表示,当夹角值的余弦值(cosα)越接近1,则表示表面单位法向量与用户的视线方向(即预设方向)越一致,即视线正视该第二人脸区域,则不需要进行滤波处理,减少用户观看人脸图像产生失真的感觉;cosα越接近0,则表示第二人脸区域与视线垂直;cosα<0的第一人脸区域表示处于三维人脸模型的背部,即二维人脸图像中对应的第二人脸区域已经被遮挡,不予考虑滤波处理。
例如:参见图3,cosα越大,代表三维人脸模型表面越平坦,磨皮力度加大;cosα越小,说明表面与视线方向不一致,结构信息较多,磨皮区域减小;特别的,当cosα<0.5,磨皮力度可设为0。需要说明的是,磨皮实际上就是平滑滤波。
参见表1,表1为根据cosα的取值选取的滤波半径以及目标像素点的个数。
Figure BDA0002335632770000091
Figure BDA0002335632770000101
表1
例如:当0.5<cosα≤0.9时,则可以对第二人脸区域中的目标像素点的显示像素进行滤波处理,具体的,目标像素点进行滤波处理之后的显示像素为(2*该位置的RGB值+4*该位置的RGB值+2*该位置的RGB值+4*该位置的RGB值+9*该位置的RGB值+4*该位置的RGB值+2*该位置的RGB值+4*该位置的RGB值+2*该位置的RGB值)/(2+4+2+4+9+4+2+4+2)。这样,可以通过上述表1的方式对第二人脸区域中的每个像素点进行滤波处理,从而增强人脸图像的显示效果。
本发明实施方式中,夹角信息可以为夹角值或者夹角值的余弦值,这样,增加了夹角信息的多样性,并且可以通过多种夹角信息来确定第二人脸区域的处理系数,从而提高了电子设备的智能化程度。
步骤204、根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。
其中,根据处理系数处理第二人脸区域,通常指的是对第二人脸区域进行滤波处理,但是滤波处理的具体类型在此不做限定,例如:可以采用高斯滤波的方法,当然,还可以采用其他更复杂的滤波方法。
本发明实施例中,通过步骤201至204,同样可以根据夹角信息确定目第二人脸区域的处理系数,并根据处理系数对第二人脸区域进行处理,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。同时,三维人脸模型根据获取的二维人脸图像生成的,这样,使得三维人脸模型可以更加准确的反应二维人脸图像中各个部位的结构特征。
参见图4,下面以一个具体实施例来举例说明本发明实施例。
步骤401、人脸检测。
检测输入图像中包含人脸的区域,并裁切(crop)出来,用于后续处理,其中,上述输入图像可以为电子设备从服务器上下载的,也可以为电子设备接收到其他电子设备发送的,当然,也可以为电子设备通过摄像头采集得到的。
步骤402、肤色区域检测和提取。
检测肤色区域,并将肤色区域提取出来。后续磨皮算法(即进行滤波处理的算法)仅对肤色区域进行处理。这样即节省了算法处理开销,又可以防止对背景做不必要的美颜效果,从而导致整体图像效果变差的情况发生。
步骤403、outline检测。
人脸关键点(轮廓线)检测,主要目的是为了保护五官区域不做磨皮(滤波处理),在402得到的肤色区域中去除五官区域,剩下的则是待磨皮区域。
步骤404、梯度计算。
对待磨皮区域的像素点,分别计算水平和垂直方向上的梯度,并和梯度阈值进行比较,用于后续判断是否进行磨皮的其中一项基本条件,若水平和垂直方向上的任一梯度大于阈值,则无需进行磨皮。
步骤405、3D人脸建模。
对输入人脸图像(例如可以为二维人脸图像)恢复3D几何结构(三维人脸模型)。3D人脸模型重建的方式本方案不做限制,可以通过使用深度扫描仪、校准的立体图像、立体视频、甚至高清晰度的单目视频重建。
步骤406、姿态估计。
还可以计算三维人脸模型(也可以被称作为3D人脸模型)与输入人脸图像(即二维人脸图像)之间的2D-3D关系,记作T∈R4×4。该姿态(2D-3D关系)用于表征三维人脸模型与电子设备的相机坐标系之间的关系,即相机外参。上述可以理解为:通过建立2D-3D关系,从而使得三维人脸模型可以具有,且可以准确反映二维人脸图像中的姿态信息
步骤407、计算3D表面单位法向量和视线方向夹角α。
得到了3D人脸模型之后,可以通过点云中点及其邻域信息估计一个范围内的法向量,为了降低点云噪声引入的误差,采用泊松曲面重建的方式构建mesh(无线网格网络),然后在mesh网格计算曲面法线。在406姿态估计之后,可以计算出视线方向,夹角α即为3D表面单位法向量和视线方向的夹角。计算α的余弦值,cosα越接近1,则表示表面单位法向量与视线越一致,即视线正视该面片;cosα越接近0,则表示表面面片与视线垂直;cosα<0的面片表示处于模型背部自遮挡,不予考虑。
步骤408、模型投影。
为了将3D模型(三维人脸模型)与2D图片(二维人脸图像)中的像素点进行关联,需要通过相机内参建立相机坐标系与图像坐标系之间的关系。相机内参已知的情况下,推荐采用透视投影,若相机内参未知,也可以采用弱透视投影模型。
步骤409、根据夹角α确定磨皮力度。
在408投影之后,待磨皮区域中的像素点,如果满足梯度阈值条件,则找到该像素对应的表面法向量与视线夹角的余弦值cosα,根据cosα的大小,确定磨皮的力度,力度通过滤波半径、融合力度等体现。cosα越大,代表模型表面越平坦,磨皮力度加大;cosα越小,说明表面与视线方向不一致,结构信息较多,磨皮区域减小;特别的,当cosα<0.5,磨皮力度可设为0。
步骤410、磨皮。
根据409生成的针对每个像素设计的不同的滤波系数,进行滤波,最终得到美颜后的结果图。
本发明实施例中,根据夹角信息确定处理系数,并根据处理系数处理二维人脸图像中第二人脸区域,得到目标图像,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对二维人脸图像中不同第二人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。
参见图5,图5是本发明实施例提供的电子设备的结构图,能实现上述实施例中一种图像处理方法的细节,并达到相同的效果。如图5所示,电子设备500包括:
第一确定模块501,用于确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;
第二确定模块502,用于根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;
处理模块503,用于根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。
可选的,参见图6,所述电子设备还包括:
获取模块504,用于获取所述二维人脸图像,并根据所述二维人脸图像生成所述三维人脸模型。
可选的,参见图7,所述第一确定模块501包括:
检测子模块5011,用于检测所述第二人脸区域的第一纹理变化梯度和第二纹理变化梯度,所述第一纹理变化梯度为在水平方向上的纹理变化梯度,所述第二纹理变化梯度为在垂直方向上的纹理变化梯度;
确定子模块5012,用于在所述第一纹理变化梯度小于第一阈值,且所述第二纹理变化梯度小于第二阈值的情况下,确定所述第一人脸区域中表面单位法向量与所述预设方向之间的夹角信息。
可选的,所述处理系数还包括融合力度,根据所述融合力度对第一显示参数和第二显示参数加权求和,可得到所述第二人脸区域在所述目标图像中的目标显示参数;其中,所述第一显示参数为所述二维人脸图像中的所述第二人脸区域经过滤波处理之后的显示参数,所述第二显示参数为所述第二人脸区域在所述二维人脸图像中的显示参数。
可选的,所述预设方向为垂直于显示所述二维人脸图像的显示界面的方向,所述夹角信息为夹角值或者所述夹角值的余弦值,所述夹角值越小,所述滤波半径越大,所述融合力度越大;所述夹角值的余弦值越大,所述滤波半径越大,所述融合力度越大。
本发明实施例提供的电子设备能够实现图1至图2的方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。本发明实施例中,根据夹角信息确定处理系数,并根据处理系数处理二维人脸图像中第二人脸区域,得到目标图像,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对二维人脸图像中不同第二人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。
图8为实现本发明各个实施例的一种电子设备的硬件结构示意图。
该电子设备800包括但不限于:射频单元801、网络模块802、音频输出单元803、输入单元804、传感器805、显示单元806、用户输入单元807、接口单元808、存储器809、处理器810、以及电源811等部件。本领域技术人员可以理解,图8中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器810,用于:
确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;
根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;
根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应。
可选的,处理器810,还用于:获取所述二维人脸图像,并根据所述二维人脸图像生成所述三维人脸模型。
可选的,处理器810执行的所述确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,包括:
检测所述第二人脸区域的第一纹理变化梯度和第二纹理变化梯度,所述第一纹理变化梯度为在水平方向上的纹理变化梯度,所述第二纹理变化梯度为在垂直方向上的纹理变化梯度;
在所述第一纹理变化梯度小于第一阈值,且所述第二纹理变化梯度小于第二阈值的情况下,确定所述第一人脸区域中表面单位法向量与所述预设方向之间的夹角信息。
可选的,所述处理系数还包括融合力度;根据所述融合力度对第一显示参数和第二显示参数加权求和,可得到所述第二人脸区域在所述目标图像中的目标显示参数;其中,所述第一显示参数为所述二维人脸图像中的所述第二人脸区域经过滤波处理之后的显示参数,所述第二显示参数为所述第二人脸区域在所述二维人脸图像中的显示参数。
可选的,所述预设方向为垂直于显示所述二维人脸图像的显示界面的方向,所述夹角信息为夹角值或者所述夹角值的余弦值,所述夹角值越小,所述滤波半径越大,所述融合力度越大;所述夹角值的余弦值越大,所述滤波半径越大,所述融合力度越大。
本发明实施例同样根据夹角信息确定处理系数,并根据处理系数处理二维人脸图像中第二人脸区域,得到目标图像,而不同的第二人脸区域可以具有不同的处理系数,从而增强了对二维人脸图像中不同第二人脸区域进行处理的灵活性,进而减少了统一处理导致人脸图像失真现象的发生。
应理解的是,本发明实施例中,射频单元801可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器810处理;另外,将上行的数据发送给基站。通常,射频单元801包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元801还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块802为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元803可以将射频单元801或网络模块802接收的或者在存储器809中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元803还可以提供与电子设备800执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元803包括扬声器、蜂鸣器以及受话器等。
输入单元804用于接收音频或视频信号。输入单元804可以包括图形处理器(Graphics Processing Unit,GPU)8041和麦克风8042,图形处理器8041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元806上。经图形处理器8041处理后的图像帧可以存储在存储器809(或其它存储介质)中或者经由射频单元801或网络模块802进行发送。麦克风8042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元801发送到移动通信基站的格式输出。
电子设备800还包括至少一种传感器805,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板8061的亮度,接近传感器可在电子设备800移动到耳边时,关闭显示面板8061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器805还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元806用于显示由用户输入的信息或提供给用户的信息。显示单元806可包括显示面板8061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板8061。
用户输入单元807可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元807包括触控面板8071以及其他输入设备8072。触控面板8071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板8071上或在触控面板8071附近的操作)。触控面板8071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器810,接收处理器810发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板8071。除了触控面板8071,用户输入单元807还可以包括其他输入设备8072。具体地,其他输入设备8072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板8071可覆盖在显示面板8061上,当触控面板8071检测到在其上或附近的触摸操作后,传送给处理器810以确定触摸事件的类型,随后处理器810根据触摸事件的类型在显示面板8061上提供相应的视觉输出。虽然在图8中,触控面板8071与显示面板8061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板8071与显示面板8061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元808为外部装置与电子设备800连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元808可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备800内的一个或多个元件或者可以用于在电子设备800和外部装置之间传输数据。
存储器809可用于存储软件程序以及各种数据。存储器809可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器809可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器810是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器809内的软件程序和/或模块,以及调用存储在存储器809内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器810可包括一个或多个处理单元;优选的,处理器810可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器810中。
电子设备800还可以包括给各个部件供电的电源811(比如电池),优选的,电源811可以通过电源管理系统与处理器810逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备800包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种电子设备,包括处理器810,存储器809,存储在存储器809上并可在所述处理器810上运行的计算机程序,该计算机程序被处理器810执行时实现上述一种图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述一种图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (10)

1.一种图像处理方法,应用于电子设备,其特征在于,所述方法包括:
确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;
根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;
根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应;
所述预设方向为垂直于显示所述二维人脸图像的显示界面的方向,所述夹角信息为夹角值或者所述夹角值的余弦值,所述夹角值越小,所述滤波半径越大;所述夹角值的余弦值越大,所述滤波半径越大。
2.根据权利要求1所述的方法,其特征在于,所述确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息之前,所述方法还包括:
获取所述二维人脸图像,并根据所述二维人脸图像生成所述三维人脸模型。
3.根据权利要求2所述的方法,其特征在于,所述确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,包括:
检测所述第二人脸区域的第一纹理变化梯度和第二纹理变化梯度,所述第一纹理变化梯度为在水平方向上的纹理变化梯度,所述第二纹理变化梯度为在垂直方向上的纹理变化梯度;
在所述第一纹理变化梯度小于第一阈值,且所述第二纹理变化梯度小于第二阈值的情况下,确定所述第一人脸区域中表面单位法向量与所述预设方向之间的夹角信息。
4.根据权利要求1所述的方法,其特征在于,所述处理系数还包括融合力度;
根据所述融合力度对第一显示参数和第二显示参数加权求和,可得到所述第二人脸区域在所述目标图像中的目标显示参数;其中,所述第一显示参数为所述二维人脸图像中的所述第二人脸区域经过滤波处理之后的显示参数,所述第二显示参数为所述第二人脸区域在所述二维人脸图像中的显示参数。
5.根据权利要求4所述的方法,其特征在于,所述滤波半径越大,所述融合力度越大;所述滤波半径越大,所述融合力度越大。
6.一种电子设备,其特征在于,包括:
第一确定模块,用于确定第一人脸区域中表面单位法向量与预设方向之间的夹角信息,所述第一人脸区域为三维人脸模型中的部分人脸区域;
第二确定模块,用于根据所述夹角信息确定处理系数,所述处理系数包括滤波半径;
处理模块,用于根据所述处理系数处理二维人脸图像中第二人脸区域,得到目标图像,其中,所述二维人脸图像与所述三维人脸模型对应,且所述第二人脸区域与所述第一人脸区域对应;
所述预设方向为垂直于显示所述二维人脸图像的显示界面的方向,所述夹角信息为夹角值或者所述夹角值的余弦值,所述夹角值越小,所述滤波半径越大;所述夹角值的余弦值越大,所述滤波半径越大。
7.根据权利要求6所述的电子设备,其特征在于,所述电子设备还包括:
获取模块,用于获取所述二维人脸图像,并根据所述二维人脸图像生成所述三维人脸模型。
8.根据权利要求7所述的电子设备,其特征在于,所述第一确定模块包括:
检测子模块,用于检测所述第二人脸区域的第一纹理变化梯度和第二纹理变化梯度,所述第一纹理变化梯度为在水平方向上的纹理变化梯度,所述第二纹理变化梯度为在垂直方向上的纹理变化梯度;
确定子模块,用于在所述第一纹理变化梯度小于第一阈值,且所述第二纹理变化梯度小于第二阈值的情况下,确定所述第一人脸区域中表面单位法向量与所述预设方向之间的夹角信息。
9.根据权利要求6所述的电子设备,其特征在于,所述处理系数还包括融合力度,根据所述融合力度对第一显示参数和第二显示参数加权求和,可得到所述第二人脸区域在所述目标图像中的目标显示参数;其中,所述第一显示参数为所述二维人脸图像中的所述第二人脸区域经过滤波处理之后的显示参数,所述第二显示参数为所述第二人脸区域在所述二维人脸图像中的显示参数。
10.根据权利要求9所述的电子设备,其特征在于,所述滤波半径越大,所述融合力度越大;所述滤波半径越大,所述融合力度越大。
CN201911354895.8A 2019-12-25 2019-12-25 一种图像处理方法及电子设备 Active CN111145119B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911354895.8A CN111145119B (zh) 2019-12-25 2019-12-25 一种图像处理方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911354895.8A CN111145119B (zh) 2019-12-25 2019-12-25 一种图像处理方法及电子设备

Publications (2)

Publication Number Publication Date
CN111145119A CN111145119A (zh) 2020-05-12
CN111145119B true CN111145119B (zh) 2023-06-02

Family

ID=70519852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911354895.8A Active CN111145119B (zh) 2019-12-25 2019-12-25 一种图像处理方法及电子设备

Country Status (1)

Country Link
CN (1) CN111145119B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113126944B (zh) * 2021-05-17 2021-11-09 北京的卢深视科技有限公司 深度图的显示方法、显示装置、电子设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9289191B2 (en) * 2011-10-12 2016-03-22 Seno Medical Instruments, Inc. System and method for acquiring optoacoustic data and producing parametric maps thereof
CN102930510B (zh) * 2012-09-24 2016-05-18 长安大学 一种人脸图像多角度相互转化方法
CN104050709B (zh) * 2014-06-06 2017-08-29 联想(北京)有限公司 一种三维图像处理方法及电子设备
CN107392874B (zh) * 2017-07-31 2021-04-09 Oppo广东移动通信有限公司 美颜处理方法、装置及移动设备
CN107818305B (zh) * 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
US20190251675A1 (en) * 2018-02-09 2019-08-15 Megvii Technology Llc Image processing method, image processing device and storage medium
CN109671034B (zh) * 2018-12-26 2021-03-26 维沃移动通信有限公司 一种图像处理方法及终端设备

Also Published As

Publication number Publication date
CN111145119A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN107580209B (zh) 一种移动终端的拍照成像方法及装置
CN109685915B (zh) 一种图像处理方法、装置及移动终端
CN108989678B (zh) 一种图像处理方法、移动终端
CN108038825B (zh) 一种图像处理方法及移动终端
CN107730460B (zh) 一种图像处理方法及移动终端
CN111031234B (zh) 一种图像处理方法及电子设备
CN109241832B (zh) 一种人脸活体检测的方法及终端设备
CN109671034B (zh) 一种图像处理方法及终端设备
CN109727212B (zh) 一种图像处理方法及移动终端
CN110555815B (zh) 一种图像处理方法和电子设备
CN111401463A (zh) 检测结果输出的方法、电子设备及介质
CN111008929B (zh) 图像矫正方法及电子设备
CN110717964B (zh) 场景建模方法、终端及可读存储介质
CN110602390B (zh) 一种图像处理方法及电子设备
CN109639981B (zh) 一种图像拍摄方法及移动终端
CN110944112A (zh) 一种图像处理方法及电子设备
CN107798662B (zh) 一种图像处理方法及移动终端
CN111145119B (zh) 一种图像处理方法及电子设备
CN111028161B (zh) 图像校正方法及电子设备
CN111405361B (zh) 一种视频获取方法、电子设备及计算机可读存储介质
CN108830901B (zh) 一种图像处理方法和电子设备
CN111385481A (zh) 图像处理方法及装置、电子设备及存储介质
CN108259756B (zh) 一种图像拍摄方法及移动终端
CN110012229B (zh) 一种图像处理方法和终端
CN109379531B (zh) 一种拍摄方法及移动终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant