CN106161933B - 一种图像处理方法及移动终端 - Google Patents
一种图像处理方法及移动终端 Download PDFInfo
- Publication number
- CN106161933B CN106161933B CN201610515397.7A CN201610515397A CN106161933B CN 106161933 B CN106161933 B CN 106161933B CN 201610515397 A CN201610515397 A CN 201610515397A CN 106161933 B CN106161933 B CN 106161933B
- Authority
- CN
- China
- Prior art keywords
- image
- facial image
- facial
- value
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/684—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
- H04N23/6845—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供了一种图像处理方法及移动终端,该图像处理方法包括:获取拍摄场景的环境亮度值;当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;提取预览图像中的第一人脸图像;在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像,通过本发明能够有效地降低脸部图像的噪点,从而提高了图像质量。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种图像处理方法及移动终端。
背景技术
目前,随着科技的迅猛发展,移动终端大多具有拍照功能,从而方便人们记录日常生活中的点滴。
通常在暗环境下拍摄的图像普遍都存在噪点多、导致图像质量差的问题。针对这一缺陷,现有技术通常是在拍摄过程中,通过补偿拍摄亮度或多帧合成的方式来提升成像质量。
然而,现有技术存在暗环境下拍摄的图像噪点较多,致使图像质量较低的问题。
发明内容
本发明实施例提供一种图像处理方法及移动终端,以解决现有技术存在无法避免暗环境下拍摄的图像噪点较多,导致图像质量差的问题。
第一方面,提供了一种图像处理的方法,所述方法应用于移动终端,所述方法包括:
获取拍摄场景的环境亮度值;
当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;
提取预览图像中的第一人脸图像;
在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;
将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像。
另一方面,本发明实施例还提供了一种移动终端,该移动终端包括摄像头,移动终端还包括:
第一获取模块,用于获取拍摄场景的环境亮度值;
第二获取模块,用于当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;
第一提取模块,用于提取预览图像中的第一人脸图像;
查找模块,用于在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;
图像合成模块,用于将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像。
这样,本发明实施例中,通过获取拍摄场景的环境亮度值;当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;提取预览图像中的第一人脸图像;在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像,从而有效地降低了脸部图像的噪点,提高了图像质量。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一中的图像处理方法的流程图;
图2是本发明实施例二中的图像处理方法的流程图;
图3是本发明实施例三中的移动终端的框图;
图4是本发明实施例三中的移动终端的框图;
图5是本发明实施例三中的移动终端的框图;
图6是本发明实施例三中的移动终端的框图;
图7是本发明实施例三中的移动终端的框图;
图8是本发明实施例三中的移动终端的框图;
图9是本发明实施例四中的移动终端的框图;
图10是本发明实施例五中的移动终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
参照图1,示出了本发明实施例中一种图像处理方法的流程图。
步骤101,获取拍摄场景的环境亮度值。
具体的,移动终端通过摄像头获取拍摄场景的环境亮度值。
步骤102,当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像。
具体的,在移动终端检测到当前的环境亮度值低于预设亮度阈值时,则确定此时的移动终端处于暗环境下进行拍摄。获取摄像头采集的预览图像中的其中一帧图像。
步骤103,提取预览图像中的第一人脸图像。
步骤104,在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像。
具体的,移动终端在预先建立的人脸数据库中查找与第一人脸图像相匹配的人脸图像,即,该第二人脸图像与第一人脸图像为同一人的图像,并且,人脸数据库中的图像均为用户满意的图像,也就是说,人脸数据库中的图像均为在亮环境下拍摄的优质图像。
步骤105,将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像。
具体的,将第一人脸图像与人脸数据中的优质图像进行图像合成,生成符合用户期望的目标人脸图像。
综上所述,本发明实施例提供的技术方案,通过获取拍摄场景的环境亮度值;当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;提取预览图像中的第一人脸图像;在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像,从而有效地降低了脸部图像的噪点,提高了图像质量。
实施例二
参照图2,示出了本发明实施例中一种图像处理方法的流程图。
步骤201,预先建立人脸数据库。
具体的,参照图3,建立人脸数据库的步骤具体包括:
步骤301,获取在环境亮度值高于预设亮度阈值的拍摄场景下生成的包含人脸的至少一帧图像。
具体的,通过摄像头获取在环境亮度值高于预设亮度阈值的拍摄场景下生成包含人脸的至少一帧图像,并将所述图像转换为JPEG格式存储至本地。其中,环境亮度以勒克斯(lux)为单位,当环境越暗时,亮度值越低。其中,预设亮度阈值范围可以在20-40lux之间进行设定,本发明对此不做限定。
步骤302,提取至少一帧图像中每帧图像中的人脸区域图像。
具体的,通过现有的相关技术,对每帧图像中的人脸区域图像进行提取。
步骤303,对于每个人脸区域图像,识别人脸区域图像的脸部特征信息,脸部特征信息包括五官特征和人脸角度。
通过对人脸图像的五官特征、人脸角度以及脸部轮廓特征的识别,将具有相同五官特征、脸部轮廓特征、以及人脸角度的人脸图像确定为同一个人的人脸图像,并选取出同一个人的所有人脸图像存储到第一人脸资源库。也就是说,移动终端存储中的所有人脸图像中每个人的人脸图像都将对应一个第一人脸资源库。
在一个实施例中,如果第一人脸库中出现数据低于阈值的情况,例如:出现第一人脸库中没有亮环境下拍摄的人脸图像或人脸图像的角度单一的情况下,本发明的图像处理方法将将提示用户使用录像功能进行人脸图像的录制。其中,可以选用4K格式的录制方式或720P格式的录制方式等任意能够使录制的影像中的人脸清晰显示的录制方式,本发明对此不做限定。在影像录制的过程中,提醒用户进行不同角度图像录制,不同角度可分为:俯角、仰角、正脸、左侧脸、右侧脸等,本发明对此不做限定。将拍摄好的脸部影像进行数据处理,抽取每一帧的人脸图像,存储至第一人脸资源库。
步骤304,对于每个人脸区域图像,建立人脸与人脸的脸部特征信息之间的对应关系。
具体的,从每个第一人脸资源库中,选取一张正面的人脸图像,即,针对每个不同的人所对应的的人脸图像中,选出一张正面的人脸图像。将选取出的不同的人的正面的人脸图像进行保存,建立第二人脸资源库。其中,移动终端会将第二人脸库中的每个正面的人脸图像与其对应的第一人脸资源库进行关联。
步骤305,基于所有人脸区域图像,建立人脸数据库。
继续参照图2,步骤202,获取拍摄场景的环境亮度值。
具体的,在本发明的实施例中,待处理的第一人脸图像可以为移动终端在对拍摄主体进行拍摄时屏幕中的预览图像。在用户通过移动终端预览当前成像状态时,移动终端将检测当前拍摄环境下的亮度信息。在其他实施例中,待处理的第一人脸图像还可以是拍摄后存储在本地的任意人脸图像,在此种情况下,则不需要进行周围环境亮度的检测,可以直接进行至步骤204。
步骤203,当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像。
具体的,当判断当前亮度信息低于预定阈值时,则确定当前移动终端处于暗环境下进行拍摄,移动终端中的预览图像则需要进行去噪等处理,以提升图像质量。
步骤204,提取预览图像中的第一人脸图像。
步骤205,识别第一人脸图像的脸部特征信息,识别出第一五官特征和第一人脸角度。
具体的,通过识别第一人脸图像的脸部特征信息,识别出第一人脸图像中的五官特征和人脸角度。
步骤206,在预设的人脸数据库中查找与第一五官特征和第一人脸角度均匹配的第二人脸图像。其中,第二人脸图像的第二五官特征与第一五官特征的差异小于第一预设阈值,第二人脸图像的第二人脸角度与第一人脸角度的差异小于第二预设阈值。
具体的,根据第一人脸图像中的脸部特征信息,在第二人脸资源库中查找与第一人脸图像具有相同脸部特征信息的正面的人脸图像,即为相匹配的人脸图像。在该步骤的实现过程中,可以采用现有技术中任意一种能够进行图像匹配的技术,本发明对此不做限定。
在本发明的实施例中,第一人脸图像中可能包含多个人脸图像,若识别到第一脸图像中包括多个人脸图像,则获取多个人脸图像中的每个人脸图像的特征信息。然后,根据每个人脸图像的脸部特征信息,在第二人脸资源库中查找与之匹配的人脸图像。
在查找出正面的人脸图像之后,通过该正面的人脸图像,确定与该正面人脸图像相关联的第一人脸资源库。获取第一人脸图像的人脸区域的尺寸及角度,从相关联的第一人脸资源库中选取与第一人脸图像的人脸区域的五官特征的差异小于第一预设阈值,以及人脸角度与第一人脸角度的差异小于第二预设阈值的人脸图像。也就是说,选取出的人脸图像中的人脸区域的五官与角度最接近的第一人脸图像。其中,第一预设阈值与第二预设可以根据具体进行设定,本发明对此不做限定。
在本发明的另一个实施例中,从相关联的第一人脸资源库中选取与第一人脸图像相匹配的第二人脸图像时,还可以是由相关的匹配算法匹配出多个符合匹配条件的第二人脸图像,然后由用户从中选取出最满意的人脸图像。
步骤207,将第二人脸图像的图像尺寸调整至与第一人脸图像的图像尺寸相同,得到第三人脸图像;
根据第一人脸图像中的人脸区域的尺寸大小,对第二人脸图像中的人脸区域的尺寸进行调整。可利用现有技术中的缩放算法,对第二人脸图像中的人脸区域的进行缩放操作,直至第二人脸图像中的人脸区域的尺寸与第一人脸图像的人脸区域的尺寸相等。
步骤208,对于第一人脸图像中的每个像素点,基于像素点和第三人脸图像中与像素点对应位置像素点的YUV值,进行加权平均值计算,生成目标人脸图像。
具体的,在调整好人脸区域的尺寸之后,判断当前第二人脸图像中的人脸的角度与第一人脸图像中的人脸的角度之间的差值是否超出预定范围。如果未超出预定范围,则第二人脸图像中的人脸角度与第一人脸图像中的人脸角度相差较小,或接近一致,则按照第一预定算法,对两个图像进行图像合成。具体算法及合成方法如下:
对于第一人脸图像中的每个像素点,通过公式G1=g1×c+gw×d得到第一中间YUV值,将第一中间YUV值赋值给像素点。
当第一人脸图像中的所有像素点均完成YUV值赋值时,生成目标人脸图像。
其中,G1为第一中间YUV值,g1为第一人脸图像中的像素点的YUV值,gw为第三人脸图像中与像素点对应位置像素点的YUV值,c和d为常量,且c+d=100%,c<d,YUV值包括亮度值Y和色彩值UV。
如果超出预定范围,则第二人脸图像中的人脸角度与第一人脸图像中的人脸角度相差较大,按照第二预定算法,对两个图像进行图像合成。具体算法即合成方法如下:
选取第一人脸图像中的第一目标图像,以及第二人脸图像中的第二目标图像。
将第一目标图像和第二目标图像分别划分为M个像素块和N个像素块。
对于第二目标图像的N个像素块中每个像素块,计算像素块中所有像素点的YUV平均值,得到N个YUV平均值。
对于第一目标图像的M个像素块中每个像素块中的每个像素点,通过公式G2=g2×e+ga×f得到第二中间YUV值,将第二中间YUV值赋值给像素点。
当第一目标图像中的所有像素点均完成YUV值赋值时,生成目标人脸图像。
其中,G2为第二中间YUV值,g2为第一目标图像的M个像素块中的像素点的YUV值,ga为第二目标图像中与像素点对应位置像素点所在像素块的YUV平均值,e和f为常量,且e+f=100%,e<f,M=N=b×b,b为大于0的偶数。
在完成对第一人脸图像的图像合成之后,,拍照保存该合成后的第一人脸图像。
综上所述,本发明实施例提供的技术方案,通过人脸资源库中在亮环境下拍摄的脸部图像对暗环境下拍摄的脸部图像进行合成处理,从而有效地降低了脸部图像的噪点,提高了图像质量。
实施例三
参照图4,示出了本发明实施例中一种移动终端的框图。
图4所示的移动终端400包括:第一获取模块401、第二获取模块402、第一提取模块403、查找模块404、图像合成模块405以及摄像头406。
第一获取模块401,用于获取拍摄场景的环境亮度值。
第二获取模块402,用于当第一获取模块获取的环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像。
第一提取模块403,用于提取第二获取模块获取的预览图像中的第一人脸图像。
查找模块404,用于在预设的人脸数据库中查找与第一提取模块提取的第一人脸图像相匹配的第二人脸图像。
图像合成模块405,用于将第一提取模块提取的第一人脸图像和查找模块查找到的第二人脸图像进行图像合成,生成目标人脸图像。
参照图5,在本发明的一个优选的实施例中,在图4的基础上,移动终端400还可以包括第三获取模块501,用于获取在环境亮度值高于预设亮度阈值的拍摄场景下生成的包含人脸的至少一帧图像。
第二提取模块502,用于提取第三获取模块获取的至少一帧图像中每帧图像中的人脸区域图像。
识别模块503,用于对于提取模块提取的每个人脸区域图像,识别人脸区域图像的脸部特征信息,脸部特征信息包括五官特征和人脸角度。
第一建立模块504,用于对于识别模块识别出的每个人脸区域图像,建立人脸与人脸的脸部特征信息之间的对应关系。
第二建立模块505,用于基基于第二提取模块提取的所有人脸区域图像,建立人脸数据库。
参照图6,在本发明的一个优选的实施例中,在图4的基础上,查找模块404可以包括识别子模块601,用于识别第一提取模块提取的第一人脸图像的脸部特征信息,识别出第一五官特征和第一人脸角度。
查找子模块602,用于在预设的人脸数据库中查找与识别子模块识别出的第一五官特征和第一人脸角度均匹配的第二人脸图像。
其中,第二人脸图像的第二五官特征与第一五官特征的差异小于第一预设阈值,第二人脸图像的第二人脸角度与第一人脸角度的差异小于第二预设阈值。
参照图7,在本发明的一个优选的实施例中,在图4的基础上,图像合成模块405包括:调整子模块701,用于将查找模块查找到的第二人脸图像的图像尺寸调整至与第一提取模块提取的第一人脸图像的图像尺寸相同,得到第三人脸图像。
图像合成子模块702,用于将调整子模块调整后的第一人脸图像和第三人脸图像进行图像合成,生成目标人脸图像。
其中,图像合成子模块还可以包括计算单元7021,用于对于第一提取模块提取的第一人脸图像中的每个像素点,基于像素点和第三人脸图像中与像素点对应位置像素点的YUV值,进行加权平均值计算,生成目标人脸图像。
参照图8,在图7的基础上,计算单元7021中可以包括第一赋值子单元801,用于对于第一提取模块提取的第一人脸图像中的每个像素点,通过公式G1=g1×c+gw×d得到第一中间YUV值,将第一中间YUV值赋值给像素点。
第一生成子单元802,用于当第一提取模块提取的第一人脸图像中的所有像素点均通过第一赋值子单元完成YUV值赋值时,生成目标人脸图像。其中,G1为第一中间YUV值,g1为第一人脸图像中的像素点的YUV值,gw为第三人脸图像中与像素点对应位置像素点的YUV值,c和d为常量,且c+d=100%,c<d,YUV值包括亮度值Y和色彩值UV。
以及,选取子单元803,用于选取第一提取模块提取的第一人脸图像中的第一目标图像,以及第二人脸图像中的第二目标图像。
划分子单元804,用于将选取子单元选取的第一目标图像和第二目标图像分别划分为M个像素块和N个像素块。
计算子单元805,用于对于第二目标图像的划分子单元划分的N个像素块中每个像素块,计算像素块中所有像素点的YUV平均值,得到N个YUV平均值。
第二赋值子单元806,用于对于第一目标图像的划分子单元划分的M个像素块中每个像素块中的每个像素点,通过公式G2=g2×e+ga×f得到第二中间YUV值,将第二中间YUV值赋值给像素点。
第二生成子单元807,用于当第一目标图像中的所有像素点均通过第二赋值子单元完成YUV值赋值时,生成目标人脸图像。
其中,G2为第二中间YUV值,g2为第一目标图像的M个像素块中的像素点的YUV值,ga为第二目标图像中与像素点对应位置像素点所在像素块的YUV平均值,e和f为常量,且e+f=100%,e<f,M=N=b×b,b为大于0的偶数。
综上所述,本发明实施例提供的技术方案,通过人脸资源库中在亮环境下拍摄的脸部图像对暗环境下拍摄的脸部图像进行合成处理,从而有效地降低了脸部图像的噪点,提高了图像质量。
实施例四
图9是本发明另一个实施例的移动终端的框图。图9所示的移动终端900包括:至少一个处理器901、存储器902、至少一个网络接口904、用户接口903以及拍照组件906。移动终端900中的各个组件通过总线系统905耦合在一起。可理解,总线系统905用于实现这些组件之间的连接通信。总线系统905除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图9中将各种总线都标为总线系统905。拍照组件906可以包括摄像头。
其中,用户接口903可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。可以理解,本发明实施例中的存储器902可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-OnlyMemory,ROM)、可编程只读存储器(ProgrammableROM,PROM)、可擦除可编程只读存储器(ErasablePROM,EPROM)、电可擦除可编程只读存储器(ElectricallyEPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(RandomAccessMemory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(StaticRAM,SRAM)、动态随机存取存储器(DynamicRAM,DRAM)、同步动态随机存取存储器(SynchronousDRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(DoubleDataRate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(SynchlinkDRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambusRAM,DRRAM)。本发明实施例描述的系统和方法的存储器902旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器902存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统9021和应用程序9022。
其中,操作系统9021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序9022,包含各种应用程序,例如媒体播放器(MediaPlayer)、浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序9022中。
在本发明实施例中,通过调用存储器902存储的程序或指令,具体的,可以是应用程序9022中存储的程序或指令,处理器901用于获取拍摄场景的环境亮度值;当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;提取预览图像中的第一人脸图像;在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像。
上述本发明实施例揭示的方法可以应用于处理器901中,或者由处理器901实现。处理器901可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器901中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器901可以是通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecific IntegratedCircuit,ASIC)、现成可编程门阵列(FieldProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器902,处理器901读取存储器902中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本发明实施例描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecificIntegratedCircuits,ASIC)、数字信号处理器(DigitalSignalProcessing,DSP)、数字信号处理设备(DSPDevice,DSPD)、可编程逻辑设备(ProgrammableLogicDevice,PLD)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本发明实施例所述功能的模块(例如过程、函数等)来实现本发明实施例所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
可选地,处理器901还用于:获取在环境亮度值高于预设亮度阈值的拍摄场景下生成的包含人脸的至少一帧图像;提取至少一帧图像中每帧图像中的人脸区域图像;对于每个人脸区域图像,识别人脸区域图像的脸部特征信息,脸部特征信息包括五官特征和人脸角度;对于每个人脸区域图像,建立人脸与人脸的脸部特征信息之间的对应关系;基于所有人脸区域图像,建立人脸数据库。
可选地,处理器901还用于:识别第一人脸图像的脸部特征信息,识别出第一五官特征和第一人脸角度;在预设的人脸数据库中查找与第一五官特征和第一人脸角度均匹配的第二人脸图像;其中,第二人脸图像的第二五官特征与第一五官特征的差异小于第一预设阈值,第二人脸图像的第二人脸角度与第一人脸角度的差异小于第二预设阈值。
可选地,作为另一个实施例,处理器901还用于:将第二人脸图像的图像尺寸调整至与第一人脸图像的图像尺寸相同,得到第三人脸图像;第一人脸图像和第三人脸图像进行图像合成,生成目标人脸图像。可选地,处理器901还用于:对于第一人脸图像中的每个像素点,基于像素点和第三人脸图像中与像素点对应位置像素点的YUV值,进行加权平均值计算,生成目标人脸图像。
可选地,处理器901还用于:对于第一人脸图像中的每个像素点,通过公式G1=g1×c+gw×d得到第一中间YUV值,将第一中间YUV值赋值给像素点;
当第一人脸图像中的所有像素点均完成YUV值赋值时,生成目标人脸图像;
其中,G1为第一中间YUV值,g1为第一人脸图像中的像素点的YUV值,gw为第三人脸图像中与像素点对应位置像素点的YUV值,c和d为常量,且c+d=100%,c<d,YUV值包括亮度值Y和色彩值UV。
可选地,处理器901还用于:选取第一人脸图像中的第一目标图像,以及第二人脸图像中的第二目标图像;将第一目标图像和第二目标图像分别划分为M个像素块和N个像素块;对于第二目标图像的N个像素块中每个像素块,计算像素块中所有像素点的YUV平均值,得到N个YUV平均值;对于第一目标图像的M个像素块中每个像素块中的每个像素点,通过公式G2=g2×e+ga×f得到第二中间YUV值,将第二中间YUV值赋值给像素点;当第一目标图像中的所有像素点均完成YUV值赋值时,生成目标人脸图像;
其中,G2为第二中间YUV值,g2为第一目标图像的M个像素块中的像素点的YUV值,ga为第二目标图像中与像素点对应位置像素点所在像素块的YUV平均值,e和f为常量,且e+f=100%,e<f,M=N=b×b,b为大于0的偶数。
移动终端900能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
综上所述,本发明实施例提供的移动终端,通过人脸资源库中在亮环境下拍摄的脸部图像对暗环境下拍摄的脸部图像进行合成处理,从而有效地降低了脸部图像的噪点,提高了图像质量。
实施例五
图10是本发明另一个实施例的移动终端的结构示意图。具体地,图10中的移动终端1000可以为手机、平板电脑、个人数字助理(PersonalDigital Assistant,PDA)、或车载电脑等。
图10中的移动终端1000包括射频(RadioFrequency,RF)电路1010、存储器1020、输入单元1030、显示单元1040、处理器1060、音频电路1070、WiFi(WirelessFidelity)模块1080、电源1090和拍照组件1100。其中,拍照组件1100可以包括摄像头。
其中,输入单元1030可用于接收用户输入的数字或字符信息,以及产生与移动终端1000的用户设置以及功能控制有关的信号输入。具体地,本发明实施例中,该输入单元1030可以包括触控面板1031。触控面板1031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1031上的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给该处理器1060,并能接收处理器1060发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1031。除了触控面板1031,输入单元1030还可以包括其他输入设备1032,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及移动终端1000的各种菜单界面。显示单元1040可包括显示面板1041,可选的,可以采用LCD或有机发光二极管(OrganicLight-EmittingDiode,OLED)等形式来配置显示面板1041。
应注意,触控面板1031可以覆盖显示面板1041,形成触摸显示屏,当该触摸显示屏检测到在其上或附近的触摸操作后,传送给处理器1060以确定触摸事件的类型,随后处理器1060根据触摸事件的类型在触摸显示屏上提供相应的视觉输出。
触摸显示屏包括应用程序界面显示区及常用控件显示区。该应用程序界面显示区及该常用控件显示区的排列方式并不限定,可以为上下排列、左右排列等可以区分两个显示区的排列方式。该应用程序界面显示区可以用于显示应用程序的界面。每一个界面可以包含至少一个应用程序的图标和/或widget桌面控件等界面元素。该应用程序界面显示区也可以为不包含任何内容的空界面。该常用控件显示区用于显示使用率较高的控件,例如,设置按钮、界面编号、滚动条、电话本图标等应用程序图标等。
其中处理器1060是移动终端1000的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在第一存储器1021内的软件程序和/或模块,以及调用存储在第二存储器1022内的数据,执行移动终端1000的各种功能和处理数据,从而对移动终端1000进行整体监控。可选的,处理器1060可包括一个或多个处理单元。
在本发明实施例中,通过调用存储该第一存储器1021内的软件程序和/或模块和/或该第二存储器1022内的数据,处理器1060用于获取拍摄场景的环境亮度值;当环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;提取预览图像中的第一人脸图像;在预设的人脸数据库中查找与第一人脸图像相匹配的第二人脸图像;将第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像。
可选地,处理器1060还用于:获取在环境亮度值高于预设亮度阈值的拍摄场景下生成的包含人脸的至少一帧图像;提取至少一帧图像中每帧图像中的人脸区域图像;对于每个人脸区域图像,识别人脸区域图像的脸部特征信息,脸部特征信息包括五官特征和人脸角度;对于每个人脸区域图像,建立人脸与人脸的脸部特征信息之间的对应关系;基于所有人脸区域图像,建立人脸数据库。
可选地,处理器1060还用于:识别第一人脸图像的脸部特征信息,识别出第一五官特征和第一人脸角度;在预设的人脸数据库中查找与第一五官特征和第一人脸角度均匹配的第二人脸图像;其中,第二人脸图像的第二五官特征与第一五官特征的差异小于第一预设阈值,第二人脸图像的第二人脸角度与第一人脸角度的差异小于第二预设阈值。
可选地,作为另一个实施例,处理器1060还用于:将第二人脸图像的图像尺寸调整至与第一人脸图像的图像尺寸相同,得到第三人脸图像;将第一人脸图像和第三人脸图像进行图像合成,生成目标人脸图像。
可选地,处理器1060还用于:对于第一人脸图像中的每个像素点,基于像素点和第三人脸图像中与像素点对应位置像素点的YUV值,进行加权平均值计算,生成目标人脸图像。
可选地,处理器1060还用于:对于第一人脸图像中的每个像素点,通过公式G1=g1×c+gw×d得到第一中间YUV值,将第一中间YUV值赋值给像素点;当第一人脸图像中的所有像素点均完成YUV值赋值时,生成目标人脸图像;其中,G1为第一中间YUV值,g1为第一人脸图像中的像素点的YUV值,gw为第三人脸图像中与像素点对应位置像素点的YUV值,c和d为常量,且c+d=100%,c<d,YUV值包括亮度值Y和色彩值UV。
可选地,处理器1060还用于:选取第一人脸图像中的第一目标图像,以及第二人脸图像中的第二目标图像;将第一目标图像和第二目标图像分别划分为M个像素块和N个像素块;对于第二目标图像的N个像素块中每个像素块,计算像素块中所有像素点的YUV平均值,得到N个YUV平均值;对于第一目标图像的M个像素块中每个像素块中的每个像素点,通过公式G2=g2×e+ga×f得到第二中间YUV值,将第二中间YUV值赋值给像素点;当第一目标图像中的所有像素点均完成YUV值赋值时,生成目标人脸图像;其中,G2为第二中间YUV值,g2为第一目标图像的M个像素块中的像素点的YUV值,ga为第二目标图像中与像素点对应位置像素点所在像素块的YUV平均值,e和f为常量,且e+f=100%,e<f,M=N=b×b,b为大于0的偶数。
移动终端1000能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
综上所述,本发明实施例提供的移动终端,通过人脸资源库中在亮环境下拍摄的脸部图像对暗环境下拍摄的脸部图像进行合成处理,从而有效地降低了脸部图像的噪点,提高了图像质量。此外,本发明还通过在预览图像阶段对待处理的脸部图像进行降噪处理,从而能够使用户实时的观测到处理效果,有效地提升了用户体验。
本领域普通技术人员可以意识到,结合本发明实施例中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (8)
1.一种图像处理方法,应用于具有摄像头的移动终端,其特征在于,所述方法包括:
获取拍摄场景的环境亮度值;
当所述环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;
提取所述预览图像中的第一人脸图像;
在预设的人脸数据库中查找与所述第一人脸图像相匹配的第二人脸图像;
将所述第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像;
所述将所述第一人脸图像和第二人脸图像进行图像合成,生成目标人脸图像的步骤,包括:
将所述第二人脸图像的图像尺寸调整至与所述第一人脸图像的图像尺寸相同,得到第三人脸图像;
将所述第一人脸图像和第三人脸图像进行图像合成,生成所述目标人脸图像;
所述将所述第一人脸图像和第三人脸图像进行图像合成,生成所述目标人脸图像的步骤,包括:
对于所述第一人脸图像中的每个像素点,基于所述像素点和第三人脸图像中与所述像素点对应位置像素点的YUV值,进行加权平均值计算,生成所述目标人脸图像;
当当前所述第二人脸图像中的人脸的角度与所述第一人脸图像中的人脸的角度之间的差值超出预定范围,所述对于所述第一人脸图像中的每个像素点,基于所述像素点和第三人脸图像中与所述像素点对应位置像素点的YUV值,进行加权平均值计算,生成所述目标人脸图像的步骤,包括:
选取所述第一人脸图像中的第一目标图像,以及所述第三人脸图像中的第二目标图像;
将所述第一目标图像和第二目标图像分别划分为M个像素块和N个像素块;
对于所述第二目标图像的所述N个像素块中每个像素块,计算所述像素块中所有像素点的YUV平均值,得到N个YUV平均值;
对于所述第一目标图像的所述M个像素块中每个像素块中的每个像素点,通过公式G2=g2×e+ga×f得到第二中间YUV值,将所述第二中间YUV值赋值给所述像素点;
当所述第一目标图像中的所有像素点均完成YUV值赋值时,生成所述目标人脸图像;
其中,G2为所述第二中间YUV值,g2为所述第一目标图像的所述M个像素块中的所述像素点的YUV值,ga为所述第二目标图像中与所述像素点对应位置像素点所在像素块的YUV平均值,e和f为常量,且e+f=100%,e<f,M=N=b×b,b为大于0的偶数。
2.根据权利要求1所述的方法,其特征在于,所述获取拍摄场景的环境亮度值的步骤之前,所述方法还包括:
获取在环境亮度值高于预设亮度阈值的拍摄场景下生成的包含人脸的至少一帧图像;
提取所述至少一帧图像中每帧图像中的人脸区域图像;
对于每个所述人脸区域图像,识别所述人脸区域图像的脸部特征信息,所述脸部特征信息包括五官特征和人脸角度;
对于每个所述人脸区域图像,建立所述人脸与所述人脸的脸部特征信息之间的对应关系;
基于所有所述人脸区域图像,建立所述人脸数据库。
3.根据权利要求2所述的方法,其特征在于,所述在预设的人脸数据库中查找与所述第一人脸图像相匹配的第二人脸图像的步骤,包括:
识别所述第一人脸图像的脸部特征信息,识别出第一五官特征和第一人脸角度;
在所述预设的人脸数据库中查找与所述第一五官特征和第一人脸角度均匹配的第二人脸图像;
其中,所述第二人脸图像的第二五官特征与所述第一五官特征的差异小于第一预设阈值,所述第二人脸图像的第二人脸角度与所述第一人脸角度的差异小于第二预设阈值。
4.根据权利要求1所述的方法,其特征在于,当当前所述第二人脸图像中的人脸的角度与所述第一人脸图像中的人脸的角度之间的差值未超出预定范围,所述对于所述第一人脸图像中的每个像素点,基于所述像素点和第三人脸图像中与所述像素点对应位置像素点的YUV值,进行加权平均值计算,生成所述目标人脸图像的步骤,包括:
对于所述第一人脸图像中的每个像素点,通过公式G1=g1×c+gw×d得到第一中间YUV值,将所述第一中间YUV值赋值给所述像素点;
当所述第一人脸图像中的所有像素点均完成YUV值赋值时,生成所述目标人脸图像;
其中,G1为所述第一中间YUV值,g1为所述第一人脸图像中的所述像素点的YUV值,gw为所述第三人脸图像中与所述像素点对应位置像素点的YUV值,c和d为常量,且c+d=100%,c<d,所述YUV值包括亮度值Y和色彩值UV。
5.一种移动终端,包括摄像头,其特征在于,所述移动终端还包括:
第一获取模块,用于获取拍摄场景的环境亮度值;
第二获取模块,用于当所述第一获取模块获取的所述环境亮度值低于预设亮度阈值时,获取摄像头采集的一帧预览图像;
第一提取模块,用于提取所述第二获取模块获取的所述预览图像中的第一人脸图像;
查找模块,用于在预设的人脸数据库中查找与所述第一提取模块提取的所述第一人脸图像相匹配的第二人脸图像;
图像合成模块,用于将所述第一提取模块提取的所述第一人脸图像和查找模块查找到的所述第二人脸图像进行图像合成,生成目标人脸图像;
所述图像合成模块包括:
调整子模块,用于将所述查找模块查找到的所述第二人脸图像的图像尺寸调整至与所述第一提取模块提取的所述第一人脸图像的图像尺寸相同,得到第三人脸图像;
图像合成子模块,用于将所述调整子模块调整后的第一人脸图像和第三人脸图像进行图像合成,生成所述目标人脸图像;
所述图像合成子模块包括:
计算单元,用于对于所述第一提取模块提取的所述第一人脸图像中的每个像素点,基于所述像素点和第三人脸图像中与所述像素点对应位置像素点的YUV值,进行加权平均值计算,生成所述目标人脸图像;
当当前所述第二人脸图像中的人脸的角度与所述第一人脸图像中的人脸的角度之间的差值超出预定范围,所述计算单元包括:
选取子单元,用于选取所述第一提取模块提取的所述第一人脸图像中的第一目标图像,以及所述第三人脸图像中的第二目标图像;
划分子单元,用于将所述选取子单元选取的所述第一目标图像和第二目标图像分别划分为M个像素块和N个像素块;
计算子单元,用于对于所述第二目标图像的所述划分子单元划分的所述N个像素块中每个像素块,计算所述像素块中所有像素点的YUV平均值,得到N个YUV平均值;
第二赋值子单元,用于对于所述第一目标图像的所述划分子单元划分的所述M个像素块中每个像素块中的每个像素点,通过公式G2=g2×e+ga×f得到第二中间YUV值,将所述第二中间YUV值赋值给所述像素点;
第二生成子单元,用于当所述第一目标图像中的所有像素点均通过所述第二赋值子单元完成YUV值赋值时,生成所述目标人脸图像;
其中,G2为所述第二中间YUV值,g2为所述第一目标图像的所述M个像素块中的所述像素点的YUV值,ga为所述第二目标图像中与所述像素点对应位置像素点所在像素块的YUV平均值,e和f为常量,且e+f=100%,e<f,M=N=b×b,b为大于0的偶数。
6.根据权利要求5所述的移动终端,其特征在于,所述移动终端还包括:
第三获取模块,用于获取在环境亮度值高于预设亮度阈值的拍摄场景下生成的包含人脸的至少一帧图像;
第二提取模块,用于提取所述第三获取模块获取的所述至少一帧图像中每帧图像中的人脸区域图像;
识别模块,用于对于所述提取模块提取的每个所述人脸区域图像,识别所述人脸区域图像的脸部特征信息,所述脸部特征信息包括五官特征和人脸角度;
第一建立模块,用于对于所述识别模块识别出的每个所述人脸区域图像,建立所述人脸与所述人脸的脸部特征信息之间的对应关系;
第二建立模块,用于基于所述第二提取模块提取的所有所述人脸区域图像,建立所述人脸数据库。
7.根据权利要求6所述的移动终端,其特征在于,所述查找模块包括:
识别子模块,用于识别所述第一提取模块提取的所述第一人脸图像的脸部特征信息,识别出第一五官特征和第一人脸角度;
查找子模块,用于在所述预设的人脸数据库中查找与所述识别子模块识别出的所述第一五官特征和第一人脸角度均匹配的第二人脸图像;
其中,所述第二人脸图像的第二五官特征与所述第一五官特征的差异小于第一预设阈值,所述第二人脸图像的第二人脸角度与所述第一人脸角度的差异小于第二预设阈值。
8.根据权利要求5所述的移动终端,其特征在于,当当前所述第二人脸图像中的人脸的角度与所述第一人脸图像中的人脸的角度之间的差值未超出预定范围,所述计算单元包括:
第一赋值子单元,用于对于所述第一提取模块提取的所述第一人脸图像中的每个像素点,通过公式G1=g1×c+gw×d得到第一中间YUV值,将所述第一中间YUV值赋值给所述像素点;
第一生成子单元,用于当所述第一提取模块提取的所述第一人脸图像中的所有像素点均通过所述第一赋值子单元完成YUV值赋值时,生成所述目标人脸图像;
其中,G1为所述第一中间YUV值,g1为所述第一人脸图像中的所述像素点的YUV值,gw为所述第三人脸图像中与所述像素点对应位置像素点的YUV值,c和d为常量,且c+d=100%,c<d,所述YUV值包括亮度值Y和色彩值UV。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610515397.7A CN106161933B (zh) | 2016-06-30 | 2016-06-30 | 一种图像处理方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610515397.7A CN106161933B (zh) | 2016-06-30 | 2016-06-30 | 一种图像处理方法及移动终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106161933A CN106161933A (zh) | 2016-11-23 |
CN106161933B true CN106161933B (zh) | 2019-05-17 |
Family
ID=57351026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610515397.7A Active CN106161933B (zh) | 2016-06-30 | 2016-06-30 | 一种图像处理方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106161933B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106961554A (zh) * | 2017-03-31 | 2017-07-18 | 努比亚技术有限公司 | 一种拍照装置和方法、终端 |
CN107507159A (zh) * | 2017-08-10 | 2017-12-22 | 珠海市魅族科技有限公司 | 图片处理方法及装置、计算机装置及可读存储介质 |
CN108449543A (zh) * | 2018-03-14 | 2018-08-24 | 广东欧珀移动通信有限公司 | 图像合成的方法、装置、计算机存储介质及电子设备 |
CN114419713A (zh) * | 2018-09-04 | 2022-04-29 | 创新先进技术有限公司 | 一种人脸识别的辅助方法、人脸识别方法及终端设备 |
CN112417930B (zh) * | 2019-08-23 | 2023-10-13 | 深圳市优必选科技股份有限公司 | 一种处理图像的方法及机器人 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944643A (ja) * | 1995-08-01 | 1997-02-14 | Fuji Photo Film Co Ltd | 顔合成データ作成装置および方法ならびに顔画像合成表示装置および方法 |
CN101102417A (zh) * | 2007-07-25 | 2008-01-09 | 北京中星微电子有限公司 | 一种图像合成方法和装置 |
CN101308571A (zh) * | 2007-05-15 | 2008-11-19 | 上海中科计算技术研究所 | 一种利用主动网格与人脸识别结合生成新人脸的方法 |
CN101546376A (zh) * | 2009-04-28 | 2009-09-30 | 上海银晨智能识别科技有限公司 | 人体生物信息采集系统、人脸照片采集、质检系统及方法 |
CN103986874A (zh) * | 2014-05-29 | 2014-08-13 | 宇龙计算机通信科技(深圳)有限公司 | 一种图像获取装置、图像获取方法及终端 |
CN104574321A (zh) * | 2015-01-29 | 2015-04-29 | 京东方科技集团股份有限公司 | 图像修正方法、图像修正装置和视频系统 |
CN105554389A (zh) * | 2015-12-24 | 2016-05-04 | 小米科技有限责任公司 | 拍摄方法及装置 |
-
2016
- 2016-06-30 CN CN201610515397.7A patent/CN106161933B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944643A (ja) * | 1995-08-01 | 1997-02-14 | Fuji Photo Film Co Ltd | 顔合成データ作成装置および方法ならびに顔画像合成表示装置および方法 |
CN101308571A (zh) * | 2007-05-15 | 2008-11-19 | 上海中科计算技术研究所 | 一种利用主动网格与人脸识别结合生成新人脸的方法 |
CN101102417A (zh) * | 2007-07-25 | 2008-01-09 | 北京中星微电子有限公司 | 一种图像合成方法和装置 |
CN101546376A (zh) * | 2009-04-28 | 2009-09-30 | 上海银晨智能识别科技有限公司 | 人体生物信息采集系统、人脸照片采集、质检系统及方法 |
CN103986874A (zh) * | 2014-05-29 | 2014-08-13 | 宇龙计算机通信科技(深圳)有限公司 | 一种图像获取装置、图像获取方法及终端 |
CN104574321A (zh) * | 2015-01-29 | 2015-04-29 | 京东方科技集团股份有限公司 | 图像修正方法、图像修正装置和视频系统 |
CN105554389A (zh) * | 2015-12-24 | 2016-05-04 | 小米科技有限责任公司 | 拍摄方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106161933A (zh) | 2016-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105847674B (zh) | 一种基于移动终端的预览图像处理方法及移动终端 | |
CN105872148B (zh) | 一种高动态范围图像的生成方法及移动终端 | |
CN106161933B (zh) | 一种图像处理方法及移动终端 | |
CN106101545B (zh) | 一种图像处理方法及移动终端 | |
CN107181913B (zh) | 一种拍照方法及移动终端 | |
CN106331510B (zh) | 一种逆光拍照方法及移动终端 | |
CN107659769B (zh) | 一种拍摄方法、第一终端及第二终端 | |
CN106603928B (zh) | 一种拍摄方法及移动终端 | |
CN105959564B (zh) | 一种拍照方法及移动终端 | |
US20170032219A1 (en) | Methods and devices for picture processing | |
CN110300264B (zh) | 图像处理方法、装置、移动终端以及存储介质 | |
CN107613203B (zh) | 一种图像处理方法及移动终端 | |
WO2019001152A1 (zh) | 拍照方法及移动终端 | |
CN106126108B (zh) | 一种缩略图的生成方法及移动终端 | |
CN106777329B (zh) | 一种图像信息的处理方法及移动终端 | |
CN106713780A (zh) | 一种闪光灯的控制方法及移动终端 | |
CN106454086B (zh) | 一种图像处理方法和移动终端 | |
CN106454085B (zh) | 一种图像处理方法和移动终端 | |
US20180376121A1 (en) | Method and electronic device for displaying panoramic image | |
CN107026982B (zh) | 一种移动终端的拍照方法及移动终端 | |
CN106161932B (zh) | 一种拍照方法及移动终端 | |
CN106855744B (zh) | 一种屏幕显示方法及移动终端 | |
CN106097398B (zh) | 一种运动对象的检测方法及移动终端 | |
CN107124543A (zh) | 一种拍摄方法及移动终端 | |
JP5300555B2 (ja) | 情報表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |