CN106878614A - 一种拍摄方法及终端 - Google Patents
一种拍摄方法及终端 Download PDFInfo
- Publication number
- CN106878614A CN106878614A CN201710031746.2A CN201710031746A CN106878614A CN 106878614 A CN106878614 A CN 106878614A CN 201710031746 A CN201710031746 A CN 201710031746A CN 106878614 A CN106878614 A CN 106878614A
- Authority
- CN
- China
- Prior art keywords
- image
- focusing position
- terminal
- current focusing
- subwindow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种拍摄方法及终端,其中该方法包括:获取当前图像并对当前图像进行处理以得到当前对焦位置,该当前对焦位置为人眼位置;根据当前对焦位置进行对焦;接收拍摄指令以获取目标图像。本发明实施例中,终端通过获取当前图像并对该当前图像进行处理以得到当前对焦位置,并根据当前对焦位置进行对焦,根据拍摄指令获取目标图像。由于当前对焦位置为人眼位置,因此可以快速且准确的对人眼进行对焦,从而提高了所拍摄的目标图像的人眼区域的清晰度。
Description
技术领域
本发明涉及拍摄技术领域,尤其涉及一种拍摄方法及其终端。
背景技术
随着拍照技术的快速发展,用户喜欢利用拍照来记录自己、家人、朋友及同事开心的时刻,在拍照的过程中,用户都希望清晰地拍出自己眼睛,这样拍出的图像能够突出重点,并能体现图像中的人物的精神面貌。但在实践中发现,现有的拍照设备不能对人眼进行准确的对焦,拍出的人物图像的人眼区域的清晰度不高。
发明内容
本发明实施例提供一种拍摄方法及其终端,可快速且准确的对人眼进行对焦,以提高所拍摄的目标图像的人眼区域的清晰度。
本发明实施例提供了一种拍摄方法,包括:
获取当前图像并对所述当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置;
根据所述当前对焦位置对进行对焦;
接收拍摄指令以获取目标图像。
本发明实施例还提供了一种终端,包括:
获取单元,用于获取当前图像;
处理单元,用于对所述获取单元获取的当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置;
对焦单元,用于根据所述出处理单元得到的当前对焦位置对进行对焦;
所述获取单元还用于接收拍摄指令以获取目标图像。
本发明实施例中,终端通过获取当前图像并对该当前图像进行处理以得到当前对焦位置,并根据该当前对焦位置进行对焦,根据拍摄指令获取目标图像。由于当前对焦位置为人眼位置,因此可以快速且准确的对人眼进行对焦,从而提高了所拍摄的目标图像的人眼区域的清晰度。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种拍摄方法的流程示意图;
图2是本发明另一实施例提供的一种拍摄方法的流程示意图;
图3是本发明一实施例提供的一种特征模版的示意图;
图4是本发明一实施例提供的一种子窗口的结构示意图;
图5是本发明另一实施例提供的一种子窗口的结构示意图;
图6是本发明另一实施例提供的一种强分类器的结构示意图;
图7是目标人脸图像的示意图;
图8是经显著性处理后的区域图像示意图;
图9是本发明一实施例提供的一种终端的结构示意图;
图10是本发明另一实施例提供的一种终端的结构示意;
图11是本发明再一实施例提供的一种终端的结构示意。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本发明实施例中描述的终端包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
请参考图1,是本发明一实施例提供的拍摄方法的流程示意图,如图所示,该方法可以包括以下步骤:
S101、终端获取当前图像并对该当前图像进行处理以得到当前对焦位置,该当前对焦位置为人眼位置。
需要说明的是,用户可以通过触控或者语音的方式向终端发送开启拍照应用的指令,终端在接收到用户发送的开启拍照应用指令的时,可以开启拍照应用以获取当前图像,可以对该当前图像进行处理以得到当前对焦位置,该当前对焦位置为人眼位置。具体的,终端可以对该当前图像进行灰度处理以得到灰度图像,并可以对灰度图像进行人脸检测,若检测到人脸图像,则可以对人脸图像进行显著性检测以获得人眼位置;若没有检测到人脸图像,则终端可以直接将当前图像作为目标图像,可以不执行以下步骤。
其中,当前图像是指终端接收到开启拍照应用的指令时拍摄的,该当前图像以缓存的形式存储在终端中,可用于获取人眼位置,以便终端可以根据该人眼位置拍出清晰的目标图像,在拍完目标图像后,终端可以将该当前图像删除。另外,上述当前对焦位置可以是多个,也可以是一个,当前对焦位置的数量由当前图像中的人物个数决定,也就是说一个人物对应一个当前对焦位置。上述终端可以是智能手机、照相机、平板电脑,智能可穿戴设备等具有拍照功能的设备,本发明实施例不做限定。
作为一种可选的实施方式,上述对该当前图像进行处理以得到当前对焦位置,可以包括以下步骤S1011、S1012和S1013。
S1011、终端对该当前图像进行灰度处理以获得灰度图像。
需要说明的是,终端可以根据当前图像的格式做出相应的灰度处理以获得灰度图像,例如,若终端获取的当前图像是YUV格式,可以通过提取Y通道的图像以获得灰度图像;若终端获取的当前图像是RGB格式,可以通过提取G通道的图像以得到灰度图像。以上两种获取当前图像的灰度图像的方法仅是示意性的,本发明实施例对此不做限制。
S1012、终端对该灰度图像进行人脸检测以检测出目标人脸图像。
需要说明的是,终端可以采用人脸检测方法对该灰度图像进行人脸检测以检测出目标人脸图像,以便进一步获取人眼位置,具体的,人脸检测方法可以包括基于学习的人脸检测方法或基于特征的人脸检测方法等。基于学习的人脸检测方法可以包括基于Adaboost的方法、基于贝叶斯准则的方法、基于人工神经网络的方法(Artificial Neural Network,ANN)或支持向量机的方法(Support Vector Machine,SVM)等。基于特征的人脸检测方法包括底层特征分析方法、组群特征方法或变形模板方法等,其中,底层特征分析方法又包括基于肤色的人脸检测方法。
其中,上述的目标人脸图像中,可以包括多个人物的人脸,也可以只有一个人物的人脸。
举例来说,终端可以将灰度图像划分为若干个小方格,每个小方格为一个像素点,提取该灰度图像的各个像素点的颜色信息,将各个像素点的颜色信息与人脸颜色信息数据库进行对比,若该像素点的颜色信息与人脸颜色信息数据库匹配,则该像素点属于人脸,将该灰度图像中属于人脸的像素点进行聚类以得到目标人脸图像。
S1013、终端对该目标人脸图像进行显著性检测以获得该当前对焦位置。
需要说明的是,由于人眼具有严格的对称性、眼球形状的特殊性,左右两眼睛的距离具有相对固定性等特点,终端可以对目标人脸图像进行显著性检测以获得该当前的对焦位置即人眼位置。
具体地,终端先对目标人脸图像进行离散余弦变换及负离散余弦变换以得到区域图像,再对比目标人脸图像及区域图像并结合先验知识得到当前对焦位置。需要说明的是,通过显著性检测以获得人眼位置的方法具有很强的时效性,可以优化达到毫秒级。
结合步骤S1011、S1012、S1013来看,终端可以对该当前图像进行灰度处理以获得灰度图像,对该灰度图像进行人脸检测以检测出目标人脸图像,对该目标人脸图像进行显著性检测以获得该当前对焦位置。
S102、终端根据该当前对焦位置进行对焦。
需要说明的是,终端在获取该当前对焦位置后,可以自动根据该当前对焦位置来调节物距和相距进行对焦,以便拍出清晰的人眼。
S103、终端接收拍摄指令以获取该目标图像。
需要说明的是,终端接收到用户通过语音、触控操作等方式发送的拍摄指令时,可以拍摄目标图像。其中,目标图像是指终端接收到拍摄指令时,根据当前对焦位置对人眼进行定焦而拍出的图像,终端可以将该目标图像存储在图片库中,即该目标图像是用户想要的图像。
终端通过获取当前图像并对该当前图像进行处理以得到当前对焦位置,并根据该当前对焦位置进行对焦,根据拍摄指令获取目标图像。由于当前对焦位置为人眼位置,因此可以快速且准确的对人眼进行对焦,从而提高了所拍摄的目标图像的人眼区域的清晰度。
参见图2,是本发明另一实施例提供的一种拍摄方法的流程示意图,如图所示,该方法可以包括以下步骤:
S201、终端获取当前图像,并对该当前图像进行灰度处理以获得灰度图像。
终端可根据用户发送的开启拍照应用指令以获取当前图像,之后根据当前图像的格式做出相应的灰度处理以获得灰度图像。例如,若终端获取的当前图像是YUV格式,可以通过提取Y通道的图像以获得灰度图像;若终端获取的当前图像是RGB格式,可以通过提取G通道的图像以得到灰度图像。以上两种获取当前图像的灰度图像的方法仅是示意性的,本发明实施例对此不做限制。
S202、终端按照预设缩小比例对该灰度图像进行缩小以得到第一图像。
需要说明的是,终端可以按照预设缩小比例对该灰度图像进行缩小以得到第一图像,以便提高检测目标人脸图像的效率。例如,终端处理一张1300万像素的图像,需要20ms,如果将该1300万像素的图像缩小10倍,相应的处理时间也会缩小。其中,预设放大比例可以根据终端处理图像的性能决定。
S203、终端将该第一图像进行多次划分以得到多张第二图像,每张该第二图像包括多个子窗口。
需要说明的是,终端可以将该第一图像进行多次划分以得到多张第二图像,每张该第二图像包括多个子窗口,其中每次划分的子窗口的个数越多,计算得出的Haar特征值也越多,检测到的人脸图像更加准确,但是每次划分的子窗口越多,计算Haar特征值的时间也会相应增加,另外,子窗口的最大数量不能超过强分类器检测的最大子窗口数量,所以划分的子窗口的数量可以根据检测人脸图像的准确性、计算Haar特征值的时间、强分类器子窗口的数量等因素综合考虑。其中,Haar特征值可以通过图像的子窗口的像素值计算得出,并用于描述图像的灰度变化。
举例来说,终端初次可以将第一图像划分为20*20个子窗口,然后可以按照等比例扩大划分子窗口的数量,如按照3倍的比例扩大划分子窗口的数量,即可以将该第一图像划分为60*60个子窗口、180*180个子窗口或540*540个子窗口等。
S204、终端根据积分图计算每张该第二图像中每个子窗口的Haar特征值。
需要说明的是,由于人脸图像中人眼比脸颊颜色要深,鼻梁两侧比鼻梁颜色要深,嘴巴比周围颜色要深等特征,所以可以采用Haar特征值描述第二图像的灰度变化情况。由于计算Haar特征值需要已知每个子窗口的像素值,每个子窗口的像素值可以根据子窗口的端点处的积分图计算出,所以可以根据积分图计算每张第二图像的Haar特征值。
作为一种可选的实施方式,上述根据积分图计算每个子窗口的Haar特征值,可以包括:根据该积分图计算该每个子窗口对应的像素值;根据该每个子窗口的像素值计算该每个子窗口的Haar特征值。
需要说明的是,灰度图像中的任意一点的积分图是指从图像的左上角到这点所构成的矩形区域内所有点的像素值值之和,同理对于具有多个子窗口第二图像中,每个子窗口端点处的积分图为该端点到该图像左上角所包含的所有子窗口的像素值之和。所以在计算出各个子窗口端点处的积分图的情况下,可以根据积分图计算各个子窗口的像素值,并可以根据每个子窗口的像素值计算各子窗口的Haar特征值。
进一步,在计算Haar特征值时,首先需要选择合适的特征模版,特征模版是由两个或多个的矩形组合而成,特征模板内有黑色和白色两种矩形,其中常见的特征模版如图3所示。其中每种特征模版仅对应一种特征,但每种特征可以对应多种特征模版,常见的特征有边缘特征、线性特征、点特征、对角特征,然后将特征模版按照预设规则放置在灰度图像对应的子窗口中,计算该特征模版放置区域对应的Haar特征值,该Haar特征值由特征模版中白色矩形区域的像素和减去黑色矩形区域的像素和计算得出。其中,预设规则包括设置特征模版的大小、特征模版在子窗口中放置的位置,预设规则根据灰度图像划分的子窗口的数量决定。
其中,在选定特征模版的情况下,由于特征模版的大小不同,且在每张第二图像的的子窗口中放置的位置不同,所以对于一个特征模版,每张第二图像中对应有多个Haar特征,同时可以选择多个特征模版来计算每张第二图像的Haar特征,另外,该每张第二图像的划分的子窗口的数量不一样,所以每张第二图像的Haar特征值的数量不一样。
举例来说,终端可以将灰度图像缩小1000倍,并将该缩小后的灰度图像划分为20*20个子窗口,根据积分图计算各个子窗口的像素值,其步骤包括:
1、计算各个子窗口端点处的积分图,这里以计算如图4中的子窗口D的端点(i,j)处的积分图为例,端点(i,j)的积分图为该点到灰度图像左上角所包括的各子窗口的像素之和,可表示为:
Integral(i,j)=子窗口D的像素值+子窗口C的像素值+子窗口B的像素值+子窗口A的像素值;
因为Integral(i-1,j-1)=子窗口A的像素值;
Integral(i-1,j)=子窗口A的像素值+子窗口C的像素值;
Integral(i,j-1)=子窗口B的像素值+子窗口A的像素值;
所以,Integral(i,j)进一步可以表示为:
Integral(i,j)=Integral(i,j-1)+Integral(i-1,j)-Integral(i-1,j-1)+子窗口D的像素值;
其中,Integral(,)表示某点的积分图,进过观察发现(i,j)点的积分图可以通过(i,j-1)点的积分图Integral(i,j-1)加上第j列的像素和ColumnSum(j)获得,即(i,j)点的积分图可以表示为:
Integral(i,j)=Integral(i,j-1)+ColumnSum(j);
其中,ColumnSum(0)=0,Integral(0,j)=0,所以对于20*20的子窗口,灰度图像上所有子窗口端点处的积分图可以通过19+19+2*19*19=760次迭代求得。
2、根据各子窗口端点处的积分图计算各个子窗口的像素值,这里以计算子窗口D的像素值为例,由步骤1可知子窗口D的像素值可以由端点(i,j)、(i,j-1),(i-1,j)及(i-1,j-1)处的积分图计算得出,即子窗口D的像素值可表示为:
子窗口D的像素值=Integral(i,j)+Integral(i-1,j-1)-Integral(i-1,j)-Integral(i,j-1);
根据上式可知,只要已知各个子窗口端点处的积分图,就可以计算出各个子窗口的像素值。
进一步,在获得各个子窗口的像素值以后,可以根据各个窗口的像素值计算Haar特征值,其中选择不同的特征模版,放置的位置不同,且特征模版的尺寸不同,对应的Haar特征值不同,选择图4中的以边缘特征对应的特征模板为例,如图5所示,该特征模版对应区域的Haar特征值可以由子窗口A的像素值减去子窗口B的像素值。
S205、终端根据强分类器及每张该第二图像得到的Haar特征值检测出多张第一人脸图像。
需要说明的是,在计算出每张第二图像中各个子窗口的Haar特征值后,终端可以根据强分类器及每张该第二图像得到的Haar特征值检测出多张第一人脸图像,也就是说根据一张第二图像的Haar特征值及强分类器可以检测出一张第一人脸图像。具体的,强分类器可以由若干个弱分类器组成,将每张第二图像的子窗口的Haar特征值输入到强分类器中,逐级通过各个弱分类器,相当于弱分类器判断Haar特征值是否满足对应的预设人脸特征条件,若满足,则允许该Haar特征值通过,若不满足,则不允许该Haar特征值通过。如果有一级未通过,则该Haar特征值对应的子窗口将被拒绝,并分类为非人脸,每一级都能够通过,则对该Haar特征值进一步处理以找出该Haar特征值对应的子窗口,并将该Haar特征值对应的子窗口分类为人脸,对每张第二图像中分类为人脸的子窗口进行合并,以得到每张第二图像对应的第一人脸图像(例如,将子窗口数量为20*20的第二图像中检测出的人脸子窗口进行合并得到一张对应的第一人脸图像)。本实施例中所描述的根据强分类器及每张该第二图像得到的Haar特征值检测出多张第一人脸图像的方法的步骤比较简单,从而降低人脸图像检测的复杂度,且该强分类器可以是由多个弱分类器组成,所以提高了人脸检测的准确率。
举例来说,如图6所示,若该强分类器是由3个级联的弱分类器组成,将子窗口数量为24*24的第二图像的各个子窗口的Haar特征值依次输入到3个弱分类器中,每个弱分类器判断该Haar特征值是否满足对应的预设人脸特征条件,若满足,则允许该Haar特征值通过,若不满足,则不允许该Haar特征值通过。如果有一级未通过,则该Haar特征值对应的子窗口将被拒绝,并分类为非人脸,每一级都能够通过,则对该Haar特征值进一步处理以找出该Haar特征值对应的子窗口,并将该Haar特征值对应的子窗口分类为人脸,将子窗口数量为24*24的第二图像中分类为人脸的子窗口进行合并,以得子窗口数量为24*24的第二图像对应的第一人脸图像。同理可以根据以上步骤计算子窗口数量为36*36的第二图像对应的第一人脸图。
进一步地,在检测出多张人脸图像之前,还需要获取强分类器。具体的,获取强分类器的详细描述如下:
1、选定训练样本T={(x1,y1),(x2,y2)…(xi,yi)…(xN,yN)},并将该训练样本存储于指定位置,如样本数据库中。其中xi表示第i个样本,yi=0时表示其为负样本(非人脸),yi=1时表示其为正样本(人脸)。N为训练样本数量。
2、初始化训练样本的权值分布D1,即给每个训练样本设置相同的权值,可以表示为:
D1=(w11,w12…w1i…w1N),w1i=1/N,i=1,2…N
3、设置迭代次数T,用t=1,2,...,T表示第多少次迭代。
4、归一化权值:
其中,Dt(i)为第t次循环中第i个样本的权值,qt(i)为第t次循环中第i个样本的归一化权值。
5、对训练样本进行学习以得到多个弱分类器,并计算每一弱分类器在训练样本上的分类误差率:使用具有权值分布Dt的训练样本学习得到弱分类器h(xi,fi,pi,θi),计算弱分类器的分类错误率εt:
其中,一个弱分类器h(xi,fi,pi,θi)是由特征fi,阈值θi,以及偏置位置pi组成:
另外,xi为一个训练样本,特征fi与弱分类器hi(xi,fi,pi,θi)具有一一对应的关系,偏置位pi的作用是控制不等式的方向,使得不等式符号都是小于等于号,训练一个弱分类器的就是找到最优阈值值θi的过程。
6、从5中确定的弱分类器中,找出一个具有最小的分类错误率εt(i)的弱分类器ht。
7、根据分类误差率计算弱分类器的系数βt:
βt=εt/(1-εt)
其中,该系数表示每一弱分类器在强分类器中所占的权值,当xi被正确地分类时,ei的值取0,当被xi错误地分类时,ei的值取1。并跟该系数对所有训练样本的权值进行更新:
8、所有训练样本的权值更新后,循环执行步骤4到7,直到迭代T次后,结束迭代,得到强分类器H(x):
其中,αt=log(1/βt)。
S206、终端将该多张第一人脸图像进行合并得到所述目标人脸图像。
需要说明的是,将该多张第一人脸图像进行合并得到该目标人脸图像,也就是说对不同子窗口数量的第二图像得到的多张人脸图像进行合并得到该目标人脸图像。具体的,将不同的第一人脸图像进行对比,若某两张第一人脸图像重叠面积大于预设阈值,则认为这两张第一人脸图像表示同一人脸,对这两张第一人脸进行合并,即将这两张第一人脸的位置和大小的平均值作为合并后得到的人脸位置和大小;如果某两张第一人脸图像重叠面积小于预设阈值,则认为该两张第一人脸图像表示两个不同的人脸,将该两张人脸图像合并成一张图像,该图像具有两个人脸区域,经过多次对比及合并操作可以得到目标人脸图像。其中,该目标人脸图像可以是一个人脸图像也可以是多个人脸图像。
S207、终端对该目标人脸图像进行显著性检测以获得该当前对焦位置。
具体地,终端先对目标人脸图像进行离散余弦变换及负离散余弦变换以得到区域图像,再对比目标人脸图像及区域图像并结合先验知识得到当前对焦位置。需要说明的是,通过显著性检测以获得人眼位置的方法具有很强的时效性,可以优化达到毫秒级。
进一步地,步骤S207具体包括:
(1)对如图7所示的目标人脸图像,采用公式(1)进行离散余弦变换(DiscreteCosine Transformation,DCT):
其中,x,y,u,v=0,1,…,N-1。
进一步地,在公式(1)中,F(u,v)表示经DCT变换后的信号,f(x,y)表示原始信号,N表示原始信号的个数,c(u)、c(v)表示补偿系数,其可以使得经DCT变换后的矩阵成为正交矩阵。
(2)采用公式(2)对步骤(1)中进行DCT变换后的图像进行符号变换:
进一步地,公式(2)表示从公式(1)中所得到的值为1或0或-1。
(3)采用公式(3)对步骤(2)中进行符号变换后的图像进行负离散余弦变换(Inverse Discrete Cosine Transformation,IDCT)以得到如图8所示的区域图像:
其中,x,y,u,v=0,1,…,N-1.
进一步地,在公式(2)中,F(u,v)表示经DCT变换后的信号,f(x,y)表示原始信号,N表示原始信号的个数,c(u)、c(v)表示补偿系数,其可以使得经DCT变换后的矩阵成为正交矩阵。
(4)对比如图7所示的目标人脸图像及如图8所示的区域图像并结合先验知识得到当前对焦位置。
S208、终端根据该当前对焦位置进行对焦。
S209、终端接收拍摄指令以获取该目标图像。
本发明实施例中,终端通过按照预设缩小比例对灰度图像进行缩小以得到第一图像,提高了检测人脸图像的效率,另外,终端通过将该第一图像进行多次划分以得到多张第二图像,每张该第二图像包括多个子窗口,并根据积分图计算每张该第二图像中每个子窗口的Haar特征值,根据强分类器及每张该第二图像得到的Haar特征值检测出多张第一人脸图像,降低了检测人脸图像的复杂度,并提高了人脸检测的准确率。进一步,终端将该多张第一人脸图像进行合并得到目标人脸图像,通过采用显著性检测该目标人脸图像以获得该当前对焦位置,该对焦位置为人眼位置,提高了人眼位置检测的时效性,更进一步,终端通过根据该当前对焦位置进行对焦,接收拍摄指令以获取该目标图像,可以快速且准确的对人眼进行对焦,从而提高了所拍摄的目标图像的人眼区域的清晰度。
参见图9,图9是本发明实施例提供的一种终端的结构示意图,本实施例中所描述的终端,包括:
获取单元701,用于获取当前图像。
处理单元702,用于对所述获取单元701获取的当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置。
对焦单元703,用于根据所述处理单元702得到的当前对焦位置进行对焦。
所述获取单元701,还用于接收拍摄指令以获取目标图像。
进一步地,该处理单元702具体用于:
对所述当前图像进行灰度处理以获得灰度图像;
对所述灰度图像进行人脸检测以检测出目标人脸图像;
对所述人脸图像进行显著性检测以获得所述当前对焦位置。
本发明实施例中,终端通过获取当前图像并对该当前图像进行处理以得到当前对焦位置,并根据该当前对焦位置进行对焦,根据拍摄指令获取该目标图像。由于当前对焦位置为人眼位置,因此可以快速且准确的对人眼进行对焦,从而提高了所拍摄的目标图像的人眼区域的清晰度。
请参见图10,图10是本发明另一实施例提供一种移动终端的结构示意图,如图10所示,该移动终端可以包括:
获取单元801,用于获取当前图像
处理单元802,用于对所述获取单元801获取的当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置;
对焦单元803,用于根据所述处理单元802得到的当前对焦位置进行对焦;
所述获取单元801还用于接收拍摄指令以获取目标图像;
初始化单元804,用于初始化训练样本的权值分布;
学习单元805,用于对训练样本进行学习以得到多个弱分类器;
计算单元806,用于计算所述学习单元805得到的每一所述弱分类器在所述训练样本上的分类误差率;
所述计算单元806,还用于根据所述分类误差率计算所述弱分类器的系数,所述系数表示每一所述弱分类器在所述强分类器中所占的权重;
更新单元807,用于根据所述计算单元806得到的系数更新所述训练样本中的权值分布并进行迭代计算,以得到所述强分类器,所述强分类器为每次迭代计算中加权分类误差率最小的所述分类器。
进一步地,该处理单元802具体用于:
对所述当前图像进行灰度处理以获得灰度图像;
对所述灰度图像进行人脸检测以检测出目标人脸图像;
对所述人脸图像进行显著性检测以获得所述当前对焦位置。
进一步地,该处理单元802具体用于:
按照预设缩小比例对所述灰度图像进行缩小以得到第一图像;
将所述第一图像进行多次划分以得到多张第二图像,每张所述第二图像包括多个子窗口;
根据积分图计算每张所述第二图像中每个子窗口的Haar特征值;
根据强分类器及每张所述第二图像得到的Haar特征值检测出多张第一人脸图像;
将所述多张第一人脸图像进行合并得到所述目标人脸图像。
进一步地,根据积分图计算每个子窗口的haar特征值具体包括:
根据所述积分图计算所述每个子窗口的像素值;
根据所述每个子窗口对应的像素值计算所述每个子窗口的Haar特征值。
本发明实施例中,终端通过获取当前图像并对该当前图像进行处理以得到当前对焦位置,并根据该当前对焦位置进行对焦,根据拍摄指令获取该目标图像。由于当前对焦位置为人眼位置,因此可以快速且准确的对人眼进行对焦,从而提高了所拍摄的目标图像的人眼区域的清晰度。
需要说明的是,图9及图10所示终端的具体工作流程已在前述方法流程部分做了详述,在此不再赘述。
另外,需要说明的是,图像的Haar特征值的计算过程与通过强分类器对人脸检测的步骤可以在不同的终端上进行实现。
参见图11,图11是本发明再一实施例提供的一种终端的结构示意图,本实施例中所描述的终端可以包括:一个或多个处理器903,一个或多个输入接口901,一个或多个输出接口902和存储器904。处理器903、输入接口901、输出接口902和存储器通过总线805连接。
输入接口901可以包括触控板、指纹采传感器(用于采集人物的指纹信息和指纹的方向信息)、麦克风等,输出接口902可以包括显示器(LCD等)、扬声器等。
处理器903可以是中央处理模块(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器904可以是高速RAM存储器,也可为非不稳定的存储器(non-volatilememory),例如磁盘存储器。存储器904用于存储一组程序代码,输入接口901、输出接口902和处理器903可以调用存储器904中存储的程序代码。
处理器903调用存储器904中的代码可以执行以下操作:
获取当前图像并对所述当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置;
根据所述当前对焦位置进行对焦;
接收拍摄指令以获取目标图像。
作为一种可选的实施方式,处理器903调用存储器904中的代码还可以执行以下操作:
对所述当前图像进行灰度处理以获得灰度图像;
对所述灰度图像进行人脸检测以检测出目标人脸图像;
对所述人脸图像进行显著性检测以获得所述当前对焦位置。
作为一种可选的实施方式,处理器903调用存储器904中的代码还可以执行以下操作:
按照预设缩小比例对所述灰度图像进行缩小以得到第一图像;
将所述第一图像进行多次划分以得到多张第二图像,每张所述第二图像包括多个子窗口;
根据积分图计算每张所述第二图像中每个子窗口的Haar特征值;
根据强分类器及每张所述第二图像得到的Haar特征值检测出多张第一人脸图像;
将所述多张第一人脸图像进行合并得到所述目标人脸图像。
作为一种可选的实施方式,处理器903调用存储器904中的代码还可以执行以下操作:
根据所述积分图计算所述每个子窗口的像素值;
根据所述每个子窗口对应的像素值计算所述每个子窗口的Haar特征值。
作为一种可选的实施方式,处理器903调用存储器904中的代码还可以执行以下操作:
初始化训练样本的权值分布,所述训练样本包括人脸样本和非人脸样本;
对训练样本进行学习以得到多个弱分类器;
计算每一所述弱分类器在所述训练样本上的分类误差率;
根据所述分类误差率计算所述弱分类器的系数,所述系数表示每一所述弱分类器在所述强分类器中所占的权重;
根据所述系数更新所述训练样本中的权值分布并进行迭代计算,以得到所述强分类器,所述强分类器为每次迭代计算中加权分类误差率最小的所述分类器。
本发明实施例中,终端可以获取当前图像并对该当前图像进行处理以得到当前对焦位置,该当前对焦位置为人眼位置;根据该当前对焦位置对目标图像进行对焦;接收拍摄指令以获取该目标图像,可以快速且准确的对人眼进行对焦,从而提高了所拍摄图像的清晰度。
具体实现中,本发明实施例中所描述的处理器903、输入接口901、输出接口902可执行本发明实施例提供的拍照方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的终端的实现方式,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
此外,在本申请所提供的几个实施例中,应该理解到,所揭露的、终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例终端中的单元可以根据实际需要进行合并、划分和删减。以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种拍照方法,其特征在于,包括:
获取当前图像并对所述当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置;
根据所述当前对焦位置进行对焦;
接收拍摄指令以获取目标图像。
2.根据权利要求1所述的方法,其特征在于,对所述当前图像进行处理以得到当前对焦位置,包括:
对所述当前图像进行灰度处理以获得灰度图像;
对所述灰度图像进行人脸检测以检测出目标人脸图像;
对所述目标人脸图像进行显著性检测以获得所述当前对焦位置。
3.根据权利要求2所述的方法,其特征在于,对所述灰度图像进行人脸检测以检测出目标人脸图像,包括:
按照预设缩小比例对所述灰度图像进行缩小以得到第一图像;
将所述第一图像进行多次划分以得到多张第二图像,每张所述第二图像包括多个子窗口;
根据积分图计算每张所述第二图像中每个子窗口的Haar特征值;
根据强分类器及每张所述第二图像得到的Haar特征值检测出多张第一人脸图像;
将所述多张第一人脸图像进行合并得到所述目标人脸图像。
4.如权利要求2所述的方法,其特征在于,对所述目标人脸图像进行显著性检测以获得所述当前对焦位置具体包括:
对所述目标人脸图像进行离散余弦变换及负离散余弦变换以得到区域图像;
对比所述目标人脸图像及所述区域图像并结合先验知识得到所述当前对焦位置。
5.根据权利要求3或4所述的方法,其特征在于,根据强分类器及每张所述第二图像得到的Haar特征值检测出多张第一人脸图像之前,还包括:
初始化训练样本的权值分布,所述训练样本包括人脸样本和非人脸样本;
对训练样本进行学习以得到多个弱分类器;
计算每一所述弱分类器在所述训练样本上的分类误差率;
根据所述分类误差率计算所述弱分类器的系数,所述系数表示每一所述弱分类器在所述强分类器中所占的权值;
根据所述系数更新所述训练样本中的权值分布并进行迭代计算,以得到所述强分类器,所述强分类器为每次迭代计算中加权分类误差率最小的所述分类器。
6.一种终端,其特征在于,包括:
获取单元,用于获取当前图像;
处理单元,用于对所述获取单元获取的当前图像进行处理以得到当前对焦位置,所述当前对焦位置为人眼位置;
对焦单元,用于根据所述出处理单元得到的当前对焦位置进行对焦;
所述获取单元还用于接收拍摄指令以获取目标图像。
7.根据权利要求6所述的终端,其特征在于,所述处理单元具体用于:
对所述当前图像进行灰度处理以获得灰度图像;
对所述灰度图像进行人脸检测以检测出目标人脸图像;
对所述人脸图像进行显著性检测以获得所述当前对焦位置。
8.根据权利要求7所述的终端,其特征在于,所述处理单元具体用于:
按照预设缩小比例对所述灰度图像进行缩小以得到第一图像;
将所述第一图像进行多次划分以得到多张第二图像,每张所述第二图像包括多个子窗口;
根据积分图计算每张所述第二图像中每个子窗口的Haar特征值;
根据强分类器及每张所述第二图像得到的Haar特征值检测出多张第一人脸图像;
将所述多张第一人脸图像进行合并得到所述目标人脸图像。
9.根据权利要求7所述的终端,其特征在于,所述处理单元具体用于:
对所述目标人脸图像进行离散余弦变换及负离散余弦变换以得到区域图像;
对比所述目标人脸图像及所述区域图像并结合先验知识得到所述当前对焦位置。
10.根据权利要求8或9所述的终端,其特征在于,所述终端还包括:
初始化单元,用于初始化训练样本的权值分布;
学习单元,用于对训练样本进行学习以得到多个弱分类器;
计算单元,用于计算所述学习单元得到的每一所述弱分类器在所述训练样本上的分类误差率;
所述计算单元还用于根据所述分类误差率计算所述弱分类器的系数,所述系数表示每一所述弱分类器在所述强分类器中所占的权重;
更新单元,用于根据所述计算单元得到的系数更新所述训练样本中的权值分布并进行迭代计算,以得到所述强分类器,所述强分类器为每次迭代计算中加权分类误差率最小的所述分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710031746.2A CN106878614A (zh) | 2017-01-17 | 2017-01-17 | 一种拍摄方法及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710031746.2A CN106878614A (zh) | 2017-01-17 | 2017-01-17 | 一种拍摄方法及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106878614A true CN106878614A (zh) | 2017-06-20 |
Family
ID=59158308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710031746.2A Withdrawn CN106878614A (zh) | 2017-01-17 | 2017-01-17 | 一种拍摄方法及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106878614A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107734129A (zh) * | 2017-09-27 | 2018-02-23 | 广东欧珀移动通信有限公司 | 解锁控制方法及相关产品 |
CN108111768A (zh) * | 2018-01-31 | 2018-06-01 | 广东欧珀移动通信有限公司 | 控制对焦的方法、装置、电子设备及计算机可读存储介质 |
CN109905599A (zh) * | 2019-03-18 | 2019-06-18 | 信利光电股份有限公司 | 一种人眼对焦方法、装置及可读存储介质 |
CN110796828A (zh) * | 2019-10-31 | 2020-02-14 | 的卢技术有限公司 | 一种基于车联网寻找丢失人口的方法及其系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120147252A1 (en) * | 2010-12-10 | 2012-06-14 | Keiji Kunishige | Imaging device and af control method |
CN103327254A (zh) * | 2013-07-01 | 2013-09-25 | 厦门美图网科技有限公司 | 一种自动对焦方法及对焦系统 |
CN103493471A (zh) * | 2011-04-23 | 2014-01-01 | 奥林巴斯映像株式会社 | 摄像装置和摄像方法 |
CN105512630A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 近实时效应的人眼检测与定位方法 |
-
2017
- 2017-01-17 CN CN201710031746.2A patent/CN106878614A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120147252A1 (en) * | 2010-12-10 | 2012-06-14 | Keiji Kunishige | Imaging device and af control method |
CN103493471A (zh) * | 2011-04-23 | 2014-01-01 | 奥林巴斯映像株式会社 | 摄像装置和摄像方法 |
CN103327254A (zh) * | 2013-07-01 | 2013-09-25 | 厦门美图网科技有限公司 | 一种自动对焦方法及对焦系统 |
CN105512630A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 近实时效应的人眼检测与定位方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107734129A (zh) * | 2017-09-27 | 2018-02-23 | 广东欧珀移动通信有限公司 | 解锁控制方法及相关产品 |
CN108111768A (zh) * | 2018-01-31 | 2018-06-01 | 广东欧珀移动通信有限公司 | 控制对焦的方法、装置、电子设备及计算机可读存储介质 |
CN109905599A (zh) * | 2019-03-18 | 2019-06-18 | 信利光电股份有限公司 | 一种人眼对焦方法、装置及可读存储介质 |
CN110796828A (zh) * | 2019-10-31 | 2020-02-14 | 的卢技术有限公司 | 一种基于车联网寻找丢失人口的方法及其系统 |
CN110796828B (zh) * | 2019-10-31 | 2022-06-14 | 的卢技术有限公司 | 一种基于车联网寻找丢失人口的方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110602527B (zh) | 视频处理方法、装置及存储介质 | |
CN110163076B (zh) | 一种图像数据处理方法和相关装置 | |
EP2797053B1 (en) | Image compositing device and image compositing method | |
US8750573B2 (en) | Hand gesture detection | |
US8792722B2 (en) | Hand gesture detection | |
CN106803077A (zh) | 一种拍摄方法及终端 | |
CN109684980B (zh) | 自动阅卷方法及装置 | |
WO2020199611A1 (zh) | 活体检测方法和装置、电子设备及存储介质 | |
WO2021139475A1 (zh) | 一种表情识别方法及装置、设备、计算机可读存储介质、计算机程序产品 | |
CN112036331B (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN112200062A (zh) | 一种基于神经网络的目标检测方法、装置、机器可读介质及设备 | |
CN106878614A (zh) | 一种拍摄方法及终端 | |
WO2020248848A1 (zh) | 智能化异常细胞判断方法、装置及计算机可读存储介质 | |
CN111950723A (zh) | 神经网络模型训练方法、图像处理方法、装置及终端设备 | |
CN110929805A (zh) | 神经网络的训练方法、目标检测方法及设备、电路和介质 | |
CN110136198A (zh) | 图像处理方法及其装置、设备和存储介质 | |
CN111126347B (zh) | 人眼状态识别方法、装置、终端及可读存储介质 | |
CN109657543A (zh) | 人流量监控方法、装置及终端设备 | |
EP3058513A1 (en) | Multi-color channel detection for note recognition and management | |
CN108596070A (zh) | 人物识别方法、装置、存储介质、程序产品和电子设备 | |
CN115620054A (zh) | 一种缺陷分类方法、装置、电子设备及存储介质 | |
CN107424125A (zh) | 一种图像虚化方法及终端 | |
CN109376618B (zh) | 图像处理方法、装置及电子设备 | |
WO2011096010A1 (ja) | パターン認識装置 | |
CN107146203A (zh) | 一种图像虚化方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170620 |