CN112866655B - 图像处理方法和装置、电子设备、计算机可读存储介质 - Google Patents

图像处理方法和装置、电子设备、计算机可读存储介质 Download PDF

Info

Publication number
CN112866655B
CN112866655B CN201911102708.7A CN201911102708A CN112866655B CN 112866655 B CN112866655 B CN 112866655B CN 201911102708 A CN201911102708 A CN 201911102708A CN 112866655 B CN112866655 B CN 112866655B
Authority
CN
China
Prior art keywords
image
pixel
brightness
map
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911102708.7A
Other languages
English (en)
Other versions
CN112866655A (zh
Inventor
贾玉虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201911102708.7A priority Critical patent/CN112866655B/zh
Publication of CN112866655A publication Critical patent/CN112866655A/zh
Application granted granted Critical
Publication of CN112866655B publication Critical patent/CN112866655B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种图像处理方法和装置、电子设备、计算机可读存储介质。上述方法包括:获取拍摄待处理图像时,每个像素点组包括的像素点的亮度值,并根据亮度值获取目标亮度图;对目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定第一切分亮度图和第二切分亮度图中相互匹配的像素的相位差;将相互匹配的像素的相位差转换为对应的深度信息,并根据相互匹配的像素对应的深度信息生成目标深度图;根据目标深度图对待处理图像进行虚化处理。由于利用图像传感器中每个像素点组包括的像素点的亮度值来获取该相位差,将相位差转换为深度信息以对图像进行虚化处理,可以提高图像虚化处理的精确性。

Description

图像处理方法和装置、电子设备、计算机可读存储介质
技术领域
本申请涉及影像技术领域,特别是涉及一种图像处理方法和装置、电子设备、计算机可读存储介质。
背景技术
随着计算机技术的发展,图像处理方式越来越丰富。在采用大光圈摄像头进行图像拍摄时,可以得到焦点聚集在被拍摄主体上,而背景虚化的图像拍摄效果。在不具备大光圈摄像头的拍摄场景下,为了达到背景虚化的成像效果,常采用高斯模糊的方式对图像进行虚化处理,存在图像虚化的精确性较低的问题。
发明内容
本申请实施例提供一种图像处理方法、装置、电子设备、计算机可读存储介质,可以图像虚化处理的精确性。
一种图像处理方法,应用于电子设备,所述电子设备包括图像传感器,所述图像传感器包括阵列排布的多个像素点组,每个所述像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;所述方法包括:
获取拍摄所述待处理图像时,每个所述像素点组包括的像素点的亮度值,并根据所述亮度值获取目标亮度图;
对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差;
将所述相互匹配的像素的相位差转换为对应的深度信息,并根据所述相互匹配的像素对应的深度信息生成目标深度图;
根据所述目标深度图对所述待处理图像进行虚化处理。
一种图像处理装置,应用于电子设备,所述电子设备包括图像传感器,所述图像传感器包括阵列排布的多个像素点组,每个所述像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;包括:
亮度图获取模块,用于获取拍摄所述待处理图像时,每个所述像素点组包括的像素点的亮度值,并根据所述亮度值获取目标亮度图;
相位差确定模块,用于对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差;
深度图生成模块,用于将所述相互匹配的像素的相位差转换为对应的深度信息,并根据所述相互匹配的像素对应的深度信息生成目标深度图;
虚化处理模块,用于根据所述目标深度图对所述待处理图像进行虚化处理。
一种电子设备,所述电子设备包括存储器、处理器和图像传感器,所述图像传感器包括阵列排布的多个像素点组,每个所述像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
获取拍摄所述待处理图像时,每个所述像素点组包括的像素点的亮度值,并根据所述亮度值获取目标亮度图;
对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差;
将所述相互匹配的像素的相位差转换为对应的深度信息,并根据所述相互匹配的像素对应的深度信息生成目标深度图;
根据所述目标深度图对所述待处理图像进行虚化处理。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
获取拍摄所述待处理图像时,每个所述像素点组包括的像素点的亮度值,并根据所述亮度值获取目标亮度图;
对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差;
将所述相互匹配的像素的相位差转换为对应的深度信息,并根据所述相互匹配的像素对应的深度信息生成目标深度图;
根据所述目标深度图对所述待处理图像进行虚化处理。
上述图像处理方法和装置、电子设备、计算机可读存储介质,可以获取拍摄待处理图像时,传感器包括的每个像素点组包括的像素点的亮度值,根据亮度中获取目标亮度图,通过对目标亮度图进行切分得到第一切分亮度图和第二切分亮度图,由第一切分亮度图和第二切分亮度得到相互匹配像素的相位差,并转换为对应的深度信息生成目标深度图,根据目标深度对待处理图像进行虚化处理,可以提高图像虚化处理的精确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中图像传感器的一部分的结构示意图;
图2为一个实施例中像素点的结构示意图;
图3为一个实施例中图像传感器的内部结构示意图;
图4为一个实施例中像素点组上设置滤光片的示意图;
图5为一个实施例中图像处理方法的流程图;
图6为一个实施例中确定相互匹配的像素的相位差的流程图;
图7为一个实施例中对待处理图像进行虚化处理的流程图;
图8为一个实施例中对目标亮度图进行切分处理的流程图;
图9为一个实施例中生成第一切分亮度图和第二切分亮度图的示意图;
图10为一个实施例中的像素点组的示意图;
图11为一个实施例中子亮度图的示意图;
图12为一个实施例的图像处理装置的结构框图;
图13为一个实施例中电子设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分,或将第一参数与另一个参数区分。举例来说,在不脱离本申请的范围的情况下,可以将第一方向称为第二方向,且类似地,可将第二方向称为第一方向。第一方向和第二方向两者都是方向,但其不是同一方向。
在一个实施例中,本申请提供了一种成像组件。成像组件包括图像传感器。图像传感器可以为金属氧化物半导体元件(英文:Complementary Metal Oxide Semiconductor;简称:CMOS)图像传感器、电荷耦合元件(英文:Charge-coupled Device;简称:CCD)、量子薄膜传感器或者有机传感器等。
图1为一个实施例中图像传感器的一部分的结构示意图。图像传感器100包括阵列排布的多个像素点组Z,每个像素点组Z包括阵列排布的多个像素点D,每个像素点D对应一个感光单元。多个像素点包括M*N个像素点,其中,M和N均为大于或等于2的自然数。每个像素点D包括阵列排布的多个子像素点d。也就是每个感光单元可以由多个阵列排布的感光元件组成。其中,感光元件是一种能够将光信号转化为电信号的元件。在一个实施例中,感光元件可为光电二极管。本实施例中,每个像素点组Z包括2*2阵列排布的4个像素点D,每个像素点可包括2*2阵列排布的4个子像素点d。其中,每个像素点D包括2*2个光电二极管,2*2个光电二极管与2*2阵列排布的4个子像素点d对应设置。每个光电二极管用于接收光信号并进行光电转换,从而将光信号转换为电信号输出。每个像素点D所包括的4个子像素点d与同一颜色的滤光片对应设置,因此每个像素点D对应于一个颜色通道,比如红色R通道,或者绿色通道G,或者蓝色通道B。
如图2所示,以每个像素点D包括子像素点1、子像素点2、子像素点3和子像素点4为例,可将子像素点1和子像素点2信号合并输出,子像素点3和子像素点4信号合并输出,从而构造成沿着第二方向(即竖直方向)的两个PD像素对,根据两个PD像素对的相位值可以确定像素点D内各子像素点沿第二方向的PD值(phase difference,相位差值)。将子像素点1和子像素点3信号合并输出,子像素点2和子像素点4信号合并输出,从而构造沿着第一方向(即水平方向)的两个PD像素对,根据两个PD像素对的相位值可以确定像素点D内各子像素点沿第一方向的PD值(相位差值)。
图3为一个实施例中成像设备的结构示意图。如图3所示,该成像设备包括透镜30、滤光片32和成像组件34。透镜30、滤光片32和成像组件34依次位于入射光路上,即透镜30设置在滤光片32之上,滤光片32设置在成像组件34上。
成像设备包括图3中的图像传感器。图像传感器包括阵列排布的多个像素点组Z,每个像素点组Z包括阵列排布的多个像素点D,每个像素点D对应一个感光单元,每个感光单元可以由多个阵列排布的感光元件组成。本实施例中,每个像素点D包括2*2阵列排布的4个子像素点d,每个子像素点d对应一个光点二极管342,即2*2个光电二极管342与2*2阵列排布的4个子像素点d对应设置。
滤光片32可包括红、绿、蓝三种,分别只能透过红色、绿色、蓝色对应波长的光线。一个像素点D所包括的4个子像素点d与同一颜色的滤光片对应设置。在其他实施例中,滤光片也可以是白色,方便较大光谱(波长)范围的光线通过,增加透过白色滤光片的光通量。
透镜30用于接收入射光,并将入射光传输给滤光片32。滤光片32对入射光进行滤波处理后,将滤波处理后的光以像素为基础入射到成像组件34上。
成像组件34包括的图像传感器中的感光单元通过光电效应将从滤光片32入射的光转换成电荷信号,并生成与电荷信号一致的像素信号,经过一系列处理后最终输出图像。
由上文说明可知,图像传感器包括的像素点与图像包括的像素是两个不同的概念,其中,图像包括的像素指的是图像的最小组成单元,其一般由一个数字序列进行表示,通常情况下,可以将该数字序列称为像素的像素值。本申请实施例对“图像传感器包括的像素点”以及“图像包括的像素”两个概念均有所涉及,为了方便读者理解,在此进行简要的解释。
图4为一个实施例中像素点组上设置滤光片的示意图。像素点组Z包括按照两行两列的阵列排布方式进行排布的4个像素点D,其中,第一行第一列的像素点的颜色通道为绿色,也即是,第一行第一列的像素点上设置的滤光片为绿色滤光片;第一行第二列的像素点的颜色通道为红色,也即是,第一行第二列的像素点上设置的滤光片为红色滤光片;第二行第一列的像素点的颜色通道为蓝色,也即是,第二行第一列的像素点上设置的滤光片为蓝色滤光片;第二行第二列的像素点的颜色通道为绿色,也即是,第二行第二列的像素点上设置的滤光片为绿色滤光片。
图5为一个实施例中图像处理方法的流程图。本实施例中的图像处理方法,以应用于包含图3中的成像设备的电子设备为例进行描述。如图5所示,该对焦方法包括步骤502至步骤508。
步骤502,拍摄待处理图像时,获取每个像素点组包括的像素点的亮度值,并根据亮度值获取目标亮度图。
通常情况下,图像传感器的像素点的亮度值可以由该像素点包括的子像素点的亮度值来进行表征。成像设备可以根据每个像素点组包括的像素点中子像素点的亮度值来获取该目标亮度图。其中,子像素点的亮度值是指该子像素点对应的感光元件接收到的光信号的亮度值。
如上文,图像传感器包括的子像素点是一种能够将光信号转化为电信号的感光元件,因此,可以根据子像素点输出的电信号来获取该子像素点接收到的光信号的强度,根据子像素点接收到的光信号的强度即可得到该子像素点的亮度值。
本申请实施例中的目标亮度图用于反映图像传感器中子像素点的亮度值,该目标亮度图可以包括多个像素,其中,目标亮度图中的每个像素的像素值均是根据图像传感器中子像素点的亮度值得到的。
待处理图像是由每个像素点组包括的像素点的亮度值经由图像处理器进行原始域中以及色彩空间中的图像数据处理后得到的,待处理图像可输出给显示器或存储于电子设备,以供用户观看或由其他处理器做进一步处理。
步骤504,对目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定第一切分亮度图和第二切分亮度图中相互匹配的像素的相位差。
在一个实施例中,成像设备可以沿列的方向(图像坐标系中的y轴方向)对该目标亮度图进行切分处理,在沿列的方向对目标亮度图进行切分处理的过程中,切分处理的每一分割线都与列的方向垂直。
在另一个实施例中,成像设备可以沿行的方向(图像坐标系中的x轴方向)对该目标亮度图进行切分处理,在沿行的方向对目标亮度图进行切分处理的过程中,切分处理的每一分割线都与行的方向垂直。
沿列的方向对目标亮度图进行切分处理后得到的第一切分亮度图和第二切分亮度图可以分别称为上图和下图。沿行的方向对目标亮度图进行切分处理后得到的第一切分亮度图和第二切分亮度图可以分别称为左图和右图。
其中,“相互匹配的像素”指的是由像素本身及其周围像素组成的像素矩阵相互相似。例如,第一切分亮度图中像素a和其周围的像素组成一个3行3列的像素矩阵,该像素矩阵的像素值为:
Figure GDA0003687653600000041
第二切分亮度图中像素b和其周围的像素也组成一个3行3列的像素矩阵,该像素矩阵的像素值为:
Figure GDA0003687653600000042
由上文可以看出,这两个矩阵是相似的,则可以认为像素a和像素b相互匹配。判断像素矩阵是否相似的方式很多,通常可对两个像素矩阵中的每个对应像素的像素值求差,再将求得的差值的绝对值进行相加,利用该相加的结果来判断像素矩阵是否相似,也即是,若该相加的结果小于预设的某一阈值,则认为像素矩阵相似,否则,则认为像素矩阵不相似。
例如,对于上述两个3行3列的像素矩阵而言,可以分别将1和2求差,将15和15求差,将70和70求差,……,再将求得的差的绝对值相加,得到相加结果为3,该相加结果3小于预设的阈值,则认为上述两个3行3列的像素矩阵相似。
另一种判断像素矩阵是否相似的方式是利用sobel卷积核计算方式或者高拉普拉斯计算方式等方式提取其边缘特征,通过边缘特征来判断像素矩阵是否相似。
成像设备可以根据相互匹配的像素在第一切分亮度图和第二切分亮度图中的位置差值获取相互匹配的像素的相位差。位置差异指的是,相互匹配的像素中位于第一切分亮度图中的像素的位置和位于第二切分亮度图中的像素的位置的差异。如上述举例,相互匹配的像素a和像素b的位置差异指的是像素a在第一切分亮度图中的位置和像素b在第二切分亮度图中的位置的差异。
相互匹配的像素分别对应于从不同方向射入镜头的成像光线在图像传感器中所成的不同的像。例如,第一切分亮度图中的像素a与第二切分亮度图中的像素b相互匹配。
由于相互匹配的像素分别对应于从不同方向射入镜头的成像光线在图像传感器中所成的不同的像,因此,根据相互匹配的像素的位置差异,即可确定该相互匹配的像素的相位差。
步骤506,将相互匹配的像素的相位差转换为对应的深度信息,并根据相互匹配的像素对应的深度信息生成目标深度图。
电子设备根据相互匹配的像素的相位差确定相互匹配的像素所对应的深度信息,具体地,电子设备可以根据相互匹配的像素的相位差确定该相互匹配的像素对应的离焦值,根据摄像头成像原理及该离焦值可以转换得到该相互匹配的像素所对应的深度信息。
通常,相互匹配的像素的相位差越小,则说明该相互匹配的像素与第一摄像头的合焦位置的距离越小,也就是说该相互匹配的像素所对应的离焦值越小。相位差与离焦值之间的对应关系可以通过标定得到。离焦值与相位差之间的对应关系为:defocus=PD*slope(DCC),其中,DCC(Defocus Conversion Coefficient,离焦系数)由标定得到;slope为斜率函数;PD为相位差。
基于几何光学的牛顿公式,有:
Figure GDA0003687653600000051
其中,depth为像素所对应的深度信息,f为第一摄像头所采用的镜头的焦距,shift为该像素为图像的对焦点时,像距与焦距的差值。像距为第一摄像头进行曝光拍摄时,透镜与图像传感器之间的距离。第一摄像头曝光得到目标亮度图时,透镜与图像传感器之间的距离即像距是确定的,第一摄像头曝光得到目标亮度图时像距与焦距的差值shiftcur是已知的,则像素为图像的对焦点时的shift=shiftcur+defocus;由此,可以将相互匹配的像素所对应的离焦值代入下列公式:
Figure GDA0003687653600000052
即可以得到相互匹配的像素所对应的深度信息。
目标深度图为最终确定的深度图像。电子设备根据相互匹配的像素的相位差确定相互匹配的像素的深度信息之后,可以根据相互匹配的像素对应的深度信息生成目标深度图。具体地,该目标深度图包含多个像素,每一个像素的像素值为一对相互匹配的像素所对应的深度信息。
步骤508,根据目标深度图对待处理图像进行虚化处理。
虚化处理是指通过对图像中的像素进行模糊处理,使得处理后的图像犹如采用大光圈镜头拍摄时在对焦平面清晰成像、而背景虚化的操作。
电子设备根据目标深度图对待处理图像进行虚化处理,具体地,电子设备可以从目标深度图中获取待处理图像中各个像素对应的深度信息,按照深度信息的大小确定不同像素的虚化强度,根据该虚化强度对像素进行虚化处理。其中,深度信息越大、则对应的虚化强度越高。
进一步地,电子设备还可以获取待处理图像中对焦点所对应的深度信息,根据对焦点的深度信息确定待处理图像的近景深和远景深,从而根据目标深度图对待处理图像中的深度信息大于远景深、或者深度信息大于近景深的像素进行虚化处理。
上述实施例提供的图像处理方法,可以获取拍摄待处理图像时,传感器包括的每个像素点组包括的像素点的亮度值,根据亮度中获取目标亮度图,通过对目标亮度图进行切分得到第一切分亮度图和第二切分亮度图,由于第一切分亮度图和第二切分亮度得到相互匹配像素的相位差,并转换为对应的深度信息生成目标深度图,根据目标深度对待处理图像进行虚化处理。由于利用图像传感器中每个像素点组包括的像素点的亮度值来获取该相位差,将相位差转换为深度信息以对图像进行虚化处理,图像虚化处理的效果更加接近于大光圈拍摄的效果,可以提高图像虚化处理的精确性。
在一个实施例中,上述图像传感器配置于电子设备的前置摄像头,该图像处理方法中根据目标深度图对待处理图像进行虚化处理,包括:获取待处理图像中除人脸区域之外的背景区域;根据目标深度图对待处理图像的背景区域进行虚化处理。
目前,常用的电子设备的深度信息获取需要两个摄像头的支持,而受限于电子设备的前置区域的面积,电子设备的前置区域往往只能配置单个摄像头,导致前置摄像头采集的图像无法获得对应的深度信息。本申请实施例可以提供一种将上述图像传感器配置于前置摄像头的电子设备,从而电子设备通过前置摄像头拍摄图像,可以根据图像传感器采集的每一个像素点组包括的像素点的亮度值获取目标亮度图,根据目标亮度图计算相位差以转换为对应的深度信息,从而根据深度信息对图像进行处理,可以在不增加电子设备的摄像头占用面积的同时提供图像的深度信息。
电子设备的前置摄像头多用于进行人脸自拍,在本实施例中,电子设备可以获取待处理图像的人脸区域,根据目标深度对待处理图像中除人脸区域之外的背景区域进行虚化处理。具体地,电子设备可以通过人脸匹配、目标点检测等方式确定待处理图像中的人脸区域,从待处理图像中获取除人脸区域之外的背景区域,根据目标深度图对待处理图像的背景区域进行虚化处理,而不对人脸区域进行处理。可选地,在一些实施例中,电子设备还可以对人脸区域进行清晰度增强处理,可以优化图像的处理效果。
通过将上述图像传感器配置于电子设备的前置摄像头,根据图像传感器采集的各个像素点的亮度值获取目标亮度图,根据目标亮度图确定待处理图像的相位差并转换为深度信息,对待处理图像中除人脸区域之外的背景区域进行虚化处理,可以快速确定拍摄的对焦主体,提高虚化处理的准确性和效率。
图6为一个实施例中确定相互匹配的像素的相位差的流程图。如图6所示,在一个实施例中,提供的图像处理方法中步骤504可以包括:
步骤602,识别待处理图像中的背景区域,根据背景区域确定相位差的计算方向;相位差的计算方向为第一方向或第二方向,第一方向和第二方向成预设夹角。
背景区域是指待处理图像中除拍摄主体之外的区域。具体地,电子设备可以采用可检测图像的背景区域的算法模型对待处理图像进行检测,得到待处理图像的背景区域;也可以通过主体检测模型识别待处理图像中的拍摄主体,将待处理图像中除拍摄主体之外的区域确定为背景区域。
电子设备根据背景区域确定相位差的计算方法,可选地,电子设备可以识别背景区域所对应的场景类型,根据场景类型确定相位差的计算方向;也可以识别背景区域所对应的纹理方向,根据纹理方向确定相位差的计算方向;还可以分别计算背景区域在第一方向的相位差和在第二方向的相位差,并获取对应于第一方向的相位差的置信度和对应于第二方向的相位差的置信度,将置信度高的相位差对应的方向确定为相位差的计算方向。
第一方向和第二方向可成预设夹角,该预设夹角可为除0度、180度和360度外的任意角度。本实施例中,第一方向的相位差值是指水平方向上的相位差值。第二方向的相位差值是指竖直方向上的相位差值。
步骤604,根据相位差的计算方向对目标亮度图进行切分处理,得到第一切分亮度图和第二切分亮度图。
电子设备根据相位差的计算方向对目标亮度图进行切分处理,具体地,当相位差的计算方向为第一方向时,电子设备可以沿列的方向(图像坐标系中的y轴方向)逐行对该目标亮度图进行切分处理,在沿列的方向对目标亮度图进行逐行切分处理的过程中,切分处理时的每一分割线都与列的方向垂直;当相位差的计算方向为第二方向时,可以沿行的方向(图像坐标系中的x轴方向)逐列对该目标亮度图进行切分处理,在沿行的方向对目标亮度图进行逐列切分处理的过程中,切分处理的每一分割线都与行的方向垂直。
沿列的方向对目标亮度图进行切分处理后得到的第一切分亮度图和第二切分亮度图可以分别称为上图和下图;沿行的方向对目标亮度图进行切分处理后得到的第一切分亮度图和第二切分亮度图可以分别称为左图和右图。
步骤606,根据第一切分亮度图和第二切分亮度图中相互匹配的像素的位置差异,确定相互匹配的像素的相位差。
按照第一方向切分得到的第一切分亮度包括的是偶数行的像素,第二切分亮度图包括的是奇数行的像素,第一切分亮度图中的像素a与第二切分亮度图中的像素b相互匹配,则根据相互匹配的像素a和像素b的相位差,可以确定第一方向的相位差值。
按照第一方向切分得到的第一切分亮度图包括的是偶数列的像素,第二切分亮度图包括的是奇数列的像素,第一切分亮度图中的像素a与第二切分亮度图中的像素b相互匹配,则根据相互匹配的像素a和像素b的相位差,可以确定第二方向的相位差值。
成像设备可以根据相互匹配的像素在第一切分亮度图和第二切分亮度图中的位置差值获取相互匹配的像素的相位差。位置差异指的是,相互匹配的像素中位于第一切分亮度图中的像素的位置和位于第二切分亮度图中的像素的位置的差异。如上述举例,相互匹配的像素a和像素b的位置差异指的是像素a在第一切分亮度图中的位置和像素b在第二切分亮度图中的位置的差异。
由于相互匹配的像素分别对应于从不同方向射入镜头的成像光线在图像传感器中所成的不同的像,因此,根据相互匹配的像素的位置差异,即可确定该相互匹配的像素的相位差。
通过识别待处理图像的背景区域,根据背景区域确定相位差的计算方向,从而将计算的相位差转换为深度信息,以对待处理图像进行虚化处理,可以提高确定的相位差的准确性,避免根据图像在两个方向的相位差的置信度输出的相位差受到整幅图像的置信度影响,可以优化图像虚化的效果。
在一个实施例中,根据背景区域确定相位差的计算方法,包括:对背景区域进行纹理检测,得到背景区域的纹理方向;当纹理方向为水平方向时,则确定相位差的计算方向为第二方向,第二方向为竖直方向;当纹理方向为竖直方向时,则确定相位差的计算方向为第一方向,第一方向为水平方向。
电子设备对背景区域进行纹理检测,可选地,电子设备可以采用训练的纹理检测模型对待处理图像的背景区域进行纹理检测,也可以通过边缘算子等算法对背景区域进行纹理检测。
在一个实施例中,提供的图像处理方法中还可以通过边缘算子检测背景区域中的总边缘数量、第一方向边缘点数量和第二方向边缘点数量;根据第一方向边缘点数量占总边缘点数量的第一比值,以及第二方向边缘点占总边缘点数量的第二比值,得到背景区域的纹理方向。
具体地,边缘算子可根据实际情况配置。边缘算子有离散梯度算子、Roberts算子、Laplacian算子、gradient算子和Sobel算子等。Sobel的水平方向的边缘算子为
Figure GDA0003687653600000081
竖直方向的边缘算子可为
Figure GDA0003687653600000082
可统计得出背景区域中的总边缘点数量,第一方向边缘点数量和第二方向边缘点数量,当第一方向边缘点占总边缘点数量的比值超过阈值时,则表明背景区域的纹理方向为水平方向,当第二方向边缘点数量占总边缘点数量的比值超过阈值时,则表明该背景区域的纹理方向为竖直方向。当第一方向边缘点占总边缘点数量的比值超过阈值,且第二方向边缘点数量占总边缘点数量的比值超过阈值,则表明该背景区域包含水平纹理和竖直纹理,电子设备可以从第一方向和第二方向中选择任一方向作为相位差的计算方向;可选地,在一些实施例中,电子设备还可以区分背景区域所处位置,针像素处于该水平纹理处,则根据竖直方向的相位差值确定深度信息,针对像素处于该竖直纹理处,则根据水平方向的相位差值确定像素的深度信息。
按照上述纹理检测方式,可以得出第一图像的纹理方向,当纹理方向为水平方向时,则确定相位差的计算方向为第二方向;当纹理方向为竖直方向时,则确定相位差的计算方向为第一方向;从而将计算的相位差转换为深度信息,以对待处理图像进行虚化处理,可以避免采用双摄像头进行测距,根据测距结果对图像进行虚化处理时,由于被拍摄物体的纹理方向与双摄像头的摆放方向一致,导致双摄像头分别采集的图像计算的视差不准确,进行影响图像虚化的准确性的问题,可以提高图像虚化处理的准确性。
图7为一个实施例中对待处理图像进行虚化处理的流程图。如图7所示,在一个实施例中,提供的图像处理方法中根据目标深度图对待处理图像进行虚化处理的过程,包括:
步骤702,根据目标深度图包含的深度信息确定待处理图像中各个像素对应的虚化系数,虚化系数与深度信息成正相关。
基于成像背景虚化的原理,距离摄像头越远,则虚化效果越明显;即深度信息与虚化系数成正相关。电子设备可以根据深度图包括的深度信息确定待处理图像中各个像素对应的虚化系数。可选地,电子设备可以预设有多个深度区间分别对应的虚化系数,按照目标深度图中对应的像素的深度信息获取相对应的虚化系数。在一些实施例中,电子设备可以结合高斯模糊,根据目标亮度图包括的深度信息确定待处理图像中像素所对应的虚化系数。
步骤704,按照各个像素对应的虚化系数对待处理图像进行虚化处理,得到中间图像。
具体地,电子设备根据各个像素对应的虚化系数,逐个像素对待处理图像中的像素进行虚化处理,得到中间图像。
步骤706,获取待处理图像中的对焦物体,生成对焦物体对应的掩膜图。
对焦物体是指在待处理图像中清晰成像的物体。具体地,电子设备可以获取待处理图像时,成像设备中镜头所对应的合焦位置,根据该合焦位置确定对焦物体的深度信息,将与对焦物体的深度信息的差值在预设范围内的像素确定为对焦物体包含的像素,从而生成对焦物体对应的掩膜图。可选地,掩膜图可以采用二值化掩膜图,即将对焦物体对应的像素值置为0;其他像素的像素值置为1;也可以将对焦物体对应的像素值置为1,其他像素的像素值置为0。
步骤708,基于掩膜图,对待处理图像与中间图像进行融合处理,得到目标图像。
电子设备基于掩膜图,对待处理图像与中间图像进行融合处理得到目标图像。目标图像包含未被虚化处理的对焦物体以及进行虚化处理的背景。
以掩膜图M中对焦物体对应的像素值为1;其他像素的像素值为0进行说明,记待处理图像为A,中间图像为B;电子设备可以对掩膜图M进行反相处理,得到掩膜图N,掩膜图N中对焦物体对应的像素值为0;其他像素的像素值为1;则目标图像C=A*M+B*N。
通过确定待处理图像中每个像素对应的虚化系数,根据虚化系数对对应的像素进行虚化处理,获得待处理图像中对焦物体的掩膜图,基于该掩膜图对待处理图像和中间图像进行融合,得到虚化处理后的目标图像,目标图像包含未被虚化处理的对焦物体以及进行虚化处理的背景。
图8为一个实施例中对目标亮度图进行切分处理,得到第一切分亮度图和第二切分亮度图的方式的流程图,可以应用于图1所示的成像设备中,如图8所示,该方式可以包括以下步骤:
步骤802,对目标亮度图进行切分处理,得到多个亮度图区域。
其中,每个亮度图区域包括目标亮度图中的一行像素,或者,每个亮度图区域包括目标亮度图中的一列像素。
可选地,成像设备可以沿行的方向对目标亮度图进行逐列切分,得到目标亮度图的多个像素列(也即是上文的亮度图区域)。
可选地,成像设备可以沿列的方向对目标亮度图进行逐行切分,得到目标亮度图的多个像素行(也即是上文的亮度图区域)。
步骤804,从多个亮度图区域中获取多个第一亮度图区域和多个第二亮度图区域。
其中,第一亮度图区域包括目标亮度图中偶数行的像素,或者,第一亮度图区域包括目标亮度图中偶数列的像素。
第二亮度图区域包括目标亮度图中奇数行的像素,或者,第二亮度图区域包括目标亮度图中奇数列的像素。
换句话说,在对目标亮度图进行逐列切分的情况下,成像设备可以将偶数列确定为第一亮度图区域,将奇数列确定为第二亮度图区域。
在对目标亮度图进行逐行切分的情况下,成像设备可以将偶数行确定为第一亮度图区域,将奇数行确定为第二亮度图区域。
步骤806,利用多个第一亮度图区域组成第一切分亮度图,利用多个第二亮度图区域组成第二切分亮度图。
参考图9,设目标亮度图包括6行6列像素,则在对目标亮度图进行逐列切分的情况下,成像设备可以将目标亮度图的第1列像素、第3列像素和第5列像素确定为第二亮度图区域,可以将目标亮度图的第2列像素、第4列像素和第6列像素确定为第一亮度图区域,而后,成像设备可以将第一亮度图区域进行拼接,得到第一切分亮度图T1,该第一切分亮度图T1包括目标亮度图的第2列像素、第4列像素和第6列像素,成像设备可以将第二亮度图区域进行拼接,得到第二切分亮度图T2,该第二切分亮度图T2包括目标亮度图的第1列像素、第3列像素和第5列像素。
在一个实施例中,每个像素点包括阵列排布的多个子像素点,根据亮度值获取目标亮度图,包括:对于每个像素点组,根据像素点组中每个像素点的相同位置处的子像素点的亮度值,获取像素点组对应的子亮度图;根据每个像素点组对应的子亮度图生成该目标亮度图。
其中,每个像素点的相同位置处的子像素点指的是在各像素点中排布位置相同的子像素点。
图10为一个实施例中的像素点组的示意图,如图10所示,该像素点组包括按照两行两列的阵列排布方式进行排布的4个像素点,该4个像素点分别为D1像素点、D2像素点、D3像素点和D4像素点,其中,每个像素点包括按照两行两列的阵列排布方式进行排布的4个子像素点,其中,子像素点分别为d11、d12、d13、d14、d21、d22、d23、d24、d31、d32、d33、d34、d41、d42、d43和d44。
如图10所示,子像素点d11、d21、d31和d41在各像素点中的排布位置相同,均为第一行第一列,子像素点d12、d22、d32和d42在各像素点中的排布位置相同,均为第一行第二列,子像素点d13、d23、d33和d43在各像素点中的排布位置相同,均为第二行第一列,子像素点d14、d24、d34和d44在各像素点中的排布位置相同,均为第二行第二列。
具体地,电子设备可以从每个像素点中确定相同位置处的子像素点,得到多个子像素点集合;对于每个子像素点集合,根据该子像素点集合中每个子像素点的亮度值,获取该子像素点集合对应的亮度值;根据每个子像素集合对应的亮度值生成子亮度图。进而电子设备可以按照图像传感器中各个像素点组的阵列排布方式,对各个像素点组对应的子亮度图进行拼接,得到目标亮度图。
在另一个实施例中,根据亮度值获取目标亮度图,包括步骤A1至A3:从每个像素点组中确定目标像素点,得到多个目标像素点;根据每个目标像素点包括的子像素点的亮度值生成每个像素点组对应的子亮度图;根据每个像素点组对应的子亮度图生成目标亮度图。
步骤A1,成像设备从每个像素点中确定相同位置处的子像素点,得到多个子像素点集合。
其中,每个子像素点集合包括的子像素点在像素点中的位置均相同。
成像设备分别从D1像素点、D2像素点、D3像素点和D4像素点中确定相同位置处的子像素点,可以得到4个子像素点集合J1、J2、J3和J4,其中,子像素点集合J1包括子像素点d11、d21、d31和d41,其包括的子像素点在像素点中的位置均相同,为第一行第一列,子像素点集合J2包括子像素点d12、d22、d32和d42,其包括的子像素点在像素点中的位置均相同,为第一行第二列,子像素点集合J3包括子像素点d13、d23、d33和d43,其包括的子像素点在像素点中的位置均相同,为第二行第一列,子像素点集合J4包括子像素点d14、d24、d34和d44,其包括的子像素点在像素点中的位置均相同,为第二行第二列。
可选地,电子设备可以从每个像素点组中确定颜色通道为绿色的像素点(也即是包括的滤光片为绿色滤光片的像素点),而后,将该颜色通道为绿色的像素点确定为目标像素点。
由于颜色通道为绿色的像素点感光性能较好,因此,将像素点组中颜色通道为绿色的像素点确定为目标像素点,在后续步骤中根据该目标像素点生成的目标亮度图质量较高。
步骤A2,对于每个子像素点集合,成像设备根据该子像素点集合中每个子像素点的亮度值,获取该子像素点集合对应的亮度值。
可选的,在步骤A2中,成像设备可以确定子像素点集合中每个子像素点对应的颜色系数,其中,该颜色系数是根据子像素点对应的颜色通道确定的。
例如,子像素点d11属于D1像素点,该D1像素点包括的滤光片可以为绿色滤光片,也即是,该D1像素点的颜色通道为绿色,则其包括的子像素点d11的颜色通道也为绿色,成像设备可以根据子像素点d11的颜色通道(绿色)确定该子像素点d11对应的颜色系数。
在确定了子像素点集合中每个子像素点对应的颜色系数之后,成像设备可以将子像素点集合中每个子像素点对应的颜色系数与亮度值相乘,得到子像素点集合中每个子像素点的加权亮度值。
例如,成像设备可以将子像素点d11的亮度值与子像素点d11对应的颜色系数相乘,得到该子像素点d11的加权亮度值。
在得到子像素点集合中每个子像素点的加权亮度值之后,成像设备可以将子像素点集合中每个子像素点的加权亮度值相加,得到该子像素点集合对应的亮度值。
例如,对于子像素点集合J1,可以基于下述第一公式计算该子像素点集合J1对应的亮度值。
Y_TL=Y_21*C_R+(Y_11+Y_41)*C_G/2+Y_31*C_B。
其中,Y_TL为该子像素点集合J1对应的亮度值,Y_21为子像素点d21的亮度值,Y_11为子像素点d11的亮度值,Y_41为子像素点d41的亮度值,Y_31为子像素点d31的亮度值,C_R为子像素点d21对应的颜色系数,C_G/2为子像素点d11和d41对应的颜色系数,C_B为子像素点d31对应的颜色系数,其中,Y_21*C_R为子像素点d21的加权亮度值,Y_11*C_G/2为子像素点d11的加权亮度值,Y_41*C_G/2为子像素点d41的加权亮度值,Y_31*C_B为子像素点d31的加权亮度值。
对于子像素点集合J2,可以基于下述第二公式计算该子像素点集合J2对应的亮度值。
Y_TR=Y_22*C_R+(Y_12+Y_42)*C_G/2+Y_32*C_B。
其中,Y_TR为该子像素点集合J2对应的亮度值,Y_22为子像素点d22的亮度值,Y_12为子像素点d12的亮度值,Y_42为子像素点d42的亮度值,Y_32为子像素点d32的亮度值,C_R为子像素点d22对应的颜色系数,C_G/2为子像素点d12和d42对应的颜色系数,C_B为子像素点d32对应的颜色系数,其中,Y_22*C_R为子像素点d22的加权亮度值,Y_12*C_G/2为子像素点d12的加权亮度值,Y_42*C_G/2为子像素点d42的加权亮度值,Y_32*C_B为子像素点d32的加权亮度值。
对于子像素点集合J3,可以基于下述第三公式计算该子像素点集合J3对应的亮度值。
Y_BL=Y_23*C_R+(Y_13+Y_43)*C_G/2+Y_33*C_B。
其中,Y_BL为该子像素点集合J3对应的亮度值,Y_23为子像素点d23的亮度值,Y_13为子像素点d13的亮度值,Y_43为子像素点d43的亮度值,Y_33为子像素点d33的亮度值,C_R为子像素点d23对应的颜色系数,C_G/2为子像素点d13和d43对应的颜色系数,C_B为子像素点d33对应的颜色系数,其中,Y_23*C_R为子像素点d23的加权亮度值,Y_13*C_G/2为子像素点d13的加权亮度值,Y_43*C_G/2为子像素点d43的加权亮度值,Y_33*C_B为子像素点d33的加权亮度值。
对于子像素点集合J4,可以基于下述第四公式计算该子像素点集合J4对应的亮度值。
Y_BR=Y_24*C_R+(Y_14+Y_44)*C_G/2+Y_34*C_B。
其中,Y_BR为该子像素点集合J4对应的亮度值,Y_24为子像素点d24的亮度值,Y_14为子像素点d14的亮度值,Y_44为子像素点d44的亮度值,Y_34为子像素点d34的亮度值,C_R为子像素点d24对应的颜色系数,C_G/2为子像素点d14和d44对应的颜色系数,C_B为子像素点d34对应的颜色系数,其中,Y_24*C_R为子像素点d24的加权亮度值,Y_14*C_G/2为子像素点d14的加权亮度值,Y_44*C_G/2为子像素点d44的加权亮度值,Y_34*C_B为子像素点d34的加权亮度值。
步骤A3,成像设备根据每个子像素集合对应的亮度值生成子亮度图。
其中,子亮度图包括多个像素,该子亮度图中每个像素与一个子像素集合相对应,每个像素的像素值等于对应的子像素集合所对应的亮度值。
图11为一个实施例中子亮度图的示意图。如图11所示,该子亮度图包括4个像素,其中,第一行第一列的像素与子像素集合J1相对应,其像素值为Y_TL,第一行第二列的像素与子像素集合J2相对应,其像素值为Y_TR,第二行第一列的像素与子像素集合J3相对应,其像素值为Y_BL,第二行第二列的像素与子像素集合J4相对应,其像素值为Y_BR。
其中,第二种获取目标亮度图的方式中,是根据每个像素点组中一个像素点的亮度值生成该像素点组的子亮度图;而第一种方式中,是根据每个像素点组中每个像素点的相同位置处的子像素点确定的子亮度图,采用第二种方式的运算量更低,而第一种方式相当准确性更高,在实际应用时,电子设备可以选择上述两个获取目标亮度图的方式中的一种。
应该理解的是,虽然图5-8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图5-8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图12为一个实施例的图像处理装置的结构框图。如图12所示,该图像处理装置包括亮度图获取模块1202、相位差确定模块1204、深度图生成模块1206和虚化处理模块1208。其中:
亮度图获取模块1202,用于拍摄待处理图像时,获取每个像素点组包括的像素点的亮度值,并根据亮度值获取目标亮度图。
相位差确定模块1204,用于对目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并确定第一切分亮度图和第二切分亮度图中相互匹配的像素的相位差。
深度图生成模块1206,用于将相互匹配的像素的相位差转换为对应的深度信息,并根据相互匹配的像素对应的深度信息生成目标深度图。
虚化处理模块1208,用于根据目标深度图对待处理图像进行虚化处理。
在一个实施例中,相位差确定模块1204还可以用于识别待处理图像中的背景区域,根据背景区域确定相位差的计算方向;相位差的计算方向为第一方向或第二方向,第一方向和第二方向成预设夹角;根据相位差的计算方向对目标亮度图进行切分处理,得到第一切分亮度图和第二切分亮度图;根据第一切分亮度图和第二切分亮度图中相互匹配的像素的位置差异,确定相互匹配的像素的相位差。
在一个实施例中,相位差确定模块1204还可用于对背景区域进行纹理检测,得到背景区域的纹理方向;当纹理方向为水平方向时,则确定相位差的计算方向为第二方向,第二方向为竖直方向;当纹理方向为竖直方向时,则确定相位差的计算方向为第一方向,第一方向为水平方向。
在一个实施例中,提供的图像处理装置还包括纹理检测模块1210,纹理检测模块1210用于通过边缘算子检测背景区域中的总边缘数量、第一方向边缘点数量和第二方向边缘点数量;根据第一方向边缘点数量占总边缘点数量的第一比值,以及第二方向边缘点占总边缘点数量的第二比值,得到背景区域的纹理方向。
在一个实施例中,虚化处理模块1208还可用于根据目标深度图包含的深度信息确定待处理图像中各个像素对应的虚化系数,虚化系数与深度正相关;按照各个像素对应的虚化系数对待处理图像进行虚化处理,得到中间图像;获取待处理图像中的对焦物体,生成对焦物体对应的掩膜图;基于掩膜图,对待处理图像与中间图像进行融合处理,得到目标图像。
在一个实施例中,相位差确定模块1204还可用于对目标亮度图进行切分处理,得到多个亮度图区域,每个亮度图区域包括目标亮度图中的一行像素,或者,每个亮度图区域包括目标亮度图中的一列像素;从多个亮度图区域中获取多个第一亮度图区域和多个第二亮度图区域,第一亮度图区域包括目标亮度图中偶数行的像素,或者,第一亮度图区域包括目标亮度图中偶数列的像素,第二亮度图区域包括目标亮度图中奇数行的像素,或者,第二亮度图区域包括目标亮度图中奇数列的像素;利用多个第一亮度图区域组成第一切分亮度图,利用多个第二亮度图区域组成第二切分亮度图。
在一个实施例中,亮度图获取模块1202还可以用于对于每个像素点组,根据像素点组中每个像素点的相同位置处的子像素点的亮度值,获取像素点组对应的子亮度图;根据每个像素点组对应的子亮度图生成目标亮度图。
在一个实施例中,亮度图获取模块1202还可以用于从每个像素点组中确定目标像素点,得到多个目标像素点;根据每个目标像素点包括的子像素点的亮度值生成每个像素点组对应的子亮度图;根据每个像素点组对应的子亮度图生成目标亮度图。
在一个实施例中,虚化处理模块1208还可以用于获取待处理图像中除人脸区域之外的背景区域;根据目标深度图对待处理图像的背景区域进行虚化处理。
上述图像处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将图像处理装置按照需要划分为不同的模块,以完成上述图像处理装置的全部或部分功能。
图13为一个实施例中电子设备的内部结构示意图。如图13所示,该电子设备包括通过系统总线连接的处理器和存储器、图像传感器。图像传感器包括阵列排布的多个像素点组,每个像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种图像处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。该电子设备可以是手机、平板电脑或者个人数字助理或穿戴式设备等。
本申请实施例中提供的图像处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在终端或服务器上运行。该计算机程序构成的程序模块可存储在终端或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当计算机可执行指令被一个或多个处理器执行时,使得处理器执行图像处理方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行图像处理方法。
本申请实施例所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (12)

1.一种图像处理方法,其特征在于,应用于电子设备,所述电子设备包括图像传感器,所述图像传感器包括阵列排布的多个像素点组,每个所述像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;所述方法包括:
拍摄待处理图像时,获取每个所述像素点组包括的像素点的亮度值,并根据所述亮度值获取目标亮度图;
对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并根据所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的位置差异确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差;相互匹配的像素分别对应于从不同方向射入镜头的成像光线在图像传感器中所成的不同的像;
将所述相互匹配的像素的相位差转换为对应的深度信息,并根据所述相互匹配的像素对应的深度信息生成目标深度图;
根据所述目标深度图对所述待处理图像进行虚化处理。
2.根据权利要求1所述的方法,其特征在于,所述对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并根据所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的位置差异确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差,包括:
识别所述待处理图像中的背景区域,根据所述背景区域确定相位差的计算方向;所述相位差的计算方向为第一方向或第二方向,所述第一方向和第二方向成预设夹角;
根据所述相位差的计算方向对所述目标亮度图进行切分处理,得到所述第一切分亮度图和第二切分亮度图;
根据所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的位置差异,确定所述相互匹配的像素的相位差。
3.根据权利要求2所述的方法,其特征在于,所述根据所述背景区域确定相位差的计算方向,包括:
对所述背景区域进行纹理检测,得到所述背景区域的纹理方向;
当所述纹理方向为水平方向时,则确定所述相位差的计算方向为所述第二方向,所述第二方向为竖直方向;
当所述纹理方向为竖直方向时,则确定所述相位差的计算方向为所述第一方向,所述第一方向为水平方向。
4.根据权利要求3所述的方法,其特征在于,所述对所述背景区域进行纹理检测,得到所述背景区域的纹理方向,包括:
通过边缘算子检测所述背景区域中的总边缘数量、第一方向边缘点数量和第二方向边缘点数量;
根据所述第一方向边缘点数量占总边缘点数量的第一比值,以及所述第二方向边缘点占所述总边缘点数量的第二比值,得到所述背景区域的纹理方向。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标深度图对所述待处理图像进行虚化处理,包括:
根据所述目标深度图包含的深度信息确定所述待处理图像中各个像素对应的虚化系数,所述虚化系数与所述深度正相关;
按照所述各个像素对应的虚化系数对所述待处理图像进行虚化处理,得到中间图像;
获取所述待处理图像中的对焦物体,生成所述对焦物体对应的掩膜图;
基于所述掩膜图,对所述待处理图像与所述中间图像进行融合处理,得到目标图像。
6.根据权利要求1所述的方法,其特征在于,所述对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,包括:
对所述目标亮度图进行切分处理,得到多个亮度图区域,每个所述亮度图区域包括所述目标亮度图中的一行像素,或者,每个所述亮度图区域包括所述目标亮度图中的一列像素;
从所述多个亮度图区域中获取多个第一亮度图区域和多个第二亮度图区域,所述第一亮度图区域包括所述目标亮度图中偶数行的像素,或者,所述第一亮度图区域包括所述目标亮度图中偶数列的像素,所述第二亮度图区域包括所述目标亮度图中奇数行的像素,或者,所述第二亮度图区域包括所述目标亮度图中奇数列的像素;
利用所述多个第一亮度图区域组成所述第一切分亮度图,利用所述多个第二亮度图区域组成所述第二切分亮度图。
7.根据权利要求1所述的方法,其特征在于,每个所述像素点包括阵列排布的多个子像素点,所述根据所述亮度值获取目标亮度图,包括:
对于每个所述像素点组,根据所述像素点组中每个像素点的相同位置处的子像素点的亮度值,获取所述像素点组对应的子亮度图;
根据每个所述像素点组对应的子亮度图生成所述目标亮度图。
8.根据权利要求1所述的方法,其特征在于,每个所述像素点包括阵列排布的多个子像素点;
所述根据所述亮度值获取目标亮度图,包括:
从每个所述像素点组中确定目标像素点,得到多个所述目标像素点;
根据每个所述目标像素点包括的子像素点的亮度值生成每个所述像素点组对应的子亮度图;
根据每个所述像素点组对应的子亮度图生成所述目标亮度图。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述图像传感器配置于所述电子设备的前置摄像头;
所述根据所述目标深度图对所述待处理图像进行虚化处理,包括:
获取所述待处理图像中除人脸区域之外的背景区域;
根据所述目标深度图对所述待处理图像的所述背景区域进行虚化处理。
10.一种图像处理装置,其特征在于,应用于电子设备,所述电子设备包括图像传感器,所述图像传感器包括阵列排布的多个像素点组,每个所述像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;所述图像处理装置包括:
亮度图获取模块,用于拍摄待处理图像时,获取每个所述像素点组包括的像素点的亮度值,并根据所述亮度值获取目标亮度图;
相位差确定模块,用于对所述目标亮度图进行切分处理得到第一切分亮度图和第二切分亮度图,并根据所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的位置差异确定所述第一切分亮度图和所述第二切分亮度图中相互匹配的像素的相位差;相互匹配的像素分别对应于从不同方向射入镜头的成像光线在图像传感器中所成的不同的像;
深度图生成模块,用于将所述相互匹配的像素的相位差转换为对应的深度信息,并根据所述相互匹配的像素对应的深度信息生成目标深度图;
虚化处理模块,用于根据所述目标深度图对所述待处理图像进行虚化处理。
11.一种电子设备,所述电子设备包括存储器、处理器和图像传感器,所述图像传感器包括阵列排布的多个像素点组,每个所述像素点组包括阵列排布的M*N个像素点;每个像素点对应一个感光单元,其中,M和N均为大于或等于2的自然数;所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至9中任一项所述的图像处理方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的方法的步骤。
CN201911102708.7A 2019-11-12 2019-11-12 图像处理方法和装置、电子设备、计算机可读存储介质 Active CN112866655B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911102708.7A CN112866655B (zh) 2019-11-12 2019-11-12 图像处理方法和装置、电子设备、计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911102708.7A CN112866655B (zh) 2019-11-12 2019-11-12 图像处理方法和装置、电子设备、计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN112866655A CN112866655A (zh) 2021-05-28
CN112866655B true CN112866655B (zh) 2022-11-15

Family

ID=75984494

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911102708.7A Active CN112866655B (zh) 2019-11-12 2019-11-12 图像处理方法和装置、电子设备、计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112866655B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838002A (zh) * 2021-08-25 2021-12-24 网易(杭州)网络有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN115314635B (zh) * 2022-08-03 2024-03-26 Oppo广东移动通信有限公司 用于离焦量确定的模型训练方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
WO2012132797A1 (ja) * 2011-03-31 2012-10-04 富士フイルム株式会社 撮像装置及び撮像方法
US9445018B2 (en) * 2014-05-01 2016-09-13 Semiconductor Components Industries, Llc Imaging systems with phase detection pixels
CN106973206B (zh) * 2017-04-28 2020-06-05 Oppo广东移动通信有限公司 摄像模组摄像处理方法、装置和终端设备
CN107133982B (zh) * 2017-04-28 2020-05-15 Oppo广东移动通信有限公司 深度图构建方法、装置及拍摄设备、终端设备

Also Published As

Publication number Publication date
CN112866655A (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
US10659766B2 (en) Confidence generation apparatus, confidence generation method, and imaging apparatus
CN112866549B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN112866511B (zh) 成像组件、对焦方法和装置、电子设备
KR101859458B1 (ko) 화상처리방법, 화상처리장치 및 촬상장치
CN112866542B (zh) 追焦方法和装置、电子设备、计算机可读存储介质
CN112866675B (zh) 深度图生成方法和装置、电子设备、计算机可读存储介质
CN112866655B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP6353233B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
CN112866510B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
JP6976754B2 (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
CN112866548B (zh) 相位差的获取方法和装置、电子设备
CN112866547B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
CN112866545B (zh) 对焦控制方法和装置、电子设备、计算机可读存储介质
CN112866554B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
CN112866544B (zh) 相位差的获取方法、装置、设备及存储介质
CN112862880B (zh) 深度信息获取方法、装置、电子设备和存储介质
CN112866674B (zh) 深度图获取方法、装置、电子设备和计算机可读存储介质
CN112866552B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
CN112866551B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
CN112866546B (zh) 对焦方法和装置、电子设备、计算机可读存储介质
CN112866543B (zh) 对焦控制方法和装置、电子设备、计算机可读存储介质
CN112866550B (zh) 相位差获取方法和装置、电子设备、计算机可读存储介质
CN112861835A (zh) 主体检测方法、装置、电子设备和计算机可读存储介质
JP6765829B2 (ja) 画像処理装置、画像処理装置の制御方法、撮像装置
JP2020038319A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant