CN117408868A - 图像处理方法及装置、电子设备、存储介质 - Google Patents
图像处理方法及装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN117408868A CN117408868A CN202210788685.5A CN202210788685A CN117408868A CN 117408868 A CN117408868 A CN 117408868A CN 202210788685 A CN202210788685 A CN 202210788685A CN 117408868 A CN117408868 A CN 117408868A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- processed
- area
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 238000004891 communication Methods 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 53
- 238000001514 detection method Methods 0.000 claims description 33
- 238000009877 rendering Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 27
- 238000003384 imaging method Methods 0.000 abstract description 21
- 230000003287 optical effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
Abstract
本公开是关于一种图像处理方法及装置、电子设备、存储介质。所述方法包括:识别待处理图像中的目标对象;对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域;基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。本公开能够可以模拟出专业相机浅景深像的成像效果,从而实现突出对焦平面的目标对象主体,提升了图像中的成像效果。
Description
技术领域
本公开涉及图像显示技术,尤其涉及一种图像处理方法及装置、电子设备、存储介质。
背景技术
目前,随着电子设备影像技术的发展,人们越来越依赖于移动终端拍摄照片,并且对移动终端的拍照效果要求也越来越高。浅景深效果是指只有对焦点附近清晰,前、后景物都是模糊的图像效果,浅景深效果可以非常好的突出拍摄主体,被广泛用于人像、特写等拍摄模式中。
相关技术中,电子设备的浅景深拍摄效果不佳,难以满足用户的使用需求。
发明内容
本公开提供一种图像处理方法及装置、电子设备、存储介质,至少能对电子设备所拍摄的图像中对焦平面之外的对象进行模糊处理。
根据本公开实施例的第一方面,提供一种图像处理方法,包括:
识别待处理图像中的目标对象;
对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域;
基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。
可选的,所述基于对焦深度信息和所述多个目标对象域的深度信息,对所述待处理图像进行模糊处理,包括:
确定所述待处理图像的场景深度图;
基于所述场景深度图确定所述多个目标对象区域的深度信息,以及所述待处理图像的对焦深度信息;
对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理。
可选的,所述对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理,包括:
根据所述对焦深度信息、所述待处理图像中的背景区域及所述目标对象区域的深度信息,确定所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域的模糊半径;
基于所述模糊半径对所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域进行相应的渲染。
可选的,所述确定所述待处理图像的场景深度图,包括:
获取拍摄所述待处理图像的设备上的至少一个拍摄单元的位置分布信息、所述至少一个拍摄单元的焦距信息,计算所述待处理图像的场景深度图。
可选的,所述将所述第一区域识别为多个目标对象区域,包括:
在所述第一区域内确定设定的单位像素区域,将所述单位像素区域中位于中心位置的像素点确定为中心像素点,并确定所述中心像素点的显示参数;
在所述中心像素点周围查找与所述中心像素点的显示参数相同的像素点;
基于所查找到与所述中心像素点的显示参数相同的像素点数量及分布位置,将所述第一区域确定为不同的联通域;将不同的联通域分别作为不同的目标对象区域。
可选的,在识别待处理图像中的目标对象之前,所述方法还包括:
对设定图像中的目标对象所在区域的像素点数据或对待处理图像中的目标对象所在部分区域的像素点数据进行标注,基于标注后的像素点数据进行检测网络训练,得到检测网络模型。
可选的,所述识别待处理图像中的目标对象,包括:
将所述待处理图像的所有像素点数据输入所述检测网络模型,通过所述检测网络模型识别出所述待处理图像中的所有目标对象。
可选的,所述联通域包括以下至少之一:
八连接联通域、四连接联通域、二连接联通域。
根据本公开实施例的第二方面,提供一种图像处理装置,包括:
第一识别单元,用于识别待处理图像中的目标对象;
第二识别单元,用于对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域;
渲染单元,用于基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。
可选的,所述渲染单元,包括:
第一确定子单元,用于确定所述待处理图像的场景深度图;
第二确定子单元,用于基于所述场景深度图确定所述多个目标对象区域的深度信息,以及所述待处理图像的对焦深度信息;
模糊处理子单元,用于对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理。
可选的,所述模糊处理子单元,还用于:
根据所述对焦深度信息、所述待处理图像中的背景区域及所述目标对象区域的深度信息,确定所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域的模糊半径;
基于所述模糊半径对所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域进行相应的渲染。
可选的,所述第一确定子单元,还用于:
获取拍摄所述待处理图像的设备上的至少一个拍摄单元的位置分布信息、所述至少一个拍摄单元的焦距信息,计算所述待处理图像的场景深度图。
可选的,所述第二识别单元,还用于:
在所述第一区域内确定设定的单位像素区域,将所述单位像素区域中位于中心位置的像素点确定为中心像素点,并确定所述中心像素点的显示参数;
在所述中心像素点周围查找与所述中心像素点的显示参数相同的像素点;
基于所查找到与所述中心像素点的显示参数相同的像素点数量及分布位置,将所述第一区域确定为不同的联通域;将不同的联通域分别作为不同的目标对象区域。
可选的,所述装置还包括:
训练单元,用于对设定图像中的目标对象所在区域的像素点数据或对待处理图像中的目标对象所在部分区域的像素点数据进行标注,基于标注后的像素点数据进行检测网络训练,得到检测网络模型。
可选的,所述第一识别单元,还用于:
将所述待处理图像的所有像素点数据输入所述检测网络模型,通过所述检测网络模型识别出所述待处理图像中的所有目标对象。
可选的,所述联通域包括以下至少之一:
八连接联通域、四连接联通域、二连接联通域。
根据本公开实施例的第三方面,提供一种电子设备,包括处理器和用于存储处理器可执行指令的存储器,所述处理器被配置为在调用存储器中的可执行指令时,能够执行所述的图像处理方法的步骤。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行所述的图像处理方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开的实施例中,通过图像中的多目标对象进行识别,并确定出图像的对焦平面,可以对对焦平面之外的背景区域及目标对象区域进行模糊化处理,可以模拟出专业相机浅景深像的成像效果,从而实现了突出对焦平面的目标对象,虚化了其背景区域及其他目标对象的效果,提升了图像中的成像效果,扩展了电子设备的图像处理手段,提升了电子设备的使用体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1为本公开实施例示出的一种图像处理方法的流程示意图;
图2为本公开实施例示出的联通域的示例示意图;
图3为本公开实施例示出的成像的景深及焦距示意图;
图4为本公开实施例示出的点状光源的成像示意图;
图5为本公开实施例示出的图像处理方法的流程示意图;
图6为本公开实施例示出的目标对象的联通域示意图;
图7为本公开实施例示出的目标对象区域优化前示意图;
图8为本公开实施例示出的目标对象区域优化后示意图;
图9为本公开实施例示出的图像处理装置的组成结构示意图;
图10是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1为本公开实施例示出的一种图像处理方法的流程示意图,如图1所示,本公开实施例的图像处理方法可以包括以下处理步骤:
步骤101,识别待处理图像中的目标对象。
本公开实施例中,待处理图像一般是指通过电子设备所拍摄的图像。目标对象可以包括人像,也可以包括特定对象如建筑物、植物、动物等,在本公开一些实施例中不作限定。为描述方便,以下以目标对象为人像为例进行说明。本领域技术人员应当理解,目标对象为其他对象如建筑物、动物、植物等情况时,本公开实施例的技术方案同样适用。
作为一种实现方式,本公开实施例的待处理图像可以是电子设备在人像模式下所拍摄的图像,该待处理图像中包括多个人像。多个人像中的一部分是电子设备所要对焦拍摄的,这些人像一般处于对焦平面上,也是拍摄最清晰的部分。而由于取景框较大的原因,一般在图像拍摄过程中,很难避免背景区域有其他的人像的情况,即一些无关的人像可能会存在于拍摄图像中。而在对图像进行模糊化处理的过程中,一般的处理是将所有的人像识别出来,然后仅对图像中的背景区域进行模糊化处理,以显示出专业相机如浅景深像的成像效果。一般不会对人像进行模糊化处理,这导致背景区域的人像也比较清晰,有时不易凸显出欲拍摄的人像,这导致包含有多人像的图像的观看体验不佳。
作为一种实现方式,对待处理图像中的目标对象进行识别,可以采用神经网络进行目标对象识别。
示例性地,对设定图像中的人像所在区域的像素点数据进行标注,基于标注后的像素点数据进行检测网络训练,得到检测网络模型。这里的设定图像可以是包括有人像的一系列图像,通过对图像中的人像区域进行标注,获取构成人像的像素点的相关显示特征,将标注后的像素点输入至检测网络模型中,以对检测网络模型进行训练,得到能对图像中人像像素点进行识别的配置参数,将这些配置参数赋予检测网络模型,即得到能检测图像中人像的检测网络模型。这样,即可以基于训练后的检测网络模型识别所述待处理图像中的人像区域。作为一种示例,这里的检测网络包括Unet等神经网络。本领域技术人员应当理解,Unet仅为示例,其他的神经网络模型如径向基神经网络模型、前馈神经网络模型、反馈神经网络模型等,也可以通过像素点显示数据训练后用于图像中的人像区域识别,这里不再赘述其实现细节。
作为一种示例,在对神经网络进行训练时,也可以直接将待处理图像中部分像素点数据作为训练数据进行神经网络相关参数的训练。即对待处理图像的相关区域如目标对象所在区域及非目标对象所在区域如背景区域进行数据标注,直接使用待处理图像的标注数据对神经网络的相关参数进行训练,而得到神经网络模型。这里,直接使用待处理图像的部分像素点数据进行神经网络训练,使神经网络模型对待处理对象的识别效果更佳。
本公开实施例中,检测网络模型可以在电子设备本地进行训练,如当电子设备具有较强的处理能力的情况下,可以从数据库中下载训练用的图像数据,或在本地拍摄训练的图像数据,进行检测网络模型的相关参数的训练,以得到较佳的检测网络模型。当然,电子设备也可以从指定的服务平台获取训练好的检测网络模型,以直接对待处理的图像进行目标对象的识别。本公开实施例不限定具体的实现方式。
步骤102,对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域。
本公开实施例中,对所述目标对象如人像所在的第一区域进行联通域划分,以便识别目标对象存在多少个联通域。作为一种示例,对所述目标对象如人像所在的第一区域进行联通域划分,可以包括:在所述第一区域内确定设定的单位像素区域,将所述单位像素区域中位于中心位置的像素点确定为中心像素点,并确定所述中心像素点的显示参数;在所述中心像素点周围查找与所述中心像素点的显示参数相同的像素点;基于所查找到与所述中心像素点的显示参数相同的像素点数量及分布位置,将所述第一区域确定为不同的联通域;将不同的联通域分别作为不同的目标对象区域。作为一种实现方式,如图2所示,将相互邻接的9像素作为设定的单位像素区域,中心像素点即为位于中心位置的像素点。
本公开实施例中,作为示例,所述联通域包括以下至少之一:八连接联通域、四连接联通域、二连接联通域。如图2所示,示出了设定的单位像素区域,相互邻接的9像素作为设定的单位像素区域,其中,中心像素点为阴影线标示的像素点。图2中的左图示出了四连接联通域的示例,设定的单位像素区域中,存在4个像素点与中心像素点的显示参数相同,这里的显示参数包括亮度、灰阶等级、对比度等参数。图2中的右图示出八连接联通域的示例,其中,设定的单位像素区域中,中心像素点周围的8个像素点与中心像素点的显示参数相同。二连接联通域表示,在设定的单位像素区域中,中心像素点周围的2个像素点与中心像素点的显示参数相同,本公开实施例中,在确定四连接联通域或二连接联通域的情况下,不仅需要确定中心像素点周围的显示参数相同的像素点的数量,还需要确定中心像素点周围的显示参数相同的像素点的分布情况,即将中心像素点周围的显示参数相同的像素点的数量及分布相同的区域确定为不同的目标对象区域。这里的目标对象区域表示存在目标对象如人像的连续区域。
步骤103,基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。
本公开实施例中,对焦深度信息即表示电子设备的相机拍摄图像时的对焦平面,特别是在人像模式下,其对目标对象如人像进行自动对焦,电子设备的相机一般会对较前的人像自动对焦。
作为一种实现方式,所述基于对焦深度信息和所述多个目标对象域的深度信息,对所述待处理图像进行模糊处理,可以包括:确定所述待处理图像的场景深度图;基于所述场景深度图确定所述多个目标对象区域的深度信息,以及所述待处理图像的对焦深度信息;对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理。
本公开实施例中,作为示例,确定所述待处理图像的场景深度图,可以包括:获取拍摄所述待处理图像的设备上的至少一个拍摄单元的位置分布信息、所述至少一个拍摄单元的焦距信息,计算所述待处理图像的场景深度图。这里的拍摄单元包括摄像头,摄像头的位置分布信息包括摄像头自身的位置坐标信息、摄像头之间的相对位置关系等。这里,通过在电子设备上设置多个摄像头,在对同一个对象进行拍摄成像过程中,可以确定所拍摄对象中的像素点与各摄像头之间的相对位置关系,再通过对同一个像素点的相对位置换算,即可确定出图像中各像素点的深度信息,即可确定出所述待处理图像的场景深度图。本领域技术人员应当理解,深度信息也可以通过单目相机的方式获得,或者通过其他的深度学习算法等进行推定等,这里不作限定。
本公开实施例中,可以基于所述场景深度图确定所述待处理图像的对焦平面,对所述对焦平面之外的场景及目标对象进行模糊处理。作为一种实现方式,对焦平面可以通过待处理图像的场景深度图来确定,即可确定摄像头在对图像拍摄时,其拍摄图像的焦点位置,该位置所处的竖直平面即对焦平面也即对焦信息。如图3、图4所示,示出了相机拍摄图像时,实际拍摄对象与成像后的图像的原理示意。当使用专业相机拍摄图像时,如果采用长焦或大光圈镜头,那么会得到景深较小的图片。对焦物体及其所在深度的其他物体会保持清晰,而前景和背景会有不同程度的模糊和虚化,这可以起到突出摄影主体的作用。其中,在被虚化的背景或前景中,点状光源往往由于其更高的能力密度,会在成像平面被虚化成为光斑。一般来说,如图4所示,点状光源的亮度越大,距离对焦平面越远,所形成的光斑半径也会越大。反之,点状光源的亮度越小,距离对焦平面越近,所形成的光斑半径也会越小。
本公开实施例中,对所述对焦平面之外的场景及目标对象进行模糊处理,可以包括:基于所述场景深度图确定所述待处理图像中的所述目标对象区域及背景区域的深度信息;根据所述对焦深度信息、所述待处理图像中的背景区域及所述目标对象区域的深度信息,确定所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域的模糊半径;基于所述模糊半径对所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域进行相应的渲染。这里,模糊半径是指,不同距离处的拍摄对象到对焦平面之间的距离,根据距离远近设置不同的模糊化程度,以此达到对图像背景的模糊化处理。本公开实施例中,除了对对焦平面上的人像区域不进行模糊处理之外,对于背景区域及对焦平面之外的其他人像区域及背景区域等均进行模糊处理。
以下通过一些可能的示例,进一步阐明本公开实施例的技术方案的本质。
当前由于电子设备如智能手机便携性与成本的要求,往往会采用尺寸较小的成像传感器,这导致智能手机等电子设备的相机很难拍摄出具有虚化效果的图片。因此,本公开实施例通过引入软件算法来对人像模式下的拍摄图像进行模拟物理虚化处理,以模拟专业相机的拍照效果。首先通过手机上的多摄系统或深度学习算法来计算出当前成像的图像场景的深度信息,即确定所拍摄图像的场景深度图。然后根据不同深度信息来计算出对焦平面外像素点所对应的模糊半径,最后根据各个像素点或像素区域所对应的模糊半径,生成具有虚化效果的图片。本公开实施例适用于手机人像模式的多人场景渲染处理,特别是对人像模式画面中同时出现多个人物的图像,进行模糊优化的处理效果更佳。为了更好的模拟浅景深光学镜头的成像效果,往往需要计算人像区域准确的深度图。但是在传统方法中,人像区域的深度信息填充往往无法对场景中出现的多个人像目标进行准确填充,出现物理上不同深度的人像场景,在深度图中表现相同。从而无法准确的识别成像主体,造成虚化渲染错误。本公开实施例能够准确对多个人像目标的深度进行准确渲染,从而完整模拟光学镜头的成像效果,提高人像模式在多人场景中的成像效果。
示例地,由于手机相机模组的物理限制,在手机摄影中的成像的景深往往比较大,画面中的所有物体都比较清晰。但是在一些摄影场景中,用户往往希望实现专业相机成像中的浅景深效果,即对拍摄主体保持清晰,将画面中的前景与背景模糊。为了在手机摄影中实现光学镜头中的浅景深效果,需要计算出画面中各个物体的相对深度,根据物体的不同深度,对画面中的物体进行渲染,从而模拟出光学镜头中的浅景深效果。
本公开实施例仅以手机为例进行说明,并非用于限定。本公开实施例的技术方案可以应用于所有携带摄像头的设备如监控设备、智能门锁、游戏机、相机、可穿戴设备等。
图5为本公开实施例示出的一种图像处理方法的流程示意图,如图5所示,本公开实施例的技术方案包括以下处理步骤:
步骤1:获取电子设备如手机拍摄的待处理的清晰图像,因为电子设备的相机成像景深比较浅,因此输入图像均为正常的清晰图像。这里,以待拍摄目标对象为人像为例进行说明。本领域技术人员应当理解,目标对象为动物、建筑物、植物等对象的情形,本公开实施例的技术方案也适用。为了模拟光学镜头的景深效果,需要计算图像的当前场景的深度信息。因此要求输入图像应该是经过标定之后的清晰主副摄图像。
步骤2:由于电子设备的相机人像模式中,最常见的拍摄主体是人像,为了准确模拟浅景深光学镜头的成像效果,需要准确计算场景物体的深度信息。因此需要对人像区域进行特殊处理,所以需要提取出图像中准确的人像区域。因此需要从输入图像中,逐像素准确检测出人像区域。作为一种实现方式,可以通过神经网络模型如Unet识别图像中的人像区域。本领域技术人员应当理解,利用包含有目标对象的图像进行Unet模型的训练是能够实现的,通过训练后的Unet,对电子设备所拍摄的图像进行目标对象如人像及非人像的识别是能够实现的。
步骤3:在拍摄图像中存在多人像的场景下,前述步骤2中所检测到的人像区域,往往会在检测区域中包括多个人像目标。但是在多人像的场景中,这些目标人像往往并不处于同一个深度平面,如果不对这些包括多人像的场景的图像进行人像联通区域的分割,很容易造成这些不同深度的人像主体深度计算错误,导致后续渲染错误。影响最终图像的成像观感。
通过在图像中确定设定的单位像素区域,可以确定具有不同标识信息的人像区域的响应区域图,每一个响应联通域对应一个标签值,即对于不同的联通域方式,分别设置不同的标识信息,以此来确定图像中的多个人像区域。本步骤是对人像响应区域进行联通域划分,并对每一个人物个体相应联通域赋一个唯一的标签值。光斑响应区域内像素点的联通域划分标准包括但不限于八连接联通域,四连接联通域如图2所示。联通域赋标签值的方法包括但不限于two-pass的方式,以及seed-fill的联通域判断方式等。作为示例,如图2所示,示出了设定的单位像素区域,相互邻接的9像素作为设定的单位像素区域,其中,中心像素点为阴影线标示的像素点。图2中的左图示出了四连接联通域的示例,设定的单位像素区域中,存在4个像素点与中心像素点的显示参数相同,这里的显示参数包括亮度、灰阶等级、对比度等参数。图2中的右图示出八连接联通域的示例,其中,设定的单位像素区域中,中心像素点周围的8个像素点与中心像素点的显示参数相同。二连接联通域表示,在设定的单位像素区域中,中心像素点周围的2个像素点与中心像素点的显示参数相同,本公开实施例中,在确定四连接联通域或二连接联通域的情况下,不仅需要确定中心像素点周围的显示参数相同的像素点的数量,还需要确定中心像素点周围的显示参数相同的像素点的分布情况,即将中心像素点周围的显示参数相同的像素点的数量及分布相同的区域确定为不同的目标对象区域。这里的目标对象区域表示存在目标对象如人像的连续区域。
对图像中的联通域划分后的结果如图6所示,图6中,对不同深度的两个人像进行了联通域划分,以此将图像中的人像确定为两个区域,如图6所示的白色区域,黑色区域表示非人像区域。
步骤4:为了准确的模拟真实浅景深镜头中的光学虚化效果,需要计算多人像的图像场景中的深度信息,因此该步骤是计算待处理图像中的深度信息。深度信息的计算可以采用现有的任何深度信息确定算法,如双目(multi-camera)视觉法、飞行时间法(time offly,tof)和结构光(structure light)法等。本公开实施例中,通过前述的深度信息算法,即可确定待处理图像的场景深度图,基于图像的场景深度图,即可确定图像中的任一像素点或像素区域的深度信息,例如可以确定待处理图像中的背景及目标对象区域的深度信息。作为一种示例,当某区域包含有多个深度信息的情况下,可以依据该区域的不同区域的深度信息及其面积,取其平均深度信息作为该区域的深度信息,或依据不同深度的区域的面积为其赋相应的权重值,将设有权重参数的深度计算值作为该区域的深度值等。
步骤5:由于相机标定缺陷以及深度计算算法的限制,很难在深度计算的过程中直接得到完全准确的深度图像。但是光学镜头中的景深又对深度信息的准度有着较高的要求。本公开实施例为了保证人像模式中人像区域,特别是人像边缘区域深度信息的准确度,将经过联通域识别与分割之后的人像区域引入到深度计算中,精细化人像区域的深度。由于在步骤2中多人场景的人像响应联通域已经被准确分割,所以可以准确计算出多人场景中的多个人像区域的深度信息。从而保证最终的虚化效果。
步骤6:基于步骤5输出的场景深度图,对图像中的物体按照其对应的深度值进行渲染。为了更好的模拟光学虚化效果,这里依然将步骤3中得到的准确分割后的多人场景人像响应区域作为参考。从而保证多人场景中对焦点所在的主体人像区域清晰的同时,保证非主体人像有着准确的渲染效果。本公开实施例中,对对焦平面之外的人像及背景均进行模糊化处理,模糊化程度依据背景或人像的模糊半径而确定。
步骤7:输出渲染处理后的图像。
如图7所示,为利用本公开实施例的技术方案优化处理前的图片示意图,很显然,目标对象中的较大的人像和背景区域中的较小的人像的清晰度之间并无本质上的差异,且目标对象的较大的人像的清晰度一般。如图8所示,经过本公开实施例的技术方案处理之后的图像,处于对焦平面的较大的人像更清晰,而处于背景区域的较小的人像,由于经过模糊化处理,其清晰度明显比较低,从而突出了图像中的处于对焦平面的目标对象如人像的显示效果。
图9为本公开实施例示出的图像处理装置的组成结构示意图,如图9所示,本公开实施例的图像处理装置包括:
第一识别单元90,用于识别待处理图像中的目标对象;
第二识别单元91,用于对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域;
渲染单元92,用于基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。
作为一种实现方式,所述渲染单元,包括:
第一确定子单元(图9中未示出),用于确定所述待处理图像的场景深度图;
第二确定子单元(图9中未示出),用于基于所述场景深度图确定所述多个目标对象区域的深度信息,以及所述待处理图像的对焦深度信息;
模糊处理子单元(图9中未示出),用于对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理。
作为一种实现方式,所述模糊处理子单元,还用于:
根据所述对焦深度信息、所述待处理图像中的背景区域及所述目标对象区域的深度信息,确定所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域的模糊半径;
基于所述模糊半径对所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域进行相应的渲染。
作为一种实现方式,所述第一确定子单元,还用于:
获取拍摄所述待处理图像的设备上的至少一个拍摄单元的位置分布信息、所述至少一个拍摄单元的焦距信息,计算所述待处理图像的场景深度图。
作为一种实现方式,所述第二识别单元91,还用于:
在所述第一区域内确定设定的单位像素区域,将所述单位像素区域中位于中心位置的像素点确定为中心像素点,并确定所述中心像素点的显示参数;
在所述中心像素点周围查找与所述中心像素点的显示参数相同的像素点;
基于所查找到与所述中心像素点的显示参数相同的像素点数量及分布位置,将所述第一区域确定为不同的联通域;将不同的联通域分别作为不同的目标对象区域。
在图9所示的图像处理装置的基础上,本公开实施例的图像处理装置还包括:
训练单元(图9中未示出),用于对设定图像中的目标对象所在区域的像素点数据或对待处理图像中的目标对象所在部分区域的像素点数据进行标注,基于标注后的像素点数据进行检测网络训练,得到检测网络模型。
作为一种实现方式,所述第一识别单元90,还用于:
将所述待处理图像的所有像素点数据输入所述检测网络模型,通过所述检测网络模型识别出所述待处理图像中的所有目标对象。
作为一种实现方式,所述联通域包括以下至少之一:
八连接联通域、四连接联通域、二连接联通域。
在示例性实施例中,第一识别单元90、第二识别单元91、渲染单元92、第一确定子单元、第二确定子单元、模糊处理子单元、训练单元等可以被一个或多个中央处理器(CPU,Central Processing Unit)、图形处理器(GPU,Graphics Processing Unit)、基带处理器(BP,Base Processor)、应用专用集成电路(ASIC,Application Specific IntegratedCircuit)、数字信号处理器(Digital Signal Processor,DSP)、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable LogicDevice)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)、通用处理器、控制器、微控制器(MCU,Micro Controller Unit)、微处理器(Microprocessor)、或其他电子元件实现。
在本公开实施例中,图7示出的图像处理装置中各个单元执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10为根据一示例性实施例示出的一种电子设备800的框图,如图10所示,电子设备800支持多屏输出,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如Wi-Fi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述实施例的图像处理方法的步骤。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由电子设备800的处理器820执行以完成上述实施例的图像处理方法的步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本公开实施例还记载了一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行前述实施例的图像处理方法的步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (18)
1.一种图像处理方法,其特征在于,所述方法包括:
识别待处理图像中的目标对象;
对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域;
基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。
2.根据权利要求1所述的方法,其特征在于,所述基于对焦深度信息和所述多个目标对象域的深度信息,对所述待处理图像进行模糊处理,包括:
确定所述待处理图像的场景深度图;
基于所述场景深度图确定所述多个目标对象区域的深度信息,以及所述待处理图像的对焦深度信息;
对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理。
3.根据权利要求2所述的方法,其特征在于,所述对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理,包括:
根据所述对焦深度信息、所述待处理图像中的背景区域及所述目标对象区域的深度信息,确定所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域的模糊半径;
基于所述模糊半径对所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域进行相应的渲染。
4.根据权利要求2所述的方法,其特征在于,所述确定所述待处理图像的场景深度图,包括:
获取拍摄所述待处理图像的设备上的至少一个拍摄单元的位置分布信息、所述至少一个拍摄单元的焦距信息,计算所述待处理图像的场景深度图。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述将所述第一区域识别为多个目标对象区域,包括:
在所述第一区域内确定设定的单位像素区域,将所述单位像素区域中位于中心位置的像素点确定为中心像素点,并确定所述中心像素点的显示参数;
在所述中心像素点周围查找与所述中心像素点的显示参数相同的像素点;
基于所查找到与所述中心像素点的显示参数相同的像素点数量及分布位置,将所述第一区域确定为不同的联通域;将不同的联通域分别作为不同的目标对象区域。
6.根据权利要求5所述的方法,其特征在于,在识别待处理图像中的目标对象之前,所述方法还包括:
对设定图像中的目标对象所在区域的像素点数据或对待处理图像中的目标对象所在部分区域的像素点数据进行标注,基于标注后的像素点数据进行检测网络训练,得到检测网络模型。
7.根据权利要求6所述的方法,其特征在于,所述识别待处理图像中的目标对象,包括:
将所述待处理图像的所有像素点数据输入所述检测网络模型,通过所述检测网络模型识别出所述待处理图像中的所有目标对象。
8.根据权利要求7所述的方法,其特征在于,所述联通域包括以下至少之一:
八连接联通域、四连接联通域、二连接联通域。
9.一种图像处理装置,其特征在于,所述装置包括:
第一识别单元,用于识别待处理图像中的目标对象;
第二识别单元,用于对所述目标对象所在的第一区域进行联通域划分,将所述第一区域识别为多个目标对象区域;
渲染单元,用于基于对焦深度信息和所述多个目标对象区域的深度信息,对所述待处理图像进行模糊处理。
10.根据权利要求9所述的装置,其特征在于,所述渲染单元,包括:
第一确定子单元,用于确定所述待处理图像的场景深度图;
第二确定子单元,用于基于所述场景深度图确定所述多个目标对象区域的深度信息,以及所述待处理图像的对焦深度信息;
模糊处理子单元,用于对所述对焦深度信息对应的目标对象区域之外的场景进行模糊处理。
11.根据权利要求10所述的装置,其特征在于,所述模糊处理子单元,还用于:
根据所述对焦深度信息、所述待处理图像中的背景区域及所述目标对象区域的深度信息,确定所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域的模糊半径;
基于所述模糊半径对所述对焦深度信息对应的目标对象区域之外的背景区域及所述目标对象区域进行相应的渲染。
12.根据权利要求10所述的装置,其特征在于,所述第一确定子单元,还用于:
获取拍摄所述待处理图像的设备上的至少一个拍摄单元的位置分布信息、所述至少一个拍摄单元的焦距信息,计算所述待处理图像的场景深度图。
13.根据权利要求9至12任一项所述的装置,其特征在于,所述第二识别单元,还用于:
在所述第一区域内确定设定的单位像素区域,将所述单位像素区域中位于中心位置的像素点确定为中心像素点,并确定所述中心像素点的显示参数;
在所述中心像素点周围查找与所述中心像素点的显示参数相同的像素点;
基于所查找到与所述中心像素点的显示参数相同的像素点数量及分布位置,将所述第一区域确定为不同的联通域;将不同的联通域分别作为不同的目标对象区域。
14.根据权利要求13所述的装置,其特征在于,所述装置还包括:
训练单元,用于对设定图像中的目标对象所在区域的像素点数据或对待处理图像中的目标对象所在部分区域的像素点数据进行标注,基于标注后的像素点数据进行检测网络训练,得到检测网络模型。
15.根据权利要求14所述的装置,其特征在于,所述第一识别单元,还用于:
将所述待处理图像的所有像素点数据输入所述检测网络模型,通过所述检测网络模型识别出所述待处理图像中的所有目标对象。
16.根据权利要求115所述的装置,其特征在于,所述联通域包括以下至少之一:
八连接联通域、四连接联通域、二连接联通域。
17.一种电子设备,包括处理器和用于存储处理器可执行指令的存储器,其特征在于,所述处理器被配置为在调用存储器中的可执行指令时,能够执行如权利要求1至8任一项所述的图像处理方法的步骤。
18.一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至8任一项所述的图像处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210788685.5A CN117408868A (zh) | 2022-07-04 | 2022-07-04 | 图像处理方法及装置、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210788685.5A CN117408868A (zh) | 2022-07-04 | 2022-07-04 | 图像处理方法及装置、电子设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117408868A true CN117408868A (zh) | 2024-01-16 |
Family
ID=89498669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210788685.5A Pending CN117408868A (zh) | 2022-07-04 | 2022-07-04 | 图像处理方法及装置、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117408868A (zh) |
-
2022
- 2022-07-04 CN CN202210788685.5A patent/CN117408868A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106651955B (zh) | 图片中目标物的定位方法及装置 | |
US9674395B2 (en) | Methods and apparatuses for generating photograph | |
CN109889724B (zh) | 图像虚化方法、装置、电子设备及可读存储介质 | |
CN108154465B (zh) | 图像处理方法及装置 | |
CN106557759B (zh) | 一种标志牌信息获取方法及装置 | |
CN107944367B (zh) | 人脸关键点检测方法及装置 | |
CN108154466B (zh) | 图像处理方法及装置 | |
CN109784164B (zh) | 前景识别方法、装置、电子设备及存储介质 | |
CN106503682B (zh) | 视频数据中的关键点定位方法及装置 | |
CN112219224A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112927122A (zh) | 水印去除方法、装置及存储介质 | |
CN105678296B (zh) | 确定字符倾斜角度的方法及装置 | |
CN108154090B (zh) | 人脸识别方法及装置 | |
CN106469446B (zh) | 深度图像的分割方法和分割装置 | |
CN110910304B (zh) | 图像处理方法、装置、电子设备及介质 | |
US11252341B2 (en) | Method and device for shooting image, and storage medium | |
CN117408868A (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN115641269A (zh) | 一种图像修补方法、装置及可读存储介质 | |
CN114390189A (zh) | 图像处理方法、装置、存储介质及移动终端 | |
CN115423692A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112883791A (zh) | 对象识别方法、对象识别装置及存储介质 | |
CN114244999A (zh) | 自动对焦的方法、装置、摄像设备及存储介质 | |
CN109447929B (zh) | 图像合成方法及装置 | |
CN115118950B (zh) | 图像处理方法及装置 | |
CN115953422B (zh) | 边缘检测方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |