CN109325905B - 图像处理方法、装置、计算机可读存储介质和电子设备 - Google Patents

图像处理方法、装置、计算机可读存储介质和电子设备 Download PDF

Info

Publication number
CN109325905B
CN109325905B CN201810994922.7A CN201810994922A CN109325905B CN 109325905 B CN109325905 B CN 109325905B CN 201810994922 A CN201810994922 A CN 201810994922A CN 109325905 B CN109325905 B CN 109325905B
Authority
CN
China
Prior art keywords
light effect
target object
light
image
pixel point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810994922.7A
Other languages
English (en)
Other versions
CN109325905A (zh
Inventor
罗玲玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201810994922.7A priority Critical patent/CN109325905B/zh
Publication of CN109325905A publication Critical patent/CN109325905A/zh
Application granted granted Critical
Publication of CN109325905B publication Critical patent/CN109325905B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Image Processing (AREA)

Abstract

本申请涉及一种图像处理方法、装置、计算机可读存储介质和电子设备。所述方法包括:获取图像,所述图像中包含至少一个目标物体;识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;基于所述至少一个目标物体的中心位置确定出光效叠加系数;生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域,可以根据光效模板对目标物体进行光效增强处理,根据用户的需求进行图像处理,提高了电子设备的用户黏度。

Description

图像处理方法、装置、计算机可读存储介质和电子设备
技术领域
本申请涉及计算机技术领域,特别是涉及一种图像处理方法、装置、计算机可读存储介质和电子设备。
背景技术
智能终端可以通过摄像头实时生成图像,还可以通过网络下载图像,或者通过外部设备导入图像。如果获取的图像不能满足个性化需求,用户还可以根据自己的喜好对获取的图像进行后期处理。例如,可以将图像的整体亮度进行调节,还可以对图像中的噪声进行弱化处理,或者对图像中的人像进行美颜处理。
然而,现有技术中,均是针对图像整体或某一区域进行特定化图像处理,模式较为固化、单一,处理效果并不理想。
发明内容
本申请实施例提供一种图像处理方法、装置、计算机可读存储介质和电子设备,可以提高用户黏度。
一种图像处理方法,所述方法包括:
获取图像,所述图像中包含至少一个目标物体;
识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;
基于所述至少一个目标物体的中心位置确定出光效叠加系数;
生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。
一种图像处理装置,所述装置包括:
获取单元,用于获取图像,所述图像中包含至少一个目标物体;
识别单元,用于识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;
确定单元,用于基于所述至少一个目标物体的中心位置确定出光效叠加系数;
叠加单元,用于生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
获取图像,所述图像中包含至少一个目标物体;
识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;
基于所述至少一个目标物体的中心位置确定出光效叠加系数;
生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如下步骤:
获取图像,所述图像中包含至少一个目标物体;
识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;
基于所述至少一个目标物体的中心位置确定出光效叠加系数;
生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。
上述图像处理方法、装置、计算机可读存储介质和电子设备,可以根据目标物体中心位置确定光效叠加系数,并基于光效模板叠加至目标物体的区域。解决了现有技术中图像处理模式固化且单一的问题,丰富了图像处理的应用范围,提升了用户黏度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中图像处理方法的应用环境图;
图2为一个实施例中图像处理方法的流程图;
图3为一个实施例中叠加光效模板方法流程图;
图4为另一个实施例中计算光效增强系数方法的流程图;
图5为一个实施例中光效增强模型的示意图;
图6为又一个实施例中光效增强处理方法的流程图;
图7为又一个实施例中人脸光效增强处理方法的流程图;
图8为又一个实施例中获取光效强度因子方法的流程图;
图9为一个实施例中图像处理装置的结构示意图;
图10为一个实施例中图像处理电路的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一客户端称为第二客户端,且类似地,可将第二客户端称为第一客户端。第一客户端和第二客户端两者都是客户端,但其不是同一客户端。
图1为一个实施例中图像处理方法的应用环境图。如图1所示,该应用环境图中包含用户102和终端104。终端104上可以对目标物体进行显示,用户102可以通过触发指令对终端104显示的目标物体中的任意区域进行操作。其中,触发指令可以是根据触控操作、物理按键操作、语音控制操作或晃动操作等发起的。终端104检测到触发指令之后,识别出图像中的至少一个目标物体进行识别,确定出所述至少一个目标物体的中心位置,并基于所述至少一个目标物体的中心位置确定出光效叠加系数,同时生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。其中,终端102为处于计算机网络最外围,主要用于输入用户信息以及输出处理结果的电子设备,例如可以是个人电脑、移动终端、个人数字助理、可穿戴电子设备等。可以理解的是,本申请提供的其他实施例中,该图像处理方法的应用环境可以只包含终端102。
图2为一个实施例中图像处理方法的流程图。如图2所示,该图像处理方法包括步骤202至步骤208。其中:
步骤202、获取图像,所述图像中包含至少一个目标物体;
以移动终端为例,获取图像可使用单摄像头或多摄像头获取一帧或多帧图像,该图像中可包含至少一个目标物体,目标物体可以是人像、动物及特定物体等,可选地,获取的图像中,可根据焦距不同分为前景区域及背景区域,而前景区域包含该至少一个目标物体。
步骤204、识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;
对目标物体进行识别,可以先识别出前景区域,再对所述前景区域的至少一个目标区域进行识别,具体地,可根据现有的图像识别技术进行识别,例如,当前前景区域包含的目标物体为人像时,可根据人像识别技术进行识别,当前前景区域既包含人像又包含非人像时,可根据目前图像识别技术中主流的深度神经网络技术对各个目标物体进行识别,例如,可识别出该目标物体的类型(男、女、宠物等)及各项生物参数(高矮胖瘦等)。图像识别技术在本申请实施例中不再累述。
步骤206、基于所述至少一个目标物体的中心位置确定出光效叠加系数;
光效叠加系数用于表示叠加的程度,即待叠加的光效模板与原始图像之间叠加程度(强度),具体地,光效叠加系数可以用百分比来表示叠加程度,如50%代表半叠加状态,100%代表全叠加状态,另,光效叠加系数也可以用具体的数值来表示,其中,数值越大,其叠加强度越高。
步骤208、生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。
光效是一种模拟光源效果的图像增强处理。具体地,光源效果可以是自然光、舞台光、摄影棚光、胶片光、轮廓光等效果。光源发出光之后,光线会以光源为中心向四周进行扩散,并且光线的强度会随着与光源距离的增大而减弱。
光效增强可以分为“摄影室灯光”、“轮廓光”、“舞台光”、“双色光”、“影调光”、“烛光”等不同种类的光效增强方式。
光效模板即在特定区域内进行特殊化图像处理(即光效增强处理)的模块,可以通过软件算法进行实现,也可以通过硬件DSP/GPU模块进行处理。
在本申请实施例中,光效可以为烛光光效,光效模板可以为烛光光效模板。其中,烛光光效的RGB可设置为暖黄色,亮度值可以设置为目标物体区域内平均亮度值的k倍,饱和度可以设置为固定值。
在一个实施例中,所述基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域,具体可以为:
S302、获取所述目标物体的中心像素点;
用户在拍摄的过程中场景往往是非常复杂的,特别是拍摄场景的光线复杂多变,而用户在拍摄过程中又无法改变拍摄场景,因此只能通过后期处理来达到用户所想要的效果。中心像素点即为光源中心对应的像素点。
目标物体是由若干个像素点构成的,这若干个像素点按照一定的规律排列成一个二维像素点矩阵。可以通过目标物体在每个横向方向或纵向方向上的像素点数量来表示目标物体的分辨率,像素点在目标物体中的位置也可以通过一个二维坐标进行表示。例如,图像的分辨率可以为330*640,则表示该图像在每一个横向方向上包含330个像素点,在每一个纵向方向上包含640个像素点。若以图像的最左下角的像素点为原点建立坐标系,则可以通过一个二维坐标对图像中的任意一个像素点的位置进行表示。
电子设备可以获取目标物体,并将目标物体进行显示。用户可以根据电子设备显示的目标物体来选择中心像素点。具体地,该目标物体可以是在电子设备拍摄图像的预览过程中的预览图像,也可以是电子设备拍摄的图像,或者是电子设备中预先存储的图像,在此不做限定。该触发指令可以是触控操作、物理按键的按压操作、语音控制操作或对移动终端的晃动操作等触发操作。触控操作有触摸点击操作、触摸长按操作、触摸滑动操作、多点触控操作等,其中,触摸长按操作是超过预设时长的触摸按压操作。
S304、根据所述光效叠加系数,计算所述目标物体中各个像素点的光效增强系数,所述光效增强系数与所述各个像素点至所述中心像素点的距离负相关;
可选地,光效增强系数由光效叠加系数决定,光效增强系数用于表示单个像素点的光效增强程度,可选地,光效增强程度可以以所述中心像素点为起点,向所述目标物体的横轴两端依次线性递减。例如,当目标物体为人脸时,光效模板叠加到该人脸区域,人脸宽度(横轴)方向由中间到两边,叠加强度逐渐减弱,高度方向(纵轴)的叠加强度可以从中间到两边逐渐减弱,也可以不变。可选地,光效增强系数可以为r,
其中k为常量,xmid为人脸框中心点的横坐标,w为人脸宽度,E为平均打光强度。
S306、根据所述光效增强系数对所述目标物体中的各个像素点进行光效增强处理。
计算出光效增强系数之后,可以根据光效增强系数对目标物体中的各个像素点进行光效增强处理。具体可以通过光效增强系数对目标物体进行叠加或乘积的方式进行光效增强处理。可以理解的是,图像中的像素值的取值范围一般为[0,255],因此在经过光效增强处理之后的目标物体的像素值不能大于255。
例如,假设目标物体为H0(x,y),光效增强模型为P(x,y),则通过叠加方式进行光效增强处理之后的目标物体H(x,y)就可以表示为H(x,y)=(1+P(x,y))H0(x,y),通过乘积的方式进行光效增强处理后的目标物体就可以表示为H(x,y)=P(x,y)H0(x,y)。可以理解的是,光效增强处理还可以是以其他方式实现的,在此不做限定。
具体地,可以根据光效增强模型计算各个像素点对应的RGB三通道的光效增强系数,则根据光效增强系数可以分别对各个像素点的RGB三通道进行光效增强处理。对各个通道进行不同强度的光效增强处理之后,得到的图像光效增强效果会一样。例如,获取的RGB三通道对应的光效增强系数中,R通道对应的光效增强系数大于G通道和B通道的光效增强系数,那么根据获取的光效增强系数对目标物体进行光效增强处理之后,得到的光效增强图像相对目标物体就是偏红光的效果。
在一个实施例中,所述计算所述目标物体中各个像素点的光效增强系数,具体可以为:
S402、根据所述中心像素点获取光效增强模型,所述光效增强模型是以所述中心像素点为光源模拟光线强弱变化的模型;
S404、根据所述光效增强模型计算所述至少一个目标物体中各个像素点的光效增强系数。
光效增强模型是指对目标物体进行光效增强处理的模型,该光效增强模型可以模拟光源发出的光线强弱变化的曲线。根据中心像素点获取光效增强模型,即将该中心像素点作为光源从而模拟各个像素点所在位置的光线强弱变化的模型。电子设备中可以预先存储光效增强参考模型,该光效增强参考模型可以是以图像中任意一个参考像素点为光源的模型。在获取到中心像素点后,可以获取中心像素点相对参考像素点的位移,并将光效增强参考模型进行位移之后得到该中心像素点对应的光效增强模型。
例如,电子设备中可以预先存储一个光效增强参考模型为P(x,y),该光效增强参考模型以坐标为(0,0)的参考像素点为光源的模型。假设选取的中心像素点为(x0,y0)的话,那么该中心像素点相对于参考像素点的位移为(-x0,-y0),则根据该位移得到的该中心像素点对应的光效增强模型就为P(x-x0,y-y0)。得到的光效增强模型P(x-x0,y-y0)中,就是以中心像素点(x0,y0)为光源的光效增强模型。
其中,构建光效增强模型,具体可以为:获取二维高斯分布函数,以中心像素点作为二维高斯分布函数的极大值点构建光效增强模型。
具体地,光效增强模型可以根据二维高斯分布函数进行构建。首先获取二维高斯分布函数如下:
其中,(x,y)表示目标物体中任一像素点的二维坐标,d为常量。上述函数是以(0,0)为极大值点的二维高斯分布函数,则根据中心像素点获取的光效增强模型即为将上述二维高斯分布函数进行位移,将上述二维高斯分布函数的极大值点移动到中心像素点的位置即可得到光效增强模型。假设中心像素点为(xo,yo),则得到的光效增强模型就可以表示为:
得到的光效增强模型中,中心像素点(xo,yo)就为极大值点,即在中心像素点(xo,yo)得到的光效增强系数Po(x,y)最大。根据上述常量d可以调节光效增强系数的强度。
图5为一个实施例中光效增强模型的示意图。如图3所示,该光效增强模型中目标物体的分辨率为50*50,中心像素点502的坐标值为(25,25)。可以看出,该中心像素点502对应的光效增强系数最大,目标物体中其他像素点对应的光效增强系数随着与中心像素点502的距离的增加而降低,离中心像素点502的距离越远的像素点,对应的光效增强系数越小。
目标物体可以是由RGB三通道构成的RGB图像,也可以是由一个通道构成的单色图像。若目标物体为RGB图像时,则目标物体中的每一个像素点都有对应的RGB三个通道值。若模拟的光源效果不同,光线产生的颜色可能会不同,则分别对RGB三通道的增强系数就会不同。例如,太阳光的颜色会偏黄、舞台光的颜色可以是五颜六色的。具体地,可以根据中心像素点分别获取RGB三通道对应的光效增强模型,并根据光效增强模型分别计算RGB三通道对应的光效增强系数。
在本申请提供的实施例中,光效增强模型可以模拟以中心像素点为光源的光线强弱的变化,则根据光效增强模型可以计算目标物体中各个像素点的光效增强系数。光效增强系数是对各个像素点进行光效增强处理的参数。离光源位置越远的位置,光线衰减越多。相应地,目标物体中离中心像素点距离越远的像素点,光效增强系数越小,根据获取的光效增强系数可以对各个像素点进行光效增强处理。
在一个实施例中,对目标物体中各个像素点进行光效增强处理,还可以包括:
步骤602,根据光效增强模型计算目标物体中各个像素点的光效增强系数;
可以理解的是,目标物体为一个二维像素点矩阵,可以以目标物体的最左下角像素点为原点建立坐标系,目标物体中的像素点就可以通过一个二维坐标进行表示。根据上述光效增强模型可以获取目标物体中各个像素点的光效增强系数,可以直接将各个像素点对应的坐标带入到上述光效增强模型中,得到像素点的光效增强系数。
步骤604,根据光效增强系数将目标物体中各个像素点进行光效增强处理。
具体地,用户一般比较关注目标物体(以人像区域为例)所在的区域,那么在对目标物体进行光效处理的时候,可以只针对人像区域进行光效处理,人像区域之外的区域可以不处理,也可以进行弱化处理。人像区域是指目标物体中人像所在的区域,可以先对目标物体中的人脸区域进行检测,并根据检测的人脸区域提取人像区域。
具体地,可以通过人脸检测算法获取目标物体的人脸区域,人脸检测算法可以包括基于几何特征的检测方法、特征脸检测方法、线性判别分析方法、基于隐马尔柯夫模型检测方法等,在此不做限定。一般地,通过图像采集装置采集图像的时候,可以同时获取图像对应的深度图,深度图中的像素点与图像中的像素点对应。深度图中的像素点表示图像中对应像素的深度信息,深度信息即为像素点对应的物体到图像采集装置的深度信息。例如,深度信息可以通过双摄像头进行获取,得到的像素点对应的深度信息可以为1米、2米或3米等。则获取人像区域具体可以包括:获取目标物体及对应的深度信息;检测目标物体中的人脸区域,并根据人脸区域和深度信息,获取目标物体中的人像区域。一般认为人像与人脸在同一垂直平面上,人像到图像采集装置的深度信息与人脸到图像采集装置的深度信息的取值在同一范围内。因此,在获取人脸区域后,可以从深度图中获取人脸区域对应的深度信息,然后根据人脸区域对应的深度信息可以获取人像区域对应的深度信息,然后根据人像区域对应的深度信息即可获取到目标物体中的人像区域。可以理解的是,还可以通过其他方法来获取人像区域,在本实施例中不进行限定。例如还可以通过人工智能、区域生长法等方法来获取人像区域。
检测到人像区域之后,可以根据光效增强系数对人像区域进行光效增强处理。除人像区域之外的其他区域可以不做处理,也可以进行弱化处理。例如,可以将其他区域的像素点的像素值都置为0,或将其他区域的像素点的亮度降低,也可以将其他区域的像素点进行虚化处理等,在本实施例中不做限定。
在一个实施例中,在获取目标物体的时候,可能会捕捉到路人的人像,可以根据人像的面积来判断是路人像和主人像。面积较大的人像被认为是主人像,面积较小的人像被认为是路人像,在对人像进行光效增强处理的时候,可以只针对主人像进行处理。则对人像区域进行处理的步骤还可以包括:
步骤702,获取人像区域的区域面积,将区域面积大于面积阈值的人像区域作为目标人像区域;
人像区域是由目标物体中的若干个像素点构成的,人像区域中包含的像素点的数量越多,表示人像区域的面积越大。则人像区域的面积可以通过其中包含的像素点数量进行表示,也可以通过人像区域中包含的像素点数量与目标物体的像素点总数量的比值进行标识,在本实施例中不做限定。
步骤704,根据光效增强系数将目标人像区域中的各个像素点进行光效增强处理。
将区域面积大于面积阈值的人像区域作为目标人像区域,并将目标人像区域进行光效增强处理,那么区域面积较小的人像区域就被弱化了,这样使得目标人像区域更加突出。
在本申请提供的实施例中,光效强度模型的光效处理强度是可以调节的,根据光效强度因子可以对根据光效强度模型获取的光效强度系数进行调节。即光效强度因子的取值不同,对应获取的各个像素点的光效强度系数不同。具体地,可以获取光效强度因子,根据光效强度因子和中心像素点获取光效增强模型,该光效强度因子为影响光效增强处理强度的参数。
对目标物体进行光效增强处理,会对目标物体的亮度进行提高。假设目标物体比较亮,那么再对目标物体进行光效增强处理的话,就会造成目标物体严重失真。具体的,可以根据目标物体的亮度来调节光效增强处理的强度。获取目标物体的亮度数据,根据亮度数据获取光效强度因子。亮度数据是指表示目标物体的亮度的数据,根据亮度数据获取光效强度因子。可以是根据目标物体的平均亮度值获取光效强度因子,也可以是根据最大的亮度值获取光效强度因子,还可以是根据人像区域的平均亮度值获取光效强度因子,在本实施例中不进行限定。
在一个实施例中,根据亮度数据获取光效强度因子的具体步骤包括:
步骤802,根据亮度数据获取参考像素点,并获取参考像素点与中心像素点的间隔距离。
步骤804,根据间隔距离获取光效强度因子。
具体地,可以获取目标物体中亮度值最大的像素点作为参考像素点,并获取参考像素点与中心像素点的间隔距离;根据间隔距离获取光效强度因子。可以理解的是,参考像素点是目标物体中最亮的点,中心像素点是对应光效强度系数最大的像素点。离中心像素点的距离越远,对应的光效强度系数就越小。那么参考像素点离中心像素点的距离越远,对应的光效强度系数就越小,光效增强处理对参考像素点的影响就越小。因此可以根据参考像素点与中心像素点的间隔距离来获取光效强度因子,间隔距离越大,光效强度因子越大。具体地,还可以获取参考像素点对应的亮度值,根据参考像素点的亮度值和间隔距离获取光效强度因子。参考像素点的亮度值越低、间隔距离越大,对应获取的光效强度因子越大。
在本申请提供的其他实施例中,还可以获取目标物体中亮度值大于亮度阈值的像素点作为参考像素点,并获取各个参考像素点与中心像素点的间隔距离;根据所获取的间隔距离中的最小值获取光效强度因子。当亮度值大于亮度阈值时,可以认为该像素点过亮,会受到光效增强处理的影响比较大。则可以获取亮度值大于亮度阈值的像素点作为参考像素点,并根据距离中心像素点最近的参考像素点获取光效强度因子。
上述实施例提供的图像处理方法,可以根据目标物体中心位置确定光效叠加系数,并基于光效模板叠加至目标物体的区域。解决了现有技术中图像处理模式固化且单一的问题,丰富了图像处理的应用范围,提升了用户黏度。
应该理解的是,虽然图2、3、4、6、7和8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、3、4、6、7和8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图9为一个实施例中图像处理装置的结构示意图。如图9所示,该图像处理装置900包括获取单元902、识别单元904、确定单元906和叠加单元909。
其中:
获取单元902,用于获取图像,所述图像中包含至少一个目标物体;
识别单元904,用于识别出所述至少一个目标物体,并确定出所述至少一个目标物体的中心位置;
确定单元906,用于基于所述至少一个目标物体的中心位置确定出光效叠加系数;
叠加单元909,用于生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域。
上述实施例提供的图像处理装置,可以根据目标物体中心位置确定光效叠加系数,并基于光效模板叠加至目标物体的区域。解决了现有技术中图像处理模式固化且单一的问题,丰富了图像处理的应用范围,提升了用户黏度。
在一个实施例中,所述叠加单元909用于基于所述光效叠加系数,将所述光效模板叠加至所述图像中目标物体的区域,具体可以为:
获取所述目标物体的中心像素点;
根据所述光效叠加系数,计算所述目标物体中各个像素点的光效增强系数,所述光效增强系数与所述各个像素点至所述中心像素点的距离负相关;
根据所述光效增强系数对所述目标物体中的各个像素点进行光效增强处理。
在一个实施例中,所述计算所述目标物体中各个像素点的光效增强系数,具体可以为:
根据所述中心像素点获取光效增强模型,所述光效增强模型是以所述中心像素点为光源模拟光线强弱变化的模型;
根据所述光效增强模型计算所述至少一个目标物体中各个像素点的光效增强系数。
在一个实施例中,所述根据所述中心像素点获取光效增强模型,具体可以为:
获取光效强度因子,根据所述光效强度因子和中心像素点获取光效增强模型,所述光效强度因子为影响光效增强处理强度的参数。
在一个实施例中,所述获取光效强度因子,具体可以为:
获取待处理图像的亮度数据,根据所述亮度数据获取光效强度因子。
在一个实施例中,根据所述光效增强系数对所述目标物体中的各个像素点进行光效增强处理,具体可以为:
对所述目标物体中的各个像素点进行光效增强处理,其中,光效增强程度以所述中心像素点为起点,向所述目标物体的横轴两端依次线性递减。
可选地,所述光效模板为烛光光效模板。
上述图像处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将图像处理装置按照需要划分为不同的模块,以完成上述图像处理装置的全部或部分功能。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行上述实施例提供的图像处理方法。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的图像处理方法。
本申请实施例还提供一种电子设备。上述电子设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图9为一个实施例中图像处理电路的示意图。如图10所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。
如图10所示,图像处理电路包括ISP处理器1040和控制逻辑器1050。成像设备1010捕捉的图像数据首先由ISP处理器1040处理,ISP处理器1040对图像数据进行分析以捕捉可用于确定和/或成像设备1010的一个或多个控制参数的图像统计信息。成像设备1010可包括具有一个或多个透镜1012和图像传感器1014的照相机。图像传感器1014可包括色彩滤镜阵列(如Bayer滤镜),图像传感器1014可获取用图像传感器1014的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器1040处理的一组原始图像数据。传感器1020(如陀螺仪)可基于传感器1020接口类型把采集的图像处理的参数(如防抖参数)提供给ISP处理器1040。传感器1020接口可以利用SMIA(Standard Mobile Imaging Architecture,标准移动成像架构)接口、其它串行或并行照相机接口或上述接口的组合。
此外,图像传感器1014也可将原始图像数据发送给传感器1020,传感器1020可基于传感器1020接口类型把原始图像数据提供给ISP处理器1040,或者传感器1020将原始图像数据存储到图像存储器1030中。
ISP处理器1040按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器1040可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器1040还可从图像存储器1030接收图像数据。例如,传感器1020接口将原始图像数据发送给图像存储器1030,图像存储器1030中的原始图像数据再提供给ISP处理器1040以供处理。图像存储器1030可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct Memory Access,直接存储器存取)特征。
当接收到来自图像传感器1014接口或来自传感器1020接口或来自图像存储器1030的原始图像数据时,ISP处理器1040可进行一个或多个图像处理操作,如时域滤波。处理后的图像数据可发送给图像存储器1030,以便在被显示之前进行另外的处理。ISP处理器1040还可从图像存储器1030接收处理数据,对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。处理后的图像数据可输出给显示器10100,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器1040的输出还可发送给图像存储器1030,且显示器10100可从图像存储器1030读取图像数据。在一个实施例中,图像存储器1030可被配置为实现一个或多个帧缓冲器。此外,ISP处理器1040的输出可发送给编码器/解码器1070,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器10100设备上之前解压缩。
ISP处理器1040处理图像数据的步骤包括:对图像数据进行VFE(Video FrontEnd,视频前端)处理和CPP(Camera Post Processing,摄像头后处理)处理。对图像数据的VFE处理可包括修正图像数据的对比度或亮度、修改以数字方式记录的光照状态数据、对图像数据进行补偿处理(如白平衡,自动增益控制,γ校正等)、对图像数据进行滤波处理等。对图像数据的CPP处理可包括对图像进行缩放、向每个路径提供预览帧和记录帧。其中,CPP可使用不同的编解码器来处理预览帧和记录帧。ISP处理器1040处理后的图像数据可发送给光效处理模块1060,以便在被显示之前对图像进行光效增强处理。其中,光效处理模块1060可为移动终端中CPU(Central Processing Unit,中央处理器)、GPU或协处理器等。光效处理模块1060处理后的数据可发送给编码器/解码器1070,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器10100设备上之前解压缩。其中,光效处理模块1060还可位于编码器/解码器1070与显示器10100之间,即光效增强模块1060对已成像的图像进行光效增强处理。上述编码器/解码器1070可为移动终端中CPU、GPU或协处理器等。
ISP处理器1040确定的统计数据可发送给控制逻辑器1050单元。例如,统计数据可包括自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、透镜1012阴影校正等图像传感器1014统计信息。控制逻辑器1050可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定成像设备1010的控制参数以及ISP处理器1040的控制参数。例如,成像设备1010的控制参数可包括传感器1020控制参数(例如增益、曝光控制的积分时间)、照相机闪光控制参数、透镜1012控制参数(例如聚焦或变焦用焦距)、或这些参数的组合。ISP控制参数可包括用于自动白平衡和颜色调整(例如,在RGB处理期间)的增益水平和色彩校正矩阵,以及透镜1012阴影校正参数。
运用图10中图像处理技术可实现如上所述的图像处理方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种图像处理方法,应用于电子设备,其特征在于,所述方法包括:
获取图像,所述图像中包含多个目标物体;
识别出各个所述目标物体,并确定出各个所述目标物体的中心位置;
基于各个所述目标物体的中心位置确定出光效叠加系数;
生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至各个所述目标物体的区域;所述光效叠加系数表示,所述光效模板与所述图像之间的叠加程度,且所述光效叠加系数决定的光效增强系数,对各个所述目标物体的各个像素点进行光效增强。
2.根据权利要求1所述的方法,其特征在于,所述基于所述光效叠加系数,将所述光效模板叠加至各个所述目标物体的区域,包括:
获取所述目标物体的中心像素点;
根据所述光效叠加系数,计算所述目标物体中各个像素点的光效增强系数,所述光效增强系数与所述各个像素点至所述中心像素点的距离负相关;
根据所述光效增强系数对所述目标物体中的各个像素点进行光效增强处理。
3.根据权利要求2所述的方法,其特征在于,所述计算所述目标物体中各个像素点的光效增强系数,包括:
根据所述中心像素点获取光效增强模型,所述光效增强模型是以所述中心像素点为光源模拟光线强弱变化的模型;
根据所述光效增强模型计算各个所述目标物体中各个像素点的光效增强系数。
4.根据权利要求3所述的方法,其特征在于,所述根据所述中心像素点获取光效增强模型,包括:
获取光效强度因子,根据所述光效强度因子和中心像素点获取光效增强模型,所述光效强度因子为影响光效增强处理强度的参数。
5.根据权利要求4所述的方法,其特征在于,所述获取光效强度因子,包括:
获取待处理图像的亮度数据,根据所述亮度数据获取光效强度因子。
6.根据权利要求2所述的方法,其特征在于,所述根据所述光效增强系数对所述目标物体中的各个像素点进行光效增强处理,包括:
对所述目标物体中的各个像素点进行光效增强处理,其中,光效增强程度以所述中心像素点为起点,向所述目标物体的横轴两端依次线性递减。
7.根据权利要求1所述的方法,其特征在于,所述光效模板为烛光光效模板。
8.一种图像处理装置,其特征在于,所述装置包括:
获取单元,用于获取图像,所述图像中包含多个目标物体;
识别单元,用于识别出各个所述目标物体,并确定出各个所述目标物体的中心位置;
确定单元,用于基于各个所述目标物体的中心位置确定出光效叠加系数;
叠加单元,用于生成光效模板,基于所述光效叠加系数,将所述光效模板叠加至各个所述目标物体的区域;所述光效叠加系数表示,所述光效模板与所述图像之间的叠加程度,且所述光效叠加系数决定的光效增强系数,对各个所述目标物体的各个像素点进行光效增强。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的方法的步骤。
10.一种电子设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述的图像处理方法。
CN201810994922.7A 2018-08-29 2018-08-29 图像处理方法、装置、计算机可读存储介质和电子设备 Active CN109325905B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810994922.7A CN109325905B (zh) 2018-08-29 2018-08-29 图像处理方法、装置、计算机可读存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810994922.7A CN109325905B (zh) 2018-08-29 2018-08-29 图像处理方法、装置、计算机可读存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN109325905A CN109325905A (zh) 2019-02-12
CN109325905B true CN109325905B (zh) 2023-10-13

Family

ID=65264317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810994922.7A Active CN109325905B (zh) 2018-08-29 2018-08-29 图像处理方法、装置、计算机可读存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN109325905B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610171A (zh) * 2019-09-24 2019-12-24 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110992395B (zh) * 2019-11-01 2023-08-18 北京达佳互联信息技术有限公司 图像训练样本的生成方法及装置、运动跟踪方法及装置
CN112967201A (zh) * 2021-03-05 2021-06-15 厦门美图之家科技有限公司 图像光照调节方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017067526A1 (zh) * 2015-10-23 2017-04-27 努比亚技术有限公司 图像增强方法及移动终端
CN107742274A (zh) * 2017-10-31 2018-02-27 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN107800965A (zh) * 2017-10-31 2018-03-13 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
CN107862663A (zh) * 2017-11-09 2018-03-30 广东欧珀移动通信有限公司 图像处理方法、装置、可读存储介质和计算机设备
CN108174118A (zh) * 2018-01-04 2018-06-15 珠海格力电器股份有限公司 图像处理方法、装置和电子设备
WO2018127091A1 (zh) * 2017-01-09 2018-07-12 腾讯科技(深圳)有限公司 一种图像处理的方法、装置、相关设备及服务器
CN108419028A (zh) * 2018-03-20 2018-08-17 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134230B (zh) * 2014-01-22 2015-10-28 腾讯科技(深圳)有限公司 一种图像处理方法、装置及计算机设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017067526A1 (zh) * 2015-10-23 2017-04-27 努比亚技术有限公司 图像增强方法及移动终端
WO2018127091A1 (zh) * 2017-01-09 2018-07-12 腾讯科技(深圳)有限公司 一种图像处理的方法、装置、相关设备及服务器
CN107742274A (zh) * 2017-10-31 2018-02-27 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN107800965A (zh) * 2017-10-31 2018-03-13 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
CN107862663A (zh) * 2017-11-09 2018-03-30 广东欧珀移动通信有限公司 图像处理方法、装置、可读存储介质和计算机设备
CN108174118A (zh) * 2018-01-04 2018-06-15 珠海格力电器股份有限公司 图像处理方法、装置和电子设备
CN108419028A (zh) * 2018-03-20 2018-08-17 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
哈特曼法像差自动测量系统图像处理算法的研究;李建新;《激光杂志》;20091215(第06期);全文 *

Also Published As

Publication number Publication date
CN109325905A (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
CN108419028B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN110149482B (zh) 对焦方法、装置、电子设备和计算机可读存储介质
CN108734676B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN107730445B (zh) 图像处理方法、装置、存储介质和电子设备
CN108111749B (zh) 图像处理方法和装置
CN108055452B (zh) 图像处理方法、装置及设备
CN109246354B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN108537155B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN111028137B (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
CN108717530B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN109191403A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN107370958A (zh) 图像虚化处理方法、装置及拍摄终端
CN108024054B (zh) 图像处理方法、装置、设备及存储介质
CN108616700B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN107993209B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN109242794B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN108322651B (zh) 拍摄方法和装置、电子设备、计算机可读存储介质
CN107509031A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN107493432A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN107862658B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN109360254B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN109325905B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN109191398B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107945106B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN107194901B (zh) 图像处理方法、装置、计算机设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant