CN106550243A - 直播视频处理方法、装置及电子设备 - Google Patents
直播视频处理方法、装置及电子设备 Download PDFInfo
- Publication number
- CN106550243A CN106550243A CN201611129655.4A CN201611129655A CN106550243A CN 106550243 A CN106550243 A CN 106550243A CN 201611129655 A CN201611129655 A CN 201611129655A CN 106550243 A CN106550243 A CN 106550243A
- Authority
- CN
- China
- Prior art keywords
- region
- skin
- pixel
- video
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
Abstract
本发明的目的在于提供一种直播视频处理方法、装置及电子设备,该方法包括:获取直播视频帧序列;在所述直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将所述静止背景和所述非皮肤区域共同组成的区域确定为虚化区域;在每个所述视频帧中,对所述虚化区域进行虚化,得到多个虚化图像。通过本发明中的直播视频处理方法、装置及电子设备,能够解决现有的直播方式容易导致主播的个人隐私泄露的问题。
Description
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种直播视频处理方法、装置及电子设备。
背景技术
随着直播行业的快速发展,各行各业的人开始进入直播行业,直播的场景也越来越多样化。
直播的主要过程为,主播开启摄像头,主播的终端设备如手机或者电脑通过摄像头实时获取主播的视频流,将获取的视频流发送至服务器,服务器将接收到的视频流实时转发至各个观众的终端设备。
在直播过程中,摄像头除了拍摄主播之外,很可能还拍摄到主播的一些私人物品,导致主播的个人隐私泄露。针对现有的直播方式容易导致主播的个人隐私泄露的问题,目前尚未提出很好的解决方案。
发明内容
有鉴于此,本发明的目的在于提供一种直播视频处理方法、装置及电子设备,以解决现有的直播方式容易导致主播的个人隐私泄露的问题。
第一方面,本发明实施例提供了一种直播视频处理方法,所述方法包括:获取直播视频帧序列;在所述直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将所述静止背景和所述非皮肤区域共同组成的区域确定为虚化区域;在每个所述视频帧中,对所述虚化区域进行虚化,得到多个虚化图像。
结合第一方面,本发明实施例提供了第一方面第一种可能的实施方式,其中,在所述获取直播视频帧序列后,所述方法还包括:在每个所述视频帧中,确定主播所在区域,对所述主播所在区域进行亮度增强和/或对比度增强,得到多个增强图像;根据每个所述视频帧中每个像素点对应皮肤的概率值,将每个所述虚化图像与对应的所述增强图像进行融合,得到多个融合图像;将多个所述融合图像作为处理后的直播视频帧序列发送出去。
结合第一方面第一种可能的实施方式,本发明实施例提供了第一方面第二种可能的实施方式,其中,所述视频帧中每个像素点对应皮肤的概率值通过以下方式获取:生成所述视频帧对应的皮肤图,所述皮肤图中,每个像素点被标记为皮肤点或者非皮肤点;对所述皮肤图进行模糊处理,得到模糊图像,根据所述模糊图像中每个像素点的像素值确定所述视频帧中每个像素点对应皮肤的概率值。
结合第一方面第一种可能的实施方式,本发明实施例提供了第一方面第三种可能的实施方式,其中,通过以下方式根据每个所述视频帧中每个像素点对应皮肤的概率值,将每个所述虚化图像与对应的所述增强图像进行融合,得到融合图像:
dest=BG_Blur*a+dest3*(1-a)
其中,a表示所述视频帧中每个像素点对应皮肤的概率值,BG_Blur表示所述虚化图像的每个像素点的像素值,dest3表示所述增强图像的每个像素点的像素值,dest表示所述融合图像的每个像素点的像素值。
结合第一方面第一种可能的实施方式,本发明实施例提供了第一方面第四种可能的实施方式,其中,通过以下方式对所述主播所在区域进行亮度增强和/或对比度增强:
dest2=(src2-128)*gamma+128
其中,dest1表示亮度增强后的所述主播所在区域中各个像素点的像素值,src1表示亮度增强前的所述主播所在区域中各个像素点的像素值,beat表示亮度增强系数,dest2表示对比度增强后的所述主播所在区域中各个像素点的像素值,src2表示对比度增强前的所述主播所在区域中各个像素点的像素值,gamma表示对比度增强系数。
结合第一方面,本发明实施例提供了第一方面第五种可能的实施方式,其中,采用以下方式在所述视频帧中确定所述非皮肤区域:将所述视频帧转换至YUV颜色空间,根据所述视频帧中各个像素点的Y、U、V取值确定皮肤像素点;将所有所述皮肤像素点组成的区域确定为皮肤区域,将所述皮肤区域以外的区域确定为所述非皮肤区域。
结合第一方面第五种可能的实施方式,本发明实施例提供了第一方面第六种可能的实施方式,其中,所述根据所述视频帧中各个像素点的Y、U、V取值确定皮肤像素点,包括:将U取值在第一范围内,且V取值在第二范围内的像素点确定为所述皮肤像素点。
结合第一方面上述的实施方式,本发明实施例提供了第一方面第七种可能的实施方式,其中,在所述获取直播视频帧序列之前,所述方法还包括:获取开启隐私保护的设置指令。
第二方面,本发明实施例提供了一种直播视频处理装置,所述装置包括:视频获取模块,用于获取直播视频帧序列;区域确定模块,用于在所述直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将所述静止背景和所述非皮肤区域共同组成的区域确定为虚化区域;图像虚化模块,用于在每个所述视频帧中,对所述虚化区域进行虚化,得到多个虚化图像。
第二方面,本发明实施例提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现上述第一方面所述的方法的步骤。
本实施例中,首先获取直播视频帧序列,然后在直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将静止背景和非皮肤区域共同组成的区域确定为虚化区域,最后在每个视频帧中,对虚化区域进行虚化,得到多个虚化图像。由于本实施例中的方法能够对直播视频帧序列中的每个视频帧中的部分图像进行虚化处理,且虚化的部分为静止背景和非皮肤区域,也即不会虚化到运动背景和主播面部,因此通过本实施例中的直播视频处理方法、装置及电子设备,能够保护主播的个人隐私,解决现有的直播方式容易导致主播的个人隐私泄露的问题。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的直播视频处理方法的第一种流程示意图;
图2为本发明实施例提供的直播视频处理方法的第二种流程示意图;
图3为本发明实施例提供的直播视频处理装置的第一种模块组成示意图;
图4为本发明实施例提供的直播视频处理装置的第二种模块组成示意图;
图5为本发明实施例提供的电子设备的模块组成示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到现有的直播方式容易导致主播的个人隐私泄露的问题,本发明提供了一种直播视频处理方法、装置及电子设备,下面通过实施例进行具体描述。
图1为本发明实施例提供的直播视频处理方法的第一种流程示意图,如图1所示,该方法包括以下步骤:
步骤S102,获取直播视频帧序列。
本实施例中的方法能够由主播的客户端执行,还能够由直播网站的后台服务器执行,还能够由观众的客户端执行。当该方法由主播的客户端执行时,主播的客户端获取直播视频帧序列,该直播视频帧序列为待发送至直播网站的后台服务器的视频帧序列。为了提高直播过程的流畅性,主播进行直播后,主播的客户端中的视频帧进入缓冲队列,通过缓冲队列缓冲视频帧,从而保证直播过程中的播放流畅。
当该方法由直播网站的后台服务器执行时,后台服务器获取直播视频帧序列,该直播视频帧序列为主播的客户端上传的,待发送至各个观众的客户端的视频帧序列。当该方法由观众的客户端执行时,观众的客户端获取直播视频帧序列,该直播视频帧序列为后台服务器发送的待显示的直播视频帧序列。
为了便于实施例的描述,后面内容将不再重点强调执行主体为后台服务器、主播的客户端、或者观众的客户端,能够理解的是,本实施例中的方法即可以由后台服务器执行,也能够由主播的客户端执行,还能够由观众的客户端执行。
步骤S104,在直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将静止背景和非皮肤区域共同组成的区域确定为虚化区域。
直播视频帧序列由多帧连续的视频帧组成,本实施例中,对每个视频帧都做相同的处理,在每个视频帧中,均确定静止背景和非皮肤区域。
本步骤中,采用高斯背景建模法检测视频帧中的静止背景。具体地,高斯背景建模法的主要过程是,为每个像素点建立多个高斯模型,通过建立的高斯模型模拟各个像素点的像素值的分布,当某个像素点的像素值改变时,判断改变后的像素值是否在对应的高斯模型之中,如果在,则确定该像素点为背景点,如果不在,则确定该像素点为前景点。本实施例中,将检测到的所有背景点共同组成的区域确定为静止背景,该静止背景通过符号BG_S_mask表示。
本步骤中,采用以下方式在视频帧中确定非皮肤区域:
(1)将视频帧转换至YUV颜色空间,根据视频帧中各个像素点的Y、U、V取值确定皮肤像素点;
(2)将所有皮肤像素点组成的区域确定为皮肤区域,将皮肤区域以外的区域确定为非皮肤区域。
具体地,对于某一帧视频帧,将该视频帧转换至YUV颜色空间,在YUV颜色空间内,每个像素点都具有Y、U、V三个值,其中Y值表示像素点的灰度,U值和V值表示像素点的彩色值。动作(1)中,根据视频帧中各个像素点的Y、U、V取值确定皮肤像素点具体为:将U取值在第一范围内,且V取值在第二范围内的像素点确定为皮肤像素点。比如,像素点X在YUV空间中的像素值为(Y,U,V),如果X满足:(U>130&&U<180)&&(V>70&&V<130),则认为像素点X为皮肤像素点。动作(2)中,将所有皮肤像素点组成的区域确定为皮肤区域,将视频帧中皮肤区域以外的区域确定为非皮肤区域,本实施例中,非皮肤区域采用符号BG_D_mask表示。
本步骤中,在每个视频帧中确定静止背景和非皮肤区域后,还将每个视频帧的静止背景和非皮肤区域共同组成的区域确定为该视频帧的虚化区域,虚化区域能够通过符号BG1_mask表示,由于虚化区域由静止背景和非皮肤区域共同组成,因此BG1_mask=BG_S_mask∪BG_D_mask。
考虑到由于光照等因素影响,虚化区域可能存在空洞或者不连续区域,因此本实施例中,还能够使用腐蚀或者膨胀的形态学处理方法对虚化区域进行处理,使虚化区域中的空洞或者不连续区域连接起来,使虚化区域更加完整,经过形态学处理后的虚化区域的掩膜以符号BG_mask表示。
步骤S106,在每个视频帧中,对虚化区域进行虚化,得到多个虚化图像。
在每个视频中确定虚化区域后,还对虚化区域进行虚化,具体采用高斯模糊算法对虚化区域进行虚化。
高斯模糊的步骤为:在上述确定的虚化区域BG_mask或者BG1_mask中任取一像素点X(x0,y0),取其半径为R的邻域,邻域内每一像素点均为Xr(x,y),按照高斯权值G(x,y)进行加权,则该像素点模糊后的像素值为Xnew=∑Xr(x,y)·G(x,y)。其中,当虚化区域经过形态学处理后,表示为BG_mask,如果未经形态学处理,则表示为BG1_mask。
其中,高斯权值G(x,y)通过以下公式计算得到:
根据高斯模糊算法更新虚化区域的像素值之后,得到每个视频帧对应的虚化图像,也即得到多个虚化图像,该多个虚化图像按照顺序组成虚化的直播视频帧序列。
本实施例中,首先获取直播视频帧序列,然后在直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将静止背景和非皮肤区域共同组成的区域确定为虚化区域,最后在每个视频帧中,对虚化区域进行虚化,得到多个虚化图像。由于本实施例中的方法能够对直播视频帧序列中的每个视频帧中的部分图像进行虚化处理,且虚化的部分为静止背景和非皮肤区域,也即不会虚化到运动背景和主播面部,因此通过本实施例中的方法,能够保护主播的个人隐私,解决现有的直播方式容易导致主播的个人隐私泄露的问题。
图2为本发明实施例提供的直播视频处理方法的第二种流程示意图,如图2所示,该方法在上述步骤S102之后,还包括以下步骤:
步骤S104’,在每个视频帧中,确定主播所在区域,对主播所在区域进行亮度增强和/或对比度增强,得到多个增强图像。
如图2所示,步骤S104’的目的是根据多个视频帧得到多个增强图像,步骤S104的目的是根据多个视频帧得到多个虚化图像,该两个步骤都是直接对直播视频帧序列中的视频帧进行处理,因此该两个步骤能够同时执行,当然,这两个步骤也能够先后执行,如先执行步骤S104,后执行步骤S104’,反之也可。
本步骤中,分别对每个视频帧进行相同的处理,在每个视频帧中,确定主播所在的区域,具体确定过程为:在每个视频帧中,对人脸进行检测,得到主播的人脸区域,得到人脸区域之后,按照人脸与躯干的尺寸比例,对人脸区域进行扩展,得到主播的完整图像,也即主播所在区域,该主播所在区域采用符号FG(foreground,前景)表示。
本步骤中,对人脸进行检测时,优选采用基于鲁棒的人脸检测算法,具体地,首先采用离线的人脸数据集进行训练得到人脸模型,这里可以采用Adaboost的训练方法得到人脸模型,将训练得到的人脸模型在实时的视频帧中滑动比对,根据比对结果判断当前滑窗中是否是人脸,如此即检测出视频帧中的人脸区域。
本步骤中,按照人脸与躯干的尺寸比例,对人脸区域进行扩展,具体可以为:设定人脸为矩形,其尺寸为a*b,设定人脸以下(m*a)*(n*b)的矩形范围为躯干部分,其中m表示第一扩展比例,n表示第二扩展比例,将a*b和(m*a)*(n*b)两个矩形区域共同组成的区域确定为主播所在区域。
当本实施例中的方法在主播的客户端执行时,能够根据主播输入的增强指令对主播所在区域进行亮度增强和/或对比度增强,当本实施例中的方法在服务器或者观众的客户端执行时,根据默认的增强指令对主播所在区域进行亮度增强和/或对比度增强。其中,主播输入的增强指令和该默认的增强指令的格式一致。
以主播输入的增强指令为例,当增强指令中包括亮度增强系数时,对主播所在区域进行亮度增强,当增强指令中包括对比度增强系数时,对主播所在区域进行对比度增强,当增强指令中同时包括亮度增强系数和对比度增强系数时,对主播所在区域进行亮度增强和对比度增强。
通过以下方式对主播所在区域进行亮度增强和/或对比度增强:
dest2=(src2-128)*gamma+128
其中,dest1表示亮度增强后的主播所在区域中各个像素点的像素值,src1表示亮度增强前的主播所在区域中各个像素点的像素值,beat表示上述的亮度增强系数,取值范围为[2,11],beta值越大图像越明亮。
dest2表示对比度增强后的主播所在区域中各个像素点的像素值,src2表示对比度增强前的主播所在区域中各个像素点的像素值,gamma表示上述的对比度增强系数,取值范围为[0,1],gamma越大图像的对比度越高。
本步骤中,对每个视频帧中的主播所在区域进行亮度增强和/或对比度增强后,得到与各个视频帧一一对应的多个增强图像,该多个增强图像按照顺序组成增强的直播视频帧序列。
步骤S108,根据每个视频帧中每个像素点对应皮肤的概率值,将每个虚化图像与对应的增强图像进行融合,得到多个融合图像。
通过步骤S104和步骤S104’,能够得到多个虚化图像和多个增强图像,由于多个虚化图像与直播视频帧序列中的各个视频帧一一对应,且多个增强图像与直播视频帧序列中的各个视频帧一一对应,因此多个虚化图像与多个增强图像一一对应,本步骤中,将每个虚化图像与对应的增强图像进行融合,得到多个融合图像。
本步骤中,根据每个视频帧中每个像素点对应皮肤的概率值,将每个虚化图像与对应的增强图像进行融合,得到融合图像,通过以下公式实现为:
dest=BG_Blur*a+dest3*(1-a)
其中,a表示视频帧中每个像素点对应皮肤的概率值,BG_Blur表示虚化图像的每个像素点的像素值,dest3表示增强图像的每个像素点的像素值,dest表示融合图像的每个像素点的像素值。
通过以上公式,能够将虚化图像和增强图像进行融合,得到融合图像。以上公式中,a表示视频帧中每个像素点对应皮肤的概率值,取值范围在[0,1]之间,a值越大,则像素点为皮肤像素点的概率越高。
本实施例中,视频帧中每个像素点对应皮肤的概率值通过以下方式获取:
(1)生成视频帧对应的皮肤图,该皮肤图中,每个像素点被标记为皮肤点或者非皮肤点;
(2)对皮肤图进行模糊处理,得到模糊图像,根据模糊图像中每个像素点的像素值确定视频帧中每个像素点对应皮肤的概率值。
具体地,对视频帧中的每个像素点进行赋值,当像素点是皮肤点时,像素点的像素值为255,当像素点不是皮肤点时,像素点的像素值为0,赋值得到的图像为视频帧的皮肤图。对皮肤图进行模糊处理后,每个像素点的像素值被重新定义,模糊图像中,各个像素点的像素值在255至0之间,将各个像素点的像素值除以255,即将各个像素值归一化至[0,1]之间,归一化后的像素值表示各个像素点对应皮肤的概率值。
通过本步骤,能够将虚化图像与对应的增强图像融合,由于根据每个视频帧中每个像素点对应皮肤的概率值,将虚化图像与对应的增强图像融合,因此能够使得融合边界线性变化,自然过渡。融合完成后,执行步骤S110。
步骤S110,将多个融合图像作为处理后的直播视频帧序列发送出去。
融合得到的融合图像为最终观众要看到的直播图像,将多个融合图像作为处理后的直播视频帧序列发送出去,从而使观众看到背景虚化,前景增强的直播图像,即保护了主播的隐私,又增强了主播图像。
当本实施例中的方法由主播的客户端执行时,客户端将多个融合图像作为处理后的直播视频帧序列发送至服务器,当本实施例中的方法由服务器执行时,服务器将多个融合图像作为处理后的直播视频帧序列发送至各个观众的客户端。
如图2所示,该方法在上述步骤S102之前,还包括以下步骤:
步骤S101,获取开启隐私保护的设置指令。
当本实施例中的方法由主播的客户端执行时,客户端接收主播发送的开启隐私保护的设置指令,根据该设置指令执行步骤S102至步骤S110。当本实施例中的方法由服务器执行时,客户端接收主播发送的开启隐私保护的设置指令,并发送至服务器,服务器根据该设置指令执行步骤S102至步骤S110。
通过图2中所示的方法,能够对直播视频进行背景虚化和前景增强,从而在保护主播隐私的同时美化主播图像,使主播图像美白提亮,清晰度增强,提高观众的观看体验和主播的直播体验。
对应上述的直播视频处理方法,本发明实施例还提供了一种直播视频处理装置,图3为本发明实施例提供的直播视频处理装置的第一种模块组成示意图,如图3所示,该装置包括:视频获取模块31,用于获取直播视频帧序列;区域确定模块32,用于在直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将静止背景和非皮肤区域共同组成的区域确定为虚化区域;图像虚化模块33,用于在每个视频帧中,对虚化区域进行虚化,得到多个虚化图像。
图3中,区域确定模块32包括:第一确定子模块和第二确定子模块,该第一确定子模块用于将视频帧转换至YUV颜色空间,根据视频帧中各个像素点的Y、U、V取值确定皮肤像素点;该第二确定子模块用于将所有皮肤像素点组成的区域确定为皮肤区域,将皮肤区域以外的区域确定为非皮肤区域。
其中,第一确定子模块具体用于,将U取值在第一范围内,且V取值在第二范围内的像素点确定为皮肤像素点。
本实施例中,首先获取直播视频帧序列,然后在直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将静止背景和非皮肤区域共同组成的区域确定为虚化区域,最后在每个视频帧中,对虚化区域进行虚化,得到多个虚化图像。由于本实施例中的方法能够对直播视频帧序列中的每个视频帧中的部分图像进行虚化处理,且虚化的部分为静止背景和非皮肤区域,也即不会虚化到运动背景和主播面部,因此通过本实施例中的装置,能够保护主播的个人隐私,解决现有的直播方式容易导致主播的个人隐私泄露的问题。
图4为本发明实施例提供的直播视频处理装置的第二种模块组成示意图,如图4所示,本实施例中的装置还包括:指令获取模块30,用于获取开启隐私保护的设置指令。图像增强模块32’,用于在每个视频帧中,确定主播所在区域,对主播所在区域进行亮度增强和/或对比度增强,得到多个增强图像;图像融合模块34,用于根据每个视频帧中每个像素点对应皮肤的概率值,将每个虚化图像与对应的增强图像进行融合,得到多个融合图像;图像发送模块35,将多个融合图像作为处理后的直播视频帧序列发送出去。
其中,图像融合模块34具体用于,通过以下方式获取视频帧中每个像素点对应皮肤的概率值:生成视频帧对应的皮肤图,该皮肤图中,每个像素点被标记为皮肤点或者非皮肤点;对该皮肤图进行模糊处理,得到模糊图像,根据模糊图像中每个像素点的像素值确定视频帧中每个像素点对应皮肤的概率值。
其中,图像融合模块34具体用于,通过以下方式根据每个视频帧中每个像素点对应皮肤的概率值,将每个虚化图像与对应的增强图像进行融合,得到融合图像:
dest=BG_Blur*a+dest3*(1-a)
其中,a表示视频帧中每个像素点对应皮肤的概率值,BG_Blur表示虚化图像的每个像素点的像素值,dest3表示增强图像的每个像素点的像素值,dest表示融合图像的每个像素点的像素值。
其中,图像增强模块32’通过以下方式对主播所在区域进行亮度增强和/或对比度增强:
dest2=(src2-128)*gamma+128
其中,dest1表示亮度增强后的主播所在区域中各个像素点的像素值,src1表示亮度增强前的主播所在区域中各个像素点的像素值,beat表示亮度增强系数,dest2表示对比度增强后的主播所在区域中各个像素点的像素值,src2表示对比度增强前的主播所在区域中各个像素点的像素值,gamma表示对比度增强系数。
通过图4中所示的装置,能够对直播视频进行背景虚化和前景增强,从而在保护主播隐私的同时美化主播图像,使主播图像美白提亮,清晰度增强,提高观众的观看体验和主播的直播体验。
对应上述的直播视频处理方法,本发明实施例还提供了一种电子设备,图5为本发明实施例提供的电子设备的模块组成示意图,如图5所示,包括存储器1000、处理器2000及存储在存储器1000上并可在处理器2000上运行的计算机程序,处理器2000执行该计算机程序时实现上述实施例中的直播视频处理方法的步骤。
具体地,存储器1000和处理器2000能够为通用的存储器和处理器,这里不做具体限定,存储器1000和处理器2000通过通讯总线连接,当处理器2000运行存储器1000存储的计算机程序时,能够保护主播的个人隐私,解决现有的直播方式容易导致主播的个人隐私泄露的问题。
本发明实施例所提供的装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的系统、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种直播视频处理方法,其特征在于,所述方法包括:
获取直播视频帧序列;
在所述直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将所述静止背景和所述非皮肤区域共同组成的区域确定为虚化区域;
在每个所述视频帧中,对所述虚化区域进行虚化,得到多个虚化图像。
2.根据权利要求1所述的方法,其特征在于,在所述获取直播视频帧序列后,所述方法还包括:
在每个所述视频帧中,确定主播所在区域,对所述主播所在区域进行亮度增强和/或对比度增强,得到多个增强图像;
根据每个所述视频帧中每个像素点对应皮肤的概率值,将每个所述虚化图像与对应的所述增强图像进行融合,得到多个融合图像;
将多个所述融合图像作为处理后的直播视频帧序列发送出去。
3.根据权利要求2所述的方法,其特征在于,所述视频帧中每个像素点对应皮肤的概率值通过以下方式获取:
生成所述视频帧对应的皮肤图,所述皮肤图中,每个像素点被标记为皮肤点或者非皮肤点;
对所述皮肤图进行模糊处理,得到模糊图像,根据所述模糊图像中每个像素点的像素值确定所述视频帧中每个像素点对应皮肤的概率值。
4.根据权利要求2所述的方法,其特征在于,通过以下方式根据每个所述视频帧中每个像素点对应皮肤的概率值,将每个所述虚化图像与对应的所述增强图像进行融合,得到融合图像:
dest=BG_Blur*a+dest3*(1-a)
其中,a表示所述视频帧中每个像素点对应皮肤的概率值,BG_Blur表示所述虚化图像的每个像素点的像素值,dest3表示所述增强图像的每个像素点的像素值,dest表示所述融合图像的每个像素点的像素值。
5.根据权利要求2所述的方法,其特征在于,通过以下方式对所述主播所在区域进行亮度增强和/或对比度增强:
dest2=(src2-128)*gamma+128
其中,dest1表示亮度增强后的所述主播所在区域中各个像素点的像素值,src1表示亮度增强前的所述主播所在区域中各个像素点的像素值,beat表示亮度增强系数,dest2表示对比度增强后的所述主播所在区域中各个像素点的像素值,src2表示对比度增强前的所述主播所在区域中各个像素点的像素值,gamma表示对比度增强系数。
6.根据权利要求1所述的方法,其特征在于,采用以下方式在所述视频帧中确定所述非皮肤区域:
将所述视频帧转换至YUV颜色空间,根据所述视频帧中各个像素点的Y、U、V取值确定皮肤像素点;
将所有所述皮肤像素点组成的区域确定为皮肤区域,将所述皮肤区域以外的区域确定为所述非皮肤区域。
7.根据权利要求6所述的方法,其特征在于,所述根据所述视频帧中各个像素点的Y、U、V取值确定皮肤像素点,包括:
将U取值在第一范围内,且V取值在第二范围内的像素点确定为所述皮肤像素点。
8.根据权利要求1至7任一项所述的方法,其特征在于,在所述获取直播视频帧序列之前,所述方法还包括:
获取开启隐私保护的设置指令。
9.一种直播视频处理装置,其特征在于,所述装置包括:
视频获取模块,用于获取直播视频帧序列;
区域确定模块,用于在所述直播视频帧序列的每个视频帧中,确定静止背景和非皮肤区域,将所述静止背景和所述非皮肤区域共同组成的区域确定为虚化区域;
图像虚化模块,用于在每个所述视频帧中,对所述虚化区域进行虚化,得到多个虚化图像。
10.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至8任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611129655.4A CN106550243A (zh) | 2016-12-09 | 2016-12-09 | 直播视频处理方法、装置及电子设备 |
PCT/CN2017/079594 WO2018103244A1 (zh) | 2016-12-09 | 2017-04-06 | 直播视频处理方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611129655.4A CN106550243A (zh) | 2016-12-09 | 2016-12-09 | 直播视频处理方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106550243A true CN106550243A (zh) | 2017-03-29 |
Family
ID=58397315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611129655.4A Pending CN106550243A (zh) | 2016-12-09 | 2016-12-09 | 直播视频处理方法、装置及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106550243A (zh) |
WO (1) | WO2018103244A1 (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133718A (zh) * | 2017-12-13 | 2018-06-08 | 北京奇虎科技有限公司 | 一种对视频进行处理的方法和装置 |
WO2018103244A1 (zh) * | 2016-12-09 | 2018-06-14 | 武汉斗鱼网络科技有限公司 | 直播视频处理方法、装置及电子设备 |
CN108174140A (zh) * | 2017-11-30 | 2018-06-15 | 维沃移动通信有限公司 | 一种视频通信的方法和移动终端 |
CN108235054A (zh) * | 2017-12-15 | 2018-06-29 | 北京奇虎科技有限公司 | 一种直播视频数据的处理方法和装置 |
CN108735158A (zh) * | 2017-04-25 | 2018-11-02 | 昆山国显光电有限公司 | 一种图像展示方法、装置及电子设备 |
CN108921086A (zh) * | 2018-06-29 | 2018-11-30 | Oppo广东移动通信有限公司 | 图像处理方法和装置、存储介质、电子设备 |
WO2019000793A1 (zh) * | 2017-06-30 | 2019-01-03 | 武汉斗鱼网络科技有限公司 | 直播中打码方法及装置、电子设备及存储介质 |
CN109191414A (zh) * | 2018-08-21 | 2019-01-11 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN109325926A (zh) * | 2018-09-30 | 2019-02-12 | 武汉斗鱼网络科技有限公司 | 自动滤镜实现方法、存储介质、设备及系统 |
CN109379571A (zh) * | 2018-12-13 | 2019-02-22 | 移康智能科技(上海)股份有限公司 | 一种智能猫眼的实现方法及智能猫眼 |
WO2019047409A1 (zh) * | 2017-09-08 | 2019-03-14 | 广州视源电子科技股份有限公司 | 图像处理方法、系统、可读存储介质及移动摄像设备 |
CN109741280A (zh) * | 2019-01-04 | 2019-05-10 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110312164A (zh) * | 2019-07-24 | 2019-10-08 | Oppo(重庆)智能科技有限公司 | 视频处理方法、装置及计算机存储介质和终端设备 |
CN110580428A (zh) * | 2018-06-08 | 2019-12-17 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN111028563A (zh) * | 2019-11-26 | 2020-04-17 | 罗昊 | 一种艺术设计用多媒体教学系统及其方法 |
CN112770049A (zh) * | 2020-12-30 | 2021-05-07 | 维沃移动通信有限公司 | 拍摄方法、装置及存储介质 |
WO2021155549A1 (en) * | 2020-02-06 | 2021-08-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method, system, and computer-readable medium for generating stabilized image compositing effects for image sequence |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129207B (zh) * | 2019-12-30 | 2023-08-01 | 武汉Tcl集团工业研究院有限公司 | 一种图片的背景虚化方法及装置、计算机设备、存储介质 |
CN112637614B (zh) * | 2020-11-27 | 2023-04-21 | 深圳市创成微电子有限公司 | 网络直播音视频处理方法、处理器、装置及可读存储介质 |
US11094042B1 (en) | 2021-03-12 | 2021-08-17 | Flyreel, Inc. | Face detection and blurring methods and systems |
CN114339306A (zh) * | 2021-12-28 | 2022-04-12 | 广州虎牙科技有限公司 | 直播视频图像处理方法、装置及服务器 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510957A (zh) * | 2008-02-15 | 2009-08-19 | 索尼株式会社 | 图像处理设备、方法、程序、摄像机设备、通信系统 |
US20100266207A1 (en) * | 2009-04-21 | 2010-10-21 | ArcSoft ( Hangzhou) Multimedia Technology Co., Ltd | Focus enhancing method for portrait in digital image |
CN103593834A (zh) * | 2013-12-03 | 2014-02-19 | 厦门美图网科技有限公司 | 一种智能添加景深的图像增强方法 |
CN104966266A (zh) * | 2015-06-04 | 2015-10-07 | 福建天晴数码有限公司 | 自动模糊身体部位的方法及系统 |
CN105913400A (zh) * | 2016-05-03 | 2016-08-31 | 成都索贝数码科技股份有限公司 | 一种获得高质量且实时的美颜的装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101193261B (zh) * | 2007-03-28 | 2010-07-21 | 腾讯科技(深圳)有限公司 | 一种视频通信系统及方法 |
US7911513B2 (en) * | 2007-04-20 | 2011-03-22 | General Instrument Corporation | Simulating short depth of field to maximize privacy in videotelephony |
US9282285B2 (en) * | 2013-06-10 | 2016-03-08 | Citrix Systems, Inc. | Providing user video having a virtual curtain to an online conference |
CN104580678A (zh) * | 2013-10-26 | 2015-04-29 | 西安群丰电子信息科技有限公司 | 一种手机的带背景的通话实现方法 |
CN104243973B (zh) * | 2014-08-28 | 2017-01-11 | 北京邮电大学 | 基于感兴趣区域的视频感知质量无参考客观评价方法 |
CN104378553A (zh) * | 2014-12-08 | 2015-02-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN106550243A (zh) * | 2016-12-09 | 2017-03-29 | 武汉斗鱼网络科技有限公司 | 直播视频处理方法、装置及电子设备 |
-
2016
- 2016-12-09 CN CN201611129655.4A patent/CN106550243A/zh active Pending
-
2017
- 2017-04-06 WO PCT/CN2017/079594 patent/WO2018103244A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510957A (zh) * | 2008-02-15 | 2009-08-19 | 索尼株式会社 | 图像处理设备、方法、程序、摄像机设备、通信系统 |
US20100266207A1 (en) * | 2009-04-21 | 2010-10-21 | ArcSoft ( Hangzhou) Multimedia Technology Co., Ltd | Focus enhancing method for portrait in digital image |
CN103593834A (zh) * | 2013-12-03 | 2014-02-19 | 厦门美图网科技有限公司 | 一种智能添加景深的图像增强方法 |
CN104966266A (zh) * | 2015-06-04 | 2015-10-07 | 福建天晴数码有限公司 | 自动模糊身体部位的方法及系统 |
CN105913400A (zh) * | 2016-05-03 | 2016-08-31 | 成都索贝数码科技股份有限公司 | 一种获得高质量且实时的美颜的装置 |
Non-Patent Citations (2)
Title |
---|
胡德文: "《生物特征识别技术与方法》", 31 August 2013 * |
胡章芳: "《 MATLAB仿真及其在光学课程中的应用》", 31 July 2015 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018103244A1 (zh) * | 2016-12-09 | 2018-06-14 | 武汉斗鱼网络科技有限公司 | 直播视频处理方法、装置及电子设备 |
CN108735158A (zh) * | 2017-04-25 | 2018-11-02 | 昆山国显光电有限公司 | 一种图像展示方法、装置及电子设备 |
CN108735158B (zh) * | 2017-04-25 | 2022-02-11 | 昆山国显光电有限公司 | 一种图像展示方法、装置及电子设备 |
WO2019000793A1 (zh) * | 2017-06-30 | 2019-01-03 | 武汉斗鱼网络科技有限公司 | 直播中打码方法及装置、电子设备及存储介质 |
WO2019047409A1 (zh) * | 2017-09-08 | 2019-03-14 | 广州视源电子科技股份有限公司 | 图像处理方法、系统、可读存储介质及移动摄像设备 |
CN108174140A (zh) * | 2017-11-30 | 2018-06-15 | 维沃移动通信有限公司 | 一种视频通信的方法和移动终端 |
CN108133718A (zh) * | 2017-12-13 | 2018-06-08 | 北京奇虎科技有限公司 | 一种对视频进行处理的方法和装置 |
CN108235054A (zh) * | 2017-12-15 | 2018-06-29 | 北京奇虎科技有限公司 | 一种直播视频数据的处理方法和装置 |
CN110580428A (zh) * | 2018-06-08 | 2019-12-17 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108921086A (zh) * | 2018-06-29 | 2018-11-30 | Oppo广东移动通信有限公司 | 图像处理方法和装置、存储介质、电子设备 |
CN109191414A (zh) * | 2018-08-21 | 2019-01-11 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN109325926A (zh) * | 2018-09-30 | 2019-02-12 | 武汉斗鱼网络科技有限公司 | 自动滤镜实现方法、存储介质、设备及系统 |
CN109379571A (zh) * | 2018-12-13 | 2019-02-22 | 移康智能科技(上海)股份有限公司 | 一种智能猫眼的实现方法及智能猫眼 |
CN109741280A (zh) * | 2019-01-04 | 2019-05-10 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110312164A (zh) * | 2019-07-24 | 2019-10-08 | Oppo(重庆)智能科技有限公司 | 视频处理方法、装置及计算机存储介质和终端设备 |
CN111028563A (zh) * | 2019-11-26 | 2020-04-17 | 罗昊 | 一种艺术设计用多媒体教学系统及其方法 |
WO2021155549A1 (en) * | 2020-02-06 | 2021-08-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method, system, and computer-readable medium for generating stabilized image compositing effects for image sequence |
CN115066881A (zh) * | 2020-02-06 | 2022-09-16 | Oppo广东移动通信有限公司 | 对于图像序列生成稳定化图像合成效果的方法、系统及计算机可读介质 |
CN115066881B (zh) * | 2020-02-06 | 2023-11-14 | Oppo广东移动通信有限公司 | 对于图像序列生成稳定化图像合成效果的方法、系统及计算机可读介质 |
CN112770049A (zh) * | 2020-12-30 | 2021-05-07 | 维沃移动通信有限公司 | 拍摄方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2018103244A1 (zh) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106550243A (zh) | 直播视频处理方法、装置及电子设备 | |
Hold-Geoffroy et al. | Deep sky modeling for single image outdoor lighting estimation | |
CN108122234B (zh) | 卷积神经网络训练及视频处理方法、装置和电子设备 | |
Chen et al. | Robust image and video dehazing with visual artifact suppression via gradient residual minimization | |
Wu et al. | Accurate transmission estimation for removing haze and noise from a single image | |
CN105874506B (zh) | 具有细节保留的图像模糊 | |
CN107316020A (zh) | 人脸替换方法、装置及电子设备 | |
CN106971165A (zh) | 一种滤镜的实现方法及装置 | |
EP3238213B1 (en) | Method and apparatus for generating an extrapolated image based on object detection | |
CN107809582A (zh) | 图像处理方法、电子装置和计算机可读存储介质 | |
CN111681177B (zh) | 视频处理方法及装置、计算机可读存储介质、电子设备 | |
CN107437076A (zh) | 基于视频分析的景别划分的方法及系统 | |
CN110047124A (zh) | 渲染视频的方法、装置、电子设备和计算机可读存储介质 | |
Kim et al. | Low-light image enhancement based on maximal diffusion values | |
CN108229346B (zh) | 使用有符号的前景提取与融合的视频摘要 | |
CN106530265A (zh) | 一种基于色度坐标的自适应图像融合方法 | |
WO2016178743A1 (en) | Animated painterly picture generation | |
CN103745430A (zh) | 一种数字图像的快速美容方法 | |
CN111507997A (zh) | 图像分割方法、装置、设备及计算机存储介质 | |
CN107392883A (zh) | 影视戏剧冲突程度计算的方法及系统 | |
CN110022430A (zh) | 图像虚化方法、装置、移动终端及计算机可读存储介质 | |
CN109785264A (zh) | 图像增强方法、装置及电子设备 | |
CN112788254B (zh) | 摄像头抠像方法、装置、设备及存储介质 | |
CN112819691B (zh) | 图像处理方法、装置、设备及可读存储介质 | |
Barsky et al. | Elimination of artifacts due to occlusion and discretization problems in image space blurring techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170329 |