CN111539895B - 一种视频去噪方法、装置、移动终端和存储介质 - Google Patents
一种视频去噪方法、装置、移动终端和存储介质 Download PDFInfo
- Publication number
- CN111539895B CN111539895B CN202010362004.XA CN202010362004A CN111539895B CN 111539895 B CN111539895 B CN 111539895B CN 202010362004 A CN202010362004 A CN 202010362004A CN 111539895 B CN111539895 B CN 111539895B
- Authority
- CN
- China
- Prior art keywords
- probability
- image data
- edge
- motion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000033001 locomotion Effects 0.000 claims abstract description 172
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000001914 filtration Methods 0.000 claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims description 28
- 230000000875 corresponding effect Effects 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 13
- 238000009499 grossing Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 230000000903 blocking effect Effects 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000009467 reduction Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000002146 bilateral effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本实施例公开了一种视频去噪方法、装置、移动终端和存储介质,该方法包括:获取视频数据,视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;计算第一图像数据与第二图像数据之间的运动信息;分别从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息;在第一图像数据中过滤与运动信息、第一边缘信息、第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;对目标图像区域进行去噪处理。本实施例在保证去噪性能的同时,降低了去噪的计算量,在移动终端性能受限的情况下,可实现实时对视频数据进行去噪处理。
Description
技术领域
本发明实施例涉及多媒体处理的技术,尤其涉及一种视频去噪方法、装置、移动终端和存储介质。
背景技术
随着移动互联网与移动终端的迅速发展,移动终端中的视频数据已成为人类活动中常用的信息载体,如直播、视频通话等,它们包含着物体的大量信息,成为人们获取外界原始信息的途径之一。
因传感器、传输、存储等因素,目前采集的视频数据多会出现噪声,在暗光的环境下噪声尤其明显,使得用户主观对视频数据的质量评价下降。
其中,噪声可以理解为妨碍人们感觉器官对所接收的信源信息理解的因素,表现为视频数据中像素点的亮度或色彩随机变动。
因此,通常会对视频数据进行去噪处理(Noise Reduction,NR),尽可能的保持原始信息完整性(即主要特征)的同时,又能够去除视频数据中无用的信息。
在移动终端中,为了保证业务的质量,采集的视频数据的分辨率通常较大,在移动终端的性能受限的情况下,对此,现有的去噪处理可分为如下两种:
1、基于深度学习的算法
基于深度学习的算法由于去噪时低视觉任务,网络的输入比较大,就算网络比较浅的情况下依然存在计算量过大的问题,无法在移动终端应用。
2、非深度学习的算法
非深度学习的方法可区别为基于时间和空间的降噪算法(3D Noise Reduction,3DNR)和基于空间的降噪算法(2D Noise Reduction,2DNR)。
在移动终端应用3DNR通常是叠加帧间信息,通过运动估计或者是运动补偿来解决视频数据中相机运动信息或者是场景运动信息造成的运动匹配问题,但是,3DNR采用的块匹配方式较为简单,使得运动匹配的准确性较差,容易产生运动模糊的问题,即产生了残影,而采用光流等图像配准的方法,由于计算量过大无法在移动终端中应用。
2DNR对窗口进行滤波或者是块匹配,对全图的运算复杂度较高,计算量较大。
发明内容
本发明实施例提供一种视频去噪方法、装置、移动终端和存储介质,以解决在性能受限的情况下对视频数据进行去噪处理,如何平衡去噪处理的实时性与视频数据的质量。
第一方面,本发明实施例提供了一种视频去噪方法,包括:
获取视频数据,所述视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;
计算所述第一图像数据与所述第二图像数据之间的运动信息;
分别从所述第一图像数据计算第一边缘信息、从所述第二图像数据计算第二边缘信息;
在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;
对所述目标图像区域进行去噪处理。
第二方面,本发明实施例还提供了一种视频去噪装置,包括:
视频数据获取模块,用于获取视频数据,所述视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;
运动信息计算模块,用于计算所述第一图像数据与所述第二图像数据之间的运动信息;
边缘信息计算模块,用于分别从所述第一图像数据计算第一边缘信息、从所述第二图像数据计算第二边缘信息;
目标图像区域查找模块,用于在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;
去噪处理模块,用于对所述目标图像区域进行去噪处理。
第三方面,本发明实施例还提供了一种移动终端,所述移动终端包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的视频去噪方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所述的视频去噪方法。
在本实施例中,获取视频数据,视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据,计算第一图像数据与第二图像数据之间的运动信息,分别从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息,在第一图像数据中过滤与运动信息、第一边缘信息、第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域,对目标图像区域进行去噪处理。
首先,本实施例在第一图像数据中选择目标图像区域进行去噪处理,目标图像区域为第一图像数据中局部的区域,即减少了去噪的数据量,从而降低了去噪处理的计算量,在移动终端性能受限的情况下,可实现实时对视频数据进行去噪处理。
在使用2DNR进行去噪处理时,由于降低了计算量,因此,移动终端中较为紧缺的资源可以用于提高视频数据的分辨率,从而保证去噪处理后图像数据的清晰度。
其次,视频数据具有场景特性,人眼对于视频数据中不同元素的敏感程度存在差异,即人眼更加关注平坦并且静止区域中的噪声,对运动部分的噪声的关注更小,本实施例通过运动信息过滤相关的区域,可以在目标图像区域尽可能排除运动区域,使得对目标图像区域进行局部的去噪处理时,主要针对人眼更关注的区域进行去噪,减少对人员关注更少的区域进行去噪,在用户的感受中保持较高的去噪性能。
由于目标图像区域排除或减少了运动区域,因此,应用3DNR进行去噪处理,可以减少或避免因运动匹配的准确性较差而产生的运动模糊,即减少或避免残影的问题,保证了视频数据的清晰度。
再者,如果对第一图像数据的边缘进行去噪处理,容易产生模糊的问题,本实施例通过边缘信息过滤相关的区域,可以在目标图像区域尽可能排除边缘区域,使得对目标图像区域进行局部的去噪处理时,减少对边缘区域进行去噪,在去噪的同时最大化保护视频数据原有的细节清晰度。
最后,本实施例不断累积去噪的效果,使得第二图像数据相对于第一图像数据具有指导意义,在使用上一帧已去噪的第二图像数据计算运动信息、第二边缘信息时,可以提高运动信息、第二边缘信息的准确性,从而提高目标图像区域的准确性。
附图说明
图1为本发明实施例一提供的一种视频去噪方法的流程图;
图2为本发明实施例一提供的一种对视频数据去噪的场景示例图;
图3是本发明实施例二提供的一种视频去噪方法的流程图;
图4为本发明实施例二提供的一种对视频数据去噪的框架图;
图5为本发明实施例二提供的一种目标图像区域的示例图;
图6为本发明实施例三提供的一种视频去噪装置的结构示意图;
图7为本发明实施例四提供的一种移动终端的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种视频去噪方法的流程图,本实施例可适用于对根据运动、边缘等信息选择性地对视频数据中的部分区域进行去噪的情况,该方法可以由视频去噪装置来执行,该视频去噪装置可以由软件和/或硬件实现,可配置在移动终端中,例如,手机、平板电脑、智能穿戴设备(如智能手表等),等等,该方法具体包括如下步骤:
S101、获取视频数据。
在本实施例中,等待去噪处理的视频数据一般指在具有实时性的业务场景中所生成、传输或播放的视频数据。
一般而言,可在生成该视频数据的移动终端中对该视频数据进行去噪处理,此时,如图2所示,在S201中开启移动终端的摄像头,在S202中摄像头采集视频数据。
当然,除了在生成该视频数据的移动终端中对该视频数据进行去噪处理之外,也可以在播放该视频数据的移动终端对该视频数据进行去噪处理,本实施例对此不加以限制。
例如,在直播的业务场景中,等待去噪处理的视频数据可以指用于承载直播内容的视频数据,主播用户所登录的移动终端产生视频数据,以及,将该视频数据通过直播平台分发到各个观众用户所登录的设备进行播放,此时,通常在主播用户所登录的移动终端对该视频数据进行去噪处理。
又例如,在视频通话的业务场景中,等待去噪处理的视频数据可以指用于承载通话内容的视频数据,发起通话的用户所登录的移动终端产生视频数据,以及,将该视频数据发送到各个被邀请通话的用户所登录的设备进行播放,此时,通常在发起通话的用户所登录的移动终端对该视频数据进行去噪处理。
又例如,在视频会议的业务场景中,等待去噪处理的视频数据可以指用于承载会议内容的视频数据,正在发言的用户所登录的移动终端产生视频数据,以及,将该视频数据发送到各个参与该会议的用户所登录的设备进行播放,此时,通常正在发言的用户所登录的移动终端对该视频数据进行去噪处理。
当然,等待去噪处理的视频数据也可以指在实时性要求较低的业务场景中所生成的视频数据,如短视频等,本实施例对此不加以限制。
在特定的业务场景中,视频数据有其特定的属性,人眼更关注对平坦且静止的区域中的噪声,所以,本实施例关注人眼对于视频数据中不同元素的敏感程度差异,有针对性地对视频数据进行去噪,使得用户主观对视频数据的质量评价改善。
进一步而言,视频数据包括多帧图像数据,按照生成的顺序依次记为P1、P2、……、Pt-1、Pt、Pt+1、……、Pn,其中,t、n为正整数,t+1<n,由于视频数据实时生成,因此,n随着视频数据的生成而不断增大,直至视频数据生成完毕。
在本实施例中,依次遍历视频数据中的每帧图像数据进行去噪处理,为了便于描述,将当前帧待去噪的图像数据称之为第一图像数据,将上一帧已去噪的图像数据称之为第二图像数据。
例如,如图2所示,在S203中,将t Frame(帧)为第一图像数据,在S205中,将t-1Frame(帧)设置为第二图像数据,辅助对t Frame进行去噪处理。
需要说明的是,在遍历视频数据的过程中,对于某一帧图像数据的属性存在变换,即在遍历至该帧图像数据时,该帧图像数据为第一图像数据,在遍历至下一帧图像数据时,该帧图像数据为第二图像数据。
例如,在对Pt进行去噪处理时,当前帧待去噪的第一图像数据为Pt,则上一帧已去噪的第二图像数据为Pt+1,在对Pt+1进行去噪处理时,当前帧待去噪的第一图像数据为Pt+1,则上一帧已去噪的第二图像数据为Pt。
S102、计算第一图像数据与第二图像数据之间的运动信息。
针对实时性的视频数据,人眼对于运动较大的区域中的噪声关注较小,即运动较大的区域属于人眼较为不关注噪声的区域,并且,对运动较大的区域去噪容易产生模糊,降低视频的质量,因此,在本实施例中,通过帧差法、GMM(Gaussian Mixture Model,高斯混合模型)、Codebook(码本)、SOBS(Self-organization background subtraction,自组织背景检测)、Vibe(Visual background subtractor,视觉背景减法器)算法等方式计算第一图像数据与第二图像数据之间的运动信息,检测处于运动状态的目标,如人、车辆等。
S103、分别从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息。
在实际应用中,如果对图像数据(如本实施例中的第一图像数据)的边缘进行去噪处理,容易产生模糊的问题,会直观影响用户的观感。
因此,在本实施例中,可以根据速度、性能等实际情况选择索贝尔算子(Sobeloperate)、普利维特算子(Prewitt operate)等方式从第一图像数据计算边缘信息,作为第一边缘信息,以及,根据实际情况选择Sobel算子、Prewitt算子等方式第二图像数据计算边缘信息,作为第二边缘信息。
其中,Sobel算子是一种离散的一阶差分算子,包含两组分别为横向及纵向的矩阵,将之与图像数据作平面卷积,即可分别得出横向及纵向的亮度差分近似值,以此检测边缘信息,在需求速度的业务场景中,可以使用Sobel算子从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息。
Prewitt算子是一种一阶微分算子,利用像素点上下、左右邻点的灰度差,从而检测边缘信息,去掉部分伪边缘,在需求性能的业务场景中,可以使用Prewitt算子从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息。
S104、在第一图像数据中过滤与运动信息、第一边缘信息、第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域。
在本实施例中,可以以运动信息、第一边缘信息与第二边缘信息作为过滤的条件,在第一图像数据中过滤可能具有处于运动状态的目标的区域、过滤可能具有边缘的区域,过滤完毕所剩余的区域为目标图像区域,从而尽量筛选出平坦且静止的区域,如墙壁、路面等。
进一步而言,该目标图像区域为第一图像数据中部分像素点所组成的区域,在第一图像数据中,目标图像区域等待进行去噪处理,保护除目标图像区域之外的区域,即除目标图像区域之外的区域并不进行去噪处理,因此,如图2所示,该目标图像区域可以称之为NR RoI(Region of Interest,感兴趣区域)。
S105、对目标图像区域进行去噪处理。
在本实施例中,如图2所示,在S204中,可以应用非深度学习的方法对目标图像区域进行去噪处理,对于去噪处理之后的视频数据,可以根据业务场景进行后续的处理,本实施例对此不加以限制。
例如,如图2所示,在S206中将去噪处理之后的视频数据显示在屏幕,以及,在S207中对去噪处理之后的视频数据进行编码,如按照H.264的格式编码,并封装为FLV(FlashVideo,流媒体)格式,等待发送至播放该视频数据的设备。
在具体实现中,非深度学习的方法具体可以包括如下两种方式:
1、空间的降噪算法(3DNR)
3DNR一般是通过对比视频数据中相邻的几帧图像数据,将不重叠的信息(即噪声)自动滤出。
2、基于空间的降噪算法(2DNR)
2DNR对窗口进行滤波或者块匹配,对全图的运动计算量较大。
针对块匹配,在输入的图像数据高度为H,宽度为W,块匹配滑动窗口大小为D*D,选取的块大小为d*d,那么计算的复杂度为O(HWD2d2)。
针对滤波,在输入的图像数据高度为H,宽度为W,高斯滤波的算法复杂度为O(HWd2)其中d*d为滤波窗口大小,导向滤波的时间复杂度为O(HW。
进一步而言,在滤波的时候通过引导图像保边的操作来对原图进行保护,具体可以包括如下方式:
2.1、导向滤波
导向滤波利用引导图像数据I来对输入的图像数据P进行滤波,从而得到去噪后的图像数据Q,则导向滤波的数学公式表示为:
其中,i表示像素点,j表示滤波窗口,Wij(I)表示由引导图像数据I来确定加权平均运算中所采用的权值,该引导图像数据可以使独立的一帧图像数据,也可以是图像数据P本身(此时导向滤波器退化成为一个保边滤波器)。
2.2、联合双边滤波
联合双边滤波利用引导图像数据I来对输入的图像数据进行滤波,从而得到去噪后的图像数据J,如果当引导图像数据I为输入的图像数据本身时,联合双边滤波就变成了双边滤波,具体数学表达式如下所示:
其中,p表示像素点,q表示滤波窗口,f(·)为空间滤波器,利用当前像素点与周围像素点的距离来计算权重,g·为范围滤波器,表示有引导图像数据当前像素点与周围像素点的像素值的差距来计算权重。kp是归一化参数,当距离和像素值相差很大的时候,两者乘积很小从而实现保边操作。
如上两种滤波器对原图细节清晰度的保护都是通过引导图像数据来实现,在实际应用场景中,一个较好的引导图像数据是比较难获取的,当两种滤波器都退化成保边滤波器是其对细节的保护在现有的分辨率下是不够的,所以在实际使用过程中会导致去噪后的图像数据变得模糊,尤其是在播放端视频经过上采样显示时表现的尤为明显。
在本实施例中,获取视频数据,视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据,计算第一图像数据与第二图像数据之间的运动信息,分别从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息,在第一图像数据中过滤与运动信息、第一边缘信息、第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域,对目标图像区域进行去噪处理。
首先,本实施例在第一图像数据中选择目标图像区域进行去噪处理,目标图像区域为第一图像数据中局部的区域,即减少了去噪的数据量,从而降低了去噪处理的计算量,在移动终端性能受限的情况下,可实现实时对视频数据进行去噪处理。
在使用2DNR进行去噪处理时,由于降低了计算量,因此,移动终端中较为紧缺的资源可以用于提高视频数据的分辨率,从而保证去噪处理后图像数据的清晰度。
其次,视频数据具有场景特性,人眼对于视频数据中不同元素的敏感程度存在差异,即人眼更加关注平坦并且静止区域中的噪声,对运动部分的噪声的关注更小,本实施例通过运动信息过滤相关的区域,可以在目标图像区域尽可能排除运动区域,使得对目标图像区域进行局部的去噪处理时,主要针对人眼更关注的区域进行去噪,减少对人员关注更少的区域进行去噪,在用户的感受中保持较高的去噪性能。
由于目标图像区域排除或减少了运动区域,因此,应用3DNR进行去噪处理,可以减少或避免因运动匹配的准确性较差而产生的运动模糊,即减少或避免残影的问题,保证了视频数据的清晰度。
再者,如果对第一图像数据的边缘进行去噪处理,容易产生模糊的问题,本实施例通过边缘信息过滤相关的区域,可以在目标图像区域尽可能排除边缘区域,使得对目标图像区域进行局部的去噪处理时,减少对边缘区域进行去噪,在去噪的同时最大化保护视频数据原有的细节清晰度。
最后,本实施例不断累积去噪的效果,使得第二图像数据相对于第一图像数据具有指导意义,在使用上一帧已去噪的第二图像数据计算运动信息、第二边缘信息时,可以提高运动信息、第二边缘信息的准确性,从而提高目标图像区域的准确性。
实施例二
图3为本发明实施例二提供的一种视频去噪方法的流程图,本实施例以前述实施例为基础,进一步细化计算运动信息、匹配目标图像区域的处理操作,该方法具体包括如下步骤:
S301、获取视频数据。
如图4所示,在S401中,从视频数据中提取当前帧,作为待去噪的第一图像数据,以及,在S402中,提取已去噪的上一帧,作为第二图像数据。
S302、将第一图像数据按照多个方式划分为第一图像区域。
在本实施例中,如图4所示,在S403中,使用多个方式对第一图像数据进行分块处理,在每一次分块处理中,划分的块均可称之为第一图像区域。
在一个分块处理的示例中,将第一图像数据划分为指定数量的第一图像区域,例如,将第一图像数据划分为8×16(即对长边划分为8等分,将宽划分为16等分)个第一图像区域、将第一图像数据划分为16×32(即对长边划分为12等分,将宽划分为32等分)个第一图像区域,等等。
在另一个分块处理的示例中,将第一图像数据划分为指定大小(如5像素×5像素)的第一图像区域。
当然,上述划分第一图像区域的方式只是作为示例,在实施本实施例时,可以根据实际情况设置其他划分第一图像区域的方式,本实施例对此不加以限制。另外,除了上述划分第一图像区域的方式外,本领域技术人员还可以根据实际需要采用其它划分第一图像区域的方式,本实施例对此也不加以限制。
S303、将第二图像数据按照多个方式划分为第二图像区域。
在本实施例中,如图4所示,在S403中,使用多个方式对第二图像数据进行分块处理,在每一次分块处理中,划分的块均可称之为第二图像区域。
需要说明的是,对第一图像数据进行分块处理的方式与对第二图像数据进行分块处理的方式相同。
在一个分块处理的示例中,将第二图像数据划分为指定数量的第二图像区域,例如,将第二图像数据划分为8×16个第二图像区域、将第二图像数据划分为16×32个第二图像区域,等等。
在另一个分块处理的示例中,将第二图像数据划分为指定大小的第二图像区域。
当然,上述划分第二图像区域的方式只是作为示例,在实施本实施例时,可以根据实际情况设置其他划分第二图像区域的方式,本实施例对此不加以限制。另外,除了上述划分第二图像区域的方式外,本领域技术人员还可以根据实际需要采用其它划分第二图像区域的方式,本实施例对此也不加以限制。
S304、针对每种方式,计算第一图像区域与第二图像区域之间的运动信息。
在本实施例中,第一图像数据中包含多个像素点,称之为第一像素点。
在同一方式下划分的第一图像区域与第二图像区域,两者可以计算一次运动信息,在第一图像区域中每个第一像素点共同使用该运动信息,因此,每个第一像素点积累的运动信息的数量与划分第一图像区域/第二图像区域的方式的数量相等。
例如,使用方式A(如划分为8×16个块)将第一图像数据划分为多个第一图像区域A、将第二图像数据划分为多个第二图像区域A,则可以使用第二图像区域A与第一图像区域A计算运动信息A;使用方式B(如划分为16×32个块)将第一图像数据划分为多个第一图像区域B、将第二图像数据划分为多个第二图像区域B,则可以使用第二图像区域B与第一图像区域B计算运动信息B;使用方式C(如划分为5×5大小的块)将第一图像数据划分为多个第一图像区域C、将第二图像数据划分为多个第二图像区域C,则可以使用第二图像区域C与第一图像区域C计算运动信息C;此时,针对第一图像数据中的第一像素点,积累了运动信息A、运动信息B、运动信息C。
在具体实现中,如图4所示,在S404中,针对每种方式划分的块,可以计算第一图像区域与第二图像区域之间的绝对残差和(Sum of Absolute Difference,SAD),作为运动信息,从而加快计算速度,此时,运动信息可表示为:
其中,i表示块(即第一图像区域、第二图像区域),j表示划分块的方式,k表示第一像素点,k∈m,F(t)表示第一图像数据、B(t-1)表示第二图像数据。
当然,除了SAD之外,还可以使用其他参数作为运动信息,例如,SATD(Sum ofAbsolute Transformed Difference,Hadamard变换后再绝对值求和)、SSD(Sum ofSquared Difference,差值的平方和)、MAD(Mean Absolute Difference,平均绝对差值)、MSD(Mean Squared Difference,平均平方误差),等等,本实施例对此不加以限制。
本实施例将第一图像数据按照多个方式划分为第一图像区域,将第二图像数据按照多个方式划分为第二图像区域,针对每种方式,计算第一图像区域与第二图像区域之间的运动信息,通过不同尺度地划分块(第一图像区域、第二图像区域),使得运动信息的维度更加丰富,提高运动信息的准确性,从而提高后续计算目标运动概率的准确性。
S305、分别从第一图像数据计算第一边缘信息、从第二图像数据计算第二边缘信息。
S306、针对第一图像数据中的每个第一像素点,基于第一像素点对应的运动信息计算目标运动概率。
在本实施例中,遍历第一图像数据中的每个第一像素点,参考第一像素点对应的运动信息计算目标运动概率,其中,目标运动概率用于表示第一像素点处于运动状态的概率。
在具体实现中,可以通过预设的第一映射函数,将第一像素点对应的每个运动信息(即在每种分块处理的方式下得到的运动信息)映射为候选运动概率,其中,候选运动概率用于表示第一像素点处于运动状态的概率,表示如下:
其中,i表示块(即第一图像区域、第二图像区域),j表示划分块的方式,P表示候选运动概率,P∈[0,1],f1()表示第一映射函数,示例性地,第一映射函数为线性函数,f1(x)=ax+b,x为SAD。
对于使用多种分块处理的方式划分块(第一图像区域),第一图像数据中的第一像素点可能累积多个尺度的运动信息,为了解决块(第一图像区域)产生的影响,在本实施例中,针对同一尺度(同一方式)下的块(第一图像区域),遍历每个块(第一图像区域),针对当前的第一图像区域,生成包含当前的第一图像区域的平滑范围,例如,包含位于第一图像区域上、下、左、右的一个块的位置,为平滑范围,或者,包含位于第一图像区域上、下、左、右、左上、右上、左下、右下的一个块的位置为平滑范围,等等。
针对每个平滑范围,使用平滑范围内所有第一图像区域的候选运动概率,对当前的第一图像区域的候选运动概率进行平滑处理。
在一个示例中,可以使用加权平均的方式对第一图像区域的候选运动概率进行平滑处理,具体而言,对像素范围内所有第一图像区域的候选运动概率配置区域权重,其中,当前的第一图像区域的区域权重大于其他第一图像区域的区域权重,计算候选运动概率与相应的区域权重的乘积,求乘积的平均值,作为当前的第一图像区域的、新的候选运动概率。
当然,除了加权平均之外,还可以采用其他方法对第一图像区域的候选运动概率进行平滑处理,如高斯滤波等,本实施例对此不加以限制。
在确定候选运动概率之后,可结合所有候选运动概率计算目标运动概率。
在一个示例中,可对每个候选运动概率配置第一权重,计算候选运动概率与第一权重之间的第一乘积,计算所有第一乘积的和值,作为第一像素点处于运动状态的目标运动概率,表示如下:
αi=f(s)
其中,pk表示目标运动概率,i表示块(第一图像区域),j表示划分块的方式,αi为第一权重,αi由尺度因子s,经第二映射函数f(·)映射得到,pij为候选运动概率,
S307、基于第一边缘信息计算第一像素点属于边缘的第一边缘概率。
在本实施例中,遍历第一图像数据中的每个第一像素点,通过预设的第三映射函数,将第一像素点对应的第一边缘信息映射为该第一像素点属于边缘的概率,作为第一边缘概率。
其中,该第三映射函数可以为线性函数,也可以为非线性函数,本实施例对此不加以限制。
S308、针对第二图像数据中的每个第二像素点,基于第二边缘信息计算第二像素点属于边缘的第二边缘概率。
在本实施例中,遍历第二图像数据中的每个第二像素点,通过预设的第三映射函数,将第二像素点对应的第二边缘信息映射为该第二像素点属于边缘的概率,作为第二边缘概率。
S309、结合目标运动概率、第一边缘概率、第二边缘概率对第一像素点计算总概率。
在本实施例中,如图4所示,通过运动信息计算目标运动概率、通过第一边缘信息计算第一边缘概率、通过第二边缘信息计算第二边缘概率,在S407中,针对同一个位置的第一像素点、第二像素点(即第二像素点的位置与第一像素点的位置相同),参考该第一像素点对应的目标运动概率、第一边缘概率,以及,该第二像素点对应的第二边缘概率计算总概率,表示该第一像素点为人眼较为关注噪声的平坦区域、人脸较为敏感的边缘区域等非去噪处理对象(即非NR RoI)的概率。
在一种情况中,可以应用线性融合的方法计算总概率,具体而言,对目标运动概率配置第二权重,对第一边缘概率配置第三权重,对第二边缘概率配置第四权重,计算目标运动概率与第二权重之间的第二乘积,计算第一边缘概率与第三权重之间的第三乘积,计算第二边缘概率与第四权重之间的第四乘积,计算第二乘积、第三乘积与第四乘积之间的和值,作为第一像素点的总概率,表示如下:
Ri=α·pk+β·g(Et)+γ·g(Et-1)
其中,Ri表示总概率,pk表示目标运动概率,Et表示第一图像数据中第一像素点的第一边缘概率,Et-1表示第二图像数据中第二像素点的第二边缘概率,α表示第二权重,β表示第三权重,γ表示第四权重,g(·)表示第三映射函数。
当然,除了线性融合之外,还可以使用其他方法计算总概率,例如,对概率(目标运动概率、第一边缘概率、第二边缘概率)配置指数、倒数等参数之后,计算所有概率之间的乘积,作为总概率,等等,本实施例对此不加以限制。
进一步地,为了更好地保留去噪处理的效果,降低噪声对运动信息估计和对边缘检测带来的干扰,本实施例可以通过第四映射函数将总概率从原值映射为新的值。
在具体实现中,确定总概率所处的概率范围,该概率范围包括第一范围、第二范围、第三范围,其中,第一范围中的值小于第二范围中的值,第二范围中的值小于第三范围中的值。
若总概率处于第一范围,表示第一像素点处于运动状态或者属于边缘的置信度较低,则可以降低总概率,从而加快总概率的收敛,使之成为NR RoI。
若总概率处于第二范围,表示第一像素点处于运动状态或者属于边缘的置信度一般,则可以维持总概率,正常进行NR RoI的判断。
若总概率处于第三范围,表示第一像素点处于运动状态或者属于边缘的置信度较高,则可以增大总概率,使之成为非NR RoI。
在一个示例中,第四映射函数f(·)如下:
其中,a1、a2、a3、a4为常数,a3≤a1,a4≤1-a2。
将总概率Ri作为x代入第四映射函数f(·)中,即可输出映射之后的值。
S310、按照总概率选择第一像素点组成目标图像区域。
如图4所示,在确定第一像素点的总概率之后,在S408中,可以参考总概率,选择部分第一像素点,被选择的第一像素点组成目标图像区域(NR RoI)。
一般情况下,总概率越小,成为目标图像区域的可能性越大,反之,总概率越大,成为目标图像区域的可能性越小。
在具体实现中,可确定概率阈值(如0.3-0.5),将第一像素点的总概率与概率阈值进行比较。
若总概率小于或等于该概率阈值,则确认该第一像素点属于目标图像区域。
若总概率大于该概率阈值,则确定该第一像素点属于非目标图像区域。
进一步而言,该概率阈值可以为默认的值,也可以为动态设置的值,本实施例对此不加以限制。
在一个示例中,可调用移动终端的摄像头、光线传感器等组件检测环境光的强度,以预设的映射关系,基于环境光的强度设置概率阈值,其中,概率阈值与环境光的强度正相关,即环境光的强度越强,则概率阈值越大,反之,环境光的强度越弱,则概率阈值越小,使得在容易产生大量噪声的弱光的环境中,通过降低概率阈值减小NR RoI的面积,降低去噪处理的强度。
当然,除了概率阈值之外,还可以使用其他方式选择第一像素点,例如,在确定第一像素点属于目标图像区域之后,可以统计目标图像区域中第一像素点的数量,作为面积,若面积大于或等于预设的面积阈值,则认为该目标图像区域有效,若面积小于预设的面积阈值,则认为该目标图像区域无效,等等,本实施例对此不加以限制。
S311、对目标图像区域进行去噪处理。
为使本领域技术人员更好地理解本发明实施例,以下通过具体的示例来说明本实施例中的去噪方法。
如图5所示,在一段视频数据中提取两帧连续的图像数据,作为第一图像数据520与第二图像数据510,针对第一图像数据520与第二图像数据510进行处理,图像数据530以块的形式表示第一图像数据520中各个第一像素点属于NR RoI的概率,第一像素点越暗表示该第一像素点属于NR RoI的概率越大(即总概率越低)。
区域531表示的是静止不动且平坦的区域,属于NR RoI的概率比较高,被保护的概率较小,可以加大区域531去噪处理的强度。
区域532表示的是存在运动对象的区域,属于NR RoI的概率比较低,在去噪时容易产生运动模糊的情况,对于3DNR或者2DNR来说在该区域进行去噪处理容易带来负面影响,且该区域人眼比较关注运动物体,可以减弱区域532去噪处理的强度。
区域533表示存在运动对象且是强边(边缘)的区域,属于NR RoI的概率比较低,对区域533不进行去噪处理,而是进行保护。
区域534表示运动对象周围的区域,属于NR RoI的概率居中,该区域也是潜在运动模糊的地点,人眼关注点更多的是存在运动对象的区域532,因此,区域534也可以适当的降低去噪处理的强度。
实施例三
图6为本发明实施例三提供的一种视频去噪装置的结构示意图,该装置具体可以包括如下模块:
视频数据获取模块601,用于获取视频数据,所述视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;
运动信息计算模块602,用于计算所述第一图像数据与所述第二图像数据之间的运动信息;
边缘信息计算模块603,用于分别从所述第一图像数据计算第一边缘信息、从所述第二图像数据计算第二边缘信息;
目标图像区域查找模块604,用于在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;
去噪处理模块605,用于对所述目标图像区域进行去噪处理。
在本发明的一个实施例中,所述运动信息计算模块602包括:
第一图像区域划分子模块,用于将所述第一图像数据按照多个方式划分为第一图像区域;
第二图像区域划分子模块,用于将所述第二图像数据按照多个方式划分为第二图像区域;
遍历计算子模块,用于针对每种方式,计算所述第一图像区域与所述第二图像区域之间的运动信息。
在本发明实施例的一个示例中,所述第一图像区域划分子模块包括:
第一数量划分单元,用于将所述第一图像数据划分为指定数量的第一图像区域;
和/或,
第一大小划分单元,用于将所述第一图像数据划分为指定大小的第一图像区域;
所述第二图像区域划分子模块包括:
第二数量划分单元,用于将所述第二图像数据划分为指定数量的第二图像区域;
和/或,
第二大小划分单元,用于将所述第二图像数据划分为指定大小的第二图像区域。
在本发明的一个实施例中,所述目标图像区域查找模块604包括:
目标运动概率计算子模块,用于针对所述第一图像数据中的每个第一像素点,基于所述第一像素点对应的所述运动信息计算目标运动概率,所述目标运动概率用于表示所述第一像素点处于运动状态的概率;
第一边缘概率计算子模块,用于基于所述第一边缘信息计算所述第一像素点属于边缘的第一边缘概率;
第二边缘概率计算子模块,用于针对所述第二图像数据中的每个第二像素点,基于所述第二边缘信息计算所述第二像素点属于边缘的第二边缘概率,所述第二像素点的位置与所述第一像素点的位置相同;
总概率计算子模块,用于结合所述目标运动概率、所述第一边缘概率、所述第二边缘概率对所述第一像素点计算总概率;
像素点选择子模块,用于按照所述总概率选择第一像素点组成目标图像区域。
在本发明的一个实施例中,所述目标运动概率计算子模块包括:
候选运动概率映射单元,用于将所述第一像素点对应的每个所述运动信息映射为候选运动概率,所述候选运动概率用于表示所述第一像素点处于运动状态的概率;
候选运动概率结合单元,用于结合所有所述候选运动概率计算目标运动概率。
在本发明的一个实施例中,所述目标运动概率计算子模块还包括:
平滑范围生成单元,用于针对当前的第一图像区域,生成包含当前的第一图像区域的平滑范围;
平滑处理单元,用于使用所述平滑范围内所有第一图像区域的候选运动概率,对当前的第一图像区域的候选运动概率进行平滑处理。
在本发明实施例的一个示例中,所述候选运动概率结合单元包括:
第一权重配置子单元,用于对每个所述候选运动概率配置第一权重;
第一乘积计算子单元,用于计算所述候选运动概率与第一权重之间的第一乘积;
第一求和子单元,用于计算所有所述第一乘积的和值,作为所述第一像素点处于运动状态的目标运动概率。
在本发明的一个实施例中,所述总概率计算子模块包括:
第二权重配置单元,用于对所述目标运动概率配置第二权重;
第三权重配置单元,用于对所述第一边缘概率配置第三权重;
第四权重配置单元,用于对所述第二边缘概率配置第四权重;
第二乘积计算单元,用于计算所述目标运动概率与所述第二权重之间的第二乘积;
第三乘积计算单元,用于计算所述第一边缘概率与所述第三权重之间的第三乘积;
第四乘积计算单元,用于计算所述第二边缘概率与所述第四权重之间的第四乘积;
第二求和单元,用于计算所述第二乘积、所述第三乘积与所述第四乘积之间的和值,作为所述第一像素点的总概率。
在本发明的一个实施例中,所述总概率计算子模块包括:
概率范围确定单元,用于确定所述总概率所处的概率范围,所述概率范围包括第一范围、第二范围、第三范围,所述第一范围中的值小于所述第二范围中的值,所述第二范围中的值小于所述第三范围中的值;
总概率降低单元,用于若所述总概率处于所述第一范围,则降低所述总概率;
总概率维持单元,用于若所述总概率处于所述第二范围,则维持所述总概率;
总概率增大单元,用于若所述总概率处于所述第三范围,则增大所述总概率。
在本发明的一个实施例中,所述像素点选择子模块包括:
概率阈值确定单元,用于确定概率阈值;
概率比较单元,用于将所述总概率与所述概率阈值进行比较;
像素点确定单元,用于若所述总概率小于或等于所述概率阈值,则确认所述第一像素点属于目标图像区域。
在本发明的一个实施例中,所述概率阈值确定单元包括:
强度检测子单元,用于检测环境光的强度;
概率阈值设置子单元,用于基于所述环境光的强度设置概率阈值,其中,所述概率阈值与所述环境光的强度正相关。
本发明实施例所提供的视频去噪装置可执行本发明任意实施例所提供的视频去噪方法,具备执行方法相应的功能模块和有益效果。
实施例四
图7为本发明实施例四提供的一种移动终端的结构示意图。如图7所示,该移动终端包括处理器700、存储器701、通信模块702、输入装置703和输出装置704;移动终端中处理器700的数量可以是一个或多个,图7中以一个处理器700为例;移动终端中的处理器700、存储器701、通信模块702、输入装置703和输出装置704可以通过总线或其他方式连接,图7中以通过总线连接为例。
存储器701作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本实施例中的视频去噪方法对应的模块(例如,如图6所示的视频去噪装置中的视频数据获取模块601、运动信息计算模块602、边缘信息计算模块603、目标图像区域查找模块604和去噪处理模块605)。处理器700通过运行存储在存储器701中的软件程序、指令以及模块,从而执行移动终端的各种功能应用以及数据处理,即实现上述的视频去噪方法。
存储器701可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据移动终端的使用所创建的数据等。此外,存储器701可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器701可进一步包括相对于处理器700远程设置的存储器,这些远程存储器可以通过网络连接至移动终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信模块702,用于与显示屏建立连接,并实现与显示屏的数据交互。
输入装置703可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入,还可以是用于获取图像的摄像头以及获取音频数据的拾音设备。
输出装置704可以包括扬声器等音频设备。
需要说明的是,输入装置703和输出装置704的具体组成可以根据实际情况设定。
处理器700通过运行存储在存储器701中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的电子白板的连接节点控制方法。
本实施例提供的移动终端,可执行本发明任一实施例提供的视频去噪方法,具体相应的功能和有益效果。
实施例五
本发明实施例五还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现一种视频去噪方法,该方法包括:
获取视频数据,所述视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;
计算所述第一图像数据与所述第二图像数据之间的运动信息;
分别从所述第一图像数据计算第一边缘信息、从所述第二图像数据计算第二边缘信息;
在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;
对所述目标图像区域进行去噪处理。
当然,本发明实施例所提供的计算机可读存储介质,其计算机程序不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的视频去噪方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台移动终端(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述视频去噪装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (13)
1.一种视频去噪方法,其特征在于,包括:
获取视频数据,所述视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;
计算所述第一图像数据与所述第二图像数据之间的运动信息;
分别从所述第一图像数据计算第一边缘信息、从所述第二图像数据计算第二边缘信息;
在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;
对所述目标图像区域进行去噪处理;
其中,所述在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域,包括:
针对所述第一图像数据中的每个第一像素点,基于所述第一像素点对应的所述运动信息计算目标运动概率,所述目标运动概率用于表示所述第一像素点处于运动状态的概率;
基于所述第一边缘信息计算所述第一像素点属于边缘的第一边缘概率;
针对所述第二图像数据中的每个第二像素点,基于所述第二边缘信息计算所述第二像素点属于边缘的第二边缘概率,所述第二像素点的位置与所述第一像素点的位置相同;
结合所述目标运动概率、所述第一边缘概率、所述第二边缘概率对所述第一像素点计算总概率;
按照所述总概率选择第一像素点组成目标图像区域。
2.根据权利要求1所述的方法,其特征在于,所述计算所述第一图像数据与所述第二图像数据之间的运动信息,包括:
将所述第一图像数据按照多个方式划分为第一图像区域;
将所述第二图像数据按照多个方式划分为第二图像区域;
针对每种方式,计算所述第一图像区域与所述第二图像区域之间的运动信息。
3.根据权利要求2所述的方法,其特征在于,所述将所述第一图像数据按照多个方式划分为第一图像区域,包括:
将所述第一图像数据划分为指定数量的第一图像区域;
和/或,
将所述第一图像数据划分为指定大小的第一图像区域;
所述将所述第二图像数据按照多个方式划分为第二图像区域,包括:
将所述第二图像数据划分为指定数量的第二图像区域;
和/或,
将所述第二图像数据划分为指定大小的第二图像区域。
4.根据权利要求1所述的方法,其特征在于,所述基于所述第一像素点对应的所述运动信息计算目标运动概率,包括:
将所述第一像素点对应的每个所述运动信息映射为候选运动概率,所述候选运动概率用于表示所述第一像素点处于运动状态的概率;
结合所有所述候选运动概率计算目标运动概率。
5.根据权利要求4所述的方法,其特征在于,所述基于所述第一像素点对应的所述运动信息计算目标运动概率,还包括:
针对当前的第一图像区域,生成包含当前的第一图像区域的平滑范围;
使用所述平滑范围内所有第一图像区域的候选运动概率,对当前的第一图像区域的候选运动概率进行平滑处理。
6.根据权利要求4所述的方法,其特征在于,所述结合所有所述候选运动概率计算目标运动概率,包括:
对每个所述候选运动概率配置第一权重;
计算所述候选运动概率与第一权重之间的第一乘积;
计算所有所述第一乘积的和值,作为所述第一像素点处于运动状态的目标运动概率。
7.根据权利要求1所述的方法,其特征在于,所述结合所述目标运动概率、所述第一边缘概率、所述第二边缘概率对所述第一像素点计算总概率,包括:
对所述目标运动概率配置第二权重;
对所述第一边缘概率配置第三权重;
对所述第二边缘概率配置第四权重;
计算所述目标运动概率与所述第二权重之间的第二乘积;
计算所述第一边缘概率与所述第三权重之间的第三乘积;
计算所述第二边缘概率与所述第四权重之间的第四乘积;
计算所述第二乘积、所述第三乘积与所述第四乘积之间的和值,作为所述第一像素点的总概率。
8.根据权利要求1所述的方法,其特征在于,所述结合所述目标运动概率、所述第一边缘概率、所述第二边缘概率对所述第一像素点计算总概率,包括:
确定所述总概率所处的概率范围,所述概率范围包括第一范围、第二范围、第三范围,所述第一范围中的值小于所述第二范围中的值,所述第二范围中的值小于所述第三范围中的值;
若所述总概率处于所述第一范围,则降低所述总概率;
若所述总概率处于所述第二范围,则维持所述总概率;
若所述总概率处于所述第三范围,则增大所述总概率。
9.根据权利要求1所述的方法,其特征在于,所述按照所述总概率选择第一像素点组成目标图像区域,包括:
确定概率阈值;
将所述总概率与所述概率阈值进行比较;
若所述总概率小于或等于所述概率阈值,则确认所述第一像素点属于目标图像区域。
10.根据权利要求9所述的方法,其特征在于,所述确定概率阈值,包括:
检测环境光的强度;
基于所述环境光的强度设置概率阈值,其中,所述概率阈值与所述环境光的强度正相关。
11.一种视频去噪装置,其特征在于,包括:
视频数据获取模块,用于获取视频数据,所述视频数据包括当前帧待去噪的第一图像数据与上一帧已去噪的第二图像数据;
运动信息计算模块,用于计算所述第一图像数据与所述第二图像数据之间的运动信息;
边缘信息计算模块,用于分别从所述第一图像数据计算第一边缘信息、从所述第二图像数据计算第二边缘信息;
目标图像区域查找模块,用于在所述第一图像数据中过滤与所述运动信息、所述第一边缘信息、所述第二边缘信息匹配的区域,以将剩余的区域作为目标图像区域;
去噪处理模块,用于对所述目标图像区域进行去噪处理;
其中,所述目标图像区域查找模块包括:
目标运动概率计算子模块,用于针对所述第一图像数据中的每个第一像素点,基于所述第一像素点对应的所述运动信息计算目标运动概率,所述目标运动概率用于表示所述第一像素点处于运动状态的概率;
第一边缘概率计算子模块,用于基于所述第一边缘信息计算所述第一像素点属于边缘的第一边缘概率;
第二边缘概率计算子模块,用于针对所述第二图像数据中的每个第二像素点,基于所述第二边缘信息计算所述第二像素点属于边缘的第二边缘概率,所述第二像素点的位置与所述第一像素点的位置相同;
总概率计算子模块,用于结合所述目标运动概率、所述第一边缘概率、所述第二边缘概率对所述第一像素点计算总概率;
像素点选择子模块,用于按照所述总概率选择第一像素点组成目标图像区域。
12.一种移动终端,其特征在于,所述移动终端包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的视频去噪方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-10中任一所述的视频去噪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010362004.XA CN111539895B (zh) | 2020-04-30 | 2020-04-30 | 一种视频去噪方法、装置、移动终端和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010362004.XA CN111539895B (zh) | 2020-04-30 | 2020-04-30 | 一种视频去噪方法、装置、移动终端和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111539895A CN111539895A (zh) | 2020-08-14 |
CN111539895B true CN111539895B (zh) | 2023-04-18 |
Family
ID=71977388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010362004.XA Active CN111539895B (zh) | 2020-04-30 | 2020-04-30 | 一种视频去噪方法、装置、移动终端和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111539895B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111556227B (zh) * | 2020-05-19 | 2022-04-15 | 广州市百果园信息技术有限公司 | 一种视频去噪方法、装置、移动终端和存储介质 |
CN112085675B (zh) * | 2020-08-31 | 2023-07-04 | 四川大学 | 深度图像去噪方法、前景分割方法及人体运动监测方法 |
CN113256484B (zh) * | 2021-05-17 | 2023-12-05 | 百果园技术(新加坡)有限公司 | 一种对图像进行风格化处理的方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101087413A (zh) * | 2006-06-07 | 2007-12-12 | 中兴通讯股份有限公司 | 视频序列中运动物体的分割方法 |
CN102281386A (zh) * | 2010-06-08 | 2011-12-14 | 中兴通讯股份有限公司 | 一种对视频图像进行自适应去噪的方法及装置 |
CN106803865A (zh) * | 2016-12-23 | 2017-06-06 | 中国科学院自动化研究所 | 视频时域的去噪方法及系统 |
CN108447029A (zh) * | 2018-02-12 | 2018-08-24 | 深圳创维-Rgb电子有限公司 | 一种视频序列的去噪方法、装置、服务器和存储介质 |
-
2020
- 2020-04-30 CN CN202010362004.XA patent/CN111539895B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101087413A (zh) * | 2006-06-07 | 2007-12-12 | 中兴通讯股份有限公司 | 视频序列中运动物体的分割方法 |
CN102281386A (zh) * | 2010-06-08 | 2011-12-14 | 中兴通讯股份有限公司 | 一种对视频图像进行自适应去噪的方法及装置 |
CN106803865A (zh) * | 2016-12-23 | 2017-06-06 | 中国科学院自动化研究所 | 视频时域的去噪方法及系统 |
CN108447029A (zh) * | 2018-02-12 | 2018-08-24 | 深圳创维-Rgb电子有限公司 | 一种视频序列的去噪方法、装置、服务器和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111539895A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539895B (zh) | 一种视频去噪方法、装置、移动终端和存储介质 | |
US10963993B2 (en) | Image noise intensity estimation method, image noise intensity estimation device, and image recognition device | |
CN111614867B (zh) | 一种视频去噪方法、装置、移动终端和存储介质 | |
US10762649B2 (en) | Methods and systems for providing selective disparity refinement | |
CN111556227B (zh) | 一种视频去噪方法、装置、移动终端和存储介质 | |
WO2017185772A1 (zh) | 一种视频图像增强的方法、装置和计算机存储介质 | |
KR20110014067A (ko) | 스테레오 컨텐트의 변환 방법 및 시스템 | |
RU2419880C2 (ru) | Способ и устройство для вычисления и фильтрации карты диспарантности на основе стерео изображений | |
WO2023273868A1 (zh) | 图像降噪方法、装置、终端、存储介质 | |
CN106709890B (zh) | 用于低照度视频图像处理的方法及装置 | |
CN112308797B (zh) | 角点检测方法、装置、电子设备及可读存储介质 | |
CN111986116B (zh) | 视频降噪方法和装置、电子设备、计算机可读存储介质 | |
KR20220015964A (ko) | 시각적 주행 거리 측정 애플리케이션들을 위한 손실된 이미지 특징 복원을 위한 방법 및 시스템 | |
CN115131229A (zh) | 图像降噪、滤波数据处理方法、装置和计算机设备 | |
CN115471413A (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
CN108270945A (zh) | 一种运动补偿去噪方法及装置 | |
Tallón et al. | Upsampling and denoising of depth maps via joint-segmentation | |
CN113438386B (zh) | 一种应用于视频处理的动静判定方法及装置 | |
CN113205011B (zh) | 图像掩膜确定方法及装置、存储介质和电子设备 | |
CN115965537A (zh) | 一种视频图像降噪方法、装置及计算机存储介质 | |
Geethu et al. | Weighted guided image filtering and haze removal in single image | |
Ponomaryov et al. | Fuzzy color video filtering technique for sequences corrupted by additive Gaussian noise | |
CN105282419A (zh) | 去噪声方法以及影像系统 | |
CN115719314A (zh) | 一种去拖影方法、去拖影装置及电子设备 | |
CN113379631B (zh) | 一种图像去雾的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231008 Address after: 31a, 15th floor, building 30, maple commercial city, bangrang Road, Brazil Patentee after: Baiguoyuan Technology (Singapore) Co.,Ltd. Address before: 5-13 / F, West Tower, building C, 274 Xingtai Road, Shiqiao street, Panyu District, Guangzhou, Guangdong 510000 Patentee before: GUANGZHOU BAIGUOYUAN INFORMATION TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |