CN106027943A - 一种视频去隔行方法 - Google Patents

一种视频去隔行方法 Download PDF

Info

Publication number
CN106027943A
CN106027943A CN201610541372.4A CN201610541372A CN106027943A CN 106027943 A CN106027943 A CN 106027943A CN 201610541372 A CN201610541372 A CN 201610541372A CN 106027943 A CN106027943 A CN 106027943A
Authority
CN
China
Prior art keywords
region
interpolation
video
area
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610541372.4A
Other languages
English (en)
Other versions
CN106027943B (zh
Inventor
杨长水
陈瑞
贾惠柱
解晓东
高文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201610541372.4A priority Critical patent/CN106027943B/zh
Publication of CN106027943A publication Critical patent/CN106027943A/zh
Application granted granted Critical
Publication of CN106027943B publication Critical patent/CN106027943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0142Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being edge adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

本发明提供一种视频去隔行方法,包括以下步骤:区域划分步骤,利用五场运动检测器,将视频图像划分为运动区域和静止区域;静态区域插值步骤,在所述静止区域,将两个邻场合并为一帧,采用时插法进行插值;动态区域插值步骤,在所述运动区域,采用加强的边缘线平均法进行插值。本发明通过精准的运动检测来提高边缘线平均,提高了去隔行处理的效果。

Description

一种视频去隔行方法
技术领域
本发明属于视频图像处理技术领域,特别是涉及一种视频去隔行方法。
背景技术
传统的视频有隔行扫描视频和逐行扫描视频两种格式。隔行扫描格式由于节省带宽所而被广泛用于广播电视系统。但隔行扫描会带来诸如锯齿化、行蠕动、行间闪烁、清晰度低等缺陷,并且这些现象在运动区域会更加明显。由于像液晶显示屏、高清电视、超高清电视、等离子显示面板等显示设备需要更多的逐行扫描视频,因此,一种高质量的去隔行技术变得更加重要,实现从隔行到逐行扫描的帧格式转换技术。
从现有技术文献中我们可以看到,许多去隔行算法已经被提出并且现有的去隔行算法可以大致分为两大类:场内去隔行算法和场间去隔行算法。在场内去隔行算法中,空间域内插值被广泛使用,其中一种是边缘线平均法。在某种程度上,由于边缘线平均算法运算量低,所以这种算法比较流行。边缘线平均算法的缺点是,它在高频区域非常灵敏,并且可能会减少在垂直方向上的分辨率。场间去隔行方法包括运动补偿算法和运动自适应算法。运动补偿算法可以产生最佳的重建质量,但其计算复杂度太高,对于实时视频系统他会产生复杂缓冲结构。因此,提出了运动自适应法去隔行算法来权衡它的质量性和复杂性。
由于运动自适应去隔行算法较低的计算复杂度和可接受的视频质量,所以在显示设备,消费电子产品和其他实时视频应用领域得到了广泛的应用。运动自适应去隔行算法首先用运动检测器将视频图像划分为运动和静止区域,然后在静止区域采用场内插值,在运动区域采用场间算法进行插值。并且运动自适应去隔行方法依赖于运动检测器的精度。
发明内容
针对上述问题,本发明提供一种视频去隔行方法,包括以下步骤:区域划分步骤,利用五场运动检测器,将视频图像划分为运动区域和静止区域;静态区域插值步骤,在所述静止区域,将两个邻场合并为一帧,采用时插法进行插值;以及动态区域插值步骤,在所述运动区域,采用加强的边缘线平均法进行插值。
优选为,所述动态区域插值步骤,具体包括以下步骤:动态区域划分步骤,通过纹理检测器确定平滑区域和纹理区域;平滑区域插值步骤,在所述平滑区域采用3×13边缘线平均法进行插值;以及纹理区域插值步骤,在所述纹理区域采用3×3边缘线平均法进行插值。
优选为根据以下公式计算所述相邻四个参考场中的两个像素的差值
d 1 = | p ( x - 1 , y + 1 , t ) - p ( x - 1 , y + 1 , t - 2 ) | + | p ( x - 1 , y + 1 , t + 2 ) - p ( x - 1 , y + 1 , t ) | / 2
d 2 = | p ( x , y + 1 , t ) - p ( x , y + 1 , t - 2 ) | + | p ( x , y + 1 , t + 2 ) - p ( x , y + 1 , t ) | / 2
d 3 = | p ( x + 1 , y + 1 , t ) - p ( x + 1 , y + 1 , t - 2 ) | + | p ( x + 1 , y + 1 , t + 2 ) - p ( x + 1 , y + 1 , t ) | / 2
d4=[|p(x-1,y,t-1)-p(x-1,y,t+1)|]
d5=[|p(x,y,t-1)-p(x,y,t+1)|]
d6=[|p(x+1,y,t-1)-p(x+1,y,t+1)|]
d 7 = | p ( x - 1 , y - 1 , t ) - p ( x - 1 , y - 1 , t - 2 ) | + | p ( x - 1 , y - 1 , t + 2 ) - p ( x - 1 , y - 1 , t ) | / 2
d 8 = | p ( x , y - 1 , t ) - p ( x , y - 1 , t - 2 ) | + | p ( x , y - 1 , t + 2 ) - p ( x , y - 1 , t ) | / 2
d 9 = | p ( x + 1 , y - 1 , t ) - p ( x + 1 , y - 1 , t - 2 ) | + | p ( x + 1 , y - 1 , t + 2 ) - p ( x + 1 , y - 1 , t ) | / 2
优选为,所述计算像素的运动状态,表示为下式,
EV=DV*GV
其中,
D V = d 1 d 2 d 3 d 4 d 5 d 6 d 7 d 8 d 9 G V = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33
GV为为二维高斯滤波器的值矩阵。
优选为,所述根据阈值判定像素是静止还是运动,表示为
其中,M(x,y)=1表示该像素是运动的,M(x,y)=0表示该像素是静止的。
优选为,根据以下方程对所述阈值进行调整,
其中,y表示像素值。
优选为,当前像素值是255或0时,阈值设定为25;当前像素值是127,阈值被设定为10。
优选为,在所述动态区域划分步骤中,包括:
根据以下公式计算区域特征值Val值,
V a l = Σ k = - 1 1 ( ( x i - k , j - 1 - a v g ) 2 + ( x i - k , j + 1 ) ) / 10
a v g = ( Σ k = - 1 1 ( x i - k , j - 1 + x i - k , j + 1 ) ) / 10
当Val值大于纹理检测阈值时,则该动态区域分类为纹理区,否则,该动态区域分类为平滑区。
优选为,在所述3×13边缘线平均法中,包括
根据以下公式查找相对方向:
D ( k ) = Σ k = - 4 4 | X ( i - 1 , j - k ) - X ( i + 1 , j + k ) |
θ=arg min D(k))
得到D(k)的最小值时,θ等于k。
根据以下公式计算内插像素值:
X(i,j)=[X(i-1,j-dmin)+X(i+1,j+θ)]/2。
本发明通过精准的运动检测来提高边缘线平均,提高了去隔行处理的效果。
附图说明
图1是视频去隔行方法的流程图。
图2是从相邻的参考场提取运动信息的示意图。
图3是内插像素及周边像素的示意图。
图4是改进的边缘线平均线插值法的示意图。
图5是常规的边缘平均线插值法的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,本发明的视频去隔行方法包括如下步骤:
区域划分步骤S1,利用五场运动检测器,将视频图像划分为运动区域和静止区域。在该步骤中,利用了相邻四个参考场像素灰度的差异性。在图2中显示了如何从相邻的参考场提取运动信息。其中X轴和Y轴分别代表对应场的行和列,t轴为场号。在图3中示出了内插像素及其周边像素。
d 1 = | p ( x - 1 , y + 1 , t ) - p ( x - 1 , y + 1 , t - 2 ) | + | p ( x - 1 , y + 1 , t + 2 ) - p ( x - 1 , y + 1 , t ) | / 2 - - - ( 1 )
d 2 = | p ( x , y + 1 , t ) - p ( x , y + 1 , t - 2 ) | + | p ( x , y + 1 , t + 2 ) - p ( x , y + 1 , t ) | / 2 - - - ( 2 )
d 3 = | p ( x + 1 , y + 1 , t ) - p ( x + 1 , y + 1 , t - 2 ) | + | p ( x + 1 , y + 1 , t + 2 ) - p ( x + 1 , y + 1 , t ) | / 2 - - - ( 3 )
d4=[|p(x-1,y,t-1)-p(x-1,y,t+1)|] (4)
d5=[|p(x,y,t-1)-p(x,y,t+1)|] (5)
d6=[|p(x+1,y,t-1)-p(x+1,y,t+1)|] (6)
d 7 = | p ( x - 1 , y - 1 , t ) - p ( x - 1 , y - 1 , t - 2 ) | + | p ( x - 1 , y - 1 , t + 2 ) - p ( x - 1 , y - 1 , t ) | / 2 - - - ( 7 )
d 8 = | p ( x , y - 1 , t ) - p ( x , y - 1 , t - 2 ) | + | p ( x , y - 1 , t + 2 ) - p ( x , y - 1 , t ) | / 2 - - - ( 8 )
d 9 = | p ( x + 1 , y - 1 , t ) - p ( x + 1 , y - 1 , t - 2 ) | + | p ( x + 1 , y - 1 , t + 2 ) - p ( x + 1 , y - 1 , t ) | / 2 - - - ( 9 )
两个场像素的差值可以利用公式(1)到公式(9)计算。t是场号。p(x,y)是示内插的像素值。
D V = d 1 d 2 d 3 d 4 d 5 d 6 d 7 d 8 d 9 - - - ( 10 )
G V = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 - - - ( 11 )
DV是一个3×3的矩阵。GV定义为二维高斯滤波器的值矩阵,并且此矩阵的其西格玛值设为1。我们利用高斯滤波器来减少噪音的影响,运动状态由下列式子表示。
EV=DV*GV (12)
M(x,y)=1表示这个像素是运动的,M(x,y)=0表示这个像素是静止的。
我们使用阈值来确定运动区域。当场差比阈值小时,我们判断该区域为静止区域。当该场差比阈值大时,我们认为该区域为运动区域。人眼对比灰色区域较亮和较暗区域较不敏感,因此,在较亮和较暗区域中的阈值应该比在灰色区域中的阈值小。下面的方程提出了运动检测一种简单的阈值调整原理。
若当前像素值是255或0,则将阈值设定为25;若当前像素值是127,则将阈值设定为10。
静态区域插值步骤S2,在静止区域,将两个邻场合并为一帧,采用时插法进行插值。
动态区域插值步骤S3,在运动区域,采用加强的边缘线平均法进行插值。具体地来说,包括以下步骤:
由于边缘线平均具有更宽的通带,在水平边缘区域中能表现出更好的性能,但是在高频区域中表现不佳。为了在所有运动区域,都能得到很高的质量,在动态区域区分步骤S31中,使用纹理检测器来确定平滑区域和纹理区域,包括以下步骤:
首先计算区域特征值
V a l = Σ k = - 1 1 ( ( x i - k , j - 1 - a v g ) 2 + ( x i - k , j + 1 ) ) / 10 - - - ( 15 )
其中,
a v g = ( Σ k = - 1 1 ( x i - k , j - 1 + x i - k , j + 1 ) ) / 10 - - - ( 16 )
然后,通过纹理检测阈值进行判定,如果实验中Val值大于纹理检测阈值,则该区域分类为纹理区;否则,该区域分类为平滑区。
接下来,进行平滑区域插值步骤S32和纹理区域插值步骤S33。在平滑区一个3×13的窗上用边缘线平均法查找相对方向,如图4所示,其中,差值最小处为最佳的修正方向。将像素值插在该最佳的修正方向。
具体表示为下式
D ( k ) = Σ k = - 4 4 | X ( i - 1 , j - k ) - X ( i + 1 , j + k ) | - - - ( 17 )
θ=argminD(k) (18)
Dk代表每个方向的预测值,取最小值为所查找到的相对方向。当我们得到D(k)的最小值时,θ等于k。
然后,内插像素值可以如下计算:
X(i,j)=[X(i-1,j-d min)+X(i+1,j+θ)]/2 (19)
在纹理区域插值步骤S33中,在纹理区域加一个3×3的窗来获得更好的表现,将上述公式中k的范围设定为(-1,1),与常规的边缘线平均插值算法相似,该算法如图5所示。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种视频去隔行方法,其特征在于,
包括以下步骤:
区域划分步骤,利用五场运动检测器,将视频图像划分为运动区域和静止区域;
静态区域插值步骤,在所述静止区域,将两个邻场合并为一帧,采用时插法进行插值;以及
动态区域插值步骤,在所述运动区域,采用加强的边缘线平均法进行插值。
2.根据权利要求1所述的视频去隔行方法,其特征在于,
所述动态区域插值步骤,具体包括以下步骤:
动态区域划分步骤,通过纹理检测器确定平滑区域和纹理区域;
平滑区域插值步骤,在所述平滑区域采用3×13边缘线平均法进行插值;以及
纹理区域插值步骤,在所述纹理区域采用3×3边缘线平均法进行插值。
3.根据权利要求1所述的视频去隔行方法,其特征在于,
所述区域划分步骤,包括:
计算相邻四个参考场中的两个像素的差值;
计算像素的运动状态;
根据阈值判定像素是静止还是运动。
4.根据权利要求3所述的视频去隔行方法,其特征在于,
根据以下公式计算所述相邻四个参考场中的两个像素的差值
d 1 = | p ( x - 1 , y + 1 , t ) - p ( x - 1 , y + 1 , t - 2 ) | + | p ( x - 1 , y + 1 , t + 2 ) - p ( x - 1 , y + 1 , t ) | / 2
d 2 = | p ( x , y + 1 , t ) - p ( x , y + 1 , t - 2 ) | + | p ( x , y + 1 , t + 2 ) - p ( x , y + 1 , t ) | / 2
d 3 = | p ( x + 1 , y + 1 , t ) - p ( x + 1 , y + 1 , t - 2 ) | + | p ( x + 1 , y + 1 , t + 2 ) - p ( x + 1 , y + 1 , t ) | / 2
d4=[|p(x-1,y,t-1)-p(x-1,y,t+1)|]
d5=[|p(x,y,t-1)-p(x,y,t+1)|]
d6=[|p(x+1,y,t-1)-p(x+1,y,t+1)|]
d 7 = | p ( x - 1 , y - 1 , t ) - p ( x - 1 , y - 1 , t - 2 ) | + | p ( x - 1 , y - 1 , t + 2 ) - p ( x - 1 , y - 1 , t ) | / 2
d 8 = | p ( x , y - 1 , t ) - p ( x , y - 1 , t - 2 ) | + | p ( x , y - 1 , t + 2 ) - p ( x , y - 1 , t ) | / 2
d 9 = | p ( x + 1 , y - 1 , t ) - p ( x + 1 , y - 1 , t - 2 ) | + | p ( x + 1 , y - 1 , t + 2 ) - p ( x + 1 , y - 1 , t ) | / 2.
5.根据权利要求3所述的视频去隔行方法,其特征在于,所述计算像素的运动状态,表示为下式,
EV=DV*GV
其中,
D V = d 1 d 2 d 3 d 4 d 5 d 6 d 7 d 8 d 9 G V = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33
GV为为二维高斯滤波器的值矩阵。
6.根据权利要求3所述的视频去隔行方法,其特征在于,
所述根据阈值判定像素是静止还是运动,表示为
其中,M(x,y)=1表示该像素是运动的,M(x,y)=0表示该像素是静止的。
7.根据权利要求3或6所述的视频去隔行方法,其特征在于,
根据以下方程对所述阈值进行调整,
其中,y表示像素值。
8.根据权利要求7所述的视频去隔行方法,其特征在于,
当前像素值是255或0时,阈值设定为25;当前像素值是127,阈值被设定为10。
9.根据权利要求2所述的视频去隔行方法,其特征在于,
在所述动态区域划分步骤中,包括:
根据以下公式计算区域特征值Val值,
V a l = Σ k = - 1 1 ( ( x i - k , j - 1 - a v g ) 2 + ( x i - k , j + 1 ) ) / 10
a v g = ( Σ k = - 1 1 ( x i - k , j - 1 + x i - k , j + 1 ) ) / 10
当Val值大于纹理检测阈值时,则该动态区域分类为纹理区,否则,该动态区域分类为平滑区。
10.根据权利要求2所述的视频去隔行方法,其特征在于,
在所述3×13边缘线平均法中,包括
根据以下公式查找相对方向:
D ( k ) = Σ k = - 4 4 | X ( i - 1 , j - k ) - X ( i + 1 , j + k ) |
θ=arg min D(k)
得到D(k)的最小值时,θ等于k;
根据以下公式计算内插像素值:
X(i,j)=[X(i-1,j-d min)+X(i+1,j+θ)]/2。
CN201610541372.4A 2016-07-11 2016-07-11 一种视频去隔行方法 Active CN106027943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610541372.4A CN106027943B (zh) 2016-07-11 2016-07-11 一种视频去隔行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610541372.4A CN106027943B (zh) 2016-07-11 2016-07-11 一种视频去隔行方法

Publications (2)

Publication Number Publication Date
CN106027943A true CN106027943A (zh) 2016-10-12
CN106027943B CN106027943B (zh) 2019-01-15

Family

ID=57109928

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610541372.4A Active CN106027943B (zh) 2016-07-11 2016-07-11 一种视频去隔行方法

Country Status (1)

Country Link
CN (1) CN106027943B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107018350A (zh) * 2017-04-21 2017-08-04 西安诺瓦电子科技有限公司 视频去隔行处理方法及装置
CN107071326A (zh) * 2017-04-26 2017-08-18 西安诺瓦电子科技有限公司 视频处理方法及装置
WO2020142916A1 (zh) * 2019-01-09 2020-07-16 西安诺瓦电子科技有限公司 去隔行插值方法、装置及系统、视频处理方法和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268168A1 (en) * 2005-05-13 2006-11-30 The Hong Kong University Of Science And Technology Content adaptive de-interlacing algorithm
CN101106685A (zh) * 2007-08-31 2008-01-16 湖北科创高新网络视频股份有限公司 一种基于运动检测的去隔行方法和装置
CN101699856A (zh) * 2009-10-30 2010-04-28 北京中科大洋科技发展股份有限公司 一种运动自适应的去交织方法
CN102045530A (zh) * 2010-12-30 2011-05-04 北京中科大洋科技发展股份有限公司 一种基于边缘检测的运动自适应的去交织方法
US20140028910A1 (en) * 2012-07-25 2014-01-30 Vixs Systems, Inc. Motion adaptive deinterlacer and methods for use therewith

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268168A1 (en) * 2005-05-13 2006-11-30 The Hong Kong University Of Science And Technology Content adaptive de-interlacing algorithm
CN101106685A (zh) * 2007-08-31 2008-01-16 湖北科创高新网络视频股份有限公司 一种基于运动检测的去隔行方法和装置
CN101699856A (zh) * 2009-10-30 2010-04-28 北京中科大洋科技发展股份有限公司 一种运动自适应的去交织方法
CN102045530A (zh) * 2010-12-30 2011-05-04 北京中科大洋科技发展股份有限公司 一种基于边缘检测的运动自适应的去交织方法
US20140028910A1 (en) * 2012-07-25 2014-01-30 Vixs Systems, Inc. Motion adaptive deinterlacer and methods for use therewith

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107018350A (zh) * 2017-04-21 2017-08-04 西安诺瓦电子科技有限公司 视频去隔行处理方法及装置
CN107018350B (zh) * 2017-04-21 2019-10-29 西安诺瓦星云科技股份有限公司 运动检测方法及装置
CN107071326A (zh) * 2017-04-26 2017-08-18 西安诺瓦电子科技有限公司 视频处理方法及装置
WO2020142916A1 (zh) * 2019-01-09 2020-07-16 西安诺瓦电子科技有限公司 去隔行插值方法、装置及系统、视频处理方法和存储介质

Also Published As

Publication number Publication date
CN106027943B (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
KR101536794B1 (ko) 후광현상이 줄어든 영상보간 장치 및 방법
JP3836159B2 (ja) エッジ相関を用いてインタレース動画をプログレッシブ動画に変換するシステム
US7769089B1 (en) Method and system for reducing noise level in a video signal
JP5645699B2 (ja) 動き検出装置及び方法、映像信号処理装置及び方法、並びに映像表示装置
US5519451A (en) Motion adaptive scan-rate conversion using directional edge interpolation
US20050129306A1 (en) Method and apparatus for image deinterlacing using neural networks
US8189941B2 (en) Image processing device, display device, image processing method, and program
US20030086498A1 (en) Apparatus and method of converting frame and/or field rate using adaptive motion compensation
US7990471B1 (en) Interlaced-to-progressive video
US6614485B2 (en) Deinterlacing apparatus
US9918041B1 (en) Motion adaptive de-interlacing and advanced film mode detection
CN102025960A (zh) 一种基于自适应插值的运动补偿去隔行方法
CN106027943B (zh) 一种视频去隔行方法
US20100026896A1 (en) Noise reduction apparatus and noise reduction method
KR100422575B1 (ko) 디인터레이싱을 위한 공간축/시간축 보간 시스템 및 방법
US8704945B1 (en) Motion adaptive deinterlacer
CN111294545B (zh) 图像数据插值方法及装置、存储介质、终端
US8233085B1 (en) Method and system for interpolating a pixel value of a pixel located at an on-screen display
Jeon et al. Fuzzy rule-based edge-restoration algorithm in HDTV interlaced sequences
Park et al. Covariance-based adaptive deinterlacing method using edge map
CN102497523B (zh) 中值滤波去隔行的方法
US8212920B2 (en) Apparatus and method of motion adaptive image processing
KR20030082249A (ko) 움직임 적응 시공간 디인터레이싱 방법
Zhang et al. An efficient motion adaptive deinterlacing algorithm using improved edge-based line average interpolation
KR20120040764A (ko) 에지맵을 이용한 디인터레이싱 장치 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant