CN113286107A - 视频去隔行方法、系统、设备及存储介质 - Google Patents
视频去隔行方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN113286107A CN113286107A CN202110168947.3A CN202110168947A CN113286107A CN 113286107 A CN113286107 A CN 113286107A CN 202110168947 A CN202110168947 A CN 202110168947A CN 113286107 A CN113286107 A CN 113286107A
- Authority
- CN
- China
- Prior art keywords
- interpolated
- pixel point
- pixel
- scene
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000004927 fusion Effects 0.000 claims abstract description 38
- 230000003068 static effect Effects 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 abstract description 19
- 238000004422 calculation algorithm Methods 0.000 description 25
- 238000003708 edge detection Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/014—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Systems (AREA)
Abstract
本发明公开了一种视频去隔行方法、系统、设备及存储介质,该方法包括:判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则使用待插值像素点的时空融合值对待插值像素点的像素值进行插值;若为静态场景,则使用当前帧的场数据进行插值。本发明通过判断视频中当前帧的待插值像素点的运动场景,区分静态场景和动态场景,并在动态场景中使用时空融合值进行插值,在静态场景中使用当前帧的场数据进行插值的方式,实现了视频中当前帧的待插值像素点在动态场景和静态场景中均达到较好的去隔行效果。
Description
技术领域
本发明涉及计算机技术领域,特别涉及一种视频去隔行方法、系统、设备及存储介质。
背景技术
目前,车载系统中用于倒车的摄像头大多使用CVBS(复合同步视频广播信号)摄像头,此摄像头以场的形式输出视频帧,而当前主流的终端设备使用逐帧显示,因此隔行与逐行转换是其中的一项必不可少的关键技术。
而现有技术中通常采用场内行内插、场间行内插、自适应场内和场间行内插或者粗略的运动估计场间插值算法等方式对终端设备的视频进行去隔行处理,但是大部分的去隔行处理方式仅针对某一种场景下有较好的去隔行效果,例如场内行内插去隔行算法可以在动态场景下消除拖影和虚影的不良效果,而此算法处理静态场景时,会严重影响图像的清晰度;场间行内插去隔行算法对静止图像效果较好,但是对于运动图像,会使图像细节和边缘模糊化等等;总之,对于静态场景去隔行效果好的算法,在动态场景下隔行效果较差;对于动态场景去隔行效果好的算法,在静态场景下隔行效果较差。
发明内容
本发明要解决的技术问题是为了克服现有技术中的算法不能保证既可以在动态和静态场景中均达到较好的去隔行效果,又能减小去隔行算法复杂程度的缺陷,提供一种视频去隔行方法、系统、设备及存储介质。
本发明是通过下述技术方案来解决上述技术问题:
本发明第一方面提供了一种视频去隔行方法,所述视频去隔行方法包括:
判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则使用所述待插值像素点的时空融合值对所述待插值像素点的像素值进行插值;若为静态场景,则使用当前帧的场数据对所述待插值像素点的像素值进行插值;
其中,所述时空融合值根据时间权值和空间权值计算得到。
较佳地,在所述判断视频中当前帧的待插值像素点的运动场景之前,所述视频去隔行方法还包括:
根据当前帧的待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算待插值像素点的运动检测值;
根据所述待插值像素点的运动检测值判断所述视频中当前帧的待插值像素点的运动场景。
较佳地,所述时空融合值通过以下方式获得:
根据待插值像素点的预测像素值和当前帧的场数据计算待插值像素点的空间权值;
根据当前帧的场数据和前一帧的场数据计算待插值像素点的时间权值;
根据所述待插值像素点的预测像素值、当前帧的场数据、所述空间权值以及所述时间权值计算所述待插值像素点的时空融合值。
较佳地,根据所述待插值像素点的运动检测值判断所述视频中当前帧的待插值像素点的运动场景的步骤包括:
判断所述待插值像素点的运动检测值是否大于检测阈值,若是,则判断所述待插值像素点的运动场景为动态场景;若否,则判断所述待插值像素点的运动场景为静态场景。
本发明第二方面提供了一种视频去隔行系统,所述视频去隔行系统包括判断模块、第一插值模块和第二插值模块;
所述判断模块用于判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则调用所述第一插值模块;若为静态场景,则调用所述第二插值模块;
所述第一插值模块用于使用所述待插值像素点的时空融合值对所述待插值像素点的像素值进行插值;
所述第二插值模块用于使用当前帧的场数据对所述待插值像素点的像素值进行插值;
其中,所述时空融合值根据时间权值和空间权值计算得到。
较佳地,所述视频去隔行系统还包括第一计算模块;
所述第一计算模块用于根据当前帧的待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算待插值像素点的运动检测值;
所述判断模块具体用于根据所述待插值像素点的运动检测值判断所述视频中当前帧的待插值像素点的运动场景。
较佳地,所述视频去隔行系统还包括第二计算模块、第三计算模块和第四计算模块;
所述第二计算模块用于根据待插值像素点的预测像素值和当前帧的场数据计算待插值像素点的空间权值;
所述第三计算模块用于根据当前帧的场数据和前一帧的场数据计算待插值像素点的时间权值;
所述第四计算模块用于根据所述待插值像素点的预测像素值、当前帧的场数据、所述空间权值以及所述时间权值计算所述待插值像素点的时空融合值。
较佳地,所述判断模块包括判断单元;
所述判断单元用于判断所述待插值像素点的运动检测值是否大于检测阈值,若是,则判断所述待插值像素点的运动场景为动态场景;若否,则判断所述待插值像素点的运动场景为静态场景。
本发明第三方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的视频去隔行方法。
本发明第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的视频去隔行方法的步骤。
本发明的积极进步效果在于:
本发明通过判断视频中当前帧的待插值像素点的运动场景,在判断出待插值像素点为动态场景,则使用待插值像素点的时空融合值对待插值像素点的像素值进行插值;在判断出待插值像素点为静态场景,则使用当前帧的场数据对待插值像素点的像素值进行插值,通过区分静态场景和动态场景,并且不同场景使用了适用该场景的插值方式,实现了视频中当前帧的待插值像素点在动态场景和静态场景中均达到较好的去隔行效果,进一步地,通过待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算时空融合值的方式,减少了去隔行算法的次数,从而减小了待插值像素点去隔行算法的复杂程度,适应了嵌入式设备的使用,提高了用户体验度。
附图说明
图1为本发明实施例1的视频去隔行方法的流程图。
图2为本发明实施例1的视频去隔行方法的步骤101的流程图。
图3为本发明实施例1的视频去隔行方法的计算待插值像素点的示意图。
图4为本发明实施例1的视频去隔行方法的待插值像素点的像素值的插值示意图。
图5为本发明实施例2的视频去隔行系统的模块示意图。
图6为本发明实施例3的电子设备的结构示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供了一种视频去隔行方法,如图1所示,该视频去隔行方法包括:
步骤101、判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则执行步骤102;若为静态场景,则执行步骤103。
步骤102、使用待插值像素点的时空融合值对待插值像素点的像素值进行插值。
本实施方式中,时空融合值根据时间权值和空间权值计算得到。
步骤103、使用当前帧的场数据对待插值像素点的像素值进行插值。
本实施方式通过判断视频中当前帧的待插值像素点的运动场景,在判断出待插值像素点为动态场景,则使用待插值像素点的时空融合值对待插值像素点的像素值进行插值;在判断出待插值像素点为静态场景,则使用当前帧的场数据对待插值像素点的像素值进行插值,由于区分了静态场景和动态场景,并且不同场景使用了适用该场景的插值方式,所以实现了视频中当前帧的待插值像素点在动态场景和静态场景中均达到较好的去隔行效果。
在可选的一种实施方式中,如图1所示,上述步骤102中的时空融合值通过步骤1011~1013获得。
步骤1011、根据待插值像素点的预测像素值和当前帧的场数据计算待插值像素点的空间权值。
本实施方式中,计算待插值像素点的空间权值的公式为:
W1=|(Even’(n)–Even(n))|*α1;
其中,W1为待插值像素点的空间权值,Even’(n)为当前帧的待插值像素点的预测像素值,Even(n)为当前帧的场数据(例如可以为当前帧的偶场数据),α1表示权值矫正因子。
其中,当前帧的待插值像素点的预测像素值Even’(n)是通过边沿检测算法计算得到。具体地,边沿检测算法通过检测待插值像素点的近域周边信息,判断待插值像素点是否存在边沿信息以及边沿的走向,然后在边沿方向上通过平均插值完成对帧的缺失行的填补。如图3所示,实心圈为当前帧的原始像素点,空心圈为待插值像素点。首先对待插值像素点值F(i,j)的周围像素点进行判断。通过以下公式计算各对角线方向两像素点的绝对差值:
A=|F(i–1,j–2,n)-F(i+1,j+2,n)|;B=|F(i–1,j–1,n)-F(i+1,j+1,n)|
C=|F(i–1,j,n)-F(i+1,j,n)|;D=|F(i–1,j+1,n)-F(i+1,j–1,n)|
E=|F(i–1,j+2,n)-F(i+1,j–2,n)|,其中,n表示第n帧,i表示行,j表示列。
本实施方式中,首先通过待插值像素点上下行相邻像素点的绝对差值C待插值像素点判断是否存在边沿信息,具体地,若C<T(T为边沿阈值,边沿阈值T的范围优选0-255,也可以为其他数值),则认为待插值像素点不存在边沿信息,并对该待插值像素点的预测像素值采用空间行平均的方法进行处理。若C>T认为待插值像素点存在边沿信息,进而判断待插值像素点的边沿方向。对于边沿信息而言,边沿信息两侧具有较大的待插值像素点的预测像素值差,而处于边沿方向上的待插值像素点其预测像素值应该较为接近。故在A,B,C,D,E中寻找最小者MIN(A,B,C,D,E),最小者所在方向的两个待插值像素点应为最相关点,该方向为边沿方向,然后再根据边沿方向通过以下公式对待插值像素点F(i,j,n)进行平均插值得到待插值像素点的预测像素值Even’(n)。
F(i,j,n)作为待插值像素点在边沿上进行插值逐行化,对于去隔行的视频图像,去隔行处理后的视频图像信息来自于视频图像本身的原始信息量越多则去隔行效果越好,边沿检测方法的插值像素点来自于帧内上下行最相关像素点的均值,类似于线性算法中的行平均,产生的空缺行填补信息主要通过只有一半信息的隔行视频图像中得到。
步骤1012、根据当前帧的场数据和前一帧的场数据计算待插值像素点的时间权值。
本实施方式中,计算待插值像素点的时间权值的公式为:
W2=|(Even(n-1)–Even(n))|*α2;
其中,W2为待插值像素点的时间权值,α2表示权值矫正因子,Even(n-1)为前一帧的场数据(例如可以为前一帧的偶场数据)。
需要说明的是,α1和α2均可以为0-1之间的任意数值,只要满足α1和α2的总和为1即可。
步骤1013、根据待插值像素点的预测像素值、当前帧的场数据、空间权值以及时间权值计算待插值像素点的时空融合值。
本实施方式中,计算待插值像素点的时空融合值的公式为:
STPV=(W2*Even’(n)+W1*Even(n))/(W1+W2);
其中,STPV为待插值像素点的时空融合值。
相较于现有技术中仅利用场内的空间域信息进行插值从而不能保证静态场景下去隔行效果的算法而言,本实施方式不仅利用了场内的空间域信息,还引入前一帧的信息作为时间域信息,并结合通过边沿检测算法得到的待插值像素点的预测像素值以及当前帧的场数据共同对待插值像素点的像素值进行插值,满足了视频中当前帧的待插值像素点能够同时在动态场景和静态场景中达到较好的去隔行效果。
在可选的一种实施方式中,如图1所示,在所述判断视频中当前帧的待插值像素点的运动场景之前,上述视频去隔行算法还包括步骤1014。
步骤1014、根据当前帧的待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算待插值像素点的运动检测值。
本实施方式中,计算待插值像素点的运动检测值的公式为:
MDV=|(Even’(n)–Even(n))|+|(Even(n-1)–Even(n))|;
其中,MDV为待插值像素点的运动检测值。
本实施方式中,当前帧的场数据为奇场数据或偶场数据。前一帧的场数据与当前帧的场数据一致,即当前帧的场数据为奇场数据时,前一帧的场数据为前一帧的奇场数据;当前帧的场数据为偶场数据时,前一帧的场数据为前一帧的偶场数据。
在步骤1014后,上述步骤101具体包括:根据待插值像素点的运动检测值判断视频中当前帧的待插值像素点的运动场景。
具体地,如图2所示,步骤101包括以下步骤101a~101c。
步骤101a、判断待插值像素点的运动检测值是否大于检测阈值,若是,则执行步骤101b;若否,则执行步骤101c。
步骤101b、判断待插值像素点的运动场景为动态场景。
步骤101c、判断待插值像素点的运动场景为静态场景。
本实施方式中,当待插值像素点的运动检测值MDV小于等于检测阈值MT时,待插值像素点处于静态场景,此时使用待插值像素点的时空融合值STPV对待插值像素点的像素值进行插值;当待插值像素点的运动检测值MDV大于检测阈值MT时,待插值像素点处于动态场景,此时使用当前帧的场数据Even(n)对待插值像素点的像素值进行插值。
需要说明的是,当判断出插值像素点处于动态场景时,可以使用当前帧的偶场数据对待插值像素点的像素值进行插值,也可以使用当前帧的奇场数据对待插值像素点的像素值进行插值。检测阈值MT的数值优选80,检测阈值MT的数值也可以为其他数值,此处不做具体限定。
在具体实施中,如图4所示,本实施方式先通过边沿检测算法得到当前帧的待插值像素点的预测像素值Even’(n),再根据当前帧的场数据Even(n)、前一帧的场数据Even(n-1)以及当前帧的待插值像素点的预测像素值Even’(n)分别计算待插值像素点的空间权值、时间权值、时空融合值以及运动检测值,并通过待插值像素点的运动检测值判断出待插值像素点的运动场景,并在动态场景中使用时空融合值对待插值像素点的像素值进行插值,在静态场景中使用当前帧的场数据对待插值像素点的像素值进行插值,通过待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算时空融合值的方式,减少了去隔行算法的次数,从而减小了待插值像素点去隔行算法的复杂程度,适应了嵌入式设备的使用,提高了用户体验度。
实施例2
本实施例提供了一种视频去隔行系统,如图5所示,该视频去隔行系统包括判断模块1、第一插值模块2和第二插值模块3。
判断模块1用于判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则调用第一插值模块2;若为静态场景,则调用第二插值模块3。
第一插值模块2用于使用待插值像素点的时空融合值对待插值像素点的像素值进行插值。
本实施方式中,时空融合值根据时间权值和空间权值计算得到。
第二插值模块3用于使用当前帧的场数据对待插值像素点的像素值进行插值。
本实施方式通过判断视频中当前帧的待插值像素点的运动场景,在判断出待插值像素点为动态场景,则使用待插值像素点的时空融合值对待插值像素点的像素值进行插值;在判断出待插值像素点为静态场景,则使用当前帧的场数据对待插值像素点的像素值进行插值,由于区分了静态场景和动态场景,并且不同场景使用了适用该场景的插值方式,所以实现了视频中当前帧的待插值像素点在动态场景和静态场景中均达到较好的去隔行效果。
在可选的一种实施方式中,如图5所示,上述视频去隔行系统还包括第二计算模块5、第三计算模块6和第四计算模块7。
第二计算模块5用于根据待插值像素点的预测像素值和当前帧的场数据计算待插值像素点的空间权值。
本实施方式中,计算待插值像素点的空间权值的公式为:
W1=|(Even’(n)–Even(n))|*α1;
其中,W1为待插值像素点的空间权值,Even’(n)为当前帧的待插值像素点的预测像素值,Even(n)为当前帧的场数据(例如可以为当前帧的偶场数据),α1表示权值矫正因子。
其中,当前帧的待插值像素点的预测像素值Even’(n)是通过边沿检测算法计算得到。具体地,边沿检测算法通过检测待插值像素点的近域周边信息,判断待插值像素点是否存在边沿信息以及边沿的走向,然后在边沿方向上通过平均插值完成对帧的缺失行的填补。如图3所示,实心圈为当前帧的原始像素点,空心圈为待插值像素点。首先对待插值像素点值F(i,j)的周围像素点进行判断。通过以下公式计算各对角线方向两像素点的绝对差值:
A=|F(i–1,j–2,n)-F(i+1,j+2,n)|;B=|F(i–1,j–1,n)-F(i+1,j+1,n)|
C=|F(i–1,j,n)-F(i+1,j,n)|;D=|F(i–1,j+1,n)-F(i+1,j–1,n)|
E=|F(i–1,j+2,n)-F(i+1,j–2,n)|,其中,n表示第n帧,i表示行,j表示列。
本实施方式中,首先通过待插值像素点上下行相邻像素点的绝对差值C待插值像素点判断是否存在边沿信息,具体地,若C<T(T为边沿阈值,边沿阈值T的范围优选0-255,也可以为其他数值),则认为待插值像素点不存在边沿信息,并对该待插值像素点的预测像素值采用空间行平均的方法进行处理。若C>T认为待插值像素点存在边沿信息,进而判断待插值像素点的边沿方向。对于边沿信息而言,边沿信息两侧具有较大的待插值像素点的预测像素值差,而处于边沿方向上的待插值像素点其预测像素值应该较为接近。故在A,B,C,D,E中寻找最小者MIN(A,B,C,D,E),最小者所在方向的两个待插值像素点应为最相关点,该方向为边沿方向,然后再根据边沿方向通过以下公式对待插值像素点F(i,j,n)进行平均插值得到待插值像素点的预测像素值Even’(n)。
F(i,j,n)作为待插值像素点在边沿上进行插值逐行化,对于去隔行的视频图像,去隔行处理后的视频图像信息来自于视频图像本身的原始信息量越多则去隔行效果越好,边沿检测方法的插值像素点来自于帧内上下行最相关像素点的均值,类似于线性算法中的行平均,产生的空缺行填补信息主要通过只有一半信息的隔行视频图像中得到。
第三计算模块6用于根据当前帧的场数据和前一帧的场数据计算待插值像素点的时间权值。
本实施方式中,计算待插值像素点的时间权值的公式为:
W2=|(Even(n-1)–Even(n))|*α2;
其中,W2为待插值像素点的时间权值,α2表示权值矫正因子,Even(n-1)为前一帧的场数据(例如可以为前一帧的偶场数据)。
需要说明的是,α1和α2均可以为0-1之间的任意数值,只要满足α1和α2的总和为1即可。
第四计算模块7用于根据待插值像素点的预测像素值、当前帧的场数据、空间权值以及时间权值计算待插值像素点的时空融合值。
本实施方式中,计算待插值像素点的时空融合值的公式为:
STPV=(W2*Even’(n)+W1*Even(n))/(W1+W2);
其中,STPV为待插值像素点的时空融合值。
相较于现有技术中仅利用场内的空间域信息进行插值不能保证静态场景下去隔行效果的算法而言,本实施方式不仅利用了场内的空间域信息,还引入前一帧的信息作为时间域信息,并结合通过边沿检测算法得到的待插值像素点的预测像素值以及当前帧的场数据共同对待插值像素点的像素值进行插值,满足了视频中当前帧的待插值像素点能够同时在动态场景和静态场景中达到较好的去隔行效果。
在可选的一种实施方式中,如图5所示,上述视频去隔行系统还包括第一计算模块4。
第一计算模块4用于根据当前帧的待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算待插值像素点的运动检测值。
本实施方式中,计算待插值像素点的运动检测值的公式为:
MDV=|(Even’(n)–Even(n))|+|(Even(n-1)–Even(n))|;
其中,MDV为待插值像素点的运动检测值。
本实施方式中,当前帧的场数据为奇场数据或偶场数据。前一帧的场数据与当前帧的场数据一致,即当前帧的场数据为奇场数据时,前一帧的场数据为前一帧的奇场数据;当前帧的场数据为偶场数据时,前一帧的场数据为前一帧的偶场数据。
在可选的一种实施方式中,判断模块1具体用于根据待插值像素点的运动检测值判断视频中当前帧的待插值像素点的运动场景。
具体地,如图5所示,判断模块1包括判断单元11。
判断单元11用于判断待插值像素点的运动检测值是否大于检测阈值,若是,则判断待插值像素点的运动场景为动态场景;若否,则判断待插值像素点的运动场景为静态场景。
本实施方式中,当待插值像素点的运动检测值MDV小于等于检测阈值MT时,待插值像素点处于静态场景,此时使用待插值像素点的时空融合值STPV对待插值像素点的像素值进行插值;当待插值像素点的运动检测值MDV大于检测阈值MT时,待插值像素点处于动态场景,此时使用当前帧的场数据Even(n)对待插值像素点的像素值进行插值。
需要说明的是,当判断出插值像素点处于动态场景时,可以使用当前帧的偶场数据对待插值像素点的像素值进行插值,也可以使用当前帧的奇场数据对待插值像素点的像素值进行插值。检测阈值MT的数值优选80,检测阈值MT的数值也可以为其他数值,此处不做具体限定。
在具体实施中,如图4所示,本实施方式先通过边沿检测算法得到当前帧的待插值像素点的预测像素值Even’(n),再根据当前帧的场数据Even(n)、前一帧的场数据Even(n-1)以及当前帧的待插值像素点的预测像素值Even’(n)分别计算待插值像素点的空间权值、时间权值、时空融合值以及运动检测值,并通过待插值像素点的运动检测值判断出待插值像素点的运动场景,并在动态场景中使用时空融合值对待插值像素点的像素值进行插值,通过待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算时空融合值的方式,减少了去隔行算法的次数,从而减小了待插值像素点去隔行算法的复杂程度,适应了嵌入式设备的使用,提高了用户体验度。
实施例3
图6为本发明实施例3提供的一种电子设备的结构示意图。电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现实施例1的视频去隔行方法。图6显示的电子设备30仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备30可以以通用计算设备的形式表现,例如其可以为服务器设备。电子设备30的组件可以包括但不限于:上述至少一个处理器31、上述至少一个存储器32、连接不同系统组件(包括存储器32和处理器31)的总线33。
总线33包括数据总线、地址总线和控制总线。
存储器32可以包括易失性存储器,例如随机存取存储器(RAM)321和/或高速缓存存储器322,还可以进一步包括只读存储器(ROM)323。
存储器32还可以包括具有一组(至少一个)程序模块324的程序/实用工具325,这样的程序模块324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
处理器31通过运行存储在存储器32中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1所提供的视频去隔行方法。
电子设备30也可以与一个或多个外部设备34(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口35进行。并且,生成的设备30还可以通过网络适配器36与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图6所示,网络适配器36通过总线33与模型生成的设备30的其它模块通信。应当明白,尽管图中未示出,可以结合模型生成的设备30使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
实施例4
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现实施例1所提供的视频去隔行方法的步骤。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行实现实施例1所述的视频去隔行方法的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,所述程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (10)
1.一种视频去隔行方法,其特征在于,所述视频去隔行方法包括:
判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则使用所述待插值像素点的时空融合值对所述待插值像素点的像素值进行插值;若为静态场景,则使用当前帧的场数据对所述待插值像素点的像素值进行插值;
其中,所述时空融合值根据时间权值和空间权值计算得到。
2.如权利要求1所述的视频去隔行方法,其特征在于,在所述判断视频中当前帧的待插值像素点的运动场景之前,所述视频去隔行方法还包括:
根据当前帧的待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算待插值像素点的运动检测值;
根据所述待插值像素点的运动检测值判断所述视频中当前帧的待插值像素点的运动场景。
3.如权利要求1所述的视频去隔行方法,其特征在于,所述时空融合值通过以下方式获得:
根据待插值像素点的预测像素值和当前帧的场数据计算待插值像素点的空间权值;
根据当前帧的场数据和前一帧的场数据计算待插值像素点的时间权值;
根据所述待插值像素点的预测像素值、当前帧的场数据、所述空间权值以及所述时间权值计算所述待插值像素点的时空融合值。
4.如权利要求2所述的视频去隔行方法,其特征在于,根据所述待插值像素点的运动检测值判断所述视频中当前帧的待插值像素点的运动场景的步骤包括:
判断所述待插值像素点的运动检测值是否大于检测阈值,若是,则判断所述待插值像素点的运动场景为动态场景;若否,则判断所述待插值像素点的运动场景为静态场景。
5.一种视频去隔行系统,其特征在于,所述视频去隔行系统包括判断模块、第一插值模块和第二插值模块;
所述判断模块用于判断视频中当前帧的待插值像素点的运动场景,若为动态场景,则调用所述第一插值模块;若为静态场景,则调用所述第二插值模块;
所述第一插值模块用于使用所述待插值像素点的时空融合值对所述待插值像素点的像素值进行插值;
所述第二插值模块用于使用当前帧的场数据对所述待插值像素点的像素值进行插值;
其中,所述时空融合值根据时间权值和空间权值计算得到。
6.如权利要求5所述的视频去隔行系统,其特征在于,所述视频去隔行系统还包括第一计算模块;
所述第一计算模块用于根据当前帧的待插值像素点的预测像素值、当前帧的场数据以及前一帧的场数据计算待插值像素点的运动检测值;
所述判断模块具体用于根据所述待插值像素点的运动检测值判断所述视频中当前帧的待插值像素点的运动场景。
7.如权利要求5所述的视频去隔行系统,其特征在于,所述视频去隔行系统还包括第二计算模块、第三计算模块和第四计算模块;
所述第二计算模块用于根据待插值像素点的预测像素值和当前帧的场数据计算待插值像素点的空间权值;
所述第三计算模块用于根据当前帧的场数据和前一帧的场数据计算待插值像素点的时间权值;
所述第四计算模块用于根据所述待插值像素点的预测像素值、当前帧的场数据、所述空间权值以及所述时间权值计算所述待插值像素点的时空融合值。
8.如权利要求6所述的视频去隔行系统,其特征在于,所述判断模块包括判断单元;
所述判断单元用于判断所述待插值像素点的运动检测值是否大于检测阈值,若是,则判断所述待插值像素点的运动场景为动态场景;若否,则判断所述待插值像素点的运动场景为静态场景。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-4中任意一项所述的视频去隔行方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-4中任意一项所述的视频去隔行方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110168947.3A CN113286107A (zh) | 2021-02-07 | 2021-02-07 | 视频去隔行方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110168947.3A CN113286107A (zh) | 2021-02-07 | 2021-02-07 | 视频去隔行方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113286107A true CN113286107A (zh) | 2021-08-20 |
Family
ID=77275737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110168947.3A Pending CN113286107A (zh) | 2021-02-07 | 2021-02-07 | 视频去隔行方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113286107A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117095134A (zh) * | 2023-10-18 | 2023-11-21 | 中科星图深海科技有限公司 | 一种三维海洋环境数据插值处理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101014086A (zh) * | 2007-01-31 | 2007-08-08 | 天津大学 | 采用运动检测和自适应加权滤波的去隔行装置 |
CN101309385A (zh) * | 2008-07-09 | 2008-11-19 | 北京航空航天大学 | 一种基于运动检测的去隔行处理方法 |
CN101895674A (zh) * | 2010-07-02 | 2010-11-24 | 浙江红苹果电子有限公司 | 一种针对监控视频的去隔行的方法及其装置 |
CN102148953A (zh) * | 2011-04-20 | 2011-08-10 | 广东威创视讯科技股份有限公司 | 去隔行处理的三场运动检测方法、装置以及去隔行系统 |
CN102186046A (zh) * | 2011-05-31 | 2011-09-14 | 杭州士兰微电子股份有限公司 | 一种视频图像去隔行扫描方法及装置 |
-
2021
- 2021-02-07 CN CN202110168947.3A patent/CN113286107A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101014086A (zh) * | 2007-01-31 | 2007-08-08 | 天津大学 | 采用运动检测和自适应加权滤波的去隔行装置 |
CN101309385A (zh) * | 2008-07-09 | 2008-11-19 | 北京航空航天大学 | 一种基于运动检测的去隔行处理方法 |
CN101895674A (zh) * | 2010-07-02 | 2010-11-24 | 浙江红苹果电子有限公司 | 一种针对监控视频的去隔行的方法及其装置 |
CN102148953A (zh) * | 2011-04-20 | 2011-08-10 | 广东威创视讯科技股份有限公司 | 去隔行处理的三场运动检测方法、装置以及去隔行系统 |
CN102186046A (zh) * | 2011-05-31 | 2011-09-14 | 杭州士兰微电子股份有限公司 | 一种视频图像去隔行扫描方法及装置 |
Non-Patent Citations (3)
Title |
---|
丁勇;陆生礼;时龙兴;: "时空权重和边缘自适应去隔行", 计算机学报, no. 04, 30 April 2007 (2007-04-30), pages 1 - 4 * |
伍刘;李明远;鲍伟琴;: "带运动检测的自适应去隔行算法及其GPU实现", 电视技术, no. 1, 20 August 2008 (2008-08-20) * |
张涛;陈有志;雷志春;: "基于时空特性自适应插值的混合去隔行方法", 天津大学学报(自然科学与工程技术版), no. 01, 15 January 2018 (2018-01-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117095134A (zh) * | 2023-10-18 | 2023-11-21 | 中科星图深海科技有限公司 | 一种三维海洋环境数据插值处理方法 |
CN117095134B (zh) * | 2023-10-18 | 2023-12-22 | 中科星图深海科技有限公司 | 一种三维海洋环境数据插值处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8526502B2 (en) | Method and apparatus for line based vertical motion estimation and compensation | |
US5784115A (en) | System and method for motion compensated de-interlacing of video frames | |
US6118488A (en) | Method and apparatus for adaptive edge-based scan line interpolation using 1-D pixel array motion detection | |
US7079159B2 (en) | Motion estimation apparatus, method, and machine-readable medium capable of detecting scrolling text and graphic data | |
US7265791B2 (en) | Method and apparatus for de-interlacing video signal | |
US5532751A (en) | Edge-based interlaced to progressive video conversion system | |
JP4083265B2 (ja) | 画像信号の方式変換方法および装置 | |
US8649437B2 (en) | Image interpolation with halo reduction | |
US8497937B2 (en) | Converting device and converting method of video signals | |
US7684486B2 (en) | Method for motion compensated interpolation using overlapped block motion estimation and frame-rate converter using the method | |
US20050249282A1 (en) | Film-mode detection in video sequences | |
US20090316786A1 (en) | Motion estimation at image borders | |
EP1164792A2 (en) | Format converter using bidirectional motion vector and method thereof | |
US7324160B2 (en) | De-interlacing apparatus with a noise reduction/removal device | |
US20050249288A1 (en) | Adaptive-weighted motion estimation method and frame rate converting apparatus employing the method | |
JP2005318621A (ja) | ビデオシーケンスでのティッカー処理 | |
JP4092778B2 (ja) | 画像信号の方式変換装置及びテレビジョン受像機 | |
US20050129124A1 (en) | Adaptive motion compensated interpolating method and apparatus | |
KR20060047638A (ko) | 필름 모드 판정 방법, 움직임 보상 화상 처리 방법, 필름모드 검출기 및 움직임 보상기 | |
US7499102B2 (en) | Image processing apparatus using judder-map and method thereof | |
KR100484182B1 (ko) | 디인터레이싱 장치 및 방법 | |
JPH11112940A (ja) | 動きベクトルの生成方法および装置 | |
US20080187050A1 (en) | Frame interpolation apparatus and method for motion estimation through separation into static object and moving object | |
KR20070030223A (ko) | 픽셀 보간 | |
CN113286107A (zh) | 视频去隔行方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |