CN105100776B - 一种立体视频截图方法及装置 - Google Patents
一种立体视频截图方法及装置 Download PDFInfo
- Publication number
- CN105100776B CN105100776B CN201510522978.9A CN201510522978A CN105100776B CN 105100776 B CN105100776 B CN 105100776B CN 201510522978 A CN201510522978 A CN 201510522978A CN 105100776 B CN105100776 B CN 105100776B
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- sub
- block
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Systems (AREA)
Abstract
本发明公开了一种立体视频截图方法及装置,该方法包括如下步骤:S1,获取截图时间点处的第一视频帧;S2,判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值,若是则执行步骤S3,否则执行步骤S4;S3,在所述截图时间点附近的设定时间段内获取与所述第一视频帧差异最小的视频帧作为最终的截图帧;S4,获取距所述截图时间点最近的关键视频帧,判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值,若是则将所述第一视频帧作为最终的截图帧,否则将所述关键视频帧作为最终的截图帧。本发明可以自动识别截图时间点处的截图中视点视频在录制的时候是否被严重遮挡。
Description
【技术领域】
本发明涉及立体视频技术领域,具体涉及一种立体视频截图方法及装置。
【背景技术】
多视点立体视频是当前计算机视觉、图形学、图像视频处理等学科领域的研究热点,在影视制作、军事模拟、医学等领域中有着广泛的应用。在对视频进行分析的时候常常需要对视频进行截图,如何获得清晰且信息充足的截图是一个亟待解决的问题。
立体视频中含有关键帧和非关键帧,关键帧包含的信息要比非关键帧丰富,在对立体视频进行截图时为了获取更多的信息,在图像差别不大时应尽量截取关键帧。此外,在对多视点立体视频截图时还需要考虑视频帧的视点是否有遮挡,如果截图的视点有严重遮挡则应寻找最近的无遮挡的视频帧作为截图结果。
【发明内容】
现有的截图方法主要采用直接选取用户截图操作时间处的视频帧作为截图结果的方法。该方法并没有考虑关键帧和视点遮挡的问题,因此截取的图像可能存在某一视点有严重遮挡,并且截取的图像不一定是截图时间点附近信息最丰富的图像。
为了克服现有技术的不足,本发明提供了一种立体视频截图方法,以解决上述技术问题。
一种立体视频截图方法,包括如下步骤:
S1,获取截图时间点处的第一视频帧;
S2,判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值,若是则执行步骤S3,否则执行步骤S4;
S3,在所述截图时间点附近的设定时间段内获取与所述第一视频帧差异最小的视频帧作为最终的截图帧;
S4,获取距所述截图时间点最近的关键视频帧,判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值,若是则将所述第一视频帧作为最终的截图帧,否则将所述关键视频帧作为最终的截图帧。
在一个实施例中,
所述步骤S3包括如下步骤:
S31,在所述设定时间段内的视频帧中获取左视图和右视图之间的差异小于第三差异阈值的视频帧组;
S32,在所述视频帧组中针对每一个视频帧,获取左视图与所述第一视频帧的左视图的第一差异,获取右视图与所述第一视频帧的右视图的第二差异,并计算第一差异和第二差异之和;
S33,在所述视频帧组中获取第一差异和第二差异之和最小对应的视频帧作为最终的截图帧。
在一个实施例中,
通过如下步骤判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值:
S21,将所述第一视频帧Q的左视图Ql和右视图Qr分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图Ql和右视图Qr的第p行第q列的子块分别为Ql(p,q)和Qr(p,q),1≤p≤M,1≤q≤N;
S22,计算子块Ql(p,q)与子块Qr(p,q)之间的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块Ql(p,q)和子块Qr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S23,设定阈值T和阈值H,依次计算左视图Ql和右视图Qr两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图Ql和右视图Qr之间的差异超过第一差异阈值,否则判断左视图Ql和右视图Qr之间的差异不超过第一差异阈值。
在一个实施例中,
在步骤S31中,通过如下步骤在所述设定时间段内的视频帧中获取左视图和右视图之间的差异小于第三差异阈值的视频帧组:
S311,将所述设定时间段内的第t帧视频帧Et的左视图和右视图分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图和右视图的第p行第q列的子块分别为和1≤p≤M,1≤q≤N;
S312,计算子块与子块的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块和子块的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S313,设定阈值T和阈值H,依次计算左视图和右视图两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图和右视图之间的差异小于第三差异阈值。
在一个实施例中,
在所述步骤S32中,通过如下步骤获取左视图与所述第一视频帧的左视图的第一差异:
S321,将所述视频帧组中的的第s帧视频帧Ps的左视图和第一视频帧Q的左视图Ql分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图和左视图Ql的第p行第q列的子块分别为子块和子块Ql(p,q),1≤p≤M,1≤q≤N;
S322,计算子块和子块Ql(p,q)之间的第一误差
其中,Al(i,j)和Bl(i,j)分别表示子块和子块Ql(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
在所述步骤S32中,通过如下步骤获取右视图与所述第一视频帧的右视图的第二差异:
S323,将所述视频帧组中的的第s帧视频帧Ps的右视图和第一视频帧Q的右视图Qr分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,右视图和右视图Qr的第p行第q列的子块分别为子块和子块Qr(p,q),1≤p≤M,1≤q≤N;
S324,计算子块和子块Qr(p,q)之间的第二误差
其中,Ar(i,j)和Br(i,j)分别表示子块和子块Qr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n。
在一个实施例中,
通过如下步骤判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值:
S41,把第一视频帧Q的左视图Ql和关键视频帧F的左视图Fl分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图Ql和左视图Fl的第p行第q列的子块分别为Ql(p,q)和Fl(p,q),1≤p≤M,1≤q≤N;
S42,计算子块Ql(p,q)和子块Fl(p,q)之间的误差MADl:
其中,Cl(i,j)和Dl(i,j)分别表示子块Ql(p,q)和子块Fl(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S43,把第一视频帧Q的右视图Qr和关键视频帧F的右视图Fr分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,右视图Qr和右视图Fr的第p行第q列的子块分别为Qr(p,q)和Fr(p,q),1≤p≤M,1≤q≤N;
S44,计算子块Qr(p,q)和子块Fr(p,q)之间的误差MADr:
其中,Cr(i,j)和Dr(i,j)分别表示子块Qr(p,q)和子块Fr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S45,设定阈值T,如果MADl+MADr>T则判断所述关键视频帧与所述第一视频帧之间的差异超过第二差异阈值。
本发明还提供了一种立体视频截图装置,包括:
第一处理单元,用于获取截图时间点处的第一视频帧;
第二处理单元,用于判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值,若是则触发第三处理单元工作,否则触发第四处理单元工作;
第三处理单元,用于在所述截图时间点附近的设定时间段内获取与所述第一视频帧差异最小的视频帧作为最终的截图帧;
第四处理单元,用于获取距所述截图时间点最近的关键视频帧,判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值,若是则将所述第一视频帧作为最终的截图帧,否则将所述关键视频帧作为最终的截图帧。
在一个实施例中,
所述第三处理单元还用于:
在所述设定时间段内的视频帧中获取左视图和右视图之间的差异小于第三差异阈值的视频帧组;
在所述视频帧组中针对每一个视频帧,获取左视图与所述第一视频帧的左视图的第一差异,获取右视图与所述第一视频帧的右视图的第二差异,并计算第一差异和第二差异之和;
在所述视频帧组中获取第一差异和第二差异之和最小对应的视频帧作为最终的截图帧。
在一个实施例中,
所述第二处理单元用于:
将所述第一视频帧Q的左视图Ql和右视图Qr分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图Ql和右视图Qr的第p行第q列的子块分别为Ql(p,q)和Qr(p,q),1≤p≤M,1≤q≤N;
计算子块Ql(p,q)与子块Qr(p,q)之间的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块Ql(p,q)和子块Qr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
设定阈值T和阈值H,依次计算左视图Ql和右视图Qr两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图Ql和右视图Qr之间的差异超过第一差异阈值,否则判断左视图Ql和右视图Qr之间的差异不超过第一差异阈值。
在一个实施例中,
所述第三处理单元用于:
将所述设定时间段内的第t帧视频帧Et的左视图和右视图分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图和右视图的第p行第q列的子块分别为和1≤p≤M,1≤q≤N;
计算子块与子块的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块和子块的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
设定阈值T和阈值H,依次计算左视图和右视图两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图和右视图之间的差异小于第三差异阈值。
本发明的有益效果是:本立体视频截图方法可以自动识别截图时间点处的截图中视点视频在录制的时候是否被严重遮挡,而造成左视频和右视频之间存在严重的不一致的问题。
另外,本本立体视频截图方法可以自动截取准确且信息量最丰富的视频帧即关键视频帧作为截图帧,以保证截图效果。
此外,本立体视频截图算法的运行速度快。
【附图说明】
图1是本发明一种实施例的立体视频截图方法流程图。
【具体实施方式】
以下对发明的较佳实施例作进一步详细说明。
如图1所示,以分辨率为1024×768的立体视频为例,一种实施例的立体视频截图方法,包括四个步骤:
步骤S1:设定视频截图时间点t为10.00s。
步骤S2:判断截图时间点处的视频帧的左视图与右视图之间是否差异过大,即是否超过第一差异阈值。
步骤S21,设截图时间点处的第一视频帧为Q,用Ql和Qr分别表示其左视图和右视图。分别把Ql和Qr分成8×8个互不重叠的子块,每个子块的分辨率为128×96。从图像的左上角开始算起,Ql和Qr的第p行第q列的子块分别为Ql(p,q)、Qr(p,q),(1≤p≤8,1≤q≤8)。用L(i,j)和R(i,j)分别表示Ql(p,q)和Qr(p,q)的第i行第j列的像素点的像素值(1≤i≤128,1≤j≤96),则Ql(p,q)和Qr(p,q)的误差MAD为:
S22,定义阈值T=20,如果MAD>T则认为Ql(p,q)和Qr(p,q)两个子块之间有明显差异,反之则认为Ql(p,q)和Qr(p,q)两个子块之间没有明显差异。
S23,按照上述的方法计算Q的左视图和右视图中每两个对应的子块的MAD并与T比较,记大于T的MAD数量为L。定义H=10%,如果L/64>H则认为Ql和Qr之间有明显差异,即Ql和Qr之间的差异超过第一阈值,进入步骤S3。反之则认为Ql和Qr之间没有明显差异,即Ql和Qr之间的差异不超过第一阈值,进入步骤S4。
步骤S3:在所述截图时间点附近的设定时间段内获取与所述第一视频帧差异最小的视频帧作为最终的截图帧;
步骤S31,在时间轴上视频截图时间点的设定时间段内附近寻找左视图和右视图差异小的视频帧。设t1=9.5s,t2=10.5s,设时间标签位于(t1,t2)内的所有视频帧共有J帧,第t帧为Et(t=1,2,…,J),用和分别表示其左视图和右视图的图像。
把和分别分成8×8个互不重叠的子块,每个子块的分辨率为128×96。从图像的左上角开始算起,和的第p行第q列的子块分别为 (1≤p≤8,1≤q≤8)。用L(i,j)和R(i,j)分别表示和的第i行第j列的像素点的像素值(1≤i≤128,1≤j≤96),则和的误差为
步骤S32,定义阈值T=20,如果MAD>T则认为和两个子块之间有明显差异,反之则认为和两个子块之间没有明显差异。
步骤S33,按照上述的方法计算Et的左视图和右视图每两个对应的子块的MAD并与T比较,记大于T的MAD数量为L。定义H=10%,如果L/64>H则认为和之间有明显差异,反之则认为和之间没有明显差异。
步骤S34,假设Et(t=1,2,…,J)中没有明显差异的视频帧共有K帧,其中的第s帧为视频帧Ps(i=1,2,…,K),用和分别表示其左视图和右视图的图像。
把和Ql分成8×8个互不重叠的子块,每个子块的分辨率为128×96。从图像的左上角开始算起,和Ql的第p行第q列的子块分别为Ql(p,q),(1≤p≤8,1≤q≤8)。用A(i,j)和B(i,j)分别表示和Ql(p,q)的第i行第j列的像素点的像素值(1≤i≤128,1≤j≤96),则和Ql(p,q)的误差为
步骤S35,对和Qr也进行类似的操作得到
步骤S36,在Ps(s=1,2,…,K)中找到最小的视频帧(即为与所述第一视频帧Q差异最小的视频帧)记为P,使用P作为最终的截图帧。
步骤S4:获取距所述截图时间点最近的关键视频帧,判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值,若是则将所述第一视频帧作为最终的截图帧,否则将所述关键视频帧作为最终的截图帧。
步骤S41,设时间轴上距离截图时间点t最近的关键帧为F,用Fl和Fr分别表示其左右视图的图像。
把Ql与Fl分成8×8个互不重叠的子块,每个子块的分辨率为128×96。从图像的左上角开始算起,Ql与Fl的第p行第q列的子块分别为Sl(p,q)、Fl(p,q),(1≤p≤8,1≤q≤8)。用C(i,j)和D(i,j)分别表示Ql(p,q)和Fl(p,q)的第i行第j列的像素点的像素值(1≤i≤128,1≤j≤96),则子块Ql(p,q)和子块Fl(p,q)之间的误差MADl:
对Sr与Fr也进行类似的操作得到MADr。
定义阈值T=40,如果MADl+MADr>T则认为关键帧与截图帧之间的差距较大,即所述关键视频帧与所述第一视频帧之间的差异超过第二差异阈值,使用第一视频帧(截图帧)作为最终截图帧。反之则认为关键帧与截图帧之间的差距较小,即所述关键视频帧与所述第一视频帧之间的差异不超过第二差异阈值,则使用关键帧作为最终截图帧。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明由所提交的权利要求书确定的专利保护范围。
Claims (10)
1.一种立体视频截图方法,其特征是,包括如下步骤:
S1,获取截图时间点处的第一视频帧;
S2,判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值,若是则执行步骤S3,否则执行步骤S4;
S3,在所述截图时间点附近的设定时间段内获取与所述第一视频帧差异最小的视频帧作为最终的截图帧;
S4,获取距所述截图时间点最近的关键视频帧,判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值,若是则将所述第一视频帧作为最终的截图帧,否则将所述关键视频帧作为最终的截图帧。
2.如权利要求1所述的立体视频截图方法,其特征是,所述步骤S3包括如下步骤:
S31,在所述设定时间段内的视频帧中获取左视图和右视图之间的差异小于第三差异阈值的视频帧组;
S32,在所述视频帧组中针对每一个视频帧,获取左视图与所述第一视频帧的左视图的第一差异,获取右视图与所述第一视频帧的右视图的第二差异,并计算第一差异和第二差异之和;
S33,在所述视频帧组中获取第一差异和第二差异之和最小对应的视频帧作为最终的截图帧。
3.如权利要求1或2所述的立体视频截图方法,其特征是,通过如下步骤判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值:
S21,将所述第一视频帧Q的左视图Ql和右视图Qr分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图Ql和右视图Qr的第p行第q列的子块分别为Ql(p,q)和Qr(p,q),1≤p≤M,1≤q≤N;
S22,计算子块Ql(p,q)与子块Qr(p,q)之间的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块Ql(p,q)和子块Qr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S23,设定阈值T和阈值H,依次计算左视图Ql和右视图Qr两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图Ql和右视图Qr之间的差异超过第一差异阈值,否则判断左视图Ql和右视图Qr之间的差异不超过第一差异阈值。
4.如权利要求2所述的立体视频截图方法,其特征是:
在步骤S31中,通过如下步骤在所述设定时间段内的视频帧中获取左视图和右视图之间的差异小于第三差异阈值的视频帧组:
S311,将所述设定时间段内的第t帧视频帧Et的左视图和右视图分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图和右视图的第p行第q列的子块分别为和1≤p≤M,1≤q≤N;
S312,计算子块与子块的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块和子块的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S313,设定阈值T和阈值H,依次计算左视图和右视图两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图和右视图之间的差异小于第三差异阈值。
5.如权利要求4所述的立体视频截图方法,其特征是:
在所述步骤S32中,通过如下步骤获取左视图与所述第一视频帧的左视图的第一差异:
S321,将所述视频帧组中的第s帧视频帧Ps的左视图和第一视频帧Q的左视图Ql分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图和左视图Ql的第p行第q列的子块分别为子块和子块Ql(p,q),1≤p≤M,1≤q≤N;
S322,计算子块和子块Ql(p,q)之间的第一误差
其中,Al(i,j)和Bl(i,j)分别表示子块和子块Ql(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
在所述步骤S32中,通过如下步骤获取右视图与所述第一视频帧的右视图的第二差异:
S323,将所述视频帧组中的的第s帧视频帧Ps的右视图和第一视频帧Q的右视图Qr分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,右视图和右视图Qr的第p行第q列的子块分别为子块和子块Qr(p,q),1≤p≤M,1≤q≤N;
S324,计算子块和子块Qr(p,q)之间的第二误差
其中,Ar(i,j)和Br(i,j)分别表示子块和子块Qr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n。
6.如权利要求1所述的立体视频截图方法,其特征是,在所述步骤S4中,通过如下步骤判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值:
S41,把第一视频帧Q的左视图Ql和关键视频帧F的左视图Fl分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图Ql和左视图Fl的第p行第q列的子块分别为Ql(p,q)和Fl(p,q),1≤p≤M,1≤q≤N;
S42,计算子块Ql(p,q)和子块Fl(p,q)之间的误差MADl:
其中,Cl(i,j)和Dl(i,j)分别表示子块Ql(p,q)和子块Fl(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S43,把第一视频帧Q的右视图Qr和关键视频帧F的右视图Fr分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,右视图Qr和右视图Fr的第p行第q列的子块分别为Qr(p,q)和Fr(p,q),1≤p≤M,1≤q≤N;
S44,计算子块Qr(p,q)和子块Fr(p,q)之间的误差MADr:
其中,Cr(i,j)和Dr(i,j)分别表示子块Qr(p,q)和子块Fr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
S45,设定阈值T,如果MADl+MADr>T则判断所述关键视频帧与所述第一视频帧之间的差异超过第二差异阈值。
7.一种立体视频截图装置,其特征是,包括:
第一处理单元,用于获取截图时间点处的第一视频帧;
第二处理单元,用于判断所述第一视频帧的左视图与右视图之间的差异是否超过第一差异阈值,若是则触发第三处理单元工作,否则触发第四处理单元工作;
第三处理单元,用于在所述截图时间点附近的设定时间段内获取与所述第一视频帧差异最小的视频帧作为最终的截图帧;
第四处理单元,用于获取距所述截图时间点最近的关键视频帧,判断所述关键视频帧与所述第一视频帧之间的差异是否超过第二差异阈值,若是则将所述第一视频帧作为最终的截图帧,否则将所述关键视频帧作为最终的截图帧。
8.如权利要求7所述的立体视频截图装置,其特征是,所述第三处理单元还用于:
在所述设定时间段内的视频帧中获取左视图和右视图之间的差异小于第三差异阈值的视频帧组;
在所述视频帧组中针对每一个视频帧,获取左视图与所述第一视频帧的左视图的第一差异,获取右视图与所述第一视频帧的右视图的第二差异,并计算第一差异和第二差异之和;
在所述视频帧组中获取第一差异和第二差异之和最小对应的视频帧作为最终的截图帧。
9.如权利要求7所述的立体视频截图装置,其特征是,所述第二处理单元用于:
将所述第一视频帧Q的左视图Ql和右视图Qr分别分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图Ql和右视图Qr的第p行第q列的子块分别为Ql(p,q)和Qr(p,q),1≤p≤M,1≤q≤N;
计算子块Ql(p,q)与子块Qr(p,q)之间的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块Ql(p,q)和子块Qr(p,q)的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
设定阈值T和阈值H,依次计算左视图Ql和右视图Qr两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图Ql和右视图Qr之间的差异超过第一差异阈值,否则判断左视图Ql和右视图Qr之间的差异不超过第一差异阈值。
10.如权利要求8所述的立体视频截图装置,其特征是,所述第三处理单元用于:
将所述设定时间段内的第t帧视频帧Et的左视图和右视图分成M×N个互不重叠的子块,每个子块的分辨率为m×n;其中,左视图和右视图的第p行第q列的子块分别为和1≤p≤M,1≤q≤N;
计算子块与子块的误差MAD:
其中,L(i,j)和R(i,j)分别表示子块和子块的第i行第j列的像素点的像素值,1≤i≤m,1≤j≤n;
设定阈值T和阈值H,依次计算左视图和右视图两个对应的子块之间的误差MAD,并将误差MAD与阈值T比较,记大于阈值T的误差MAD的数量为L,如果则判断左视图和右视图之间的差异小于第三差异阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510522978.9A CN105100776B (zh) | 2015-08-24 | 2015-08-24 | 一种立体视频截图方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510522978.9A CN105100776B (zh) | 2015-08-24 | 2015-08-24 | 一种立体视频截图方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105100776A CN105100776A (zh) | 2015-11-25 |
CN105100776B true CN105100776B (zh) | 2017-03-15 |
Family
ID=54580189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510522978.9A Active CN105100776B (zh) | 2015-08-24 | 2015-08-24 | 一种立体视频截图方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105100776B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105761253B (zh) * | 2016-02-03 | 2018-07-24 | 浙江科澜信息技术有限公司 | 一种三维空间虚拟数据高清截图方法 |
CN110505513A (zh) * | 2019-08-15 | 2019-11-26 | 咪咕视讯科技有限公司 | 一种视频截图方法、装置、电子设备及存储介质 |
CN111083497B (zh) * | 2019-12-31 | 2022-07-08 | 北京奇艺世纪科技有限公司 | 一种视频截图方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101031040A (zh) * | 2006-03-01 | 2007-09-05 | 富士通株式会社 | 显示装置、显示程序存储介质和显示方法 |
CN103810711A (zh) * | 2014-03-03 | 2014-05-21 | 郑州日兴电子科技有限公司 | 一种用于监控系统视频的关键帧提取方法及其系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8432965B2 (en) * | 2010-05-25 | 2013-04-30 | Intellectual Ventures Fund 83 Llc | Efficient method for assembling key video snippets to form a video summary |
-
2015
- 2015-08-24 CN CN201510522978.9A patent/CN105100776B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101031040A (zh) * | 2006-03-01 | 2007-09-05 | 富士通株式会社 | 显示装置、显示程序存储介质和显示方法 |
CN103810711A (zh) * | 2014-03-03 | 2014-05-21 | 郑州日兴电子科技有限公司 | 一种用于监控系统视频的关键帧提取方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105100776A (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103581661B (zh) | 一种立体图像视觉舒适度评价方法 | |
CN105243670B (zh) | 一种稀疏和低秩联合表达的视频前景对象精准提取方法 | |
CN104036501B (zh) | 一种基于稀疏表示的立体图像质量客观评价方法 | |
CN110827193B (zh) | 基于多通道特征的全景视频显著性检测方法 | |
CN111209811B (zh) | 一种实时检测眼球注意力位置的方法及系统 | |
CN103248906B (zh) | 一种双目立体视频序列的深度图获取方法与系统 | |
CN105100776B (zh) | 一种立体视频截图方法及装置 | |
CN104866108B (zh) | 多功能舞蹈体验系统 | |
CN103955930B (zh) | 基于灰度积分投影互相关函数特征的运动参数估计方法 | |
CN111144356B (zh) | 一种远程教学的教师视线跟随方法及装置 | |
CN104853172B (zh) | 一种信息处理方法以及一种电子设备 | |
CN108596338A (zh) | 一种神经网络训练集的获取方法及其系统 | |
CN105100784A (zh) | 流畅度的测试方法及装置 | |
CN110163567A (zh) | 基于多任务级联卷积神经网络的课堂点名系统 | |
CN104156982B (zh) | 运动目标跟踪方法和装置 | |
CN110415223B (zh) | 一种无参考的拼接图像质量评价方法及系统 | |
CN113705349A (zh) | 一种基于视线估计神经网络的注意力量化分析方法及系统 | |
CN105898279B (zh) | 一种立体图像质量客观评价方法 | |
CN111641822A (zh) | 一种重定位立体图像质量评价方法 | |
CN109409380A (zh) | 一种基于双学习网络的立体图像视觉显著提取方法 | |
CN108492275B (zh) | 基于深度神经网络的无参考立体图像质量评价方法 | |
CN103324906A (zh) | 一种遗留物检测的方法和设备 | |
CN111680566A (zh) | 一种基于滑动分块生成对抗网络的小样本人脸识别方法 | |
CN104820988B (zh) | 一种无参考立体图像质量客观评价方法 | |
CN107748621A (zh) | 一种智能交互机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20190428 Address after: 310000 Room 702, 7th Floor, 15 Yinhu Innovation Center, No. 9 Fuxian Road, Yinhu Street, Fuyang District, Hangzhou City, Zhejiang Province Patentee after: Hangzhou Youshu Technology Co., Ltd. Address before: 518000 Shenzhen Nanshan District Shekou Street Park South Road Nanshan Internet Innovation and Creative Service Base A303 Patentee before: SHENZHEN KAIAOSI TECHNOLOGY CO., LTD. |