CN101667295B - 一种将线搜索扩展于全景视频运动估计的方法 - Google Patents

一种将线搜索扩展于全景视频运动估计的方法 Download PDF

Info

Publication number
CN101667295B
CN101667295B CN200910092868A CN200910092868A CN101667295B CN 101667295 B CN101667295 B CN 101667295B CN 200910092868 A CN200910092868 A CN 200910092868A CN 200910092868 A CN200910092868 A CN 200910092868A CN 101667295 B CN101667295 B CN 101667295B
Authority
CN
China
Prior art keywords
macro block
search
motion vector
expanded
macro
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN200910092868A
Other languages
English (en)
Other versions
CN101667295A (zh
Inventor
周忠
吴威
陈珂
牛犇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN200910092868A priority Critical patent/CN101667295B/zh
Publication of CN101667295A publication Critical patent/CN101667295A/zh
Application granted granted Critical
Publication of CN101667295B publication Critical patent/CN101667295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

一种将线搜索扩展于全景视频运动估计的方法,步骤为:(1)利用参考帧各面的上,下,左,右的邻接图像对参考帧的各面图像进行扩展;(2)从预测帧的宏块中,选取第一个没有做搜索的宏块,对该宏块采用线搜索方法在扩展的参考帧中搜索最小块误差点,并返回最小块误差点所对应的运动向量;(3)以步骤(2)中线搜索的已匹配块为起点,对相邻的宏块进行扩展搜索,获取相应的运动向量;(4)检查预测帧是否有宏块没有做搜索匹配,如果还有宏块没有进行搜索,则进入步骤(2),否则结束。本方法可以有效地对全景视频进行运动估计,提高运动估计的精度和补偿图像的质量。

Description

一种将线搜索扩展于全景视频运动估计的方法
技术领域
本发明涉及全景视频技术领域,更具体地讲,涉及一种对全景视频进行运动估计的方法。
背景技术
全景图像是由某一点拍摄的多幅实景图像拼接而成的。其具体的生成过程是:将相互重叠图像映射到简单的几何体表面上,如球面、立方体表面或圆柱面,然后对投影图像进行无缝拼接,就可以得到全景图像。根据所映射的几何体,全景图像可以分为柱面全景图像、球面全景图像和立方体全景图像。全景视频是由具有一些有时间关联的全景图像序列组成,从视频中可以获取真实的全景景象,并且可以通过时间来定位视频帧。
全景视频覆盖了360度的场景范围,其数据量巨大,这对数据的存储和传输造成了很大的困难。因此,需要对全景视频进行压缩编码,以降低存储空间和减少传输时占用的网络带宽。在视频图像压缩中,运动估计用来根据已经编码的参考帧产生当前预测帧的运动补偿预测,去除视频序列中存在的冗余信息。运动估计的方法是将预测帧分成若干大小相同的图像块,根据不同的搜索算法和匹配原则在参考帧内搜索最相似的匹配块。目前,运动估计算法中搜索精度最高的是FS(Full Search,全搜索)算法,FS算法是对搜索范围内的每一个像素点进行匹配运算以得到一个最优的运动向量,但它的计算复杂度太高。因此,许多快速运动估计算法被提出,如TSS(Three Step Search,三步搜索)算法、CS(Cross Search,交叉搜索)算法、NTSS(New Three Step Search,新三步搜索)算法、FSS(Four Step Search,四步搜索)算法、DS(Diamond Search,菱形搜索)算法和HS(Hexagon Search,六边形搜索)算法,以及最近出现的PLS(PredictiveLine Search,预测线搜索)算法。TSS算法和CS算法第一步搜索步长较大,而进一步的搜索是在第一步确定的方向上进行的,因而很容易陷入局部最优。NTSS算法、FSS算法和DS算法利用视频序列运动矢量在空间分布上的中心偏置特性,减小了搜索步长,加强了对中心区域的搜索。HS算法能比DS算法用更少的搜索点找到一个相同的运动矢量。但是,这些快速算法没有利用立方体全景视频相邻帧间图像块的运动趋势和对应关系,因此对全景视频进行运动估计的精度不高。
本发明前,中国发明专利“快速视频运动估计方法”,申请号为01100544.4,公开号为CN1333634A,该专利公开了一种运动估计的方法,采用菱形搜索并自适应的终止搜索过程。该方法主要是针对普通视频采用固定顺序进行块匹配搜索,并没有充分利用立方体全景视频相邻帧间图像块的运动趋势和对应关系,从而不能有效地对全景视频进行运动估计。中国发明专利“用于全景图像的运动估计和补偿的方法和设备”,申请号为200580027187.3,公开号为CN101002479A,该申请公开了一种利用全景图的左右边界之间的空间关系进行运动估计和补偿的方法。该方法只适用于柱面全景图,所以不能有效地对立方体全景视频进行运动估计。
对于拍摄静止场景的立方体全景视频,全景相机的全局运动通常以水平运动为主,所以,相邻帧之间会存在着较多的重叠图像信息。全景视频覆盖了360度场景,对于连续的多帧全景图像而言,图像块会从立方体的一个面移动到相邻面上,且图像块运动较大。
发明内容
本发明的技术解决问题:克服现有技术的不足,提供一种将线搜索扩展于全景视频运动估计的方法,该方法可以有效地对立方体全景视频进行运动估计,提高运动补偿图像的质量。
为了取得上述技术效果,本发明所采用的技术方案是:将连续采集的全景视频分为参考帧和预测帧,预测帧被分成若干宏块,在参考帧内搜索与预测帧当前宏块的最相似的匹配块,即最匹配块,由最匹配块与预测帧当前宏块的相对位置计算出运动向量,具体包含的步骤如下:
(1)利用参考帧各面的上,下,左,右的邻接图像对参考帧的各面图像进行扩展;
(2)从预测帧的宏块中,选取第一个没有做搜索的宏块,对该第一个没有做搜索的宏块采用线搜索方法在扩展的参考帧中进行搜索,寻找最小块误差点,并返回最小块误差点所对应的运动向量,完成线搜索的该宏块即为线搜索的已匹配块;
(3)以步骤(2)中线搜索的已匹配块为起点,对相邻的宏块进行扩展搜索,获取相应的运动向量;
(4)检查预测帧是否有宏块没有做搜索匹配,如果还有宏块没有做搜索匹配,则进入步骤(2),否则结束。
本发明的原理是:拍摄静止场景的立方体全景视频的全局运动通常以水平运动为主,相邻帧之间会存在着较多的重叠图像信息,而且全景视频覆盖了360度场景,对于连续的多帧全景图像而言,图像块会从立方体的一个面移动到相邻面上,且图像块运动较大,所以可以根据相邻帧间图像的对应关系,构造搜索线对预测帧的宏块进行线搜索,同时利用相邻宏块间运动向量的相关性,以线搜索的已匹配宏块为起点对其相邻的宏块进行扩展搜索,获取相应的运动向量。
本发明与现有技术相比的优点在于:充分利用立方体全景视频相邻帧间图像块的运动趋势和对应关系,基于线搜索方法进行扩展搜索,根据相邻帧间图像的对应关系,构造搜索线对宏块进行线搜索,同时利用相邻宏块间运动向量的相关性,以线搜索的已匹配宏块为起点对相邻的宏块进行扩展搜索,获取相应的运动向量,从而可以有效地对全景视频进行运动估计,提高了运动估计的精度和补偿图像的质量。
附图说明
图1为立方体全景视频中图像块运动趋势的示意图;
图2为全景视频中相邻帧间像素的对应关系;
图3为宏块运动的空间相关性示意图;
图4为本发明将线搜索扩展于全景视频运动估计的方法的流程;
图5为本发明中参考帧扩展的示意图;其中图5a是参考帧当前面图像扩展的示意图,图5b是左上角空洞填充的示意图;
图6a为本发明中线搜索的流程图,图6b为本发明中线搜索具体过程的示意图;
图7a为本发明中扩展搜索的流程图,图7b为本发明中扩展搜索具体过程的示意图;
图8为采用本发明方法、FS算法、DS算法和HS算法进行运动估计生成的补偿图像,其中a为原始第六帧的各面图像,b为本发明方法生成的第六帧补偿图像,c为FS算法生成的第六帧补偿图像,d为DS算法生成的第六帧补偿图像,e为HS算法生成的第六帧补偿图像;
图9为采用本发明方法、FS算法、DS算法和HS算法进行运动估计生成的补偿图像的PSNR。
具体实施方法
本发明将连续采集的全景视频分为参考帧和预测帧,参考图像和预测图像可以按照固定比率(如1∶5、1∶10、1∶15等)进行划分。预测帧被分成若干宏块,根据相邻帧间图像块的运动趋势和对应关系,在参考帧内搜索与预测帧当前块最相似的匹配块,即最匹配块,由最匹配块与预测帧当前块的相对位置计算出运动向量。
在介绍本发明的具体实施步骤之前,对立方体全景视频中图像块的运动趋势和对应关系进行说明。对于拍摄的静止场景的全景视频,摄像机的全局运动通常以水平运动为主。根据全景摄像机的外参数,利用Florian Kangni提出的立方体全景对极线的计算方法,可以得出立方体全景各个面上的对极线如图1所示。对极线3从位于立方体前面上的极点1发出,向四周扩散,在立方体的上、下、左、右四个侧面上基本上是水平运动,最后汇集到位于立方体背面的极点2。对极线3的运动方向表示了全景视频中静止场景的运动趋势,因此可以得到全景视频中相邻帧之间的像素的对应关系如图2所示。图2(a)表示立方体侧面的当前帧与前一帧的像素对应关系,当前帧的S1部分像素和前一帧的S2部分像素是相同的,这两部分像素仅仅是在位置上有水平方向上的相对移动。图2(b)和图2(c)分别表示了立方体前面和背面的当前帧与前一帧的像素对应关系,当前帧的T1部分像素和前一帧的T2部分像素是类似的。
因此,进行全景视频的运动估计时,可以利用全景视频中像素对应关系,进行宏块的搜索匹配。在同一帧视频中,相邻的像素或宏块具有相同或近似的运动,因此相邻宏块之间的运动具有空间相关性,如图3所示。当前宏块CMB的运动向量与左边、上边、右上的相邻块MB1、MB2和MB3的运动向量是相关的。
由于立方体全景视频覆盖了360度的场景,对于连续的全景视频帧而言,宏块会从一个面移动到相邻面上,因此对立方体全景视频进行运动估计,需要考虑图像块在立方体相邻面上的运动。利用相邻帧间的像素对应关系以及宏块运动的空间相关性,本发明提出的将线搜索扩展于全景视频运动估计的方法的流程如图4所示,其步骤如下:
(1)根据立方体全景各面之间图像边界的连续性,利用参考帧各面的上,下,左,右的邻接图像对参考帧的各面图像进行扩展,如图5所示。以参考帧的当前面图像为中心,把当前面以及它在立方体上的四个邻接面依次展开,带虚线的矩形表示扩展的当前面图像,从图5(a)可以看出,扩展的当前面的图像可以用它所覆盖那部分的图像进行填充,但是扩展的当前面图像的四个角由于没有覆盖任何图像会出现空洞。图5(b)以左上角的空洞为例,介绍空洞的填充方法,其中ABCO表示左上角的待填充的空洞。根据立方体全景各面间的邻接关系,左邻接图像的边EO和上邻接图像的边FO上的图像是连续的,所以对ABCO进行填充时,必须保证AO和CO两条边的图像连续性。利用正方形的对角线把左邻接图像和上邻接图像分成均匀的四部分,根据EO和FO的图像连续性,把左邻接图像的第一部分拼接到上邻接图像的边FO,并且把上邻接图像的第四部分拼接到左邻接图像的边EO,如图5(b)所示。因此,ABCO可以由它所覆盖的上邻接图像和左邻接图像进行填充,即ABO用CEO的图像进行填充,BCO用ADO的图像进行填充。其余空洞也采用相同方法进行填充。
(2)从预测帧的宏块中,选取第一个没有做搜索的宏块,对该宏块采用线搜索方法在步骤(1)生成的扩展参考帧中进行搜索,以SAD(Sum of Absolute Difference,绝对误差和)作为匹配准则寻找最小块误差点,返回最小块误差点所对应的运动向量。其中,计算最小块误差点时也可以采用其他匹配准则,如MAD(Mean Absolute Distortion,平均绝对误差)、MSE(Mean Square Error,均方误差)和NCCF(Normalized CrossCorrelation Function,归一化互相关函数)等。
线搜索从搜索三条直线上的宏块开始,然后在匹配失真降低的方向上新增直线,当最小块误差点不在搜索线的边界时线搜索结束,并返回最小块误差点所对应的运动向量。对于拍摄的静止场景的全景视频,摄像机的全局运动通常以水平运动为主。在立方体的上、下、左、右四个侧面上,宏块主要是以水平运动为主;在立方体的前面和背面上,宏块的运动主要是向四周扩散和向图像中心点汇集。宏块的运动方向决定了线搜索中初始搜索直线的方程x=ky+p,参数k表示初始搜索直线的斜率,p表示初始搜索直线的截距,参数k和p的计算方法分别如公式(1)和公式(2)示:
Figure G2009100928688D00051
p=xm-kym                           (2)
其中,(xm,ym)表示待搜索块的位置坐标,(xc,yc)表示图像中心的坐标。
线搜索算法利用宏块的运动趋势构造搜索直线对全景视频进行运动估计,其流程如图6A所示,主要包括以下步骤:
(2.1)对待搜索块所位于直线及其相邻的两条平行线进行搜索。如果待搜索块位于直线x=ky+p,则需要对位于x=ky+p+1,x=ky+p,x=ky+p-1上的点进行检测。若最小块误差点在直线x=ky+p+1上,则进入(2.2),若最小块误差点在直线x=ky+p-1上,则进入步骤(2.3),否则进入步骤(2.4)。
(2.2)令p=p+1,检测位于直线x=ky+p+1上所有点。如果最小块误差点在直线x=ky+p上,则进入步骤(2.4),否则重复当前步骤。
(2.3)令p=p-1,检测位于直线x=ky+p-1上所有点。如果最小块误差点在直线x=ky+p上,则进入步骤(2.4),否则重复当前步骤。
(2.4)返回最小块误差点所对应的运动向量,线搜索结束。
线搜索的具体搜索过程如图6B所示,假设立方体前面的待搜索块位置4是(16,16),其运动向量5是(5,7)。根据公式(1)和公式(2),计算出待搜索块所在直线为x=y,并对位于直线x=y+1,x=y,x=y-1的所有的点进行检测,如图6B中搜索线1所示,其中,最小块误差点6位于(14,15),在搜索线的边界上。因此,新增加一条搜索线x=y-2,并对位于直线x=y-2的所有候选块进行搜索,如图6B中搜索线2所示,其中,最小块误差点7位于(21,23),在搜索线的边界上。所以,再次增加一条搜索直线x=y-3,并对位于直线x=y-3的所有候选块进行搜索,如图6B中搜索线3所示。在完成直线x=y-3的搜索后,最小块误差点7仍然位于(21,23),在直线x=y-2上,因此线搜索过程停止并返回运动向量5。
(3)以步骤(2)中线搜索的已匹配块为起点,对相邻的宏块进行扩展搜索,扩展搜索结束后跳转到步骤(4)。根据相邻宏块间的空间相关性,宏块的运动向量与左边、上边、右上的相邻块的运动向量是相似的。所以,以线搜索的已匹配块为起点,可以对相邻的宏块进行扩展搜索。在扩展搜索的过程中,待匹配块可以参考与其邻近的已匹配块的运动向量。宏块的位置用宏块坐标(i,j)表示,其中(i,j)与宏块的像素坐标(x,y)的转换关系如公式(3)所示。
Figure G2009100928688D00061
扩展搜索使用Dk、Mk、Nk三个宏块集合来表示第k轮扩展搜索时三种不同类型的宏块,其中,Dk表示待扩展搜索宏块集,Mk表示扩展搜索成功宏块集,Nk表示扩展搜索失败宏块集。已知三个宏块集合在第k-1轮的状态为Dk-1、Mk-1、Nk-1,则在第k轮时的三个宏块集合的状态Dk、Mk、Nk可以通过Dk、Mk、Nk生成。线搜索已匹配块的宏块坐标为(i,j),对宏块(i,j)相邻的宏块进行扩展搜索主要包括以下步骤:
(3.1)令扩展次数k=0,初始化待扩展搜索宏块集Dk,扩展搜索成功宏块集Mk,扩展搜索失败宏块集Nk。线搜索已匹配块的宏块坐标为(i,j),则待扩展搜索宏块集,扩展搜索成功宏块集,扩展搜索失败宏块集的初始状态D0、M0、N0如公式(4)所示,其中,M0所包含的宏块m(i,j)即为完成线搜索的已匹配块。
D0=φ
M0={m(i,j)}                                        (4)
N0=φ
其中,φ表示空集。
(3.2)令扩展次数k=k+1,计算第k轮的待扩展搜索宏块集Dk。根据宏块运动向量的相关性,待匹配块可以参考相邻的已匹配块的运动向量,所以待扩展搜索的宏块集Dk可以通过第k-1轮的扩展搜索成功宏块集Mk-1生成,如公式(5)所示。
Dk={d(i+k,j+p)|m(i+k-1,j+p)∈Mk-1}
∪{d(i+q,j+k)|m(i+q,j+k-1)∈Mk-1}                  (5)
∪{d(i+k,j+k)|m(i+k-1,j+k-1)∈Mk-1}
其中,(i,j)表示线搜索已匹配块的宏块坐标,k表示扩展次数,p和q表示宏块坐标的偏移量。
根据公式(5),对于i+k-1行上所有扩展成功的宏块(i+k-1,j+p)(0≤p<k-1),宏块(i+k,j+p)被认为是第k轮待扩展搜索的宏块;对于j+k-1列上所有扩展成功的宏块(i+q,j+k-1)(0≤q<k-1),宏块(i+q,j+k)被认为是第k轮待扩展搜索的宏块;对于宏块(i+k-1,j+k-1),若该块是第k-1轮扩展成功的宏块,则宏块(i+k,j+k)被认为是第k轮待扩展搜索的宏块。
(3.3)第k轮待扩展搜索宏块集Dk中的宏块d(p,q)按照公式(6)所示的运动向量参考关系R,在Mk-1中宏块的运动向量的基础上,进行HS(Hexagon Search,六边形搜索)获取各宏块的最小块误差点。
R ( d ( p , q ) ) = m ( p , j + k - 1 ) , q = j + k , m ( p , j + k - 1 ) ∈ M k - 1 m ( i + k - 1 , q ) p = i + k , m ( i + k - 1 , q ) ∈ M k - 1 m ( i + k - 1 , j + k - 1 ) , p = i + k , q = j + k , m ( i + k - 1 , j + k - 1 ) ∈ M k - 1 - - - ( 6 )
其中,(i,j)表示线搜索已匹配块的宏块坐标,k表示扩展次数,p和q表示宏块坐标的偏移量。
根据公式(6),Dk中i+k行上的待扩展搜索的宏块(i+k,j+p)(0≤p<k-1)参考Mk-1中宏块(i+k-1,j+p)(0≤p<k-1)的运动向量;Dk中j+k列上的待扩展搜索的宏块(i+q,j+k)(0≤q<k-1)参考Mk-1中宏块(i+q,j+k-1)(0≤1<k-1)的运动向量;若宏块(i+k,j+k)是第k轮待扩展搜索的宏块,则该块参考Mk-1中宏块(i+k-1,j+k-1)的运动向量。
(3.4)根据步骤(3.3)获取的Dk中各宏块的最小块误差点,检查Dk中各宏块的最小块误差值与阈值的大小关系,最小块误差值小于阈值的宏块被认为是扩展搜索成功的宏块,而最小块误差值大于阈值的宏块被认为是扩展搜索失败的宏块。因此,第k轮扩展搜索成功宏块集Mk如公式(7)所示。
Mk={m(p,q)|d(p,q)∈Dk∧MBD(p,q)≤TSS}              (7)
其中,(p,q)为宏块坐标,TSS表示阈值。
由于第k-1轮扩展搜索失败的宏块会导致第k轮扩展搜索中一些宏块没有运动向量可供参考,这些没有运动向量可供参考的宏块也被认为是第k轮扩展搜索失败的宏块。所以,第k轮扩展搜索失败宏块集Nk包括最小块误差值大于阈值的宏块以及没有运动向量可供参考的宏块,如公式(8)所示。
Nk={Dk-Mk}
∪{n(i+k,j+p)|n(i+k-1,j+p)∈Nk-1}
(8)
∪{n(i+q,j+k)|n(i+q,j+k-1)∈Nk-1}
∪{n(i+k,j+k)|n(i+k-1,j+k-1)∈Nk-1}
其中,(i,j)表示线搜索已匹配块的宏块坐标,k表示扩展次数,p和q表示宏块坐标的偏移量。
根据公式(8),对于i+k-1行上所有扩展失败的宏块(i+k-1,j+p)(0≤p<k-1),宏块(i+k,j+p)被直接判定为第k轮扩展搜索失败的宏块;对于j+k-1列上所有扩展失败的宏块(i+q,j+k-1)(0≤q<k-1),宏块(i+q,j+k)被认为是第k轮扩展搜索失败的宏块;对于宏块(i+k-1,j+k-1),若该块是第k-1轮扩展失败的宏块,则宏块(i+k,j+k)被认为是第k轮待扩展搜索的宏块。
(3.5)若Mk=φ,则扩展搜索结束,返回各轮扩展搜索成功宏块的运动向量,即M1,M2,…,Mk-2,Mk-1中各宏块的最小块误差点所对应的运动向量;否则,进入步骤(3.2)。
扩展搜索的具体搜索过程如图7B所示,其中,d代表待扩展搜索的宏块,m代表扩展搜索成功的宏块,n代表扩展搜索失败的宏块。假设完成线搜索的已匹配块的宏块坐标为(0,0),则M0={m(0,0)}。所以根据公式(5),当k=1时待扩展搜索宏块集D1={d(0,1),d(1,0),d(1,1)},D1中的宏块参考宏块m(0,0)的运动向量进行扩展搜索,如图7B(a)所示。若宏块d(0,1)扩展搜索失败,则扩展搜索成功宏块集M1={m(1,0),m(1,1)},扩展搜索失败宏块集N1={n(0,1)}。根据公式(8),宏块(0,2)被直接判定为扩展搜索失败,所以k=2的待扩展搜索宏块集D2={d(2,0),d(2,1),d(1,2),d(2,2)},如图7B(b)所示。对D2中的宏块按照公式(6)的运动向量参考关系R进行扩展搜索,若宏块d(2,1)和d(2,2)扩展搜索失败,则扩展搜索成功宏块集M2={m(2,0),m(2,1)},扩展搜索失败宏块集N2={n(2,1),n(0,2),n(2,2)}。根据公式(5),k=3时待扩展搜索宏块集D3={d(3,0),d(1,3)},如图7B(c)所示。若D3中的宏块都扩展搜索失败,则当k=3时,扩展搜索失败宏块集N3={n(3,0),n(3,1),n(3,2),n(0,3),n(1,3),n(2,3),n(3,3)},而扩展搜索成功宏块集M3=φ,此时扩展搜索结束,返回M1,M2中各宏块的运动向量,如图7B(d)所示。
(4)检查预测帧是否有宏块没有做搜索匹配,如果还有宏块没有进行搜索,则进入步骤(2),否则结束。
本发明对将线搜索扩展于全景视频运动估计的方法进行了实验。实验所采用的数据为沿公路拍摄的立方体全景视频,其中全景视频的帧数为50帧,各面的分辨率为512×512像素。在实验中,分别采用FS算法,DS算法,HS算法,以及本方法对全景视频序列进行运动估计,利用各算法进行运动估计生成的补偿图像如图8所示。图8(a)为原始的第6帧全景视频的各面图像,图8(b)为本方法的运动向量补偿生成的第6帧全景视频的各面图像,图8(c)为FS搜索算法的运动向量补偿生成的第6帧全景视频的各个面图像,图8(d)为DS搜索算法的运动向量补偿生成的第6帧全景视频的各个面图像,图8(e)为HS算法的运动向量补偿生成的第6帧全景视频的各个面图像。从图8的各组图像可以看出,本方法进行运动估计生成的补偿图像比DS和HS算法生成的补偿图像的主观质量更高,更接近FS算法生成的图像。
为了衡量本方法的运动估计的性能,采用了PSNR(Peak Signal to Noise Ratio,峰值信噪比)作为实验指标,如公式(9)所示。PSNR反映了图像的失真程度,其单位为分贝(dB),PSNR值越大,图像失真越少。
PSNR = 10 × log 10 ( 255 2 1 w × h Σ x = 1 w Σ y = 1 h [ I k ( x , y ) - I t ( x , y ) ] 2 ) - - - ( 9 )
其中,Ik(x,y)是补偿图像中点(x,y)的灰度像素值,It(x,y)是原始图像中点(x,y)的灰度像素值,w和h分别是图像的宽度与高度。
根据公式(9),计算了立方体全景的各帧图像采用FS算法,DS算法,HS算法以及本方法对立方体全景进行运动估计的各帧图像的PSNR,如图9所示。从图9的PSNR曲线可以看出,本发明的方法对立方体全景进行运动估计的PSNR明显优于DS算法和HS算法,与FS算法很接近。本方法的平均PSNR比DS算法和HS算法提高了5dB。
本发明中未详细阐述的部分属于本领域技术人员的公知技术。
最后所应说明的是,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明将线搜索扩展于全景视频运动估计的方法的前提下,还可以做出若干改进或等同替换,这些改进和等同替换也应视为本发明的保护范围。

Claims (2)

1.一种将线搜索扩展于立方体全景视频运动估计的方法,其特征在于:将连续采集的立方体全景视频分为参考帧和预测帧,预测帧被分成若干宏块,在扩展的参考帧内搜索预测帧宏块的运动向量,具体包含的步骤如下:
(1)利用参考帧各面的上,下,左,右的邻接图像对参考帧的各面图像进行扩展;
(2)从预测帧的宏块中,选取第一个没有做搜索的宏块,对该第一个没有做搜索的宏块采用线搜索方法在扩展的参考帧中进行搜索,寻找最小块误差点,并返回最小块误差点所对应的运动向量,完成线搜索的该宏块即为线搜索的已匹配块;
(3)以步骤(2)中线搜索的已匹配块为起点,对相邻的宏块进行扩展搜索,获取相应的运动向量;
(4)检查预测帧是否有宏块没有做搜索匹配,如果还有宏块没有做搜索匹配,则进入步骤(2),否则结束;
其中,所述步骤(2)中的线搜索方法根据立方体全景各面图像的宏块的运动趋势决定初始搜索直线的方程x=ky+p,其中参数k表示初始搜索直线的斜率,p表示初始搜索直线的截距,参数k和p的计算方法如下述公式所示:
p=xm-kym
其中,(xm,ym)表示待搜索块的位置坐标,(xc,yc)表示图像中心的坐标;
线搜索方法包括以下步骤:
(1.1)对待搜索块所位于直线及其相邻的两条平行线进行搜索;如果待搜索块位于直线x=ky+p,则需要对位于x=ky+p+1,x=ky+p,x=ky+p-1上的点进行检测;若最小块误差点在直线x=ky+p+1上,则进入(1.2),若最小块误差点在直线x=ky+p-1上,则进入步骤(1.3),否则进入步骤(1.4);
(1.2)令p=p+1,检测位于直线x=ky+p+1上所有点;如果最小块误差点在直线x=ky+p上,则进入步骤(1.4),否则重复当前步骤;
(1.3)令p=p-1,检测位于直线x=ky+p-1上所有点;如果最小块误差点在直线x=ky+p上,则进入步骤(1.4),否则重复当前步骤;
(1.4)返回最小块误差点所对应的运动向量。
2.根据权利要求1所述的将线搜索扩展于立方体全景视频运动估计的方法,其特征在于:所述的步骤(3)中的扩展搜索使用Dw、Mw、Nw三个宏块集合来表示第w轮扩展搜索时三种不同类型的宏块,其中,Dw表示待扩展搜索宏块集,Mw表示扩展搜索成功宏块集,Nw表示扩展搜索失败宏块集,线搜索已匹配块的宏块坐标为(i,j),对宏块坐标(i,j)相邻的宏块进行扩展搜索包括以下步骤:
(3.1)令扩展次数w=0,初始化待扩展搜索宏块集Dw,扩展搜索成功宏块集Mw,扩展搜索失败宏块集Nw;线搜索已匹配块的宏块坐标为(i,j),则待扩展搜索宏块集,扩展搜索成功宏块集,扩展搜索失败宏块集的初始状态D0、M0、N0如下述公式所示:
D0=φ
M0={m(i,j)}
N0=φ
其中,φ表示空集,M0所包含的宏块m(i,j)即为完成线搜索的已匹配块;
(3.2)令扩展次数w=w+1,计算第w轮的待扩展搜索宏块集Dw;根据宏块运动向量的相关性,待匹配块参考相邻的已匹配块的运动向量,所以待扩展搜索的宏块集Dw通过第w-1轮的扩展搜索成功宏块集Mw-1生成,如下述公式所示:
Dw={d(i+w,j+u)|m(i+w-1,j+u)∈Mw-1}
∪{d(i+v,j+w)|m(i+v,j+w-1)∈Mw-1}
∪{d(i+w,j+w)|m(i+w-1,j+w-1)∈Mw-1}
其中,(i,j)表示线搜索已匹配块的宏块坐标,w表示扩展次数,u和v表示宏块坐标的偏移量;
(3.3)第w轮待扩展搜索宏块集Dw中的宏块d(s,t)按照下述公式所示的运动向量参考关系R,在Mw-1中宏块的运动向量的基础上,进行搜索获取各宏块的最小块误差点;
R ( d ( s , t ) ) = m ( s , j + w - 1 ) , t = j + w , m ( s , j + w - 1 ) ∈ M w - 1 m ( i + w - 1 , t ) , s = i + w , m ( i + w - 1 , t ) ∈ M w - 1 m ( i + 1 w - 1 , j + w - 1 ) , s = i + w , t = j + w , m ( i + w - 1 , j + w - 1 ) ∈ M w - 1
其中,(i,j)表示线搜索已匹配块的宏块坐标,w表示扩展次数,s和t表示宏块坐标;
(3.4)根据步骤(3.3)获取的Dw中各宏块的最小块误差点,检查Dw中各宏块的最小块误差值与阈值的大小关系,最小块误差值小于阈值的宏块被认为是扩展搜索成功的宏块,而最小块误差值大于阈值的宏块被认为是扩展搜索失败的宏块,第w轮扩展搜索成功宏块集Mw如下述公式所示:
Mw={m(s,t)|d(s,t)∈Dw且MBD(s,t)≤TSS}
其中,(s,t)为宏块坐标,TSS表示阈值;
第w-1轮扩展搜索失败的宏块会导致第w轮扩展搜索中一些宏块没有运动向量可供参考,这些没有运动向量可供参考的宏块也被认为是第w轮扩展搜索失败的宏块;所以,第w轮扩展搜索失败宏块集Nw包括最小块误差值大于阈值的宏块以及没有运动向量可供参考的宏块,如下述公式所示:
Nw={Dw-Mw}
∪{n(i+w,j+u)|n(i+w-1,j+u)∈Nw-1}
∪{n(i+v,j+w)|n(i+v,j+w-1)∈Nw-1}
∪{n(i+w,j+w)|n(i+w-1,j+w-1)∈Nw-1}
其中,(i,j)表示线搜索已匹配块的宏块坐标,w表示扩展次数,u和v表示宏块坐标的偏移量;
(3.5)若Mw=φ,则扩展搜索结束,获取各轮扩展搜索成功宏块的运动向量,即M1,M2,…,Mw-2,Mw-1中各宏块相应的运动向量;否则,进入步骤(3.2)。
CN200910092868A 2009-09-09 2009-09-09 一种将线搜索扩展于全景视频运动估计的方法 Active CN101667295B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200910092868A CN101667295B (zh) 2009-09-09 2009-09-09 一种将线搜索扩展于全景视频运动估计的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200910092868A CN101667295B (zh) 2009-09-09 2009-09-09 一种将线搜索扩展于全景视频运动估计的方法

Publications (2)

Publication Number Publication Date
CN101667295A CN101667295A (zh) 2010-03-10
CN101667295B true CN101667295B (zh) 2012-10-03

Family

ID=41803907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910092868A Active CN101667295B (zh) 2009-09-09 2009-09-09 一种将线搜索扩展于全景视频运动估计的方法

Country Status (1)

Country Link
CN (1) CN101667295B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894380B (zh) * 2010-07-14 2012-11-28 北京航空航天大学 一种全景视频中目标物体的自动跟踪方法
US10282814B2 (en) 2016-01-07 2019-05-07 Mediatek Inc. Method and apparatus of image formation and compression of cubic images for 360 degree panorama display
US20170214937A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Apparatus of Inter Prediction for Spherical Images and Cubic Images
US20170230668A1 (en) * 2016-02-05 2017-08-10 Mediatek Inc. Method and Apparatus of Mode Information Reference for 360-Degree VR Video
CN105915892A (zh) * 2016-05-06 2016-08-31 乐视控股(北京)有限公司 全景视频质量判断方法及系统
CN105898254B (zh) * 2016-05-17 2018-10-23 北京金字塔虚拟现实科技有限公司 节省带宽的vr全景视频布局方法、装置及展现方法、系统
KR20180000279A (ko) * 2016-06-21 2018-01-02 주식회사 픽스트리 부호화 장치 및 방법, 복호화 장치 및 방법
CN106204456B (zh) * 2016-07-18 2019-07-19 电子科技大学 全景视频序列运动估计越界折叠搜索方法
CN117768645A (zh) 2016-10-04 2024-03-26 有限公司B1影像技术研究所 图像编码/解码方法、记录介质和传输比特流的方法
CN108235031B (zh) * 2016-12-15 2019-11-05 华为技术有限公司 一种运动矢量解码方法及解码器
CN106875530B (zh) * 2017-03-03 2021-04-27 国网山东省电力公司泰安供电公司 一种用于库房门的自动挡鼠系统及在库房门处自动挡鼠的方法
WO2019127484A1 (zh) * 2017-12-29 2019-07-04 深圳市大疆创新科技有限公司 视频编码方法、视频解码方法及相关装置

Also Published As

Publication number Publication date
CN101667295A (zh) 2010-03-10

Similar Documents

Publication Publication Date Title
CN101667295B (zh) 一种将线搜索扩展于全景视频运动估计的方法
CN110419217B (zh) 用于图像处理的方法和图像处理装置
KR100287211B1 (ko) 양방향 움직임 추정방법 및 장치
US6380986B1 (en) Motion vector search method and apparatus
CN101600108B (zh) 一种多视点视频编码中的运动和视差联合估计方法
CN101326550B (zh) 利用预测指导的抽取搜索的运动估计
CN100468982C (zh) 用于执行高质量快速预测运动搜索的方法和设备
US7822280B2 (en) Epipolar geometry-based motion estimation for multi-view image and video coding
CN103702128B (zh) 一种应用于视频帧速率上转换的插值帧生成方法
JP2006313950A (ja) 画像符号化装置、及び画像符号化方法
Kumwilaisak et al. Spatial error concealment with sequence-aligned texture modeling and adaptive directional recovery
KR20050055553A (ko) 동영상 부호화를 위한 움직임 추정 방법 및 이를 구현하기위한 프로그램이 기록된 기록 매체
WO1999059341A1 (en) Motion vector generation by temporal interpolation
CN106791869A (zh) 基于光场子孔径图像相对位置关系的快速运动搜索方法
CN101822058A (zh) 使用像素抽取的视频编码
KR20050025568A (ko) 프레임의 오류 은닉 장치 및 방법
JP2005167976A (ja) 動きベクトル検出装置及び動きベクトル検出プログラム
Kim et al. Enhanced block motion estimation based on distortion-directional search patterns
KR20020010171A (ko) 블록 정합 움직임 추정을 위한 적응적 예측 방향성 탐색방법
JP4440233B2 (ja) エラー隠匿方法及び装置
Babu et al. Performance analysis of block matching algorithms for highly scalable video compression
CN101291433A (zh) 视频编码技术中的模块运动矢量匹配评估方法
Kimura et al. Accurate motion estimation for image of spatial periodic pattern
Lee et al. Fast motion estimation robust to random motions based on a distance prediction
Wang et al. An improve algorithm of motion compensation MPEG video compression

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant