CN103632372A - 一种视频显著图提取方法 - Google Patents

一种视频显著图提取方法 Download PDF

Info

Publication number
CN103632372A
CN103632372A CN201310651561.3A CN201310651561A CN103632372A CN 103632372 A CN103632372 A CN 103632372A CN 201310651561 A CN201310651561 A CN 201310651561A CN 103632372 A CN103632372 A CN 103632372A
Authority
CN
China
Prior art keywords
video
matrix
frame
cross
dimensional video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310651561.3A
Other languages
English (en)
Other versions
CN103632372B (zh
Inventor
邵枫
潘云峰
蒋刚毅
郁梅
李福翠
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Shengjian Technology Development Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310651561.3A priority Critical patent/CN103632372B/zh
Publication of CN103632372A publication Critical patent/CN103632372A/zh
Application granted granted Critical
Publication of CN103632372B publication Critical patent/CN103632372B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种视频显著图提取方法,其首先通过对二维视频在时域上、在水平方向及在垂直方向进行采样,分别得到X-Y截面图像、X-T截面图像和Y-T截面图像,然后通过对X-T截面图像和Y-T截面图像进行低秩矩阵分解提取出X-Y截面图像的运动显著图,对X-Y截面图像的特征矢量进行低秩矩阵分解提取出X-Y截面图像的空间显著图,最后对运动显著图和空间显著图进行融合,得到最终的视频显著图,优点是所获得的视频显著图能够较好地反映视频的静态和动态区域的显著变化情况,符合人眼运动显著语义的特征。

Description

一种视频显著图提取方法
技术领域
本发明涉及一种视频信号的处理方法,尤其是涉及一种视频显著图提取方法。
背景技术
在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。
目前,通常采用视频分割、光流法、运动估计等方法来提取视频显著区域,然而这些方法并不能很好地将运动的物体和静态背景进行分离,这是因为:一方面,通过运动估计或帧差法得到的运动信息只反映运动趋势,并不能很好地反映运动显著语义特征;另一方面,视频中的静态场景也会影响视觉注意力的判断,在某些情况下,空间显著图会起主要的作用,因此,如何提取反映运动显著语义特征的运动显著图,如何对运动显著图和空间显著图进行结合,都是视频显著图提取中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种符合人眼运动显著语义特征,且提取精度高的视频显著图提取方法。
本发明解决上述技术问题所采用的技术方案为:一种视频显著图提取方法,其特征在于包括以下步骤:
①对呈三维立方体的二维视频在时域上进行采样,得到二维视频的T个X-Y截面图像,即得到二维视频的T个时刻的视频帧,将二维视频中的t时刻的视频帧记为{It(x,y)},将{It(x,y)}中坐标位置为(x,y)的像素点的像素值记为It(x,y),其中,T表示二维视频中包含的视频帧的总帧数,1≤t≤T,1≤x≤W,1≤y≤H,W表示二维视频中各时刻的视频帧的宽,H表示二维视频中各时刻的视频帧的高;
同样,对呈三维立方体的二维视频在X方向上进行采样,得到二维视频的W个Y-T截面图像,将二维视频中的第x个Y-T截面图像记为{Ix(y,t)},将{Ix(y,t)}中坐标位置为(y,t)的像素点的像素值记为Ix(y,t),Ix(y,t)=It(x,y);
同样,对呈三维立方体的二维视频在Y方向上进行采样,得到二维视频的H个X-T截面图像,将二维视频中的第y个X-T截面图像记为{Iy(x,t)},将{Iy(x,t)}中坐标位置为(x,t)的像素点的像素值记为Iy(x,t),Iy(x,t)=It(x,y);
②对二维视频中的每个Y-T截面图像进行低秩矩阵分解,并获取二维视频中的每个Y-T截面图像的最优垂直方向运动矩阵,同样对二维视频中的每个X-T截面图像进行低秩矩阵分解,并获取二维视频中的每个X-T截面图像的最优水平方向运动矩阵;然后根据二维视频中的每个Y-T截面图像的最优垂直方向运动矩阵和每个X-T截面图像的最优水平方向运动矩阵,获取二维视频中每个时刻的视频帧的运动显著图,将二维视频中的t时刻的视频帧{It(x,y)}的运动显著图记为{St,motion(x,y)},其中,St,motion(x,y)表示{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值;
③提取二维视频中每个时刻的视频帧中的每个像素点的特征矢量;然后对提取得到的所有像素点的特征矢量构成的矩阵进行低秩矩阵分解,并获取二维视频中每个时刻的视频帧中的所有像素点的特征矢量构成的矩阵的最优背景矩阵和最优运动矩阵;再根据二维视频中每个时刻的视频帧中的所有像素点的特征矢量构成的矩阵的最优运动矩阵,获得二维视频中每个时刻的视频帧的空间显著图,将二维视频中的t时刻的视频帧{It(x,y)}的空间显著图记为{St,spatial(x,y)},其中,St,spatial(x,y)表示{St,spatial(x,y)}中坐标位置为(x,y)的像素点的像素值;
④对二维视频中每个时刻的视频帧的运动显著图和空间显著图进行融合,得到二维视频中每个时刻的视频帧的视频显著图,将二维视频中t时刻的视频帧{It(x,y)}的视频显著图记为{Svideo(x,y)},将{Svideo(x,y)}中坐标位置为(x,y)的像素点的像素值记为Svideo(x,y),Svideo(x,y)=(St,motion(x,y))α×(St,spatial(x,y))1-α,其中,α为权重系数。
所述的步骤②的具体过程为:
②-1、对二维视频中的每个Y-T截面图像进行低秩矩阵分解,得到二维视频中的每个Y-T截面图像的所有垂直方向背景矩阵和所有垂直方向运动矩阵;
②-2、利用最小化概率密度函数,获取二维视频中的每个Y-T截面图像的最优垂直方向背景矩阵和最优垂直方向运动矩阵,将二维视频中的第x个Y-T截面图像{Ix(y,t)}的最优垂直方向背景矩阵和最优垂直方向运动矩阵对应记为
Figure BDA0000431113840000031
Figure BDA0000431113840000032
Figure BDA0000431113840000033
Figure BDA0000431113840000034
的组合记为
Figure BDA0000431113840000035
( B x * , M x * ) = arg min ( B x , M x ) ∈ Ω x [ | | B x | | * + λ | | M x | | 1 ] s . t . S x = B x + M x , 其中,Sx为二维视频中的第x个Y-T截面图像{Ix(y,t)}的矩阵形式表示,
Figure BDA0000431113840000037
Sx、
Figure BDA0000431113840000038
的维数均为H×T,argmin[]表示最小化概率密度函数,Ωx表示对Sx进行低秩矩阵分解得到的所有的垂直方向背景矩阵和垂直方向运动矩阵的组合(Bx,Mx)的集合,(Bx,Mx)∈Ωx,符号“|| ||*”为求取矩阵核的范数符号,符号“|| ||1”为求取矩阵的1-范数符号,λ为拉格朗日乘子;
②-3、根据二维视频的W个Y-T截面图像各自的最优垂直方向运动矩阵,通过在X方向上进行叠加,构造得到Y-T截面图像的立方体,记为ScubeYT,其中,ScubeYT的维数为W×H×T;
②-4、对二维视频中的每个X-T截面图像进行低秩矩阵分解,得到二维视频中的每个X-T截面图像的所有水平方向背景矩阵和所有水平方向运动矩阵;
②-5、利用最小化概率密度函数,获取二维视频中的每个X-T截面图像的最优水平方向背景矩阵和最优水平方向运动矩阵,将二维视频中的第y个X-T截面图像{Iy(x,t)}的最优水平方向背景矩阵和最优水平方向运动矩阵对应记为
Figure BDA00004311138400000311
Figure BDA00004311138400000312
Figure BDA00004311138400000313
的组合记为
Figure BDA00004311138400000314
( B y * , M y * ) = arg min ( B y , M y ) ∈ Ω y [ | | B y | | * + λ | | M y | | 1 ] s . t . S y = B y + M y , 其中,Sy为二维视频中的第y个X-T截面图像{Iy(x,t)}的矩阵形式表示,
Figure BDA00004311138400000316
Sy、
Figure BDA00004311138400000317
Figure BDA00004311138400000318
的维数均为W×T,Ωy表示对Sy进行低秩矩阵分解得到的所有的水平方向背景矩阵和水平方向运动矩阵的组合(By,My)的集合,(By,My)∈Ωy
②-6、根据二维视频的H个X-T截面图像各自的最优水平方向运动矩阵,通过在Y方向上进行叠加,构造得到X-T截面图像的立方体,记为ScubeXT,其中,ScubeXT的维数为W×H×T;
②-7、计算norm(ScubeXT·*ScubeYT)作为二维视频的初步的运动显著图,其中,norm()表示归一化操作,norm(ScubeXT·*ScubeYT)中的符号“·*”为矩阵点乘符号;
②-8、采用高斯滤波器对二维视频的初步的运动显著图中每个时刻的X-Y截面图像进行平滑操作,得到二维视频中每个时刻的视频帧的运动显著图,将二维视频中的t时刻的视频帧{It(x,y)}的运动显著图记为{St,motion(x,y)},将{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,motion(x,y),St,motion(x,y)=S′t,motion(x,y)*Gσ(x,y),其中,S′t,motion(x,y)表示二维视频的初步的运动显著图中的t时刻的X-Y截面图像,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数,exp()为以e为底的指数函数,e表示自然基数。
所述的步骤②-2和所述的步骤②-5中取λ=0.06;所述的步骤②-8中取σ=5。
所述的步骤③的具体过程为:
③-1、将当前正在处理的二维视频中的t时刻的视频帧{It(x,y)}定义为当前视频帧;
③-2、提取当前视频帧中的每个像素点的红颜色分量、绿颜色分量、蓝颜色分量、色调分量和饱和度分量,由提取出的每个像素点的红颜色分量、绿颜色分量、蓝颜色分量、色调分量和饱和度分量构成对应像素点的第一特征矢量,其中,当前视频帧中的每个像素点的第一特征矢量的维数为5×(W×H);
③-3、提取当前视频帧中的每个像素点经4个方向和3个尺度的可控金字塔滤波后得到的振幅,由提取出的每个像素点对应的12个振幅构成对应像素点的第二特征矢量,其中,当前视频帧中的每个像素点的第二特征矢量的维数为12×(W×H);
③-4、提取当前视频帧中的每个像素点经12个方向和3个尺度的Gabor滤波后得到的振幅,由提取出的每个像素点对应的36个振幅构成对应像素点的第三特征矢量,其中,当前视频帧中的每个像素点的第三特征矢量的维数为36×(W×H);
③-5、将当前视频帧中的每个像素点的第一特征矢量、第二特征矢量和第三特征矢量按序重组构成对应像素点的特征矢量,然后对当前视频帧中的所有像素点的特征矢量构成的矩阵进行低秩矩阵分解,得到当前视频帧中的所有像素点的特征矢量构成的矩阵的所有背景矩阵和所有运动矩阵;
③-6、利用最小化概率密度函数,获取当前视频帧中的所有像素点的特征矢量构成的矩阵的最优背景矩阵和最优运动矩阵,对应记为
Figure BDA0000431113840000051
Figure BDA0000431113840000053
Figure BDA0000431113840000054
的组合记为 ( B t * , M t * ) = arg min ( B t , M t ) ∈ Ω t [ | | B t | | * + λ | | M t | | 1 ] s . t . F = B t + M t , 其中,F为当前视频帧中的所有像素点的特征矢量构成的矩阵,
Figure BDA0000431113840000057
F、
Figure BDA0000431113840000058
的维数均为53×(W×H),argmin[]表示最小化概率密度函数,Ωt表示对F进行低秩矩阵分解得到的所有的背景矩阵和运动矩阵的组合(Bt,Mt)的集合,(Bt,Mt)∈Ωt,符号“|| ||*”为求取矩阵核的范数符号,符号“|| ||1”为求取矩阵的1-范数符号,λ为拉格朗日乘子;
③-7、采用超像素分割技术将当前视频帧分割成M个互不重叠的区域,然后将
Figure BDA00004311138400000510
表示为 M t * = [ ( M t , 1 * ) T , ( M t , 2 * ) T , . . . , ( M t , M * ) T ] T , 其中,M≥1,
Figure BDA00004311138400000512
表示由
Figure BDA00004311138400000513
中属于第1个区域内的所有像素点的特征矢量构成的矩阵,
Figure BDA00004311138400000514
表示由
Figure BDA00004311138400000515
中属于第2个区域内的所有像素点的特征矢量构成的矩阵,表示由
Figure BDA00004311138400000517
中属于第M个区域内的所有像素点的特征矢量构成的矩阵,
Figure BDA00004311138400000518
的转置矢量,
Figure BDA00004311138400000520
Figure BDA00004311138400000521
的转置矢量,
Figure BDA00004311138400000522
的转置矢量,
Figure BDA00004311138400000524
的转置矢量,符号“[]”为矢量表示符号;
③-8、计算当前视频帧中的每个区域的空间显著值,将当前视频帧中的第k个区域的空间显著值记为ft,k
Figure BDA00004311138400000526
然后将当前视频帧中的每个区域的空间显著值作为对应区域内的所有像素点的空间显著值,得到当前视频帧中的每个像素点的空间显著值,从而得到当前视频帧的空间显著图,记为{St,spatial(x,y)},其中,1≤k≤M,
Figure BDA00004311138400000527
表示由
Figure BDA00004311138400000528
中属于第k个区域内的所有像素点的特征矢量构成的矩阵,St,spatial(x,y)表示{St,spatial(x,y)}中坐标位置为(x,y)的像素点的像素值;
③-9、令t=t+1,将二维视频中下一个时刻的视频帧作为当前视频帧,然后返回步骤③-2继续执行,直至二维视频中的所有视频帧处理完毕,得到二维视频中每个时刻的视频帧的空间显著图,其中,t=t+1中的“=”为赋值符号。
所述的步骤③-6中取λ=0.06;所述的步骤③-7中取M=200。
所述的步骤④中取α=0.3。
与现有技术相比,本发明的优点在于:
1)本发明方法首先通过对二维视频在时域上、在水平方向及在垂直方向进行采样,分别得到X-Y截面图像、X-T截面图像和Y-T截面图像,然后通过对X-T截面图像和Y-T截面图像进行低秩矩阵分解提取出X-Y截面图像的运动显著图,对X-Y截面图像的特征矢量进行低秩矩阵分解提取出X-Y截面图像的空间显著图,最后对运动显著图和空间显著图进行融合,得到最终的视频显著图,所获得的视频显著图能够较好地反映视频的静态和动态区域的显著变化情况。
2)本发明方法采用低秩矩阵分解将图像分解为背景矩阵和运动矩阵,并从运动矩阵中提取出显著信息,这样能够提取符合人眼运动显著语义的特征信息,有效地提高了特征提取的鲁棒性,从而提高了视频显著图的提取精度。
附图说明
图1为本发明方法的总体实现框图;
图2a为“video5”视频序列的第100帧视频图像;
图2b为“video5”视频序列的第100帧视频图像的运动显著图;
图2c为“video5”视频序列的第100帧视频图像的空间显著图;
图2d为“video5”视频序列的第100帧视频图像的视频显著图;
图3a为“video8”视频序列的第100帧视频图像;
图3b为“video8”视频序列的第100帧视频图像的运动显著图;
图3c为“video8”视频序列的第100帧视频图像的空间显著图;
图3d为“video8”视频序列的第100帧视频图像的视频显著图;
图4a为“video10”视频序列的第100帧视频图像;
图4b为“video10”视频序列的第100帧视频图像的运动显著图;
图4c为“video10”视频序列的第100帧视频图像的空间显著图;
图4d为“video10”视频序列的第100帧视频图像的视频显著图;
图5a为“video21”视频序列的第100帧视频图像;
图5b为“video21”视频序列的第100帧视频图像的运动显著图;
图5c为“video21”视频序列的第100帧视频图像的空间显著图;
图5d为“video21”视频序列的第100帧视频图像的视频显著图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种视频显著图提取方法,其总体实现框图如图1所示,其包括以下步骤:
①由于二维视频可以看作是一个三维阵列即三维立方体,其在各个坐标轴上的语义特征是完全不一样的,因此本发明分别在时域上、在X方向上和在Y方向上进行采样,即对呈三维立方体的二维视频在时域上进行采样,得到二维视频的T个X-Y截面图像,即得到二维视频的T个时刻的视频帧,将二维视频中的t时刻的视频帧记为{It(x,y)},将{It(x,y)}中坐标位置为(x,y)的像素点的像素值记为It(x,y),其中,T表示二维视频中包含的视频帧的总帧数,1≤t≤T,1≤x≤W,1≤y≤H,W表示二维视频中各时刻的视频帧的宽,H表示二维视频中各时刻的视频帧的高。
同样,对呈三维立方体的二维视频在X方向上进行采样,得到二维视频的W个Y-T截面图像,将二维视频中的第x个Y-T截面图像记为{Ix(y,t)},将{Ix(y,t)}中坐标位置为(y,t)的像素点的像素值记为Ix(y,t),Ix(y,t)=It(x,y),即两者相等。
同样,对呈三维立方体的二维视频在Y方向上进行采样,得到二维视频的H个X-T截面图像,将二维视频中的第y个X-T截面图像记为{Iy(x,t)},将{Iy(x,t)}中坐标位置为(x,t)的像素点的像素值记为Iy(x,t),Iy(x,t)=It(x,y),即两者相等。
在三维立方体中,(x,y,t)是三维立方体中的任意点的坐标位置。
②由于Y-T截面图像和X-T截面图像包含了二维视频在垂直和水平方向的运动信息,因此本发明对二维视频中的每个Y-T截面图像进行低秩矩阵分解(low-rank matrixdecomposition),并获取二维视频中的每个Y-T截面图像的最优垂直方向运动矩阵,同样对二维视频中的每个X-T截面图像进行低秩矩阵分解,并获取二维视频中的每个X-T截面图像的最优水平方向运动矩阵;然后根据二维视频中的每个Y-T截面图像的最优垂直方向运动矩阵和每个X-T截面图像的最优水平方向运动矩阵,获取二维视频中每个时刻的视频帧的运动显著图,将二维视频中的t时刻的视频帧{It(x,y)}的运动显著图记为{St,motion(x,y)},其中,St,motion(x,y)表示{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤②的具体过程为:
②-1、对二维视频中的每个Y-T截面图像进行低秩矩阵分解,得到二维视频中的每个Y-T截面图像的所有垂直方向背景矩阵和所有垂直方向运动矩阵。
②-2、利用最小化概率密度函数,获取二维视频中的每个Y-T截面图像的最优垂直方向背景矩阵和最优垂直方向运动矩阵,将二维视频中的第x个Y-T截面图像{Ix(y,t)}的最优垂直方向背景矩阵和最优垂直方向运动矩阵对应记为
Figure BDA0000431113840000082
Figure BDA0000431113840000083
Figure BDA0000431113840000084
的组合记为
Figure BDA0000431113840000085
( B x * , M x * ) = arg min ( B x , M x ) ∈ Ω x [ | | B x | | * + λ | | M x | | 1 ] s . t . S x = B x + M x , 其中,Sx为二维视频中的第x个Y-T截面图像{Ix(y,t)}的矩阵形式表示,
Figure BDA0000431113840000087
Sx、
Figure BDA0000431113840000088
Figure BDA0000431113840000089
的维数均为H×T,argmin[]表示最小化概率密度函数,Ωx表示对Sx进行低秩矩阵分解得到的所有的垂直方向背景矩阵和垂直方向运动矩阵的组合(Bx,Mx)的集合,(Bx,Mx)∈Ωx,符号“|| ||*”为求取矩阵核的范数符号,符号“|| ||1”为求取矩阵的1-范数符号,λ为拉格朗日乘子,在本实施例中取λ=0.06。
在本实施例中,采用鲁棒主成分分析方法求解最小化概率密度函数。
②-3、根据二维视频的W个Y-T截面图像各自的最优垂直方向运动矩阵,通过在X方向上进行叠加,构造得到Y-T截面图像的立方体,记为ScubeYT,其中,ScubeYT的维数为W×H×T。
②-4、对二维视频中的每个X-T截面图像进行低秩矩阵分解,得到二维视频中的每个X-T截面图像的所有水平方向背景矩阵和所有水平方向运动矩阵。
②-5、利用最小化概率密度函数,获取二维视频中的每个X-T截面图像的最优水平方向背景矩阵和最优水平方向运动矩阵,将二维视频中的第y个X-T截面图像{Iy(x,t)}的最优水平方向背景矩阵和最优水平方向运动矩阵对应记为
Figure BDA00004311138400000810
Figure BDA00004311138400000811
Figure BDA00004311138400000812
Figure BDA00004311138400000813
的组合记为
Figure BDA00004311138400000814
( B y * , M y * ) = arg min ( B y , M y ) ∈ Ω y [ | | B y | | * + λ | | M y | | 1 ] s . t . S y = B y + M y , 其中,Sy为二维视频中的第y个X-T截面图像{Iy(x,t)}的矩阵形式表示,
Figure BDA00004311138400000816
Sy、
Figure BDA00004311138400000817
Figure BDA00004311138400000818
的维数均为W×T,Ωy表示对Sy进行低秩矩阵分解得到的所有的水平方向背景矩阵和水平方向运动矩阵的组合(By,My)的集合,(By,My)∈Ωy,在本实施例中取λ=0.06。
②-6、根据二维视频的H个X-T截面图像各自的最优水平方向运动矩阵,通过在Y方向上进行叠加,构造得到X-T截面图像的立方体,记为ScubeXT,其中,ScubeXT的维数为W×H×T。
②-7、计算norm(ScubeXT·*ScubeYT)作为二维视频的初步的运动显著图,其中,norm()表示归一化操作,norm(ScubeXT·*ScubeYT)中的符号“·*”为矩阵点乘符号。
②-8、采用高斯滤波器对二维视频的初步的运动显著图中每个时刻的X-Y截面图像进行平滑操作,得到二维视频中每个时刻的视频帧的运动显著图,将二维视频中的t时刻的视频帧{It(x,y)}的运动显著图记为{St,motion(x,y)},将{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,motion(x,y),St,motion(x,y)=S′t,motion(x,y)*Gσ(x,y),其中,S′t,motion(x,y)表示二维视频的初步的运动显著图中的t时刻的X-Y截面图像,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数,在本实施例中取σ=5,exp()为以e为底的指数函数,e表示自然基数,e=2.718281828。
③由于静态场景也会吸引人的视觉注意力,但在静态场景中,各种运动几乎为零,无法采用基于运动的方法获得静态注意力区域,因此本发明方法提取二维视频中每个时刻的视频帧中的每个像素点的特征矢量;然后对提取得到的所有像素点的特征矢量构成的矩阵进行低秩矩阵分解,并获取二维视频中每个时刻的视频帧中的所有像素点的特征矢量构成的矩阵的最优背景矩阵和最优运动矩阵;再根据二维视频中每个时刻的视频帧中的所有像素点的特征矢量构成的矩阵的最优运动矩阵,获得二维视频中每个时刻的视频帧的空间显著图,将二维视频中的t时刻的视频帧{It(x,y)}的空间显著图记为{St,spatial(x,y)},其中,St,spatial(x,y)表示{St,spatial(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤③的具体过程为:
③-1、将当前正在处理的二维视频中的t时刻的视频帧{It(x,y)}定义为当前视频帧。
③-2、提取当前视频帧中的每个像素点的红颜色分量、绿颜色分量、蓝颜色分量、色调分量和饱和度分量,由提取出的每个像素点的红颜色分量、绿颜色分量、蓝颜色分量、色调分量和饱和度分量构成对应像素点的第一特征矢量,其中,当前视频帧中的每个像素点的第一特征矢量的维数为5×(W×H)。
③-3、提取当前视频帧中的每个像素点经4个方向和3个尺度的可控金字塔(steerable pyramids)滤波后得到的振幅,由提取出的每个像素点对应的12个振幅构成对应像素点的第二特征矢量,其中,当前视频帧中的每个像素点的第二特征矢量的维数为12×(W×H)。
③-4、提取当前视频帧中的每个像素点经12个方向和3个尺度的Gabor滤波后得到的振幅,由提取出的每个像素点对应的36个振幅构成对应像素点的第三特征矢量,其中,当前视频帧中的每个像素点的第三特征矢量的维数为36×(W×H)。
③-5、将当前视频帧中的每个像素点的第一特征矢量、第二特征矢量和第三特征矢量按序重组构成对应像素点的特征矢量,然后对当前视频帧中的所有像素点的特征矢量构成的矩阵进行低秩矩阵分解,得到当前视频帧中的所有像素点的特征矢量构成的矩阵的所有背景矩阵和所有运动矩阵。
③-6、利用最小化概率密度函数,获取当前视频帧中的所有像素点的特征矢量构成的矩阵的最优背景矩阵和最优运动矩阵,对应记为
Figure BDA0000431113840000102
Figure BDA0000431113840000103
Figure BDA0000431113840000104
的组合记为
Figure BDA0000431113840000105
( B t * , M t * ) = arg min ( B t , M t ) ∈ Ω t [ | | B t | | * + λ | | M t | | 1 ] s . t . F = B t + M t , 其中,F为当前视频帧中的所有像素点的特征矢量构成的矩阵,
Figure BDA0000431113840000107
F、
Figure BDA0000431113840000108
Figure BDA0000431113840000109
的维数均为53×(W×H),argmin[]表示最小化概率密度函数,Ωt表示对F进行低秩矩阵分解得到的所有的背景矩阵和运动矩阵的组合(Bt,Mt)的集合,(Bt,Mt)∈Ωt,符号“|| ||*”为求取矩阵核的范数符号,符号“|| ||1”为求取矩阵的1-范数符号,λ为拉格朗日乘子,在本实施例中取λ=0.06。
③-7、采用超像素(Superpixel)分割技术将当前视频帧分割成M个互不重叠的区域,然后将表示为 M t * = [ ( M t , 1 * ) T , ( M t , 2 * ) T , . . . , ( M t , M * ) T ] T , 其中,M≥1,
Figure BDA00004311138400001012
表示由
Figure BDA00004311138400001013
中属于第1个区域内的所有像素点的特征矢量构成的矩阵,
Figure BDA00004311138400001014
表示由
Figure BDA00004311138400001015
中属于第2个区域内的所有像素点的特征矢量构成的矩阵,表示由中属于第M个区域内的所有像素点的特征矢量构成的矩阵,
Figure BDA00004311138400001019
的转置矢量,
Figure BDA00004311138400001020
Figure BDA00004311138400001021
的转置矢量,
Figure BDA00004311138400001022
Figure BDA00004311138400001023
的转置矢量,
Figure BDA0000431113840000111
的转置矢量,符号“[]”为矢量表示符号,在本实施例中取M=200。
③-8、计算当前视频帧中的每个区域的空间显著值,将当前视频帧中的第k个区域的空间显著值记为ft,k
Figure BDA0000431113840000112
然后将当前视频帧中的每个区域的空间显著值作为对应区域内的所有像素点的空间显著值,得到当前视频帧中的每个像素点的空间显著值,从而得到当前视频帧的空间显著图,记为{St,spatial(x,y)},其中,1≤k≤M,
Figure BDA0000431113840000113
表示由
Figure BDA0000431113840000114
中属于第k个区域内的所有像素点的特征矢量构成的矩阵,St,spatial(x,y)表示{St,spatial(x,y)}中坐标位置为(x,y)的像素点的像素值。
③-9、令t=t+1,将二维视频中下一个时刻的视频帧作为当前视频帧,然后返回步骤③-2继续执行,直至二维视频中的所有视频帧处理完毕,得到二维视频中每个时刻的视频帧的空间显著图,其中,t=t+1中的“=”为赋值符号。
④对二维视频中每个时刻的视频帧的运动显著图和空间显著图进行融合,得到二维视频中每个时刻的视频帧的视频显著图,将二维视频中t时刻的视频帧{It(x,y)}的视频显著图记为{Svideo(x,y)},将{Svideo(x,y)}中坐标位置为(x,y)的像素点的像素值记为Svideo(x,y),Svideo(x,y)=(St,motion(x,y))α×(St,spatial(x,y))1-α,其中,α为权重系数,在本实施例中取α=0.3。
以下就利用本发明方法对比利时蒙斯理工学院TCTS实验室提供的ASCMN数据库中video5、video8、video10和video21四个视频序列的视频显著图进行提取。图2a给出了“video5”视频序列的第100帧视频图像,图2b给出了“video5”视频序列的第100帧视频图像的运动显著图,图2c给出了“video5”视频序列的第100帧视频图像的空间显著图,图2d给出了“video5”视频序列的第100帧视频图像的视频显著图;图3a给出了“video8”视频序列的第100帧视频图像,图3b给出了“video8”视频序列的第100帧视频图像的运动显著图,图3c给出了“video8”视频序列的第100帧视频图像的空间显著图,图3d给出了“video8”视频序列的第100帧视频图像的视频显著图;图4a给出了“video10”视频序列的第100帧视频图像,图4b给出了“video10”视频序列的第100帧视频图像的运动显著图,图4c给出了“video10”视频序列的第100帧视频图像的空间显著图,图4d给出了“video10”视频序列的第100帧视频图像的视频显著图;图5a给出了“video21”视频序列的第100帧视频图像,图5b给出了“video21”视频序列的第100帧视频图像的运动显著图,图5c给出了“video21”视频序列的第100帧视频图像的空间显著图,图5d给出了“video21”视频序列的第100帧视频图像的视频显著图。从图2a至图5d可以看出,采用本发明方法得到的视频显著图由于考虑了空间显著图和运动显著图,因此能够较好地反映视频的静态和动态的显著变化情况,符合视频显著语义的特征。

Claims (6)

1.一种视频显著图提取方法,其特征在于包括以下步骤:
①对呈三维立方体的二维视频在时域上进行采样,得到二维视频的T个X-Y截面图像,即得到二维视频的T个时刻的视频帧,将二维视频中的t时刻的视频帧记为{It(x,y)},将{It(x,y)}中坐标位置为(x,y)的像素点的像素值记为It(x,y),其中,T表示二维视频中包含的视频帧的总帧数,1≤t≤T,1≤x≤W,1≤y≤H,W表示二维视频中各时刻的视频帧的宽,H表示二维视频中各时刻的视频帧的高;
同样,对呈三维立方体的二维视频在X方向上进行采样,得到二维视频的W个Y-T截面图像,将二维视频中的第x个Y-T截面图像记为{Ix(y,t)},将{Ix(y,t)}中坐标位置为(y,t)的像素点的像素值记为Ix(y,t),Ix(y,t)=It(x,y);
同样,对呈三维立方体的二维视频在Y方向上进行采样,得到二维视频的H个X-T截面图像,将二维视频中的第y个X-T截面图像记为{Iy(x,t)},将{Iy(x,t)}中坐标位置为(x,t)的像素点的像素值记为Iy(x,t),Iy(x,t)=It(x,y);
②对二维视频中的每个Y-T截面图像进行低秩矩阵分解,并获取二维视频中的每个Y-T截面图像的最优垂直方向运动矩阵,同样对二维视频中的每个X-T截面图像进行低秩矩阵分解,并获取二维视频中的每个X-T截面图像的最优水平方向运动矩阵;然后根据二维视频中的每个Y-T截面图像的最优垂直方向运动矩阵和每个X-T截面图像的最优水平方向运动矩阵,获取二维视频中每个时刻的视频帧的运动显著图,将二维视频中的t时刻的视频帧{It(x,y)}的运动显著图记为{St,motion(x,y)},其中,St,motion(x,y)表示{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值;
③提取二维视频中每个时刻的视频帧中的每个像素点的特征矢量;然后对提取得到的所有像素点的特征矢量构成的矩阵进行低秩矩阵分解,并获取二维视频中每个时刻的视频帧中的所有像素点的特征矢量构成的矩阵的最优背景矩阵和最优运动矩阵;再根据二维视频中每个时刻的视频帧中的所有像素点的特征矢量构成的矩阵的最优运动矩阵,获得二维视频中每个时刻的视频帧的空间显著图,将二维视频中的t时刻的视频帧{It(x,y)}的空间显著图记为{St,spatial(x,y)},其中,St,spatial(x,y)表示{St,spatial(x,y)}中坐标位置为(x,y)的像素点的像素值;
④对二维视频中每个时刻的视频帧的运动显著图和空间显著图进行融合,得到二维视频中每个时刻的视频帧的视频显著图,将二维视频中t时刻的视频帧{It(x,y)}的视频显著图记为{Svideo(x,y)},将{Svideo(x,y)}中坐标位置为(x,y)的像素点的像素值记为Svideo(x,y),Svideo(x,y)=(St,motion(x,y))α×(St,spatial(x,y))1-α,其中,α为权重系数。
2.根据权利要求1所述的一种视频显著图提取方法,其特征在于所述的步骤②的具体过程为:
②-1、对二维视频中的每个Y-T截面图像进行低秩矩阵分解,得到二维视频中的每个Y-T截面图像的所有垂直方向背景矩阵和所有垂直方向运动矩阵;
②-2、利用最小化概率密度函数,获取二维视频中的每个Y-T截面图像的最优垂直方向背景矩阵和最优垂直方向运动矩阵,将二维视频中的第x个Y-T截面图像{Ix(y,t)}的最优垂直方向背景矩阵和最优垂直方向运动矩阵对应记为
Figure FDA0000431113830000021
Figure FDA0000431113830000022
Figure FDA0000431113830000023
Figure FDA0000431113830000024
的组合记为
Figure FDA0000431113830000025
( B x * , M x * ) = arg min ( B x , M x ) ∈ Ω x [ | | B x | | * + λ | | M x | | 1 ] s . t . S x = B x + M x , 其中,Sx为二维视频中的第x个Y-T截面图像{Ix(y,t)}的矩阵形式表示,Sx、
Figure FDA0000431113830000028
Figure FDA0000431113830000029
的维数均为H×T,argmin[]表示最小化概率密度函数,Ωx表示对Sx进行低秩矩阵分解得到的所有的垂直方向背景矩阵和垂直方向运动矩阵的组合(Bx,Mx)的集合,(Bx,Mx)∈Ωx,符号“|| ||*”为求取矩阵核的范数符号,符号“|| ||1”为求取矩阵的1-范数符号,λ为拉格朗日乘子;
②-3、根据二维视频的W个Y-T截面图像各自的最优垂直方向运动矩阵,通过在X方向上进行叠加,构造得到Y-T截面图像的立方体,记为ScubeYT,其中,ScubeYT的维数为W×H×T;
②-4、对二维视频中的每个X-T截面图像进行低秩矩阵分解,得到二维视频中的每个X-T截面图像的所有水平方向背景矩阵和所有水平方向运动矩阵;
②-5、利用最小化概率密度函数,获取二维视频中的每个X-T截面图像的最优水平方向背景矩阵和最优水平方向运动矩阵,将二维视频中的第y个X-T截面图像{Iy(x,t)}的最优水平方向背景矩阵和最优水平方向运动矩阵对应记为
Figure FDA00004311138300000210
Figure FDA00004311138300000211
Figure FDA00004311138300000212
Figure FDA00004311138300000213
的组合记为
Figure FDA00004311138300000214
( B y * , M y * ) = arg min ( B y , M y ) ∈ Ω y [ | | B y | | * + λ | | M y | | 1 ] s . t . S y = B y + M y , 其中,Sy为二维视频中的第y个X-T截面图像{Iy(x,t)}的矩阵形式表示,
Figure FDA0000431113830000031
Sy、
Figure FDA0000431113830000032
的维数均为W×T,Ωy表示对Sy进行低秩矩阵分解得到的所有的水平方向背景矩阵和水平方向运动矩阵的组合(By,My)的集合,(By,My)∈Ωy
②-6、根据二维视频的H个X-T截面图像各自的最优水平方向运动矩阵,通过在Y方向上进行叠加,构造得到X-T截面图像的立方体,记为ScubeXT,其中,ScubeXT的维数为W×H×T;
②-7、计算norm(ScubeXT·*ScubeYT)作为二维视频的初步的运动显著图,其中,norm()表示归一化操作,norm(ScubeXT·*ScubeYT)中的符号“·*”为矩阵点乘符号;
②-8、采用高斯滤波器对二维视频的初步的运动显著图中每个时刻的X-Y截面图像进行平滑操作,得到二维视频中每个时刻的视频帧的运动显著图,将二维视频中的t时刻的视频帧{It(x,y)}的运动显著图记为{St,motion(x,y)},将{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,motion(x,y),St,motion(x,y)=S′t,motion(x,y)*Gσ(x,y),其中,S′t,motion(x,y)表示二维视频的初步的运动显著图中的t时刻的X-Y截面图像,“*”为卷积操作符号,Gσ(x,y)表示标准差为σ的高斯函数,
Figure FDA0000431113830000034
exp()为以e为底的指数函数,e表示自然基数。
3.根据权利要求2所述的一种视频显著图提取方法,其特征在于所述的步骤②-2和所述的步骤②-5中取λ=0.06;所述的步骤②-8中取σ=5。
4.根据权利要求1至3中任一项所述的一种视频显著图提取方法,其特征在于所述的步骤③的具体过程为:
③-1、将当前正在处理的二维视频中的t时刻的视频帧{It(x,y)}定义为当前视频帧;
③-2、提取当前视频帧中的每个像素点的红颜色分量、绿颜色分量、蓝颜色分量、色调分量和饱和度分量,由提取出的每个像素点的红颜色分量、绿颜色分量、蓝颜色分量、色调分量和饱和度分量构成对应像素点的第一特征矢量,其中,当前视频帧中的每个像素点的第一特征矢量的维数为5×(W×H);
③-3、提取当前视频帧中的每个像素点经4个方向和3个尺度的可控金字塔滤波后得到的振幅,由提取出的每个像素点对应的12个振幅构成对应像素点的第二特征矢量,其中,当前视频帧中的每个像素点的第二特征矢量的维数为12×(W×H);
③-4、提取当前视频帧中的每个像素点经12个方向和3个尺度的Gabor滤波后得到的振幅,由提取出的每个像素点对应的36个振幅构成对应像素点的第三特征矢量,其中,当前视频帧中的每个像素点的第三特征矢量的维数为36×(W×H);
③-5、将当前视频帧中的每个像素点的第一特征矢量、第二特征矢量和第三特征矢量按序重组构成对应像素点的特征矢量,然后对当前视频帧中的所有像素点的特征矢量构成的矩阵进行低秩矩阵分解,得到当前视频帧中的所有像素点的特征矢量构成的矩阵的所有背景矩阵和所有运动矩阵;
③-6、利用最小化概率密度函数,获取当前视频帧中的所有像素点的特征矢量构成的矩阵的最优背景矩阵和最优运动矩阵,对应记为
Figure FDA0000431113830000041
Figure FDA0000431113830000042
Figure FDA0000431113830000043
Figure FDA0000431113830000044
的组合记为
Figure FDA0000431113830000045
( B t * , M t * ) = arg min ( B t , M t ) ∈ Ω t [ | | B t | | * + λ | | M t | | 1 ] s . t . F = B t + M t , 其中,F为当前视频帧中的所有像素点的特征矢量构成的矩阵,
Figure FDA0000431113830000047
F、
Figure FDA0000431113830000048
Figure FDA0000431113830000049
的维数均为53×(W×H),argmin[]表示最小化概率密度函数,Ωt表示对F进行低秩矩阵分解得到的所有的背景矩阵和运动矩阵的组合(Bt,Mt)的集合,(Bt,Mt)∈Ωt,符号“|| ||*”为求取矩阵核的范数符号,符号“|| ||1”为求取矩阵的1-范数符号,λ为拉格朗日乘子;
③-7、采用超像素分割技术将当前视频帧分割成M个互不重叠的区域,然后将
Figure FDA00004311138300000410
表示为 M t * = [ ( M t , 1 * ) T , ( M t , 2 * ) T , . . . , ( M t , M * ) T ] T , 其中,M≥1,
Figure FDA00004311138300000412
表示由中属于第1个区域内的所有像素点的特征矢量构成的矩阵,
Figure FDA00004311138300000414
表示由中属于第2个区域内的所有像素点的特征矢量构成的矩阵,
Figure FDA00004311138300000416
表示由
Figure FDA00004311138300000417
中属于第M个区域内的所有像素点的特征矢量构成的矩阵,
Figure FDA00004311138300000418
Figure FDA00004311138300000419
的转置矢量,
Figure FDA00004311138300000420
的转置矢量,
Figure FDA00004311138300000422
Figure FDA00004311138300000423
的转置矢量,
Figure FDA00004311138300000424
Figure FDA00004311138300000425
的转置矢量,符号“[]”为矢量表示符号;
③-8、计算当前视频帧中的每个区域的空间显著值,将当前视频帧中的第k个区域的空间显著值记为ft,k然后将当前视频帧中的每个区域的空间显著值作为对应区域内的所有像素点的空间显著值,得到当前视频帧中的每个像素点的空间显著值,从而得到当前视频帧的空间显著图,记为{St,spatial(x,y)},其中,1≤k≤M,
Figure FDA0000431113830000052
表示由
Figure FDA0000431113830000053
中属于第k个区域内的所有像素点的特征矢量构成的矩阵,St,spatial(x,y)表示{St,spatial(x,y)}中坐标位置为(x,y)的像素点的像素值;
③-9、令t=t+1,将二维视频中下一个时刻的视频帧作为当前视频帧,然后返回步骤③-2继续执行,直至二维视频中的所有视频帧处理完毕,得到二维视频中每个时刻的视频帧的空间显著图,其中,t=t+1中的“=”为赋值符号。
5.根据权利要求4所述的一种视频显著图提取方法,其特征在于所述的步骤③-6中取λ=0.06;所述的步骤③-7中取M=200。
6.根据权利要求5所述的一种视频显著图提取方法,其特征在于所述的步骤④中取α=0.3。
CN201310651561.3A 2013-12-05 2013-12-05 一种视频显著图提取方法 Active CN103632372B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310651561.3A CN103632372B (zh) 2013-12-05 2013-12-05 一种视频显著图提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310651561.3A CN103632372B (zh) 2013-12-05 2013-12-05 一种视频显著图提取方法

Publications (2)

Publication Number Publication Date
CN103632372A true CN103632372A (zh) 2014-03-12
CN103632372B CN103632372B (zh) 2016-02-24

Family

ID=50213389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310651561.3A Active CN103632372B (zh) 2013-12-05 2013-12-05 一种视频显著图提取方法

Country Status (1)

Country Link
CN (1) CN103632372B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372636A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于hop_top的视频显著性检测方法
US9699371B1 (en) 2016-03-29 2017-07-04 Sony Corporation Image processing system with saliency integration and method of operation thereof
CN106951854A (zh) * 2017-03-16 2017-07-14 中国人民解放军国防科学技术大学 一种sar图像海洋内波参数提取方法
CN107437083A (zh) * 2017-08-16 2017-12-05 上海荷福人工智能科技(集团)有限公司 一种自适应池化的视频行为识别方法
CN107967474A (zh) * 2017-11-24 2018-04-27 上海海事大学 一种基于卷积神经网络的海面目标显著性检测方法
CN110415273A (zh) * 2019-07-29 2019-11-05 肇庆学院 一种基于视觉显著性的机器人高效运动跟踪方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040086046A1 (en) * 2002-11-01 2004-05-06 Yu-Fei Ma Systems and methods for generating a motion attention model
CN102521592A (zh) * 2011-11-30 2012-06-27 苏州大学 基于非清晰区域抑制的多特征融合显著区域提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040086046A1 (en) * 2002-11-01 2004-05-06 Yu-Fei Ma Systems and methods for generating a motion attention model
CN102521592A (zh) * 2011-11-30 2012-06-27 苏州大学 基于非清晰区域抑制的多特征融合显著区域提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
段芬芳 等: "基于感知重要性的立体图像质量评价方法", 《光电工程》 *
蒋鹏 等: "基于时空模型的快速视频显著区域检测", 《南京航空航天大学学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9699371B1 (en) 2016-03-29 2017-07-04 Sony Corporation Image processing system with saliency integration and method of operation thereof
CN106372636A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于hop_top的视频显著性检测方法
CN106951854A (zh) * 2017-03-16 2017-07-14 中国人民解放军国防科学技术大学 一种sar图像海洋内波参数提取方法
CN106951854B (zh) * 2017-03-16 2019-06-04 中国人民解放军国防科学技术大学 一种sar图像海洋内波参数提取方法
CN107437083A (zh) * 2017-08-16 2017-12-05 上海荷福人工智能科技(集团)有限公司 一种自适应池化的视频行为识别方法
CN107967474A (zh) * 2017-11-24 2018-04-27 上海海事大学 一种基于卷积神经网络的海面目标显著性检测方法
CN110415273A (zh) * 2019-07-29 2019-11-05 肇庆学院 一种基于视觉显著性的机器人高效运动跟踪方法及系统

Also Published As

Publication number Publication date
CN103632372B (zh) 2016-02-24

Similar Documents

Publication Publication Date Title
US11238602B2 (en) Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks
KR102295403B1 (ko) 깊이 추정 방법 및 장치, 전자 기기, 프로그램 및 매체
Yuan et al. Multiframe super-resolution employing a spatially weighted total variation model
WO2018166438A1 (zh) 图像处理方法、装置及电子设备
CN103632372A (zh) 一种视频显著图提取方法
Yuan et al. Regional spatially adaptive total variation super-resolution with spatial information filtering and clustering
US10148873B2 (en) Method and system for motion adaptive fusion of optical images and depth maps acquired by cameras and depth sensors
CN105869167A (zh) 基于主被动融合的高分辨率深度图获取方法
CN103957397B (zh) 一种基于图像特征的低分辨率深度图像上采样方法
CN107203745B (zh) 一种基于跨域学习的跨视角动作识别方法
CN104392233B (zh) 一种基于区域的图像显著图提取方法
CN103632153B (zh) 一种基于区域的图像显著图提取方法
Xue et al. Boundary-induced and scene-aggregated network for monocular depth prediction
CN110942037A (zh) 一种用于视频分析中的动作识别方法
CN110751271B (zh) 一种基于深度神经网络的图像溯源特征表征方法
CN116977200A (zh) 视频去噪模型的处理方法、装置、计算机设备和存储介质
Madhuanand et al. Deep learning for monocular depth estimation from UAV images
Jia et al. Depth measurement based on a convolutional neural network and structured light
CN117788296A (zh) 基于异构组合深度网络的红外遥感图像超分辨率重建方法
CN110021036B (zh) 红外目标检测方法、装置、计算机设备和存储介质
CN117011357A (zh) 基于3d运动流和法线图约束的人体深度估计方法及系统
Duan et al. High quality depth estimation from monocular images based on depth prediction and enhancement sub-networks
Gupta et al. Reconnoitering the Essentials of Image and Video Processing: A Comprehensive Overview
CN115272450A (zh) 一种基于全景分割的目标定位方法
CN103873859A (zh) 基于时空显著性检测的视频融合性能评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191218

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230814

Address after: Room JT8529, Building 2, No. 4268 Zhennan Road, Jiading District, Shanghai, 200000

Patentee after: Shanghai Shengjian Technology Development Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right