CN103686178A - 一种基于hvs的视频感兴趣区域提取方法 - Google Patents
一种基于hvs的视频感兴趣区域提取方法 Download PDFInfo
- Publication number
- CN103686178A CN103686178A CN201310645819.9A CN201310645819A CN103686178A CN 103686178 A CN103686178 A CN 103686178A CN 201310645819 A CN201310645819 A CN 201310645819A CN 103686178 A CN103686178 A CN 103686178A
- Authority
- CN
- China
- Prior art keywords
- video
- information
- frame
- amount
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于HVS的视频感兴趣区域提取方法,首先根据视频的帧间相关性和帧内相关性分别度量视频的时域信息量和空域信息量,然后采用特征融合策略将分别代表视频时域特征和空域特征的时域信息量和空域信息量融合获得视频信息量分布,再以基于人眼视觉系统(HVS)的视觉迟滞映射模型将视频信息量映射为视觉显著度,最后将视频的视觉显著度经过自适应阈值判断获得视频的感兴趣区域。本发明提出的基于HVS特性映射模型能将视频特征转化为符合人眼视觉特性的视频显著度,同时采用信息量度量视频的时域和空域特征,算法复杂度低且精度较高。
Description
技术领域
本发明涉及一种视频信号的处理方法,特别涉及一种基于HVS的视频感兴趣区域提取方法。
背景技术
视频服务的终端用户对视频质量的评价是最可靠的结果。然而这种主观评价方法,因其不具备实时性、耗时长并且过程繁琐。实际研究和工程中会使用多种结合了人眼视觉特性的客观评价方法来模拟主观评价效果。通过这样的途径获得与主观评价相匹配的结果。
人眼视觉特性包括视觉空间特性和时间特性,这是由人眼的结构特性决定的。神经生物学的观点认为,人眼视觉敏感度决定了图像和视频在人眼中的感官质量变化。在静止的图像中,人眼视觉敏感度主要体现在空间特性上,常用的人眼视觉特性为视觉非线性、对比敏感度、多通道结构和掩盖效应等。而对时间连续的视频序列,人眼视觉会还有时间特性上的敏感性,视频质量评价中用运动检测等方法来体现这种时间上的敏感性。同时,这些人眼视觉系统(HVS)的生理的和心理视觉的显著特征,决定了人眼对视频序列中多个场景的感兴趣程度会不同。换言之,人眼会将注意力集中在少数几个显著的视觉对象上,这些视觉对象被称为感兴趣区域(ROI)。我们认为视频中感兴趣区域的存在,是人眼视觉特性的时间和空间特性的综合体现。首先,将ROI这种HVS特性加入客观评价方法,能显著提高评价结果的可靠性和真实性,即更符合主观评价结果。其次,基于ROI加权策略的客观评价方法,只对ROI内的视觉对象进行质量评估,能大大降低算法复杂度。因此,如何提取ROI是一个很值得关注的问题。
视频感兴趣区域是视觉感兴趣程度大于某个阈值的视觉对象的集合。现有很多方法用于表示视觉感兴趣程度。为了获得视觉感兴趣映射图,有些方法采用了运动检测,有些方法计算视频帧的空间特性。然而,ROI是HVS的时间和空间特征的综合体现。仅计算了空间或者时间感兴趣程度的方法,所获得的感兴趣区域精确度较低。另外,有的方法采用综合了多种视觉特征的概率密度函数来表示视觉感兴趣程度,这类方法需要在高维空间中计算,十分复杂。
视频或图像中一个区域的视觉信息量大小能影响其视觉显著程度。1991年T.N.Topper提出用香农自信息量来度量静止图像的显著度。而图像的显著度只是空间性的显著度,对于 视频来说,需要加入时域显著度,并且将时域空域显著度恰当结合才能提取到更准确的感兴趣区域。已有一种基于视觉信息量的ROI提取方法,其模型中将视频表示为时空域块的集合,巧妙地表示了每块区域的时空显著度,从而能得到基于视觉信息的ROI映射。然而,视觉显著度与感兴趣程度的映射并非为线性的,比如两个重要的人眼视觉特性:运动敏感性和视觉迟滞性,这两个特性将对视频显著度造成影响。
本发明从信息论的角度,基于视频的帧间相关性和帧内相关性,提取出视频的时域信息量和空域信息量,并以一定策略加权获得视频视觉信息量。同时,采用了基于HVS的非线性映射,将视觉信息量映射为视觉显著度。最后,使用自适应阈值对视觉显著度进行判断,获得的感兴趣区域与主观结果一致性较高。
发明内容
本发明所要解决的技术问题是提供一种以较低的算法复杂度、提取的感兴趣区域精度较高的基于HVS的视频感兴趣区域提取方法。
本发明所述的一种基于HVS的视频感兴趣区域提取方法,该方法至少包括如下的步骤:
步骤1:将视频时域特征和空域特征分别表示为视频的时域信息量和空域信息量,根据视频的帧间相关性和帧内相关性计算出时域信息量Itemporal和空域信息量Ispatial;
步骤2:采用特征融合策略将视频时域信息与空域信息加权,如下式计算视频信息量;
I=αItemporal+βIspatial
其中系数α与β取决于视频序列的运动复杂度和空间复杂度的相对强度;
步骤3:定义视频特征为视频信息量,定义人眼实际观察到的视频特征为视觉显著度,根据下式的视觉迟滞性映射模型可以由视频信息量获得视频的视觉显著度;
S=F(I)
步骤4:依据视频序列当前帧的视觉显著度分布,获取一个自适应阈值,将该帧视觉显著度二值化,从而提取当前帧的视觉感兴趣区域。
本发明所述的一种基于HVS的视频感兴趣区域提取方法,步骤1中的视频时域信息量的计算其步骤为:
步骤11:将视频序列中出现在t时刻的视频帧分为R×C个尺寸为8×8的视频子块,其中空间位置为(x,y)的子块定义为B(x,y,t),将空间位置相同的具有相关性的N个视频子块组 成的集合表示为V(x,y,t)={B(x,y,t),B(x,y,t-1),...,B(x,y,t-N+1)};
步骤12:将连续V(x,y,t)的N个元素进行DCT变换得矩阵E,则块B(x,y,t)的一个DCT分量可表示为E(i,j,t),t=1,2,...,N;
步骤13:N个块的第(i,j)个分量组成的矩阵为E(i,j,:),求该矩阵的概率矩阵Pi,j,块B(x,y,t)的第(i,j)个分量取值的概率为Pi,j(t);
步骤14:视频子块B(x,y,t)在t时刻这一帧视频中出现的概率为条件概率 根据香农信息论块B(x,y,t)包含的时域信息量为
本发明所述的一种基于HVS的视频感兴趣区域提取方法,步骤1中的视频空域信息量计算其步骤为:
步骤15:将t时刻的这一帧视频所包含的时间事件表示为F(t),解释为视频帧F(t)上所有其他位置视频子块的集合;
步骤16:将t时刻帧F(t)逐块进行DCT变换得矩阵D,块B(x,y,t)的一个DCT分量可表示为D(x,y,i,j),其中(x,y)表示块的帧内空间位置,(i,j)表示块内DCT分量位置,i=1,2,...,R;j=1,2,...,C;
步骤17:所有块的第(i,j)个分量组成的矩阵为D(:,:,i,j),求该矩阵的概率矩阵Pi,j(即矩阵值的概率值组成的新矩阵),块B(x,y,t)的第(i,j)个分量取值的概率为Pi,j(x,y);
步骤18:这一帧视频中视频子块B(x,y,t)出现的概率表示为条件概率 块B(x,y,t)包含的空域信息量表示为下式。
本发明所述的一种基于HVS的视频感兴趣区域提取方法,步骤2中的采用特征融合策略将视频时域信息与空域信息加权,计算视频信息量其步骤为:
步骤21:分别按照如下公式将所求得时域和空域信息量进行线性归一化;
步骤22:如下式将归一化后的时域信息和空域信息进行加权;
I=αItemporal+βIspatial
本发明所述的一种基于HVS的视频感兴趣区域提取方法,步骤3中的根据视觉迟滞性映射模型,由视频信息量获得视频视觉显著度其步骤为:
步骤31:定义人眼所能察觉的信息量下限为Llower,最大信息量为Lupper;
步骤32:根据双曲正切函数的特征和人眼视觉敏感性,我们采用映射模型S=λ*th(μ·I-ξ)+γ,Llower<I<Lupper,将视频信息量映射为视觉显著度。
本发明所述的一种基于HVS的视频感兴趣区域提取方法,步骤4中的根据视频视觉显著度提取感兴趣区域其步骤为:
步骤42:将视频帧中视觉显著度值大于自适应阈值Th的区域取为感兴趣区域
与现有的技术相比,本发明的优点在于考虑到了视频的相关性以及人眼视觉特性,能够有效地提取出视频中的人眼感兴趣区域,首先在计算视频的视觉信息量时,充分考虑了视频的帧间相关性和帧内相关性,算法复杂度较低,然后提出了时域和空域的特征融合策略,将视觉显著度统计从图像扩展到视频中,最后本发明采用的视觉迟滞性映射模型将信息量与显著度的映射变得更符合人眼视觉特性,能获得更符合主观感受的感兴趣程度。
附图说明
图1为本发明方法的总体流程框图;
图2为视频当前帧时域信息量的计算方法流程图;
图3为视频当前帧空域信息量的计算方法流程图;
图4为由视频信息量求视觉显著度的映射曲线图;
图5a为测试序列“Grandma”彩色视频中的第100帧彩色视频帧;
图5b为测试序列“Grandma”彩色视频中的第100帧彩色视频帧本发明时域特征提取后的时域信息量分布图;
图5c为测试序列“Grandma”彩色视频中的第100帧彩色视频帧本发明空域特征提取后的空域信息量分布图;
图5d为测试序列“Grandma”彩色视频中的第100帧彩色视频帧本发明特征融合后的视频信息量分布图;
图6a为测试序列“Claire”彩色视频中的第40帧彩色视频帧;
图6b为测试序列“Claire”彩色视频中的第40帧彩色视频帧本发明时域特征提取后的时域信息量分布图;
图6c为测试序列“Claire”彩色视频中的第40帧彩色视频帧本发明空域特征提取后的空域信息量分布图;
图6d为测试序列“Claire”彩色视频中的第40帧彩色视频帧本发明特征融合后的视频信息量分布图;
图7a为测试序列“News”彩色视频中的第110帧彩色视频帧;
图7b为测试序列“News”彩色视频中的第110帧彩色视频帧本发明未经过视觉迟滞性映射提取的感兴趣区域;
图7c为测试序列“News”彩色视频中的第110帧彩色视频帧本发明经过视觉迟滞性映射提取的感兴趣区域;
图8a为测试序列“Highway”彩色视频中的第450帧彩色视频帧;
图8b为测试序列“Highway”彩色视频中的第450帧彩色视频帧本发明未经过视觉迟滞性映射提取的感兴趣区域;
图8c为测试序列“Highway”彩色视频中的第450帧彩色视频帧本发明经过视觉迟滞性映射提取的感兴趣区域。
具体实施方式
以下结合附图实施例对本发明做进一步详细描述。
本发明的基于HVS的视频感兴趣区域的提取方法,主要联合利用了视频的时域特征和空域特征,并用信息量来度量视频特征,同时采用视觉迟滞性模型来将视频特征映射为人眼的视觉显著度,以此作为视频感兴趣区域提取的依据。以视频序列“Grandma”和“Claire”为例,分别说明本发明步骤1的时域特征和空域特征度量方法,以及特征融合方法。以视频序列“News”和“Highway”为例,说明本发明步骤5所述的视觉迟滞性映射模型,以及感兴 趣区域提取结果。本发明的总体处理流程框图如图1所示,具体包括以下步骤:
步骤1:将视频时域特征和空域特征分别表示为视频的时域信息量和空域信息量,根据视频的帧间相关性和帧内相关性计算出时域信息量Itemporal和空域信息量Ispatial,视频特征度量方法,如图2和图3所示分别为时域特征和空域特征的计算流程。
步骤11:如图2所示,将视频当前帧分为R×C个尺寸为8×8的视频子块,取空间位置为(x,y)的子块为B(x,y,t),将空间位置相同的具有相关性的N个视频子块组成的集合表示为V(x,y,t)={B(x,y,t),B(x,y,t-1),...,B(x,y,t-N+1)};
步骤12:将连续V(x,y,t)的N个元素进行DCT变换得矩阵E,则块B(x,y,t)的一个DCT分量可表示为E(i,j,t),t=1,2,...,N;
步骤13:N个块的第(i,j)个分量组成的矩阵为E(i,j,:),求该矩阵的概率矩阵Pi,j,块B(x,y,t)的第(i,j)个分量取值的概率为Pi,j(t);
步骤14:视频子块B(x,y,t)在t时刻这一帧视频中出现的概率为条件概率 根据香农信息论块B(x,y,t)包含的时域信息量为 得到每个视频子块的时间信息量,即能得到当前视频帧的时间信息分布图,图5a为测试序列“Grandma”彩色视频中的第100帧彩色视频帧,图6a为测试序列“Claire”彩色视频中的第40帧彩色视频帧,图5b给出了测试序列“Grandma”彩色视频中的第100帧彩色视频帧本发明时域特征提取后的时域信息量分布图,图6b给出了测试序列“Claire”彩色视频中的第40帧彩色视频帧本发明时域特征提取后的时域信息量分布图;
步骤15:如图3所示,将t时刻的这一帧视频所包含的时间事件表示为F(t),解释为视频帧F(t)上所有其他位置视频子块的集合;
步骤16:将t时刻帧F(t)逐块进行DCT变换得矩阵D,块B(x,y,t)的一个DCT分量可表示为D(x,y,i,j),其中(x,y)表示块的帧内空间位置,(i,j)表示块内DCT分量位置,i=1,2,...,R;j=1,2,...,C;
步骤17:所有块的第(i,j)个分量组成的矩阵为D(:,:,i,j),求该矩阵的概率矩阵Pi,j(即矩阵值的概率值组成的新矩阵),块B(x,y,t)的第(i,j)个分量取值的概率为Pi,j(x,y);
步骤18:块B(x,y,t)的空间条件概率块B(x,y,t)的空间信息量为图5c给出了测试序列“Grandma”彩色视频中的第100帧彩色视频帧本发明空域特征提取后的空域信息量分布图,图6c给出了测试序列“Claire”彩色视频中的第40帧彩色视频帧本发明空域特征提取后的空域信息量分布图。
步骤2:采用特征融合策略将视频时域信息与空域信息加权,如下式计算视频信息量;
I=αItemporal+βIspatial
其中系数α与β取决于视频序列的运动复杂度和空间复杂度的相对强度;
步骤21:分别按照如下公式将所求得时域和空域信息量进行线性归一化;
步骤22:如下式将归一化后的时域信息和空域信息进行加权,实例中系数取为0.5,0.5,图5d给出了测试序列“Grandma”彩色视频中的第100帧彩色视频帧本发明特征融合后的视频信息量分布图,图6d给出了测试序列“Claire”彩色视频中的第40帧彩色视频帧本发明特征融合后的视频信息量分布图。
I=αItemporal+βIspatial
步骤3:根据视觉迟滞性映射模型如图4,由视频信息量获得视频视觉显著度其步骤为:
步骤31:定义人眼所能察觉的信息量下限为Llower,最大信息量为Lupper,实例中分别取为20和200;
步骤32:根据双曲正切函数的特征和人眼视觉敏感性,我们采用映射模型S=λ*th(μ·I-ξ)+γ,Llower<I<Lupper,将视频信息量映射为视觉显著度。
步骤4:根据视频视觉显著度提取感兴趣区域其步骤为:
步骤42:将视频帧中视觉显著度值大于自适应阈值Th的区域取为感兴趣区域,图7a为 测试序列“News”彩色视频中的第110帧彩色视频帧,图8a为测试序列“Highway”彩色视频中的第450帧彩色视频帧,图7b给出了测试序列“News”彩色视频中的第110帧彩色视频帧本发明未经过视觉迟滞性映射提取的感兴趣区域,图8b给出了测试序列“Highway”彩色视频中的第450帧彩色视频帧本发明未经过视觉迟滞性映射提取的感兴趣区域,图7c给出了试序列“News”彩色视频中的第110帧彩色视频帧本发明经过视觉迟滞性映射提取的感兴趣区域,8c给出了测试序列“Highway”彩色视频中的第450帧彩色视频帧本发明经过视觉迟滞性映射提取的感兴趣区域,图7c相比7b,图8c相比8b,所提取的感兴趣区域冗余度降低,精度更高。
Claims (6)
1.一种基于HVS的视频感兴趣区域提取方法,其特征在于,该方法至少包括如下的步骤:
步骤1:将视频时域特征和空域特征分别表示为视频的时域信息量和空域信息量,根据视频的帧间相关性和帧内相关性计算出时域信息量Itemporal和空域信息量Ispatial;
步骤2:采用特征融合策略将视频时域信息与空域信息加权,如下式计算视频信息量;
I=αItemporal+βIspatial
其中系数α与β取决于视频序列的运动复杂度和空间复杂度的相对强度;
步骤3:定义视频特征为视频信息量,定义人眼实际观察到的视频特征为视觉显著度,根据下式的视觉迟滞性映射模型可以由视频信息量获得视频的视觉显著度;
S=F(I)
步骤4:依据视频序列当前帧的视觉显著度分布,获取一个自适应阈值,将该帧视觉显著度二值化,从而提取当前帧的视觉感兴趣区域。
2.根据权利要求1所述的一种基于HVS的视频感兴趣区域提取方法,其特征在于,步骤1中的视频时域信息量的计算,其步骤为:
步骤11:将视频序列中出现在t时刻的视频帧分为R×C个尺寸为8×8的视频子块,其中空间位置为(x,y)的子块定义为B(x,y,t),将空间位置相同的具有相关性的N个视频子块组成的集合表示为V(x,y,t)={B(x,y,t),B(x,y,t-1),...,B(x,y,t-N+1)};
步骤12:将连续V(x,y,t)的N个元素进行DCT变换得矩阵E,则块B(x,y,t)的一个DCT分量可表示为E(i,j,t),t=1,2,...,N;
步骤13:N个块的第(i,j)个分量组成的矩阵为E(i,j,:),求该矩阵的概率矩阵Pi,j,块B(x,y,t)的第(i,j)个分量取值的概率为Pi,j(t);
3.根据权利要求1所述的一种基于HVS的视频感兴趣区域提取方法,其特征在于,步骤1中的视频空域信息量计算,其步骤为:
步骤15:将t时刻的这一帧视频所包含的时间事件表示为F(t),解释为视频帧F(t)上所有其他位置视频子块的集合;
步骤16:将t时刻帧F(t)逐块进行DCT变换得矩阵D,块B(x,y,t)的一个DCT分量可表示为D(x,y,i,j),其中(x,y)表示块的帧内空间位置,(i,j)表示块内DCT分量位置,i=1,2,...,R;j=1,2,...,C;
步骤17:所有块的第(i,j)个分量组成的矩阵为D(:,:,i,j),求该矩阵的概率矩阵Pi,j(即矩阵值的概率值组成的新矩阵),块B(x,y,t)的第(i,j)个分量取值的概率为Pi,j(x,y);
5.根据权利要求1所述的一种基于HVS的视频感兴趣区域提取方法,其特征在于,步骤3中的根据视觉迟滞性映射模型,由视频信息量获得视频视觉显著度,其步骤为:
步骤31:定义人眼所能察觉的信息量下限为Llower,最大信息量为Lupper;
步骤32:根据双曲正切函数的特征和人眼视觉敏感性,我们采用映射模型S=λ*th(μ·I-ξ)+γ,Llower<I<Lupper,将视频信息量映射为视觉显著度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310645819.9A CN103686178A (zh) | 2013-12-04 | 2013-12-04 | 一种基于hvs的视频感兴趣区域提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310645819.9A CN103686178A (zh) | 2013-12-04 | 2013-12-04 | 一种基于hvs的视频感兴趣区域提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103686178A true CN103686178A (zh) | 2014-03-26 |
Family
ID=50322266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310645819.9A Pending CN103686178A (zh) | 2013-12-04 | 2013-12-04 | 一种基于hvs的视频感兴趣区域提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103686178A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104023226A (zh) * | 2014-05-28 | 2014-09-03 | 北京邮电大学 | 一种基于hvs的新型视频质量评价方法 |
CN107767400A (zh) * | 2017-06-23 | 2018-03-06 | 北京理工大学 | 基于层次化显著性分析的遥感图像序列动目标检测方法 |
CN109919110A (zh) * | 2019-03-13 | 2019-06-21 | 北京航空航天大学 | 视频关注区域检测方法、装置及设备 |
CN110689014A (zh) * | 2019-10-14 | 2020-01-14 | 腾讯科技(深圳)有限公司 | 感兴趣区域的检测方法、装置、电子设备及可读存储介质 |
CN110838120A (zh) * | 2019-11-18 | 2020-02-25 | 方玉明 | 一种基于时空信息的非对称失真三维视频的加权质量评价方法 |
CN111654747A (zh) * | 2020-06-12 | 2020-09-11 | 杭州海康威视数字技术股份有限公司 | 弹幕显示方法及装置 |
-
2013
- 2013-12-04 CN CN201310645819.9A patent/CN103686178A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104023226A (zh) * | 2014-05-28 | 2014-09-03 | 北京邮电大学 | 一种基于hvs的新型视频质量评价方法 |
CN107767400A (zh) * | 2017-06-23 | 2018-03-06 | 北京理工大学 | 基于层次化显著性分析的遥感图像序列动目标检测方法 |
CN107767400B (zh) * | 2017-06-23 | 2021-07-20 | 北京理工大学 | 基于层次化显著性分析的遥感图像序列动目标检测方法 |
CN109919110A (zh) * | 2019-03-13 | 2019-06-21 | 北京航空航天大学 | 视频关注区域检测方法、装置及设备 |
CN109919110B (zh) * | 2019-03-13 | 2021-06-04 | 北京航空航天大学 | 视频关注区域检测方法、装置及设备 |
CN110689014A (zh) * | 2019-10-14 | 2020-01-14 | 腾讯科技(深圳)有限公司 | 感兴趣区域的检测方法、装置、电子设备及可读存储介质 |
CN110689014B (zh) * | 2019-10-14 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 感兴趣区域的检测方法、装置、电子设备及可读存储介质 |
CN110838120A (zh) * | 2019-11-18 | 2020-02-25 | 方玉明 | 一种基于时空信息的非对称失真三维视频的加权质量评价方法 |
CN111654747A (zh) * | 2020-06-12 | 2020-09-11 | 杭州海康威视数字技术股份有限公司 | 弹幕显示方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105959684B (zh) | 基于双目融合的立体图像质量评价方法 | |
CN103686178A (zh) | 一种基于hvs的视频感兴趣区域提取方法 | |
CN101562675B (zh) | 基于Contourlet变换的无参考型图像质量评测方法 | |
CN103152600B (zh) | 一种立体视频质量评价方法 | |
CN110378232B (zh) | 改进的ssd双网络的考场考生位置快速检测方法 | |
CN106023185A (zh) | 一种输电设备故障诊断方法 | |
Zhang et al. | A new no-reference quality metric for JPEG2000 images | |
CN101950422B (zh) | 一种基于奇异值分解的图像质量评价方法 | |
CN102800070B (zh) | 基于区域和人眼对比敏感特性的异源图像融合方法 | |
CN101546428A (zh) | 基于区域分割的序列红外与可见光图像融合 | |
CN103354617B (zh) | 一种基于dct域的边缘强度压缩的图像质量客观评价方法 | |
CN103871058A (zh) | 基于压缩采样矩阵分解的红外小目标检测方法 | |
CN109447903A (zh) | 一种半参考型超分辨率重构图像质量评价模型的建立方法 | |
CN104103064A (zh) | 基于梯度相似度的无参考噪声图像质量评价方法 | |
CN105894507B (zh) | 基于图像信息量自然场景统计特征的图像质量评价方法 | |
CN109754390A (zh) | 一种基于混合视觉特征的无参考图像质量评价方法 | |
CN106023214A (zh) | 基于中央凹视梯度结构相似性的图像质量评价方法及系统 | |
CN116012916A (zh) | 远程光体积描记信号和心率检测模型构建方法及检测方法 | |
CN111539404A (zh) | 一种基于结构线索的全参考图像质量评估方法 | |
CN104506852B (zh) | 一种面向视频会议编码的客观质量评估方法 | |
CN104185022B (zh) | 基于视觉信息失真分解的全参考视频质量评估方法 | |
CN111127386A (zh) | 一种基于深度学习的图像质量评价方法 | |
CN102685547A (zh) | 一种基于块效应和噪声的低码率视频质量检测方法 | |
Gao et al. | Spatio-temporal salience based video quality assessment | |
CN105991995B (zh) | 基于3d-dct域统计分析的无参考视频质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140326 |
|
WD01 | Invention patent application deemed withdrawn after publication |