CN106454386A - 一种基于jnd的视频编码的方法和装置 - Google Patents

一种基于jnd的视频编码的方法和装置 Download PDF

Info

Publication number
CN106454386A
CN106454386A CN201610947779.7A CN201610947779A CN106454386A CN 106454386 A CN106454386 A CN 106454386A CN 201610947779 A CN201610947779 A CN 201610947779A CN 106454386 A CN106454386 A CN 106454386A
Authority
CN
China
Prior art keywords
submodel
threshold value
jnd
preset
dct coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610947779.7A
Other languages
English (en)
Other versions
CN106454386B (zh
Inventor
唐曦凌
王�琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electric Power Research Institute of Guangdong Power Grid Co Ltd
Original Assignee
Electric Power Research Institute of Guangdong Power Grid Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electric Power Research Institute of Guangdong Power Grid Co Ltd filed Critical Electric Power Research Institute of Guangdong Power Grid Co Ltd
Priority to CN201610947779.7A priority Critical patent/CN106454386B/zh
Publication of CN106454386A publication Critical patent/CN106454386A/zh
Application granted granted Critical
Publication of CN106454386B publication Critical patent/CN106454386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明实施例公开了一种基于JND的视频编码的方法及装置,通过建立JND模型的多个子模型并从子模型中确定基础模型,以基础模型的阈值为基础阈值,根据除基础模型之外的其它子模型的加权系数进行阈值叠加,同时减去不同子模型的抵消效应,从而得到更精确的JND模型和阈值,解决了现有技术中将几个子模型的效应作为加权系数相乘计算出直接叠加的阈值从而造成的JND模型不精确、降低了压缩视频质量的技术问题。

Description

一种基于JND的视频编码的方法和装置
技术领域
本发明涉及视频编码领域,尤其涉及一种基于JND的视频编码的方法和装置。
背景技术
视频编码技术的目标是对视频进行压缩编码,在保证同等视频质量的条件下,取得更大的压缩比,从而用更小的带宽传输。现有很多视频编码方法,如H.264、AVS等,都关注于去除视频序列中的客观冗余,即在客观失真最小的情况下,取得最大的压缩效率。所谓客观失真,指的是完全和源图像进行比较,不考虑人的生理因素,用客观指标计算出来图像的失真。常用的指标如PSNR(峰值信噪比)等。然而,人眼看到的图像受到人生理因素的影响,对于有些客观失真,人受到生理极限的影响感受不到,有些客观失真人并不敏感。而对另一些的客观失真,人可能有较多的敏感度。所以,客观失真的数值往往不能和人的实际感受一致。不从人的实际感受出发,完全根据客观失真最小化的原则进行视频压缩,对视频图像的每个部分均匀用力,就会出现人眼不敏感甚至察觉不到的地方过多的分配了码率,而人眼敏感的地方,码率分配又不够的现象。即视频中虽然客观冗余最小化,却存在大量的主观冗余。基于以上原因,从人眼生理的特点出发进行视频编码,能更好的去除视频中不需要主观冗余,在不降低人眼感受的情况下,进一步的压缩码率,让压缩出的图像更符合人眼的视觉规律。JND人眼视觉模型是当前研究较多的一个人眼视觉模型,其意为“Just-noticeabledifference”,表示最小可察觉失真,描述了图像每个点在人眼不可察觉的情况下的最大失真,代表了人眼对该点的敏感度。利用JND模型优化视频压缩,能保持主观感受不变的条件下,尽量的降低码率,成为了当前热门的研究方向。
现有的基于JND模型的视频编码方法,大都是利用频域JND模型,建立由时域对比敏感度、空域对比敏感度、亮度掩蔽效应、纹理掩蔽效应等几个JND子模型组成的JND模型,每个子模型代表人眼不同的视觉效应,并认为JND阈值是上述几个效应的简单叠加,以其中一个子模型作为基础模型,计算出一个基础阈值之后,将其他几个子模型的效应作为加权系数相乘,从而得到最终的JND阈值,建立DCT变换域上每个点的最大可察觉失真。如果DCT变换系数小于JND阈值,则可将该点的值置0而不引起人眼的察觉。如果DCT系数的阈值大于JND阈值,也能将DCT变换系数减去该点的JND阈值,从而在不影响人眼感受的条件下减小了码率。
然而现有技术有一定的缺陷,因为在实际中,人眼的多个效应之间不是简单叠加的。两个效应共同作用的结果,往往达不到对应阈值直接叠加的效果,而是会有一定的抵消,最终的阈值会小于对应阈值的直接叠加。所以现有技术中将几个子模型的效应作为加权系数相乘计算出直接叠加的阈值,会造成JND模型的不精确,从而降低了压缩视频的质量。
发明内容
本发明实施例提供了一种基于JND的视频编码的方法及装置,通过建立JND模型的多个子模型并从子模型中确定基础模型,以基础模型的阈值为基础阈值,根据除基础模型之外的其它子模型的加权系数进行阈值叠加,同时减去不同子模型的抵消效应,从而得到更精确的JND模型和阈值,解决了现有技术中将几个子模型的效应作为加权系数相乘计算出直接叠加的阈值从而造成的JND模型不精确、降低了压缩视频质量的技术问题。
本发明实施例提供的一种基于JND的视频编码的方法,包括:
根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算所述基础模型的阈值作为基础阈值Tbasic
通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为所述空域对比敏感度子模型、所述亮度掩蔽因子子模型、所述纹理掩蔽子模型、所述时域对比敏感度子模型中除所述基础模型之外其余三个子模型的加权系数。
优选地,
在通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为所述空域对比敏感度子模型、所述亮度掩蔽因子子模型、所述纹理掩蔽子模型、所述时域对比敏感度子模型中除所述基础模型之外其余三个子模型的加权系数之后,还包括:
比较预置的DCT系数与所述最终阈值的大小,若所述DCT系数的值小于所述最终阈值,则将所述DCT系数置零,若所述DCT系数的值大于所述最终阈值,则将DCT系数减去该阈值。
优选地,
在比较预置的DCT系数与所述最终阈值的大小,若所述DCT系数的值小于所述最终阈值,则将所述DCT系数置零,若所述DCT系数的值大于所述最终阈值,则将所述DCT系数减去该阈值之后还包括:
根据所述DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流。
优选地,
在根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算所述基础模型的阈值作为基础阈值Tbasic之前还包括:
建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型。
优选地,
在建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型之前,还包括:
对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数。
本发明实施例提供的一种基于JND的视频编码的装置,包括:
基础阈值计算单元,用于根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算所述基础模型的阈值作为基础阈值Tbasic
最终阈值计算单元,用于通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为所述空域对比敏感度子模型、所述亮度掩蔽因子子模型、所述纹理掩蔽子模型、所述时域对比敏感度子模型中除所述基础模型之外其余三个子模型的加权系数。
优选地,
所述基于JND的视频编码的装置还包括:
DCT系数预处理单元,用于比较预置的DCT系数与所述最终阈值的大小,若所述DCT系数的值小于所述最终阈值,则将所述DCT系数置零,若所述DCT系数的值大于所述最终阈值,则将所述DCT系数减去该阈值。
优选地,
所述基于JND的视频编码的装置还包括:
压缩单元,用于根据所述DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流。
优选地,
所述基于JND的视频编码的装置还包括:
模型建立单元,用于建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型。
优选地,
所述基于JND的视频编码的装置还包括:
DCT系数计算单元,用于对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数。
从以上技术方案可以看出,本发明实施例具有以下优点:
本实施例中,通过建立JND模型的多个子模型并从子模型中确定基础模型,以基础模型的阈值为基础阈值,根据除基础模型之外的其它子模型的加权系数进行阈值叠加,同时减去不同子模型的抵消效应,从而得到更精确的JND模型和阈值,解决了现有技术中将几个子模型的效应作为加权系数相乘计算出直接叠加的阈值从而造成的JND模型不精确、降低了压缩视频质量的技术问题,根据本发明建立的JND模型进行视频压缩编码,使得在人眼感受不损失的条件下,降低视频编码的码流,提高压缩效率,使效果更精确,使压缩后的视频有更好的质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种基于JND的视频编码的方法的第一实施例的流程示意图;
图2为本发明实施例提供的一种基于JND的视频编码的方法的第二实施例的流程示意图;
图3为本发明实施例提供的一种基于JND的视频编码的装置的第一实施例的结构示意图;
图4为本发明实施例提供的一种基于JND的视频编码的装置的第二实施例的结构示意图。
具体实施方式
本发明实施例提供了一种基于JND的视频编码的方法及装置,通过建立JND模型的多个子模型并从子模型中确定基础模型,以基础模型的阈值为基础阈值,根据除基础模型之外的其它子模型的加权系数进行阈值叠加,同时减去不同子模型的抵消效应,从而得到更精确的JND模型和阈值,解决了现有技术中将几个子模型的效应作为加权系数相乘计算出直接叠加的阈值从而造成的JND模型不精确、降低了压缩视频质量的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本发明实施例提供的一种基于JND的视频编码的方法的第一实施例包括:
101,根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic
本实施例中,首先需要根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic
102,通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数;
本实施例中,在根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic之后,还需要通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数。
请参阅图2,本发明实施例提供的一种基于JND的视频编码的方法的第二实施例包括:
201,对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数;
本实施例中,首先需要对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数。
202,建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型;
本实施例中,在对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数之后,还需要建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型。
203,根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic
本实施例中,在建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型还需要根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic
204,通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数;
本实施例中,在根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic之后,还需要通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数。
205,比较预置的DCT系数与最终阈值的大小,若DCT系数的值小于最终阈值,则将DCT系数置零,若DCT系数的值大于最终阈值,则将DCT系数减去该阈值;
本实施例中,在通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数之后还需要比较预置的DCT系数与最终阈值的大小,若DCT系数的值小于最终阈值,则将DCT系数置零,若DCT系数的值大于最终阈值,则将DCT系数减去该阈值。
206,根据DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流;
本实施例中,在比较预置的DCT系数与最终阈值的大小,若DCT系数的值小于最终阈值,则将DCT系数置零,若DCT系数的值大于最终阈值,则将DCT系数减去该阈值之后还需要根据DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流。
上面是对一种基于JND的视频编码的方法的第二实施例进行的详细说明,为便于理解,下面将以一具体应用场景对一种基于JND的视频编码的方法中最终阈值的计算进行说明,
首先建立组成JND模型的4个子模型,4个子模型分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型,并将空域对比敏感度子模型作为基础模型;
然后通过计算亮度掩蔽因子子模型的加权系数,是当前像素块的平均亮度;
接着计算纹理掩蔽子模型的加权系数:先通过边缘算子如canny算子对图像计算得到边缘像素占快内个数的总比例ρedge1,再根据边缘像素占快内个数的总比例ρedge1将该像素块分成边缘块、纹理块和平滑块三种类型之一,接着根据块类型,通过计算得到该像素块的加权因子ψ,最后通过计算纹理掩蔽子模型的加权系数;
然后再计算时域对比度子模型的加权系数:通过计算时域对比度子模型的加权系数,其中时间频率ft=fsxvx+fsyvy,fsx、fsy是空间频率的水平和垂直分量,vx和vy是物体运动速度,fsx和fsy分别通过计算,R一般取3,Pich为图像高度;
之后再计算空域对比敏感度子模型的基础阈值:通过Tbasic=T(n,i,j)×s计算空域对比敏感度子模型的基础阈值,其中,s为叠加因子,取0.25,wij为DCT系数向量所代表的频率长度,φij为DCT系数向量所代表的频率,其余参数为常数r为0.6,a为1.33,b为0.11,c为0.18;
最后,通过公式JND=Tbasic×(Flum×Ft×Fcontrast-α×Ft×Fcontrast-β×Flum×Fcontrast-γ×Flum×Ft)计算JND最终阈值,其中α、β、γ为常数在这里,我们取其值为α=β=γ=0.15。
请参阅图3,本发明实施例提供的一种基于JND的视频编码的装置的第一实施例,包括:
基础阈值计算单元301,用于根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic
最终阈值计算单元302,用于通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数。
请参阅图4,本发明实施例提供的一种基于JND的视频编码的装置的第二实施例,包括:
DCT系数计算单元401,用于对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数。
模型建立单元402,用于建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型。
基础阈值计算单元403,用于根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算基础模型的阈值作为基础阈值Tbasic
最终阈值计算单元404,用于通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为空域对比敏感度子模型、亮度掩蔽因子子模型、纹理掩蔽子模型、时域对比敏感度子模型中除基础模型之外其余三个子模型的加权系数。
DCT系数预处理单元405,用于比较预置的DCT系数与最终阈值的大小,若DCT系数的值小于最终阈值,则将DCT系数置零,若DCT系数的值大于最终阈值,则将DCT系数减去该阈值。
压缩单元406,用于根据DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于JND的视频编码的方法,其特征在于,包括:
根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算所述基础模型的阈值作为基础阈值Tbasic
通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为所述空域对比敏感度子模型、所述亮度掩蔽因子子模型、所述纹理掩蔽子模型、所述时域对比敏感度子模型中除所述基础模型之外其余三个子模型的加权系数。
2.根据权利要求1所述的基于JND的视频编码的方法,其特征在于,在通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为所述空域对比敏感度子模型、所述亮度掩蔽因子子模型、所述纹理掩蔽子模型、所述时域对比敏感度子模型中除所述基础模型之外其余三个子模型的加权系数之后,还包括:
比较预置的DCT系数与所述最终阈值的大小,若所述DCT系数的值小于所述最终阈值,则将所述DCT系数置零,若所述DCT系数的值大于所述最终阈值,则将DCT系数减去该阈值。
3.根据权利要求2所述的基于JND的视频编码的方法,其特征在于,在比较预置的DCT系数与所述最终阈值的大小,若所述DCT系数的值小于所述最终阈值,则将所述DCT系数置零,若所述DCT系数的值大于所述最终阈值,则将所述DCT系数减去该阈值之后还包括:
根据所述DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流。
4.根据权利要求1所述的基于JND的视频编码的方法,其特征在于,在根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算所述基础模型的阈值作为基础阈值Tbasic之前还包括:
建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型。
5.根据权利要求4所述的基于JND的视频编码的方法,其特征在于,在建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型之前,还包括:
对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数。
6.一种基于JND的视频编码的装置,其特征在于,包括:
基础阈值计算单元,用于根据预置的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型确定基础模型并将计算所述基础模型的阈值作为基础阈值Tbasic
最终阈值计算单元,用于通过第一公式JND=Tbasic×(F1×F2×F3-α×F1×F2-β×F2×F3-γ×F1×F3)整合计算JND的最终阈值,其中α、β、γ为常数,F1、F2、F3分别为所述空域对比敏感度子模型、所述亮度掩蔽因子子模型、所述纹理掩蔽子模型、所述时域对比敏感度子模型中除所述基础模型之外其余三个子模型的加权系数。
7.根据权利要求6所述的基于JND的视频编码的装置,其特征在于,还包括:
DCT系数预处理单元,用于比较预置的DCT系数与所述最终阈值的大小,若所述DCT系数的值小于所述最终阈值,则将所述DCT系数置零,若所述DCT系数的值大于所述最终阈值,则将所述DCT系数减去该阈值。
8.根据权利要求7所述的基于JND的视频编码的装置,其特征在于,还包括:
压缩单元,用于根据所述DCT系数对像素块作视频压缩的量化、熵编码处理得到压缩后的码流。
9.根据权利要求6所述的基于JND的视频编码的装置,其特征在于,还包括:
模型建立单元,用于建立均包含加权系数的空域对比敏感度子模型、预置的亮度掩蔽因子子模型、预置的纹理掩蔽子模型、预置的时域对比敏感度子模型。
10.根据权利要求9所述的基于JND的视频编码的装置,其特征在于,还包括:
DCT系数计算单元,用于对视频的像素块作运动补偿处理得到残差并将残差变化后得到DCT系数。
CN201610947779.7A 2016-10-26 2016-10-26 一种基于jnd的视频编码的方法和装置 Active CN106454386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610947779.7A CN106454386B (zh) 2016-10-26 2016-10-26 一种基于jnd的视频编码的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610947779.7A CN106454386B (zh) 2016-10-26 2016-10-26 一种基于jnd的视频编码的方法和装置

Publications (2)

Publication Number Publication Date
CN106454386A true CN106454386A (zh) 2017-02-22
CN106454386B CN106454386B (zh) 2019-07-05

Family

ID=58178753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610947779.7A Active CN106454386B (zh) 2016-10-26 2016-10-26 一种基于jnd的视频编码的方法和装置

Country Status (1)

Country Link
CN (1) CN106454386B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241607A (zh) * 2017-07-18 2017-10-10 厦门大学 一种基于多域jnd模型的视觉感知编码方法
CN110062234A (zh) * 2019-04-29 2019-07-26 同济大学 一种基于区域恰可察觉失真的感知视频编码方法
CN113115034A (zh) * 2021-03-25 2021-07-13 北京金山云网络技术有限公司 一种视频处理方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067118A (en) * 1997-12-16 2000-05-23 Philips Electronics North America Corp. Method of frame-by-frame calculation of quantization matrices
US20080129732A1 (en) * 2006-08-01 2008-06-05 Johnson Jeffrey P Perception-based artifact quantification for volume rendering
CN101710995A (zh) * 2009-12-10 2010-05-19 武汉大学 基于视觉特性的视频编码系统
CN103124347A (zh) * 2012-10-22 2013-05-29 上海大学 利用视觉感知特性指导多视点视频编码量化过程的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067118A (en) * 1997-12-16 2000-05-23 Philips Electronics North America Corp. Method of frame-by-frame calculation of quantization matrices
US20080129732A1 (en) * 2006-08-01 2008-06-05 Johnson Jeffrey P Perception-based artifact quantification for volume rendering
CN101710995A (zh) * 2009-12-10 2010-05-19 武汉大学 基于视觉特性的视频编码系统
CN103124347A (zh) * 2012-10-22 2013-05-29 上海大学 利用视觉感知特性指导多视点视频编码量化过程的方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107241607A (zh) * 2017-07-18 2017-10-10 厦门大学 一种基于多域jnd模型的视觉感知编码方法
CN107241607B (zh) * 2017-07-18 2020-06-16 厦门大学 一种基于多域jnd模型的视觉感知编码方法
CN110062234A (zh) * 2019-04-29 2019-07-26 同济大学 一种基于区域恰可察觉失真的感知视频编码方法
CN113115034A (zh) * 2021-03-25 2021-07-13 北京金山云网络技术有限公司 一种视频处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN106454386B (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
US10721471B2 (en) Deep learning based quantization parameter estimation for video encoding
KR102104403B1 (ko) 단일영상 내의 안개 제거 방법 및 장치
DE102020123396A1 (de) Verfahren und system für inhaltsadaptives entrauschen zum videocodieren
CN102158712B (zh) 一种基于视觉的多视点视频信号编码方法
CN108063944B (zh) 一种基于视觉显著性的感知码率控制方法
CN104469386B (zh) 一种基于dof的恰可察觉误差模型的感知立体视频编码方法
US10863206B2 (en) Content-weighted deep residual learning for video in-loop filtering
CN108337515A (zh) 一种视频编码方法及装置
CN109767408B (zh) 图像处理方法、装置、存储介质及计算机设备
CN112399176B (zh) 一种视频编码方法、装置、计算机设备及存储介质
CN111225162B (zh) 图像曝光的控制方法、系统、可读存储介质及摄像设备
CN105959663B (zh) 视频帧间信号连续性的优化处理方法、系统及拍摄终端
CN106454386A (zh) 一种基于jnd的视频编码的方法和装置
CN104994382A (zh) 一种感知率失真的优化方法
CN110009574B (zh) 一种低动态范围图像逆向生成高动态范围图像的方法
CN104992419A (zh) 基于jnd因子的超像素高斯滤波预处理方法
CN111179201A (zh) 一种视频去噪方法和电子设备
CN107147912A (zh) 一种视频编码方法及装置
CN115131229A (zh) 图像降噪、滤波数据处理方法、装置和计算机设备
CN108765337B (zh) 一种基于暗原色先验与非局部mtv模型的单幅彩色图像去雾处理方法
CN104093022B (zh) 一种率失真优化方法及装置
CN112584153B (zh) 基于恰可察觉失真模型的视频压缩方法及装置
Du et al. Low-light image enhancement and denoising via dual-constrained Retinex model
CN100414997C (zh) 一种视频数据压缩的量化方法
CN109618156A (zh) 一种视频编码码率调整方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant