CN101621708A - 基于dct域的彩色图像可觉察失真度计算方法 - Google Patents
基于dct域的彩色图像可觉察失真度计算方法 Download PDFInfo
- Publication number
- CN101621708A CN101621708A CN200910063359A CN200910063359A CN101621708A CN 101621708 A CN101621708 A CN 101621708A CN 200910063359 A CN200910063359 A CN 200910063359A CN 200910063359 A CN200910063359 A CN 200910063359A CN 101621708 A CN101621708 A CN 101621708A
- Authority
- CN
- China
- Prior art keywords
- dct
- computing
- lum
- color
- perceptible distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
本发明涉及视频图像通信技术领域,尤其涉及一种基于DCT域的彩色图像可觉察失真度计算方法。本发明将选定的彩色图像由RGB色彩空间转换到Lab色彩空间,对Lab色彩空间下的L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域,在DCT域,根据亮度基本阈值和调制因子的乘积计算获得亮度分量L的可觉察失真度JND值,在DCT域,根据色度基本阈值和调制因子的乘积计算获得色度分量a、b的可觉察失真度JND值。本发明彩色图像可觉察失真度计算方法整体上具有更低的峰值信噪比(PSNR)值,其能容忍更多的客观失真。
Description
技术领域
本发明涉及视频图像通信技术领域,尤其涉及一种基于DCT域的彩色图像可觉察失真度计算方法。
背景技术
传统的压缩编码方法主要基于均方误差(MSE)为准则,该方法物理意义明确、计算简单,成为了压缩编码方法中最为广泛的评价准则,但是MSE仅仅考虑了信号的数据失真,并不能很好的反映图像局部和人眼的视觉特征,所得结果常与人眼主观视觉效果不一致。由于人眼是图像、视频信号的最终接收者,因此希望在压缩编码时将人眼主观视觉效果考虑进来。
在一定的生理和心理机制作用下人眼具有视觉阈值效应和掩蔽效应,使得人眼并不能察觉到图像中的所有失真,因此在当前的压缩图像、视频码流中存在大量的主观冗余。去除这些主观冗余不仅能使人眼敏感的内容得到更好的保护,而且还能达到更高的压缩效率。人眼对图像中不同区域失真的敏感性可以用可察觉失真(JND)阈值来度量。所谓可察觉失真阈值,即当压缩图像的失真低于某一阈值时,对于解码重建图像人眼察觉不到失真,则该阈值被称为可察觉失真。
现有的可察觉失真(JND)模型可以大致分为两类:第一类为像素域JND模型,其基本原理大多是通过表征亮度自适应效应和纹理掩蔽效应来建模。例如文献1(参见:X.K.Yang,W.S.Lin,Z.K.Lu,E.P.Ong,S.S.Yao.Rate control for videophone using localperceptual cues[J].IEEE Transaction on Circuits and Systems for Video Technology,2005,15(4):496-507.)中提出了基于空域的彩色图像JND模型,但是由于其无法很好的将对比敏感度函数(Contrast Sensitive Function,CSF)整合进来,因此这类模型没有办法得到精确的JND值,常作为计算JND阈值的快速方法来使用。
第二类JND模型为子带JND模型,这类模型是在变换域中进行计算,例如DCT域、小波域、CONTOURLET域等。由于大多数图像/视频编码标准都是基于DCT域(如JPEG、H.261/3/4、MPEG-1/2/4),因此基于DCT域的JND模型得到了很多研究者的关注。例如文献2(参见:杨红梅,梁永全,刘连山,纪淑娟.基于HVS的彩色图像水印视觉不可感知性评价方法[J].通信学报,2008,29(2):95-100.)中结合了RGB色彩空间对视觉的掩蔽特性,给出了一种彩色图像JND值的计算方法,但是该方法没有针对彩色图像完整考虑CSF函数、频率系数特性、亮度自适应和对比掩蔽等各类特征的影响,因此计算精度有待进一步提高。
发明内容
本发明的目的是针对上述存在的不足,提供一种基于DCT域的彩色图像可觉察失真度计算方法,提高可觉察失真度JND阈值的准确性。
为达到上述目的,本发明采用如下的技术方案:
基于DCT域的彩色图像可觉察失真度计算方法,包括以下步骤:
①将选定的彩色图像由RGB色彩空间转换到Lab色彩空间;
②对Lab色彩空间下的L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域;
③在DCT域,根据亮度基本阈值和调制因子的乘积计算获得亮度分量L的可觉察失真度JND值;
④在DCT域,根据色度基本阈值和调制因子的乘积计算获得色度分量a、b的可觉察失真度JND值。
步骤③中所述亮度分量L的可觉察失真度JND值采用如下公式计算获得:
JNDlum(n,i,j)=Tlum_basic(n,i,j)·Flum_M(n,i,j)
其中,Tlum_basic(n,i,j)为亮度基本阈值,Flum_M(n,i,j)为调制因子,n为DCT块的索引, W为图像的宽度,H为图像的高度,i、j为DCT块中系数的索引,1≤i≤64,1≤j≤64。
所述亮度基本阈值采用如下公式计算获得:
Tlum_basic(n,i,j)=s·T(n,i,j)
其中,
所述调制因子采用如下公式计算获得:
Flum_M(n,i,j)=Flum(n,i,j)·Fcontrast(n,i,j)
其中亮度自适应因子Flum的计算公式如下:
其中,I为DCT块中的平均亮度值;
其中,亮度对比掩蔽因子Fcontrast的计算公式如下:
对于块中的高频系数:
对于块中的低频系数:
ε=1.9,s1=0.9,s2=0.7。
步骤④中色度分量a、b的可觉察失真度JND值采用如下公式计算获得:
JNDcolor(n,i,j)=Tcolor_basic(n,i,j)·Fcolor_M(n,i,j)
其中,Tcolor_basic(n,i,j)为色度基本阈值,Fcolor_M(n,i,j)为调制因子,n为DCT块的索引,i、j为DCT块中系数的索引。
所述色度基本阈值采用如下公式计算获得:
Tcolor_basic(n,i,j)=factor·[(1-α)exp(bfc)+α]
其中,参数α为1/256,对于a色度分量factor=280,b=-7.6400e-3,c=2.06;对于b色度分量factor=320,b=-1.9584e-2,c=1.74。
色度a分量的调制因子:
其中,ca(n,i,j)表示a色度分量中的DCT系数,ε=0.36,q1=5,q2=1.2;色度b分量的调制因子:
其中,cb(n,i,j)表示b色度分量中的DCT系数,ε=0.36,p1=48,p2=0.3。
本发明具有以下优点和积极效果:
1)与现有技术相比,本发明的彩色图像可觉察失真度计算方法整体上具有更低的峰值信噪比(PSNR)值,其能容忍更多的客观失真;
2)提高了可觉察失真度JND阈值的准确性。
附图说明
图1是本发明基于DCT域的彩色图像可觉察失真度计算方法的流程图。
图2是本发明的亮度DCT块频域系数的等级划分的示意图。
图3是本发明的色度分量DCT块频域系数的等级划分的示意图。
其中,
S1-将选定的彩色图像由RGB色彩空间转换到Lab色彩空间、S2-L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域、S3-计算获得亮度分量L的可觉察失真度JND值、S4-计算获得色度分量a、b的可觉察失真度JND值。
具体实施方式
下面以具体实施例结合附图对本发明作进一步说明:
本发明提供的基于DCT域的彩色图像可觉察失真度计算方法,采用如下技术方案,参见图1所示的流程图,包括以下步骤:
步骤S1:将选定的彩色图像由RGB色彩空间转换到Lab色彩空间;
步骤S2:对Lab色彩空间下的L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域;
步骤S3:在DCT域,根据亮度基本阈值和调制因子的乘积计算获得亮度分量L的可觉察失真度JND值;
步骤S4:在DCT域,根据色度基本阈值和调制因子的乘积计算获得色度分量a、b的可觉察失真度JND值。
本发明提供的实施例采用MATLAB7作为仿真实验平台,以512×512的bmp彩色图像作为选定的彩色图像,下面结合每个步骤详细描述本实施例:
①选定512×512的bmp彩色图像作为输入测试的图像,将其由RGB色彩空间转换到Lab色彩空间;
②对转换后得到的Lab色彩空间的L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域;
③在DCT域,根据基本阈值和调制因子的乘积计算获得亮度分量L的可觉察失真度JND值,其计算公式如下:
JNDlum(n,i,j)=Tlum_basic(n,i,j)·Flum_M(n,i,j) (1)
其中,n为DCT块的索引,i、j为DCT块中系数的索引;
一般的DCT块都为8×8大小,那么该测试图像就分为 个DCT块,n取1到4096之间数值,i、j取1到64之间数值。
上式(1)中的基本阈值Tlum_basic采用如下方法计算获得:
DCT子带的频率可以表示如下:
其中 Rvd表示观察距离和图像高度的比例,一般为3~6倍;Pich表示在图像高度上的像素点的个数,对于该测试图像,Pich为512;N为DCT的块大小,本实施例中取N=8;
由上所述,DCT块的亮度CSF值为:
其中:
最终,DCT块的亮度基本阈值为:Tlum_basic(n,i,j)=s·T(n,i,j)
参数a=1.33,b=0.11,c=0.005,s=1.1,r=0.6。
上式(1)中的调制因子Flum_M采用如下方法计算获得:
由于亮度调制因子由三部分组成,即亮度自适应因子Flum、亮度对比掩蔽因子Fcontrast、亮度分量DCT频率系数特性,下面逐个介绍其计算过程:
亮度自适应因子Flum的计算公式如下:
其中,I为DCT块中的平均亮度值。
亮度对比掩蔽因子Fcontrast的计算公式如下:
将图像中的所有8×8大小DCT块进行分类,分成纹理、平坦和边缘三类;用canny算子来检测计算图像中的边缘信息,通过计算每个8×8块中的边缘像素密度ρedge来对块进行分类,具体过程如下:
由8×8的DCT块类型可知,块间掩蔽效应因子为:
此外,考虑到人眼对8×8的亮度DCT频率系数中的低频细节相较中高频细节更敏感的现象,对于每个DCT块中的频率系数分为两个等级分别计算对应的对比掩蔽因子,具体划分方法如图2所示:
对于图中标记为“1”的系数,亮度对比掩蔽因子计算如下:
其中,ε=1.9,s1=0.9。
对于图中标记为“0”的系数,亮度对比掩蔽因子计算如下:
其中,ε=1.9,s2=0.7。
综上所述,由亮度自适应因子Flum和亮度对比掩蔽因子Fcontrast可以得到亮度调制因子为:
Flum_M(n,i,j)=Flum(n,i,j)·Fcontrast(n,i,j)
④在DCT域,根据色度基本阈值CSF和调制因子的乘积计算获得色度分量a、b的可觉察失真度JND值;
由于色度可觉察失真度JND分为色度基本阈值CSF和调制因子的乘积,在Lab色彩空间中基于a、b色度分量分别计算,具体形式如下所述:
JNDcolor(n,i,j)=Tcolor_basic(n,i,j)·Fcolor_M(n,i,j) (2)
上式(2)中的色度调制因子Fcolor_M采用如下公式计算:
色度调制因子Fcolor_M主要由两部分组成:对比掩蔽因子Fcolor_contrast和色度分量DCT频率系数特性。
对比掩蔽因子为:
其中,c(n,i,j)表示对应的色度DCT系数。
考虑到人眼对8×8的色度DCT频率系数中的低频细节相较中高频细节更敏感的现象,对于每个色度DCT块中的频率系数分为两个等级分别计算对应的对比掩蔽因子。具体划分方法如图3所示:
色度a分量的调制因子:
其中,ca(n,i,j)表示a色度分量中的DCT系数,ε=0.36,q1=5,q2=1.2。色度b分量的调制因子:
其中,cb(n,i,j)表示b色度分量中的DCT系数,ε=0.36,p1=48,p2=0.3。
将文献1中像素域彩色图像JND模型和文献2中DCT域彩色图像JND模型进行了对比测试,具体实验方法为:
计算出对应JND阈值后,将其作为JND噪声注入到测试图像,具体公式如下:
C′(n,i,j)=C(n,i,j)+w·JND(n,i,j)
其中,C(n,i,j)为原始图像在第n个8×8块中(i,j)位置的像素值,w为随机的+1或-1,JND(n,i,j)为第n个8×8块中(i,j)位置的JND值。
如果处理后图像在主观效果上保持不变,客观效果上峰值信噪比(PSNR)值越小则对应的JND模型在具有相同主观效果的基础上能容忍更多的客观失真,表明该JND模型具有更好的计算精确度。
主观测试结果表明以上三种JND模型处理后的图像在主观效果上和原始图像基本一致、主观差异较小,都在测试者的主观忍受范围内。
由下表所示的处理图像的峰值信噪比(PSNR值)可以看出本发明提出的基于DCT域的彩色图像可觉察失真度计算方法整体上具有更低的峰值信噪比(PSNR)值,表明其能容忍更多的客观失真。
表1处理图像的PSNR值(dB)
Claims (7)
1.一种基于DCT域的彩色图像可觉察失真度计算方法,其特征在于,包括以下步骤:
①将选定的彩色图像由RGB色彩空间转换到Lab色彩空间;
②对Lab色彩空间下的L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域;
③在DCT域,根据亮度基本阈值和调制因子的乘积计算获得亮度分量L的可觉察失真度JND值;
④在DCT域,根据色度基本阈值和调制因子的乘积计算获得色度分量a、b的可觉察失真度JND值。
2.根据权利要求1所述的基于DCT域的彩色图像可觉察失真度计算方法,其特征在于:
步骤③中所述亮度分量L的可觉察失真度JND值采用如下公式计算获得:
JNDlum(n,i,j)=Tlum_bastc(n,i,j)·Flum_M(n,i,j)
其中,Tlum_bastc(n,i,j)为亮度基本阈值,Flum_M(n,i,j)为调制因子,n为DCT块的索引, W为图像的宽度,H为图像的高度,i、j为DCT块中系数的索引,1≤i≤64,1≤j≤64。
3.根据权利要求2所述的基于DCT域的彩色图像可觉察失真度计算方法,其特征在于:
所述亮度基本阈值采用如下公式计算获得:
Tlum_bastc(n,i,j)=s·T(n,i,j)
其中,
5.根据权利要求1所述的基于DCT域的彩色图像可觉察失真度计算方法,其特征在于:
步骤④中色度分量a、b的可觉察失真度JND值采用如下公式计算获得:
JNDcolor(n,i,j)=Tcolor_bastc(n,i,j)·Fcolor_M(n,i,j)
其中,Tcolor_bastc(n,i,j)为色度基本阈值,Fcolor_M(n,i,j)为调制因子,n为DCT块的索引,i、j为DCT块中系数的索引。
6.根据权利要求5所述的基于DCT域的彩色图像可觉察失真度计算方法,其特征在于:
所述色度基本阈值采用如下公式计算获得:
Tcolor_bastc(n,i,j)=factor·[(1-α)exp(bfc)+α]
其中,参数α为1/256,对于a色度分量factor=280,b=-7.6400e-3,c=2.06;对于b色度分量factor=320,b=-1.9584e-2,c=1.74。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100633592A CN101621708B (zh) | 2009-07-29 | 2009-07-29 | 基于dct域的彩色图像可觉察失真度计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100633592A CN101621708B (zh) | 2009-07-29 | 2009-07-29 | 基于dct域的彩色图像可觉察失真度计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101621708A true CN101621708A (zh) | 2010-01-06 |
CN101621708B CN101621708B (zh) | 2011-01-26 |
Family
ID=41514696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100633592A Expired - Fee Related CN101621708B (zh) | 2009-07-29 | 2009-07-29 | 基于dct域的彩色图像可觉察失真度计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101621708B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101854555A (zh) * | 2010-06-18 | 2010-10-06 | 上海交通大学 | 基于预测残差自适应调整的视频编码系统 |
CN102447945A (zh) * | 2011-11-22 | 2012-05-09 | 河海大学 | 一种图像亮度的jnd值测定方法 |
CN102750706A (zh) * | 2012-07-13 | 2012-10-24 | 武汉大学 | 基于深度显著度的立体图像恰可感知差异模型的构建方法 |
CN102819850A (zh) * | 2012-08-16 | 2012-12-12 | 李勃 | 基于局部自适应色差阈值的彩色图像边缘检测的方法 |
CN102905130A (zh) * | 2012-09-29 | 2013-01-30 | 浙江大学 | 基于视觉感知的多分辨率jnd模型建构方法 |
CN103297773A (zh) * | 2013-05-07 | 2013-09-11 | 福州大学 | 基于jnd模型的图像编码方法 |
CN103327321A (zh) * | 2013-03-28 | 2013-09-25 | 上海大学 | 一种快速自适应建立频域凹形恰可辨失真模型的方法 |
CN103475881A (zh) * | 2013-09-12 | 2013-12-25 | 同济大学 | Dct域内基于视觉注意力机制的图像jnd阈值计算方法 |
CN103607589A (zh) * | 2013-11-14 | 2014-02-26 | 同济大学 | 像素域内基于层次选择性视觉注意力机制的图像jnd阈值计算方法 |
CN104168478A (zh) * | 2014-07-29 | 2014-11-26 | 银江股份有限公司 | 基于Lab空间及相关性函数的视频图像偏色检测方法 |
CN104378636A (zh) * | 2014-11-10 | 2015-02-25 | 中安消技术有限公司 | 一种视频图像编码方法及装置 |
CN108668135A (zh) * | 2018-04-12 | 2018-10-16 | 杭州电子科技大学 | 一种基于人眼感知的立体视频b帧错误隐藏方法 |
CN109525847A (zh) * | 2018-11-13 | 2019-03-26 | 华侨大学 | 一种恰可察觉失真模型阈值计算方法 |
CN110139112A (zh) * | 2019-04-29 | 2019-08-16 | 暨南大学 | 一种基于jnd模型的视频编码方法 |
-
2009
- 2009-07-29 CN CN2009100633592A patent/CN101621708B/zh not_active Expired - Fee Related
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101854555A (zh) * | 2010-06-18 | 2010-10-06 | 上海交通大学 | 基于预测残差自适应调整的视频编码系统 |
CN102447945A (zh) * | 2011-11-22 | 2012-05-09 | 河海大学 | 一种图像亮度的jnd值测定方法 |
CN102447945B (zh) * | 2011-11-22 | 2013-09-25 | 河海大学 | 一种图像亮度的jnd值测定方法 |
CN102750706A (zh) * | 2012-07-13 | 2012-10-24 | 武汉大学 | 基于深度显著度的立体图像恰可感知差异模型的构建方法 |
CN102819850A (zh) * | 2012-08-16 | 2012-12-12 | 李勃 | 基于局部自适应色差阈值的彩色图像边缘检测的方法 |
CN102905130A (zh) * | 2012-09-29 | 2013-01-30 | 浙江大学 | 基于视觉感知的多分辨率jnd模型建构方法 |
CN103327321A (zh) * | 2013-03-28 | 2013-09-25 | 上海大学 | 一种快速自适应建立频域凹形恰可辨失真模型的方法 |
CN103297773B (zh) * | 2013-05-07 | 2016-05-04 | 福州大学 | 基于jnd模型的图像编码方法 |
CN103297773A (zh) * | 2013-05-07 | 2013-09-11 | 福州大学 | 基于jnd模型的图像编码方法 |
CN103475881B (zh) * | 2013-09-12 | 2016-11-23 | 同济大学 | Dct域内基于视觉注意力机制的图像jnd阈值计算方法 |
CN103475881A (zh) * | 2013-09-12 | 2013-12-25 | 同济大学 | Dct域内基于视觉注意力机制的图像jnd阈值计算方法 |
CN103607589A (zh) * | 2013-11-14 | 2014-02-26 | 同济大学 | 像素域内基于层次选择性视觉注意力机制的图像jnd阈值计算方法 |
CN103607589B (zh) * | 2013-11-14 | 2016-08-24 | 同济大学 | 基于层次选择性视觉注意力机制的jnd阈值计算方法 |
CN104168478A (zh) * | 2014-07-29 | 2014-11-26 | 银江股份有限公司 | 基于Lab空间及相关性函数的视频图像偏色检测方法 |
CN104168478B (zh) * | 2014-07-29 | 2016-06-01 | 银江股份有限公司 | 基于Lab空间及相关性函数的视频图像偏色检测方法 |
CN104378636B (zh) * | 2014-11-10 | 2017-07-07 | 中安消技术有限公司 | 一种视频图像编码方法及装置 |
CN104378636A (zh) * | 2014-11-10 | 2015-02-25 | 中安消技术有限公司 | 一种视频图像编码方法及装置 |
CN108668135A (zh) * | 2018-04-12 | 2018-10-16 | 杭州电子科技大学 | 一种基于人眼感知的立体视频b帧错误隐藏方法 |
CN108668135B (zh) * | 2018-04-12 | 2020-08-25 | 杭州电子科技大学 | 一种基于人眼感知的立体视频b帧错误隐藏方法 |
CN109525847A (zh) * | 2018-11-13 | 2019-03-26 | 华侨大学 | 一种恰可察觉失真模型阈值计算方法 |
CN109525847B (zh) * | 2018-11-13 | 2021-04-30 | 华侨大学 | 一种恰可察觉失真模型阈值计算方法 |
CN110139112A (zh) * | 2019-04-29 | 2019-08-16 | 暨南大学 | 一种基于jnd模型的视频编码方法 |
CN110139112B (zh) * | 2019-04-29 | 2022-04-05 | 暨南大学 | 一种基于jnd模型的视频编码方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101621708B (zh) | 2011-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101621708B (zh) | 基于dct域的彩色图像可觉察失真度计算方法 | |
CN106412619B (zh) | 一种基于hsv颜色直方图和dct感知哈希的镜头边界检测方法 | |
CN108052980B (zh) | 基于图像的空气质量等级检测方法 | |
Yu et al. | Image complexity and spatial information | |
CN101378519B (zh) | 一种基于Contourlet变换的质降参考图像质量评价方法 | |
CN110378849B (zh) | 基于深度残差网络的图像去雾去雨方法 | |
CN101605272A (zh) | 一种部分参考型图像客观质量评价方法 | |
CN105049851A (zh) | 基于色彩感知的通用无参考图像质量评价方法 | |
CN103475881B (zh) | Dct域内基于视觉注意力机制的图像jnd阈值计算方法 | |
CN101127926A (zh) | 基于多尺度几何分析的图像质量评测方法 | |
Cheng et al. | Perceptual image quality assessment using a geometric structural distortion model | |
CN105241826A (zh) | 智能移动终端及其进行食品检测的方法 | |
CN103607589B (zh) | 基于层次选择性视觉注意力机制的jnd阈值计算方法 | |
CN109829905A (zh) | 一种面部美化感知质量的无参考评价方法 | |
CN103035001A (zh) | 一种基于超像素分割的地基云自动检测方法 | |
CN103024328B (zh) | 一种提高数字视频录像机抓图质量的方法 | |
CN110189243A (zh) | 一种基于张量奇异值分解的彩色图像鲁棒水印方法 | |
Li et al. | A natural image quality evaluation metric | |
CN110246076B (zh) | 基于Tucker分解的高动态范围图像水印方法 | |
CN103561274B (zh) | 静止摄像头拍摄的运动目标被移除视频时域篡改检测方法 | |
CN104837028A (zh) | 视频同比特率双重压缩检测方法 | |
CN102930545A (zh) | 一种图像质量盲评估的统计测度方法 | |
CN102592472A (zh) | 基于jpeg压缩图像的车位检测方法 | |
CN103903214A (zh) | 基于mcuu模型下的dct域图像隐写容量的评估方法 | |
CN109389132A (zh) | 一种基于图像的雾浓度检测预警方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110126 Termination date: 20150729 |
|
EXPY | Termination of patent right or utility model |