CN113223069B - 基于目标与背景差异的彩色图像背景杂波量化方法 - Google Patents
基于目标与背景差异的彩色图像背景杂波量化方法 Download PDFInfo
- Publication number
- CN113223069B CN113223069B CN202110631158.9A CN202110631158A CN113223069B CN 113223069 B CN113223069 B CN 113223069B CN 202110631158 A CN202110631158 A CN 202110631158A CN 113223069 B CN113223069 B CN 113223069B
- Authority
- CN
- China
- Prior art keywords
- target area
- image
- texture
- gray
- background region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000011002 quantification Methods 0.000 title claims abstract description 9
- 230000003595 spectral effect Effects 0.000 claims abstract description 32
- 238000013139 quantization Methods 0.000 claims abstract description 18
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 58
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 239000000758 substrate Substances 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 11
- 238000011156 evaluation Methods 0.000 abstract description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于目标与背景差异的彩色图像背景杂波量化方法,实现步骤为:对图像进行预处理;计算每幅图像目标区域与背景区域的纹理特征差异;计算每幅图像目标区域与背景区域的对比度;计算每幅图像目标区域与背景区域的光谱特征差异;将每幅图像目标区域与背景区域的纹理特征差异、对比度、光谱特征差异组合获得每幅图像目标区域与背景区域的差异量化结果;获取每幅RGB图像的背景杂波量化尺度。本发明解决了现有技术中获取所有局部背景杂波尺度的均值时的量化尺度很单一,同时没有考虑到目标区域的特征的问题,使得在不同的场景中对光电成像系统目标获取性能的预测和评估的可靠性和准确性提升。
Description
技术领域
本发明属于图像处理技术领域,涉及一种彩色图像背景杂波量化方法,具体涉及一种基于目标与背景差异的彩色图像背景杂波量化方法,可用于对光电成像系统目标获取性能进行预测和评估。
背景技术
目标获取性能预测和评估是目标探测、识别领域的一个重要内容,要准确地评价、预测光电成像系统的目标获取性能,必须同时考虑三个重要因素:光电成像系统本身因素、大气环境因素和目标区域与背景区域特性因素。随着新材料、新技术不断地发展,在不断提高光电系统性能的同时,使目标区域与背景区域差异因素成为了当前限制光电成像系统获取目标性能的一个关键因素。
目标区域与背景区域的差异量化结果是定量描述目标区域与背景区域的差异对光电成像系统目标获取性能影响的一个物理量。目标区域与背景区域越相似,则目标区域与背景区域的差异就越小,会干扰观察主体的探测、延长探测时间并且降低探测概率,影响光电成像系统的目标获取性能。
有很多传统的光电成像系统目标获取性能的预测和评估方法,例如,申请公布号为CN101183460A,发明名称为“彩色图像背景杂波量化方法”的专利申请,提出了一种彩色图像背景杂波量化方法,该方法用四元数矩阵表示彩色图像,并利用扩展到四元数域的相位相关技术对彩色图像的背景杂波进行量化,以四元数相位相关的模值函数的主峰峰值作为待量化彩色图像的局部背景杂波尺度,最终将得到的所有局部背景杂波尺度的均值作为待量化彩色图像的整体背景杂波尺度,有效利用了彩色图像的色彩信息,提高了目标获取性能预测的准确度。但是其存在不足在于,该方法在获取所有局部背景杂波尺度的均值时的量化尺度很单一,同时没有考虑到目标区域的特征,导致在不同的场景中对光电成像系统目标获取性能的预测和评估的可靠性和准确性仍然较低。
发明内容
本发明的目的在于克服上述现有技术存在的缺陷,提出了一种基于目标与背景差异的彩色图像背景杂波量化方法,用于解决现有技术中存在的对光电成像系统目标获取性能评估的可靠性和准确性较低的技术问题。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)对图像进行预处理:
(1a)获取N幅RGB图像,并将每幅RGB图像转换为灰度图像,得到灰度图像集合X={X1,X2,...,Xn,...,XN},其中,N≥1,Xn表示第n幅灰度图像;
(1b)通过标注框对每幅灰度图像Xn中的目标区域进行标注,并计算灰度图像Xn的背景区域XBn,得到目标区域集合XT={XT1,XT2,...,XTn,...,XTN}和背景区域集合XB={XB1,XB2,...,XBn,...,XBN},其中,XTn表示Xn的目标区域;
(2)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的纹理特征差异:
(2a)计算每幅灰度图像Xn目标区域XTn的纹理对比性特征值Q1Tn、纹理一致性特征值Q2Tn、纹理能量特征值Q3Tn和纹理熵特征值Q4Tn,并将该四个特征值组合为目标区域XTn的纹理向量Ttn=(Q1Tn,Q2Tn,Q3Tn,Q4Tn),得到X对应的目标区域XT的纹理向量集合Tt={Tt1,Tt2,...,Ttn,...,TtN},同时计算每幅灰度图像Xn背景区域XBn的纹理对比性特征值Q1Bn、纹理一致性特征值Q2Bn、纹理能量特征值Q3Bn和纹理熵特征值Q4Bn,并将该四个特征值组合为XBn的纹理向量Btn=(Q1Bn,Q2Bn,Q3Bn,Q4Bn),得到X对应的背景区域XB的纹理向量集合Bt={Bt1,Bt2,...,Btn,...,BtN};
(2b)计算每幅灰度图像Xn目标区域XTn纹理向量Ttn与背景区域XBn纹理向量Btn的纹理特征差异,即Ttn与Btn的纹理特征相关系数rtn,得到X对应的纹理特征相关系数集合rt={rt1,rt2,...,rtn,...,rtN};
(3)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的对比度:
计算每幅灰度图像Xn目标区域XTn与背景区域XBn的对比度CRn,得到X对应的目标区域XTn和背景区域XBn的对比度集合CR={CR1,CR2,...,CRn,...,CRN};
(4)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的光谱特性差异:
(4a)计算每幅灰度图像Xn目标区域XTn中所有像素点R通道灰度值数据的平均值Tsnr、G通道灰度数据的平均值Tsng和B通道灰度数据的平均值Tsnb,并将这三个平均值组合为灰度图像Xn目标区域XTn的光谱向量Tsn=(Tsnr,Tsng,Tsnb),得到X对应的目标区域XT的光谱向量集合Ts={Ts1,Ts2,...,Tsn,...,TsN},同时计算每幅灰度图像Xn背景区域XBn中所有像素点R通道灰度值数据的平均值Bsnr、G通道灰度数据的平均值Bsng和B通道灰度数据的平均值Bsnb,并将该三个平均值组合为灰度图像Xn背景区域XBn的光谱向量Bsn=(Bsnr,Bsng,Bsnb),得到X对应的背景区域XB的光谱向量集合Bs={Bs1,Bs2,...,Bsn,...,BsN};
(4b)计算每幅灰度图像Xn目标区域XTn光谱向量Tsn与背景区域XBn光谱向量Bsn的光谱特征差异,即Tsn与Bsn的光谱特征相关系数rsn,得到X对应的光谱特征相关系数集合rs={rs1,rs2,...,rsn,...,rsN};
(5)获取每幅灰度图像Xn目标区域XTn与背景区域XBn的差异量化结果:
将纹理特征相关系数集合rt中XTn与XBn的相关系数rtn、比度集合CR中XTn与XBn的对比度CRn、光谱特征相关系数集合rs中XTn与XBn的相关系数rsn组合Xn的目标区域XTn与背景区域XBn的辐射特性差异向量D1n=(rtn,CRn,rsn),得到X对应的目标区域XT与背景区域XB的辐射特性差异向量的集合D1={D11,D12,...,D1n,...,D1N};
(6)获取每幅RGB图像的背景杂波量化尺度:
通过每幅灰度图像Xn目标区域XTn与背景区域XBn的相关系数rtn、对比度CRn和相关系数rsn,计算每幅RGB图像的背景杂波量化尺度Dn,得到N幅RGB图像对应的杂波量化尺度集合D={D1,D2,...,Dn,...,DN},其中Dn的计算公式为:
本发明与现有技术相比,具有以下优点:
第一,本发明在计算RGB图像的杂波量化尺度时,使用了每幅灰度图像Xn目标区域XTn与背景区域XBn的相关系数rtn、对比度CRn和相关系数rsn,解决了现有技术中获取所有局部背景杂波尺度的均值时的量化尺度很单一,同时没有考虑到目标区域的特征的问题,使得在不同的场景中对光电成像系统目标获取性能的预测和评估的可靠性和准确性提升。
附图说明
图1为本发明的实现流程图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步的详细描述。
参照图1,本发明包括如下步骤:
步骤1)对图像进行预处理:
步骤1a)获取N幅RGB图像,并将每幅RGB图像转换为灰度图像,转换公式为:Xn=(Rn×299+Gn×587+Bn×114+500)/1000,得到灰度图像集合X={X1,X2,…,Xn,...,XN},其中,N≥1,Xn表示第n幅灰度图像;
步骤1b)通过标注框对每幅灰度图像Xn中的目标区域进行标注,并计算灰度图像Xn的背景区域XBn,计算方法是将以每幅灰度图像Xn目标区域XTn的几何中心为中心,以对XTn的长和宽扩大两倍形成的区域减去对XTn的长和宽扩大一倍形成的区域,作为Xn的背景区域XBn,得到目标区域集合XT={XT1,XT2,...,XTn,...,XTN}和背景区域集合XB={XB1,XB2,...,XBn,...,XBN},其中,XTn表示Xn的目标区域;
步骤2)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的纹理特征差异:
步骤2a)计算每幅灰度图像Xn目标区域XTn的纹理对比性特征值Q1Tn、纹理一致性特征值Q2Tn、纹理能量特征值Q3Tn和纹理熵特征值Q4Tn,并将该四个特征值组合为目标区域XTn的纹理向量Ttn=(Q1Tn,Q2Tn,Q3Tn,Q4Tn),得到X对应的目标区域XT的纹理向量集合Tt={Tt1,Tt2,...,Ttn,...,TtN},同时计算每幅灰度图像Xn背景区域XBn的纹理对比性特征值Q1Bn、纹理一致性特征值Q2Bn、纹理能量特征值Q3Bn和纹理熵特征值Q4Bn,计算公式为:
Pn(i,j)=|{[(k,l),(m,q)]∈Hn:k-m=d,l-q=-d}|
其中Hn表示每幅灰度图像Xn目标区域XTn或背景区域XBn,(m,q)表示Hn中原像素点的坐标,d表示像素间隔,(k,l)表示Hn中原像素点偏移d后的坐标,i和j分别表示(m,q)和(k,l)的灰度值,再由i和j组成(i,j)作为坐标,用pn(i,j)记录(i,j)出现的次数,pn(i,j)作为(i,j)处的值,构建Hn的灰度共生矩阵pn(i,j),并将该四个特征值组合为XBn的纹理向量Btn=(Q1Bn,Q2Bn,Q3Bn,Q4Bn),得到X对应的背景区域XB的纹理向量集合Bt={Bt1,Bt2,...,Btn,...,BtN};
步骤2b)计算每幅灰度图像Xn目标区域XTn纹理向量Ttn与背景区域XBn纹理向量Btn的纹理特征差异,就是计算Ttn与Btn的相关系数rtn,计算公式为:
其中,表示目标区域XTn纹理向量Ttn中所有元素的平均值,表示背景区域XBn纹理向量Btn中所有元素的平均值,表示目标区域XTn纹理向量Ttn与背景区域XBn纹理向量Btn的协方差,表示目标区域XTn纹理向量Ttn中每个元素的方差,表示背景区域XBn纹理向量Btn中每个元素的方差,V表示目标区域XTn纹理向量Ttn或背景区域XBn纹理向量Btn中元素的个数,V=4,同时得到X对应的相关系数集合rt={rt1,rt2,...,rtn,...,rtN};
步骤3)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的对比度:
计算每幅灰度图像Xn目标区域XTn与背景区域XBn的对比度CRn,计算公式为:其中NTn表示每幅灰度图像Xn目标区域XTn所有像素点灰度值的平均值,NBn表示每幅灰度图像Xn背景区域XBn所有像素点灰度值的平均值,同时得到X对应的目标区域XTn和背景区域XBn的对比度集合CR={CR1,CR2,...,CRn,...,CRN};
步骤4)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的光谱特性差异:
步骤4a)计算每幅灰度图像Xn目标区域XTn中所有像素点R通道灰度值数据的平均值Tsnr、G通道灰度数据的平均值Tsng和B通道灰度数据的平均值Tsnb,并将这三个平均值组合为灰度图像Xn目标区域XTn的光谱向量Tsn=(Tsnr,Tsng,Tsnb),得到X对应的目标区域XT的光谱向量集合Ts={Ts1,Ts2,...,Tsn,...,TsN},同时计算每幅灰度图像Xn背景区域XBn中所有像素点R通道灰度值数据的平均值Bsnr、G通道灰度数据的平均值Bsng和B通道灰度数据的平均值Bsnb,并将这三个平均值组合为灰度图像Xn背景区域XBn的光谱向量Bsn=(Bsnr,Bsng,Bsnb),得到X对应的背景区域XB的光谱向量集合Bs={Bs1,Bs2,...,Bsn,...,BsN};
步骤4b)计算每幅灰度图像Xn目标区域XTn光谱向量Tsn与背景区域XBn光谱向量Bsn的光谱特征差异,就是计算Tsn与Bsn的相关系数rsn,得到X对应的相关系数集合rs={rs1,rs2,...,rsn,...,rsN},计算公式同步骤2b);
步骤5)获取每幅灰度图像Xn目标区域XTn与背景区域XBn的差异量化结果:
将相关系数集合rt中XTn与XBn的相关系数rtn、比度集合CR中XTn与XBn的对比度CRn、相关系数集合rs中XTn与XBn的相关系数rsn组合Xn的目标区域XTn与背景区域XBn的辐射特性差异向量D1n=(rtn,CRn,rsn),得到X对应的目标区域XT与背景区域XB的辐射特性差异向量的集合D1={D11,D12,...,D1n,...,D1N};
步骤6)获取每幅RGB图像的背景杂波量化尺度:
将每幅灰度图像Xn目标区域XTn与背景区域XBn的相关系数rtn、对比度CRn和相关系数rsn进行组合计算,计算公式为得到每幅RGB图像的背景杂波量化尺度Dn,使用了每幅灰度图像Xn目标区域XTn与背景区域XBn的相关系数rtn、对比度CRn和相关系数rsn,这样就利用了每幅灰度图像Xn目标区域XTn与背景区域XBn三个方面的差异,同时也利用了每幅灰度图像Xn目标区域XTn的特征信息,解决了现有技术中获取所有局部背景杂波尺度的均值时的量化尺度很单一,同时没有考虑到目标区域的特征的问题,使得在不同的场景中对光电成像系统目标获取性能的预测和评估的可靠性和准确性提升,最终得到N幅RGB图像对应的杂波量化尺度集合D={D1,D2,...,Dn,...,DN}。
Claims (5)
1.一种基于目标区域与背景区域差异的彩色图像背景杂波量化方法,其特征在于,包括如下步骤:
(1)对图像进行预处理:
(1a)获取N幅RGB图像,并将每幅RGB图像转换为灰度图像,得到灰度图像集合X={X1,X2,...,Xn,...,XN},其中,N≥1,Xn表示第n幅灰度图像;
(1b)通过标注框对每幅灰度图像Xn中的目标区域进行标注,并计算灰度图像Xn的背景区域XBn,得到目标区域集合XT={XT1,XT2,...,XTn,...,XTN}和背景区域集合XB={XB1,XB2,...,XBn,...,XBN},其中,XTn表示Xn的目标区域;
(2)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的纹理特征差异:
(2a)计算每幅灰度图像Xn目标区域XTn的纹理对比性特征值Q1Tn、纹理一致性特征值Q2Tn、纹理能量特征值Q3Tn和纹理熵特征值Q4Tn,并将该四个特征值组合为目标区域XTn的纹理向量Ttn=(Q1Tn,Q2Tn,Q3Tn,Q4Tn),得到X对应的目标区域XT的纹理向量集合Tt={Tt1,Tt2,...,Ttn,...,TtN},同时计算每幅灰度图像Xn背景区域XBn的纹理对比性特征值Q1Bn、纹理一致性特征值Q2Bn、纹理能量特征值Q3Bn和纹理熵特征值Q4Bn,并将该四个特征值组合为XBn的纹理向量Btn=(Q1Bn,Q2Bn,Q3Bn,Q4Bn),得到X对应的背景区域XB的纹理向量集合Bt={Bt1,Bt2,...,Btn,...,BtN};
(2b)计算每幅灰度图像Xn目标区域XTn纹理向量Ttn与背景区域XBn纹理向量Btn的纹理特征差异,即Ttn与Btn的纹理特征相关系数rtn,得到X对应的纹理特征相关系数集合rt={rt1,rt2,...,rtn,...,rtN},其中rtn的计算公式为:
其中,表示目标区域XTn纹理向量Ttn中所有元素的平均值,表示背景区域XBn纹理向量Btn中所有元素的平均值,表示目标区域XTn纹理向量Ttn与背景区域XBn纹理向量Btn的协方差,表示目标区域XTn纹理向量Ttn中每个元素的方差,表示背景区域XBn纹理向量Btn中每个元素的方差,V表示目标区域XTn纹理向量Ttn或背景区域XBn纹理向量Btn中元素的个数;
(3)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的对比度:
计算每幅灰度图像Xn目标区域XTn与背景区域XBn的对比度CRn,得到X对应的目标区域XTn和背景区域XBn的对比度集合CR={CR1,CR2,...,CRn,...,CRN};
(4)计算每幅灰度图像Xn目标区域XTn与背景区域XBn的光谱特性差异:
(4a)计算每幅灰度图像Xn目标区域XTn中所有像素点R通道灰度值数据的平均值Tsnr、G通道灰度数据的平均值Tsng和B通道灰度数据的平均值Tsnb,并将这三个平均值组合为灰度图像Xn目标区域XTn的光谱向量Tsn=(Tsnr,Tsng,Tsnb),得到X对应的目标区域XT的光谱向量集合Ts={Ts1,Ts2,...,Tsn,...,TsN},同时计算每幅灰度图像Xn背景区域XBn中所有像素点R通道灰度值数据的平均值Bsnr、G通道灰度数据的平均值Bsng和B通道灰度数据的平均值Bsnb,并将该三个平均值组合为灰度图像Xn背景区域XBn的光谱向量Bsn=(Bsnr,Bsng,Bsnb),得到X对应的背景区域XB的光谱向量集合Bs={Bs1,Bs2,...,Bsn,...,BsN};
(4b)计算每幅灰度图像Xn目标区域XTn光谱向量Tsn与背景区域XBn光谱向量Bsn的光谱特征差异,即Tsn与Bsn的光谱特征相关系数rsn,得到X对应的光谱特征相关系数集合rs={rs1,rs2,...,rsn,...,rsN};
(5)获取每幅灰度图像Xn目标区域XTn与背景区域XBn的差异量化结果:
将纹理特征相关系数集合rt中XTn与XBn的相关系数rtn、比度集合CR中XTn与XBn的对比度CRn、光谱特征相关系数集合rs中XTn与XBn的相关系数rsn组合Xn的目标区域XTn与背景区域XBn的辐射特性差异向量D1n=(rtn,CRn,rsn),得到X对应的目标区域XT与背景区域XB的辐射特性差异向量的集合D1={D11,D12,...,D1n,...,D1N};
(6)获取每幅RGB图像的背景杂波量化尺度:
通过每幅灰度图像Xn目标区域XTn与背景区域XBn的相关系数rtn、对比度CRn和相关系数rsn,计算每幅RGB图像的背景杂波量化尺度Dn,得到N幅RGB图像对应的杂波量化尺度集合D={D1,D2,...,Dn,...,DN},其中Dn的计算公式为:
2.根据权利要求1所述的基于目标区域与背景区域差异的彩色图像背景杂波量化方法,其特征在于,步骤(1a)中所述的将每幅RGB图像转换为灰度图像,转换公式为:
Xn=(Rn×299+Gn×587+Bn×114+500)/1000
其中Rn表示第n幅RGB图像中的R通道所储存的灰度值数据,Gn表示第n幅RGB图像中的G通道所储存的灰度值数据,Bn表示第n幅RGB图像中的B通道所储存的灰度值数据。
3.根据权利要求1所述的基于目标区域与背景区域差异的彩色图像背景杂波量化方法,其特征在于,步骤(1b)中所述的计算灰度图像Xn的背景区域XBn,实现步骤为:将以每幅灰度图像Xn目标区域XTn的几何中心为中心,以对XTn的长和宽扩大两倍形成的区域减去对XTn的长和宽扩大一倍形成的区域,作为Xn的背景区域XBn。
4.根据权利要求1所述的基于目标区域与背景区域差异的彩色图像背景杂波量化方法,其特征在于,步骤(2a)中所述的计算每幅灰度图像Xn目标区域XTn的纹理对比性特征值Q1Tn、纹理一致性特征值Q2Tn、纹理能量特征值Q3Tn和纹理熵特征值Q4Tn,以及每幅灰度图像Xn背景区域XBn的纹理对比性特征值Q1Bn、纹理一致性特征值Q2Bn、纹理能量特征值Q3Bn和纹理熵特征值Q4Bn,计算公式分别为:
Pn(i,j)=|{[(k,l),(m,q)]∈Hn:k-m=d,l-q=-d}|
其中Hn表示每幅灰度图像Xn目标区域XTn或背景区域XBn,(m,q)表示Hn中原像素点的坐标,d表示像素间隔,(k,l)表示Hn中原像素点偏移d后的坐标,i和j分别表示(m,q)和(k,l)的灰度值,pn(i,j)表示Hn的灰度共生矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110631158.9A CN113223069B (zh) | 2021-06-07 | 2021-06-07 | 基于目标与背景差异的彩色图像背景杂波量化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110631158.9A CN113223069B (zh) | 2021-06-07 | 2021-06-07 | 基于目标与背景差异的彩色图像背景杂波量化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113223069A CN113223069A (zh) | 2021-08-06 |
CN113223069B true CN113223069B (zh) | 2023-02-10 |
Family
ID=77083077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110631158.9A Active CN113223069B (zh) | 2021-06-07 | 2021-06-07 | 基于目标与背景差异的彩色图像背景杂波量化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113223069B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7684596B2 (en) * | 2003-02-11 | 2010-03-23 | Qinetiq Limited | Image analysis |
CN104346800A (zh) * | 2013-08-02 | 2015-02-11 | 南京理工大学 | 一种基于纹理显著性的微光图像目标检测方法 |
CN108447058A (zh) * | 2018-03-30 | 2018-08-24 | 北京理工大学 | 一种图像质量评价方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007001352A2 (en) * | 2004-08-31 | 2007-01-04 | University Of Washington | Ultrasonic technique for assessing wall vibrations in stenosed blood vessels |
CN101183460B (zh) * | 2007-11-27 | 2010-10-13 | 西安电子科技大学 | 彩色图像背景杂波量化方法 |
CN104392209B (zh) * | 2014-11-07 | 2017-09-29 | 长春理工大学 | 一种目标与背景的图像复杂度评价方法 |
CN111027497B (zh) * | 2019-12-17 | 2023-03-31 | 西安电子科技大学 | 基于高分辨率光学遥感影像的弱小目标快速检测方法 |
-
2021
- 2021-06-07 CN CN202110631158.9A patent/CN113223069B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7684596B2 (en) * | 2003-02-11 | 2010-03-23 | Qinetiq Limited | Image analysis |
CN104346800A (zh) * | 2013-08-02 | 2015-02-11 | 南京理工大学 | 一种基于纹理显著性的微光图像目标检测方法 |
CN108447058A (zh) * | 2018-03-30 | 2018-08-24 | 北京理工大学 | 一种图像质量评价方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113223069A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023134791A2 (zh) | 一种环境安防工程监测数据管理方法及系统 | |
CN101281650B (zh) | 用于视频稳定的快速全局运动估计方法 | |
CN101562675B (zh) | 基于Contourlet变换的无参考型图像质量评测方法 | |
Chen et al. | Semi-reference sonar image quality assessment based on task and visual perception | |
CN111476159A (zh) | 一种基于双角回归的检测模型训练、检测方法及装置 | |
CN117132510B (zh) | 一种基于图像处理的监控图像增强方法及系统 | |
Li et al. | Image quality assessment using deep convolutional networks | |
CN107197121B (zh) | 一种基于舰载设备的电子稳像方法 | |
CN109002792B (zh) | 基于分层多模型度量学习的sar图像变化检测方法 | |
CN115578255B (zh) | 一种基于帧间亚像素块匹配的超分辨率重建方法 | |
CN108846800A (zh) | 一种图像超分辨率重建的无参考图像质量评价方法 | |
CN110910347A (zh) | 一种基于图像分割的色调映射图像无参考质量评价方法 | |
Jin et al. | Perceptual Gradient Similarity Deviation for Full Reference Image Quality Assessment. | |
CN115937540A (zh) | 基于Transformer编码器的图像匹配方法 | |
CN113223069B (zh) | 基于目标与背景差异的彩色图像背景杂波量化方法 | |
Morzelona | Human visual system quality assessment in the images using the IQA model integrated with automated machine learning model | |
CN117611830A (zh) | 一种基于少样本标注的任意类别目标定位与计数方法 | |
CN107273793A (zh) | 一种用于人脸识别的特征提取方法 | |
CN116363094A (zh) | 一种超分辨率重建图像质量评价方法 | |
WO2010070128A1 (en) | Method for multi-resolution motion estimation | |
CN104112274B (zh) | 基于混合尺度变换的图像质量评价方法 | |
CN115294010A (zh) | 一种基于支持向量机的降参考点云质量评估方法 | |
Karwande et al. | Time efficient training of progressive generative adversarial network using depthwise separable convolution and super resolution generative adversarial network | |
CN113936200A (zh) | 一种基于移动终端的电表箱图像质量检测方法 | |
Wang et al. | Extracting the height of lettuce by using neural networks of image recognition in deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |