CN112927272B - 一种基于空间通用自回归模型的图像融合方法 - Google Patents

一种基于空间通用自回归模型的图像融合方法 Download PDF

Info

Publication number
CN112927272B
CN112927272B CN202110342693.2A CN202110342693A CN112927272B CN 112927272 B CN112927272 B CN 112927272B CN 202110342693 A CN202110342693 A CN 202110342693A CN 112927272 B CN112927272 B CN 112927272B
Authority
CN
China
Prior art keywords
image
pixel
fusion
autoregressive model
image block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110342693.2A
Other languages
English (en)
Other versions
CN112927272A (zh
Inventor
郝飞
史金飞
高海涛
宋佳潼
朱超涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Institute of Technology
Original Assignee
Nanjing Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Institute of Technology filed Critical Nanjing Institute of Technology
Priority to CN202110342693.2A priority Critical patent/CN112927272B/zh
Publication of CN112927272A publication Critical patent/CN112927272A/zh
Application granted granted Critical
Publication of CN112927272B publication Critical patent/CN112927272B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于空间通用自回归模型的图像融合方法,其特征在于,基于空间通用自回归模型实现图像配准;对待融合源图像进行平移处理;平移处理后的待融合源图像加权平均得到粗融合后的图像;建立一阶非因果空间自回归模型,粗融合后的图像完成精融合。将图像融合分为粗融合和精融合两个过程,通过图像融合过程中引入空间自回归模型,使得提出的图像融合算法具有较好高的抗噪声干扰能力,且能有效地保护图像边缘等特征,从而能够有效提高图像融合的鲁棒性,克服现有图像融合算法各自存在的缺陷。

Description

一种基于空间通用自回归模型的图像融合方法
技术领域
本发明涉及一种基于空间通用自回归模型的图像融合方法,属于图像融合技术领域。
背景技术
通过图像融合,突破传感器极限,丰富图像信息量,在工业、医疗、遥感等诸多领域有着十分巨大的应用需求。近年来,学者们在此方面积极开展了相关工作。唐振民等提出一种基于非线性权重的图像融合的方法,该方法应用非线性权重模型进行图像融合操作,一定程度上有效改善了重影问题,提高了图像融合的质量(唐振民.基于非线性权重的图像融合的方法:中国,CN2020107085966[P].2020-10-30)。赵良军等提出一种基于纹理特征的图像融合算法,对经加权融合操作后的基层图像与亮细节层、暗细节层分别按顺序进行相应加权相加、相减融合操作后,最终得到清晰度更高的融合图像(赵良军.一种基于纹理特征的图像融合算法:中国,CN202010271482X[P].2020-08-07)。北京理工大学的郝群等通过构建八度高斯图像金字塔框架,采用不同策略对基础层和细节层图像进行分别融合后,再将融合后的基础层和细节层重构,从而丰富融合图像的特征信息(郝群.基于八度金字塔框架的多聚焦图像融合方法:中国,CN2020102116351[P].2020-07-10)。西北工业大学的王健等基于整个图像块的融合提出一种利用卷积稀疏表示的多模态图像融合方法,对分别采用不同融合策略进行操作后的低频和高频分量相加得到的最终图像,能够充分保留图像的细节信息(王健.基于卷积稀疏表示的多模态图像融合方法:中国,CN2018114007697[P].2019-04-02)。杨家俊等在基于稀疏表示原理模型中引入字典信息进行图像融合,在不过多增加算法复杂度的前提下,能够实现自适应地稀疏地表示图像的局部信息,从而改善图像融合质量(杨家俊.一种引入字典信息基于稀疏表示的图像融合方法:中国,CN2019108681564[P].2020-01-14)。张铖方提出一种基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法,综合两种模型的优点,不仅改善了图像融合的质量,而且增强了关键细节信息的对比度(张铖方.基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法:中国,CN2020102875732[P].2020-07-17)。目前基于深度学习的图像融合大多采用监督学习的方式来训练网络,云南大学的王长城等提出一种基于无监督深度学习模型的多聚焦图像融合算法,将注意力机制的encoder-decoder网络模型引入训练过程中,最终得到的图像清晰度高且失真度小(王长城,周冬明,刘琰煜,谢诗冬.无监督深度学习模型的多聚焦图像融合算法[J/OL].计算机工程与应用:1-12[2020-11-25].)。
综上,目前主流的图像融合算法可以分为以下几类,第一类是基于空间域变换的像素或区域融合方法,该类方法结构复杂度较低且算法实施所需时间较短,但抗干扰能力较弱,图像融合精度不高;第二类是基于多尺度分解的方法,包括小波变换和图像金字塔框架等,利用此类方法若想获得融合质量较高的图像,应对图像进行多次分层操作,但此类方法普遍存在细节及边缘信息易丢失的问题,图像对比度损失较大,鲁棒性有待增强;第三类是基于稀疏表示原理模型的方法,虽然能够解决细节模糊问题,但融合图像的亮度较暗;第四类是基于深度学习的方法,通过构建卷积神经网络来实现图像融合操作,是目前性能较为优异的方法,但对于分辨率较低的源图像来说,所得融合图像的效果不能完全让人满意。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种基于空间通用自回归模型的图像融合方法。
为达到上述目的,本发明提供一种基于空间通用自回归模型的图像融合方法,包括:
基于空间通用自回归模型实现图像配准;
对待融合源图像进行平移处理;
平移处理后的待融合源图像加权平均得到粗融合后的图像;
建立一阶非因果空间自回归模型,粗融合后的图像完成精融合。
优先地,基于空间通用自回归模型实现图像配准,包括:
定义A(x,y)是左图像,定义B(x,y)是右图像,A(x,y)和B(x,y)为待融合源图像,A(x,y)和B(x,y)均位于图片中;
定义A(x,y)上的特征点ai的像素坐标为(xi,yi),定义B(x,y)上的特征点bj的像素坐标为(xj,yj),令特征点ai和特征点bj是一对配准点,那么A(x,y)和B(x,y)沿x像素坐标轴平移量tx=xi-xj,A(x,y)和B(x,y)沿y像素坐标轴平移量ty=yi-yj
优先地,对待融合源图像进行平移处理,包括:
1)从右图像B(x,y)右下角开始,基于图像双线性内插算法利用第一类待插值像素点领域内B(x,y)中四个已知像素点,依次对第一类待插值像素点进行求解;
2)从右图像B(x,y)右下角开始,第一类待插值像素点采用一阶强回归空间自回归模型依次对第二类待插值像素点进行预报,具体过程包括:
①一阶强回归空间自回归模型的建立与一阶强回归空间自回归模型的参数估计:找到距离第二类待插值像素点欧氏距离最小的已知像素点bi,j,利用该像素点从B(x,y)上得到一个npixels×n pixels的图像块一,其中3≤n≤8,建立一阶强回归模型如下:
bi,j=α1bi+1,j+12bi+1,j3bi,j+1i,j
式中,bi,j表示图像块一中像素坐标为(i,j)的像素点的灰度值,bi+1,j+1表示图像块一中像素坐标为(i+1,j+1)的像素点的灰度值,bi+1,j表示图像块一中像素坐标为(i+1,j)的像素点的灰度值,,bi,j+1表示图像块一中像素坐标为(i,j+1)的像素点的灰度值,i≥1,j≥1,i≤n-1,j≤n-1;α1、α2和α3预先设定的一阶强回归空间自回归模型的参数;εi,j是坐标为(i,j)像素点的建模残差;
对一个大小为n pixels×n pixels的图像块一,上述方程可以列出(n-1)×(n-1)个,上述方程写成矩阵形式如下:
式中,b1,1、b1,2、……、bn,n表示坐标为(1,1)、(1,2)、……、(n,n)的像素点的灰度值,ε1,1、ε1,1、……、εn-1,n-1是分别与坐标为(1,1)、(1,2)、……、(n-1,n-1)的像素点对应的建模残差;
则最小二乘法估计一阶强回归空间自回归模型的参数的估计值为/>和/>分别是α1、α2和α3的最小二乘估计;
②第一类待插值像素点或第二类待插值像素点利用一阶强回归空间自回归模型,预报第二类待插值像素点的灰度值
3)得到图像B(x,y)平移后的右图像B′(x,y)。
优先地,设置第一类待插值像素点为图片中的黑色方块,设置第二类待插值像素点为图片中的虚线空心圆圈,从而区分第一类待插值像素点和第二类待插值像素点。
优先地,从右图像右下角开始,第一类待插值像素点采用一阶强回归空间自回归模型对第二类待插值像素点进行预报,右图像中预报顺序为从右图像右下角开始自下向上依次完成一列像素后再向左移动一个像素,每列像素重复自下向上完成,直到右图像中的所有像素完成预报。
优先地,平移处理后的待融合源图像加权平均得到粗融合后的图像,包括:
F1(x,y)=γ·A(x,y)+(1-γ)·B′(x,y),γ是权值,0<γ<1,F1(x,y)是粗融合后的图像。
优先地,建立一阶非因果空间自回归模型,粗融合后的图像完成精融合,包括:
1)从F1(x,y)上得到一个m pixels×m pixels的图像块二,且5≤m≤8;
2)建立一阶非因果空间自回归模型,并估计模型参数:
式中,ai,j表示图像块二中像素坐标为(i,j)像素点的灰度值,ai-1,j-1表示图像块二中像素坐标为(i-1,j-1)的像素点的灰度值,ai-1,j表示图像块二中像素坐标为(i-1,j)的像素点的灰度值,ai-1,j+1表示图像块二中像素坐标为(i-1,j+1)的像素点的灰度值,ai,j-1表示图像块二中像素坐标为(i,j-1)的像素点的灰度值,ai,j+1表示图像块二中像素坐标为(i,j+1)的像素点的灰度值,ai+1,j-1表示图像块二中像素坐标为(i+1,j-1)的像素点的灰度值,ai+1,j表示图像块二中像素坐标为(i+1,j)的像素点的灰度值,ai+1,j+1表示图像块二中像素坐标为(i+1,j+1)的像素点的灰度值,i≥2,j≥2,i≤m-1,j≤m-1;
和/>是预先设定的一阶非因果空间自回归模型的参数;δi,j是坐标为(i,j)像素点的建模残差;
对一个大小为m pixels×m pixels的图像块,上述方程可以列出(m-2)×(m-2)个,上述方程写成矩阵形式如下:
式中,a1,1、a1,2、……、am,m表示坐标为(1,1)、(1,2)、……、(m,m)的像素点的灰度值,δ2,2、δ2,3、……、δm-1,m-1是坐标为(2,2)、(2,3)、……、(m-1,m-1)的像素点的建模残差;
则最小二乘法估计一阶强回归空间自回归模型的参数为/>
3)根据估计/>是得到ai,j的估计值/>其中i≥2,j≥2,i≤m-1,j≤m-1,如果/>则表示右图像B′(x,y)有噪声,用/>代替ai,j;如果/>则表示F1(x,y)有“空洞”不连续,用/>代替原来的ai,j;T1和T2是设定的阈值;
4)根据第3)步的结果,更新矩阵A为A(1)
5)令矩阵C=A-A(1),求矩阵C的||C||2,如果||C||2≤δ,则当前图像块二的精融合过程结束;否则,令A(1)代替第3)步中的A,重复第3)步、第4)步及第5)步,直到不等式||C||2≤δ成立,结束当前图像块二的精融合过程;
6)判断整个F1(x,y)是否都完成了精融合,若整个F1(x,y)没有完成精融合则在F1(x,y)上平移m个像素,平移顺序为先水平后垂直或者先垂直再水平,从F1(x,y)上再取一个m pixels×m pixels的图像块三,对新获得的图像块三运行前述第2)至第5)步进行精融合,重复本步骤直到F1(x,y)都完成了精融合;
若整个F1(x,y)都完成了精融合,则得到最终的精融合图像F2(x,y),结束运行。
本发明所达到的有益效果:
本发明提出一种基于空间通用自回归模型的图像融合方法,将图像融合分为粗融合和精融合两个过程,通过图像融合过程中引入空间自回归模型,使得提出的图像融合算法具有较好高的抗噪声干扰能力,且能有效地保护图像边缘等特征,从而能够有效提高图像融合的鲁棒性,克服现有图像融合算法各自存在的缺陷。
附图说明
图1是图像融合的示意图;
图2是实施例一中空间自回归模型建模用图像块的示意图;
图3是实施例一中空间自回归模型插值用图像块的示意图;
图4是实施例二中空间自回归模型建模用图像块的示意图。
具体实施方式
以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例一
对B(x,y)图像进行平移处理包括以下步骤:
1)从B图像的右下角开始,采用图像双线性内插算法,利用第一类待插值像素点领域内B(x,y)图像中四个已知像素点,B(x,y)图像中四个已知像素点即图1中的实心黑色点,依次对待插值的像素点进行求解;
2)从B图像的右下角开始,利用第一类待插值得到的第一类待插值像素点,采用一阶强回归空间自回归模型,依次对第二类待插值像素点进行预报,具体过程包括两个子步骤:
①一阶强回归空间自回归模型的建立与参数估计:找到距离第二类待插值像素点欧氏距离最小的已知像素点,利用该像素点从B(x,y)图像上得到一个n pixels×n pixels的图像块,n取值不超过8,本实施例中以n=3为例,具体实施:
式中ε1234是均值为零的高斯噪声项,a1、a2、a3、a4、a5、a6、a7、a8、a9表示像素点的灰度值,它们之间的位置关系见图2。
α=[α1 α2 α3]T是一阶强回归空间自回归模型的参数,用最小二乘方估计α=[α1α2 α3]T,求解结果为是α的最小二乘估计,其中:
bn=3=[a5 a6 a8 a9]T
②根据第一类待插值像素点或已经求出的第二类待插值像素点,利用一阶强回归空间自回归模型,预报第二类待插值像素点的灰度值是第一类待插值像素点或已经求出的第二类待插值像素点的灰度值,/>表示第二类待插值像素点的灰度值,/>它们的位置关系见图3。
3)得到图像B(x,y)平移后的图像B′(x,y)图像。
实施例二
与实施例一不同的是,本实施例中建立一阶非因果空间自回归模型,完成精融合包括以下步骤:
1)从F1(x,y)上得到一个m pixels×m pixels的图像块二,5≤m≤8,以大小5pixels×5pixels的图像块二为例,说明精融合过程;
2)建立一阶非因果空间自回归模型,估计模型参数:
式中δ22、δ23、δ24、δ32、δ33、δ34、δ42、δ43、δ44是均值为零的高斯噪声项;a11、a12、a13、a14、a15、a21、a22、a23、a24、a25、a31、a32、a33、a34、a35、a41、a42、a43、a44、a45、a51、a52、a53、a54、a55表示像素点的灰度值,它们的位置关系见图4。
是一阶非因果空间自回归模型的参数,用最小二乘方估计/>求解结果为/>是/>的最小二乘估计,/>其中,bm=5=[a22 a23 a24a32 a33 a34 a42 a43 a44]T
3)根据Am=5按/>估计/>即得到aij的估计值/>其中2≤i,j≤4,如果/>则源图像有噪声,用/>代替aij;或者,如果/>则融合图像有“空洞”不连续,也用预报至/>代替原来的aij;T1和T2是设定的阈值;
4)根据第3)步的结果,更新矩阵Am=5
5)令矩阵求矩阵C的||C||2,如果||C||2≤δ,则当前图像块二的精融合过程结束;否则,令用/>代替第3)步中的Am=5,重复第3)步、第4)步及第5)步,直到不等式||C||2≤δ成立,结束当前图像块二的精融合过程;其中,令矩阵C=A-A(1),求矩阵C的||C||2,这一计算步骤,是《线性代数》或者《矩阵论》等相关课程中,为大家所熟知的知识,求矩阵的二范数,本方法不再详细阐述。
6)平移m个像素,平移顺序为先水平后垂直或者先垂直再水平,从F1(x,y)上再取一个m pixels×m pixels的图像块三,对新获得的图像块三,运行前述第2)至第5)步进行精融合,直到对整个F1(x,y)都完成了精融合,得到最终的精融合图像F2(x,y)。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (3)

1.一种基于空间通用自回归模型的图像融合方法,其特征在于,包括:
基于空间通用自回归模型实现图像配准,包括:
定义A(x,y)是左图像,定义B(x,y)是右图像,A(x,y)和B(x,y)为待融合源图像,A(x,y)和B(x,y)均位于图片中;
定义A(x,y)上的特征点ai的像素坐标为(xi,yi),定义B(x,y)上的特征点bj的像素坐标为(xj,yj),令特征点ai和特征点bj是一对配准点,那么A(x,y)和B(x,y)沿x像素坐标轴平移量tx=xi-xj,A(x,y)和B(x,y)沿y像素坐标轴平移量ty=yi-yj
对待融合源图像进行平移处理,包括:
A1)从右图像B(x,y)右下角开始,基于图像双线性内插算法利用第一类待插值像素点领域内B(x,y)中四个已知像素点,依次对第一类待插值像素点进行求解;
A2)从右图像B(x,y)右下角开始,第一类待插值像素点采用一阶强回归空间自回归模型依次对第二类待插值像素点进行预报,具体过程包括:
①一阶强回归空间自回归模型的建立与一阶强回归空间自回归模型的参数估计:找到距离第二类待插值像素点欧氏距离最小的已知像素点bi,j,利用该像素点从B(x,y)上得到一个n pixels×n pixels的图像块一,其中3≤n≤8,建立一阶强回归模型如下:
bi,j=α1bi+1,j+12bi+1,j3bi,j+1i,j
式中,bi,j表示图像块一中像素坐标为(i,j)的像素点的灰度值,bi+1,j+1表示图像块一中像素坐标为(i+1,j+1)的像素点的灰度值,bi+1,j表示图像块一中像素坐标为(i+1,j)的像素点的灰度值,bi,j+1表示图像块一中像素坐标为(i,j+1)的像素点的灰度值,i≥1,j≥1,i≤n-1,j≤n-1;
α1、α2和α3预先设定的一阶强回归空间自回归模型的参数;εi,j是坐标为(i,j)像素点的建模残差;
对一个大小为n pixels×n pixels的图像块一,上述方程可以列出(n-1)×(n-1)个,上述方程写成矩阵形式如下:
式中,b1,1、b1,2、……、bn,n表示坐标为(1,1)、(1,2)、……、(n,n)的像素点的灰度值,ε1,1、ε1,1、……、εn-1,n-1是分别与坐标为(1,1)、(1,2)、……、(n-1,n-1)的像素点对应的建模残差;
则最小二乘法估计一阶强回归空间自回归模型的参数的估计值为/> 和/>分别是α1、α2和α3的最小二乘估计;
②第一类待插值像素点或第二类待插值像素点利用一阶强回归空间自回归模型,预报第二类待插值像素点的灰度值
A3)得到图像B(x,y)平移后的右图像B′(x,y);
平移处理后的待融合源图像加权平均得到粗融合后的图像,包括:
F1(x,y)=γ·A(x,y)+(1-γ)·B′(x,y),γ是权值,0<γ<1,F1(x,y)是粗融合后的图像;
建立一阶非因果空间自回归模型,粗融合后的图像完成精融合,包括:
B1)从F1(x,y)上得到一个m pixels×m pixels的图像块二,且5≤m≤8;
B2)建立一阶非因果空间自回归模型,并估计模型参数:
式中,ai,j表示图像块二中像素坐标为(i,j)像素点的灰度值,ai-1,j-1表示图像块二中像素坐标为(i-1,j-1)的像素点的灰度值,ai-1,j表示图像块二中像素坐标为(i-1,j)的像素点的灰度值,ai-1,j+1表示图像块二中像素坐标为(i-1,j+1)的像素点的灰度值,ai,j-1表示图像块二中像素坐标为(i,j-1)的像素点的灰度值,ai,j+1表示图像块二中像素坐标为(i,j+1)的像素点的灰度值,ai+1,j-1表示图像块二中像素坐标为(i+1,j-1)的像素点的灰度值,ai+1,j表示图像块二中像素坐标为(i+1,j)的像素点的灰度值,ai+1,j+1表示图像块二中像素坐标为(i+1,j+1)的像素点的灰度值,i≥2,j≥2,i≤m-1,j≤m-1;
和/>是预先设定的一阶非因果空间自回归模型的参数;δi,j是坐标为(i,j)像素点的建模残差;
对一个大小为m pixels×m pixels的图像块,上述方程可以列出(m-2)×(m-2)个,上述方程写成矩阵形式如下:
式中,a1,1、a1,2、……、am,m表示坐标为(1,1)、(1,2)、……、(m,m)的像素点的灰度值,δ2,2、δ2,3、……、δm-1,m-1是坐标为(2,2)、(2,3)、……、(m-1,m-1)的像素点的建模残差;
则最小二乘法估计一阶强回归空间自回归模型的参数为/>
B3)根据估计/>是得到ai,j的估计值/>其中i≥2,j≥2,i≤m-1,j≤m-1,如果/>则表示右图像B′(x,y)有噪声,用/>代替ai,j;如果/>则表示F1(x,y)有“空洞”不连续,用/>代替原来的ai,j;T1和T2是设定的阈值;
B4)根据第3)步的结果,更新矩阵A为A(1)
B5)令矩阵C=A-A(1),求矩阵C的||C||2,如果||C||2≤δ,则当前图像块二的精融合过程结束;否则,令A(1)代替第3)步中的A,重复第3)步、第4)步及第5)步,直到不等式||C||2≤δ成立,结束当前图像块二的精融合过程;
B6)判断整个F1(x,y)是否都完成了精融合,若整个F1(x,y)没有完成精融合则在F1(x,y)上平移m个像素,平移顺序为先水平后垂直或者先垂直再水平,从F1(x,y)上再取一个mpixels×m pixels的图像块三,对新获得的图像块三运行前述第2)至第5)步进行精融合,重复本步骤直到F1(x,y)都完成了精融合;
若整个F1(x,y)都完成了精融合,则得到最终的精融合图像F2(x,y),结束运行;
建立一阶非因果空间自回归模型,粗融合后的图像完成精融合。
2.根据权利要求1所述的一种基于空间通用自回归模型的图像融合方法,其特征在于,设置第一类待插值像素点为图片中的黑色方块,设置第二类待插值像素点为图片中的虚线空心圆圈,从而区分第一类待插值像素点和第二类待插值像素点。
3.根据权利要求1所述的一种基于空间通用自回归模型的图像融合方法,其特征在于,从右图像右下角开始,第一类待插值像素点采用一阶强回归空间自回归模型对第二类待插值像素点进行预报,右图像中预报顺序为从右图像右下角开始自下向上依次完成一列像素后再向左移动一个像素,每列像素重复自下向上完成,直到右图像中的所有像素完成预报。
CN202110342693.2A 2021-03-30 2021-03-30 一种基于空间通用自回归模型的图像融合方法 Active CN112927272B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110342693.2A CN112927272B (zh) 2021-03-30 2021-03-30 一种基于空间通用自回归模型的图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110342693.2A CN112927272B (zh) 2021-03-30 2021-03-30 一种基于空间通用自回归模型的图像融合方法

Publications (2)

Publication Number Publication Date
CN112927272A CN112927272A (zh) 2021-06-08
CN112927272B true CN112927272B (zh) 2023-12-12

Family

ID=76176658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110342693.2A Active CN112927272B (zh) 2021-03-30 2021-03-30 一种基于空间通用自回归模型的图像融合方法

Country Status (1)

Country Link
CN (1) CN112927272B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107481250A (zh) * 2017-08-30 2017-12-15 吉林大学 一种图像分割方法及其评价方法和图像融合方法
CN107516293A (zh) * 2016-06-17 2017-12-26 北京大学 图像插值方法和图像插值系统
CN109002828A (zh) * 2018-07-05 2018-12-14 东华理工大学 基于均值跳动迹变换的图像纹理特征提取方法
CN109785370A (zh) * 2018-12-12 2019-05-21 南京工程学院 一种基于空间时间序列模型的弱纹理图像配准方法
CN110135374A (zh) * 2019-05-21 2019-08-16 吉林大学 采用图像块特征识别与回归分类的火灾烟雾检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8537172B2 (en) * 2008-08-25 2013-09-17 Technion Research & Development Foundation Limited Method and system for processing an image according to deterministic and stochastic fields
US8848802B2 (en) * 2009-09-04 2014-09-30 Stmicroelectronics International N.V. System and method for object based parametric video coding
US8861815B2 (en) * 2011-08-03 2014-10-14 International Business Machines Corporation Systems and methods for modeling and processing functional magnetic resonance image data using full-brain vector auto-regressive model

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107516293A (zh) * 2016-06-17 2017-12-26 北京大学 图像插值方法和图像插值系统
CN107481250A (zh) * 2017-08-30 2017-12-15 吉林大学 一种图像分割方法及其评价方法和图像融合方法
CN109002828A (zh) * 2018-07-05 2018-12-14 东华理工大学 基于均值跳动迹变换的图像纹理特征提取方法
CN109785370A (zh) * 2018-12-12 2019-05-21 南京工程学院 一种基于空间时间序列模型的弱纹理图像配准方法
CN110135374A (zh) * 2019-05-21 2019-08-16 吉林大学 采用图像块特征识别与回归分类的火灾烟雾检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Spatial general autoregressive model-based image interpolation accommodates arbitrary scale factors;Yuntao Hu et al.;《Mathematical Biosciences and Engineering》;全文 *
基于插值与剪切波融合的图像超分辨率重建;殷明 等;计算机工程(05);全文 *
应用通用自回归模型实现图像的自适应滤波;郝飞 等;《光学精密工程》;全文 *

Also Published As

Publication number Publication date
CN112927272A (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN110473154B (zh) 一种基于生成对抗网络的图像去噪方法
CN110503680B (zh) 一种基于非监督的卷积神经网络单目场景深度估计方法
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN109685743B (zh) 基于噪声学习神经网络模型的图像混合噪声消除方法
Tang et al. Delicate textured mesh recovery from nerf via adaptive surface refinement
CN112270651B (zh) 一种基于多尺度判别生成对抗网络的图像修复方法
Wang et al. Channel and space attention neural network for image denoising
CN113111861A (zh) 人脸纹理特征提取、3d人脸重建方法及设备及存储介质
CN113450396B (zh) 基于骨骼特征的三维/二维图像配准方法及装置
CN111080591A (zh) 基于编码解码结构结合残差模块的医学图像分割方法
CN113487739A (zh) 一种三维重建方法、装置、电子设备及存储介质
CN114266768B (zh) 表面划痕缺陷图像生成方法
CN113870128A (zh) 一种基于深度卷积对抗式网络的数字壁画图像修复方法
CN115761178A (zh) 基于隐式神经表示的多视图三维重建方法
CN114359076A (zh) 一种基于图像边缘指示函数的自适应加权高斯曲率滤波方法
CN113362375A (zh) 用于车辆的运动目标检测方法
CN112581397A (zh) 一种基于图像先验信息的退化图像修复方法及其应用
CN116051382A (zh) 一种基于深度强化学习生成式对抗神经网络和超分辨率重建的数据增强方法
Shen et al. Deeper super-resolution generative adversarial network with gradient penalty for sonar image enhancement
CN112927272B (zh) 一种基于空间通用自回归模型的图像融合方法
CN111369449A (zh) 基于生成式对抗网络的红外盲元补偿方法
CN113421210B (zh) 一种基于双目立体视觉的表面点云重建方法
CN111145125A (zh) 一种基于残差学习与卷积神经网络的图像去噪方法
CN112258546A (zh) 一种slam系统的关键帧选取方法
CN116883259A (zh) 一种基于去噪扩散概率模型的水下图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant