CN110120029B - 基于感知哈希算法的图像融合方法 - Google Patents
基于感知哈希算法的图像融合方法 Download PDFInfo
- Publication number
- CN110120029B CN110120029B CN201910397082.0A CN201910397082A CN110120029B CN 110120029 B CN110120029 B CN 110120029B CN 201910397082 A CN201910397082 A CN 201910397082A CN 110120029 B CN110120029 B CN 110120029B
- Authority
- CN
- China
- Prior art keywords
- images
- sub
- image
- fusion
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000002474 experimental method Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000000513 principal component analysis Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006386 neutralization reaction Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于感知哈希算法的图像融合方法,属于图像处理技术领域。该方法首先将待融合的两幅彩色图像转换为灰度图像,然后对两幅灰度图像进行子块划分,得到一系列子图像,接下来计算子图像的聚焦测度。利用感知哈希算法计算每一对子图像的“指纹”,并计算每一对子图像的“指纹”的匹配程度。最后根据子图像指纹相似度的不同,采取不同的融合策略进行图像融合。本发明采用感知哈希算法计算子图像相似度,充分考虑了图像不同区域的聚焦程度,有助于准确匹配融合图像的低聚焦区域与高聚焦区域,降低了其他融合方法存在的图像扭曲与失真等问题,充分保留了彩色图像原有的细节信息,提高了融合图像的质量。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于感知哈希算法的图像融合方法。
背景技术
图像融合是将多个成像传感器或同一传感器在不同的时间所获得的关于同一场景的图像信息加以综合,以获得新的关于此场景更准确的描述。图像融合的主要目的是减少由单一成像传感器所获取的图像信息的不确定性,它通过对多幅图像间信息的互补来为后续的决策提供更可靠的信息来源。图像融合技术被广泛地应用于军事安全,医学影像和遥感等诸多领域,取得了许多令人瞩目的成绩。一般而言,图像融合分为像素级融合、特征级融合和决策级融合三个层次。其中像素级融合又分为空间域方法与变换域方法,是图像融合三个层次中最基本的融合,得到的图像具有更多的细节信息。
在当前的图像融合研究和应用中,涉及最多的是像素级图像融合,图像融合狭义上指的是像素级图像融合,目前提出的绝大多数的图像融合方法均属于该层次上的融合。常见的红外和可见光图像融合以及遥感图像融合,很多都是从像素级入手,基于已有的融合方法,根据实际情况,来设立融合规则,得到适合实际应用场景的融合图像。
像素级融合有利于边缘和纹理的提取,方便对图像做进一步的分析、处理与理解,还能够把潜在的目标体现出来。通过判断潜在的目标像素点,可以尽可能多的保存源图像中的信息,使得融合后的图像不论是内容还是细节均有所增加。
常用的像素级图像融合方法有:加权平均方法、对比调制方法、空间域或频率域滤波方法、主成分分析方法、基于颜色模型变换的方法、金字塔分解方法与小波变换等方法,这些方法虽然获得了较好的数据指标,但存在图像的颜色扭曲与失真,无法充分还原彩色图像的细节信息。
发明内容
本发明提出了一种基于感知哈希算法的图像融合方法,目的在于解决以上图像融合过程中出现的颜色扭曲与失真问题,充分还原彩色图像细节信息,提高融合图像质量。
感知哈希算法通过对每张图像生成一个字符串“指纹”,然后比较不同图像的指纹,结果越接近,就说明图像越相似,在图像搜索匹配等领域被广泛应用。
该融合方法具体步骤如下:
步骤S101,将待融合的两幅彩色图像转换为灰度图像;
步骤S102,对两幅灰度图像进行子块划分,得到一系列子图像;
步骤S103,计算每一对子图像的聚焦测度;
步骤S104,利用感知哈希算法计算每一对子图像的“指纹”;
步骤S105,计算每一对子图像的“指纹”的匹配程度,即计算子图像hash指纹相似度;
步骤S106,根据子图像指纹相似度的不同,采取不同的融合策略:当子图像相似度匹配程度较高时(相似度大于0.5),直接选取聚焦测度较大的子图像作为融合结果的一部分,当子图像相似度匹配程度较低时(相似度小于或等于0.5),采用聚焦测度得到待融合图像的边缘清晰部分进行融合;
优选地,所述步骤S103中子图像聚焦测度采用方向统计方法来计算,具体而言是根据当前像素点的邻域像素来计算该像素点在水平、垂直、左对角线(45度角方向)和右对角线(135度角)方向上5个像素的标准差σ和平均值μ,为了抵消不同子图像区域像素值的差异,使用标准差除以平均值作为相应方向上的聚焦测度,4个方向上的聚焦测度平均值作为该像素点的聚焦测度,邻域选取采用以下模板T:
优选地,所述步骤S104中子图像的“指纹”的计算过程如下:将子图像每个像素的灰度值与该子图像灰度的平均值进行比较,大于平均值,记为1,小于或等于平均值,记为0,将比较结果组合在一起便得到了该子图像的一个“指纹”。
优选地,所述步骤S105中hash指纹相似度的计算采用汉明距离来实现。
优选地,所述步骤S106中相似度匹配与融合具体实现过程是:根据每一对子图像计算所得到的相似度,将子图像的匹配程度分为相似与不相似两组。通过实验,本发明将hash指纹相似度大于0.5时认定为图像相似,小于或等于0.5时认定为不相似。相似度高的子图像位于待融合图像的非聚焦边缘处,只需要选取清晰部分的子图像,即平均聚焦测度大的子图像进行融合。相似度低的子图像,处于聚焦边缘处,图像扭曲程度较大,需逐点进行对比并进行融合。
本发明与现有技术相比所具有的有益效果是:
第一,本发明采用感知哈希算法计算子图像相似度,充分考虑了图像不同区域的聚焦程度,有助于准确匹配融合图像的低聚焦区域与高聚焦区域,可以更好地提取源图像的有效信息。
第二,本发明通过相似度匹配,以及子图像聚焦测度,对不同聚焦区域采取相应的融合策略,最大程度保留了源图像的细节信息。在实现图像融合的同时,尽可能地降低了其他融合方法所存在的图像扭曲与失真等问题,充分保留了彩色图像原有的细节信息,融合后的图像更大程度地接近源图像的清晰部分。
附图说明
图1为基于感知哈希算法的图像融合实施步骤框图;
图2为实施例中的第一幅源图像IA;
图3为实施例中的第二幅源图像IB;
图4为实施例中分别采用本发明所提出的方法和其他7种方法对图2和图3的两幅源图像进行融合的结果;其中(a)为本发明所提出的基于感知哈希算法(PHA)的融合结果图,(b)为基于修正拉普拉斯方法(SML)的融合结果图,(c)为基于梯度(Gradient)的融合结果图,(d)为基于主成份分析(PCA)的融合结果图,(e)为传统小波变换(DWT)的分通道图像融合结果图,(f)为基于二维经验模态分解(BEMD)的融合结果图,(g)为采用分块彩色主成份分析(CPCA)的融合结果图,(h)为基于四元数离散傅立叶变换(QDFT)的融合结果图。
具体实施方式
为了便于理解和实施本发明,现结合说明书附图和实施例对本发明的技术方案作进一步详细描述。所描述的实施例仅是本发明一部分实施例,并非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出了一种基于感知哈希算法的图像融合方法,其实施步骤框图如图1所示,本发明的方法对IA、IB两幅多聚焦图像进行融合。
结合图1,本发明的基于感知哈希算法的图像融合方法包括如下步骤:
步骤S101,分别将图2所示的源图像IA与图3所示的源图像IB转换为灰度图像,所得到的灰度图像分别记为GrayA和GrayB。
步骤S102,分别对两幅灰度图像GrayA和GrayB进行子块划分,得到两组子图像GroupA和GroupB,子图像大小为16×16像素,256级灰度。在GroupA和GroupB中,对应分块位置的两幅子图像称为“一对子图像”。
步骤S103,采用方向统计方法来分别计算两组子图像GroupA和GroupB的聚焦测度,具体计算过程如下:
对于GroupA和GroupB中的任意一幅子图像,采用图像遍历的方式来计算每一个像素点的聚焦测度。该计算过程是根据当前像素点的邻域像素来计算该像素点在水平、垂直、左对角线(45度角方向)和右对角线(135度角)方向上5个像素灰度值的标准差σ和平均值μ,为了抵消不同子图像区域像素值的差异,使用标准差除以平均值作为相应方向上的聚焦测度,4个方向上的聚焦测度平均值作为该像素点的聚焦测度,邻域选取采用以下模板T:
使用模板T可以得到当前像素点的聚焦测度,当模板T遍历完整幅子图像后便得到子图像所有像素点的聚焦测度,将每一个像素点的聚焦测度取平均值来作为整幅子图像的平均聚焦测度。
步骤S104,利用感知哈希算法计算子图像GroupA和GroupB中每一对子图像的“指纹”,具体计算步骤如下:
(1)对于GroupA和GroupB,分别计算每一对子图像灰度的平均值;
(2)通过将子图像每个像素的灰度值与该子图像灰度的平均值进行比较得到hash值,具体而言,像素的灰度值大于平均值,记为1,小于或等于平均值,记为0,将比较结果组合在一起,就构成了一个256位的整数,生成的hash值从左到右,从上到下进行保存,所得到的这个大小为16×16的二值矩阵就是该图像的hash值“指纹”;
步骤S105,计算每一对子图像的“指纹”的匹配程度,即采用汉明距离来计算子图像hash指纹相似度。具体而言,对每一对子图像“指纹”进行逐位对比,看其数值是否相等(即进行异或运算),统计比对结果中相等的个数,用该数值除以256就是这一对子图像的“指纹”的相似度(相似度的取值范围是:0~1,该值越大表示两幅子图像相似度越高)。
步骤S106,根据子图像指纹相似度的不同,采取不同的融合策略:当子图像相似度匹配程度较高时(相似度大于0.5),直接选取平均聚焦测度较大的子图像作为融合结果的一部分,当子图像相似度匹配程度较低时(相似度小于或等于0.5),采用聚焦测度得到待融合图像的边缘清晰部分进行融合;
步骤S106中相似度匹配与融合具体实现过程是:根据每一对子图像计算所得到的相似度,将子图像的匹配程度分为相似与不相似两组。通过实验,本发明将hash指纹相似度大于0.5时认定为图像相似,小于或等于0.5时认定为不相似。相似度高的子图像(相似度大于0.5)位于待融合图像的非聚焦边缘处,只需要选取清晰部分的子图像,即平均聚焦测度大的子图像作为融合后的子图像。相似度低的子图像(相似度小于或等于0.5),处于聚焦边缘处,图像扭曲程度较大,按照如下步骤进行融合:
(1)GroupA中和GroupB中相似度低的一对子图像分别标记为子图像a和子图像b;
(2)分别比较子图像a和子图像b中每一个对应像素点的聚焦测度,若以子图像b为参考,选取子图像a中聚焦测度大的像素来换子图像b对应像素点,当遍历完所有的子图像像素点后,子图像b中相对模糊的像素点就被替换掉,此时将子图像b作为融合图像中相应的子图像;
(3)反复执行上述步骤,对GroupA和GroupB中每一对子图像分情况讨论进行处理(即图像的匹配程度是相似还是不相似),处理完后将所有融合后的子图像拼接在一起便得到最终的整幅融合图像。
需要注意的是,在上述步骤中,确定哪个子图像以及哪些像素点作为融合图像的一部分时,只是确定相应的子图像以及像素点的坐标位置(像素点所在的行号和列号),根据这些坐标位置将源图像IA和源图像IB进行整合形成最终的融合图像。
以图2和图3作为原始待融合图像,图4为使用本发明的方法和其他7种不同融合方法所得到的融合图像。通过计算图4中8幅融合图像的客观评价指标来对不同算法进行量化评估。这些评价指标是:互信息、EFQI、Qabf、Viff、WFQI和扭曲度。其中,前5个指标是正向指标,即数值越大表示相应融合方法所得到的融合图像效果越好;而扭曲度指标是负向指标,即数值越小表示相应融合方法所得到的融合图像效果越好。具体结果见下表。
在上表中,第1列为所用评价指标的名称,第2列为本发明融合方法的指标,第3列到第9列分别为基于修正拉普拉斯方法(SML)的指标,基于梯度(Gradient)的指标,基于主成份分析(PCA)的指标,传统小波变换(DWT)的分通道图像融合方法的指标,基于二维经验模态分解(BEMD)的指标,采用分块彩色主成份分析(CPCA)的指标,基于四元数离散傅立叶变换(QDFT)的指标。
从上表数据可以发现,本发明所提出的方法在各项指标上均优于其他对比方法。可以看出互信息、扭曲度、EFQI以及有关视觉清晰度的Viff等评价参数较其他方法的对应参数有较大的提升,这表明本发明所提出的方法能够增强图像的细节表现能力,从源图像提取了更多子带信息并加以融合,所以具有更好的融合效果。通过对实验数据的对比分析,本发明所提出的方法的融合效果与评价指标均优于其他常见方法,具有显著的优势。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.基于感知哈希算法的图像融合方法,其特征在于:具体步骤如下:
步骤S101,将待融合的两幅彩色图像转换为灰度图像;
步骤S102,对两幅灰度图像进行子块划分,得到一系列子图像;
步骤S103,计算每一对子图像的聚焦测度;
步骤S104,利用感知哈希算法计算每一对子图像的“指纹”;
步骤S105,计算每一对子图像的“指纹”的匹配程度,即计算子图像hash指纹相似度;
步骤S106,根据子图像指纹相似度的不同,采取不同的融合策略:当子图像相似度匹配程度较高时,即相似度大于0.5,直接选取聚焦测度较大的子图像作为融合结果的一部分,当子图像相似度匹配程度较低时,即相似度小于或等于0.5,采用聚焦测度得到待融合图像的边缘清晰部分进行融合;
所述步骤S103中子图像聚焦测度采用方向统计方法来计算,具体而言是根据当前像素点的邻域像素来计算该像素点在水平、垂直、左对角线,即45度角方向和右对角线,即135度角方向上5个像素的标准差σ和平均值μ,为了抵消不同子图像区域像素值的差异,使用标准差除以平均值作为相应方向上的聚焦测度,4个方向上的聚焦测度平均值作为该像素点的聚焦测度,邻域选取采用以下模板T:
2.如权利要求1所述的基于感知哈希算法的图像融合方法,其特征在于:所述步骤S104中子图像的“指纹”的计算过程如下:将子图像每个像素的灰度值与该子图像灰度的平均值进行比较,大于平均值,记为1,小于或等于平均值,记为0,将比较结果组合在一起便得到了该子图像的一个“指纹”。
3.如权利要求1所述的基于感知哈希算法的图像融合方法,其特征在于:所述步骤S105中hash指纹相似度的计算采用汉明距离来实现。
4.如权利要求1所述的基于感知哈希算法的图像融合方法,其特征在于:所述步骤S106中相似度匹配与融合具体实现过程是:根据每一对子图像计算所得到的相似度,将子图像的匹配程度分为相似与不相似两组;通过实验,本发明将hash指纹相似度大于0.5时认定为图像相似,小于或等于0.5时认定为不相似;相似度高的子图像位于待融合图像的非聚焦边缘处,只需要选取清晰部分的子图像,即平均聚焦测度大的子图像进行融合;相似度低的子图像,处于聚焦边缘处,图像扭曲程度较大,需逐点进行对比并进行融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910397082.0A CN110120029B (zh) | 2019-04-30 | 2019-04-30 | 基于感知哈希算法的图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910397082.0A CN110120029B (zh) | 2019-04-30 | 2019-04-30 | 基于感知哈希算法的图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110120029A CN110120029A (zh) | 2019-08-13 |
CN110120029B true CN110120029B (zh) | 2023-06-23 |
Family
ID=67522274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910397082.0A Active CN110120029B (zh) | 2019-04-30 | 2019-04-30 | 基于感知哈希算法的图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110120029B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807828B (zh) * | 2019-10-28 | 2020-05-08 | 北京林业大学 | 一种倾斜摄影三维重建匹配方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102063713A (zh) * | 2010-11-11 | 2011-05-18 | 西北工业大学 | 基于邻域归一化梯度和邻域标准差的多聚焦图像融合方法 |
CN103914561A (zh) * | 2014-04-16 | 2014-07-09 | 北京酷云互动科技有限公司 | 一种图像搜索方法和装置 |
CN105844674A (zh) * | 2016-03-02 | 2016-08-10 | 淮阴师范学院 | 基于三元数小波变换的彩色图像融合系统及方法 |
CN108090894A (zh) * | 2017-11-24 | 2018-05-29 | 浙江理工大学 | 基于距离匹配函数和感知哈希算法的织物疵点检测方法 |
EP3355279A1 (en) * | 2017-01-30 | 2018-08-01 | 3D Repo Ltd | Method and computer programs for identifying differences between 3-dimensional scenes |
CN109584193A (zh) * | 2018-10-24 | 2019-04-05 | 航天时代飞鸿技术有限公司 | 一种基于目标预提取的无人机红外与可见光图像融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101354704B (zh) * | 2007-07-23 | 2011-01-12 | 夏普株式会社 | 字形特征字典制作装置及具备该装置的文档图像处理装置 |
-
2019
- 2019-04-30 CN CN201910397082.0A patent/CN110120029B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102063713A (zh) * | 2010-11-11 | 2011-05-18 | 西北工业大学 | 基于邻域归一化梯度和邻域标准差的多聚焦图像融合方法 |
CN103914561A (zh) * | 2014-04-16 | 2014-07-09 | 北京酷云互动科技有限公司 | 一种图像搜索方法和装置 |
CN105844674A (zh) * | 2016-03-02 | 2016-08-10 | 淮阴师范学院 | 基于三元数小波变换的彩色图像融合系统及方法 |
EP3355279A1 (en) * | 2017-01-30 | 2018-08-01 | 3D Repo Ltd | Method and computer programs for identifying differences between 3-dimensional scenes |
CN108090894A (zh) * | 2017-11-24 | 2018-05-29 | 浙江理工大学 | 基于距离匹配函数和感知哈希算法的织物疵点检测方法 |
CN109584193A (zh) * | 2018-10-24 | 2019-04-05 | 航天时代飞鸿技术有限公司 | 一种基于目标预提取的无人机红外与可见光图像融合方法 |
Non-Patent Citations (2)
Title |
---|
Liqiang Guo等.Focus Measure Based on the Image Moments.Proceedings of 2018 IEEE International Conference on Mechatronics and Automation.2018,第1151-1156页. * |
姜波等.基于边缘定位的局部小波变换融合.淮阴师范学院学报(自然科学版).2018,第138-142页. * |
Also Published As
Publication number | Publication date |
---|---|
CN110120029A (zh) | 2019-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107918927B (zh) | 一种匹配策略融合及低误差的快速图像拼接方法 | |
CN103221975B (zh) | 三维成像系统 | |
Bhat et al. | Multi-focus image fusion techniques: a survey | |
Mitchell | Image fusion: theories, techniques and applications | |
CN104008538B (zh) | 基于单张图像超分辨率方法 | |
WO2018000752A1 (zh) | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 | |
CN106204509B (zh) | 基于区域特性的红外与可见光图像融合方法 | |
CN111445389A (zh) | 一种高分辨率图像的宽视角快速拼接方法 | |
CN111784620B (zh) | 空间信息引导角度信息的光场相机全聚焦图像融合算法 | |
CN109523583B (zh) | 一种基于反馈机制的电力设备红外与可见光图像配准方法 | |
CN110111292B (zh) | 一种红外与可见光图像融合方法 | |
KR101567792B1 (ko) | 이미지 윤곽 묘사 시스템 및 방법 | |
KR20130112311A (ko) | 고밀도 삼차원 영상 재구성 장치 및 방법 | |
CN107154017A (zh) | 一种基于sift特征点匹配的图像拼接方法 | |
WO2014180255A1 (zh) | 一种数据处理方法、装置、计算机存储介质及用户终端 | |
CN109285183B (zh) | 一种基于运动区域图像清晰度的多模视频图像配准方法 | |
CN113538569A (zh) | 一种弱纹理物体位姿估计方法和系统 | |
JP7156624B2 (ja) | デプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラム | |
CN110120029B (zh) | 基于感知哈希算法的图像融合方法 | |
CN109462748B (zh) | 一种基于单应性矩阵的立体视频颜色校正算法 | |
Xiao et al. | DMDN: Degradation model-based deep network for multi-focus image fusion | |
CN111127353A (zh) | 一种基于块配准和匹配的高动态图像去鬼影方法 | |
CN111179173A (zh) | 一种基于离散小波变换和坡度融合算法的图像拼接方法 | |
CN112465702B (zh) | 一种多路超高清视频同步自适应拼接显示处理方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |