CN110232655B - 一种用于煤场的红外-可见光双光图像拼接与融合方法 - Google Patents

一种用于煤场的红外-可见光双光图像拼接与融合方法 Download PDF

Info

Publication number
CN110232655B
CN110232655B CN201910510500.2A CN201910510500A CN110232655B CN 110232655 B CN110232655 B CN 110232655B CN 201910510500 A CN201910510500 A CN 201910510500A CN 110232655 B CN110232655 B CN 110232655B
Authority
CN
China
Prior art keywords
points
image
images
point
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910510500.2A
Other languages
English (en)
Other versions
CN110232655A (zh
Inventor
张剑华
程豪豪
金坤
郭东岩
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910510500.2A priority Critical patent/CN110232655B/zh
Publication of CN110232655A publication Critical patent/CN110232655A/zh
Application granted granted Critical
Publication of CN110232655B publication Critical patent/CN110232655B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种用于煤场的红外‑可见光双光图像拼接与融合方法,先使用SIFT检测算子检测图像的特征点,然后使用HOG进行特征描述,将获得的描述子使用最近邻比次近邻匹配,接着使用RANSAC进行外点移除,然后计算单应矩阵,之后使用Bundle Adjustment进行微调,此时对于可见光图像可以进行拼接得到煤场全景图,接着,对于红外图和煤场全景图进行配准,最后送入深度学习模块进行融合得到红外‑可见光融合图像。本发明能够适应煤场的恶劣环境,提供红外‑可见光双光拼接融合图像,有利于煤场工作人员进行现场监控以及为后续热源检测提供数据依据。

Description

一种用于煤场的红外-可见光双光图像拼接与融合方法
技术领域
本发明涉及计算机视觉、图像处理、物料监控等技术,具体涉及一种用于煤场的红外-可见光双光图像拼接与融合方法。
背景技术
一般火力发电厂、热电厂等会将煤炭存储在封闭场所,长时间堆放的煤与空气接触会发生氧化反应并释放热量。堆放在外层的煤的热量可以散发,堆放在底层的煤接触的空气密度低也不易自燃,而中层煤堆内部空气流动缓慢、通风差,内部热量积累容易发生自燃。
现有对于煤堆自燃的监测方式主要有人工巡检、使用插入式温度传感器以及使用红外温枪或热成像设备三种。人工巡检无法实时监测,同时由于现场环境十分恶劣,对巡检人员的安全也提出了要求;插入式温度传感器布局范围和深度也受到煤场环境的影响,无法完全覆盖煤场,且这种监控方式无法得到精确的燃煤区域;红外温枪也只能检测煤堆表面温度,因此以上三个方案有效性都不高。
发明内容
为了解决现有技术对煤场煤堆自燃无法有效进行实时监控的问题,本发明提供了一种用于煤场的红外-可见光双光图像拼接与融合方法,以供后台预警算法使用,首先,从四台红外-可见光双光相机获取煤场各个方位的图像,然后利用计算机视觉的图像拼接和融合技术将图像进行拼接融合,获得煤场的红外-可见光双光融合全景图像,该全景图像能够覆盖整个煤场,为工作人员提供了安全精准的监控手段。
本发明为其技术问题采用的技术方案如下:
一种用于煤场的红外-可见光双光图像拼接与融合方法,包括以下步骤:
1)、用四台红外-可见光双光相机采集煤场各个方位的图像;
2)、对图像进行标定,获得相机的内外参数,根据所得参数对图像进行畸变矫正;
3)、对2)中矫正所得四幅图像先使用SIFT检测算子进行特征点检测。对于二维图像I=(x,y)的尺度空间L(x,y,σ)是由高斯核G(x,y,σ)与I=(x,y)的卷积来确定,高斯核是实现尺度变换的唯一线性核,于是有公式(3.1):
L(x,y,σ)=G(x,y,σ)*I(x,y) (3.1)
其中G(x,y,σ)是尺度可变高斯函数,用公式(3.2)表示
Figure BDA0002093340670000011
为了检测到稳定的关键点,提高稳定性,特征点的尺度空间由高斯差分尺度空间DOG上的峰值点来确定;
Figure BDA0002093340670000012
DOG尺度空间提供了尺度标准化的Laplacian近似值σ22G,在σ22G峰值点上特征最稳定;
D(x,y,σ)≈(k-1)σ22G (3.4)
为了寻找尺度空间的极值点,每一个采样点要和它所有的相邻点比较,看其是否比它的图像域和尺度域的相邻点大或者小,然后使用公式(3.5)消除边缘响应;
Figure BDA0002093340670000021
其中Tr(H)为主曲率的轨迹,Det(H)为行列式的值,r是阈值,一般设为10;
通过拟和三维二次函数以精确确定关键点的位置和尺度,达到亚像素精度,DOG算子会产生较强的边缘响应去除了低对比度的关键点和不稳定的边缘响应点,增强了稳定性,提高了抗噪声能力;
接着对得到的特征点使用HOG(梯度直方图)进行数值统计编码,生成SIFT特征描述子,利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性;
Figure BDA0002093340670000022
Figure BDA0002093340670000023
其中式(3.6)、(3.7)分别为梯度的模值和方向公式,其中所用的尺度为每个关键点各自所在的尺度,取关键点邻域8×8像素的范围为一小块,然后在每4×4的小块上计算个8方向的梯度方向直方图,绘制每个梯度方向的累加值,即可形成一个种子点;
在尺度空间中计算关键点邻域像素的梯度方向直方图,选取主峰值80%以上的方向,一个关键点可能具备多个方向(一个主方向,一个以上辅方向),可以增强鲁棒性,这种邻域方向性信息联合的思想增强了算法抗噪声的能力,同时对于含有定位误差的特征匹配也提供了较好的容错性;
4)、对3)中的特征描述子使用最近邻比次近邻方法进行匹配,首先,对特征点使用k-d树建立索引,以此检索在k-d树中与待查询点距离最近的k个数据点,这里k取值为2;然后使用最近邻比次近邻进行匹配;
5)、对4)中的匹配对使用RANSAC(随机一致采样)除去外点,在所有数据集合中随机选取两点形成一条直线,然后按照一定的阈值来寻找符合该直线的内点,此处阈值设置为0.65,由这个内点集合线性解出新的直线,再根据此新直线寻找它对应的内点,不断地重复这样的随机采样过程,直到某一次采样使内点数量最大,那么这次获得的直线估计就是此集合的最好估计;此方法通过阈值把所有的测量数据分成了内点和外点,由于内点数据比较准确,进行参数估计时能有效地剔除外点,因此得到的结果是一种优化的拟合结果;
6)、利用得到的良好的匹配点计算各幅图像之间的单应矩阵。单应矩阵描述了处于同一平面上的一些点在两张图像之间的变换关系,考虑图像I1和I2有一对匹配好的特征点p1和p2,于是有公式(6.1);
p2=Hp1 (6.1)
对于单应矩阵H可以通过4对匹配特征点算出;
7)、对6)中的单应矩阵使用Bundle Adjustment作为全局调整器,最小化所有图像之间的配准误差,由于一个单应矩阵只描述了两幅图像之间的变换关系,而本技术方案需要使用4幅图像来重建煤场全景图,所以需要使用bundle adjustment把相机姿态和特征点空间位置做出最优调整,得到一个最优的全局坐标系;
8)、接着将配准好的图像由7)中所得变换矩阵投影到柱面流形,然后寻找最佳拼接缝,削弱拼接的痕迹,最后使用多条带渲染使得拼接处图像过渡更自然;
9)、对红外-可见光图像的融合,先参照3)-6)对双光图像进行配准,然后使用深度学习模块进行双光图像融合,使用加权平均策略来获得融合的基础部分;为了提取细节,首先使用深度学习网络来计算多层特征,以便尽可能多地保留信息;对于每层的特征,使用soft-max算子来获得权重图以及候选融合细节内容;在多个层上应用相同的操作,从而获得融合细节内容的几个候选者;最终融合细节图像由最大选择策略生成,通过将基部与细节内容融合来重建最终融合图像。
本发明的技术构思为:先使用SIFT检测算子检测图像的特征点,然后使用HOG进行特征描述,将获得的描述子使用最近邻比次近邻匹配,接着使用RANSAC进行外点移除,然后计算单应矩阵,之后使用Bundle Adjustment进行微调,此时对于可见光图像可以进行拼接得到煤场全景图,接着,对于红外图和煤场全景图进行配准,最后送入深度学习模块进行融合得到红外-可见光融合图像。
本发明的有益效果主要表现在:能够适应煤场的恶劣环境,提供红外-可见光双光拼接融合图像,有利于煤场工作人员进行现场监控以及为后续热源检测提供数据依据。
附图说明
图1是红外相机矫正图。
图2是SIFT检测算子检测所得图像。
图3是使用随机一致采样所得特征匹配图像。
图4是4个视角的完整拼接图像。
图5是双光融合图像。
图6是用于煤场的红外-可见光双光图像拼接与融合方法的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图6,一种用于煤场的红外-可见光双光图像拼接与融合方法,包括以下步骤:
1)、用四台红外-可见光双光相机采集煤场各个方位的图像;
2)、由于红外相机视野大、畸变严重,所以需要对图像进行标定,获得相机的内外参数,并根据所得参数对图像进行畸变矫正,矫正效果如图1所示。
3)、对2)中矫正所得四幅图像先使用SIFT检测算子进行特征点检测。对于二维图像I=(x,y)的尺度空间L(x,y,σ)是由高斯核G(x,y,σ)与I=(x,y)的卷积来确定,高斯核是实现尺度变换的唯一线性核。于是有公式(3.1):
L(x,y,σ)=G(x,y,σ)*I(x,y) (3.1)
其中G(x,y,σ)是尺度可变高斯函数,用公式(3.2)表示
Figure BDA0002093340670000041
为了检测到稳定的关键点,提高稳定性,特征点的尺度空间由高斯差分尺度空间DOG上的峰值点来确定;
Figure BDA0002093340670000042
DOG尺度空间提供了尺度标准化的Laplacian近似值σ22G,在σ22G峰值点上特征最稳定;
D(x,y,σ)≈(k-1)σ22G (3.4)
为了寻找尺度空间的极值点,每一个采样点要和它所有的相邻点比较,看其是否比它的图像域和尺度域的相邻点大或者小,然后使用公式(3.5)消除边缘响应。
Figure BDA0002093340670000043
其中Tr(H)为主曲率的轨迹,Det(H)为行列式的值,r是阈值一般设为10。
通过拟和三维二次函数以精确确定关键点的位置和尺度,达到亚像素精度,DOG算子会产生较强的边缘响应去除了低对比度的关键点和不稳定的边缘响应点,增强了稳定性、提高了抗噪声能力。
将得到的特征点使用HOG(梯度直方图)进行数值统计编码,获得SIFT特征描述子。利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性。
Figure BDA0002093340670000044
Figure BDA0002093340670000045
其中式(2.6)、(2.7)分别为梯度的模值和方向公式。其中所用的尺度为每个关键点各自所在的尺度。取关键点邻域8×8像素的范围为一小块,然后在每4×4的小块上计算个8方向的梯度方向直方图,绘制每个梯度方向的累加值,即可形成一个种子点。
在尺度空间中计算关键点邻域像素的梯度方向直方图,我们选取主峰值80%以上的方向,一个关键点可能具备多个方向(一个主方向,一个以上辅方向),可以增强鲁棒性。这种邻域方向性信息联合的思想增强了算法抗噪声的能力,同时对于含有定位误差的特征匹配也提供了较好的容错性,图2为SIFT检测算子检测效果图。
4)、对3)中的特征描述子使用最近邻比次近邻方法进行匹配。首先,对特征点使用k-d树建立索引,以此检索在k-d树中与待查询点距离最近的k个数据点,这里k取值为2。然后使用最近邻比次近邻进行匹配。
5)、对4)中的匹配对使用RANSAC(随机一致采样)除去外点。在所有数据集合中随机选取两点形成一条直线,然后按照一定的阈值来寻找符合该直线的内点,此处阈值设置为0.65,由这个内点集合线性解出新的直线,再根据此新直线寻找它对应的内点,不断地重复这样的随机采样过程,直到某一次采样使内点数量最大,那么这次获得的直线估计就是此集合的最好估计。此方法通过阈值把所有的测量数据分成了内点和外点,由于内点数据比较准确,进行参数估计时能有效地剔除外点,因此得到的结果是一种优化的拟合结果,经过RANSAC后所得特征匹配点如图3所示。
6)、利用得到的良好的匹配点计算各幅图像之间的单应矩阵。单应矩阵描述了处于同一平面上的一些点在两张图像之间的变换关系。考虑图像I1和I2有一对匹配好的特征点p1和p2,于是有公式5.1
p2=Hp1 (5.1)
对于单应矩阵H可以通过4对匹配特征点算出。
7)、对6)中的单应矩阵使用Bundle Adjustment作为全局调整器,最小化所有图像之间的配准误差。由于一个单应矩阵只描述了两幅图像之间的变换关系,而本技术方案需要使用4幅图像来重建煤场全景图,所以需要使用bundle adjustment把相机姿态和特征点空间位置做出最优调整,得到一个最优的全局坐标系。
8)、接着将配准好的图像由7)中所得变换矩阵投影到柱面流形,然后寻找最佳拼接缝,削弱拼接的痕迹,最后使用多条带渲染使得拼接处图像过渡更自然,图4给出了从煤场4个视角拍摄的完整拼接图。
9)、对红外-可见光图像的融合,先参照2)-5)对双光图像进行配准,然后使用深度学习模块进行双光图像融合。我们使用加权平均策略来获得融合的基础部分。为了提取细节,首先,我们使用深度学习网络来计算多层特征,以便尽可能多地保留信息。对于每层的特征,我们使用soft-max算子来获得权重图以及候选融合细节内容。在多个层上应用相同的操作,我们将获得融合细节内容的几个候选者。最终融合细节图像由最大选择策略生成。通过将基部与细节内容融合来重建最终融合图像,图5即为融合效果图。

Claims (2)

1.一种用于煤场的红外-可见光双光图像拼接与融合方法,其特征在于,所述方法包括以下步骤:
1)、用四台红外-可见光双光相机采集煤场各个方位的图像;
2)、对图像进行标定,获得相机的内外参数,根据所得参数对图像进行畸变矫正;
3)、对2)中矫正所得四幅图像先使用SIFT检测算子进行特征点检测;
4)、对3)中的特征描述子使用最近邻比次近邻方法进行匹配,首先,对特征点使用k-d树建立索引,以此检索在k-d树中与待查询点距离最近的k个数据点,这里k取值为2;然后使用最近邻比次近邻进行匹配;
5)、对4)中的匹配对使用随机一致采样除去外点,在所有数据集合中随机选取两点形成一条直线,然后按照设定的阈值来寻找符合该直线的内点,由这个内点集合线性解出新的直线,再根据此新直线寻找它对应的内点,不断地重复这样的随机采样过程,直到某一次采样使内点数量最大,那么这次获得的直线估计就是此集合的最好估计;
6)、利用得到的良好的匹配点计算各幅图像之间的单应矩阵,单应矩阵描述了处于同一平面上的一些点在两张图像之间的变换关系,考虑图像I1和I2有一对匹配好的特征点p1和p2,于是有公式(6.1);
p2=Hp1(6.1)
对于单应矩阵H可以通过4对匹配特征点算出;
7)、对6)中的单应矩阵使用Bundle Adjustment作为全局调整器,最小化所有图像之间的配准误差,由于一个单应矩阵只描述了两幅图像之间的变换关系,而使用4幅图像来重建煤场全景图,所以需要使用Bundle Adjustment把相机姿态和特征点空间位置做出最优调整,得到一个最优的全局坐标系;
8)、接着将配准好的图像由7)中所得变换矩阵投影到柱面流形,然后寻找最佳拼接缝,削弱拼接的痕迹,最后使用多条带渲染使得拼接处图像过渡更自然;
9)、对红外-可见光图像的融合,先参照3)-6)对双光图像进行配准,然后使用深度学习模块进行双光图像融合,使用加权平均策略来获得融合的基础部分;最终融合细节图像由最大选择策略生成,通过将基部与细节内容融合来重建最终融合图像;
所述步骤3)中,对于二维图像I=(x,y)的尺度空间L(x,y,σ)是由高斯核G(x,y,σ)与I=(x,y)的卷积来确定,高斯核是实现尺度变换的唯一线性核,于是有公式(3.1):
L(x,y,σ)=G(x,y,σ)*I(x,y)(3.1)其中G(x,y,σ)是尺度可变高斯函数,用公式(3.2)表示
Figure FDA0004076017280000011
为了检测到稳定的关键点,提高稳定性,特征点的尺度空间由高斯差分尺度空间DOG上的峰值点来确定;
Figure FDA0004076017280000021
DOG尺度空间提供了尺度标准化的Laplacian近似值
Figure FDA0004076017280000022
Figure FDA0004076017280000023
峰值点上特征最稳定;
Figure FDA0004076017280000024
为了寻找尺度空间的极值点,每一个采样点要和它所有的相邻点比较,看其是否比它的图像域和尺度域的相邻点大或者小,然后使用公式(3.5)消除边缘响应;
Figure FDA0004076017280000025
其中Tr(H)为主曲率的轨迹,Det(H)为行列式的值,r是阈值;
通过拟和三维二次函数以精确确定关键点的位置和尺度,达到亚像素精度;
接着对得到的特征点使用HOG进行数值统计编码,生成SIFT特征描述子,利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性;
Figure FDA0004076017280000026
Figure FDA0004076017280000027
其中式(3.6)、(3.7)分别为梯度的模值和方向公式,其中所用的尺度为每个关键点各自所在的尺度,取关键点邻域8×8像素的范围为一小块,然后在每4×4的小块上计算个8方向的梯度方向直方图,绘制每个梯度方向的累加值,即可形成一个种子点;
在尺度空间中计算关键点邻域像素的梯度方向直方图,选取主峰值80%以上的方向,一个关键点可能具备多个方向。
2.如权利要求1所述的一种用于煤场的红外-可见光双光图像拼接与融合方法,其特征在于,所述步骤9)中,为了提取细节,首先使用深度学习网络来计算多层特征,以便尽可能多地保留信息;对于每层的特征,使用soft-max算子来获得权重图以及候选融合细节内容;在多个层上应用相同的操作,从而获得融合细节内容的几个候选者。
CN201910510500.2A 2019-06-13 2019-06-13 一种用于煤场的红外-可见光双光图像拼接与融合方法 Active CN110232655B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910510500.2A CN110232655B (zh) 2019-06-13 2019-06-13 一种用于煤场的红外-可见光双光图像拼接与融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910510500.2A CN110232655B (zh) 2019-06-13 2019-06-13 一种用于煤场的红外-可见光双光图像拼接与融合方法

Publications (2)

Publication Number Publication Date
CN110232655A CN110232655A (zh) 2019-09-13
CN110232655B true CN110232655B (zh) 2023-06-09

Family

ID=67859854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910510500.2A Active CN110232655B (zh) 2019-06-13 2019-06-13 一种用于煤场的红外-可见光双光图像拼接与融合方法

Country Status (1)

Country Link
CN (1) CN110232655B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689485B (zh) * 2019-10-14 2022-11-04 中国空气动力研究与发展中心超高速空气动力研究所 一种应用于大型压力容器红外无损检测的sift图像拼接方法
CN111715540B (zh) * 2020-04-29 2021-02-02 江苏旷博智能技术有限公司 用于分拣煤和矸石的装置和方法
CN111899289B (zh) * 2020-06-19 2023-04-18 北京理工大学 一种基于图像特征信息的红外图像与可见光图像的配准方法
CN112907493B (zh) * 2020-12-01 2024-07-23 航天时代飞鸿技术有限公司 无人机蜂群协同侦察下的多源战场图像快速镶嵌融合算法
CN113034615B (zh) * 2021-03-30 2023-05-23 南方电网电力科技股份有限公司 一种用于多源数据融合的设备标定方法及相关装置
CN114331879B (zh) * 2021-12-15 2024-09-27 中国船舶重工集团公司第七0九研究所 一种均衡化二阶梯度直方图描述子的可见光与红外图像配准方法
CN115578620B (zh) * 2022-10-28 2023-07-18 北京理工大学 一种点线面多维特征-可见光融合slam方法
CN115900821A (zh) * 2022-11-24 2023-04-04 国网山东省电力公司电力科学研究院 一种油浸式并联电抗器的振动-红外故障检测方法及系统
CN116189229B (zh) * 2022-11-30 2024-04-05 中信重工开诚智能装备有限公司 一种基于煤矿辅助运输机器人的人员跟踪方法
CN116612012A (zh) * 2023-07-17 2023-08-18 南方电网数字电网研究院有限公司 输电线路图像拼接方法、系统、计算机设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108364272A (zh) * 2017-12-30 2018-08-03 广东金泽润技术有限公司 一种高性能红外-可见光融合探测方法
CN108711146B (zh) * 2018-04-19 2022-03-01 中国矿业大学 一种基于可见光和红外图像融合的煤岩识别装置及方法

Also Published As

Publication number Publication date
CN110232655A (zh) 2019-09-13

Similar Documents

Publication Publication Date Title
CN110232655B (zh) 一种用于煤场的红外-可见光双光图像拼接与融合方法
CN104537659B (zh) 双摄像机的自动标定方法和系统
CN107767442A (zh) 一种基于Kinect和双目视觉的脚型三维重建与测量方法
CN101894366A (zh) 一种获取标定参数的方法、装置及一种视频监控系统
Urban et al. Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds
CN113706635B (zh) 一种基于点特征和线特征融合的长焦距相机标定方法
CN102436670A (zh) 计算机系统、以及位置对准方法
Ribera et al. Estimating phenotypic traits from UAV based RGB imagery
JP7044016B2 (ja) ラインセンサカメラのキャリブレーション装置及び方法
Cao Applying image registration algorithm combined with CNN model to video image stitching
Moussa et al. A fast approach for stitching of aerial images
CN106683040A (zh) 一种基于ncc算法的红外全景图像拼接方法
He et al. Linear approach for initial recovery of the exterior orientation parameters of randomly captured images by low-cost mobile mapping systems
Hou et al. POS-GIFT: A geometric and intensity-invariant feature transformation for multimodal images
Chen et al. Drone image stitching based on compactly supported radial basis function
CN110120012B (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
Lei et al. Radial coverage strength for optimization of monocular multicamera deployment
Shen et al. Semi-dense feature matching with transformers and its applications in multiple-view geometry
CN117876654A (zh) 一种监控视频图像的坐标转换精度校准方法及系统
Majdik et al. Micro air vehicle localization and position tracking from textured 3d cadastral models
Aktar et al. Robust mosaicking of maize fields from aerial imagery
Pollok et al. A visual SLAM-based approach for calibration of distributed camera networks
CN117314986A (zh) 基于语义分割的无人机跨模态配电设备巡检图像配准方法
JP2008224641A (ja) カメラ姿勢推定システム
Li et al. Automatic reconstruction and modeling of dormant jujube trees using three-view image constraints for intelligent pruning applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant