CN109685078B - 基于自动标注的红外图像识别方法 - Google Patents
基于自动标注的红外图像识别方法 Download PDFInfo
- Publication number
- CN109685078B CN109685078B CN201811543392.0A CN201811543392A CN109685078B CN 109685078 B CN109685078 B CN 109685078B CN 201811543392 A CN201811543392 A CN 201811543392A CN 109685078 B CN109685078 B CN 109685078B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- source domain
- domain
- domain image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于自动标注的红外图像识别方法,主要针对现有方法在有标签红外图像数据很少时红外图像识别正确率较低和图像标签获取困难的问题,包括如下步骤:图像采集与成像设备校准;源域图像处理,建立源域图像目标检测模型,得到源域有标签数据;图像特征提取,得到映射关系;自动标注,得到目标域有标签图像;目标检测模型建立。本发明方法可利用已有其他资源建立目标域目标检测模型,可有效提高红外图像目标识别正确率,具有无需重新搜集数据的优点,可用于红外图像的目标识别。
Description
技术领域
本申请涉及深度学习领域,图像处理技术领域,具体涉及一种基于自动标注的红外图像目标识别方法,可用于红外图像的目标识别。
背景技术
红外和可见光是常见的多模态图像。可见光图像信息包含探测目标色彩、纹理等丰富细节,但是其数据采集易受复杂气象和光线条件影响;而远红外热像主要由探测目标的表面温度和发射率决定,受外界环境条件干扰相对较小。二者的融合可用于目标识别、目标检测等领域。
大多数目标探测的可见光探测模型相对比较成熟。目前,已有大量基于特征提取和通道聚合的传统识别模型,大量的可见光目标数据集可供深度学习模型训练,而远红外热像的训练数据集相对较少。
大量的训练数据是提升深度学习模型的分类或预测准确性的必要因素。
基于传统的机器学习方法的目标识别,要求训练数据和测试数据独立同分布,因此存在如下困难:
1.当有标签的图像数据很少时,识别准确率低。
2.如果要提高识别正确率,图像及其标签的获取和收集不仅困难而且花费昂贵。
3.不能够利用其他可用资源来提高识别正确率。
发明内容
本发明的目的在于克服上述红外图像识别存在的困难,引入自动标注,
提出了一种基于自动标注的红外图像目标识别方法,解决现有方法对有标签红外图像数据很少时识别正确率较低和图像标签获取困难的问题。
为实现上述目的,本发明的基于自动标注的红外图像目标识别方法,包括如下步骤:
1.对可见光摄像头和红外摄像头进行图像采集与成像设备校准;
2.源域图像处理,建立源域图像目标检测模型,得到源域有标签数据;
3.图像特征提取,得到源域图像和目标域图像映射关系;
4.根据步骤2获得的源域有标签数据和步骤3获得的映射关系进行自动标注,得到目标域有标签图像;
5.进行目标域目标检测模型学习。
步骤1包括如下步骤:
1a)使用常用的相机针孔模型,得到不同相机成像与物理空间的投影参数关系;
1b)多次从不同角度拍摄黑白相间棋盘格,读取其格点坐标;
1c)利用网格大小不变性进行相机内、外参数和畸变系数标定;
1d)通过多参数非线性系统优化问题的Levenberg-Marquardt算法进行最大似然优化以获得最佳解。
1e)校正透镜畸变效应,得到目标原有的外形信息。
步骤2包括如下步骤:
2a)根据已有大量的源域图像目标数据集,选择合适的深度学习算法框架和网络模型;
2b)基于深度学习,根据源域图像目标数据集训练得到源域图像目标检测模型;
2c)在已得到源域图像目标检测模型中输入源域无标签图像,得到含标注数据的源域有标签图像。
步骤3包括如下步骤:
3a)将目标域图像加以剪裁缩放至源域图像大小,得到宽高相同的图像区域;
3b)对图像进行边缘提取,保存其中的角点信息,比较两图中的角点信息并一一匹配;
3c)利用相同物体特征点间距的比值不变性,计算出源域图像中与目标域图像相匹配的部分,作出源域图像中所有匹配点的外接矩形S,将S扩展后即可得到目标域图像中与源域图像相匹配的区域。
在场景频繁改变时进行动态匹配,在单一场景下可只进行一次匹配。
步骤4包括如下步骤:
4a)将步骤3得到的已匹配的目标域无标签图像,步骤2得到的源域有标签图像输入到自动标注网络;
4b)利用步骤3得到的映射关系对目标域无标签图像进行标注,得到目标域图像目标数据集。
步骤5包括如下步骤:
5a)根据步骤4得到的目标域目标数据集,选择合适的深度学习算法框架和网络模型;
5b)利用深度学习,根据目标域图像目标数据集训练得到目标域图像目标检测模型。
本发明与现有技术相比,具有以下优点:
(1)本发明的图像特征匹配算法,具有稳定,图像的局部特征,对旋转、尺度缩放、亮度变化保持不变,对视角变化、仿射变换、噪声也保持一定程度的稳定性;多量性,即使是很少几个物体也可以产生大量的特征;独特性好,信息量丰富,适用于海量特征库进行快速、准确的匹配;高速性;扩招性,可以很方便的与其他的特征向量进行联合;
(2)本发明引进自动标注,能够利用与测试集相关的其它数据指导分类数据的学习,无需重新搜集数据;
(3)本发明由于引进自动标注,利用可见光图像标注红外图像,增大有标签的图像数据集容量,训练得到的红外图像识别系统具有较高的正确识别率。
附图说明
图1是本发明的基于自动标注的红外图像识别方法总流程图。
图2是实施例提供的一种基于自动标注的红外图像目标识别方法具体示意图。
图3是实施例中成像设备校准原理图。
图4实施例中可见光和红外摄像头校准前后图象对比。
图5是实施例中SIFT算法对双摄像头图像进行场景匹配,左图为红外图像边缘检测结果;右图为可见光图像边缘检测结果。
图6是实施例中利用可见光识别模型和映射关系来自动标注远红外热像图。
具体实施方式
下面详细描述本申请的实施例,对本发明的技术方案做进一步的描述。
参照图1,本实施例提供的一种基于自动标注的红外图像目标识别方法,包括:
1.图像采集与成像设备校准;
2.源域图像处理,建立源域图像目标检测模型,得到源域有标签数据;
3.图像特征提取,得到源域图像和目标域图像映射关系;
4.自动标注,得到目标域有标签图像;
5.目标检测模型建立。
参照图2,本实施例提供的一种基于自动标注的红外图像目标识别方法,包括:
步骤1:利用可见光摄像头和红外摄像头采集可见光图像和红外图像,采用基于移动平面模板的相机标定法进行成像设备校准。
图3是实施例中成像设备校准原理图;
图4为实施例中可见光和红外摄像头校准前后图象对比。
首先,得到不同相机成像与物理空间的投影参数关系。假设图像平面上的二维点坐标表示为m=[u,v]T,物理空间三维点坐标表示为M=[x,y,z]T,使用上标“~”来表示其增广向量,即使用常用的相机针孔模型,来给出三维空间点M和其相投影m的关系,有:
sm=A[R T]M
其中:s是缩放因子标量;[R,T]叫做外参,是连接物理坐标系与相机坐标系系统的旋转和平移矩阵;是相机内参矩阵,其中(u0,v0)是主点位置,α和β是图像在u轴和v轴的尺寸因子,γ描述两个坐标系轴的扭矩因子。
其中:k1和k2分别为一阶和二阶径向畸变系数。
通过多次从不同角度拍摄黑白相间棋盘格,读取其格点坐标,利用网格大小不变性进行相机内、外参数和畸变系数标定,通过多参数非线性系统优化问题的Levenberg-Marquardt算法进行最大似然优化以获得最佳解。
步骤2:源域图像处理,建立源域图像目标检测模型,得到源域有标签数据。
2a)根据已有大量的源域图像目标数据集,深度学习算法选择为Faster R-CNN,网络模型为VGG-16,本发明对此不做限定;
2b)利用深度学习,根据源域图像目标数据集训练得到源域图像目标检测模型;
2c)在已得到源域图像目标检测模型中输入源域无标签图像,得到含标注数据的源域有标签图像。
步骤3:图像特征提取,得到源域图像和目标域图像映射关系。
3a)将目标域图像加以剪裁缩放至源域图像大小,得到宽高相同的图像区域。
3b)基于SIFT(Scale-Invariant Feature Transform)特征匹配算法,对图像中目标的边缘、角点分别进行匹配。
首先,利用Sobel卷积算子对图像进行边缘提取,保存其中的角点信息,比较两图中的角点信息并一一匹配。在图中任取两对对应点,记为A1,A′1和A2,A′2,及其对应线段和在红外图像中寻找与图像四边距离最近的点,将距离记为Lk,记αk为边界系数:
利用相同物体特征点间距的比值不变性,计算出源域图像中与目标域图像相匹配的部分,作出源域图像中所有匹配点的外接矩形S,并取
表示S的四条边需要向外扩展的距离,将S扩展后即可得到目标域图像中与源域图像相匹配的区域。
在场景频繁改变时进行动态匹配,在单一场景下可只进行一次匹配。
图5为实施例中SIFT算法对双摄像头图像进行场景匹配。左图为红外图像边缘检测结果;右图为可见光图像边缘检测结果。
步骤4:自动标注,得到目标域有标签图像。
4a)将步骤3得到的已匹配的目标域无标签图像,步骤2得到的源域有标签图像输入到自动标注网络;
3b)利用步骤3得到的映射关系对目标域无标签图像进行标注,得到目标域图像目标数据集。
步骤5:目标域目标检测模型学习。
5a)根据步骤4得到的目标域目标数据集,深度学习算法选择为Faster R-CNN,网络模型为VGG-16,本发明对此不做限定;
5b)利用深度学习,根据目标域图像目标数据集训练得到目标域图像目标检测模型。
图6是实施例中利用可见光识别模型和映射关系来自动标注远红外热像图。
本实施例中,可见光摄像头为晟悦120°广角摄像头,24位彩色CMOS芯片,分辨率为1920x1080;红外摄像头为FLIR Boson非制冷远红外热像机芯,镜头焦距4.3mm,水平视角50°,分辨率为320x256。
本实施例中,深度学习编程环境可以为Tensorflow GPU,本发明对此不做限定,利用深度学习编程环境对可见光图像数据进行训练,获得可见光深度学习模型。
该实施例是在以本发明技术方案为前提下进行实施的,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于上述实施例。
Claims (4)
1.一种基于自动标注的红外图像识别方法,包括如下步骤:
(1)对可见光摄像头和红外摄像头进行图像采集与成像设备校准;
(2)针对可见光摄像头获得的源域图像处理,建立源域图像目标检测模型,得到源域有标签数据:2a)根据已有大量的源域图像目标数据集,选择合适的深度学习算法框架和网络模型;2b)基于深度学习,根据源域图像目标数据集训练得到源域图像目标检测模型;2c)在已得到源域图像目标检测模型中输入源域无标签图像,得到含标注数据的源域有标签图像;
(3)图像特征匹配,获得源域图像和红外摄像头采集的目标域图像映射关系:3a)将目标域图像加以剪裁缩放至源域图像大小,得到宽高相同的图像区域;3b)对图像进行边缘提取,保存其中的角点信息,比较两图中的角点信息并一一匹配;3c)利用相同物体特征点间距的比值不变性,计算出源域图像中与目标域图像相匹配的部分,作出源域图像中所有匹配点的外接矩形S,将S扩展后即可得到目标域图像中与源域图像相匹配的区域;
(4)根据步骤(2)获得的源域有标签数据和步骤(3)获得的映射关系进行自动标注,得到目标域有标签图像;
(5)进行目标域目标检测模型学习。
2.根据权利要求1所述的方法,其特征在于,步骤(1)包括如下步骤:
1a)使用常用的相机针孔模型,得到不同相机成像与物理空间的投影参数关系;
1b)多次从不同角度拍摄黑白相间棋盘格,读取其格点坐标;
1c)利用网格大小不变性进行相机内、外参数和畸变系数标定;
1d)通过多参数非线性系统优化问题的Levenberg-Marquardt算法进行最大似然优化以获得最佳解;
1e)校正透镜畸变效应,得到目标原有的外形信息。
3.根据权利要求1所述的方法,其特征在于,步骤(4)包括如下步骤:
4a)将步骤(3)得到的已匹配的目标域无标签图像,步骤(2)得到的源域有标签图像输入到自动标注网络;
4b)利用步骤(3)得到的映射关系对目标域无标签图像进行标注,得到目标域图像目标数据集。
4.根据权利要求1所述的方法,其特征在于,所述步骤(5)包括如下步骤:
5a)根据步骤(4)得到的目标域目标数据集,选择合适的深度学习算法框架和网络模型;
5b)利用深度学习,根据目标域图像目标数据集训练得到目标域图像目标检测模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811543392.0A CN109685078B (zh) | 2018-12-17 | 2018-12-17 | 基于自动标注的红外图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811543392.0A CN109685078B (zh) | 2018-12-17 | 2018-12-17 | 基于自动标注的红外图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109685078A CN109685078A (zh) | 2019-04-26 |
CN109685078B true CN109685078B (zh) | 2022-04-05 |
Family
ID=66187884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811543392.0A Active CN109685078B (zh) | 2018-12-17 | 2018-12-17 | 基于自动标注的红外图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109685078B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629246B (zh) * | 2017-03-23 | 2024-03-01 | 北京行易道科技有限公司 | 车载图像处理方法、装置以及车辆 |
CN110188829B (zh) * | 2019-05-31 | 2022-01-28 | 北京市商汤科技开发有限公司 | 神经网络的训练方法、目标识别的方法及相关产品 |
CN110991304A (zh) * | 2019-11-27 | 2020-04-10 | 云南电网有限责任公司电力科学研究院 | 基于摄像头与热感探头的交互手势采集和识别方法及装置 |
CN111191708A (zh) * | 2019-12-25 | 2020-05-22 | 浙江省北大信息技术高等研究院 | 自动化样本关键点标注方法、装置及系统 |
CN111738180B (zh) * | 2020-06-28 | 2023-03-24 | 浙江大华技术股份有限公司 | 关键点的标注方法、装置、存储介质及电子装置 |
CN112070111B (zh) * | 2020-07-28 | 2023-11-28 | 浙江大学 | 一种适配多波段图像的多目标检测方法和系统 |
CN111768405B (zh) * | 2020-08-05 | 2024-02-13 | 赛维森(广州)医疗科技服务有限公司 | 处理标注图像的方法、装置、设备和存储介质 |
CN112163483A (zh) * | 2020-09-16 | 2021-01-01 | 浙江大学 | 一种目标数量检测系统 |
CN113222997A (zh) * | 2021-03-31 | 2021-08-06 | 上海商汤智能科技有限公司 | 神经网络的生成、图像处理方法、装置、电子设备及介质 |
CN112926558B (zh) * | 2021-05-12 | 2021-10-01 | 广州朗国电子科技股份有限公司 | 动物识别方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101261736A (zh) * | 2008-04-10 | 2008-09-10 | 西北工业大学 | 多源图像动目标协同检测方法 |
CN101996317A (zh) * | 2010-11-01 | 2011-03-30 | 中国科学院深圳先进技术研究院 | 人体中标记物的识别方法及装置 |
CN102800097A (zh) * | 2012-07-19 | 2012-11-28 | 中国科学院自动化研究所 | 多特征多级别的可见光与红外图像高精度配准方法 |
CN108280396A (zh) * | 2017-12-25 | 2018-07-13 | 西安电子科技大学 | 基于深度多特征主动迁移网络的高光谱图像分类方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477631B (zh) * | 2009-01-20 | 2011-01-19 | 深圳先进技术研究院 | 图像中提取目标的方法、设备及人机交互系统 |
CN101794396B (zh) * | 2010-03-25 | 2012-12-26 | 西安电子科技大学 | 基于迁移网络学习的遥感图像目标识别系统及方法 |
CN106778804B (zh) * | 2016-11-18 | 2020-10-20 | 天津大学 | 基于类别属性迁移学习的零样本图像分类方法 |
CN106682700B (zh) * | 2017-01-05 | 2021-04-20 | 北京细推科技有限公司 | 基于关键点描述算子的分块快速匹配方法 |
CN107292246A (zh) * | 2017-06-05 | 2017-10-24 | 河海大学 | 基于hog‑pca和迁移学习的红外人体目标识别方法 |
CN109003312B (zh) * | 2018-08-24 | 2022-01-28 | 重庆邮电大学 | 一种基于非线性优化的相机标定方法 |
-
2018
- 2018-12-17 CN CN201811543392.0A patent/CN109685078B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101261736A (zh) * | 2008-04-10 | 2008-09-10 | 西北工业大学 | 多源图像动目标协同检测方法 |
CN101996317A (zh) * | 2010-11-01 | 2011-03-30 | 中国科学院深圳先进技术研究院 | 人体中标记物的识别方法及装置 |
CN102800097A (zh) * | 2012-07-19 | 2012-11-28 | 中国科学院自动化研究所 | 多特征多级别的可见光与红外图像高精度配准方法 |
CN108280396A (zh) * | 2017-12-25 | 2018-07-13 | 西安电子科技大学 | 基于深度多特征主动迁移网络的高光谱图像分类方法 |
Non-Patent Citations (1)
Title |
---|
红外与可见光图像融合算法研究;舒久明;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20160415(第4期);I138-1048 * |
Also Published As
Publication number | Publication date |
---|---|
CN109685078A (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685078B (zh) | 基于自动标注的红外图像识别方法 | |
WO2022088982A1 (zh) | 三维场景构建方法、装置、系统和存储介质 | |
TWI485650B (zh) | 用於多相機校準之方法及配置 | |
CN107833181B (zh) | 一种基于变焦立体视觉的三维全景图像生成方法 | |
CN107993258B (zh) | 一种图像配准方法及装置 | |
CN109269430A (zh) | 基于深度提取模型的多株立木胸径被动测量方法 | |
WO2020206850A1 (zh) | 基于高维图像的图像标注方法和装置 | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN112257676A (zh) | 一种指针式仪表读数方法、系统以及巡检机器人 | |
CN112067233B (zh) | 一种用于风洞模型六自由度运动捕获方法 | |
CN103902953B (zh) | 一种屏幕检测系统及方法 | |
Urban et al. | Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds | |
Lou et al. | A cost-effective automatic 3D reconstruction pipeline for plants using multi-view images | |
CN111523547B (zh) | 一种3d语义分割的方法及终端 | |
CN108257089A (zh) | 一种基于迭代最近点的大视场视频全景图拼接的方法 | |
CN114332689A (zh) | 一种柑橘识别定位方法、装置、设备及存储介质 | |
CN112055192A (zh) | 图像处理方法、图像处理装置、电子设备及存储介质 | |
CN110120012A (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
CN111179271B (zh) | 一种基于检索匹配的物体角度信息标注方法及电子设备 | |
CN113096016A (zh) | 一种低空航拍图像拼接方法和系统 | |
CN111325218A (zh) | 基于光场图像的Hog特征检测与匹配方法 | |
CN115410014A (zh) | 一种鱼眼图像的自监督特征点匹配方法及其存储介质 | |
US11699303B2 (en) | System and method of acquiring coordinates of pupil center point | |
CN115880220A (zh) | 多视角苹果成熟度检测方法 | |
CN111833384B (zh) | 一种可见光和红外图像快速配准方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |