CN113420660B - 一种红外图像目标检测模型构建方法、预测方法及系统 - Google Patents
一种红外图像目标检测模型构建方法、预测方法及系统 Download PDFInfo
- Publication number
- CN113420660B CN113420660B CN202110696863.7A CN202110696863A CN113420660B CN 113420660 B CN113420660 B CN 113420660B CN 202110696863 A CN202110696863 A CN 202110696863A CN 113420660 B CN113420660 B CN 113420660B
- Authority
- CN
- China
- Prior art keywords
- target
- layer
- infrared image
- model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000010276 construction Methods 0.000 title claims description 6
- 238000012549 training Methods 0.000 claims description 23
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 16
- 238000002474 experimental method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 102100031315 AP-2 complex subunit mu Human genes 0.000 description 4
- 101000796047 Homo sapiens AP-2 complex subunit mu Proteins 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种红外图像目标检测模型构建方法、预测方法及系统,针对红外图像分辨率差,对比度低,视觉效果差的问题,该方法将注意力机制结合原始ResNet模型,增强网络模型对红外图像的特征提取能力,同时能加强网络对重点目标进行关注,降低对其他目标的关注,同时引入多尺度模块,通过融合浅层特征网络的高分辨率与深层网络的低分辨率信息,有效结合细节与位置信息,提升红外图像中小目标的检测效果。
Description
技术领域
本发明涉及图像目标检测技术,具体涉及一种红外图像目标检测模型构建方法、预测方法及系统。
背景技术
基于无锚框的目标检测算法的主要工作原理是对特征图的每个位置预测目标中心点,并且在没有先验锚框的情况下预测边框。将检测目标作为点的方法可以减少后处理操作,通过边界框中心点代表检测目标,可以从中心位置图像特征回归目标大小,尺寸等信息。代表性的现有技术如:
Law H,Deng J等人在“Law H,Deng J.Cornernet:‘Detecting objects aspaired keypoints[C]’//Proceedings of the European conference on computervision(ECCV).2018:734-750.”中提出了通过组合从特征图像中学习角点对,预测边框。这种方法不需要设计锚框,减少了对锚框的冗余计算,从而生成更好的边框。
Xing-Yi Zhou,De-Quan Wang等人在“Zhou X,Wang D,P.Objectsas points[J].arXiv preprint arXiv:1904.07850,2019.”中通过预测目标中心点实现检测,避免了额外的后处理操作,如非极大值抑制等。此方法通过对边界框中心的一个点表示待检测的目标,并且可以通过中心点的图像特征得到其他信息,如目标大小,尺寸等。相比于基于锚框的目标检测算法,具有简单,快速,准确率高的特点。
现有基于无锚框的目标检测算法虽然取得一定的成果,但是在面对红外图像中的小目标时,受限于红外图像的分辨率差、对比度低、视觉效果差的特点,现有目标检测算法的准确率与识别效果较差。
发明内容
针对现有技术的缺陷或不足,本发明提供了一种红外图像目标检测模型构建方法。
为此,本发明提供的红外图像目标检测模型构建方法包括:
(1)构建红外图像集与各红外图像的目标标签构成的标签集,所述红外图像集由包含大目标、中目标和小目标中一种目标的红外图像;包含大目标、中目标和小目标中两种目标的红外图像以及包含大目标、中目标和小目标的红外图像构成;所述大目标的像素值为大于96*大于96、所述中目标的像素值为(32-96]*(32-96]、所述小目标的像素值为(12-32]*(20-32];
(2)采用红外图像集与标签集对改进ResNet网络进行训练,得到红外图像目标检测模型;所述改进ResNet网络的构建方法包括:采用可见光图像集对初始ResNet网络进行训练得到预训练网络,所述初始ResNet网络包括依次设置的输入层、四个卷积层及输出层;之后在预训练网络的输入层与第一层卷积层之间添加第一注意力机制模块,在最后一层卷积层与输出层之间添加第二注意力机制模块,并且在第一层卷积层中添加MSFM多尺度模块,得到改进ResNet网络。
可选的,所述红外图像为包含车辆目标与行人目标的红外图像。
可选的,所述的初始ResNet网络选自ResNet-50、ResNet-18或ResNet-101。
同时本发明还提供了利用上述方法构建的红外图像目标检测模型对红外图像中的目标进行检测。
本发明还提供了一种红外图像目标检测系统。所提供的系统包括图像预处理模块和检测模块,所述图像预处理模块用于将红外视频转化成图像;所述预测模块利用上述方法训练的模型对转化后的图像中的目标进行检测。
本发明所采用的在网络模型中添加注意力机制,既能提高对输入部分进行提取,又能让网络模型将注意力放在图像中的重点地方,帮助模型选择更好的中间特征,注意力机制可以进行全局联系,同时进行并行化计算,适合实际应用;并且本发明在网络模型中增加多尺度模块,可以从单个输入中提取语义及细节信息,并将输出特征调节为不同的尺度,在不同尺度上进行处理位置及语义信息,然后将不同尺度的信息进行调整与输出特征进行融合输出,提升了网络模型对小目标的检测效果。
附图说明
图1为本发明提供的红外图像目标检测模型整体结构图;
图2为本发明的一个实施例提供的增加多尺度模块的红外目标模型检测效果图;
图3为本发明的一个实施例提供的多种实验环境场景图;
图4为本发明的一个实施例提供的在多种实验环境场景下的红外小目标多种检测算法效果对比图。
具体实施方式
除非另有说明,本文中的术语或方法根据相关技术领域普通技术人员的认识理解或采用相关领域技术人员已知的相关方法实现。
本发明通过加入注意力机制,使得神经网络可以关注重要特征,降低次要特征对网络模型的影响,能够有效提升网络模型对红外图像人车目标的特征提取能力。且注意力机制加在网络模型的第一层卷积前和最后一层卷积层后,通过这样的方式,没有改变网络结构,可以使用可见光数据集预训练参数。
以下是发明人提供的具体实施例,以对本发明的技术方案作进一步解释说明。
实施例1:
该实施例为红外图像中人车目标检测模型的构建,具体方法为:
步骤1、构建数据集:重建红外数据集FLIR,原FLIR数据集中共包含五类目标,人,自行车,车辆,狗,其他目标,针对红外图像人车目标检测识别的需求,对数据集进行清洗,重新对清洗后的数据集进行标注,仅包含人和车两类标签,去除其他三类不相关标签,获得标注好的两类目标红外数据集;
该实施例的数据原红外数据集主要分为五个大类,具体标签集合为{People,Car,Dog,Bicycle,Others},为提高检测算法对红外人车目标识别精度,对数据集进行清洗,仅保留人和车辆两类目标的图像作为训练及测试图像,其中人类图片包含16246个目标实例,车辆类图片包含29178个目标实例,场景中包含目标遮挡、大目标(像素值为大于96*大于96)、中目标(像素值为(32-96]*(32-96])和小目标(像素值为(12-32]*(20-32])等情况,以更加符合实际情况;在本实施例中,处理后的红外数据集的标签集为{People,Car};该实施例中训练集与测试集比例为9:1;
步骤2、利用处理后的红外数据集FLIR对改进ResNet网络进行训练,得到该实施例的红外图像目标检测模型;
该实施例所用的改进ResNet网络为:预训练网络的第一层卷积层前与最后一层卷积层后分别添加注意力机制模块,并且在第一层卷积层中添加MSFM多尺度模块,其中预训练网络为文献1:He K,Zhang X,Ren S,et al.Deep residual learning for imagerecognition[C]//Proceedings of the IEEE conference on computer vision andpattern recognition.2016:770-778.中公开的利用可见光训练好的网络;
在本发明中,如图1所示,输入图片后,首先要进行模型加载,网络模型在识别红外图像之前经过一个注意力机制模块,提高网络模型对红外图像的特征提取能力;输出的图像特征作为ResNet网络模型的Stage1处的MSFM多尺度模块的输入,该模块可以从输入中提取语义及细节信息,同时将输出特征调整为不同尺度,并在不同尺度上进行处理,然后将不同尺度的信息进行调整与第一层卷积层的输出特征进行融合输出;输出后的特征经过第二层卷积层时,会进入1*1卷积层,步长为2,降低输入尺寸,进行BN(批量归一化)和ReLu操作;对得到的结果进行3*3卷积操作,步长为1,进行BN与ReLu操作,再进行1*1的卷积操作,并在第二层输出时加入残差模块,统一输入与输出尺寸;第三层卷积层与第四层,功能同第二层,仅增加通道数,降低输出尺寸,最后得到提取后的图像特征;提取后的图像特征经过注意力机制进行提取,调整关注对象,让模型将注意力放在重点地方,帮助模型选择更好的中间特征,降低其他特征对模型的影响。
参考图2所示,图2上一行为原始模型(文献1中公开的预训练模型)算法的检测结果,原始模型在处理尺度较大的目标近处行人时表现较好,基本能够准确识别出现的行人目标,但也存在漏检的情况,具体如后两张处理图片所示,当处理远处小目标对象时效果较差,当出现多个目标行人,仅能识别出一个行人目标,如前两张图片所示;图2下一行为本发明改进后的算法检测结果,可以看出改进后的算法模型不仅在近处尺度较大的行人目标上检测效果较好,同时提升远处尺度较小的行人目标的检测效果。与原始模型检测结果对比后可以看出本发明改进后的模型可以有效提升小目标的检测效果。
实施例2:
该实施例利用实施例1训练的模型进行红外图像目标预测:
首先利用Python读取待检测红外视频,并将视频转换成图片,逐帧传入网络模型,进行检测;具体利用Python语言中的OpenCV库函数,首先读取待检测红外视频,将视频转化为一帧帧待检测图像,并按顺序逐帧传入网络模型,逐帧处理实现检测红外视频;
之后将红外图像逐帧输入权利要求1训练的预测模型中,输出预测结果,具体包括目标类别、位置信息、类别置信度,初步获得检测结果,将类别置信度低于阈值0.5的结果舍弃,得到最终的红外目标检测结果。具体方案中可根据准确度要求设置阈值。在本实施例中,根据COCO数据集中AP50评价标准,选择0.5作为类别置信度阈值,低于0.5的类别置信度结果,说明该结果在模型分类得分较低,是错误结果或是误检结果,应予以删除。而类别置信度大于0.5的结果,予以保留并在图像上进行显示,为模型检测红外图像人车目标的检测结果。
实施例1是针对的是红外图像的人车目标,为排除在可见光图像数据集预训练的模型影响,选择未预训练的ResNet-50(未预训练模型+注意力机制+多尺度模块)进行测试对比,评测指标选择AP50,其中AP50代表着选取IoU值为0.50,来衡量模型精度实验,并与四种经典的目标检测算法进行对比,实验结果如表1所示:
表1模型训练结果对比表
模型算法 | AP50 |
未预训练模型+注意力机制+多尺度模块 | 69.72% |
预训练模型+注意力机制+多尺度模块 | 75.88% |
YOLOv3 | 56.26% |
Faster-RCNN | 57.63% |
CenterNet | 68.35% |
CornerNet | 48.39% |
如表1所示,未预训练的空白模型在红外数据集上训练后,识别结果较差,与预训练模型有一定差距。同时使用预训练模型具有几个优点,如合并简单,快速实现模型性能稳定等。综上所述,所以本发明选取预训练的ResNet-50作为基础网络模型。同时从表中可以看出,与未预训练模型添加注意力机制及多尺度模块相对比,在预训练模型上添加注意力机制与多尺度模块,与四种经典的目标检测算法相比,能有效提高红外目标检测效果,证明本专利工作的有效性。
实施例3:
在本实施例中,为验证本文所提算法的有效性,选择FLIR T335作为拍摄机器,共拍摄遮挡视频二十个,每个视频5min左右,如图3上一行所示,选取拍摄地点包含校园马路、小道上行走的行人车辆,同时包含广场上的行人以及天桥上拍摄的川流不息的车辆等场景;
在本步骤中,通过尽可能多的采集红外视频作为测试集,考虑到各种情况,如红外小目标情况。同时考虑实际情况,选择校园马路,小道行走的行人车辆,广场上的行人以及天桥上的车辆场景,从多种场景来验证本发明所提算法的有效性与实用性,尤其在在实际红外图像小目标检测中的可行性。
在本实施例中,实验均在Ubuntu18.04操作系统上进行完成的。Ubuntu软件是目前科研人员最喜爱的操作系统之一,它拥有良好的图像界面和使用体验,开放性和开源性。在实验中,使用PyTorch作为深度学习框架。PyTorch框架简洁且高效,符合人类思维,可以让使用者专注于实现自己的想法等优点。基于这些优点,选取PyTorch作为本文的深度学习框架。实验所涉及具体配置如表2所示:
表2实验环境设置表
项目 | 配置 |
处理器(CPU) | Intel(R)Xeon(R)E5-2620V4 CPU@2.10GHz |
显卡(GPU) | NVIDIA GeForce GTX 1080 11G |
内存(Memory) | 128GB RAM |
系统(OS) | Ubuntu 18.04 |
框架 | PyTorch |
图3下一行为上一行四个场景下的检测效果,可以看出本发明在这四种场景下的检测效果较好,不仅能够识别红外人车目标,还对远处的车辆及行人等小目标有较好的识别能力。
在本实施例中,如图4所示,进一步将本发明提出算法与Faster-RCNN,CenterNet,YOLOv3和CornerNet四种目标检测算法在红外数据集上对小目标检测效果进行测试对比。可以看出本发明提出算法在小目标上检测效果最好。
Faster-RCNN公开文献:S.Ren,K.He,R.Girshick,and J.Sun,“Faster r-cnn:Towards real-time object detection with region proposal networks,”IEEETransactions on Pattern Analysis and Machine Intelligence,vol.39,pp.1137–1149,June 2017.
YOLOv3公开文献:Redmon J,Farhadi A.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018.
CornerNet公开文献:Law H,Deng J.Cornernet:Detecting objects as pairedkeypoints[C]//Proceedings of the European conference on computer vision(ECCV).2018:734-750.
具体本发明所提算法与四种目标检测算法在此四种场景下的红外小目标检测效果对比详细情况如表3所示:本发明所提算法,红外小目标检测效果可以达到26.63%,同时检测速度达到22FPS,与CenterNet算法相比在小目标上约有2.7%的提升,但是速度略有下降,从27FPS下降到22FPS。
表3红外小目标检测效果对比表
Claims (5)
1.一种红外图像目标检测模型构建方法,其特征在于,方法包括:
(1)构建红外图像集与各红外图像的目标标签构成的标签集,所述红外图像集由包含大目标、中目标和小目标中一种目标的红外图像;包含大目标、中目标和小目标中两种目标的红外图像以及包含大目标、中目标和小目标的红外图像构成;所述大目标的像素值为大于96*大于96、所述中目标的像素值为(32-96]*(32-96]、所述小目标的像素值为(12-32]*(20-32];
(2)采用红外图像集与标签集对改进ResNet网络进行训练,得到红外图像目标检测模型;所述改进ResNet网络的构建方法包括:采用可见光图像集对初始ResNet网络进行训练得到预训练网络,所述初始ResNet网络包括依次设置的输入层、四个卷积层及输出层;之后在预训练网络的输入层与第一层卷积层之间添加第一注意力机制模块,在最后一层卷积层与输出层之间添加第二注意力机制模块,并且在第一层卷积层中添加MSFM多尺度模块,得到改进ResNet网络;
输入图片后,首先进行模型加载,所述预训练网络在识别红外图像之前经过第一注意力机制模块,提高网络模型对红外图像的特征提取能力;输出的图像特征作为预训练网络的Stage1处的MSFM多尺度模块的输入,MSFM多尺度模块从输入中提取语义及细节信息,同时将输出特征调整为不同尺度,并在不同尺度上进行处理,然后将不同尺度的信息进行调整与第一层卷积层的输出特征进行融合输出;输出后的特征经过第二层卷积层时,进入1*1卷积层,步长为2,降低输入尺寸,进行BN和ReLu操作;对得到的结果进行3*3卷积操作,步长为1,进行BN与ReLu操作,再进行1*1的卷积操作,并在第二层卷积层输出时加入残差模块,统一输入与输出尺寸;第三层卷积层与第四卷积层,功能同第二层卷积层,仅增加通道数,降低输出尺寸,最后得到提取后的图像特征;提取后的图像特征经过第二注意力机制模块进行提取,调整关注对象,让模型将注意力放在重点地方,帮助模型选择更好的中间特征,降低其他特征对模型的影响。
2.如权利要求1所述的红外图像目标检测模型构建方法,其特征在于,所述红外图像为包含车辆目标与行人目标的红外图像。
3.如权利要求1所述的红外图像目标检测模型构建方法,其特征在于,所述的初始ResNet网络选自ResNet-50、ResNet-18或ResNet-101。
4.一种红外图像目标检测方法,其特征在于,利用权利要求1构建的红外图像目标检测模型对红外图像中的目标进行检测。
5.一种红外图像目标检测系统,其特征在于,包括图像预处理模块和检测模块,所述图像预处理模块用于将红外视频转化成图像;所述检测模块利用权利要求1所述模型对转化后的图像中的目标进行检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696863.7A CN113420660B (zh) | 2021-06-23 | 2021-06-23 | 一种红外图像目标检测模型构建方法、预测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696863.7A CN113420660B (zh) | 2021-06-23 | 2021-06-23 | 一种红外图像目标检测模型构建方法、预测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113420660A CN113420660A (zh) | 2021-09-21 |
CN113420660B true CN113420660B (zh) | 2023-05-26 |
Family
ID=77716256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110696863.7A Active CN113420660B (zh) | 2021-06-23 | 2021-06-23 | 一种红外图像目标检测模型构建方法、预测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420660B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117934820B (zh) * | 2024-03-22 | 2024-06-14 | 中国人民解放军海军航空大学 | 基于困难样本增强损失的红外目标识别方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647668A (zh) * | 2018-05-21 | 2018-10-12 | 北京亮亮视野科技有限公司 | 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
US11055574B2 (en) * | 2018-11-20 | 2021-07-06 | Xidian University | Feature fusion and dense connection-based method for infrared plane object detection |
CN109815785A (zh) * | 2018-12-05 | 2019-05-28 | 四川大学 | 一种基于双流卷积神经网络的人脸情绪识别方法 |
CN111832509A (zh) * | 2020-07-21 | 2020-10-27 | 中国人民解放军国防科技大学 | 一种时空注意力机制的无人机弱小目标探测方法 |
CN111967480A (zh) * | 2020-09-07 | 2020-11-20 | 上海海事大学 | 基于权重共享的多尺度自注意力目标检测方法 |
CN112308081B (zh) * | 2020-11-05 | 2023-05-30 | 南强智视(厦门)科技有限公司 | 一种基于注意力机制的图像目标预测方法 |
-
2021
- 2021-06-23 CN CN202110696863.7A patent/CN113420660B/zh active Active
Non-Patent Citations (2)
Title |
---|
Infrared target detection in backlighting maritime environment based on visual attention model;Lili Dong et al.;《Infrared Physics & Technology》;全文 * |
基于深度学习的遥感影像小目标检测;张青华;谷国太;李彩林;王佳文;;河南水利与南水北调(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113420660A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110807422A (zh) | 一种基于深度学习的自然场景文本检测方法 | |
CN112233097A (zh) | 基于空时域多维融合的道路场景他车检测系统和方法 | |
Sommer et al. | Deep learning based multi-category object detection in aerial images | |
CN105930822A (zh) | 一种人脸抓拍方法及系统 | |
CN114445430B (zh) | 轻量级多尺度特征融合的实时图像语义分割方法及系统 | |
CN105243154A (zh) | 基于显著点特征和稀疏自编码的遥感图像检索方法及系统 | |
CN112634329A (zh) | 一种基于时空与或图的场景目标活动预测方法及装置 | |
CN112613668A (zh) | 基于人工智能的景区危险区域管控方法 | |
WO2023284255A1 (en) | Systems and methods for processing images | |
Gu et al. | Embedded and real-time vehicle detection system for challenging on-road scenes | |
CN117152414A (zh) | 一种基于尺度注意力辅助学习方法的目标检测方法及系统 | |
Ren et al. | Infrared small target detection via region super resolution generative adversarial network | |
Radiuk et al. | Convolutional neural network for parking slots detection | |
Zhang et al. | CE-RetinaNet: A channel enhancement method for infrared wildlife detection in UAV images | |
Dousai et al. | Detecting humans in search and rescue operations based on ensemble learning | |
CN113420660B (zh) | 一种红外图像目标检测模型构建方法、预测方法及系统 | |
Wu et al. | Detection algorithm for dense small objects in high altitude image | |
Khoshboresh-Masouleh et al. | Robust building footprint extraction from big multi-sensor data using deep competition network | |
Jiang et al. | Identifynet for non-maximum suppression | |
CN112613418A (zh) | 基于目标活动预测的停车场管控方法、装置及电子设备 | |
CN116912763A (zh) | 一种融合步态人脸模态的多行人重识别方法 | |
Inbaraj et al. | Mask-GradCAM: object identification and localization of visual presentation for deep convolutional network | |
Nandhini et al. | An extensive review on recent evolutions in object detection algorithms | |
Adiuku et al. | CNN-fusion architecture with visual and thermographic images for object detection | |
Majidizadeh et al. | Semantic segmentation of UAV images based on U-NET in urban area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |