CN112926552A - 基于深度神经网络的遥感影像车辆目标识别模型及方法 - Google Patents
基于深度神经网络的遥感影像车辆目标识别模型及方法 Download PDFInfo
- Publication number
- CN112926552A CN112926552A CN202110442345.2A CN202110442345A CN112926552A CN 112926552 A CN112926552 A CN 112926552A CN 202110442345 A CN202110442345 A CN 202110442345A CN 112926552 A CN112926552 A CN 112926552A
- Authority
- CN
- China
- Prior art keywords
- inverted residual
- remote sensing
- module
- network
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于深度神经网络的遥感影像车辆目标识别模型及方法。该模型将Yolov4网络结构中PANet网络中的卷积块替换为倒置残差模块,具体为:将PANet网络中上采样单元自下而上依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第一倒置残差模块和第二倒置残差模块;将PANet网络中下采样单元自上而下依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第三倒置残差模块和第四倒置残差模块;在第二倒置残差模块和第三倒置残差模块之间新增一个倒置残差模块,并定义为第五倒置残差模块,所述第五倒置残差模块用于对输入的图像进行下采样。本发明对阴影遮挡等复杂环境下的车辆目标识别更精确。
Description
技术领域
本发明涉及遥感影像目标识别技术领域,具体涉及在复杂环境的街道场景遥感影像中的汽车检测与识别方法,尤其涉及一种基于深度神经网络的遥感影像车辆目标识别模型及方法。
背景技术
航天遥感影像识别任务中,汽车识别作为一种重要的交通工具,一直是研究的难点和热点。无论是军事应用还是民用方面,基于遥感图像的车辆目标检测都发挥着十分重要的作用。而在遥感图像中,车辆目标像素过小、周围环境复杂、语义信息差、建筑物或阴影遮挡等问题导致现有的框架对汽车的识别效果不理想。
目前,国内外对目标识别的研究有很多,但大多数方法是针对一般物体和图像而进行实验分析的,针对车辆目标尤其是小目标检测的研究还少。而针对遥感图像目标像素过小,环境复杂,俯瞰角度不一,目标信息不全,建筑物、云层等遮挡等困难,现有的深度学习方法对遥感图像目标的识别结果仍不理想。
发明内容
针对传统的目标识别方法在面对复杂环境下的遥感影像识别车辆这类小目标时的识别效果较差的问题,本发明提供一种基于深度神经网络的遥感影像车辆目标识别模型及方法。
一方面,本发明提供一种基于深度神经网络的遥感影像车辆目标识别模型,将Yolov4网络结构中PANet网络中的卷积块替换为倒置残差模块,具体为:
将PANet网络中上采样单元自下而上依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第一倒置残差模块和第二倒置残差模块;
将PANet网络中下采样单元自上而下依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第三倒置残差模块和第四倒置残差模块;
在第二倒置残差模块和第三倒置残差模块之间新增一个倒置残差模块,并定义为第五倒置残差模块,所述第五倒置残差模块用于对输入的图像进行下采样。
进一步地,所述倒置残差模块,包括自上而下依次连接的3层子网络;其中,第一层子网络包括依次连接的1*1卷积层、批量标准化层和Relu6激活函数;第二层子网络包括依次连接的3*3卷积层、批量标准化层和Relu6激活函数;第三层子网络包括依次连接的1*1卷积层和批量标准化层;所述第一层子网络的输入与所述第三层子网络的输出相加后作为所述倒置残差模块的输出。
另一方面,本发明提供一种基于深度神经网络的遥感影像车辆目标识别方法,采用上述的遥感影像车辆目标识别模型,所述方法包括:
对原始的遥感影像进行GAMMA矫正;
将矫正后的遥感影像输入至所述遥感影像车辆目标识别模型,并采用预训练好的模型参数yolov4.conv.137作为初始权重值对遥感影像车辆目标识别模型进行训练;
使用训练好的遥感影像车辆目标识别模型对输入的遥感影像进行车辆目标识别。
本发明的有益效果:
针对现有方法无法在遥感图像中取得良好的效果,以及深度卷积神经网络中检测遥感影像中的车辆时存在准确率低、漏检率高(已经被遮挡目标无法识别所导致)等问题,本发明提供的基于深度神经网络的遥感影像车辆目标识别模型及方法,根据深度卷积神经网络PANet算法,将inverted residual模块替换掉原有PANet中的卷积块,从而可以提高Precision和mAP值,改善小目标检测效果;随后在训练开始前,对图片进行预处理,以对图像进行降噪;再通过使用K-means算法对数据集进行聚类分析,在预训练模型下调整网络参数并提高输入图像分辨率,采用多尺度训练得到最优检测模型。
通过在遥感车辆数据集上进行训练和测试,结果表明,该方法在遥感车辆检测中精度、mAP等各项指标均有所提高,且对阴影遮挡等复杂环境下的车辆目标识别更精确。
附图说明
图1为本发明实施例提供的基于深度神经网络的遥感影像车辆目标识别模型的结构图;
图2为现有技术中的Yolov4网络结构图;
图3为本发明实施例提供的倒置残差模块的结构图;
图4为本发明实施例提供的基于深度神经网络的遥感影像车辆目标识别方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供一种基于深度神经网络的遥感影像车辆目标识别模型,该模型将Yolov4网络结构(如图2所示)中PANet网络中的卷积块替换为倒置残差模块,具体为:
将PANet网络中上采样单元自下而上依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第一倒置残差模块和第二倒置残差模块;
将PANet网络中下采样单元自上而下依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第三倒置残差模块和第四倒置残差模块;
在第二倒置残差模块和第三倒置残差模块之间新增一个倒置残差模块,并定义为第五倒置残差模块,所述第五倒置残差模块用于对输入的图像进行下采样。
本发明实施例将改进后的PANet网络定义为IR-PANet网络,IR-PANet作为网络框架的颈部网络,有着自下而上的上采样,并将骨干网络CSPDarknet分为三个检测层,在检测层中,分别将图片分为19×19、38×38、76×76三种像素的网格进行检测,上层网络的语义信息卷积后进行下采样到深层网络,可以丰富网络的语义信息,增加对小目标检测的能力,大大的改善了FPN网络对小目标检测能力的不足。
本发明实施例提供的遥感影像车辆目标识别模型,针对遥感图像中小汽车的特殊性,根据深度卷积神经网络PANet算法,对原有的PANet网络进行改进,将原有PANet网络中的卷积块替换为倒置残差(inverted residual)模块,应用于YOLOv4方法之中,可以提高Precision和mAP值,改善小目标检测效果,增加了模型对小目标以及被遮挡目标的识别能力。
相比于仅适应常规目标的原始网络结构与锚点值,本发明优化后的网络结构与重新聚类得到的锚点值更适合街道场景下目标检测,最终提高了模型的检测精度并且减少了误检。
在上述实施例的基础上,如图3所示,本发明实施例提供的倒置残差模块,包括自上而下依次连接的3层子网络;其中,第一层子网络包括依次连接的1*1卷积层、批量标准化层和Relu6激活函数;第二层子网络包括依次连接的3*3卷积层、批量标准化层和Relu6激活函数;第三层子网络包括依次连接的1*1卷积层和批量标准化层;所述第一层子网络的输入与所述第三层子网络的输出相加后作为所述倒置残差模块的输出。
与深度可分离卷积块不同,本发明实施例中的倒置残差模块把中间的卷积维度从1*1升为3*3,将原来的“两头宽中间窄”的结构改变为“两头窄,中间宽”的结构。在深度卷积网络中,网络越深,其检测能力就越强,其训练、检测时间越慢。倒置残差模块基于深度可分离卷积,增加了网络的深度,而在计算量方面,大大减少了卷积过程中的计算量(如表1所示),提高了网络对语义信息的学习能力,进而提高了网络的识别精度。
表1标准卷积块与倒置残差模块的计算量对比
表1中,h,w表示一个h×w的卷积块,扩展因子t和核大小k,s为步长。
如图4所示,本发明实施例还提供一种基于深度神经网络的遥感影像车辆目标识别方法,采用上述的遥感影像车辆目标识别模型,所述方法包括:
对原始的遥感影像进行GAMMA矫正;
将矫正后的遥感影像输入至所述遥感影像车辆目标识别模型,并采用预训练好的模型参数yolov4.conv.137作为初始权重值对遥感影像车辆目标识别模型进行训练;
使用训练好的遥感影像车辆目标识别模型对输入的遥感影像进行车辆目标识别。
在整幅遥感图像中,环境复杂,阴影遮挡、建筑物遮挡严重影响检测的精度,因此,本发明实施例提供的基于深度神经网络的遥感影像车辆目标识别方法,在训练模型之前(或者说,在遥感图像进行卷积前),使用GAMMA矫正对图像进行了预处理,减少了原图像中的噪声,提亮了图像中的阴影部分,提升了算法对阴影遮盖目标的识别率。
考虑到汽车是一个小目标,原网络定义的anchor boxes与网络的层级结构对于小目标类的研究对象不太适用,因此,针对小目标检测,本发明修改网络的层级结构,然后利用K-means聚类算法对数据集中的小目标进行聚类分析。采用在VOC2012数据集上预训练好的模型参数yolov4.conv.137作为初始权重值,在训练的过程中不断调整参数对模型进行优化,以期达到较好的结果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (3)
1.基于深度神经网络的遥感影像车辆目标识别模型,其特征在于,将Yolov4网络结构中PANet网络中的卷积块替换为倒置残差模块,具体为:
将PANet网络中上采样单元自下而上依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第一倒置残差模块和第二倒置残差模块;
将PANet网络中下采样单元自上而下依次连接的两层卷积块均替换为倒置残差模块,并分别定义为第三倒置残差模块和第四倒置残差模块;
在第二倒置残差模块和第三倒置残差模块之间新增一个倒置残差模块,并定义为第五倒置残差模块,所述第五倒置残差模块用于对输入的图像进行下采样。
2.根据权利要求1所述的遥感影像车辆目标识别模型,其特征在于,所述倒置残差模块,包括自上而下依次连接的3层子网络;其中,第一层子网络包括依次连接的1*1卷积层、批量标准化层和Relu6激活函数;第二层子网络包括依次连接的3*3卷积层、批量标准化层和Relu6激活函数;第三层子网络包括依次连接的1*1卷积层和批量标准化层;所述第一层子网络的输入与所述第三层子网络的输出相加后作为所述倒置残差模块的输出。
3.基于深度神经网络的遥感影像车辆目标识别方法,其特征在于,采用权利要求1或2所述的遥感影像车辆目标识别模型,所述方法包括:
对原始的遥感影像进行GAMMA矫正;
将矫正后的遥感影像输入至所述遥感影像车辆目标识别模型,并采用预训练好的模型参数yolov4.conv.137作为初始权重值对遥感影像车辆目标识别模型进行训练;
使用训练好的遥感影像车辆目标识别模型对输入的遥感影像进行车辆目标识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110442345.2A CN112926552B (zh) | 2021-04-23 | 2021-04-23 | 基于深度神经网络的遥感影像车辆目标识别模型及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110442345.2A CN112926552B (zh) | 2021-04-23 | 2021-04-23 | 基于深度神经网络的遥感影像车辆目标识别模型及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112926552A true CN112926552A (zh) | 2021-06-08 |
CN112926552B CN112926552B (zh) | 2022-08-12 |
Family
ID=76174697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110442345.2A Active CN112926552B (zh) | 2021-04-23 | 2021-04-23 | 基于深度神经网络的遥感影像车辆目标识别模型及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112926552B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850269A (zh) * | 2021-12-01 | 2021-12-28 | 西南石油大学 | 一种基于多分支选择性内核嵌套连接残差网络的方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190147318A1 (en) * | 2017-11-14 | 2019-05-16 | Google Llc | Highly Efficient Convolutional Neural Networks |
CN110826520A (zh) * | 2019-11-14 | 2020-02-21 | 燕山大学 | 一种基于改进YOLOv3-tiny算法的港口抓斗检测方法 |
CN110852222A (zh) * | 2019-10-31 | 2020-02-28 | 上海交通大学 | 一种基于目标检测的校园走廊场景智能监控方法 |
US20200265254A1 (en) * | 2019-02-19 | 2020-08-20 | Fujitsu Limited | Object recognition method, apparatus and network |
CN111681240A (zh) * | 2020-07-07 | 2020-09-18 | 福州大学 | 一种基于YOLO v3与注意力机制的桥梁表面裂痕检测方法 |
CN111723914A (zh) * | 2020-06-22 | 2020-09-29 | 中山大学 | 一种基于卷积核预测的神经网络架构搜索方法 |
CN111814863A (zh) * | 2020-07-03 | 2020-10-23 | 南京信息工程大学 | 一种轻量级车辆与行人的检测方法 |
JP2020201944A (ja) * | 2019-06-13 | 2020-12-17 | ネイバー コーポレーションNAVER Corporation | オブジェクト認識装置およびオブジェクト認識方法 |
CN112650298A (zh) * | 2020-12-30 | 2021-04-13 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN112686225A (zh) * | 2021-03-12 | 2021-04-20 | 深圳市安软科技股份有限公司 | Yolo神经网络的训练方法、行人检测方法和相关设备 |
-
2021
- 2021-04-23 CN CN202110442345.2A patent/CN112926552B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190147318A1 (en) * | 2017-11-14 | 2019-05-16 | Google Llc | Highly Efficient Convolutional Neural Networks |
US20200265254A1 (en) * | 2019-02-19 | 2020-08-20 | Fujitsu Limited | Object recognition method, apparatus and network |
JP2020201944A (ja) * | 2019-06-13 | 2020-12-17 | ネイバー コーポレーションNAVER Corporation | オブジェクト認識装置およびオブジェクト認識方法 |
CN110852222A (zh) * | 2019-10-31 | 2020-02-28 | 上海交通大学 | 一种基于目标检测的校园走廊场景智能监控方法 |
CN110826520A (zh) * | 2019-11-14 | 2020-02-21 | 燕山大学 | 一种基于改进YOLOv3-tiny算法的港口抓斗检测方法 |
CN111723914A (zh) * | 2020-06-22 | 2020-09-29 | 中山大学 | 一种基于卷积核预测的神经网络架构搜索方法 |
CN111814863A (zh) * | 2020-07-03 | 2020-10-23 | 南京信息工程大学 | 一种轻量级车辆与行人的检测方法 |
CN111681240A (zh) * | 2020-07-07 | 2020-09-18 | 福州大学 | 一种基于YOLO v3与注意力机制的桥梁表面裂痕检测方法 |
CN112650298A (zh) * | 2020-12-30 | 2021-04-13 | 广东工业大学 | 一种无人机追踪降落方法及系统 |
CN112686225A (zh) * | 2021-03-12 | 2021-04-20 | 深圳市安软科技股份有限公司 | Yolo神经网络的训练方法、行人检测方法和相关设备 |
Non-Patent Citations (9)
Title |
---|
LIMING ZHOU等: ""Vehicle detection based on remote sensing image of Yolov3"", 《2020 IEEE 4TH INFORMATION TECHNOLOGY, NETWORKING, ELECTRONIC AND AUTOMATION CONTROL CONFERENCE (ITNEC)》 * |
QI-CHAO MAO等: ""Finding every car: a traffic surveillance multi-scale vehicle object detection method"", 《APPLIEDINTELLIGENCE》 * |
YUEXIN ZHANG等: ""On Bridge Surface Crack Detection Based on an Improved YOLOv3 Algorithm"", 《IFAC PAPERSONLINE》 * |
刘万军等: ""基于反残差结构的轻量级多目标检测网络"", 《激光与光电子学进展》 * |
焦天驰: ""基于深度学习的多尺度目标检测算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
焦天驰等: ""结合反残差块和YOLOv3的目标检测法"", 《传感器与微系统》 * |
王金鹏等: ""基于改进的轻量化卷积神经网络火龙果检测方法(英文)"", 《农业工程学报》 * |
蔡舒平等: ""基于改进型YOLOv4的果园障碍物实时检测方法"", 《农业工程学报》 * |
高明月: ""轻量级卷积神经网络的目标检测研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850269A (zh) * | 2021-12-01 | 2021-12-28 | 西南石油大学 | 一种基于多分支选择性内核嵌套连接残差网络的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112926552B (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241982B (zh) | 基于深浅层卷积神经网络的目标检测方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN111723748A (zh) | 一种红外遥感图像舰船检测方法 | |
CN112257569B (zh) | 一种基于实时视频流的目标检测和识别方法 | |
CN114241548A (zh) | 一种基于改进YOLOv5的小目标检测算法 | |
CN103020992A (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN109360179B (zh) | 一种图像融合方法、装置及可读存储介质 | |
CN116524062B (zh) | 一种基于扩散模型的2d人体姿态估计方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN115578615A (zh) | 基于深度学习的夜间交通标志图像检测模型建立方法 | |
CN116469020A (zh) | 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法 | |
CN115457249A (zh) | 红外图像与可见光图像融合匹配的方法及系统 | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
CN111915558A (zh) | 一种高压输电线销钉状态检测方法 | |
CN114708615A (zh) | 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质 | |
CN114926826A (zh) | 场景文本检测系统 | |
CN112926552B (zh) | 基于深度神经网络的遥感影像车辆目标识别模型及方法 | |
CN113487530B (zh) | 一种基于深度学习的红外与可见光融合成像方法 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 | |
CN110555406B (zh) | 一种基于Haar-like特征及CNN匹配的视频运动目标识别方法 | |
CN113256528B (zh) | 基于多尺度级联深度残差网络的低照度视频增强方法 | |
CN111008555B (zh) | 一种无人机图像弱小目标增强提取方法 | |
CN110769258A (zh) | 一种用于特定场景多语义区域的图像压缩方法及系统 | |
CN114897941B (zh) | 基于Transformer和CNN的目标跟踪方法 | |
CN110738685B (zh) | 一种融合颜色直方图响应的时空上下文跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |