CN114898082A - 基于数据驱动的空间红外点状目标状态变化感知方法 - Google Patents
基于数据驱动的空间红外点状目标状态变化感知方法 Download PDFInfo
- Publication number
- CN114898082A CN114898082A CN202210823713.2A CN202210823713A CN114898082A CN 114898082 A CN114898082 A CN 114898082A CN 202210823713 A CN202210823713 A CN 202210823713A CN 114898082 A CN114898082 A CN 114898082A
- Authority
- CN
- China
- Prior art keywords
- infrared
- state change
- data
- target
- target state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
Abstract
基于数据驱动的空间红外点状目标状态变化感知方法,涉及红外目标状态识别领域,包括:测量和标定红外点状目标状态变化数据;建立基于多维数据的红外点状目标状态变化数据数学描述表达方法;设计红外点状目标状态变化输入数据序列的维度,标注其对应的红外点状目标状态变化输出数据类别;构建红外点状目标状态变化输入数据序列表达的目标状态配对关系;建立卷积神经网络CNN感知模型,实现数据驱动的红外点状目标状态变化感知。本发明在满足常规成像条件工作应用场景下,可实现红外点状目标状态变化感知准确率达93%以上,为上级系统提供来袭目标的属性识别和意图分析,为当前远距离红外点状目标状态变化感知提供一种高可靠方法。
Description
技术领域
本发明涉及红外目标状态识别技术领域,具体涉及一种基于数据驱动的空间红外点状目标状态变化感知方法。
背景技术
红外成像技术可对目标热辐射进行光电转换,获取人眼能观测的可见光图像,而任何高于绝对零度的目标都在进行热辐射扩散,因此红外成像技术能广泛应用在军事和民用领域而不受环境光照有无的影响。有源目标飞行过程中,依据目标的任务一般需进行姿态调整或者变轨等操作,此时远距离目标在红外探测获取的红外图像上呈现点状目标。由于点状目标缺乏丰富的纹理、结构等可辨识细节信息,同时单帧点状目标图像数据表达信息有限,所以仅通过人眼辨识和图像检测等方法无法获取观测空间点目标所处的状态。空间点状目标的状态变化感知可对目标所处的状态进行辨识,为上级系统提供来袭目标的属性识别和意图分析。论文《深度学习的空间红外弱小目标状态感知方法》(黄乐弘,曹立华,李宁,李毅.中国光学,2020,13(3): 527)和《基于点目标测量的空间目标特性识别技术》(庄绪霞,阮宁娟,赵思思.红外与激光工程,2016,45(S1): 194-199)中均提出利用目标光学绝对辐射测量值进行空间点状目标所处状态识别及分析,缺乏利用测量数据对点状目标状态变化的进一步感知识别;公开号为CN103996027A的中国专利《一种天基空间目标识别方法》提出利用星图计算目标运动轨迹对目标属性进行识别,但此类方法可计算识别点状目标种类受限,导致目标状态变化感知类别有限。因此亟需解决空间红外点状目标状态变化感知。
发明内容
基于此,本发明提供一种基于数据驱动的空间红外点状目标状态变化感知方法。
本发明为解决技术问题所采用的技术方案如下:
本发明的基于数据驱动的空间红外点状目标状态变化感知方法,包括以下步骤:
步骤S1:测量和标定红外点状目标状态变化数据;
步骤S2:建立基于多维数据的红外点状目标状态变化数据数学描述表达方法;
步骤S3:设计红外点状目标状态变化输入数据序列的维度及深度,标注其对应的红外点状目标状态变化输出数据类别;
步骤S4:构建红外点状目标状态变化输入数据序列表达的目标状态配对关系;
步骤S5:建立卷积神经网络CNN感知模型,实现数据驱动的红外点状目标状态变化感知。
进一步的,步骤S1的具体流程如下:
S1.1利用红外探测器获取红外点状目标数据,进行数据变换,实现红外点状目标物理属性反演计算;
S1.2采用线性一维的中值滤波方法对红外点状目标物理属性反演计算结果进行预处理,去除野值、噪点,获得红外点状目标状态变化数据。
进一步的,步骤S1.1中,所述红外点状目标物理属性反演计算中的目标辐射强度反演计算公式如式(1)所示:
式中,D o 为红外探测器输出的灰度值, D dark 为红外探测器暗电流引起的固定偏置,α为红外探测器系统的响应度,τ、L path 分别为红外点状目标和红外探测器系统之间的大气透过率和大气路径辐射,L T 为红外点状目标的辐射亮度。
进一步的,步骤S1.2中,所述中值滤波方法的计算公式如式(2)所示:
进一步的,步骤S2的具体流程如下:
S2.1对红外点状目标状态变化数据进行筛选,针对红外点状目标不同状态变化数据设定相应数据变化判定阈值;通过相应数据变化判定阈值进行判定,通过红外点状目标物理属性分析方法进行分析获取有效的红外点状目标状态变化数据;
S2.2利用红外点状目标物理属性数据的积累,选择目标反演辐射强度、目标高程信息和目标测角数据进行红外点状目标速度计算;
S2.3依据筛选和计算结果,确定红外点状目标状态变化数据维度,形成基于多维数据的红外点状目标状态变化数据数学描述表达式,如式(3)所示:
式中,T i 为红外点状目标状态变化数据数学描述表达式,E i 、L i 、V i 分别为目标高程信息、目标反演辐射强度、红外点状目标速度。
进一步的,步骤S3的具体流程如下:
对基于多维数据的红外点状目标状态变化数据数学描述表达式进行截取,采用序列长度约束方法选取能代表红外点状目标状态变化的最小长度作为红外点状目标状态变化输入数据序列的维度,并标注其对应的红外点状目标状态变化输出数据类别,获得红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的输入输出关系。
进一步的,步骤S3中,所述红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的输入输出关系如式(4)所示:
式中,—>表示输入输出操作,表示基于多维数据的红外点状
目标状态变化输入数据,表示红外点状目标状态变化输出数据,None表示向
量无效维度,1表示1帧数据,90表示90个二维数据对,N表示红外点状目标状态变化输入数
据序列的维度,T表示红外点状目标状态变化输出数据的类别。
进一步的,步骤S4的具体流程如下:
根据基于多维数据的红外点状目标状态变化数据数学描述表达式及红外点状目标状态变化输出数据类别,将红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别进行配对,形成红外点状目标状态变化数据集。
进一步的,步骤S5的具体流程如下:
根据红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的配对关系,设计卷积神经网络CNN感知模型;将红外点状目标状态变化数据集输入卷积神经网络CNN感知模型进行训练,利用该卷积神经网络CNN感知模型对实时获取的红外点状目标状态数据进行推理,感知当前红外点状目标状态变化数据的类别。
本发明的有益效果是:
1)与现有利用人工手段或事后分析等方法相比,利用卷积神经网络实现红外点状目标状态变化自动感知,大大提升了红外点状目标状态变化感知辨识的自动化程度。
2)本发明在满足常规成像条件工作应用场景下,可实现红外点状目标状态变化感知准确率达93%以上,为上级系统提供来袭目标的属性识别和意图分析,为当前远距离红外点状目标状态变化感知提供一种高可靠方法。
附图说明
图1为本发明的一种基于数据驱动的空间红外点状目标状态变化感知方法的流程图。
图2为具体应用实例中红外点状目标调姿状态变化图。
图3为具体应用实例中红外点状目标翻滚状态变化图。
图4为具体应用实例中卷积神经网络CNN感知模型图。
图5为具体应用实例中仿真训练数据。其中,(a)为目标高程模拟仿真信息,(b)为目标辐射强度模拟仿真信息,(c)为目标状态标注信息。
图6为具体应用实例中卷积神经网络CNN感知模型训练结果。其中,(a)为模型训练的损失函数,(b)为模型训练的训练精度,(c)为模型训练的测试精度。
具体实施方式
以下结合附图对本发明作进一步详细说明。
本发明的一种基于数据驱动的空间红外点状目标状态变化感知方法,利用红外探测器获取红外点状目标数据,对其进行测量和标定;对获取的红外点状目标状态变化数据进行筛选,获取有效的红外点状目标状态变化数据,同时为了利于后续计算,构建基于多维数据的红外点状目标状态变化数据数学描述表达式;设计红外点状目标状态变化输入数据序列的维度,采用序列长度约束方法选取能代表红外点状目标状态变化的最小长度作为红外点状目标状态变化输入数据序列的维度,并标注其对应的红外点状目标状态变化输出数据类别,利用红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的输入输出关系,构建红外点状目标状态变化输入数据序列表达的目标状态配对关系;搭建卷积神经网络CNN感知模型,利用已有数据进行模型训练获取模型文件,利用红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的配对关系,实现数据驱动的红外点状目标状态变化感知。
如图1所示,本发明的一种基于数据驱动的空间红外点状目标状态变化感知方法,具体包括以下步骤:
步骤S1:测量和标定红外点状目标状态变化数据。
S1.1利用红外探测器获取红外点状目标数据,对红外点状目标数据进行数据变换,实现红外点状目标物理属性反演计算。其中,最为典型的是目标辐射强度反演计算,其计算公式如式(1)所示:
式中,D o 为红外探测器所输出的灰度值,D dark 为红外探测器暗电流引起的固定偏
置,α为红外探测器系统的响应度(单位(W/srm2 ) -1),τ、L path 分别为红外点状目标和红
外探测器系统之间的大气透过率和大气路径辐射,L T 为红外点状目标的辐射亮度。
S1.2采用线性一维的中值滤波方法对获取的红外点状目标物理属性反演计算结果进行预处理,去除野值、噪点等,获得红外点状目标状态变化数据,其计算公式如式(2)所示:
通过对红外点状目标数据进行测量,获取红外点状目标状态变化数据,可为后续红外点状目标状态变化数据分析进行数据校正工作。
步骤S2:建立基于多维数据的红外点状目标状态变化数据数学描述表达方法。
S2.1对获取的红外点状目标状态变化数据进行筛选,针对红外点状目标不同状态变化数据设定相应数据变化判定阈值;通过相应数据变化判定阈值进行判定以及通过红外点状目标物理属性分析方法进行分析获取有效的红外点状目标状态变化数据;
S2.2利用红外点状目标物理属性数据的积累,选择目标反演辐射强度、目标高程信息和目标测角数据进行红外点状目标速度计算;
S2.3依据筛选和计算结果,确定红外点状目标状态变化数据维度,形成基于多维数据的红外点状目标状态变化数据数学描述表达式,如式(3)所示:
式中,T i 为红外点状目标状态变化数据数学描述表达式,E i 、L i 、V i 分别为目标高程信息、目标反演辐射强度、红外点状目标速度。
步骤S3:设计红外点状目标状态变化输入数据序列的维度,标注其对应的红外点状目标状态变化输出数据类别。
考虑红外点状目标状态变化趋势呈现一般由数据序列体现,为建立合适的红外点状目标状态变化输入数据序列的维度及深度,对上述已选取的基于多维数据的红外点状目标状态变化数据数学描述表达式进行截取,采用序列长度约束方法选取能代表红外点状目标状态变化的最小长度作为红外点状目标状态变化输入数据序列的维度,并标注其对应的红外点状目标状态变化输出数据类别。其中,所获得的红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的输入输出关系如式(4)所示:
式中,—>表示输入输出操作,表示基于多维数据的红外点
状目标状态变化输入数据,表示红外点状目标状态变化输出数据,None表
示向量无效维度,1表示1帧数据,90表示90个二维数据对,N表示红外点状目标状态变化输
入数据序列的维度,T表示红外点状目标状态变化输出数据的类别。
步骤S4:构建红外点状目标状态变化输入数据序列表达的目标状态配对关系。
根据上述基于多维数据的红外点状目标状态变化数据数学描述表达式以及红外点状目标状态变化输出数据类别,将红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别进行配对,形成红外点状目标状态变化数据集。
步骤S5:建立卷积神经网络CNN感知模型,实现数据驱动的红外点状目标状态变化感知。
根据上述红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的配对关系,设计卷积神经网络CNN感知模型,设计卷积层、池化层及全链接层,设置训练批次和训练次数等超级参数,获取预训练模型,如图4所示;将红外点状目标状态变化数据集输入预训练模型进行训练,利用该预训练模型对实时获取的红外点状目标状态数据进行推理,感知当前红外点状目标状态变化数据的类别。
将本发明的一种基于数据驱动的空间红外点状目标状态变化感知方法,应用在实际复杂场景下红外图像真伪识别中。按照上述操作流程,利用红外探测器获取红外点状目标数据,对其进行测量和标定;筛选后获取有效的红外点状目标状态变化数据,如图2和图3所示;构建基于多维数据的红外点状目标状态变化数据数学描述表达式,设计红外点状目标状态变化输入数据序列的维度,并标注其对应的红外点状目标状态变化输出数据类别,利用红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的输入输出关系,构建红外点状目标状态变化输入数据序列表达的目标状态配对关系;搭建卷积神经网络CNN感知模型,如图4所示,针对多维数据[N,H,W,C]输入向量和[1,N]输出类别向量的对应关系,采用不同核卷积K和不同计算步长S进行卷积、池化计算,提取输入信息的特征,利用两个全链接层实现目标状态变化特征识别;利用模拟仿真数据和实测数据进行模型训练及测试,结果如图5所示,得到代表模型收敛的损失函数及模型训练精度,到达满意结果后对测试数据进行模型测试,获取模型测试精度,结果如图6所示;最后利用该预训练模型对实时获取的红外点状目标状态数据进行推理,感知当前红外点状目标状态变化数据的类别。综上,本发明在实际应用场景下实现红外点状目标状态变化感知准确率可达93%以上。
上述仅为本发明的优选实施例而已,并不对本发明起到任何限制作用。任何所属技术领域的技术人员,在不脱离本发明的技术方案的范围内,对本发明揭露的技术方案和技术内容做任何形式的等同替换或修改等变动,均属未脱离本发明的技术方案的内容,仍属于本发明的保护范围之内。
Claims (9)
1.基于数据驱动的空间红外点状目标状态变化感知方法,其特征在于,包括以下步骤:
步骤S1:测量和标定红外点状目标状态变化数据;
步骤S2:建立基于多维数据的红外点状目标状态变化数据数学描述表达方法;
步骤S3:设计红外点状目标状态变化输入数据序列的维度及深度,标注其对应的红外点状目标状态变化输出数据类别;
步骤S4:构建红外点状目标状态变化输入数据序列表达的目标状态配对关系;
步骤S5:建立卷积神经网络CNN感知模型,实现数据驱动的红外点状目标状态变化感知。
2.根据权利要求1所述的基于数据驱动的空间红外点状目标状态变化感知方法,其特征在于,步骤S1的具体流程如下:
S1.1利用红外探测器获取红外点状目标数据,进行数据变换,实现红外点状目标物理属性反演计算;
S1.2采用线性一维的中值滤波方法对红外点状目标物理属性反演计算结果进行预处理,去除野值、噪点,获得红外点状目标状态变化数据。
5.根据权利要求2所述的基于数据驱动的空间红外点状目标状态变化感知方法,其特征在于,步骤S2的具体流程如下:
S2.1对红外点状目标状态变化数据进行筛选,针对红外点状目标不同状态变化数据设定相应数据变化判定阈值;通过相应数据变化判定阈值进行判定,通过红外点状目标物理属性分析方法进行分析获取有效的红外点状目标状态变化数据;
S2.2利用红外点状目标物理属性数据的积累,选择目标反演辐射强度、目标高程信息和目标测角数据进行红外点状目标速度计算;
S2.3依据筛选和计算结果,确定红外点状目标状态变化数据维度,形成基于多维数据的红外点状目标状态变化数据数学描述表达式,如式(3)所示:
式中,T i 为红外点状目标状态变化数据数学描述表达式,E i 、L i 、V i 分别为目标高程信息、目标反演辐射强度、红外点状目标速度。
6.根据权利要求5所述的基于数据驱动的空间红外点状目标状态变化感知方法,其特征在于,步骤S3的具体流程如下:
对基于多维数据的红外点状目标状态变化数据数学描述表达式进行截取,采用序列长度约束方法选取能代表红外点状目标状态变化的最小长度作为红外点状目标状态变化输入数据序列的维度,并标注其对应的红外点状目标状态变化输出数据类别,获得红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的输入输出关系。
8.根据权利要求6所述的基于数据驱动的空间红外点状目标状态变化感知方法,其特征在于,步骤S4的具体流程如下:
根据基于多维数据的红外点状目标状态变化数据数学描述表达式及红外点状目标状态变化输出数据类别,将红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别进行配对,形成红外点状目标状态变化数据集。
9.根据权利要求8所述的基于数据驱动的空间红外点状目标状态变化感知方法,其特征在于,步骤S5的具体流程如下:
根据红外点状目标状态变化输入数据序列与红外点状目标状态变化输出数据类别的配对关系,设计卷积神经网络CNN感知模型;将红外点状目标状态变化数据集输入卷积神经网络CNN感知模型进行训练,利用该卷积神经网络CNN感知模型对实时获取的红外点状目标状态数据进行推理,感知当前红外点状目标状态变化数据的类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210823713.2A CN114898082B (zh) | 2022-07-14 | 2022-07-14 | 基于数据驱动的空间红外点状目标状态变化感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210823713.2A CN114898082B (zh) | 2022-07-14 | 2022-07-14 | 基于数据驱动的空间红外点状目标状态变化感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114898082A true CN114898082A (zh) | 2022-08-12 |
CN114898082B CN114898082B (zh) | 2022-10-04 |
Family
ID=82729853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210823713.2A Active CN114898082B (zh) | 2022-07-14 | 2022-07-14 | 基于数据驱动的空间红外点状目标状态变化感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114898082B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103996027A (zh) * | 2014-05-19 | 2014-08-20 | 上海微小卫星工程中心 | 一种天基空间目标识别方法 |
CN111401473A (zh) * | 2020-04-09 | 2020-07-10 | 中国人民解放军国防科技大学 | 基于注意力机制卷积神经网络的红外目标分类方法 |
CN111581884A (zh) * | 2020-05-11 | 2020-08-25 | 上海无线电设备研究所 | 一种星载多分辨率目标光学辐射图像仿真方法 |
CN113989631A (zh) * | 2021-08-31 | 2022-01-28 | 上海航天控制技术研究所 | 一种基于卷积神经网络的红外图像目标检测网络压缩方法 |
CN114219020A (zh) * | 2021-12-09 | 2022-03-22 | 上海无线电设备研究所 | 一种基于多角度序列图像的空间目标参数反演方法 |
CN114373130A (zh) * | 2022-01-07 | 2022-04-19 | 中国空间技术研究院 | 一种天基红外暗弱小运动目标检测方法 |
-
2022
- 2022-07-14 CN CN202210823713.2A patent/CN114898082B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103996027A (zh) * | 2014-05-19 | 2014-08-20 | 上海微小卫星工程中心 | 一种天基空间目标识别方法 |
CN111401473A (zh) * | 2020-04-09 | 2020-07-10 | 中国人民解放军国防科技大学 | 基于注意力机制卷积神经网络的红外目标分类方法 |
CN111581884A (zh) * | 2020-05-11 | 2020-08-25 | 上海无线电设备研究所 | 一种星载多分辨率目标光学辐射图像仿真方法 |
CN113989631A (zh) * | 2021-08-31 | 2022-01-28 | 上海航天控制技术研究所 | 一种基于卷积神经网络的红外图像目标检测网络压缩方法 |
CN114219020A (zh) * | 2021-12-09 | 2022-03-22 | 上海无线电设备研究所 | 一种基于多角度序列图像的空间目标参数反演方法 |
CN114373130A (zh) * | 2022-01-07 | 2022-04-19 | 中国空间技术研究院 | 一种天基红外暗弱小运动目标检测方法 |
Non-Patent Citations (5)
Title |
---|
JIAN CHEN ET AL: "Research on region selection super resolution restoration algorithm based on infrared micro‑scanning optical imaging model", 《SCIENTIFIC REPORTS》 * |
任向阳等: "红外弱小目标检测技术综述", 《郑州大学学报(理学版)》 * |
庄逢甘 等: "《2004遥感科技论坛》", 31 July 2004, 中国宇航出版社 * |
杨词银 等: "地基空间目标红外辐射特性测量技术", 《仪器仪表学报》 * |
黄乐弘 等: "深度学习的空间红外弱小目标状态感知方法", 《中国光学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114898082B (zh) | 2022-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
CN109344882A (zh) | 基于卷积神经网络的机器人控制目标位姿识别方法 | |
CN107330453B (zh) | 基于分步识别和融合关键部位检测的色情图像识别方法 | |
Chen et al. | Underwater image enhancement based on deep learning and image formation model | |
WO2018228375A1 (zh) | 一种对形变图像的目标识别方法及装置 | |
CN112270249A (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN110689562A (zh) | 一种基于生成对抗网络的轨迹回环检测优化方法 | |
CN109584290A (zh) | 一种基于卷积神经网络的立体图像匹配方法 | |
CN104217404A (zh) | 雾霾天视频图像清晰化处理方法及其装置 | |
CN112734739B (zh) | 一种基于注意力机制与ResNet融合的建筑裂缝可视化识别方法 | |
CN110443849B (zh) | 一种基于深度图像的双流卷积神经网络回归学习的目标定位方法 | |
CN115311186B (zh) | 一种红外与可见光图像跨尺度注意力对抗融合方法及终端 | |
CN116977960A (zh) | 一种基于实例分割的水稻秧苗行检测方法 | |
CN111260687A (zh) | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 | |
CN114898082B (zh) | 基于数据驱动的空间红外点状目标状态变化感知方法 | |
CN111696090B (zh) | 一种无约束环境下人脸图像质量评估方法 | |
CN112767267A (zh) | 基于仿真偏振带雾场景数据集的图像去雾方法 | |
CN111080754B (zh) | 一种头部肢体特征点连线的人物动画制作方法及装置 | |
CN116052264B (zh) | 一种基于非线性偏差校准的视线估计方法及装置 | |
CN111444929A (zh) | 一种基于模糊神经网络的显著图计算方法及系统 | |
CN116843618A (zh) | 一种金属零件浅显外观缺陷检测方法 | |
CN115909332A (zh) | 一种基于通道特征加强的农业遥感图像语义分割方法 | |
CN111899284A (zh) | 一种基于参数化esm网络的平面目标跟踪方法 | |
CN109978962A (zh) | 一种面向暗室照度计检定的低对比度示值图像智能识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |