CN104463245B - 一种目标识别方法 - Google Patents
一种目标识别方法 Download PDFInfo
- Publication number
- CN104463245B CN104463245B CN201410743344.1A CN201410743344A CN104463245B CN 104463245 B CN104463245 B CN 104463245B CN 201410743344 A CN201410743344 A CN 201410743344A CN 104463245 B CN104463245 B CN 104463245B
- Authority
- CN
- China
- Prior art keywords
- atom
- target
- training
- dictionary
- test sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
Abstract
本发明实施例公开一种目标识别方法,应用于雷达目标识别领域,能够避免目标信息丢失以及方位角对识别结果的过大影响。该方法包括:利用独立同分布高斯随机矩阵,对训练样本和测试样本进行降维。将降维后的每一个训练样本称为一个原子,降维后的训练样本集称为字典。针对每一幅目标图像,降维后,从训练样本中挑选用于稀疏表示的原子,使其可以最大可能的重构目标图像原子。然后将不同方位角的目标图像作为一个整体,通过自适应方法,将稀疏表示每一幅图像的原子提取出来,构成局部自适应字典。通过联合稀疏表示方法,计算赋给局部自适应原子中的各原子的系数值,将目标图像集联合稀疏重构出来。最后,通过各个类别中参与联合稀疏表示的原子的贡献度,得到测试目标的类别。本发明的实施例应用于训练集相对完备,目标图像数量有限且方位角参数不确定的情况下。
Description
技术领域
本发明涉及雷达目标识别技术领域,尤其涉及一种目标识别方法。
背景技术
信号处理技术常常需要通过更有效的表示来捕获信号的特征,对识别来说,表示方法需要突出显著特征,对去噪来说,表示方法需要有效的分离信号和噪声,对压缩来说,表示方法需要用少量的系数来描述大部分的信号。这些应用看似目的不同,但都有一个共同的目标就是简化信号表示,即稀疏化。Chen S等人提出了冗余字典上的稀疏表示方法。Elad M,Protter M,Bryt O等研究人员使用稀疏表示方法,在基础的信号和图像处理中取得了目前最好的效果。研究表明测试样本能够被表示(或逼近)成训练样本的线性组合,而且这些组合系数是稀疏的,也就是说大部分系数是0,或接近0。为了进一步提高目标的识别率,提高目标信息的利用率,Haichao Zhang等人在传统的稀疏表示方法基础上,提出联合稀疏表示方法。将相近方位角的目标图像联合形成测试样本集,利用稀疏表示原理,由训练原子将测试样本集联合稀疏表示出来。
传统的稀疏表示方法,使用独立的目标图像进行目标识别,不能充分利用目标信息,而联合稀疏表示方法将相近方位的目标图像联合起来用于目标识别,相比之下,增加了目标信息量,提高了识别率,然而该方法存在较大的局限性。由于雷达图像对目标姿态敏感的特征,联合稀疏表示的目标图像之间,方位角间隔不能过大,否则会导致干扰信息增加,识别率下降。
发明内容
本发明实施例提供一种目标识别方法,解决了现有技术因方位角间隔过大导致干扰增加识别率下降的缺陷。
本发明的第一方面提供一种目标识别方法,包括:选择训练样本,通过独立同分布高斯随机矩阵对训练样本和测试样本降维;针对每一个所述测试样本,采用所述同分布高斯随机矩阵进行降维,得到测试原子,当稀疏度一定时,从训练字典中选择可以最大程度稀疏重构出测试样本的训练原子集合;选取目标不同方位的图像合成测试样本集,使用自适应方法将与所述测试样本集中每一个样本对应的训练原子从训练字典中提取出来,并将所有提取出来的原子合并起来,构成局部自适应字典,利用所述局部自适应字典,获得目标图像集联合稀疏表示;根据最小重构错误准则,判断目标类别。
根据第一方面,在第一种可能的实现方式中,所述针对每一个所述测试样本,得到训练样本集中选择最大程度稀疏重构出测试样本的原子包括:将稀疏度K作为限制条件时,||x||<K,其中范数可以为1范数或者0范数。
根据第一方面,在第二种可能的实现方式中,所述得到训练样本集中选择最大程度稀疏重构出测试样本的原子包括:匹配追踪。
根据第一方面的第二种可能的实现方式,在第三种可能的实现方式中,所述匹配追踪包括:计算测试原子与训练字典中各原子的内积,选择绝对值最大的一个原子,它就是与测试样本在本次迭代中最匹配的;将测试样本分解为在最匹配原子方向的投影部分和残差部分,将残差部分分解为最匹配原子方向的投影和残差部分投影,更新残差部分,直到获得较小的残差值或者一定数量的匹配原子。
根据第一方面的第二种可能的实现方式,在第四种可能的实现方式中,所述得到训练样本集中选择最大程度稀疏重构出测试样本的原子还包括:在分解的每一步对所选择的全部原子进行正交化处理。
根据第一方面的第二种可能的实现方式,在第五种可能的实现方式中,所述得到训练样本集中选择最大程度稀疏重构出测试样本的原子还包括:在匹配追踪之前,通过相应的稀疏算法,对测试样本进行采样。
根据第一方面,在第六种可能的实现方式中,所述获得目标图像集联合稀疏表示包括:多重压缩感知匹配追踪。
本发明提供的目标识别方法,将构建自适应局部字典和联合稀疏表示的优势结合在一起,既增加了目标信息量,又克服了方位信息间隔对识别率的影响。该方法在随机选取目标方位图像、选取任意幅目标图像的情况下都能保持较高的识别率,是一种较好的雷达目标识别方法。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例提供的目标识别方法的流程示意图;
图2为本发明实施例仿真实验采用的训练、测试数据情况的示意图;
图3为本发明实施例稀疏表示方法、联合稀疏表示方法原子选择正确率对比图;
图4为本发明实施例目标图像数目变化对识别结果的影响的示意图;
图5本发明实施例图像方位角间隔变化对识别结果的影响的示意图;
图6本发明实施例中的稀疏表示、联合稀疏表示、本发明方法的识别率统计图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
本发明实施例公开一种利用目标图像融合、联合稀疏表示进行目标识别的算法,应用于雷达目标识别领域,能够避免目标信息丢失以及方位角对识别结果的过大影响。该方法包括:利用独立同分布高斯随机矩阵,对训练样本和测试样本进行降维。将降维后的每一个训练样本称为一个原子,降维后的训练样本集称为字典。针对每一幅目标图像,降维后,从训练样本中挑选用于稀疏表示的原子,使其可以最大可能的重构目标图像原子。然后将不同方位角的目标图像作为一个整体,通过自适应方法,将稀疏表示每一幅图像的原子提取出来,构成局部自适应字典。通过联合稀疏表示方法,计算赋给局部自适应原子中的各原子的系数值,将目标图像集联合稀疏重构出来。最后,通过各个类别中参与联合稀疏表示的原子的贡献度,得到测试目标的类别。本发明的实施例应用于训练集相对完备,目标图像数量有限且方位角参数不确定的情况下。
下面以具体实施例来进行说明。
图1为本发明实施例提供的目标识别方法的流程示意图,参考图1,该方法主要包括以下步骤:
10、选择训练样本,通过独立同分布高斯随机矩阵对训练样本和测试样本降维。
已知k种目标,对不同目标类别进行标记label=1,2,...,k。通过1°-360°分别获取目标图像,且图像方位角间隔<=3°。其中每一幅图像,都是训练样本。所有图像的集合为训练样本集。
针对未知类别的目标,通过任意角度获得的目标图像为测试样本,多幅图像组成测试样本集。
本实施例假设训练样本图像大小为w×w,将二维图像转换为一个列向量vni(),即为第i类目标的第n个训练样本。训练样本集的第i类样本可表示为Di=[v1i,v2i,...,vni]。训练样本集由k类目标组成,D=[D1,D2,...Dk]。R为独立同分布高斯随机矩阵,即随机生成的标准正交矩阵,且每一行满足Norm(0,1)分布, 为降维后的训练样本集,即为训练字典,每一个降维后的训练样本为一个训练原子。
20、针对每一个测试样本,采用同样的同分布高斯随机矩阵进行降维,得到测试原子,当稀疏度一定时,从训练字典中选择可以最大程度稀疏重构出测试样本的训练原子集合。
在原子选择阶段,稀疏表示方法的选择正确率远大于联合稀疏表示选择正确率,以此,在使用联合稀疏表示方法融合多传感器图像之前,使用稀疏表示方法进行原子选择,控制融合引入的干扰。测试原子x为系数向量。稀疏度K为从训练字典中挑选的训练原子个数,当稀疏度一定时,x中非零元素的个数确定。要求挑选出来的原子具有最大程度重构测试样本的能力,即使用表示满足上式条件的系数向量。
30、选取目标不同方位的图像合成测试样本集,使用自适应方法将测试样本集中每一个样本对应的训练原子从训练字典中提取出来,并将所有提取出来的原子合并起来,构成局部自适应字典,利用所述局部自适应字典,获得目标图像集联合稀疏表示。
选择从目标不同方位角照射得到的M幅目标图像,形成测试样本集Y=[y1,y2,...,yM]。对Y中的每一个样本采用相同的独立同分布高斯矩阵进行降维,得到测试字典将其中每一个测试原子稀疏表示出来的训练原子,合并为一个原子集合,即局部自适应字典将重新给各原子分配相应的稀疏系数,这样可以将测试样本联合稀疏表示出来。X=[x1,...,xM]为系数矩阵,K为稀疏度。其中对X系数矩阵,首先在每一行使用l2范数,得到的结果再使用l0范数。表示满足约束条件的系数矩阵。
本方案从m个不同的角度去拍摄目标,得到目标m幅图片,然后把m幅图片并列到一起,当做一个整体,这样可以结合更多的目标信息。
40、根据最小重构错误准则,判断目标类别。
最小重构错误准则是多次计算最小重构错误准则,具体的:
重复步骤10到步骤30,多次计算最小重构错误准则,判断目标类别。
δi(·)选择向量中与第i类目标对应的元素不变,其它元素为0。求得每一类训练样本对测试样本集的重构错误大小。减小随机矩阵带来的偶然性,重复C次步骤10-步骤30,生成不同的独立同分布高斯矩阵,计算每一次各类的重构错误。目标类别
其中,
局部自适应字典中的原子可能来自不同类别的训练样本,分别计算测试样本跟不同类别的目标的差异,将测试样本判定为差异最小的那类目标。
为了消除独立同分布高斯随机矩阵对目标识别结果的直接影响,变量C的取值范围为1-20,通过重复计算,累计计算结果,通过累计的方式可以消除偶然性。
本实施例,将构建自适应局部字典和联合稀疏表示的优势结合在一起,既增加了目标信息量,又克服了方位信息间隔对识别率的影响。该方法在随机选取目标方位图像、选取任意幅目标图像的情况下都能保持较高的识别率,是一种较好的雷达目标识别方法。
在上述方案基础上,步骤20中所述针对每一个所述测试样本,得到训练样本集中选择最大程度稀疏重构出测试样本的原子可以优选包括:
将稀疏度K作为限制条件时,||x||<K,其中范数可以为1范数或者0范数。
x的0范数表示向量x中不为零的个数,1范数表示x中所有元素的绝对值之和。由于在上述特定环境下,干扰原子对应系数值理论上很小,而有用的原子对应的值很大,所以,使用1范数的计算结果可以近似使用0范数的近似结果,同时从数学角度讲,计算1范数约束的极小值更为简单。所以这两种方法都可以在原子选择阶段进行计算。
在上述方案基础上,步骤30中,所述得到训练样本集中选择最大程度稀疏重构出测试样本的原子包括:匹配追踪。
具体地,匹配追踪包括:
301、计算测试原子与训练字典中各原子的内积,选择绝对值最大的一个原子,该原子作为与测试样本在本次迭代中最匹配原子。
其中,为最匹配原子。
302、将测试样本分解为在最匹配原子方向的投影部分和残差部分,将残差部分分解为最匹配原子方向的投影和残差部分投影,更新残差部分,直到获得较小的残差值或者一定数量的匹配原子。。
与上述301过程相同,计算残差部分与训练字典中各原子的内积,选择绝对值最大的一个原子,将残差部分分解为最匹配原子方向的投影和残差部分投影,更新残差部分,直到获得较小的残差值或者一定数量的匹配原子。
匹配追踪的目的是:在稀疏度一定的条件下,找到可以最大程度重构出测试原子的训练原子。
在上述方案基础上,所述得到训练样本集中选择最大程度稀疏重构出测试样本的原子还包括:
在分解的每一步对所选择的全部原子进行正交化处理。
具体,302中将样本分解成最匹配原子方向投影的部分和残差部分,残差部分又继续分解,不停的进行迭代,即在得到残差后,先对剩余训练字典的原子进行正交化,再进行下一步迭代计算。
在匹配追踪算法的基础上,残差部分与在已选择原子上的垂直投影是非正交性的,这导致算法收敛性下降。通过在分解的每一步对所选择的全部原子进行正交化处理,使收敛速度更快。
在上述方案基础上,所述得到训练样本集中选择最大程度稀疏重构出测试样本的原子还包括:
在匹配追踪之前,通过相应的稀疏算法,对测试样本进行采样。
采用相应的稀疏算法主要目的是为了降维,即把数据从高维空间映射到低维空间。算法可以包括前面所述的独立同分布高斯矩阵降维,也可以使用独立主成分分析(PCA)、非负矩阵分解(NMF)等。具体实现E即为采样矩阵。
在匹配追踪之前,通过相应的稀疏算法,对测试样本进行采样。可以使在对数据量较大的样本进行处理时,减少冗余信息,节省运算时间和空间。
在上述方案基础上,所述获得目标图像集联合稀疏表示包括:多重压缩感知匹配追踪。
具体地,是针对的是多个测试样本构成的矩阵。
一个样本是一个列向量,多个测试样本构成一个矩阵,其中矩阵的每一列都是一个样本。
本发明的核心在于将构建自适应局部字典和联合稀疏表示的优势结合在一起,既增加了目标信息量,又克服了方位信息间隔对识别率的影响。该算法在随机选取目标方位图像、选取任意幅目标图像的情况下都能保持较高的识别率,是一种较好的雷达目标识别算法。
下面结合仿真例子给出本发明与传统方法的性能比较。
采用MSTAR(moving and stationary target acquisition andrecognition)数据库中BMP2,BTR70,T72(这三类是目标型号)三类目标参与目标识别。如图2所示,训练样本的俯仰角为17°,测试样本俯仰角为15°。将64×64的二维图像样本分别转换成4096×1的列向量。采用144×4096的独立同分布高斯随机矩阵对训练样本和测试样本降维。重复实验次数因子C=10,在稀疏度一定的情况下,分别采用稀疏表示方法、联合稀疏表示方法、结合稀疏和联合稀疏表示的方法,进行目标识别。
图3给出稀疏表示方法和联合稀疏表示方法在原子选择时的正确率。在稀疏度为3,联合稀疏表示的图像数为3时,稀疏表示方法选择正确原子的概率远大于联合稀疏表示方法的概率。说明尽管联合稀疏表示可以引入更多的目标信息,在原子选择阶段它也会引入更多的干扰。本发明就是在此基础之上,结合稀疏和联合稀疏表示的方法优势,增加目标信息,同时控制干扰。
图4表示当目标图像数目发生变化时,本发明方法的识别率变化情况。图像数为1时,即为稀疏表示。当采用的图像数目增加时,目标信息量增加,识别率提高。
图5表示当目标图像方位角间隔发生变化时,本发明方法的识别率变化情况。稀疏度为3,目标图像数为3,随着方位角间隔的变化,目标识别率稳定在97%以上,证明本发明方法对方位角参数变化有较强的鲁棒性。
图6表示在稀疏度为3,目标图像数为3,方位角间隔为120°时,稀疏表示、联合稀疏表示、本发明方法的目标识别率。与已有的稀疏表示方法相比,本发明方法有更好的识别效果。这是因为:
从数据选择角度:
现有技术进行识别的测试数据,是独立的一幅目标图像;
本发明进行识别的测试数据是目标的多幅图像。增加对目标信息的利用率。
从特征提取方面:
现有技术提取测试图像的一个或多个特征,对这些特征进行联合稀疏表示。增加的是对图像信息的利用率。
本发明不进行复杂的特征提取,只进行简单降维,提高算法可移植性。
现有技术通常针对图像的多个特征构成的特征集合,使用全局字典进行联合稀疏表示,求出相应的原子和对应稀疏。本发明在联合稀疏表示之前,使用稀疏表示算法进行原子提取,构建自适应局部字典,然后再通过联合稀疏再次计算局部字典中各原子对应的系数。通过构建局部自适应字典,提高算法抗干扰能力。
现有技术中联合稀疏表示算法用于在训练阶段构建小字典,测试时进行投影。联合稀疏表示的目滴是减少训练数据的冗余信息,其构造的小字典是固定不变的。本发明构建的局部字典中的元素是根据采用的目标图像自适应选择出来,使小字典适应不同测试样本的需求。并且本发明的联合稀疏表示是在测试阶段使用的,主要用来融合目标不同方位图像的信息,提高目标信息利用率。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (3)
1.一种目标识别方法,其特征在于,包括:
选择训练样本,通过独立同分布高斯随机矩阵对训练样本和测试样本降维;
针对每一个所述测试样本,采用所述独立同分布高斯随机矩阵进行降维,得到测试原子,当稀疏度一定时,从训练字典中选择最大程度稀疏重构出测试样本的训练原子集合;
选取目标不同方位的图像合成测试样本集,使用自适应方法将与所述测试样本集中每一个样本对应的训练原子从训练字典中提取出来,并将所有提取出来的原子合并起来,构成局部自适应字典,利用所述局部自适应字典,获得目标图像集联合稀疏表示;
根据最小重构错误准则,判断目标类别。
2.根据权利要求1所述的方法,其特征在于,所述从训练字典中选择最大程度稀疏重构出测试样本的训练原子集合包括:
匹配追踪。
3.根据权利要求1所述的方法,其特征在于,所述获得目标图像集联合稀疏表示包括:多重压缩感知匹配追踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410743344.1A CN104463245B (zh) | 2014-12-08 | 2014-12-08 | 一种目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410743344.1A CN104463245B (zh) | 2014-12-08 | 2014-12-08 | 一种目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104463245A CN104463245A (zh) | 2015-03-25 |
CN104463245B true CN104463245B (zh) | 2018-10-26 |
Family
ID=52909259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410743344.1A Active CN104463245B (zh) | 2014-12-08 | 2014-12-08 | 一种目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104463245B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105827250B (zh) * | 2016-03-16 | 2019-10-01 | 江苏大学 | 一种基于自适应字典学习的电能质量数据压缩重构方法 |
CN110443194B (zh) * | 2019-08-05 | 2021-09-07 | 哈尔滨工业大学 | 基于spi稀疏约束的时变信号成分提取方法 |
CN111882003B (zh) * | 2020-08-06 | 2024-01-23 | 北京邮电大学 | 数据分类方法、装置及设备 |
CN113052015B (zh) * | 2021-03-09 | 2024-03-12 | 北京工业大学 | 一种基于稀疏表示的承压界面超声信号分类识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551856A (zh) * | 2009-05-22 | 2009-10-07 | 西安电子科技大学 | 基于稀疏最小二乘支撑向量机的sar目标识别方法 |
KR101087765B1 (ko) * | 2010-10-22 | 2011-11-30 | 고려대학교 산학협력단 | 얼굴 인식 기반의 범죄 용의자 탐지 및 식별 시스템 |
CN103824088A (zh) * | 2014-01-23 | 2014-05-28 | 西安电子科技大学 | 基于多信息联合动态稀疏表示的sar目标变体识别方法 |
CN103984966A (zh) * | 2014-05-29 | 2014-08-13 | 西安电子科技大学 | 基于稀疏表示的sar图像目标识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6937746B2 (en) * | 2001-05-31 | 2005-08-30 | Northrop Grumman Corporation | System and method for automatic recognition of formations in moving target indication data |
-
2014
- 2014-12-08 CN CN201410743344.1A patent/CN104463245B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551856A (zh) * | 2009-05-22 | 2009-10-07 | 西安电子科技大学 | 基于稀疏最小二乘支撑向量机的sar目标识别方法 |
KR101087765B1 (ko) * | 2010-10-22 | 2011-11-30 | 고려대학교 산학협력단 | 얼굴 인식 기반의 범죄 용의자 탐지 및 식별 시스템 |
CN103824088A (zh) * | 2014-01-23 | 2014-05-28 | 西安电子科技大学 | 基于多信息联合动态稀疏表示的sar目标变体识别方法 |
CN103984966A (zh) * | 2014-05-29 | 2014-08-13 | 西安电子科技大学 | 基于稀疏表示的sar图像目标识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104463245A (zh) | 2015-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107766894B (zh) | 基于注意力机制和深度学习的遥感图像自然语言生成方法 | |
CN109636742B (zh) | 基于对抗生成网络的sar图像和可见光图像的模式转换方法 | |
US20230134967A1 (en) | Method for recognizing activities using separate spatial and temporal attention weights | |
Elons et al. | A proposed PCNN features quality optimization technique for pose-invariant 3D Arabic sign language recognition | |
CN103955701B (zh) | 多层次结合的多视合成孔径雷达图像目标识别方法 | |
CN104463245B (zh) | 一种目标识别方法 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
Lacewell et al. | Optimization of image fusion using genetic algorithms and discrete wavelet transform | |
Shu et al. | LVC-Net: Medical image segmentation with noisy label based on local visual cues | |
CN117237740B (zh) | 一种基于CNN和Transformer的SAR图像分类方法 | |
Wang et al. | MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection | |
CN110490894A (zh) | 基于改进的低秩稀疏分解的视频前背景分离方法 | |
CN114549567A (zh) | 基于全方位感知的伪装目标图像分割方法 | |
CN112966553A (zh) | 基于孪生网络的强耦合目标跟踪方法、装置、介质及设备 | |
CN109871907B (zh) | 基于sae-hmm模型的雷达目标高分辨率距离像识别方法 | |
CN113327271B (zh) | 基于双光孪生网络决策级目标跟踪方法、系统及存储介质 | |
Cheng et al. | An image-based deep learning approach with improved DETR for power line insulator defect detection | |
Shen et al. | An improved UAV target detection algorithm based on ASFF-YOLOv5s | |
Huang et al. | EST-YOLOv5s: SAR Image Aircraft Target Detection Model Based on Improved YOLOv5s | |
Xing et al. | Multi-level adaptive perception guidance based infrared and visible image fusion | |
Lange et al. | Lopr: Latent occupancy prediction using generative models | |
Rahimi et al. | Uav sensor fusion with latent-dynamic conditional random fields in coronal plane estimation | |
CN115982573A (zh) | 多功能送料机及其控制方法 | |
Ditzel et al. | Genradar: Self-supervised probabilistic camera synthesis based on radar frequencies | |
Zhao et al. | Deep learning-based laser and infrared composite imaging for armor target identification and segmentation in complex battlefield environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |