CN111968156A - 一种自适应超特征融合的视觉跟踪方法 - Google Patents
一种自适应超特征融合的视觉跟踪方法 Download PDFInfo
- Publication number
- CN111968156A CN111968156A CN202010737552.6A CN202010737552A CN111968156A CN 111968156 A CN111968156 A CN 111968156A CN 202010737552 A CN202010737552 A CN 202010737552A CN 111968156 A CN111968156 A CN 111968156A
- Authority
- CN
- China
- Prior art keywords
- formula
- feature
- manual
- scale
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004927 fusion Effects 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 title claims abstract description 19
- 230000003044 adaptive effect Effects 0.000 title claims description 10
- 230000004044 response Effects 0.000 claims abstract description 46
- 238000001914 filtration Methods 0.000 claims abstract description 18
- 238000005457 optimization Methods 0.000 claims abstract description 8
- 238000009826 distribution Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 230000009977 dual effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pure & Applied Mathematics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种自适应超特征融合的视觉跟踪方法,包括以下步骤:步骤S1:对输入图像序列分别提取深度特征和传统手工特征;步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。本发明充分结合不同特征的性能优势以实现鲁棒精准的跟踪。
Description
技术领域
本发明涉及人工智能视频图像处理技术领域,具体涉及一种自适应超特征融合的视觉跟踪方法。
背景技术
当前,随着信息通信技术与云存储设备的不断迭代升级,利用人工智能技术取代人工劳力已成为现代科技发展的主流趋势,不但能够减轻生产劳动成本,而且能够有效提升生产工作效率。视觉目标跟踪技术又是人工智能众多领域中一项重要热门的研究方向,能够被广泛运用于视频监控系统、无人机、自动驾驶、智能机器人、以及虚拟现实等多个领域。
虽然目标跟踪方法取得显著的精确性和鲁棒性,但其仍然面临多种外界因素的干扰和复杂外观变化的挑战,如遮挡、尺度变化、形变以及相似背景干扰等。设计一种能够适应多种外观环境挑战的跟踪方法是以实现准确鲁棒的跟踪是目前视觉跟踪领域重要的研究问题。
一方面传统的手工特征表达不能提取目标的深层次语义信息,进而不能实现精确的目标定位。而高维的深层次卷积特征虽然能够保留完整的空间结构和高清的分辨率,但其对目标的外观变化较为敏感,进而难以适应复杂的外观变化。另一方面,传统的逐帧更新模型的方法容易引起模型的污染问题,长期积累容易引起跟踪漂移问题,最终导致跟踪失败。
发明内容
有鉴于此,本发明的目的在于提供一种
为实现上述目的,本发明采用如下技术方案:
一种自适应超特征融合的视觉跟踪方法,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
进一步的,所述位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
其中,i为当前帧的序号,η为滤波模型学习率。
进一步的,所述步骤A2具体为:
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:
其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:
进一步的,所述尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_deep1+0.5×f_deep2 (6)
其中,f_deep1和f_deep2分别为conv5-4,conv4-4层经公式(3)计算生成的对应的响应图;
步骤B2:将手工特征和深度特征经公式(3)和公式(6)计算生成的响应图进行加权融合得到:
其中,fuse_r1和fuse_r2为深度特征和手工特征对应的响应权重。
进一步的,所述步骤S3具体为:
步骤S31:将深度特征与手工特征生产的响应图进行加权融合得到如下公式:
f_fuse=model_fuse_r1×f_deep+model_fuse_r2×f_hand
model_fuse_r1=fuse_r1;
(9)
步骤S32:分别利用公式(10)和公式(11)进行更新响应权重系数:
步骤S33:利用高斯约束优化方法优化公式(9)生成的相关输出响应图,使其服从高斯分布以提高对复杂外观变化的适应性,其表达式为:
其中,yi表示第i帧样本的高斯函数标签,μ和σ2分别为高斯函数N的平均值和标准差。
进一步的,所述步骤S4具体为:分别计算手工特征和深度特征对应输出响应图的PSR值,并分别记为PSR_deep和PSR_hand,于是将得到每个旁瓣的权重:
计算最终的峰值旁瓣比为:
仅当满足当前帧的平均PSR值大于响应图峰值时,将在线更新公式(4)和公式(5)的学习率参数η,此时当前帧的跟踪结果视为相对精确的,否则将选择不更新模型。
进一步的,所述模型更新,具体为:利用贝叶斯框架求解方程(12),它的两个KKT条件为:
引入||βt-βt-1||2替代公式(13)的高斯约束,运用拉格朗日方法获得公式(13)的对偶形式,其在贝叶斯框架上的具体表达式为:
求解得到公式(15):
根据公式(16),将进化后的学习因子η替代公式(4)和公式(5)对应的模型学习因子。
本发明与现有技术相比具有以下有益效果:
1、本发明通过有效结合传统手工特征和深度卷积特征的性能优势,提升分类器的判别性能。
2、本发明引入一种高斯约束优化方法提高跟踪器对复杂外观变化的适应能力,能够有效提升跟踪器的精确性和成功率
3、本发明所提的更新方法根据平均PSR值与相应图峰值的关系自适应判断模型的更新,能够有效避免模型污染引起的跟踪漂移问题。
附图说明
图1是本发明方法流程图;
图2是本发明一实施例中在OTB100数据集中在50个视频序列的精确度曲线和成功率曲线图;
图3是本发明一实施例中在OTB100数据集中在100个视频序列的精确度曲线和成功率曲线图;
图4是本发明一实施例中UAV123数据集中在123个视频序列的精确度曲线和成功率曲线图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种自适应超特征融合的视觉跟踪方法,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
在本实施例中,优选的位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
步骤A21:对于上下文感知滤波器w,向量化高斯形变标签y,以及搜索窗口经循环移位形成的数据矩阵D0,通过优化如下目标函数:
其中,λ1和λ2为正则化权重因子,D0和Di为对应的循环矩阵。
步骤A22:经过求解得到上下文感知滤波器w在傅里叶域的封闭解为:
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
其中,i为当前帧的序号,η为滤波模型学习率。
在本实施例中,优选的,尺度滤波模型构建,具体如下:
步骤B1:构建尺度判别滤波器,提取目标分层卷积特征,并进行线性加权融合:
f_deep=1×f_deep1+0.5×f_deep2 (6)
其中,f_deep1和f_deep2分别为conv5-4,conv4-4层经公式(3)计算生成的对应的响应图;
步骤B2:将手工特征和深度特征经公式(3)和公式(6)计算生成的响应图进行加权融合得到:
其中,fuse_r1和fuse_r2为深度特征和手工特征对应的响应权重。
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;所述步骤S3具体为:
步骤S31:将深度特征与手工特征生产的响应图进行加权融合得到如下公式:
f_fuse=model_fuse_r1×f_deep+model_fuse_r2×f_hand
model_fuse_r1=fuse_r1;
(9)
步骤S32:分别利用公式(10)和公式(11)进行更新响应权重系数:
步骤S33:利用高斯约束优化方法优化公式(9)生成的相关输出响应图,使其服从高斯分布以提高对复杂外观变化的适应性,其表达式为:
其中,yi表示第i帧样本的高斯函数标签,μ和σ2分别为高斯函数N的平均值和标准差。
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
所述步骤S4具体为:分别计算手工特征和深度特征对应输出响应图的PSR值,并分别记为PSR_deep和PSR_hand,于是将得到每个旁瓣的权重:
计算最终的峰值旁瓣比为:
仅当满足当前帧的平均PSR值大于响应图峰值时,将在线更新公式(4)和公式(5)的学习率参数η,此时当前帧的跟踪结果视为相对精确的,否则将选择不更新模型。
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
优选的,在本实施例中,所述模型更新,具体为:利用贝叶斯框架求解方程(12),它的两个KKT条件为:
引入||βt-βt-1||2替代公式(13)的高斯约束,运用拉格朗日方法获得公式(13)的对偶形式,其在贝叶斯框架上的具体表达式为:
求解得到公式(15):
根据公式(16),将进化后的学习因子η替代公式(4)和公式(5)对应的模型学习因子。
参考图2-4,本实施例从多个方面将本方法与目前先进主流的方法进行对比,其中主要的评价指标为跟踪精确度和成功率。图2至图4方框中的曲线从上到下表示该方法(或算法)的从从优到劣。从图2至图4可以看出,本实施例的方法在UAV123数据集的精确度和成功率处于第一名的位置,而且在OTB50和OTB100数据集中的成功率排在第一名位置,本方法对比其他方法在总体上具有明显的优势。
图2至4的精确度曲线含义为:在评价跟踪精确性方面通常应用的是中心位置误差,中心位置误差定义为跟踪对象的中心位置和手工标定的准确中心位置之间的平均欧式距离。精确度曲线表明目标中心位置误差小于给定阈值的帧数占总视频帧数的百分比,这个阈值通常。
图2至4的成功率曲线含义为:边界框的重叠率大于一个给定的阈值t0的帧数占总视频帧数的百分比。重叠率通常被定为其中∩和∪分别代表两个区域的交集和并集,·表示为区域内像素点的个数。成功率曲线表明了阈值t0到从0至1范围内变化时,跟踪成功的帧数所占的比例。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (7)
1.一种自适应超特征融合的视觉跟踪方法,其特征在于,包括以下步骤:
步骤S1:对输入图像序列分别提取深度特征和传统手工特征;
步骤S2:构建尺度和位置滤波模型,计算生成手工特征和深度特征对应输出响应图;
步骤S3:引入高斯约束优化方法控制生成的响应图使其服从高斯分布;
步骤S4:分别计算手工特征和深度特征对应输出响应图的PSR值,并根据PSR值判断是否更新尺度和位置滤波模型;
步骤S5:将手工特征和深度特征对应输出响应图输入尺度和位置滤波模型,实现视觉跟踪。
2.根据权利要求1所述的自适应超特征融合的视觉跟踪方法,其特征在于,所述位置滤波模型构建具体为:
A1:初始化模型参数,包括位置滤波输出标准差,滤波模型学习率,滤波器的正则化权重因子λ1和λ2,采用具有31bin的4×4网格单元大小的HOG特征,深度特征和手工特征初始化权重设置,尺度步长因子r,尺度级数S,尺度学习率η,采用M×N的网格单元表示搜索窗口大小,并且与目标框大小成比例;
A2:采用上下文感知滤波器作为基础跟踪器,用于预测目标的初始位置;
A3:学习上下文感知滤波器w和下一帧图像块z进行卷积运算,目标的位置即为响应图的最大值f(z),其检测表达式为:
A4:采用线性插值法更新上下文感知滤波器系数,具体为如下公式:
其中,i为当前帧的序号,η为滤波模型学习率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010737552.6A CN111968156A (zh) | 2020-07-28 | 2020-07-28 | 一种自适应超特征融合的视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010737552.6A CN111968156A (zh) | 2020-07-28 | 2020-07-28 | 一种自适应超特征融合的视觉跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111968156A true CN111968156A (zh) | 2020-11-20 |
Family
ID=73362861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010737552.6A Pending CN111968156A (zh) | 2020-07-28 | 2020-07-28 | 一种自适应超特征融合的视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111968156A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686929A (zh) * | 2021-03-10 | 2021-04-20 | 长沙理工大学 | 一种目标跟踪方法及系统 |
CN113409357A (zh) * | 2021-04-27 | 2021-09-17 | 中国电子科技集团公司第十四研究所 | 一种基于双时空约束的相关滤波目标跟踪方法 |
CN113723464A (zh) * | 2021-08-02 | 2021-11-30 | 北京大学 | 一种遥感影像分类方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN109325966A (zh) * | 2018-09-05 | 2019-02-12 | 华侨大学 | 一种通过时空上下文进行视觉跟踪的方法 |
CN109801311A (zh) * | 2019-01-31 | 2019-05-24 | 长安大学 | 一种基于深度残差网络特征的视觉目标跟踪方法 |
CN111008996A (zh) * | 2019-12-09 | 2020-04-14 | 华侨大学 | 一种通过分层特征响应融合的目标跟踪方法 |
-
2020
- 2020-07-28 CN CN202010737552.6A patent/CN111968156A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262977A1 (en) * | 2008-04-18 | 2009-10-22 | Cheng-Ming Huang | Visual tracking system and method thereof |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN109325966A (zh) * | 2018-09-05 | 2019-02-12 | 华侨大学 | 一种通过时空上下文进行视觉跟踪的方法 |
CN109801311A (zh) * | 2019-01-31 | 2019-05-24 | 长安大学 | 一种基于深度残差网络特征的视觉目标跟踪方法 |
CN111008996A (zh) * | 2019-12-09 | 2020-04-14 | 华侨大学 | 一种通过分层特征响应融合的目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
陈智: "基于相关滤波的视觉跟踪算法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
陈智等: "自适应特征融合的多尺度相关滤波目标跟踪算法", 《计算机辅助设计与图形学学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686929A (zh) * | 2021-03-10 | 2021-04-20 | 长沙理工大学 | 一种目标跟踪方法及系统 |
CN112686929B (zh) * | 2021-03-10 | 2021-06-25 | 长沙理工大学 | 一种目标跟踪方法及系统 |
CN113409357A (zh) * | 2021-04-27 | 2021-09-17 | 中国电子科技集团公司第十四研究所 | 一种基于双时空约束的相关滤波目标跟踪方法 |
CN113409357B (zh) * | 2021-04-27 | 2023-10-31 | 中国电子科技集团公司第十四研究所 | 一种基于双时空约束的相关滤波目标跟踪方法 |
CN113723464A (zh) * | 2021-08-02 | 2021-11-30 | 北京大学 | 一种遥感影像分类方法及装置 |
CN113723464B (zh) * | 2021-08-02 | 2023-10-03 | 北京大学 | 一种遥感影像分类方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111968156A (zh) | 一种自适应超特征融合的视觉跟踪方法 | |
CN108549839B (zh) | 自适应特征融合的多尺度相关滤波视觉跟踪方法 | |
CN108776975B (zh) | 一种基于半监督特征和滤波器联合学习的视觉跟踪方法 | |
CN110580496A (zh) | 一种基于熵最小化的深度迁移学习系统及方法 | |
CN110473592B (zh) | 一种多视角人类协同致死基因预测方法 | |
CN111310582A (zh) | 基于边界感知和对抗学习的湍流退化图像语义分割方法 | |
CN109635763B (zh) | 一种人群密度估计方法 | |
CN111583294B (zh) | 一种结合尺度自适应与模型更新的目标跟踪方法 | |
EP4211614A1 (en) | Battery materials screening | |
CN103544496A (zh) | 基于空间与时间信息融合的机器人场景识别方法 | |
CN108549866B (zh) | 基于密集卷积神经网络的遥感飞机识别方法 | |
CN110991257B (zh) | 基于特征融合与svm的极化sar溢油检测方法 | |
CN115494865A (zh) | 基于时空图卷积网络的无人机集群态势分析方法及介质 | |
CN109886342A (zh) | 基于机器学习的模型训练方法和装置 | |
CN115239760B (zh) | 一种目标跟踪方法、系统、设备及存储介质 | |
CN116526473A (zh) | 基于粒子群优化lstm的电热负荷预测方法 | |
CN116720620A (zh) | 一种基于IPSO算法优化CNN-BiGRU-Attention网络模型的储粮通风温度预测方法 | |
CN113947182A (zh) | 基于双阶段堆叠图卷积网络的交通流预测模型构建方法 | |
CN112149896A (zh) | 一种基于注意力机制的机械设备多工况故障预测方法 | |
CN116894180B (zh) | 一种基于异构图注意力网络的产品制造质量预测方法 | |
CN113486926B (zh) | 一种自动化码头设备异常检测系统 | |
CN114330119A (zh) | 一种基于深度学习的抽蓄机组调节系统辨识方法 | |
CN110148152A (zh) | 基于卷积神经网络的sar目标交互行为识别方法 | |
CN117710689A (zh) | 基于粒子滤波的高精度sar图像目标检测方法及系统 | |
CN115816466B (zh) | 一种提升视觉观测机器人控制稳定性的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201120 |
|
RJ01 | Rejection of invention patent application after publication |