CN115830063A - 一种低功耗无人机自主目标跟踪方法 - Google Patents
一种低功耗无人机自主目标跟踪方法 Download PDFInfo
- Publication number
- CN115830063A CN115830063A CN202211297000.3A CN202211297000A CN115830063A CN 115830063 A CN115830063 A CN 115830063A CN 202211297000 A CN202211297000 A CN 202211297000A CN 115830063 A CN115830063 A CN 115830063A
- Authority
- CN
- China
- Prior art keywords
- target tracking
- neural network
- network model
- model
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种低功耗无人机自主目标跟踪方法,属于飞行器视觉跟踪领域;获取样本数据,生成训练样本集、测试集和验证集;构建目标跟踪神经网络模型;通过训练样本集对目标跟踪神经网络模型进行训练;利用测试集和验证集对目标跟踪神经网络模型进行参数验证;将样本目标图像输入到目标跟踪神经网络模型,得到样本目标图像的目标跟踪结果;结合采集获得的深度数据和所述目标跟踪结果给出导航信息;实现目标跟踪;本发明通过采用剪枝压缩处理减少模型的参数数量和与之相关的运算量,提高模型跟踪速度的同时不会降低跟踪准确率,使得精简后的模型能够满足嵌入式平台中对于速度与功耗的要求,扩展了目标跟踪算法的适用范围。
Description
技术领域
本发明属于飞行器视觉跟踪领域,涉及一种低功耗无人机自主目标跟踪方法。
背景技术
当前的无人机主要利用惯性导航系统和全球定位系统进行自身的导航和定位。但惯性导航系统由于自身的漂移误差或累积误差,以及对初始数据较为敏感,这些都有可能造成飞机定位不准确。同时,全球定位系统导航过程中可能出现信号不能获取的情况,即便能持续获取全球定位系统信号,也存在获取信息的精度难以满足无人机室内导航定位需求。当今摄像机等图像传感器设备以及图像处理技术的快速发展,促使我们能够在无人机系统中利用计算机视觉进行导航定位。为弥补全球定位系统/惯性导航系统的缺点和提高导航的精确度,可在全球定位系统/惯性导航系统信息的基础上整合图像传感器的实时图像信息。在无人机自动着陆过程中,容易出现定位精度不足,造成难以精确控制飞机行为。在此过程中可结合导航系统,并利用图像传感器拍摄的视频图像数据计算出飞机的运动参数,从而提供更精确的导航信息,弥补测量仪器误差的发散,实现稳定而精准的着陆。从应用的层次来看,视觉信号具有极强的抗干扰能力,而全球定位系统和无线电等信号容易受到阻塞。此外,图像传感器为被动式设备,拥有着传统激光、声纳等传感器难做到的运动信息捕捉的能力,可直接利用红外线或可见光等自然信息,对于军事隐蔽侦查至关重要。
当前的目标识别与跟踪算法是数据密集与计算密集型的算法,在运算过程中会产生巨大的功耗消耗,使其难以应用在功耗与面积受限的无人机平台上。因此,需要解决在功耗和面积受限的无人机平台中实现精准快速地图像信息的处理与识别的问题,实现将机器视觉以及神经网络算法应用在飞行器端的微型嵌入式芯片上,实现无人机的智能化。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提出一种低功耗无人机自主目标跟踪方法,通过采用剪枝压缩处理减少模型的参数数量和与之相关的运算量,提高模型跟踪速度的同时不会降低跟踪准确率,使得精简后的模型能够满足嵌入式平台中对于速度与功耗的要求,更适用于小尺寸和低功耗的移动平台上,扩展了目标跟踪算法的适用范围。
本发明解决技术的方案是:
一种低功耗无人机自主目标跟踪方法,包括:
获取样本数据,生成训练样本集、测试集和验证集;
构建目标跟踪神经网络模型;
通过训练样本集对目标跟踪神经网络模型进行训练,获得训练完成的目标跟踪神经网络模型;
利用测试集和验证集对目标跟踪神经网络模型进行参数验证;
将样本目标图像输入到目标跟踪神经网络模型,得到样本目标图像的目标跟踪结果;
结合采集获得的深度数据和所述目标跟踪结果给出导航信息;实现目标跟踪。
在上述的一种低功耗无人机自主目标跟踪方法,在DDPG学习框架下基于启发式强化学习搭建的目标跟踪神经网络模型,包括24个卷积层和2个全连接层。
在上述的一种低功耗无人机自主目标跟踪方法,所述目标跟踪结果包括对应预测框的位置、目标类别、置信度。
在上述的一种低功耗无人机自主目标跟踪方法,构建目标跟踪神经网络模型的过程还包括模型剪枝压缩处理,所述模型剪枝压缩处理包括以下一种或多种方式:稀疏化训练、模型剪枝和模型微调。
在上述的一种低功耗无人机自主目标跟踪方法,所述稀疏化训练为基于评价函数进行权重矩阵稀疏化,具体为:去掉所述权重矩阵中整行或整列为零的值,以降低所述权重矩阵的维度。
在上述的一种低功耗无人机自主目标跟踪方法,所述模型剪枝压缩处理具体为:
从目标跟踪神经网络模型的最后一层卷积层开始,根据预设剪枝规则进行该卷积层的剪枝,重新训练所述目标跟踪神经网络模型,一直循环上述剪枝过程至第一层卷积层。
在上述的一种低功耗无人机自主目标跟踪方法,所述预设剪枝规则为:计算当前卷积层中每个卷积核的权重绝对值之和,当所述权重绝对值之和小于预设裁剪数值时,对该卷积核的权重置零;
每一层的剪枝过程都需要根据剪枝前后目标跟踪神经网络模型的损失函数值修正所述预设裁剪数值。
在上述的一种低功耗无人机自主目标跟踪方法,所述模型微调为利用测试集代替训练样本集训练所述目标跟踪神经网络模型的最后一层卷积层。
在上述的一种低功耗无人机自主目标跟踪方法,构建目标跟踪神经网络模型的过程还包括定点化处理;定点化处理为将所述目标跟踪神经网络模型中浮点数计算方式改为定点数计算方式。
在上述的一种低功耗无人机自主目标跟踪方法,定点化处理具体为:获取所述目标跟踪神经网络模型中每一层中所有参数值的小数点分布区间;采用定点化的方式,将该层中所有参数线性映射到所述分布区间。
本发明与现有技术相比的有益效果是:
(1)本发明通过采用剪枝压缩处理减少模型的参数数量和与之相关的运算量,提高模型跟踪速度的同时不会降低跟踪准确率,使得精简后的模型能够满足嵌入式平台中对于速度与功耗的要求,更适用于小尺寸和低功耗的移动平台上,扩展了目标跟踪算法的适用范围;
(2)本发明提供了一种能够降低运算量并且提高目标跟踪准确度的目标跟踪导航方法,能够提供当前目标的类别和距离,做出导航提示;
(3)本发明利用测试集和验证集对目标跟踪神经网络模型进行参数验证,然后将样本目标图像输入到训练好的目标跟踪神经网络模型,得到包括对应预测框的位置、目标类别、置信度的样本目标图像的目标跟踪结果,再结合深度数据和目标跟踪结果给出导航信息,在减少模型的参数数量和与之相关的运算量的同时,提高模型跟踪速度的同时不会降低跟踪准确率。
附图说明
图1为本发明目标跟踪流程图;
图2为本发明模型精简过程示意图.
具体实施方式
下面结合实施例对本发明作进一步阐述。
本发明提供了一种低功耗无人机自主目标跟踪方法,通过获取样本数据,构建并利用训练样本集训练目标跟踪神经网络模型,利用测试集和验证集对目标跟踪神经网络模型进行参数验证,然后将样本目标图像输入到训练好的目标跟踪神经网络模型,得到包括对应预测框的位置、目标类别、置信度的样本目标图像的目标跟踪结果,再结合深度数据和目标跟踪结果给出导航信息,并且构建目标跟踪神经网络模型的过程还包括:模型剪枝压缩处理,其中,模型剪枝压缩处理包括:稀疏化训练、模型剪枝和模型微调。通过采用剪枝压缩处理减少模型的参数数量和与之相关的运算量,提高模型跟踪速度的同时不会降低跟踪准确率,使得精简后的模型能够满足嵌入式平台中对于速度与功耗的要求,更适用于小尺寸和低功耗的移动平台上,扩展了目标跟踪算法的适用范围。
低功耗无人机自主目标跟踪方法,如图1所示,具体包括如下步骤:
获取样本数据,生成训练样本集、测试集和验证集。
构建目标跟踪神经网络模型;在DDPG学习框架下基于启发式强化学习搭建的目标跟踪神经网络模型,包括24个卷积层和2个全连接层。
构建目标跟踪神经网络模型的过程还包括模型剪枝压缩处理,所述模型剪枝压缩处理包括以下一种或多种方式:稀疏化训练、模型剪枝和模型微调。
稀疏化训练为基于评价函数进行权重矩阵稀疏化,具体为:去掉所述权重矩阵中整行或整列为零的值,以降低所述权重矩阵的维度。
模型剪枝压缩处理具体为:
从目标跟踪神经网络模型的最后一层卷积层开始,根据预设剪枝规则进行该卷积层的剪枝,重新训练所述目标跟踪神经网络模型,一直循环上述剪枝过程至第一层卷积层。
预设剪枝规则为:计算当前卷积层中每个卷积核的权重绝对值之和,当所述权重绝对值之和小于预设裁剪数值时,对该卷积核的权重置零;每一层的剪枝过程都需要根据剪枝前后目标跟踪神经网络模型的损失函数值修正所述预设裁剪数值。
模型微调为利用测试集代替训练样本集训练所述目标跟踪神经网络模型的最后一层卷积层。
构建目标跟踪神经网络模型的过程还包括定点化处理;定点化处理为将所述目标跟踪神经网络模型中浮点数计算方式改为定点数计算方式。
定点化处理具体为:获取所述目标跟踪神经网络模型中每一层中所有参数值的小数点分布区间;采用定点化的方式,将该层中所有参数线性映射到所述分布区间。
通过训练样本集对目标跟踪神经网络模型进行训练,获得训练完成的目标跟踪神经网络模型;
利用测试集和验证集对目标跟踪神经网络模型进行参数验证。
将样本目标图像输入到目标跟踪神经网络模型,得到样本目标图像的目标跟踪结果;目标跟踪结果包括对应预测框的位置、目标类别、置信度。
结合采集获得的深度数据和所述目标跟踪结果给出导航信息;实现目标跟踪。
实施例:
本发明实施例提供一种目标跟踪导航方法,图1为本发明实施例提供的目标跟踪导航方法的实现流程图,如图1所示,该方法包括以下步骤:
S1:获取样本数据,生成训练样本集、测试集和验证集。
本实施例中,首先获取大量图片样本并给样本图片上需要跟踪的物体划定预测框并贴上对应的目标类别标签作为样本数据,可选的,在一种具体实施方式中,通过LabelImg可视化图像标定工具进行标定,将生成的xml文件通过python脚本转成txt格式,并将其中十分之一的样本图片作为验证集样本。
进一步地,当适用于不同的导航场景时,采集不同类型的样本数据,例如,当用于无人机导航时,本实施例采集符合无人机导航的样本数据集,并删掉对于无人机导航不重要的数据,且添加上如障碍物、绿化物等特定数据,使得本实施例的目标跟踪导航方法能够应用于无人机导航。
S2:构建并利用训练样本集训练目标跟踪神经网络模型,得到训练完成的目标跟踪神经网络模型
其中构建目标跟踪神经网络模型的过程还包括:模型剪枝压缩处理、定点化处理和模型参数提取在内的模型精简,具体的,模型剪枝压缩处理包括以下一种或多种:稀疏化训练、模型剪枝和模型微调,模型剪枝压缩处理的主要作用是减少模型的参数数量与运算量,提高模型推断速度,在不影响模型跟踪准确率的前提下,大大的减少参数数量和运算量,以使整个算法模型更适用于运行在小型嵌入式平台上,提高适用范围。
本实施例中,在DDPG学习框架下基于启发式强化学习搭建目标识别神经网络模型,包括:24个卷积层和2个全连接层。DDPG是一个深度学习框架,其易于安装,并且整个框架都用C语言进行编写,可以不依赖任何库,结构明晰,能够方便的查看修改源代码,并且提供python接口,可以使用python直接对训练好的模型进行调用,更重要的是,该框架部署到本地十分简单,可以根据机器情况,选择使用cpu或gpu进行部署。
进一步地,启发式强化学习可实现端到端训练和实时的速度,同时保持较高的平均精度,能够快速识别出画面中的目标,并且其结构简单适合部署在嵌入式设备中。
S3:利用测试集和验证集对目标跟踪神经网络模型进行参数验证,主要用来提高模型参数的准确度和精度。
S4:将样本目标图像输入到目标跟踪神经网络模型,得到样本目标图像的目标跟踪结果,其中,目标跟踪结果包括:对应预测框的位置、目标类别、置信度,其中对应预测框的位置包括预测框中心坐标和预测框长宽。
S5:结合深度数据和目标跟踪结果给出导航信息。
具体的,本实施例中步骤S2中,如图2所示,为本实施例中模型精简具体过程示意图。从图中可以看出,包括以下步骤:
S21:稀疏化训练指:基于评价函数最优解进行权重矩阵稀疏化,具体为:去掉权重矩阵中整行或整列为零的值,以降低权重矩阵的维度来提升模型的运算效率,评价函数表示为:
上式中,W表示目标跟踪神经网络模型中所有权重的集合,ED(W)表示稀疏化之后重新训练目标跟踪神经网络模型的损失函数值,R表示对每个权重的范数约束,Rg表示对于每一层网络的空间结构化正则运算,w(i)表示目标跟踪神经网络模型中权重的4维张量,L表示目标跟踪神经网络模型结构的层数,λ表示惩罚项,可以设为0.1。λg也表示惩罚项,同样可选的设为0.1。
S22:模型剪枝指:从目标跟踪神经网络模型的最后一层卷积层开始,根据预设剪枝规则进行该层的剪枝,然后重新训练目标跟踪神经网络模型,一直循环上述剪枝过程至第一层卷积层。需要注意的是,进行模型剪枝时,首先将原始的目标跟踪神经网络模型训练至收敛,保存其权重。
本实施例中,每一层卷积层经过剪枝后,将剩余的权重构成新的模型以达到模型压缩加速并保证精准度不变的目的。可选的,对经过剪枝之后的模型训练时,采用比原始目标跟踪神经网络模型小一点的学习率进行训练,以减少运算工作量。
其中,预设剪枝规则为:计算当前卷积层中每个卷积核的权重绝对值之和,当权重绝对值之和小于预设裁剪数值时,对该卷积核的权重置零,这样处理的目的判断每一层卷积核对目标跟踪神经网络模型的贡献大小,删除贡献较小的卷积核。例如一层有512个卷积核,将低于预设裁剪数值的卷积核权重置零,然后重新训练目标跟踪神经网络模型。
每一层的剪枝过程都需要根据剪枝前后目标跟踪神经网络模型的损失函数值修正预设裁剪数值。可以理解的是,最后一层卷积层进行剪枝时,预设裁剪数值的初值为常用的经验值,然后根据前后损失函数值对比修正该值以达到精准度要求。
在一种具体实施方式中,精准度要求指剪枝后构建的目标跟踪神经网络模型损失函数值与原始目标跟踪神经网络模型损失函数值的差异在阈值之内,可选的,阈值为2%。
S23:模型微调指:利用测试集代替训练样本集训练目标跟踪神经网络模型的最后一层卷积层,可选的,采用较小的学习率进行训练,来提高目标跟踪神经网络模型的鲁棒性。
本实施例中步骤S2中,还包括:
S24:定点化处理,指将目标跟踪神经网络模型中浮点数计算方式改为定点数计算方式,其中,定点数由符号位+整数位+小数点位组成,具体为:
通过可视化方式,获取目标跟踪神经网络模型中每一层所有参数值的小数点分布区间。
采用定点化的方式,将该层中所有参数进行线性映射到分布区间,定点化方式即选择定点位数,可根据实际需要进行选择,目标跟踪神经网络模型中每一层的定点数总长是相同的。
在一种具体实施方式中,将参数值的小数点位数绘制出来,然后根据小数点位数确定分布区间,例如,选取16位定点化方式,在当前网络层发现小数点位数大多分布在8位以下,则进行定点化处理时,定小数点为8位,而符号占一位,剩余16-8-1=7位为整数位。
本实施例中,定点化处理把同一层的所有参数都线性映射到同样位数的区间,减少计算资源,比如从32位的浮点数到16位定点数,这样需要的资源变少,计算速度也相应提高,得到的目标跟踪神经网络模型也有利于移植到嵌入式平台中的计算单元进行计算,有利于后期用硬件加速算法。
在一种具体实施方式中,经过对训练后的目标跟踪神经网络模型进行模型剪枝压缩处理,可使该模型的参数量减少80,运算量减少70,推断的速度提高100,而准确率保持不变。
本实施例中步骤S2中,还包括:
S25:模型参数提取,指的是使用python脚本,按照训练好的目标跟踪神经网络模型数据格式提取模型的权重值与偏置值,用于后续移植运算。
S26:启发式强化学习算法是指将先验知识作为启发信息,如给特定行动以附加回报,或作为约束条件缩小状态-动作对搜索范围,从而达到提高学习速度的效果。
启发函数仅用在动作选择策略中作为调节器,并不会干扰到强化学习算法的标准更新机制。ε-贪婪策略机制下的动作选择策略在纳入启发函数Ht(st,at)的影响后,其表达式为:
H:S×A→R为启发函数,作用于动作选择过程,Ht(st,at)定义了在状态st下执行at的重要性,注意下标t的存在说明启发函数可以随着时间而变化;
ξ和β为控制启发函数影响大小的设计参数;
q表示分布于[0,1]的随机数,ε表示探索率,ε越大选择随机探索动作的概率越大;
arandom表示当前状态下可选动作集合中的一个随机动作。
通常对于相同的状态st∈S,启发值Ht(st,at)普遍高于值函数Vt(st,at)的变化值,这样才能影响动作选择,但启发值也要尽量小以减小误差。如果为一个相加的操作函数,且ξ=β=1,那么启发函数可定义为:
其中:η为一个较小的实数,πH表示通过恰当的方法作为启发所指导的动作。
本实施例中通过步骤S2和S3得到训练好的日标跟踪神经网络模型,然后步骤S4和S5中:将样本目标图像输入到目标跟踪神经网络模型,得到包括对应预测框的位置、目标类别、置信度的样本目标图像的目标跟踪结果,然后结合深度数据和目标跟踪结果给出导航信息。
进一步地,本实施例还可以对得到的深度值进行环境光补偿、数据滤波等操作提升该值的精确度,数据滤波可选的有:时域中值滤波、空域中值滤波和高斯滤波等。
本实施例,通过模型输出的对应预测框的位置、目标类别和置信度,通过非最大值抑制运算输出跟踪的最终目标类别,结合上述深度值,判断当前目标类别和距离,给出导航或者避障信息。例如,当用于无人机导航时,可以发现前方障碍物的距离,选择进行避障或等待;当用于车辆导航时,同样需要结合目标类别和距离进行具体场景下的导航。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
Claims (10)
1.一种低功耗无人机自主目标跟踪方法,其特征在于:包括:
获取样本数据,生成训练样本集、测试集和验证集;
构建目标跟踪神经网络模型;
通过训练样本集对目标跟踪神经网络模型进行训练,获得训练完成的目标跟踪神经网络模型;
利用测试集和验证集对目标跟踪神经网络模型进行参数验证;
将样本目标图像输入到目标跟踪神经网络模型,得到样本目标图像的目标跟踪结果;
结合采集获得的深度数据和所述目标跟踪结果给出导航信息;实现目标跟踪。
2.根据权利要求1所述的一种低功耗无人机自主目标跟踪方法,其特征在于:在DDPG学习框架下基于启发式强化学习搭建的目标跟踪神经网络模型,包括24个卷积层和2个全连接层。
3.根据权利要求1所述的一种低功耗无人机自主目标跟踪方法,其特征在于:所述目标跟踪结果包括对应预测框的位置、目标类别、置信度。
4.根据权利要求2所述的一种低功耗无人机自主目标跟踪方法,其特征在于:构建目标跟踪神经网络模型的过程还包括模型剪枝压缩处理,所述模型剪枝压缩处理包括以下一种或多种方式:稀疏化训练、模型剪枝和模型微调。
5.根据权利要求4所述的一种低功耗无人机自主目标跟踪方法,其特征在于:所述稀疏化训练为基于评价函数进行权重矩阵稀疏化,具体为:去掉所述权重矩阵中整行或整列为零的值,以降低所述权重矩阵的维度。
6.根据权利要求5所述的一种低功耗无人机自主目标跟踪方法,其特征在于:所述模型剪枝压缩处理具体为:
从目标跟踪神经网络模型的最后一层卷积层开始,根据预设剪枝规则进行该卷积层的剪枝,重新训练所述目标跟踪神经网络模型,一直循环上述剪枝过程至第一层卷积层。
7.根据权利要求6所述的一种低功耗无人机自主目标跟踪方法,其特征在于:所述预设剪枝规则为:计算当前卷积层中每个卷积核的权重绝对值之和,当所述权重绝对值之和小于预设裁剪数值时,对该卷积核的权重置零;
每一层的剪枝过程都需要根据剪枝前后目标跟踪神经网络模型的损失函数值修正所述预设裁剪数值。
8.根据权利要求7所述的一种低功耗无人机自主目标跟踪方法,其特征在于:所述模型微调为利用测试集代替训练样本集训练所述目标跟踪神经网络模型的最后一层卷积层。
9.根据权利要求2所述的一种低功耗无人机自主目标跟踪方法,其特征在于:构建目标跟踪神经网络模型的过程还包括定点化处理;定点化处理为将所述目标跟踪神经网络模型中浮点数计算方式改为定点数计算方式。
10.根据权利要求9所述的一种低功耗无人机自主目标跟踪方法,其特征在于:定点化处理具体为:获取所述目标跟踪神经网络模型中每一层中所有参数值的小数点分布区间;采用定点化的方式,将该层中所有参数线性映射到所述分布区间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211297000.3A CN115830063A (zh) | 2022-10-21 | 2022-10-21 | 一种低功耗无人机自主目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211297000.3A CN115830063A (zh) | 2022-10-21 | 2022-10-21 | 一种低功耗无人机自主目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115830063A true CN115830063A (zh) | 2023-03-21 |
Family
ID=85525248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211297000.3A Pending CN115830063A (zh) | 2022-10-21 | 2022-10-21 | 一种低功耗无人机自主目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115830063A (zh) |
-
2022
- 2022-10-21 CN CN202211297000.3A patent/CN115830063A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11630210B2 (en) | Method for creating occupancy grid map and processing apparatus | |
US11714937B2 (en) | Estimating physical parameters of a physical system based on a spatial-temporal emulator | |
US20210286369A1 (en) | Self-aware visual-textual co-grounded navigation agent | |
CN111311685B (zh) | 一种基于imu与单目图像的运动场景重构无监督方法 | |
JP7249384B2 (ja) | ルート計画モデルを生成する方法、交通手段の軌跡を決定する方法、ルート計画モデルを生成する装置、交通手段、電子機器、記憶媒体及びコンピュータプログラム | |
CN109859209B (zh) | 遥感影像分割方法、装置及存储介质、服务器 | |
US20090110236A1 (en) | Method And System For Object Detection And Tracking | |
CN112580512B (zh) | 一种基于通道裁剪的轻量级无人机目标检测方法 | |
CN111542841A (zh) | 一种内容识别的系统和方法 | |
CN104778699B (zh) | 一种自适应对象特征的跟踪方法 | |
CN111739066B (zh) | 一种基于高斯过程的视觉定位方法、系统及存储介质 | |
CN115285143A (zh) | 一种基于场景分类的自动驾驶车辆导航方法 | |
CN115294539A (zh) | 多任务检测方法及装置、存储介质、终端 | |
CN115648204A (zh) | 智能决策模型的训练方法、装置、设备以及存储介质 | |
CN112949433A (zh) | 视频分类模型的生成方法、装置、设备和存储介质 | |
CN113963333B (zh) | 一种基于改进yolof模型的交通标志牌检测方法 | |
CN115019060A (zh) | 目标识别方法、目标识别模型的训练方法及装置 | |
CN114359959A (zh) | 一种基于深度学习的静态手势识别方法、装置及汽车 | |
CN117710689A (zh) | 基于粒子滤波的高精度sar图像目标检测方法及系统 | |
CN116543162B (zh) | 基于特征差值与上下文感知一致性的图像分割方法及系统 | |
CN115830063A (zh) | 一种低功耗无人机自主目标跟踪方法 | |
CN117152763A (zh) | 一种运动场景下目标文字识别通用增强方法及相关装置 | |
Venugopal et al. | An adaptive DeepLabv3+ for semantic segmentation of aerial images using improved golden eagle optimization algorithm | |
CN116824140A (zh) | 面向测试场景无掩码监督的小样本分割方法 | |
CN114580623B (zh) | 模型的训练方法、多源多目标数据关联方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |