CN112508168A - 基于预测框自动修正的边框回归神经网络构建方法 - Google Patents

基于预测框自动修正的边框回归神经网络构建方法 Download PDF

Info

Publication number
CN112508168A
CN112508168A CN202011023567.2A CN202011023567A CN112508168A CN 112508168 A CN112508168 A CN 112508168A CN 202011023567 A CN202011023567 A CN 202011023567A CN 112508168 A CN112508168 A CN 112508168A
Authority
CN
China
Prior art keywords
frame
prediction
bounding box
neural network
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011023567.2A
Other languages
English (en)
Other versions
CN112508168B (zh
Inventor
刘晋
李怡瑶
高珍喻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
Original Assignee
Shanghai Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University filed Critical Shanghai Maritime University
Priority to CN202011023567.2A priority Critical patent/CN112508168B/zh
Publication of CN112508168A publication Critical patent/CN112508168A/zh
Application granted granted Critical
Publication of CN112508168B publication Critical patent/CN112508168B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明披露一种基于预测框自动修正的边框回归神经网络构建方法。该方法由一种基于相对熵损失函数的具有定位置信度的检测网络和一种改进的基于置信估计的定位精度方法组成。为解决目标定位不精确的问题,本发明提出一种新的基于相对熵的边框回归损失函数,不仅学习边框回归,同时定位学习不确定性;同时本发明结合概率分布引入方差投票机制,利用对相邻位置的预测方差加权,来对候选框的位置进行投票,从而得到定位更加准确的边框。本发明提供的方法网络适配性强、鲁棒性强,可结合多种目标检测神经网络使用以提高检测精度。通过将该方法在知名数据集上的进行实验,实验结果表明该方法的检测准确度高达0.402,优于多数已有方法,证明了其有效性。

Description

基于预测框自动修正的边框回归神经网络构建方法
技术领域
本发明属于数字图像处理及深度学习领域,特别涉及在检测网络生成的目标 预测框不准确的情况下对边框回归优化方法,具体涉及一种基于预测框自动修正 的边框回归神经网络构建方法。
背景技术
几十年来,非极大值抑制(NMS)一直是计算机视觉的重要组成部分,广泛 应用于边缘检测、特征点检测和目标检测。当下的目标检测算法,大多使用anchor 机制或者滑窗机制对同一位置生成多种尺度的anchor,这样产生的检测结果有很 大的冗余。所以需要加入NMS来对冗余的框进行处理。
除了传统的NMS算法之外,近期又有研究者提出了Soft-NMS算法和 Learning-NMS算法。传统的NMS算法与Soft-NMS算法如算法1所示。
Figure BDA0002701448940000011
传统NMS算法保留得分最高的框,同时将与该框的IoU大于阈值Nt的框全 部删除,这种做法存在着以下几种问题:(1)当两个物体重叠时,这样的处理 方法会丢失其中一个物体的预测框。(2)定位置信度与分类置信度并不是强相 关关系,得到的所有预测框中,存在一定程度上不精准的框。为了解决这些问题,Soft-NMS利用线性插值或者高斯法对置信分数非极大值的框进行处理,代替原 本的直接置0的操作,将这些框的置信度降低,其中线性法如下式所示:
Figure BDA0002701448940000021
高斯法如下式所示:
Figure BDA0002701448940000022
Learning NMS算法提出了一种新的神经网络,用预测框和它们的置信分数来 执行NMS。除了对NMS算法的优化以外,也有一些研究人员着眼于对边界框的 优化。MR-CNN在迭代定位的过程中对边界框进行合并,Relation Network提出 学习边界框之间的关系。IoU-Net提出学习预测边界框和ground-truth边界框之 间的IoU,然后根据学到的IoU对预测框进行IoU-NMS。与IoU-Net不同,本文 提出的基于相对熵的相对熵损失函数(Kullback–Leibler loss,KL loss)从概率的 角度来学习局部化方差,能够学习预测边界框的四个坐标的方差,而不是仅仅学 习IoU。
目标检测的最终目的是要准确定位图像中目标的位置并且生成分类结果,为 了达到更好的定位效果,边框回归是必不可少的步骤。边框回归指的是目标检测 过程中对产生的候选框以标注好的真实框为目标进行逼近的过程。由于一幅图像 上目标的边框可以由中心点坐标(xc,yc)和宽W高H唯一确定,所以这种逼近 的过程可以建模为回归问题。传统的边框回归损失有smooth L1 loss,计算方式 如下式所示。
Figure BDA0002701448940000023
smooth L1 loss能从两个方面限制梯度:(1)当预测框与ground truth差别过 大时,梯度值不至于过大;(2)当预测框与ground truth差别很小时,梯度值足 够小,因此可以避免梯度爆炸的问题,达到一个较好的训练效果。但是,smooth L1 loss只限定了梯度,并没有将边界框的不确定性考虑进去。而现实场景图像 上的目标可能会存在互相遮挡的情况,这就会导致边框不确定。除此之外,目标 的分类结果依赖于分类器得到的置信分数,当分类分数很高的情况下,边框回归 都被假定是准确的,但事实并不总是这样。这更说明了边框回归存在不准确的情 况。
发明内容
为了解决以上问题,提供一种基于预测框自动修正的边框回归神经网络构建 方法,是一种更加精确地、适配于各个网络结构,通过预测框自动修正使目标定 位更加精确的神经网络优化方法。
本发明提出一种新的基于相对熵的边框回归损失函数(KL Loss),不仅学习 边框回归,同时学习定位不确定性,捕捉了数据集中原本存在的边框模糊问题, 因此边框回归器可以从不确定的边界框中计算出更小的损失;同时本发明结合概 率分布引入方差投票机制(Var Voting),利用对相邻位置的预测方差加权,来 对候选框的位置进行投票,从而得到定位更加准确的边框。本发明提出的于预测 框自动修正的边框回归神经网络构建方法,具有回归定位准确、模型结构适配性 强、鲁棒性强、模型轻量化等优点。
为了达到上述目的,本发明基于预测框自动修正的边框回归神经网络构建方 法通过以下技术方案实现:
一种基于预测框自动修正的边框回归神经网络构建方法,其特征包括以下步 骤:
步骤1:将边界框参数化,本发明将边界框定义为一个四维向量, (x1,y1,x2,y2)∈R4,其中每个维度都含有边界框的定位信息,参数化方式如下:
Figure BDA0002701448940000031
Figure BDA0002701448940000032
Figure BDA0002701448940000033
Figure BDA0002701448940000034
其中,
Figure BDA0002701448940000035
为预测偏移量,
Figure BDA0002701448940000036
为ground-truth 偏移量,ground-truth为监督学习的训练集上所标注的框;y1a,y2a,wa,ha代 表anchor的坐标,anchor为所关注区域的感受野。
步骤2:因各个坐标可独立优化,故将边界框各坐标xi简写为为x,本发明 提出的边框回归网络预测的是一个概率分布,而不仅仅是边界框的位置,尽管坐 标的分布复杂,像多元高斯或混合高斯,但为了表述方便,本发明假设坐标是独 立分布的,并用一元高斯来简化问题,则预测框以及对应的ground truth边界框 位置的概率分布可表示为:
Figure BDA0002701448940000041
其中,θ表示可学习参数的集合。xe是待估计的边界框位置。标准偏差σ表 示估计的不确定性。当σ→0时,代表了网络的估计值非常接近真实值。标准偏 差σ是通过骨干网络的头部的全连接网络层产生。
步骤3:计算ground truth边界框在目标图片中的瞬时密度分布,计算方法用 改进的狄拉克函数:
PD(x)=δ(x-xg)
其中,xg表示groundtruth边界框的位置,狄克拉函数是为了在数学上理想地表述出集中在空间某一点或者某一瞬间的密度分布,引入δ函数的概念,所引入的 δ函数数学表示形式如下。
δa(x)=δ(x-a)=0,(x≠a)
Figure BDA0002701448940000042
步骤4:为了使预测框更接近ground truth边界框,即最小化两者分布的KL 散度作为边界框回归的损失函数,即:
Figure BDA0002701448940000043
其中,相对熵的计算方法为:
Figure BDA0002701448940000044
当位置xe未被估计准确时,期望网络能够预测一个更大的方差σ2,使Lreg可以 减小,H(PD(x))为某字符集的熵,其计算方法为:
Figure BDA0002701448940000045
Figure BDA0002701448940000051
和H(PD(x))不依赖于估计值,因此:
Figure BDA0002701448940000052
当σ=1时,KL Loss会生成标准的欧几里得损失:
Figure BDA0002701448940000053
该损失可以对位置估计xe和位置标准差进行微分:
Figure BDA0002701448940000054
Figure BDA0002701448940000055
然而,因为σ在分母上,在训练初期有时会出现梯度爆炸的情况。为了避免梯度 爆炸,本文的网络实际中预测的是α=logσ2,而不是σ:
Figure BDA0002701448940000056
在测试中将α换回了σ。对于|xg-xe|>1的情况,本文采用一种和smooth L1 损失类似的定义:
Figure BDA0002701448940000057
步骤5:将以上得到的损失函数替代所选用的目标检测神经网络中原始的损 失函数,并通过网络训练得到一定数量的预测框。
步骤6:除了将KL Loss考虑进边框回归的损失中之外,本发明引入了方差投 票机制,具体步骤如算法2所示。首先依照传统NMS或者Soft-NMS的算法,对 预测框进行筛选,选出得分最大的检测框。这里的最大得分令为b。对于IoU大 于阈值的边框,可以通过学习到的4个坐标值的方差,来对原坐标加权以调整原 本的坐标位置:
Figure BDA0002701448940000058
受到soft-NMS的启发,本算法分 配更高的权重给那些接近的且有更少不确定性的框,新的边框坐标计算如下:
Figure BDA0002701448940000059
Figure BDA00027014489400000510
其中,σt是方差投票中可调的参数。两种类型的相邻边界框会得到更低的权 重:(1)有大方差的框,(2)和候选框的IoU小的框。类别得分在投票中不被考 虑,因为更低得分的框可能有更高的定位准确度。因此,本算法不再依赖于分类 的置信分数,而是考虑了边框的概率分布,能够得到定位更准确的边框。
Figure BDA0002701448940000061
附图说明
图1为本发明的基于预测框自动修正的边框回归神经网络构建方法的实施流 程图
图2为本发明的基于预测框自动修正的边框回归神经网络构建方法结合基础 网络MASK R-CNN的流程图
图3为本发明的基于预测框自动修正的边框回归神经网络构建方法结合基础 网络MASK R-CNN的效果图
具体实施方式
下面结合附图及具体实施方式对本发明作进一步地详细描述。但不应将此理 解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技 术均属于本方面的范围。
本发明提供的一种基于预测框自动修正的边框回归神经网络构建方法的整 体实施流程如图1所示,具体说明如下:
本实施例中的数据集是COCO2017。COCO2017数据集是一个大型的、丰富 的物体检测,分割和字幕数据集。这个数据集以场景理解为目标,主要从复杂的 日常场景中截取,图像中的目标通过精确的分割进行位置的标定。图像包括91 类目标,328,000影像和2,500,000个标签。
本实施例中,基于预测框自动修正的边框回归神经网络的构建方法的实现平 台为一台计算机,操作系统为Windows 10,深度学习架构为Pytorch、Detectron2, 图形处理库使用opencv 4.1.0,图像加速单元使用GeForce GTX 1060GPU。
本发明提供的一种基于预测框自动修正的边框回归神经网络构建方法通用 的网络架构,本实施例中所采用的基础网络架构为MASK R-CNN,将本发明提出 的KL Loss替代原来的损失函数,并在NMS模块后,加入本发明提出的基于方 差投票机制的预测框调整策略,从而得到更加精确的目标检测结果,基于本发明 改进后的MASK R-CNN流程图如图2所示。
本实施例中,在网络中采用如下参数化方式将边界框定义为一个四维向量, (x1,y1,x2,y2)∈R4
Figure BDA0002701448940000071
Figure BDA0002701448940000072
Figure BDA0002701448940000073
Figure BDA0002701448940000074
其中,
Figure BDA0002701448940000075
为预测偏移量,
Figure BDA0002701448940000076
为ground truth偏移量,y1a,y2a,wa,ha代表anchor的坐标。
其次,对预测框以及对应的ground truth边界框位置的概率分布用一元高斯 分布简化表示:
Figure BDA0002701448940000077
其中,θ表示可学习参数的集合。xe是待估计的边界框位置。标准偏差σ表示估 计的不确定性。
再次,用狄拉克函数对groundtruth边界框在目标图片中的瞬时密度分布:
PD(x)=δ(x-xg)
其中,xg表示groundtruth边界框的位置,δ函数数学表示形式为:
δa(x)=δ(x-a)=0,(x≠a)
Figure BDA0002701448940000081
经过以上两步抽象化表述后,本实例实际操作在COCO2017提供的数据集的 基础上经过随机水平翻转的数据增强方式构建大量的训练集,作为本实例神经网 络训练的基础。为便于操作本实例中将图像尺寸统一为800像素。
为了让预测边界框更接近ground truth边界框,最小化两者的KL散度作为边 界框回归的损失函数,即:
Figure BDA0002701448940000082
使用KL散度作为边界框回归的损失函数,其中,KL散度的计算方法为:
Figure BDA0002701448940000083
为了避免梯度爆炸,本实例的网络实际中预测的是α=logσ2,而不是σ:
Figure BDA0002701448940000084
在测试中将α换回了σ。对于|xg-xe|>1的情况,本实例采用一种和Smooth L1 损失类似的定义:
Figure BDA0002701448940000085
本发明使用随机高斯初始化来初始化用于预测α的全连接层的权重。标准差 和平均值分别设置为0.0001和0,使KL Loss和标准的smooth L1损失在训练 初期相似。
将以上损失函数替代本实例中MASK R-CNN的目标检测神经网络中的损失 函数,通过网络训练最终得到500个的预测框输入NMS,在NMS模块中,采用 本发明提出的基于预测框修正的方法,计算新的边框坐标,计算方法为:
Figure BDA0002701448940000091
Figure BDA0002701448940000092
其中,σt是方差投票中可调的参数。根据所得的各个坐标画出最终的边框,并输出结果。
为验证本发明的有效性,将本实例中的模型所得的结果与其他模型的各项评 估指标对比如表1所示,从表中可以看出,加入了KL Loss和方差投票机制的 MASKR-CNN网络比其他方法拥有更高的检测精度。
表1结合本发明的Fast R-CNN模型与其他一些模型检测精度的对比
Figure BDA0002701448940000093
本实例在MASK R-CNN上实验效果如图3所示,A,B为选取的两个示例,图 中阴影部分以及对应的框为所检测出的目标的标准。经实验,本发明提出的基于 预测框自动修正的边框回归神经网络检测精确度大大提高。
本领域普通技术人员可以理解,上述说明书提供了大量的实施细节。当然, 本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详 细示出公知的方法,结构和技术,以便不模糊对本说明书的理解。

Claims (1)

1.一种基于预测框自动修正的边框回归神经网络构建方法,其特征包含以下步骤:
步骤1:将边界框参数化,将边界框定义为一个四维向量,(x1,y1,x2,y2)∈R4,参数化方式如下:
Figure FDA0002701448930000011
Figure FDA0002701448930000012
Figure FDA0002701448930000013
Figure FDA0002701448930000014
其中,
Figure FDA0002701448930000019
为预测偏移量,
Figure FDA0002701448930000015
为ground truth偏移量,y1a,y2a,wa,ha代表anchor的坐标;
步骤2:边界框各坐标xi简写为为x,利用高斯分布计算预测框位置的概率分布,其计算公式为:
Figure FDA0002701448930000016
其中,θ表示可学习参数的集合。xe是待估计的边界框位置,σ为标准偏差;
步骤3:计算ground truth边界框在目标图片中的瞬时密度分布,计算方法用改进的狄拉克函数:
PD(x)=δ(x-xg)
其中,xg表示ground truth边界框的位置,所引入的δ函数数学表示形式为:
δa(x)=δ(x-a)=0,(x≠a)
Figure FDA0002701448930000017
步骤4:最小化预测框与ground truth边界框之间损失函数,即:
Figure FDA0002701448930000018
其中,相对熵作为边界框回归的损失函数用Lreg表示,计算方法为:
Figure FDA0002701448930000021
步骤5:将以上得到的损失函数替代目标检测神经网络中原始的损失函数,训练网络生成一定数量的预测框;
步骤6:利用方差投票机制对个别预测框加以调整,计算出新的更加准确的预测框边框的坐标,计算方法如下:
Figure FDA0002701448930000022
Figure FDA0002701448930000023
其中,σt是方差投票中可调的参数,根据所得坐标画出预测框并输出结果。
CN202011023567.2A 2020-09-25 2020-09-25 基于预测框自动修正的边框回归神经网络构建方法 Active CN112508168B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011023567.2A CN112508168B (zh) 2020-09-25 2020-09-25 基于预测框自动修正的边框回归神经网络构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011023567.2A CN112508168B (zh) 2020-09-25 2020-09-25 基于预测框自动修正的边框回归神经网络构建方法

Publications (2)

Publication Number Publication Date
CN112508168A true CN112508168A (zh) 2021-03-16
CN112508168B CN112508168B (zh) 2023-09-22

Family

ID=74953948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011023567.2A Active CN112508168B (zh) 2020-09-25 2020-09-25 基于预测框自动修正的边框回归神经网络构建方法

Country Status (1)

Country Link
CN (1) CN112508168B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111722A (zh) * 2021-03-17 2021-07-13 天津理工大学 基于改进Mask R-CNN的自动驾驶目标识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110018524A (zh) * 2019-01-28 2019-07-16 同济大学 一种基于视觉-属性的x射线安检违禁品识别方法
CN111160407A (zh) * 2019-12-10 2020-05-15 重庆特斯联智慧科技股份有限公司 一种深度学习目标检测方法及系统
CN111179262A (zh) * 2020-01-02 2020-05-19 国家电网有限公司 一种结合形状属性的电力巡检图像金具检测方法
AU2020101011A4 (en) * 2019-06-26 2020-07-23 Zhejiang University Method for identifying concrete cracks based on yolov3 deep learning model
WO2020173036A1 (zh) * 2019-02-26 2020-09-03 博众精工科技股份有限公司 基于深度学习的定位方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110018524A (zh) * 2019-01-28 2019-07-16 同济大学 一种基于视觉-属性的x射线安检违禁品识别方法
WO2020173036A1 (zh) * 2019-02-26 2020-09-03 博众精工科技股份有限公司 基于深度学习的定位方法和系统
AU2020101011A4 (en) * 2019-06-26 2020-07-23 Zhejiang University Method for identifying concrete cracks based on yolov3 deep learning model
CN111160407A (zh) * 2019-12-10 2020-05-15 重庆特斯联智慧科技股份有限公司 一种深度学习目标检测方法及系统
CN111179262A (zh) * 2020-01-02 2020-05-19 国家电网有限公司 一种结合形状属性的电力巡检图像金具检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李轩;李静;王海燕;: "密集交通场景的目标检测算法研究", 计算机技术与发展, no. 07 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111722A (zh) * 2021-03-17 2021-07-13 天津理工大学 基于改进Mask R-CNN的自动驾驶目标识别方法

Also Published As

Publication number Publication date
CN112508168B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN110335290B (zh) 基于注意力机制的孪生候选区域生成网络目标跟踪方法
Chan et al. Bayesian poisson regression for crowd counting
CN110223324B (zh) 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN114782691B (zh) 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备
CN103971386B (zh) 一种动态背景场景下的前景检测方法
CN110378348B (zh) 视频实例分割方法、设备及计算机可读存储介质
WO2023082882A1 (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
CN110349185B (zh) 一种rgbt目标跟踪模型的训练方法及装置
CN112184759A (zh) 一种基于视频的运动目标检测与跟踪方法及系统
JPH06150000A (ja) 画像クラスタリング装置
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN110490907A (zh) 基于多目标特征和改进相关滤波器的运动目标跟踪方法
CN113313810A (zh) 一种透明物体的6d姿态参数计算方法
CN108846850B (zh) 一种基于tld算法的目标跟踪方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN111127519A (zh) 一种双模型融合的目标跟踪控制系统及其方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN111402303A (zh) 一种基于kfstrcf的目标跟踪架构
CN115731396A (zh) 一种基于贝叶斯变分推断的持续学习方法
CN114973071A (zh) 基于长短期时序特征的无监督视频目标分割方法及系统
CN112508168B (zh) 基于预测框自动修正的边框回归神经网络构建方法
CN108280845B (zh) 一种针对复杂背景的尺度自适应目标跟踪方法
JP6600288B2 (ja) 統合装置及びプログラム
CN113436251A (zh) 一种基于改进的yolo6d算法的位姿估计系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant