CN114429489A - 基于多核相关滤波融合的移动机器人目标遮挡跟踪方法 - Google Patents
基于多核相关滤波融合的移动机器人目标遮挡跟踪方法 Download PDFInfo
- Publication number
- CN114429489A CN114429489A CN202210092490.7A CN202210092490A CN114429489A CN 114429489 A CN114429489 A CN 114429489A CN 202210092490 A CN202210092490 A CN 202210092490A CN 114429489 A CN114429489 A CN 114429489A
- Authority
- CN
- China
- Prior art keywords
- target
- depth
- feature
- frame
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于多核相关滤波融合的移动机器人目标遮挡跟踪方法,首先提取视频帧中目标区域图像块的多种类型互补特性,根据多个类型的特征独立学习相应滤波器,然后通过滤波器中获取的响应图,实现融合确定运动目标所在的当前帧位置,当在跟踪过程中发生遮挡时,引入深度图来解决跟踪过程中遮挡问题。通过跟踪算法来获取实时的目标跟踪结果,为后续移动机器人在跟踪时提供位置信号,以最终完成移动机器人的目标及跟随追踪任务。该算法在保证系统实时性的同时,大幅度提高了跟踪算法的鲁棒性。
Description
技术领域
本发明涉及目标跟踪技术领域,特别是涉及一种基于多核相关滤波融合的移动机器人目标遮挡跟踪方法。
背景技术
随着社会的发展与科技的进步,越来越多的移动机器人应用到我们的生活场景中。机器人技术的重大进步使机器人有可能在复杂的环境中操作,同时与人类共享工作空间来执行诸如医疗保健、家庭自动化、建筑等任务。自动跟踪作为机器人技术的一特定方面,自动跟踪是这些机器人与人进行有效交互的必不可少的基本功能。自动跟踪技术使移动机器人可以连续地与目标人员保持一定距离,从而使机器人能够安全有效地与人类协同工作。但是现有的移动机器人跟踪中,当目标快速移动或目标尺寸持续发生变化火遮挡时,目标容易出现漂移,导致跟踪失败,跟踪可靠性低。
发明内容
针对以上技术问题,本发明提供一种基于多核相关滤波融合的移动机器人目标遮挡跟踪方法。
本发明解决其技术问题采用的技术方案是:
基于多核相关滤波融合的移动机器人目标遮挡跟踪方法,方法包括以下步骤:
步骤S100:获取移动机器人拍摄的视频序列中的当前帧,从当前帧中选取跟踪目标所在的区域为目标区域图像块,对目标区域图像块进行预处理并提取得到多个类型特征,将多个类型特征输入至对应特征相关滤波器进行训练,得到每种类型特征的响应图;
步骤S200:获取当前帧目标边界框内深度直方图的像素深度值以及上一帧目标边界框内深度直方图的像素深度值,根据当前帧目标边界框内深度直方图的像素深度值、上一帧目标边界框内深度直方图的像素深度值和预设的深度变化阈值判断目标是否被遮挡,若目标没有被遮挡,融合每种类型特征的响应图得到最终响应图,根据最终响应图对预设的多核相关滤波融合模型进行更新并得到当前帧的跟踪结果;
步骤S300:获取移动机器人拍摄的视频序列中的下一帧,重复步骤S100,并获取下一帧目标边界框内深度直方图的像素深度值和当前帧的跟踪结果的像素深度值,根据下一帧目标边界框内深度直方图的像素深度值、当前帧的跟踪结果的像素深度值和预设的深度变化阈值判断目标是否被遮挡,若目标被遮挡,判别器跟踪得到目标所在位置中心点;
步骤S400:获取下一帧对应的深度图,根据深度图和目标所在位置中心点得到目标深度二值化图像,设置上下文权重,根据目标深度二值化图像和上下文权重得到空间加权图,根据空间加权图得到下一帧的跟踪结果。
优选地,步骤S100中对目标区域图像块进行预处理并提取得到多个类型特征,将多个类型特征输入至对应特征相关滤波器进行训练,得到每种类型特征的响应图包括:
步骤S110:对目标区域图像块进行二值化后得到灰度图;
步骤S120:从灰度图中提取目标HOG、HOGC、似然图和似然图方向直方图的特征,得到第一特征、第二特征、第三特征和第四特征;
步骤S130:将第一特征、第二特征、第三特征和第四特征分别输入至对应的特征相关滤波器进行训练,得到每种类型特征的响应图。
优选地,步骤S200中根据当前帧目标边界框内深度直方图的像素深度值、上一帧目标边界框内深度直方图的像素深度值和预设的深度变化阈值判断目标是否被遮挡包括:
步骤S210:根据当前帧目标边界框内深度直方图的像素深度值和上一帧目标边界框内深度直方图的像素深度值得到深度值变化特性;
步骤S220:当深度值变化特性大于或等于预设的深度变化阈值时,则当前帧发生了目标遮挡,当深度值变化特性小于预设的深度变化阈值时,则当前帧未发生目标遮挡。
优选地,步骤S210具体为:
优选地,步骤S200中若目标没有被遮挡,融合每种类型特征的响应图得到最终响应图具体为:
P=P1⊙P2⊙P3⊙P4
其中,P为最终响应图,P1为第一特征的响应图,P2为第二特征的响应图,P3为第三特征的响应图,P4为第四特征的响应图,⊙代表元素乘积。
优选地,步骤S400中根据目标深度二值化图像和上下文权重得到空间加权图,具体为:
其中,σ为比例参数,通过调节比例参数设置上下文权重,(x,y)表示当前跟踪目标的中心位置,K是深度图像通过优化k均值方法得到的二值映射,(xt',yt')表示第t帧中目标中心位置。
优选地,步骤S400中根据空间加权图得到下一帧的跟踪结果,具体为:
其中,F表示FFT函数,F-1表示反FFT函数,⊙表示元素乘积,Wt表示空间加权图,Ht表示时空上下文模型,(x′t+1,y′t+1)表示第t+1帧中目标的中心点位置坐标。
优选地,步骤S400之后,还包括:
步骤S500:根据每一帧的跟踪结果判断移动机器人与障碍物间的距离,根据移动机器人与障碍物间的距离控制移动机器人根据预设的距离-速度-移动方式原则跟踪。
优选地,预设的距离-速度-移动方式原则包括:
当距离在第一范围内时,移动机器人停止前行,原地旋转;
当距离在第二范围内时,移动机器人边旋转边直行;
当距离在第三范围内时,移动机器人直行不旋转;其中,第三范围大于第二范围,第二范围大于第一范围。
上述基于多核相关滤波融合的移动机器人目标跟踪算法,首先提取视频帧中目标区域图像块的多种类型互补特性,根据多个类型的特征独立学习相应滤波器,然后通过滤波器中获取的响应图,实现融合确定运动目标所在的当前帧位置,当在跟踪过程中发生遮挡时,引入深度图来解决跟踪过程中遮挡问题。通过跟踪算法来获取实时的目标跟踪结果,为后续移动机器人在跟踪时提供位置信号,以最终完成移动机器人的目标及跟随追踪任务。该算法在保证系统实时性的同时,大幅度提高了跟踪算法的鲁棒性。
附图说明
图1为本发明一实施例提供的基于多核相关滤波融合的移动机器人目标遮挡跟踪方法流程图;
图2为本发明另一实施例提供的基于多核相关滤波融合的移动机器人目标遮挡跟踪方法流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1所示,基于多核相关滤波融合的移动机器人目标遮挡跟踪方法,方法包括以下步骤:
步骤S100:获取移动机器人拍摄的视频序列中的当前帧,从当前帧中选取跟踪目标所在的区域为目标区域图像块,对目标区域图像块进行预处理并提取得到多个类型特征,将多个类型特征输入至对应特征相关滤波器进行训练,得到每种类型特征的响应图。
在一个实施例中,步骤S100中对目标区域图像块进行预处理并提取得到多个类型特征,将多个类型特征输入至对应特征相关滤波器进行训练,得到每种类型特征的响应图包括:
步骤S110:对目标区域图像块进行二值化后得到灰度图;
步骤S120:从灰度图中提取目标HOG、HOGC、似然图和似然图方向直方图,作为第一特征、第二特征、第三特征和第四特征;
步骤S130:将第一特征、第二特征、第三特征和第四特征分别输入至对应的特征相关滤波器进行训练,得到每种类型特征的响应图。
具体地,分别使用四种类型的特征来学习相关滤波器:1)局部强度直方图特征(HOGC);2)从灰度图中提取的方向梯度直方图(HOG);3)表示搜索区域中每个像素属于目标的可能性的目标似然图的特征;4)从目标似然图提取的方向梯度直方图的特征。由于采用的四种特征训练出来的相关滤波器具有互补性,所以把四个相关滤波器进行融合,从而得到多特征融合的滤波器。
目标局部强度特征:在实际的目标跟踪场景下,会有大量的干扰背景,当跟踪对象与周围背景像素颜色相似时,通过提取颜色直方图作为目标特征,把背景特征映射到样本上,导致建立的模型受到污染,跟踪效果不佳。为了拟补这方面的缺陷,本发明通过提取目标对象与背景存在的微小差异的强度特征,进一步提高跟踪精度。因为灰度图对运动模糊具有鲁棒性,因此可以在获得区域块的RGB图像中来构建局部强度特征。灰度图方向梯度直方图为所跟踪运动目标区域对应的方向直方图,方向梯度直方图(HOG)用来计算图像采集后的梯度信息,对部分单元受到光照变化和较慢的运动模糊具有良好性能。HOG特征是从RGB图像中获取的,从获得的图像中计算像素的水平和垂直梯度,然后再计算第i帧处像素点的梯度信息;目标似然图在本发明中,在搜索域I上采用基于颜色直方图的贝叶斯分类器,bx代表分配给I(x)的颜色分量bin。因此,位置的目标可能性我们能够根据贝叶斯(Bayesian)的法则得到。
步骤S200:获取当前帧目标边界框内深度直方图的像素深度值以及上一帧目标边界框内深度直方图的像素深度值,根据当前帧目标边界框内深度直方图的像素深度值、上一帧目标边界框内深度直方图的像素深度值和预设的深度变化阈值判断目标是否被遮挡,若目标没有被遮挡,融合每种类型特征的响应图得到最终响应图,根据最终响应图对预设的多核相关滤波融合模型进行更新并得到当前帧的跟踪结果;
在一个实施例中,步骤S200中根据当前帧目标边界框内深度直方图的像素深度值、上一帧目标边界框内深度直方图的像素深度值和预设的深度变化阈值判断目标是否被遮挡包括:
步骤S210:根据当前帧目标边界框内深度直方图的像素深度值和上一帧目标边界框内深度直方图的像素深度值得到深度值变化特性;
步骤S220:当深度值变化特性大于或等于预设的深度变化阈值时,则当前帧发生了目标遮挡,当深度值变化特性小于预设的深度变化阈值时,则当前帧未发生目标遮挡。
在一个实施例中,步骤S210具体为:
在一个实施例中,步骤S200中若目标没有被遮挡,融合每种类型特征的响应图得到最终响应图具体为:
P=P1⊙P2⊙P3⊙P4
其中,P为最终响应图,P1为第一特征的响应图,P2为第二特征的响应图,P3为第三特征的响应图,P4为第四特征的响应图,⊙代表元素乘积。
具体地,在给定当前搜索区域I和核化相关滤波器W,我们得到每种类型特征的响应图P1=W1(I)、P2=W2(I)、P3=W3(I)和P4=W4(I),然后取这些响应图的乘积得到最终的响应图。
步骤S300:获取移动机器人拍摄的视频序列中的下一帧,重复步骤S100,获取下一帧目标边界框内深度直方图的像素深度值和当前帧的跟踪结果的像素深度值,根据下一帧目标边界框内深度直方图的像素深度值、当前帧的跟踪结果的像素深度值和预设的深度变化阈值判断目标是否被遮挡,若目标被遮挡,判别器跟踪得到目标所在位置中心点。
具体地,目标在未被遮挡时,目标距离目标边界框最近。当目标被遮挡时,则目标框内会出现新的对象,这时候则表示遮挡状态的开始。这时候,边界框内的深度直方图会有一个新的上升峰值,其像素深度值小于目标值,且目标深度周围的直方图中的箱数减少,像素深度值变化近似于高斯分布,因此,可以将其作为检测是否发生遮挡的根据。如果当前帧t的像素深度值相比前一帧像素深度值的变化较大,则认为当前帧发生了目标遮挡。如果变化不大则认为当前帧中没有发生遮挡。
当目标处于相互遮挡的动态场景时,跟踪器判别为目标被遮挡,此时若采用多核相关滤波进行跟踪,会使目标特征提取出现错误,使跟踪出现漂移。虽然多核相关滤波采用了颜色直方图和方向直方图特征进行融合后提取,但此方法只适用于简单场景。当移动机器人跟踪背景杂乱且长期严重遮挡的场景下,该方法无法实时对目标进行鲁棒性跟踪。
步骤S400:获取下一帧对应的深度图,根据深度图和目标所在位置中心点得到目标深度二值化图像,设置上下文权重,根据目标深度二值化图像和上下文权重得到空间加权图,根据空间加权图得到下一帧的跟踪结果。
具体地,在移动机器人的目标跟踪中,当前帧的目标位置通常与下一帧中的目标位置相近,上下文位置与当前跟踪目标的中心位置越接近,那么在下一帧图像中,上下文信息对于预测目标位置就越重要。因此利用深度图和给上下文设置更大的权重来抑制目标背景,从而有效解决目标遮挡跟踪问题。
在一个实施例中,步骤S400中根据目标深度二值化图像和上下文权重得到空间加权图,具体为:
其中,σ为比例参数,通过调节比例参数设置上下文权重,(x,y)表示当前跟踪目标的中心位置,K是深度图像通过优化k均值方法得到的二值映射,(xt',yt')表示第t帧中目标中心位置。
具体地,上下文权重属于(0,1),在第t帧中生成目标与其周围背景之间加权相关的空间加权图。
在一个实施例中,步骤S400中根据空间加权图得到下一帧的跟踪结果,具体为:
其中,F表示FFT函数,F-1表示反FFT函数,⊙表示元素乘积,Wt表示空间加权图,Ht表示时空上下文模型,(x′t+1,y′t+1)表示t+1帧中目标的中心点位置坐标。
在一个实施例中,步骤S400之后,还包括:
步骤S500:根据每一帧的跟踪结果判断移动机器人与障碍物间的距离,根据移动机器人与障碍物间的距离控制移动机器人根据预设的距离-速度-移动方式原则跟踪。
在一个实施例中,预设的距离-速度-移动方式原则包括:
当距离在第一范围内时,移动机器人停止前行,原地旋转;
当距离在第二范围内时,移动机器人边旋转边直行;
当距离在第三范围内时,移动机器人直行不旋转;其中,第三范围大于第二范围,第二范围大于第一范围。
具体地,将障碍物距离与模糊控制算法输出的机器人运动速度进行推理,从而控制机器人行进。其中模糊推理规则为:当机器人距离障碍物较近时,机器人边旋转边前行,直到远离障碍物;当机器人距离障碍物很近且无法边前行边旋转时,机器人立即停止,并原地旋转,直到机器人正前方没有障碍物;当机器人距离障碍物较远时,机器人直行,不旋转。
本发明提出一种基于多核相关滤波融合的移动机器人目标遮挡跟踪方法,首先提取运动目标的四种类型互补特性,根据四个类型的特征独立学习相应滤波器,然后通过滤波器中获取的响应图,实现融合确定运动目标所在的当前帧位置。并引入深度图来解决跟踪过程中遮挡问题。在使用视觉传感器的情况下,通过本发明的跟踪算法来获取实时的目标跟踪结果,为移动机器人的控制模块提供位置信号,以最终完成移动机器人的目标及跟随追踪任务。该算法在保证系统实时性的同时,大幅度提高了跟踪算法的鲁棒性。
以上对本发明所提供的基于多核相关滤波融合的移动机器人目标遮挡跟踪方法进行了详细介绍。本发明中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (9)
1.基于多核相关滤波融合的移动机器人目标遮挡跟踪方法,其特征在于,所述方法包括以下步骤:
步骤S100:获取移动机器人拍摄的视频序列中的当前帧,从所述当前帧中选取跟踪目标所在的区域为目标区域图像块,对所述目标区域图像块进行预处理并提取得到多个类型特征,将所述多个类型特征输入至对应特征相关滤波器进行训练,得到每种类型特征的响应图;
步骤S200:获取当前帧目标边界框内深度直方图的像素深度值以及上一帧目标边界框内深度直方图的像素深度值,根据所述当前帧目标边界框内深度直方图的像素深度值、所述上一帧目标边界框内深度直方图的像素深度值和预设的深度变化阈值判断目标是否被遮挡,若目标没有被遮挡,融合所述每种类型特征的响应图得到最终响应图,根据所述最终响应图对预设的多核相关滤波融合模型进行更新并得到当前帧的跟踪结果;
步骤S300:获取移动机器人拍摄的视频序列中的下一帧,重复步骤S100,并获取下一帧目标边界框内深度直方图的像素深度值和所述当前帧的跟踪结果的像素深度值,根据所述下一帧目标边界框内深度直方图的像素深度值、所述当前帧的跟踪结果的像素深度值和预设的深度变化阈值判断目标是否被遮挡,若目标被遮挡,判别器跟踪得到目标所在位置中心点;
步骤S400:获取所述下一帧对应的深度图,根据所述深度图和所述目标所在位置中心点得到目标深度二值化图像,设置上下文权重,根据所述目标深度二值化图像和所述上下文权重得到空间加权图,根据所述空间加权图得到下一帧的跟踪结果。
2.根据权利要求1所述的方法,其特征在于,步骤S100中对所述目标区域图像块进行预处理并提取得到多个类型特征,将所述多个类型特征输入至对应特征相关滤波器进行训练,得到每种类型特征的响应图包括:
步骤S110:对所述目标区域图像块进行二值化后得到灰度图;
步骤S120:从所述灰度图中提取目标HOG、HOGC、似然图和似然图方向直方图的特征,得到第一特征、第二特征、第三特征和第四特征;
步骤S130:将所述第一特征、所述第二特征、所述第三特征和所述第四特征分别输入至对应的特征相关滤波器进行训练,得到每种类型特征的响应图。
3.根据权利要求2所述的方法,其特征在于,步骤S200中根据所述当前帧目标边界框内深度直方图的像素深度值、所述上一帧目标边界框内深度直方图的像素深度值和预设的深度变化阈值判断目标是否被遮挡包括:
步骤S210:根据所述当前帧目标边界框内深度直方图的像素深度值和所述上一帧目标边界框内深度直方图的像素深度值得到深度值变化特性;
步骤S220:当所述深度值变化特性大于或等于预设的深度变化阈值时,则当前帧发生了目标遮挡,当所述深度值变化特性小于预设的深度变化阈值时,则当前帧未发生目标遮挡。
5.根据权利要求4所述的方法,其特征在于,步骤S200中若目标没有被遮挡,融合所述每种类型特征的响应图得到最终响应图具体为:
P=P1⊙P2⊙P3⊙P4
其中,P为最终响应图,P1为第一特征的响应图,P2为第二特征的响应图,P3为第三特征的响应图,P4为第四特征的响应图,⊙代表元素乘积。
8.根据权利要求7所述的方法,其特征在于,步骤S400之后,还包括:
步骤S500:根据每一帧的跟踪结果判断移动机器人与障碍物间的距离,根据所述移动机器人与障碍物间的距离控制移动机器人根据预设的距离-速度-移动方式原则跟踪。
9.根据权利要求8所述的方法,其特征在于,所述预设的距离-速度-移动方式原则包括:
当所述距离在第一范围内时,移动机器人停止前行,原地旋转;
当所述距离在第二范围内时,移动机器人边旋转边直行;
当所述距离在第三范围内时,移动机器人直行不旋转;其中,所述第三范围大于所述第二范围,所述第二范围大于所述第一范围。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210092490.7A CN114429489A (zh) | 2022-01-26 | 2022-01-26 | 基于多核相关滤波融合的移动机器人目标遮挡跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210092490.7A CN114429489A (zh) | 2022-01-26 | 2022-01-26 | 基于多核相关滤波融合的移动机器人目标遮挡跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114429489A true CN114429489A (zh) | 2022-05-03 |
Family
ID=81313259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210092490.7A Pending CN114429489A (zh) | 2022-01-26 | 2022-01-26 | 基于多核相关滤波融合的移动机器人目标遮挡跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114429489A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116945208A (zh) * | 2023-09-19 | 2023-10-27 | 湖南固工机器人有限公司 | 一种机器人系统 |
-
2022
- 2022-01-26 CN CN202210092490.7A patent/CN114429489A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116945208A (zh) * | 2023-09-19 | 2023-10-27 | 湖南固工机器人有限公司 | 一种机器人系统 |
CN116945208B (zh) * | 2023-09-19 | 2023-12-15 | 湖南固工机器人有限公司 | 一种机器人系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN109344725B (zh) | 一种基于时空关注度机制的多行人在线跟踪方法 | |
CN110232350B (zh) | 一种基于在线学习的实时水面多运动目标检测跟踪方法 | |
CN113506317B (zh) | 一种基于Mask R-CNN和表观特征融合的多目标跟踪方法 | |
CN111476817A (zh) | 一种基于yolov3的多目标行人检测跟踪方法 | |
CN109658442B (zh) | 多目标跟踪方法、装置、设备及计算机可读存储介质 | |
CN112947419B (zh) | 避障方法、装置及设备 | |
CN110930429B (zh) | 一种目标跟踪处理方法、装置及设备、可读介质 | |
Engel et al. | Deep object tracking on dynamic occupancy grid maps using rnns | |
CN108537825B (zh) | 一种基于迁移学习回归网络的目标跟踪方法 | |
CN115565130A (zh) | 一种无人值守系统及其基于光流的监控方法 | |
Kadim et al. | Deep-learning based single object tracker for night surveillance. | |
Liu et al. | Towards industrial scenario lane detection: vision-based AGV navigation methods | |
CN114429489A (zh) | 基于多核相关滤波融合的移动机器人目标遮挡跟踪方法 | |
CN110111358B (zh) | 一种基于多层时序滤波的目标跟踪方法 | |
CN110415275B (zh) | 一种基于点对点的运动目标检测与跟踪方法 | |
CN116777956A (zh) | 基于多尺度航迹管理的运动目标筛选方法 | |
CN115147450B (zh) | 基于运动帧差图像的移动目标检测方法及检测装置 | |
Wang et al. | Improving target detection by coupling it with tracking | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 | |
CN113628251B (zh) | 一种智慧酒店终端监测方法 | |
Kim et al. | Unsupervised moving object segmentation and recognition using clustering and a neural network | |
CN114897939A (zh) | 基于深度路径聚合网络的多目标跟踪方法及系统 | |
CN113450385B (zh) | 一种夜间工作工程机械视觉跟踪方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |