CN110516705A - 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 - Google Patents
基于深度学习的目标跟踪方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110516705A CN110516705A CN201910655227.2A CN201910655227A CN110516705A CN 110516705 A CN110516705 A CN 110516705A CN 201910655227 A CN201910655227 A CN 201910655227A CN 110516705 A CN110516705 A CN 110516705A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- candidate frame
- tracking
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,公开了一种基于深度学习的目标跟踪方法,包括:根据追踪视频中第一帧图像中目标物初始状态,标定目标模板框;根据所述目标模板框,利用深度学习算法检测追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体并生成至少一个目标候选框;计算目标模板框和目标候选框的相似度,选择出满足相似度阈值条件的目标候选框,组成相似目标候选框集合;在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标。本发明还提出一种基于深度学习的目标跟踪装置以及计算机可读存储介质。本发明能实现持续、精确的目标追踪。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于深度学习的目标跟踪方法、装置及计算机可读存储介质。
背景技术
目标跟踪已经成为计算机视觉领域重要的研究方向和研究热点。军事上,可应用于精确制导武器、无人机侦察监视等领域;民用上,可应用于机器人导航、人机交互,行人与车辆的视频监控等领域。一般地,跟踪方法可以分为两类:生成类跟踪和判别类跟踪。生成类跟踪一般是在当前帧对目标区域建模,然后在后续帧中找出最可能是目标的候选区域作为跟踪目标。判别类跟踪一般是先进行特征提取,再采用一个分类器对目标和背景进行区分,这类方法多采用机器学习的方法。经过多年的发展,目标跟踪技术已经取得了长足的进步,但依然面临多方面的挑战,如目标外观改变、光照变化、遮挡、相似目标,这些因素都将导致目标漂移甚至跟踪失败。
发明内容
本发明提供一种基于深度学习的目标跟踪方法、装置及计算机可读存储介质,其主要目的在于提供一种能实现目标的持续、精确追踪方案。
为实现上述目的,本发明提供的一种基于深度学习的目标跟踪方法,包括:
根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框;
根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体并生成至少一个目标候选框;
计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合;
在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
可选地,所述基于深度学习的目标跟踪方法还包括:
计算所述目标候选框的置信度。
可选地,所述目标模板框和目标候选框的相似度的计算方法包括:
设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名;
计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图相似度,并构建相似目标候选框集合;
将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
可选地,所述颜色直方图和方向梯度直方图的相似度的计算公式分别为:
其中,(1)式中H1(I)、H2(I)分别为目标模板框图像块与目标候选框图像块的颜色直方图向量,H1分别为目标模板框与目标候选框中所有图像块的颜色向量统计值,以及(2)式中G1(I)、G2(I)分别为的目标模板框图像块与目标候选框图像块的方向梯度直方图向量,分别为目标模板框与目标候选框中所有图像块的梯度信息统计值。
可选地,所述基于深度学习的目标跟踪方法还包括:
使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框;
在相似目标候选框集合为空时,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
此外,为实现上述目的,本发明还提供一种基于深度学习的目标跟踪装置,该装置包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的基于深度学习的目标跟踪程序,所述基于深度学习的目标跟踪程序被所述处理器执行时实现如下步骤:
根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框;
根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体并生成至少一个目标候选框;
计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合;
在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
可选地,所述基于深度学习的目标跟踪程序被所述处理器执行时还实现如下步骤:
计算所述目标候选框的置信度。
可选地,所述目标模板框和目标候选框的相似度的计算方法包括:
设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名;
计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图相似度,并构建相似目标候选框集合;
将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
可选地,所述基于深度学习的目标跟踪程序被所述处理器执行时还实现如下步骤:
使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框;
在相似目标候选框集合为空时,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有基于深度学习的目标跟踪程序,所述基于深度学习的目标跟踪程序可被一个或者多个处理器执行,以实现如上所述的基于深度学习的目标跟踪方法的步骤。
本发明提出的基于深度学习的目标跟踪方法、装置及计算机可读存储介质采用基于深度学习的物体检测算法进行候选目标提取,同时结合全局性的颜色直方图特征和局部性的HOG特征进行目标选择,以实现跟踪。该方法利用了目前深度学习在物体检测上的强大优势,顺利将其迁移到目标跟踪上,提升了方法的鲁棒性,具有较强的理论价值和参考意义。
附图说明
图1为本发明一实施例提供的基于深度学习的目标跟踪方法的流程示意图;
图2为本发明一实施例提供的基于深度学习的目标跟踪方法中多尺度目标搜索方法的示意图;
图3为本发明一实施例提供的基于深度学习的目标跟踪装置的内部结构示意图;
图4为本发明一实施例提供的基于深度学习的目标跟踪程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,所述“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。
进一步地,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种基于深度学习的目标跟踪方法。参照图1所示,为本发明一实施例提供的基于深度学习的目标跟踪方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,所述基于深度学习的目标跟踪方法包括:
S1、根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框,并使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框。
获取目标模板框的方法有很多种,最常用的是手动标记法,因为手动标记法精确且最符合使用人员的意愿。如图2(a),手动标记出汽车目标的目标模板框。
进一步地,本发明较佳实施例使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框,以提高下述利用深度学习算法检测目标物并生成目标候选框的准确率。所述多尺度目标搜索方法是以第一帧图像中的目标模板框为基础,通过尺度变换,涵盖了六种不同尺度的搜索场景。如图2(a)所示,其标记出的目标模板框图像无任何尺度变换。图2(b)中区域Ⅰ是图(a)中汽车目标的目标模板框的原图像,而区域Ⅱ、区域Ⅲ、区域Ⅳ、区域Ⅴ分别代表使用多尺度目标搜索方法生成不同尺度条件下的目标模板框。例如,区域Ⅵ为区域Ⅰ的二倍差值放大区域,目的是增强目标模板框的目标信息,以提高目标的检测成功率。目标跟踪过程中,若目标丢失,为了提升目标的搜索成功率,可以将区域Ⅱ、区域Ⅲ、区域Ⅳ、区域Ⅴ的参数进一步更新,如将差值从1.25、1.5、1.75、2分别更新为1.5、2、2.5、3,以增大检测目标的搜索区域。
S2、根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体并生成至少一个目标候选框,并计算所述目标候选框的置信度。
在统计学中,一个概率样本的置信区间(Confidence interval)是对这个样本的某个总体参数的区间估计。置信区间展现的是这个参数的真实值有一定概率落在测量结果的周围的程度。置信区间给出的是被测量参数的测量值的可信程度,即前面所要求的“一定概率”。这个概率被称为置信度。
在第一帧图像中,由多尺度目标搜索方法得到六种不同尺度的目标模板框后,在追踪视频进入下一帧图像时,利用预先训练的深度学习模型进行目标检测,生成一个或者多个目标候选框和目标置信度。所述目标置信度是指总体参数值落在样本统计值某一区内的概率,如图2(c)所示,0.20的置信度表示汽车目标落在置信度对应的目标候选框区域的概率为0.20。
若下一帧图像中没有检测到目标,则继续检测再下一帧图像的检测,直到检测到目标,生成多个目标候选框和目标置信度为止。
本发明所述预先训练的深度学习模型使用SSD(Single Shot MultiBoxDetector)算法对目标进行检测。SSD算法是一种单次检测深度神经网络,其架构主要分为两部分:一部分是位于前端的深度卷积神经网络,采用的是去除分类层的图像分类网络,如VGG(VisualGeometryGroup),用于目标初步特征提取;另一部分是位于后端的多尺度特征检测网络,是一组级联的卷积神经网络,将前端网络产生的特征层进行不同尺度条件下的特征提取。SSD算法结合了回归思想和锚机制原理。采用回归的思想,可以简化SSD算法神经网络的计算复杂度,提高算法的实时性;采用锚机制,可以提取不同宽高比尺寸的特征,所以可以根据由多尺度目标搜索方法得到的六种不同尺度的目标搜索场景,提取出目标特征,完成目标检测。例如,输入图2(b)的六种不同尺度的目标模板框,经过预先训练的SSD算法的模型可检测出在这一帧图像中的汽车目标的多个目标候选框和相应的置信度。如图2(c)所示。
S3、计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合。
在步骤S2检测出目标物体后,会产生出多个目标候选框(如图2(c)),步骤S3通过计算多个目标候选框于所述目标模板框的相似度,挑选出与目标模板框最相似的目标候选框作为跟踪目标。
本发明较佳实施例中所述相似度的计算方法主要包括:
3.1、设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名。
如图2(c)中目标候选框的置信度分别为0.99、0.98、四个0.97、0.20,当设置置信度阈值为0.90时,可以去除置信度0.20的目标候选框,之后所述目标候选框再按照置信度从高到低重新排名;
3.2、计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图(Histogram of Oriented Gradient,HOG)相似度,并构建相似目标候选框集合。
本发明较佳实施例使用颜色直方图和方向梯度直方图两个方法共同进行目标候选框的挑选。所述颜色直方图用于提取的全局特征,对于目标的形变鲁棒性较强,而方向梯度直方图提取的是局部特征,对于目标的空间边缘等检测效果较好。结合这两种特征,可以更好地提取目标候选框,增大与目标模板框之间的相似性。颜色直方图、方向梯度直方图的相似度均采用计算相关系数的方法,其公式如下:
(1)式中H1(I)、H2(I)分别为目标模板框图像块与目标候选框图像块的颜色直方图向量,分别为目标模板框与目标候选框中所有图像块的颜色向量统计值,这里采用HSV色彩空间,并只保留H通道、S通道,去除V通道。由于H通道表征的是色调信息,S通道表征的是饱和度信息,V通道主要表征亮度信息,因此采用H、S通道进行目标选择,可一定程度上减弱光照变化对目标判断的影响。
(2)式中G1(I)、G2(I)分别为的目标模板框图像块与目标候选框图像块的方向梯度直方图向量,分别为目标模板框与目标候选框中所有图像块的梯度信息统计值,其计算公式如下:
其中gx(x,y)、gy(x,y)分别为图像块(x,y)在x方向上和y方向上的梯度。
3.3、将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
S4、判断相似目标候选框集合是否为空,并在相似目标候选框集合不为空时,执行S5,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
若相似目标候选框集合为空时,则认为所有目标候选框都不满足与目标模板框匹配的原则,执行S6,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
本发明还提供一种基于深度学习的目标跟踪装置。参照图3所示,为本发明一实施例提供的基于深度学习的目标跟踪装置的内部结构示意图。
在本实施例中,基于深度学习的目标跟踪装置1可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、便携计算机等终端设备。该基于深度学习的目标跟踪装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是基于深度学习的目标跟踪装置1的内部存储单元,例如该基于深度学习的目标跟踪装置1的硬盘。存储器11在另一些实施例中也可以是基于深度学习的目标跟踪装置1的外部存储设备,例如基于深度学习的目标跟踪装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。进一步地,存储器11还可以既包括基于深度学习的目标跟踪装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于基于深度学习的目标跟踪装置1的应用软件及各类数据,例如基于深度学习的目标跟踪程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行基于深度学习的目标跟踪程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在基于深度学习的目标跟踪装置1中处理的信息以及用于显示可视化的用户界面。
图3仅示出了具有组件11-14以及基于深度学习的目标跟踪程序01的基于深度学习的目标跟踪装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对基于深度学习的目标跟踪装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图3所示的装置1实施例中,存储器11中存储有基于深度学习的目标跟踪程序01;处理器12执行存储器11中存储的基于深度学习的目标跟踪程序01时实现如下步骤:
步骤一、根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框,并使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框。
获取目标模板框的方法有很多种,最常用的是手动标记法,因为手动标记法精确且最符合使用人员的意愿。如图2(a),手动标记出汽车目标的目标模板框。
进一步地,本发明较佳实施例使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框,以提高下述利用深度学习算法检测目标物并生成目标候选框的准确率。所述多尺度目标搜索方法是以第一帧图像中的目标模板框为基础,通过尺度变换,涵盖了六种不同尺度的搜索场景。如图2(a)所示,其标记出的目标模板框图像无任何尺度变换。图2(b)中区域Ⅰ是图(a)中汽车目标的目标模板框的原图像,而区域Ⅱ、区域Ⅲ、区域Ⅳ、区域Ⅴ分别代表使用多尺度目标搜索方法生成不同尺度条件下的目标模板框。例如,区域Ⅵ为区域Ⅰ的二倍差值放大区域,目的是增强目标模板框的目标信息,以提高目标的检测成功率。目标跟踪过程中,若目标丢失,为了提升目标的搜索成功率,可以将区域Ⅱ、区域Ⅲ、区域Ⅳ、区域Ⅴ的参数进一步更新,如将差值从1.25、1.5、1.75、2分别更新为1.5、2、2.5、3,以增大检测目标的搜索区域。
步骤二、根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体,生成至少一个目标候选框,并计算所述目标候选框的置信度。
在统计学中,一个概率样本的置信区间(Confidence interval)是对这个样本的某个总体参数的区间估计。置信区间展现的是这个参数的真实值有一定概率落在测量结果的周围的程度。置信区间给出的是被测量参数的测量值的可信程度,即前面所要求的“一定概率”。这个概率被称为置信度。
在第一帧图像中,由多尺度目标搜索方法得到六种不同尺度的目标模板框后,在追踪视频进入下一帧图像时,利用预先训练的深度学习模型进行目标检测,生成一个或者多个目标候选框和目标置信度。所述目标置信度是指总体参数值落在样本统计值某一区内的概率,如图2(c)所示,0.20的置信度表示汽车目标落在置信度对应的目标候选框区域的概率为0.20。
若下一帧图像中没有检测到目标,则继续检测再下一帧图像的检测,直到检测到目标,生成多个目标候选框和目标置信度为止。
本发明所述预先训练的深度学习模型使用SSD(Single Shot MultiBoxDetector)算法对目标进行检测。SSD算法是一种单次检测深度神经网络,其架构主要分为两部分:一部分是位于前端的深度卷积神经网络,采用的是去除分类层的图像分类网络,如VGG(VisualGeometryGroup),用于目标初步特征提取;另一部分是位于后端的多尺度特征检测网络,是一组级联的卷积神经网络,将前端网络产生的特征层进行不同尺度条件下的特征提取。SSD算法结合了回归思想和锚机制原理。采用回归的思想,可以简化SSD算法神经网络的计算复杂度,提高算法的实时性;采用锚机制,可以提取不同宽高比尺寸的特征,所以可以根据由多尺度目标搜索方法得到的六种不同尺度的目标搜索场景,提取出目标特征,完成目标检测。例如,输入图2(b)的六种不同尺度的目标模板框,经过预先训练的SSD算法的模型可检测出在这一帧图像中的汽车目标的多个目标候选框和相应的置信度。如图2(c)所示。
步骤三、计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合。
在步骤二检测出目标物体后,会产生出多个目标候选框(如图2(c)),步骤三通过计算多个目标候选框于所述目标模板框的相似度,挑选出与目标模板框最相似的目标候选框作为跟踪目标。
本发明较佳实施例中所述相似度的计算方法主要包括:
3.1、设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名。
如图2(c)中目标候选框的置信度分别为0.99、0.98、四个0.97、0.20,当设置置信度阈值为0.90时,可以去除置信度0.20的目标候选框,之后所述目标候选框再按照置信度从高到低重新排名;
3.2、计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图(Histogram of Oriented Gradient,HOG)相似度,并构建相似目标候选框集合。
本发明较佳实施例使用颜色直方图和方向梯度直方图两个方法共同进行目标候选框的挑选。所述颜色直方图用于提取的全局特征,对于目标的形变鲁棒性较强,而方向梯度直方图提取的是局部特征,对于目标的空间边缘等检测效果较好。结合这两种特征,可以更好地提取目标候选框,增大与目标模板框之间的相似性。颜色直方图、方向梯度直方图的相似度均采用计算相关系数的方法,其公式如下:
(1)式中H1(I)、H2(I)分别为目标模板框图像块与目标候选框图像块的颜色直方图向量,H1分别为目标模板框与目标候选框中所有图像块的颜色向量统计值,这里采用HSV色彩空间,并只保留H通道、S通道,去除V通道。由于H通道表征的是色调信息,S通道表征的是饱和度信息,V通道主要表征亮度信息,因此采用H、S通道进行目标选择,可一定程度上减弱光照变化对目标判断的影响。
(2)式中G1(I)、G2(I)分别为的目标模板框图像块与目标候选框图像块的方向梯度直方图向量,分别为目标模板框与目标候选框中所有图像块的梯度信息统计值,其计算公式如下:
其中gx(x,y)、gy(x,y)分别为图像块(x,y)在x方向上和y方向上的梯度。
3.3、将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
步骤四、判断相似目标候选框集合是否为空,并在相似目标候选框集合不为空时,执行步骤五,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
若相似目标候选框集合为空时,则认为所有目标候选框都不满足与目标模板框匹配的原则,执行步骤六,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
可选地,在其他实施例中,基于深度学习的目标跟踪程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述基于深度学习的目标跟踪程序在基于深度学习的目标跟踪装置中的执行过程。
例如,参照图4所示,为本发明基于深度学习的目标跟踪装置一实施例中的基于深度学习的目标跟踪程序的程序模块示意图,该实施例中,基于深度学习的目标跟踪程序可以被分割为目标模板框标定模块10、目标候选框生成模块20、相似度计算模块30、目标追踪模块40,示例性地:
目标模板框标定模块10用于:根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框。
可选地,所述目标模板框标定模块10还用于使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框。
目标候选框生成模块20用于:根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体,生成至少一个目标候选框。
可选地,所述目标候选框生成模块20还用于计算所述目标候选框的置信度。
相似度计算模块30用于:计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合。
可选地,所述目标模板框和目标候选框的相似度的计算方法包括:
设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名;
计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图相似度,并构建相似目标候选框集合;
将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
可选地,所述颜色直方图和方向梯度直方图的相似度的计算公式分别为:
其中,(1)式中H1(I)、H2(I)分别为目标模板框图像块与目标候选框图像块的颜色直方图向量,H1分别为目标模板框与目标候选框中所有图像块的颜色向量统计值,以及(2)式中G1(I)、G2(I)分别为的目标模板框图像块与目标候选框图像块的方向梯度直方图向量,分别为目标模板框与目标候选框中所有图像块的梯度信息统计值。
目标追踪模块40用于:在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
可选地,所述目标追踪模块40还用于在相似目标候选框集合为空时,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
上述目标模板框标定模块10、目标候选框生成模块20、相似度计算模块30、目标追踪模块40等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有基于深度学习的目标跟踪程序,所述基于深度学习的目标跟踪程序可被一个或多个处理器执行,以实现如下操作:
根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框;
根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体,生成至少一个目标候选框;
计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合;
在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
本发明计算机可读存储介质具体实施方式与上述基于深度学习的目标跟踪装置和方法各实施例基本相同,在此不作累述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于深度学习的目标跟踪方法,其特征在于,所述方法包括:
根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框;
根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体并生成至少一个目标候选框;
计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合;
在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
2.如权利要求1所述的基于深度学习的目标跟踪方法,其特征在于,该方法还包括:
计算所述目标候选框的置信度。
3.如权利要求2所述的基于深度学习的目标跟踪方法,其特征在于,所述目标模板框和目标候选框的相似度的计算方法包括:
设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名;
计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图相似度,并构建相似目标候选框集合;
将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
4.如权利要求3所述的基于深度学习的目标跟踪方法,其特征在于,所述颜色直方图和方向梯度直方图的相似度的计算公式分别为:
其中,(1)式中H1(I)、H2(I)分别为目标模板框图像块与目标候选框图像块的颜色直方图向量,H1分别为目标模板框与目标候选框中所有图像块的颜色向量统计值,以及(2)式中G1(I)、G2(I)分别为的目标模板框图像块与目标候选框图像块的方向梯度直方图向量,分别为目标模板框与目标候选框中所有图像块的梯度信息统计值。
5.如权利要求1至4中任意一项所述的基于深度学习的目标跟踪方法,其特征在于,该方法还包括:
使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框;
在相似目标候选框集合为空时,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
6.一种基于深度学习的目标跟踪装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的基于深度学习的目标跟踪程序,所述基于深度学习的目标跟踪程序被所述处理器执行时实现如下步骤:
根据追踪视频中第一帧图像中目标物的初始状态,标定出目标模板框;
根据所述目标模板框,利用预先训练的深度学习算法检测出追踪视频中当前帧图像中的目标物体,生成目标候选框,若追踪视频当前帧图像没有检测到目标物体,则继续检测下一帧图像,直到检测到目标物体并生成至少一个目标候选框;
计算目标模板框和目标候选框的相似度,选择出所有满足相似度阈值条件的目标候选框,组成相似目标候选框集合;
在相似目标候选框集合不为空时,挑选出相似度最高的目标候选框,作为追踪目标,完成目标追踪。
7.如权利要求6所述的基于深度学习的目标跟踪装置,其特征在于,所述基于深度学习的目标跟踪程序被所述处理器执行时还实现如下步骤:
计算所述目标候选框的置信度。
8.如权利要求7所述的基于深度学习的目标跟踪装置,其特征在于,所述目标模板框和目标候选框的相似度的计算方法包括:
设置目标置信度阈值,去除低于所述目标置信度阈值的目标候选框后,对目标候选框按照目标置信度进行从高到低排名;
计算排名后的目标候选框与目标模板框之间的颜色直方图相似度和方向梯度直方图相似度,并构建相似目标候选框集合;
将颜色直方图相似度和方向梯度直方图进行阈值条件判断,将颜色直方图相似度和方向梯度直方图相似度的阈值条件均满足的目标候选框放入相似目标候选框集合中。
9.如权利要求6至8中任意一项所述的基于深度学习的目标跟踪装置,其特征在于,所述基于深度学习的目标跟踪程序被所述处理器执行时还实现如下步骤:
使用多尺度目标搜索方法处理所述第一帧图像中的目标模板框;
在相似目标候选框集合为空时,在后一帧视频图像中,切换到多尺度目标搜索方法模式,增大差值放大区域的差值,在下一帧继续搜索目标,直到在一帧图像中需找到相似目标为止,完成目标追踪。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有基于深度学习的目标跟踪程序,所述基于深度学习的目标跟踪程序可被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的基于深度学习的目标跟踪方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910655227.2A CN110516705A (zh) | 2019-07-19 | 2019-07-19 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
PCT/CN2019/116553 WO2021012484A1 (zh) | 2019-07-19 | 2019-11-08 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910655227.2A CN110516705A (zh) | 2019-07-19 | 2019-07-19 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110516705A true CN110516705A (zh) | 2019-11-29 |
Family
ID=68622672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910655227.2A Pending CN110516705A (zh) | 2019-07-19 | 2019-07-19 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110516705A (zh) |
WO (1) | WO2021012484A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160292A (zh) * | 2019-12-31 | 2020-05-15 | 上海易维视科技有限公司 | 人眼检测方法 |
CN111199554A (zh) * | 2019-12-31 | 2020-05-26 | 中国船舶重工集团公司第七一七研究所 | 一种目标跟踪抗遮挡的方法及装置 |
CN111241931A (zh) * | 2019-12-30 | 2020-06-05 | 沈阳理工大学 | 一种基于YOLOv3的空中无人机目标识别和跟踪方法 |
CN111429478A (zh) * | 2020-04-13 | 2020-07-17 | 展讯通信(上海)有限公司 | 目标追踪方法及相关设备 |
CN111476306A (zh) * | 2020-04-10 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 基于人工智能的物体检测方法、装置、设备及存储介质 |
CN111612822A (zh) * | 2020-05-21 | 2020-09-01 | 广州海格通信集团股份有限公司 | 对象跟踪方法、装置、计算机设备和存储介质 |
CN112232311A (zh) * | 2019-12-24 | 2021-01-15 | 杭州宇泛智能科技有限公司 | 人脸跟踪方法、装置及电子设备 |
CN112884810A (zh) * | 2021-03-18 | 2021-06-01 | 沈阳理工大学 | 一种基于YOLOv3的行人跟踪方法 |
CN113191227A (zh) * | 2021-04-20 | 2021-07-30 | 上海东普信息科技有限公司 | 柜门状态的检测方法、装置、设备及存储介质 |
CN113869163A (zh) * | 2021-09-18 | 2021-12-31 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN115472028A (zh) * | 2022-08-26 | 2022-12-13 | 浙江数智交院科技股份有限公司 | 一种隧道紧急停车带智能预警诱导方法及系统 |
CN116993785A (zh) * | 2023-08-31 | 2023-11-03 | 东之乔科技有限公司 | 目标对象视觉跟踪方法、装置、电子设备及存储介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927264B (zh) * | 2021-02-25 | 2022-12-16 | 华南理工大学 | 一种无人机跟踪拍摄系统及其rgbd跟踪方法 |
CN112907634B (zh) * | 2021-03-18 | 2023-06-20 | 沈阳理工大学 | 基于无人机的车辆跟踪方法 |
CN113628246B (zh) * | 2021-07-28 | 2024-04-12 | 西安理工大学 | 一种基于3d卷积模板更新的孪生网络目标跟踪方法 |
CN113763421A (zh) * | 2021-07-28 | 2021-12-07 | 奥比中光科技集团股份有限公司 | 一种目标跟踪方法、装置及计算机可读存储介质 |
CN113743212B (zh) * | 2021-08-02 | 2023-11-14 | 日立楼宇技术(广州)有限公司 | 扶梯出入口拥堵或有遗留物的检测方法、装置及存储介质 |
CN113744313B (zh) * | 2021-09-06 | 2024-02-02 | 山东工商学院 | 基于目标移动轨迹预测的深度学习集成的跟踪算法 |
CN114743125B (zh) * | 2022-03-02 | 2024-02-27 | 上海应用技术大学 | 基于yolo和改进模板匹配的杠铃识别与跟踪控制方法 |
CN115690615B (zh) * | 2022-10-11 | 2023-11-03 | 杭州视图智航科技有限公司 | 一种面向视频流的深度学习目标识别方法及系统 |
CN117572885B (zh) * | 2023-11-20 | 2024-05-31 | 鸣飞伟业技术有限公司 | 基于无人机热红外相机的夜间追踪方法、系统及相关装置 |
CN118135248A (zh) * | 2024-05-08 | 2024-06-04 | 山东建筑大学 | 复杂场景下多目标跟踪方法、系统、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170132472A1 (en) * | 2015-11-05 | 2017-05-11 | Qualcomm Incorporated | Generic mapping for tracking target object in video sequence |
CN108694724A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种长时间目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106097391B (zh) * | 2016-06-13 | 2018-11-16 | 浙江工商大学 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
-
2019
- 2019-07-19 CN CN201910655227.2A patent/CN110516705A/zh active Pending
- 2019-11-08 WO PCT/CN2019/116553 patent/WO2021012484A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170132472A1 (en) * | 2015-11-05 | 2017-05-11 | Qualcomm Incorporated | Generic mapping for tracking target object in video sequence |
CN108694724A (zh) * | 2018-05-11 | 2018-10-23 | 西安天和防务技术股份有限公司 | 一种长时间目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
唐聪等: ""基于深度学习物体检测的视觉跟踪方法"", 《红外与激光工程》, vol. 47, no. 5, pages 1 - 3 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232311A (zh) * | 2019-12-24 | 2021-01-15 | 杭州宇泛智能科技有限公司 | 人脸跟踪方法、装置及电子设备 |
CN111241931A (zh) * | 2019-12-30 | 2020-06-05 | 沈阳理工大学 | 一种基于YOLOv3的空中无人机目标识别和跟踪方法 |
CN111241931B (zh) * | 2019-12-30 | 2023-04-18 | 沈阳理工大学 | 一种基于YOLOv3的空中无人机目标识别和跟踪方法 |
CN111199554A (zh) * | 2019-12-31 | 2020-05-26 | 中国船舶重工集团公司第七一七研究所 | 一种目标跟踪抗遮挡的方法及装置 |
CN111160292B (zh) * | 2019-12-31 | 2023-09-22 | 上海易维视科技有限公司 | 人眼检测方法 |
CN111160292A (zh) * | 2019-12-31 | 2020-05-15 | 上海易维视科技有限公司 | 人眼检测方法 |
CN111476306B (zh) * | 2020-04-10 | 2023-07-28 | 腾讯科技(深圳)有限公司 | 基于人工智能的物体检测方法、装置、设备及存储介质 |
CN111476306A (zh) * | 2020-04-10 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 基于人工智能的物体检测方法、装置、设备及存储介质 |
CN111429478A (zh) * | 2020-04-13 | 2020-07-17 | 展讯通信(上海)有限公司 | 目标追踪方法及相关设备 |
CN111612822A (zh) * | 2020-05-21 | 2020-09-01 | 广州海格通信集团股份有限公司 | 对象跟踪方法、装置、计算机设备和存储介质 |
CN111612822B (zh) * | 2020-05-21 | 2024-03-15 | 广州海格通信集团股份有限公司 | 对象跟踪方法、装置、计算机设备和存储介质 |
CN112884810A (zh) * | 2021-03-18 | 2021-06-01 | 沈阳理工大学 | 一种基于YOLOv3的行人跟踪方法 |
CN112884810B (zh) * | 2021-03-18 | 2024-02-02 | 沈阳理工大学 | 一种基于YOLOv3的行人跟踪方法 |
CN113191227A (zh) * | 2021-04-20 | 2021-07-30 | 上海东普信息科技有限公司 | 柜门状态的检测方法、装置、设备及存储介质 |
CN113869163A (zh) * | 2021-09-18 | 2021-12-31 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN115472028A (zh) * | 2022-08-26 | 2022-12-13 | 浙江数智交院科技股份有限公司 | 一种隧道紧急停车带智能预警诱导方法及系统 |
CN116993785A (zh) * | 2023-08-31 | 2023-11-03 | 东之乔科技有限公司 | 目标对象视觉跟踪方法、装置、电子设备及存储介质 |
CN116993785B (zh) * | 2023-08-31 | 2024-02-02 | 东之乔科技有限公司 | 目标对象视觉跟踪方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021012484A1 (zh) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110516705A (zh) | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 | |
CN107633204B (zh) | 人脸遮挡检测方法、装置及存储介质 | |
Zhang et al. | Branch detection for apple trees trained in fruiting wall architecture using depth features and Regions-Convolutional Neural Network (R-CNN) | |
US11823429B2 (en) | Method, system and device for difference automatic calibration in cross modal target detection | |
CN110738101B (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN107330451B (zh) | 基于深度卷积神经网络的服装属性检索方法 | |
Liu et al. | Matching-cnn meets knn: Quasi-parametric human parsing | |
WO2019041519A1 (zh) | 目标跟踪装置、方法及计算机可读存储介质 | |
CN111259751B (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
US7136524B1 (en) | Robust perceptual color identification | |
CN104615986B (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN111275060B (zh) | 识别模型更新处理方法、装置、电子设备及存储介质 | |
CN107679449B (zh) | 嘴唇动作捕捉方法、装置及存储介质 | |
KR101917354B1 (ko) | 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법 | |
CN110020093A (zh) | 视频检索方法、边缘设备、视频检索装置及存储介质 | |
CN107633205A (zh) | 嘴唇动作分析方法、装置及存储介质 | |
CN109961472B (zh) | 3d热力图生成的方法、系统、存储介质及电子设备 | |
CN111126249A (zh) | 一种大数据和贝叶斯相结合的行人重识别方法及装置 | |
CN115223239B (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
CN110633712A (zh) | 一种车身颜色识别方法、系统、装置及计算机可读介质 | |
CN109670517A (zh) | 目标检测方法、装置、电子设备和目标检测模型 | |
CN110910445A (zh) | 一种物件尺寸检测方法、装置、检测设备及存储介质 | |
US10140555B2 (en) | Processing system, processing method, and recording medium | |
CN115115825A (zh) | 图像中的对象检测方法、装置、计算机设备和存储介质 | |
CN110569921A (zh) | 一种车标识别方法、系统、装置及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |