CN113139417A - 行动对象追踪方法及相关设备 - Google Patents
行动对象追踪方法及相关设备 Download PDFInfo
- Publication number
- CN113139417A CN113139417A CN202011329079.4A CN202011329079A CN113139417A CN 113139417 A CN113139417 A CN 113139417A CN 202011329079 A CN202011329079 A CN 202011329079A CN 113139417 A CN113139417 A CN 113139417A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- current frame
- frame image
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000009471 action Effects 0.000 title description 14
- 238000001514 detection method Methods 0.000 claims abstract description 228
- 238000012545 processing Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 10
- 238000013507 mapping Methods 0.000 description 8
- 238000000354 decomposition reaction Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种行动对象追踪方法及相关设备,其中,所述方法包括:对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;根据所述第二目标检测框进行行动对象追踪。采用本申请实施例,有利于提高行动对象追踪的准确率。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种行动对象追踪方法及相关设备。
背景技术
随着深度学习的跨越式发展,目标追踪的指标快速提高,例如多目标追踪准确率(Multi-Object Tracking Accuracy,MOTA);尤其是以多目标追踪算法(deepsort)为代表的一系列追踪算法,其通过对象特征模型(Reid)提取特征做追踪,在实际应用中产生了巨大的实用价值,其重要性不言而喻。统观现在的目标追踪领域,虽然deepsort算法中的模型的指标每天都在刷新,但对于实际应用来说,当帧图像中的对象被遮挡时,若采用对象特征模型对图像中的对象进行特征提取,存在对象特征提取不准确的问题,从而导致实际应用中的行动对象追踪效果并不佳。
发明内容
本申请实施例公开了一种行动对象追踪方法及相关设备,有利于提高行动对象追踪的准确率。
本申请实施例第一方面公开了一种行动对象追踪方法,该方法包括:对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;根据所述第二目标检测框进行行动对象追踪。
在一种示例性的实施方式中,所述对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点,包括:将所述当前帧图像中的第一目标检测框进行多尺度特征分解,得到低频特征分量和高频特征分量;将所述低频特征分量划分为多个区域;确定所述多个区域中每一区域对应的信息熵,得到多个信息熵;依据所述多个信息熵确定平均信息熵和目标均方差;确定所述目标均方差对应的目标调节系数;依据所述目标调节系数对所述平均信息熵进行调节,得到目标信息熵;按照预设的信息熵与评分之间的映射关系,确定所述目标信息熵对应的第一评价值;获取所述当前帧图像对应的目标拍摄参数;按照预设的拍摄参数与低频权重之间的映射关系,确定所述目标拍摄参数对应的目标低频权重,依据该目标低频权重确定目标高频权重;依据所述高频特征分量确定目标特征点分布密度;按照预设的特征点分布密度与评分之间的映射关系,确定所述目标特征点分布密度对应的第二评价值;依据所述第一评价值、所述第二评价值、所述目标低频权重和所述目标高频权重进行加权运算,得到所述第一目标检测框的目标清晰度;若所述目标清晰度小于所述预设清晰度阈值,则根据所述图像清晰度与图像增强算法之间的映射关系,确定所述目标清晰度对应的目标图像增强算法;根据所述目标图像增强算法对所述第一目标检测框进行图像增强处理以得到增强后的第一目标检测框;对所述增强后的第一目标检测框进行对象关键点检测以得到多个对象关键点。
本申请实施例第二方面公开了一种行动对象追踪装置,该装置包括:检测单元,用于对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;处理单元,用于根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;追踪单元,用于根据所述第二目标检测框进行行动对象追踪。
本申请实施例第三方面公开了一种服务器,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如本申请实施例第一方面任一项所述的方法中的步骤的指令。
本申请实施例第四方面公开了一种芯片,其特征在于,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如本申请实施例第一方面中任一项所述的方法。
本申请实施例第五方面公开了一种计算机可读存储介质,其特征在于,其存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如本申请实施例第一方面中任一项所述的方法。
本申请实施例第六方面公开了一种计算机程序产品,所述计算机程序产品使得计算机执行如本申请实施例第一方面中任一项所述的方法。
可以看出,在本申请实施例中,首先对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;然后根据该多个对象关键点从该第一目标检测框中提取出目标对象的上半部分图像,并根据该目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,该第二目标检测框包括该目标对象的上半部分图像以及补零后的下半部分图像;再根据该第二目标检测框进行行动对象追踪;由于对象的有效区域主要集中的对象上半部分,通过对当前帧图像中的检测框进行后处理上的上半部分截取以得到对象的上半部分图像,再根据对象上半部分图像进行下半部分图像补零处理,因此能够更有效地提取对象有效区域,从而提高行动对象追踪的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种行动对象追踪方法的流程示意图;
图2是本申请实施例提供的一种对象25个关键点的示意图;
图3是本申请实施例提供的一种对象关键点检测示意图。
图4是本申请实施例提供的一种追踪区域划分的示意图。
图5是本申请实施例提供的另一种行动对象追踪方法的流程示意图;
图6是本申请实施例提供的一种行动对象追踪装置的结构示意图;
图7是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
下面结合本申请实施例中的附图对本申请实施例进行描述。
首先,对本申请中的部分用语进行解释说明,以便于本领域技术人员理解。
MOTA:Multi-Object Tracking Accuracy的简写,多目标追踪准确率。
Reid:对象特征模型,用以提取对象特征,例如提取512维度的对象特征。
Pose模型:对象关键点模型,可对单个对象的多个关键点位置进行检测。
IOU:交并比,计算两个框重合的程度,越高代表越重合。
其次,对本申请实施例所述描述的deepsort追踪流程进行描述,deepsort追踪流程包括如下步骤:
(1)读取视频帧图像,对当前帧图像利用对象检测模型进对象体检测,得到检测框。
(2)对当前帧图像得到的检测框,通过已训练的Reid模型提取对象特征,通过IOU匹配以及对每两个对象之间的特征相似度进行计算(比如相似度大于0.5判断为同一对象)等,与之前的追踪建立联系,进行匹配等。
(3)根据设置的距离阈值、相似度阈值等,对当前形成的追踪列表以及检测列表,进行更新或者删除,得到当前结果。
(4)重复进行上述步骤(1)-(3),直到追踪结束。
上述追踪流程,在考虑当前帧图像的时候,只利用了对象检测模型输出的结果,没有考虑遮挡、检测不完整的情况,以及对追踪的区域也没有进行限制,这对于追踪来说,提取的特征是不准确的,增加了追踪的难度。
请参阅图1,图1是本申请实施例提供的一种行动对象追踪方法的流程示意图,所述行动对象追踪方法可应用于服务器,所述行动对象追踪方法包括但不限于以下步骤。
步骤101、对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点。
其中,该当前帧图像为用于视频追踪的视频流中的当前帧图像,该当前帧图像中可能存在一个或多个对象,因此在行动对象追踪过程中,当前帧图像中可能存在一个或多个检测框,该第一目标检测框为该一个或多个检测框中的其中一个。检测框用于行动对象追踪中对帧图像进行对象检测,其为框选对象后的区域图像,也即帧图像中包含对象的一区域图像。
具体地,通过对象关键点模型对第一目标检测框进行对象关键点检测,可以检测出该第一目标检测框中的所有对象关键点,根据所有对象关键点中的每个关键点的置信度进行关键点滤除,得到上述多个对象关键点。比如,预先设置信度为0.3,只需要置信度高于0.3的对象关键点,也即将对象关键点的置信度不高于0.3的对象关键点滤除,剩下的对象关键点即是上述多个对象关键点。
请参阅图2,图2是本申请实施例提供的一种对象25个关键点的示意图。如图2所示,每个对象包括多个25个对象关键点,若帧图像中的对象没有被遮挡,对其进行对象关键点检测可以得到25个对象关键点;若帧图像中的对象被遮挡,则对其进行对象关键点检测得到的对象关键点少于25个。
在一种示例性的实施方式中,所述对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点,包括:将所述当前帧图像中的第一目标检测框进行多尺度特征分解,得到低频特征分量和高频特征分量;将所述低频特征分量划分为多个区域;确定所述多个区域中每一区域对应的信息熵,得到多个信息熵;依据所述多个信息熵确定平均信息熵和目标均方差;确定所述目标均方差对应的目标调节系数;依据所述目标调节系数对所述平均信息熵进行调节,得到目标信息熵;按照预设的信息熵与评分之间的映射关系,确定所述目标信息熵对应的第一评价值;获取所述当前帧图像对应的目标拍摄参数;按照预设的拍摄参数与低频权重之间的映射关系,确定所述目标拍摄参数对应的目标低频权重,依据该目标低频权重确定目标高频权重;依据所述高频特征分量确定目标特征点分布密度;按照预设的特征点分布密度与评分之间的映射关系,确定所述目标特征点分布密度对应的第二评价值;依据所述第一评价值、所述第二评价值、所述目标低频权重和所述目标高频权重进行加权运算,得到所述第一目标检测框的目标清晰度;若所述目标清晰度小于所述预设清晰度阈值,则根据所述图像清晰度与图像增强算法之间的映射关系,确定所述目标清晰度对应的目标图像增强算法;根据所述目标图像增强算法对所述第一目标检测框进行图像增强处理以得到增强后的第一目标检测框;对所述增强后的第一目标检测框进行对象关键点检测以得到多个对象关键点。
其中,可以采用多尺度分解算法将第一目标检测框进行多尺度特征分解,得到低频特征分量和高频特征分量,多尺度分解算法可以为以下至少一种:金字塔变换算法、小波变换、轮廓波变换、剪切波变换等等,在此不做限定。目标拍摄参数可以为以下至少一种:ISO、曝光时长、白平衡参数、对焦参数等,在此不做限定。此外,本申请实施例中,调节系数的取值范围可以为-0.15~0.15;目标信息熵=(1+目标调节系数)*平均信息熵;目标低频权重+目标高频权重=1;目标特征点分布密度=高频特征分量的特征点总数量/区域面积;目标清晰度=第一评价值*目标低频权重+第二评价值*目标高频权重。
如此,可以基于第一目标检测框的低频分量以及高频分量两个维度进行图像质量评价,能够精准得到第一目标检测框的目标清晰度,进而对增强后的第一目标检测框进行对象关键点检测以得到多个对象关键点,从而可以避免因图像清晰度不高、对象关键点检测不完整而导致的行动对象追踪失败,有利于提高行动对象追踪的准确率。
步骤102、根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像。
其中,第一目标检测框的尺寸与第二目标检测框的尺寸是一样的。
具体地,可以采用Pose模型对第一目标检测框进行对象关键点检测,根据检测得到的关键点位置,提取对象的上半部分,并补全下半部分,其中补全下半部分也即将下半部分的像素全部填充为零。
应理解,在本申请实施例中,之所以提取对象上半部分图像,一方面是图像中的对象上半部分一般遮挡较少;另一方面是对于Reid模型来说,往往对象上半部分比对象下半部分包含更多的对象特征,在识别当中占据更大的比重,对于行动对象追踪往往有更好的效果,也即使得行动对象追踪的准确率更高。
步骤103、根据所述第二目标检测框进行行动对象追踪。
具体地,所述根据所述第二目标检测框进行行动对象追踪包括:对所述第二目标检测框进对象体特征提取,将提取得到的对象特征与追踪流程中的历史对象特征进行比对,以确定所述第二目标检测框中的目标对象是否为历史对象,其中历史对象特征也是历史对象的特征,历史对象也是视频流中帧号在当前帧图像之前的帧图像中出现的对象。
可以看出,在本申请实施例中,首先对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;然后根据该多个对象关键点从该第一目标检测框中提取出目标对象的上半部分图像,并根据该目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,该第二目标检测框包括该目标对象的上半部分图像以及补零后的下半部分图像;再根据该第二目标检测框进行行动对象追踪;由于对象的有效区域主要集中的对象上半部分,通过对当前帧图像中的检测框进行后处理上的上半部分截取以得到对象的上半部分图像,再根据对象上半部分图像进行下半部分图像补零处理,因此能够更有效地提取对象有效区域,从而提高行动对象追踪的准确率。
在一种示例性的实施方式中,所述根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,包括:将所述多个对象关键点与预设对象关键点进行比对,以确定所述第一目标检测框中的所述目标对象的下半部分图像是否完整;若所述目标对象的下半部分图像不完整,则根据所述多个对象关键点的位置从所述第一目标检测框中提取出所述目标对象的上半部分图像;在所述目标对象的上半部分图像的行方向上填充i行零,得到所述第二目标检测框,其中,所述i为所述第一目标检测框与所述目标对象的上半部分图像的高的差值。
请参阅图3,图3是本申请实施例提供的一种对象关键点检测示意图。如图3所示,图像中有3个对象,因此该图像中有3个检测框,对该图像中的检测框进行对象关键点检测可以得到每个检测框中的对象关键点;图像中的中间对象被遮挡,对象关键点模型仅检测到该中间对象头顶到膝盖以上的关键点,然后根据这些关键点的位置以及默认的顺序,可提取到该中间对象的对象上半部分部分,对于其下半部分部分,可保持框的宽度不变,向下进行高度上的延伸,再对上半部分之外的对象下半部分缺失的部分进行补全处理,也即下半部分的每个像素点补为(0,0),如果补全的检测框超过图像边界,则截断即可。
可见,本示例中,通过对第一目标检测框进行截取与补全的处理,得到仅包括对象上半部分特征的第二目标检测框,能够有效提高检测框的有效性,在追踪流程中提供更完整的框信息,提高追踪指标。
在一种示例性的实施方式中,所述根据所述第二目标检测框进行行动对象追踪,包括:将所述第二目标检测框输入预先训练好的对象特征模型,得到所述目标对象的目标对象特征;获取j个历史对象特征,其中,所述j个历史对象特征为追踪流程中的历史对象的对象特征,所述j为正整数;将所述目标对象特征与所述j个历史对象特征分别进行相似度计算,得到j 个相似度;若所述j个相似度中的最大相似度大于预设相似度阈值,则确定所述目标对象为历史对象。
其中,对象特征可以采用向量表示目标对象特征可以通过将目标对象对应的检测框输入预先训练好的对象特征模型(Reid)中得到。历史对象特征为视频追踪流程中的历史对象的对象特征,其为对当前帧图像之前的每一帧图像进对象体特征提取得到。也即,对当前帧图像所在的视频流进行视频追踪,在视频追踪流程中,对每帧图像进行行动对象追踪时,都需要提取该帧图像中的对象的对象特征,提取到的对象的对象特征存储,作为历史对象的对象特征。应理解,由于本申请实施例提供的行动对象追踪方案仅提取对象的上半部分进行特征提取,因此上述历史对象特征也是历史对象的上半部分的对象特征。
具体地,将补全后的第二目标检测框送入Reid模型中,得到目标对象特征,其中,目标对象特征仅为目标对象的上半部分的对象特征;然后将目标对象特征送入deepsort追踪流程,将该目标对象特征与历史对象特征进行相似度计算,以此来确定目标对象是否为历史对象。
需要说明的是,通过仅对对象上半部分进行特征提取与相似度计算,可以适当提高预设相似度阈值。比如现有技术中,设定的预设相似度阈值为0.5,当目标对象特征与个历史对象特征之间的相似度高于0.5时,就判定目标对象与历史对象为同一对象;而本申请实施例可以提高预设相似度阈值,例如设置为0.6,这是因为上半部分的特征在特征比对时更重要,需要更高的相似度才能确定目标对象与历史对象为同一对象。
可见,本示例中,通过对目标对象的上半部分的进行特征提取,并通过将目标对象的对象特征与历史对象的对象特征进行相似度计算,依据相似度大小来确定目标对象是否为历史对象;由于仅通过上半部分的特征进行比对,可以提高行动对象追踪在遮挡情况下的追踪准确率。
在一种示例性的实施方式中,所述方法还包括:将所述当前帧图像输入预先训练好的对象检测模型,得到所述当前帧图像对应的N个第一检测框,其中,所述N为正整数;将对应的置信度大于预设置信度阈值的第一检测框从所述N个第一检测框中筛选出,得到M个第二检测框,其中,所述M为小于或等于所述N的正整数;从所述M个第二检测框中获取所述第一目标检测框。
其中,预先训练好的对象检测模型可以为对象检测器。
举例来说,将当前帧图像送入对象检测器,可以设置置信度为0.3,将置信度高于0.3的第一检测框提取出来,便得到所有的第二检测框,然后从所有的第二检测框中获取该目标对象的第一目标检测框。
可见,本示例中,在获取当前帧图像中的检测框时,将置信度大于预设置信度阈值的检测框作为当前帧图像对应的检测框,有利于减少因检测框置信度不高也带来的行动对象追踪不准确的问题,从而提高行动对象追踪的准确率。
在一种示例性的实施方式中,所述从所述M个第二检测框中获取所述第一目标检测框,包括:在所述当前帧图像中确定追踪区域;从所述M个第二检测框中剔除不处于所述追踪区域内的第二检测框,以得到P个第三检测框,其中,所述P为小于或等于M的正整数;从所述P个第三检测框中获取所述第一目标检测框。
请参阅图4,图4是本申请实施例提供的一种追踪区域划分的示意图。如图4所示,在图像中确定以追踪区域,也即对追踪区域进行一些限制,而不是将整张图像作为追踪区域,这样剔除掉在追踪区域之外的检测框,减少边界上的对象检测不稳定以及边界上对象特征提取不完全,导致目标对象与历史对象进行特征比对时比对失败,从而对于行动对象追踪的整体准确率是很重要的。
可见,本示例中,对于视频中出现的对象,先利用对象检测模型提取出检测框,然后运用区域划分去掉影响行动对象追踪的边界不稳定区域的检测框,在行动对象追踪过程中提供目标区域上的优势,减少行动对象追踪的碎片(也即无效检测框)数量,从而提高行动对象追踪的准确率,提高实际场景中行动对象追踪的关键指标,提高行动对象追踪算法落地的实际价值。
在一种示例性的实施方式中,在所述将所述当前帧图像输入预先训练好的对象检测模型,得到所述当前帧图像对应的N个第一检测框之前,所述方法还包括:判断所述当前帧图像的尺寸是否为预定尺寸;若所述当前帧图像的尺寸不为预定尺寸,则对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸。
具体的,对象检测器的输入图像的尺寸大小指定为512×512,也即预定尺寸为512×512,因此,若当前帧图像的尺寸不为512×512,则需要对其进行处理以使其尺寸为512×512。
可见,本示例中,在当前帧图像的尺寸不符合模型训练所需要的预定尺寸时,对其进行预处理以使其尺寸为该预定尺寸,从而能够确保视频流中的每帧图像都能够用于视频结结构化模型的训练,有利于提高模型的准确度,也即提高行动对象追踪的准确度。
在一种示例性的实施方式中,所述对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸,包括:在高维度上,若所述当前帧图像的高大于所述预定尺寸的高,则将所述当前帧图像的高缩放为所述预定尺寸的高;若所述当前帧图像的高小于所述预定尺寸的高,则在所述当前帧图像的行方向上填充h行零,其中,所述h为所述预定尺寸的高与所述当前帧图像的高的差值;在宽维度上,若所述当前帧图像的宽大于所述预定尺寸的宽,则将所述当前帧图像的宽缩放为所述预定尺寸的宽;若所述当前帧图像的宽小于所述预定尺寸的宽,则在所述当前帧图像的列方向上填充w列零,其中,所述w为所述预定尺寸的宽与所述当前帧图像的宽的差值。
具体地,若所述当前帧图像的尺寸大于所述预定尺寸,所述预定尺寸的高和宽相等,所述对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸,包括:确定所述当前帧图像的长边的边长与所述预定尺寸的边长的比值,其中,若所述当前帧图像的高大于或等于宽,则所述当前帧图像的长边的边长为所述当前帧图像的高;若所述当前帧图像的高小于宽,则所述当前帧图像的长边的边长为所述当前帧图像的宽;所述预定尺寸的边长为所述预定尺寸的高或宽;根据所述比值对所述当前帧图像进行缩小,以得到第一目标图像,其中,所述第一目标图像的长边的边长为所述预定尺寸的边长;若所述第一目标图像的短边的边长等于所述预定尺寸的边长,则所述第一目标图像为所述处理后的当前帧图像;若所述第一目标图像的短边的边长小于所述预定尺寸的边长,则在所述第一目标图像的短边方向上填充零以得到第二目标图像,其中,所述第二目标图像的短边的边长为所述预定尺寸的边长,所述第二目标图像为所述处理后的当前帧图像。
举例来说,视频流中的帧图像的尺寸一般是1920×1080,需要将其变为512×512,则需要计算图像按长边(1920)对512的比例,然后将长边按照此比例缩放,缩放以后短边为288,故缩放后短边小于512,则一律补零,也即短边从288补零至512。
可见,本示例中,在当前帧图像的尺寸不符合模型训练所需要的预定尺寸时,若当前帧图像的尺寸大于预定尺寸,则进行缩小处理以使当前帧图像的尺寸为预定尺寸;若当前帧图像的尺寸小于预定尺寸,则进行补零处理以使当前帧图像的尺寸为预定尺寸;从而能够确保视频流中的每帧图像都能够用于视频结结构化模型的训练,有利于提高模型的准确度,也即提高行动对象追踪的准确度。
请参阅图5,图5是本申请实施例提供的另一种行动对象追踪方法的流程示意图,所述行动对象追踪方法可应用于服务器,所述行动对象追踪方法包括但不限于以下步骤。
501、从视频流中获取当前帧图像。
502、将当前帧图像输入预先训练好的对象检测模型,得到多个检测框。
503、将每个检测框输入预先训练好的对象关键点模型,得到该检测框对应的多个对象关键点。
504、根据对象关键点提取每个检测框的上半部分图像,得到多个上半部分图像。
505、按照对象比例对每个上半部分图像进行对象的下半部分补零处理,得到多个补零处理后的检测框。
506、将每个补零处理后的检测框输入预先训练好的对象特征模型,得到多个对象特征。
507、将每个对象特征输入deepsort追踪进行动对象追踪。
508、判断视频流是否结束。
其中,若视频流未结束,则将下一帧图像作为当前帧图像,重复执行上述步骤;若视频流结束,则当前deepsort追踪流程结束。
可以看出,在本申请实施例中,使用预先训练好的对象检测模型提取当前帧图像的检测框,接着使用预先训练好的对象关键点模型进行检测框完整度的判断,提取检测框中对象的上半部分部分,根据对象完整度进行下半部分的补全,然后再通过Reid模型提取对象特征,送入deepsort流程;用于通过对检测框进行截取与补全处理,能够有效提高检测框的有效性,在追踪流程中提供更完整的检测框信息,提高行动对象追踪准确率等指标。
上述详细阐述了本申请实施例的方法,下面提供了本申请实施例的装置。
请参见图6,图6是本申请实施例提供的一种行动对象追踪装置600的结构示意图,该行动对象追踪装置应用于服务器,该行动对象追踪装置600可以包括检测单元601、处理单元602和追踪单元603,其中,各个单元的详细描述如下:
检测单元601,用于对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;
处理单元602,用于根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;
追踪单元603,用于根据所述第二目标检测框进行行动对象追踪。
在一种示例性的实施方式中,在所述根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框方面,所述处理单元602,具体用于:将所述多个对象关键点与预设对象关键点进行比对,以确定所述第一目标检测框中的所述目标对象的下半部分图像是否完整;若所述目标对象的下半部分图像不完整,则根据所述多个对象关键点的位置从所述第一目标检测框中提取出所述目标对象的上半部分图像;在所述目标对象的上半部分图像的行方向上填充i行零,得到所述第二目标检测框,其中,所述i为所述第一目标检测框与所述目标对象的上半部分图像的高的差值。
在一种示例性的实施方式中,在所述根据所述第二目标检测框进行行动对象追踪方面,所述追踪单元603,具体用于:将所述第二目标检测框输入预先训练好的对象特征模型,得到所述目标对象的目标对象特征;获取j个历史对象特征,其中,所述j个历史对象特征为追踪流程中的历史对象的对象特征,所述j为正整数;将所述目标对象特征与所述j个历史对象特征分别进行相似度计算,得到j个相似度;若所述j个相似度中的最大相似度大于预设相似度阈值,则确定所述目标对象为历史对象。
在一种示例性的实施方式中,所述检测单元601,还用于:将所述当前帧图像输入预先训练好的对象检测模型,得到所述当前帧图像对应的N个第一检测框,其中,所述N为正整数;将对应的置信度大于预设置信度阈值的第一检测框从所述N个第一检测框中筛选出,得到M个第二检测框,其中,所述M为小于或等于所述N的正整数;从所述M个第二检测框中获取所述第一目标检测框。
在一种示例性的实施方式中,在所述从所述M个第二检测框中获取所述第一目标检测框方面,所述检测单元601,具体用于:在所述当前帧图像中确定追踪区域;从所述M个第二检测框中剔除不处于所述追踪区域内的第二检测框,以得到P个第三检测框,其中,所述P 为小于或等于M的正整数;从所述P个第三检测框中获取所述第一目标检测框。
在一种示例性的实施方式中,在所述将所述当前帧图像输入预先训练好的对象检测模型,得到所述当前帧图像对应的N个第一检测框之前,所述检测单元601,还用于:判断所述当前帧图像的尺寸是否为预定尺寸;若所述当前帧图像的尺寸不为预定尺寸,则对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸。
在一种示例性的实施方式中,所述对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸,所述检测单元601,具体用于:在高维度上,若所述当前帧图像的高大于所述预定尺寸的高,则将所述当前帧图像的高缩放为所述预定尺寸的高;若所述当前帧图像的高小于所述预定尺寸的高,则在所述当前帧图像的行方向上填充h行零,其中,所述h 为所述预定尺寸的高与所述当前帧图像的高的差值;在宽维度上,若所述当前帧图像的宽大于所述预定尺寸的宽,则将所述当前帧图像的宽缩放为所述预定尺寸的宽;若所述当前帧图像的宽小于所述预定尺寸的宽,则在所述当前帧图像的列方向上填充w列零,其中,所述w 为所述预定尺寸的宽与所述当前帧图像的宽的差值。
需要说明的是,各个单元的实现还可以对应参照图1或图5所示的方法实施例的相应描述。当然,本申请实施例提供的行动对象追踪装置600包括但不限于上述单元模块,例如:该行动对象追踪装置600还可以包括存储单元604,存储单元604可以用于存储该行动对象追踪装置600的程序代码和数据。
在图6所描述的行动对象追踪装置600中,首先对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;然后根据该多个对象关键点从该第一目标检测框中提取出目标对象的上半部分图像,并根据该目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,该第二目标检测框包括该目标对象的上半部分图像以及补零后的下半部分图像;再根据该第二目标检测框进行行动对象追踪;由于对象的有效区域主要集中的对象上半部分,通过对当前帧图像中的检测框进行后处理上的上半部分截取以得到对象的上半部分图像,再根据对象上半部分图像进行下半部分图像补零处理,因此能够更有效地提取对象有效区域,从而提高行动对象追踪的准确率。
请参见图7,图7是本申请实施例提供的一种服务器710的结构示意图,该服务器710 包括处理器711、存储器712和通信接口713,上述处理器711、存储器712和通信接口713通过总线714相互连接。
存储器712包括但不限于是随机存储记忆体(random access memory,RAM)、只读存储器(read-only memory,ROM)、可擦除可编程只读存储器(erasable programmableread only memory,EPROM)、或便携式只读存储器(compact disc read-only memory,CD-ROM),该存储器712用于相关计算机程序及数据。通信接口713用于接收和发送数据。
处理器711可以是一个或多个中央处理器(central processing unit,CPU),在处理器711 是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。
该服务器710中的处理器711用于读取上述存储器712中存储的计算机程序代码,执行以下操作:对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;根据所述第二目标检测框进行行动对象追踪。
需要说明的是,各个操作的实现还可以对应参照图1或图5所示的方法实施例的相应描述。
在图7所描述的服务器710中,首先对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;然后根据该多个对象关键点从该第一目标检测框中提取出目标对象的上半部分图像,并根据该目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,该第二目标检测框包括该目标对象的上半部分图像以及补零后的下半部分图像;再根据该第二目标检测框进行行动对象追踪;由于对象的有效区域主要集中的对象上半部分,通过对当前帧图像中的检测框进行后处理上的上半部分截取以得到对象的上半部分图像,再根据对象上半部分图像进行下半部分图像补零处理,因此能够更有效地提取对象有效区域,从而提高行动对象追踪的准确率。
本申请实施例还提供一种芯片,上述芯片包括至少一个处理器,存储器和接口电路,上述存储器、上述收发器和上述至少一个处理器通过线路互联,上述至少一个存储器中存储有计算机程序;上述计算机程序被上述处理器执行时,图1或图5所示的方法流程得以实现。
本申请实施例还提供一种计算机可读存储介质,上述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,图1或图5所示的方法流程得以实现。
本申请实施例还提供一种计算机程序产品,当上述计算机程序产品在计算机上运行时,图1或图5所示的方法流程得以实现。
应理解,本申请实施例中提及的处理器可以是中央处理单元(CentralProcessing Unit, CPU),还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中提及的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器 (Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM) 和直接内存总线随机存取存储器(Direct Rambus RAM,DR RAM)。
需要说明的是,当处理器为通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件时,存储器(存储模块)集成在处理器中。
应注意,本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
还应理解,本文中涉及的第一、第二、第三、第四以及各种数字编号仅为描述方便进行的区分,并不用来限制本申请的范围。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
上述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所示方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本申请实施例装置中的模块可以根据实际需要进行合并、划分和删减。
以上,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (10)
1.一种行动对象追踪方法,其特征在于,包括:
对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;
根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;
根据所述第二目标检测框进行行动对象追踪。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,包括:
将所述多个对象关键点与预设对象关键点进行比对,以确定所述第一目标检测框中的所述目标对象的下半部分图像是否完整;
若所述目标对象的下半部分图像不完整,则根据所述多个对象关键点的位置从所述第一目标检测框中提取出所述目标对象的上半部分图像;
在所述目标对象的上半部分图像的行方向上填充i行零,得到所述第二目标检测框,其中,所述i为所述第一目标检测框与所述目标对象的上半部分图像的高的差值。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第二目标检测框进行行动对象追踪,包括:
将所述第二目标检测框输入预先训练好的对象特征模型,得到所述目标对象的目标对象特征;
获取j个历史对象特征,其中,所述j个历史对象特征为追踪流程中的历史对象的对象特征,所述j为正整数;
将所述目标对象特征与所述j个历史对象特征分别进行相似度计算,得到j个相似度;
若所述j个相似度中的最大相似度大于预设相似度阈值,则确定所述目标对象为历史对象。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述方法还包括:
将所述当前帧图像输入预先训练好的对象检测模型,得到所述当前帧图像对应的N个第一检测框,其中,所述N为正整数;
将对应的置信度大于预设置信度阈值的第一检测框从所述N个第一检测框中筛选出,得到M个第二检测框,其中,所述M为小于或等于所述N的正整数;
从所述M个第二检测框中获取所述第一目标检测框。
5.根据权利要求4所述的方法,其特征在于,所述从所述M个第二检测框中获取所述第一目标检测框,包括:
在所述当前帧图像中确定追踪区域;
从所述M个第二检测框中剔除不处于所述追踪区域内的第二检测框,以得到P个第三检测框,其中,所述P为小于或等于M的正整数;
从所述P个第三检测框中获取所述第一目标检测框。
6.根据权利要求4所述的方法,其特征在于,在所述将所述当前帧图像输入预先训练好的对象检测模型,得到所述当前帧图像对应的N个第一检测框之前,所述方法还包括:
判断所述当前帧图像的尺寸是否为预定尺寸;
若所述当前帧图像的尺寸不为预定尺寸,则对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸。
7.根据权利要求6所述的方法,其特征在于,所述对所述当前帧图像进行处理以使所述当前帧图像的尺寸为所述预定尺寸,包括:
在高维度上,若所述当前帧图像的高大于所述预定尺寸的高,则将所述当前帧图像的高缩放为所述预定尺寸的高;若所述当前帧图像的高小于所述预定尺寸的高,则在所述当前帧图像的行方向上填充h行零,其中,所述h为所述预定尺寸的高与所述当前帧图像的高的差值;
在宽维度上,若所述当前帧图像的宽大于所述预定尺寸的宽,则将所述当前帧图像的宽缩放为所述预定尺寸的宽;若所述当前帧图像的宽小于所述预定尺寸的宽,则在所述当前帧图像的列方向上填充w列零,其中,所述w为所述预定尺寸的宽与所述当前帧图像的宽的差值。
8.一种行动对象追踪装置,其特征在于,包括:
检测单元,用于对当前帧图像中的第一目标检测框进行对象关键点检测以得到多个对象关键点;
处理单元,用于根据所述多个对象关键点从所述第一目标检测框中提取出目标对象的上半部分图像,并根据所述目标对象的上半部分图像进行对象的下半部分补零处理以得到第二目标检测框,其中,所述第二目标检测框包括所述目标对象的上半部分图像以及补零后的下半部分图像;
追踪单元,用于根据所述第二目标检测框进行行动对象追踪。
9.一种服务器,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-7任一项所述的方法中的步骤的指令。
10.一种计算机可读存储介质,其特征在于,其存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011329079.4A CN113139417B (zh) | 2020-11-24 | 2020-11-24 | 行动对象追踪方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011329079.4A CN113139417B (zh) | 2020-11-24 | 2020-11-24 | 行动对象追踪方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113139417A true CN113139417A (zh) | 2021-07-20 |
CN113139417B CN113139417B (zh) | 2024-05-03 |
Family
ID=76809396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011329079.4A Active CN113139417B (zh) | 2020-11-24 | 2020-11-24 | 行动对象追踪方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113139417B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116820251A (zh) * | 2023-08-28 | 2023-09-29 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080130948A1 (en) * | 2005-09-13 | 2008-06-05 | Ibrahim Burak Ozer | System and method for object tracking and activity analysis |
WO2017185688A1 (zh) * | 2016-04-26 | 2017-11-02 | 深圳大学 | 一种在线目标跟踪方法及装置 |
CN109712168A (zh) * | 2018-11-14 | 2019-05-03 | 联想(北京)有限公司 | 一种目标跟踪方法及电子设备、装置及存储介质 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN110533693A (zh) * | 2019-08-29 | 2019-12-03 | 北京精英路通科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
CN111696130A (zh) * | 2019-03-12 | 2020-09-22 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
-
2020
- 2020-11-24 CN CN202011329079.4A patent/CN113139417B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080130948A1 (en) * | 2005-09-13 | 2008-06-05 | Ibrahim Burak Ozer | System and method for object tracking and activity analysis |
WO2017185688A1 (zh) * | 2016-04-26 | 2017-11-02 | 深圳大学 | 一种在线目标跟踪方法及装置 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN109712168A (zh) * | 2018-11-14 | 2019-05-03 | 联想(北京)有限公司 | 一种目标跟踪方法及电子设备、装置及存储介质 |
CN111696130A (zh) * | 2019-03-12 | 2020-09-22 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
CN110533693A (zh) * | 2019-08-29 | 2019-12-03 | 北京精英路通科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
Non-Patent Citations (1)
Title |
---|
钱志华;: "室内遮挡多人跟踪", 现代计算机(专业版), no. 08 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116820251A (zh) * | 2023-08-28 | 2023-09-29 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
CN116820251B (zh) * | 2023-08-28 | 2023-11-07 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113139417B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109035299B (zh) | 目标跟踪方法、装置、计算机设备及存储介质 | |
CN110473137B (zh) | 图像处理方法和装置 | |
CN109960742B (zh) | 局部信息的搜索方法及装置 | |
CN110489951B (zh) | 风险识别的方法、装置、计算机设备和存储介质 | |
CN108764041B (zh) | 用于下部遮挡人脸图像的人脸识别方法 | |
CN110532851B (zh) | 指静脉识别方法、装置、计算机设备和存储介质 | |
CN110059700B (zh) | 图像摩尔纹识别方法、装置、计算机设备及存储介质 | |
CN110097050B (zh) | 行人检测方法、装置、计算机设备及存储介质 | |
JP7026165B2 (ja) | テキスト認識方法及びテキスト認識装置、電子設備、記憶媒体 | |
CN111080654B (zh) | 图像的病变区域分割方法、装置及服务器 | |
EP4047509A1 (en) | Facial parsing method and related devices | |
CN111461145A (zh) | 一种基于卷积神经网络进行目标检测的方法 | |
CN115631112B (zh) | 一种基于深度学习的建筑轮廓矫正方法及装置 | |
CN111783797B (zh) | 目标检测方法、装置及存储介质 | |
CN114494775A (zh) | 视频切分方法、装置、设备及存储介质 | |
CN114359665A (zh) | 全任务人脸识别模型的训练方法及装置、人脸识别方法 | |
CN112634316A (zh) | 目标跟踪方法、装置、设备和存储介质 | |
CN111860582A (zh) | 图像分类模型构建方法、装置、计算机设备和存储介质 | |
CN113139417A (zh) | 行动对象追踪方法及相关设备 | |
CN114565833A (zh) | 基于轮廓引导和结构注意的全卷积网络建筑物提取方法 | |
CN112418098A (zh) | 视频结构化模型的训练方法及相关设备 | |
CN113239738B (zh) | 一种图像的模糊检测方法及模糊检测装置 | |
WO2022121075A1 (zh) | 人体头肩区域的定位方法、定位装置和电子设备 | |
CN114882441A (zh) | 一种基于深度学习的行人重识别方法及系统 | |
CN112418104A (zh) | 行人跟踪方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |