CN109635657B - 目标跟踪方法、装置、设备及存储介质 - Google Patents

目标跟踪方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN109635657B
CN109635657B CN201811339121.3A CN201811339121A CN109635657B CN 109635657 B CN109635657 B CN 109635657B CN 201811339121 A CN201811339121 A CN 201811339121A CN 109635657 B CN109635657 B CN 109635657B
Authority
CN
China
Prior art keywords
target
processed
frame
video image
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811339121.3A
Other languages
English (en)
Other versions
CN109635657A (zh
Inventor
杨国青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201811339121.3A priority Critical patent/CN109635657B/zh
Priority to PCT/CN2018/123080 priority patent/WO2020098076A1/zh
Priority to SG11202101806QA priority patent/SG11202101806QA/en
Priority to JP2021504201A priority patent/JP7060758B2/ja
Priority to US17/266,187 priority patent/US11798174B2/en
Publication of CN109635657A publication Critical patent/CN109635657A/zh
Application granted granted Critical
Publication of CN109635657B publication Critical patent/CN109635657B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机技术领域,提供了一种目标跟踪方法、装置、设备及存储介质,所述方法包括:计算获取到的每个原始检测区域和每个预测目标区域之间的马氏距离;将数值最小的马氏距离对应的原始检测目标作为待评估基础目标;若待评估基础目标超过一个,则将预测跟踪目标对应的上一帧视频图像中的原始检测目标作为待处理目标;对每个待处理目标进行深度特征提取,得到每个待处理目标的深度特征向量;将每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配,得到每帧视频图像中每个待处理目标对应的匹配结果,并根据匹配结果完成目标跟踪。本发明能够提高目标跟踪的准确度。

Description

目标跟踪方法、装置、设备及存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种目标跟踪方法、装置、设备及存储介质。
背景技术
传统的跟踪目标方法为了实现目标跟踪,目前主要是通过获取目标对象在检测器中的检测框,以及在滤波器中的跟踪框,然后将得到的检测框和跟踪直接进行关联匹配,并根据得到关联匹配结果以确定跟踪目标,但是这种方法的计算复杂度高,且容易受到滤波器的本身的模型限制,滤波器模型存在对光照快速变化的图像上的可移动的目标的锁定效果不好,对颜色统计特征的提取不敏感,使得对光照变化明显和背景相似颜色的图像上的可移动的目标的获取不够准确,存在获取错误,即得到的跟踪框不准确或是错误的,导致跟踪的目标丢失,造成目标跟踪的准确度降低。
发明内容
基于此,有必要针对上述技术问题,提供一种目标跟踪方法、装置、设备及存储介质,以解决传统目标跟踪技术中目标跟踪的准确度不高的问题。
一种目标跟踪方法,包括:
获取待处理视频数据,并按照预设的提取方式从所述待处理视频数据中提取预设帧数的视频图像;
在预先训练好的目标检测器中,对每帧所述视频图像进行目标检测,得到每帧所述视频图像中的N个原始目标区域,以及每个所述原始目标区域的原始位置信息,并对第一帧所述视频图像中的每个所述原始目标区域包含的原始检测目标设置预设的标识信息,其中,N为正整数;
在预先训练好的目标预测器中,对每帧所述视频图像的每个所述原始检测目标进行目标预测,得到每帧所述视频图像中每个所述原始检测目标在下一帧所述视频图像中对应的预测目标区域和所述预测目标区域的预测位置信息,其中,每个所述预测目标区域包含一个预测跟踪目标;
在每帧所述视频图像中,根据每个所述原始目标区域的原始位置信息和每个所述预测目标区域的预测位置信息,计算每个所述原始检测区域和每个所述预测目标区域之间的马氏距离;
针对每帧所述视频图像的每个所述预测目标区域,从所述预测目标区域对应的马氏距离中选取数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为所述预测跟踪区域包含的所述预测跟踪目标对应的待评估基础目标;
在每帧所述视频图像中,若所述预测跟踪目标仅对应一个所述待评估基础目标,则确认所述待评估基础目标为所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标的跟踪目标,并将所述待评估基础目标的标识信息设置为上一帧所述视频图像中的所述原始检测目标的标识信息;
在每帧所述视频图像中,若所述预测跟踪目标对应的所述待评估基础目标超过一个,则将所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标作为待处理目标;
对每个所述待处理目标进行深度特征提取,得到每个所述待处理目标的深度特征向量;
基于匈牙利匹配算法,将每帧所述视频图像中的每个所述待处理目标的深度特征向量和下一帧所述视频图像中的每个所述待处理目标的深度特征向量进行匹配,得到每帧所述视频图像中每个所述待处理目标对应的匹配结果;
针对每帧所述视频图像中的每个所述待处理目标,若当前帧中的所述待处理目标对应的所述匹配结果为匹配成功,则将当前帧中的所述待处理目标在下一帧中的跟踪目标确定为得到该匹配结果的下一帧中的所述待处理目标,并将得到该匹配结果的下一帧中的所述待处理目标的标识信息设置为当前帧中所述待处理目标的标识信息。
一种目标跟踪装置,包括:
数据获取模块,用于获取待处理视频数据,并按照预设的提取方式从所述待处理视频数据中提取预设帧数的视频图像;
目标检测模块,用于在预先训练好的目标检测器中,对每帧所述视频图像进行目标检测,得到每帧所述视频图像中的N个原始目标区域,以及每个所述原始目标区域的原始位置信息,并对第一帧所述视频图像中的每个所述原始目标区域包含的原始检测目标设置预设的标识信息,其中,N为正整数;
目标预测模块,用于在预先训练好的目标预测器中,对每帧所述视频图像的每个所述原始检测目标进行目标预测,得到每帧所述视频图像中每个所述原始检测目标在下一帧所述视频图像中对应的预测目标区域和所述预测目标区域的预测位置信息,其中,每个所述预测目标区域包含一个预测跟踪目标;
距离计算模块,用于在每帧所述视频图像中,根据每个所述原始目标区域的原始位置信息和每个所述预测目标区域的预测位置信息,计算每个所述原始检测区域和每个所述预测目标区域之间的马氏距离;
距离选取模块,用于针对每帧所述视频图像的每个所述预测目标区域,从所述预测目标区域对应的马氏距离中选取数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为所述预测跟踪区域包含的所述预测跟踪目标对应的待评估基础目标;
目标确认模块,用于在每帧所述视频图像中,若所述预测跟踪目标仅对应一个所述待评估基础目标,则确认所述待评估基础目标为所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标的跟踪目标,并将所述待评估基础目标的标识信息设置为上一帧所述视频图像中的所述原始检测目标的标识信息;
目标处理模块,用于在每帧所述视频图像中,若所述预测跟踪目标对应的所述待评估基础目标超过一个,则将所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标作为待处理目标;
特征提取模块,用于对每个所述待处理目标进行深度特征提取,得到每个所述待处理目标的深度特征向量;
目标匹配模块,用于基于匈牙利匹配算法,将每帧所述视频图像中的每个所述待处理目标的深度特征向量和下一帧所述视频图像中的每个所述待处理目标的深度特征向量进行匹配,得到每帧所述视频图像中每个所述待处理目标对应的匹配结果;
目标确定模块,用于针对每帧所述视频图像中的每个所述待处理目标,若当前帧中的所述待处理目标对应的所述匹配结果为匹配成功,则将当前帧中的所述待处理目标在下一帧中的跟踪目标确定为得到该匹配结果的下一帧中的所述待处理目标,并将得到该匹配结果的下一帧中的所述待处理目标的标识信息设置为当前帧中所述待处理目标的标识信息。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述目标跟踪方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述目标跟踪方法的步骤。
上述目标跟踪方法、装置、设备及存储介质,通过获取待处理视频数据的每帧视频图像的对应的检测结果,进而基于待处理视频数据的第一帧视频图像对应的检测结果,获取待处理视频数据的其他帧视频图像对应的预测结果,然后,基于每帧视频图像的对应的检测结果和预测结果各自包括的信息,计算得到每帧视频图像对应的多个马氏距离,对得到的多个马氏距离进行分析,并根据分析结果确定跟踪目标,这种目标跟踪方法操作简单,计算复杂度小,能够提高确定跟踪目标的效率,然后,基于匈牙利匹配算法,将每帧视频图像上没找到跟踪目标的待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配,并将匹配成功的原始检测目标确定为待处理目标的跟踪目标,这种在马氏距离确定跟踪目标的基础上,再对未找到跟踪目标的待处理目标之间做进一步的特征提取和匹配分析,并根据得到的匹配结果确定跟踪目标的方法,能够保证待处理目标提取到的特征的精度,以及未找到跟踪目标的待处理目标之间的匹配精度,从而提高对目标跟踪的准确度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中目标跟踪方法的一应用环境示意图;
图2是本发明一实施例中目标跟踪方法的一流程图;
图3是本发明一实施例中目标跟踪方法中步骤S4的实现流程图;
图4是本发明一实施例中目标跟踪方法中步骤S8的实现流程图;
图5是本发明一实施例中目标跟踪方法中步骤S9的实现流程图;
图6是本发明一实施例中目标跟踪方法中步骤S904的实现流程图;
图7是本发明一实施例中目标跟踪装置的一示意图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明实施例提供的应用环境,该应用环境包括服务端和客户端,其中,服务端和客户端之间通过网络进行连接,客户端用于获取包含跟踪目标的视频数据,并且将获取到的视频数据发送到服务端,客户端具体可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备;服务端用于处理视频数据,完成对跟踪目标的准确跟踪,服务端具体可以用独立的服务器或者多个服务器组成的服务器集群实现。本发明实施例提供的目标跟踪方法应用于服务端。
请参阅图2,图2示出本实施例提供的目标跟踪方法的实现流程。详述如下:
S1:获取待处理视频数据,并按照预设的提取方式从待处理视频数据中提取预设帧数的视频图像。
具体地,获取待处理视频数据的方式具体可以是手动导入或者自动定时从本地数据库中获取,还可以是其他获取方式,此处不做限制。
其中,手动导入待处理视频数据,具体可以是通过接收客户端的用户输入的视频链接地址,从该视频链接地址中获取该地址对应保存的待处理视频数据。
其中,自动定时从本地数据库中获取待处理视频数据具体可以是启动定时获取任务获取待处理视频数据,其中,定时获取任务具体可以是按照预设的时间间隔进行读取。优选地,时间间隔可以设置为20分钟、10分钟或5分钟,但并不限于此,其具体可以根据实际应用的需要进行设置,此处不做限制。
进一步地,按照预设的提取方式从待处理视频数据中提取预设帧数的视频图像具体可以是特定提取、随机提取,或者是其他提取方式,此处不做限制。
其中,特定提取是在每个待处理视频数据中均提取待处理视频数据中的固定的某一帧图像,如“固定提取每个待处理视频数据中的第三帧图像、第六帧图像和第九帧图像等等”,或者“在待处理视频数据中提取每一帧图像”。随机提取是在每个待处理视频数据中随机任意提取M帧图像,如“在待处理视频数据中随机提取了第五帧图像、第八帧图像和第十七帧图像等等”。
优选地,本实施例采用的提取方式是特定提取。
具体地,通过启动视频定时获取任务,间隔预定的时间间隔自动从本地数据库中读取待处理视频数据,然后按照特定提取,对获取到的待处理视频数据进行每一帧的图像提取,得到若干帧视频图像。
S2:在预先训练好的目标检测器中,对每帧视频图像进行目标检测,得到每帧视频图像中的N个原始目标区域,以及每个原始目标区域的原始位置信息,并对第一帧视频图像中的每个原始目标区域包含的原始检测目标设置预设的标识信息,其中,N为正整数。
在本实施例中,预先训练好的目标检测器实际业务需求进行训练得到的,目标检测器通常是采用人工神经网络模型进行构建,用于检测每帧视频图像中原始目标区域,其中,原始目标区域是在当前帧图像中包含了可移动对象的区域,每个可移动对象对应一个原始目标区域,该原始目标区域以矩形框的形式显示,原始目标区域中的可移动对象即为原始检测目标,目标区域的目标位置信息包括区域的左上角坐标a。
进一步地,对第一帧视频图像中的每个原始目标区域包含的原始检测目标设置预设的标识信息具体可以是对第一帧视频图像中的每个原始检测目标设置唯一的数字编号、ID或者字符串代号等等,此处不做限制。
具体地,将每帧视频图像输入预先训练好的目标检测器中,通过目标检测器对每帧视频图像进行图像特征提取,然后,将图像特征按照目标检测器的模型定义进行分类得到每帧视频图像上的N个原始检测目标,输出每个原始检测目标对应的原始目标区域,以及原始目标区域对应的原始位置信息,进而,对第一帧视频图像中的每个原始目标区域包含的原始检测目标设置唯一的ID,作为每个原始检测目标的标识信息。
例如,将一帧图像输入预先训练好的目标检测器中,通过目标检测器对这帧图像进行图像特征提取,然后,将提取到的图像特征按照目标检测器的模型定义进行分类,将不属于图像背景的可移动对象在以矩形框的形式显示出来,得到这帧视频图像上的每个原始检测目标,假设得到检测到6个可移动对象,作为6个原始检测目标,以及6个原始检测目标对应6个原始目标区域,还有得到该6个目标区域对应的目标位置信息。
需要说明的是,通过预先训练好的目标检测器对每帧视频图像进行原始目标检测,通过在目标检测器中对每帧视频图像进行图像特征提取,能够更加准确区分出每帧视频图像中的可移动对象,并获取准确的原始检测目标的位置信息,避免人工画出的原始检测区域不准确,导致原始位置信息不准确的情况,从而提高对目标跟踪的准确率。
S3:在预先训练好的目标预测器中,对每帧视频图像的每个原始检测目标进行目标预测,得到每帧视频图像中每个原始检测目标在下一帧视频图像中对应的预测目标区域和预测目标区域的预测位置信息,其中,每个预测目标区域包含一个预测跟踪目标。
在本实施例中,预先训练好的目标预测器实际业务需求进行训练得到的,目标预测器通常是采用卡尔曼滤波结构模型进行构建,用于预测前一帧视频图像中的原始检测目标,会在当前帧视频图像中出现的位置,即每帧视频图像中的每个预测目标区域中的预测跟踪目标,均是基于前一帧视频图像中的每个原始检测区域中的原始检测目标进行预测得到的,可以理解为前一帧视频图像中出现h个原始检测目标,则当前视频图像则会对应预测得到h个预测跟踪目标,其中,每个预测跟踪目标对应一个预测目标区域,该预测目标区域以矩形框的形式显示,且预测目标区域的目标位置信息包括预测目标区域的左上角坐标b。
具体地,通过目标预测器对每帧视频图像的每个原始检测目标进行卡尔曼滤波计算,然后,将计算得到的每个卡尔曼滤波按照目标预测器的模型定义进行分类,得到每帧视频图像中每个原始检测目标在下一帧视频图像中对应的预测跟踪目标,输出每个预测跟踪标对应的预测目标区域,以及预测目标区域对应的预测位置信息。
S4:在每帧视频图像中,根据每个原始目标区域的原始位置信息和每个预测目标区域的预测位置信息,计算每个原始检测区域和每个预测目标区域之间的马氏距离。
在本实施例中,由于马氏距离是一个常用的距离定义,可用于表示在m维空间中多个点之间的协方差距离,是一种有效计算两个未知样本之间的相似度的方法,因此,通过计算每个原始检测区域和每个预测目标区域之间的马氏距离,能够最快速、直观地反映出每个原始目标区域中的原始检测目标和每个预测目标区域中的预测跟踪目标之间的相似程度。
具体地,针对每帧视频图像,将步骤S2中得到该帧视频图像的每个原始目标区域的原始位置信息和步骤S3中得到的该帧视频图像的每个预测目标区域的预测位置信息,代入马氏距离公式中,经过计算可以得到每个原始检测区域和每个预测目标区域之间的马氏距离之间的若干个马氏距离。
例如,继续使用步骤S2中的例子,假设一帧视频图像通过目标检测器检测得到6个原始检测目标,且这一帧视频图像在目标预测器中得到6个预测跟踪目标,将这6个原始检测目标对应的原始目标区域的原始位置信息,以及6个预测跟踪目标对应的预测目标区域的预测位置信息,代入马氏距离公式中,能够计算出6个原始检测目标和6个预测跟踪目标之间的马氏距离,得到36个马氏距离。
S5:针对每帧视频图像的每个预测目标区域,从预测目标区域对应的马氏距离中选取数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为预测跟踪区域包含的预测跟踪目标对应的待评估基础目标。
在本实施例中,由于在步骤S4中计算得到若干个马氏距离,能够直观地反映出每个原始目标区域中的原始检测目标和每个预测目标区域中的预测跟踪目标之间的相似程度,所以在通常情况下,可以理解为原始检测目标的位置最接近预测跟踪目标,则该原始检测目标与预测跟踪目标越相似。
具体地,将步骤S4中得到的每帧视频图像的每个预测目标区域所对应的马氏距离中的任意两个马氏距离进行比较,取数值小的距离,再将该数值小的马氏距离与其他马氏距离进行比较,以此类推,直至比较出该预测目标区域所对应的马氏距离中数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为该预测跟踪区域包含的预测跟踪目标所对应的待评估基础目标。
例如,继续使用步骤S4中的例子,假设一帧视频图像中的一个预测目标区域计算得到的6个马氏距离,分别为33.63、45.03、62.24、34.13、38.55和59.06,将这6个马氏距离中任意两个马氏距离进行比较,如取33.63与45.03比较,得到33.63小于45.03,则选出33.63,然后再将33.63与其他马氏距离进行比较,如将33.63与38.55比较,得到33.63小于38.55,则选出33.63,以此类推,直到比较得出数值最小的马氏距离为33.63,则将马氏距离33.63对应的原始目标区域中的原始检测目标作为该预测跟踪区域包含的预测跟踪目标所对应的待评估基础目标。
S6:在每帧视频图像中,若预测跟踪目标仅对应一个待评估基础目标,则确认待评估基础目标为预测跟踪目标对应的上一帧视频图像中的原始检测目标的跟踪目标,并将待评估基础目标的标识信息设置为上一帧视频图像中的原始检测目标的标识信息。
具体地,由于根据每个原始目标区域的原始位置信息和每个预测目标区域的预测位置信息,计算每个原始检测区域和每个预测目标区域之间的马氏距离,并将得到的马氏距离进行比较,根据得到的比较结果确定预测跟踪目标对应的待评估基础目标,能够得到一个原始检测目标唯一对应一个预测跟踪目标的情况,即预测跟踪目标仅对应一个待评估基础目标,所以当在步骤S5中得到预测跟踪目标仅对应一个待评估基础目标时,则能够将该唯一对应的待评估基础目标确认为预测跟踪目标对应的上一帧视频图像中的原始检测目标的跟踪目标,然后,将上一帧视频图像中的原始检测目标的唯一的ID赋值给该待评估基础目标,作为该待评估基础目标的标识信息,便于后续根据待评估基础目标的标识信息,对该待评估基础目标进行快速查找和分析。
S7:在每帧视频图像中,若预测跟踪目标对应的待评估基础目标超过一个,则将预测跟踪目标对应的上一帧视频图像中的原始检测目标作为待处理目标。
具体地,可以理解的是,仅针对每个预测目标区域对应的马氏距离,进行比较筛选得到的来确定预测跟踪目标对应的待评估基础目标,也会存在每个预测目标区域对应的待评估基础目标超过一个的情况,即一帧视频图像上的多个原始检测目标,对应同一预测跟踪目标,所以当在步骤S5中得到的每帧视频图像的每个预测目标区域对应的待评估基础目标超过一个时,将预测跟踪目标对应的上一帧视频图像中的原始检测目标作为待处理目标。
需要说明的是,为了减少由于一帧视频图像上的多个原始检测目标,对应同一预测跟踪目标,导致目标跟踪不准确的情况,本实施例在计算每个原始检测区域和每个预测目标区域之间的马氏距离,并将得到的马氏距离进行比较,根据得到的比较结果确定预测跟踪目标对应的待评估基础目标的基础上,对得到的每帧视频图像上的待处理目标,进行进一步的分析,以提高目标跟踪的准确度。
S8:对每个待处理目标进行深度特征提取,得到每个待处理目标的深度特征向量。
在本实施例中,对每个待处理目标进行深度特征提取具体可以是根据实际应用需求选取深度学习算法模型,此处不做限制,如卷积神经网络(Convolutional NeuralNetwork,CNN)模型、循环神经网络(Recurrent Neural Network,RNN)模型,或者深度信念网络(Deep Belief Network,DBN)模型等。
具体地,将每个待处理目标输入预先训练好的的卷积神经网络模型中,通过卷积神经网络模型中的卷积层对每个待处理目标进行深度特征提取,然后,将每个待处理目标对应的深度特征通过卷积神经网络模型的全连接层进行向量压缩,得到每个待处理目标的深度特征向量。
需要说明的是,通过对每个待处理目标进行深度特征提取,得到每个待处理目标的深度特征向量,可以理解为通过在卷积神经网络模型中的对每个待处理目标进行必要特征的提取,避免其他不必要特征信息的干扰,从而提高目标跟踪的准确率。
S9:基于匈牙利匹配算法,将每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配,得到每帧视频图像中每个待处理目标对应的匹配结果。
具体地,由于匈牙利匹配算法是常用匹配的算法,计算复杂度小,是采用二分图求最佳匹配的方法,基于匈牙利匹配算法,本实施例对该匹配算法进行一些扩展,通过将每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配具体可以是计算每个待处理目标的深度特征向量X=(x1,x2,...,xm)和下一帧视频图像中的每个待处理目标的深度特征向量Y=(y1,y2,...,yn)之间的相似度p(x,y),将每帧视频图像中的每个待处理目标的左上角的坐标点看作每个顶点x,其中x∈X,同理,将下一帧视频图像中的每个待处理目标的左上角的坐标点看作每个顶点y,其中y∈Y,将两个顶点x与y之间连接一条直线边(x,y),得到每个顶点之间的二分图,并设置该直线边的权重值为p(x,y),通过每个待处理目标的左上角的坐标点,可以计算一条直线边(x,y)的距离长度d(x,y),计算该直线边的权重值与该直线边的距离长度的乘积,然后,从每帧视频图像中的每个待处理目标对应的乘积中,选出最大乘积与预设的匹配阈值进行比较,若最大乘积大于或等于预设的匹配阈值,则匹配结果为匹配成功,若最大乘积小于预设的匹配阈值,则匹配结果为匹配失败。
S10:针对每帧视频图像中的每个待处理目标,若当前帧中的待处理目标对应的匹配结果为匹配成功,则将当前帧中的待处理目标在下一帧中的跟踪目标确定为得到该匹配结果的下一帧中的待处理目标,并将得到该匹配结果的下一帧中的待处理目标的标识信息设置为当前帧中待处理目标的标识信息。
具体地,针对每帧视频图像中的每个待处理目标,若当前帧中的待处理目标对应的匹配结果为匹配成功,则可以理解为当前帧中的待处理目标在下一帧中匹配到了唯一的待处理目标,故能够将该匹配结果中的下一帧中的待处理目标确定为当前帧中的待处理目标在下一帧中的跟踪目标,然后,为了后续步骤中能够根据得到该匹配结果的下一帧中的待处理目标的标识信息,对该得到该匹配结果的下一帧中的待处理目标进行快速查找和分析,则能够将得到该匹配结果的下一帧中的待处理目标的标识信息设置为当前帧中待处理目标的标识信息。
在本实施例中,通过获取待处理视频数据的每帧视频图像的对应的检测结果,进而基于待处理视频数据的第一帧视频图像对应的检测结果,获取待处理视频数据的其他帧视频图像对应的预测结果,然后,基于每帧视频图像的对应的检测结果和预测结果各自包括的信息,计算得到每帧视频图像对应的多个马氏距离,对得到的多个马氏距离进行分析,并根据分析结果确定跟踪目标,这种目标跟踪方法操作简单,计算复杂度小,能够提高确定跟踪目标的效率,然后,基于匈牙利匹配算法,将每帧视频图像上没找到跟踪目标的待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配,并将匹配成功的原始检测目标确定为待处理目标的跟踪目标,这种在马氏距离确定跟踪目标的基础上,再对未找到跟踪目标的待处理目标之间做进一步的特征提取和匹配分析,并根据得到的匹配结果确定跟踪目标的方法,能够保证待处理目标提取到的特征的精度,以及未找到跟踪目标的待处理目标之间的匹配精度,从而提高对目标跟踪的准确度。
在一实施例中,如图3所示,步骤S4中,即在每帧视频图像中,根据每个原始目标区域的原始位置信息和每个预测目标区域的预测位置信息,计算每个原始检测区域和每个预测目标区域之间的马氏距离具体包括如下步骤:
S401:获取每帧视频图像的每个原始目标区域的原始位置信息的左上角坐标a和每个预测目标区域的预测位置信息的左上角坐标b。
具体地,由于原始目标区域是以矩形框的形式显示的,且在步骤S2中能够得到每个原始目标区域的原始位置信息,能够获取该原始位置信息包括每个原始目标区域的矩形框的左上角的坐标a,以及预测目标区域也是以矩形框的形式显示的,且在步骤S3中能够得到每个预测目标区域的预测位置信息,并能够获取该预测位置信息包括每个预测目标区域的矩形框的左上角的坐标b,通过获取每帧视频图像的每个原始目标区域的原始位置信息的左上角坐标a和每个预测目标区域的预测位置信息的左上角坐标b,能够后续采用的计算公式,准确反映出每帧视频图像的每个原始检测目标和每个预测跟踪目标之间的位置关系,便于对跟踪目标的进一步确认。
S402:按照如下公式计算每帧视频图像中的每个原始检测区域和每个预测目标区域之间的马氏距离d:
Figure BDA0001862045800000111
其中,T表示转置,∏为协方差矩阵。
具体地,为了能准确反映出每个原始目标区域中的原始检测目标与每个预测目标区域的预测跟踪目标之间的位置关系,将步骤S401中得到的获取每帧视频图像的每个原始目标区域的原始位置信息的左上角坐标a和每个预测目标区域的预测位置信息的左上角坐标b,分别代入马氏距离公式中进行计算,能够快速计算出每个原始检测目标和每个预测跟踪目标之间的马氏距离。
例如,假设当前帧视频图像上的一个原始目标区域的左上角坐标为a=(50,50),当前帧视频图像上的一个预测目标区域的左上角坐标为b=(80,50)将原始目标区域的左上角坐标a和预测目标区域的左上角坐标b,代入m马氏距离公式中进行计算,得到马氏距离d1约等于5.477。
在本实施例中,通过将获取到的每帧视频图像的每个原始目标区域的原始位置信息的左上角坐标a和每个预测目标区域的预测位置信息的左上角坐标b,代入马氏距离公式计算每帧视频图像中的每个原始检测区域和每个预测目标区域之间的马氏距离d,能够准确反映出每个原始目标区域中的原始检测目标与每个预测目标区域的预测跟踪目标之间的位置关系,便于对跟踪目标的进一步确认。
在一实施例中,如图4所示,步骤S8中,即对每个待处理目标进行深度特征提取,得到每个待处理目标的深度特征向量具体包括如下步骤:
S801:采用预先训练好的人工神经网络结构,对每帧视频图像中的每个待处理目标进行物理分割,得到每个待处理目标的目标轮廓。
本实施例中,物体分割是指将待处理目标通过预先训练好的人工神经网络结构,常用的的人工神经网络结构为分割神经网络(Mask RoIAlign-Convolutional NeuralNetwork,Mask R-CNN)结构中,根据分割神经网络结构中像素语义分割功能,对待处理目标做语义分割,将待处理目标从视频图像中剥离出来,可以理解为将待处理目标与视频图像中的背景分割开来,实现将视频图像中的背景切除掉。
其中,分割神经网络结构是一个小巧、灵活的通用对象实例分割框架。它不仅可对视频图像中的待处理目标进行特征提取,还可以对每一个待处理目标给出一个高质量的分割结果。
语义分割是指背景和物体的颜色特征等不一样,体现在视频图像上的像素不一样,可以对视频图像做像素语义分割,将背景所在的像素切除掉,剩下的就是待处理目标的像素,体现在视频图像上就是待处理目标的轮廓。
具体地,采用预先训练好的分割神经网络结构中的像素语义分割功能,将每个视频图像中的每个待处理目标与视频图像上的背景分割开来,将背景所在的像素切除掉,得到每个待处理目标对应的像素,并将每个待处理目标对应的像素作为每个待处理目标的目标轮廓。
S802:根据预先训练好的人工神经网络结构的定义,对每个目标轮廓进行深度特征提取,得到每个目标轮廓对应的深度特征向量。
具体地,根据预先训练好的人工神经网络结构的定义,对每个目标轮廓进行深度特征提取,具体可以是按照分割神经网络结构的每个卷积层的卷积定义,将每个目标轮廓逐次通过分割神经网络结构的卷积层,实现对每个目标轮廓进行深度特征提取,得到每个目标轮廓的深度特征,然后,将每个目标轮廓对应的深度特征通过分割神经网络结构的输出层进行特征降维,即将深度特征向量进行压缩,输出每个目标轮廓的深度特征向量,对剔除了背景像素的目标轮廓进行深度特征提取,能够提高深度特征的提取精度,增加后续步骤根据深度特征向量进行匹配的准确度,从而一稿目标跟踪的准确度。
在本实施例中,通过采用预先训练好的人工神经网络结构,对每帧视频图像中的每个待处理目标进行物理分割,得到每个待处理目标的目标轮廓,能够实现将视频图像中的背景剔除掉,避免因受到冗杂的背景信息的干扰,而降低目标跟踪准确度的情况,并对得到的目标轮廓按照预先训练好的人工神经网络结构的定义,进行深度特征提取,能够提高深度特征的提取精度,增加后续步骤根据深度特征向量进行匹配的准确度,从而一稿目标跟踪的准确度。
在一实施例中,如图5所示,在步骤S9中,即基于匈牙利匹配算法,将每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配,得到每帧视频图像中每个待处理目标对应的匹配结果具体包括如下步骤:
S901:计算每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度。
在本实施例中,计算每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度,具体可以是计算每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度之间的欧氏距离,或者是计算每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度之间的余弦相似度,还可以采用其他相似度计算方法,此处不做限制。
优选地,本实施例中采用欧氏距离计算方法。
具体地,将从步骤S8中得到的每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量代入欧氏距离计算公式为
Figure BDA0001862045800000131
中进行计算,能够得到每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度,其中,xi表示每帧视频图像中的每个待处理目标的深度特征向量X的分量,yi表示下一帧视频图像中的每个待处理目标的深度特征向量Y的分量,s表示欧氏距离的值,m表示每帧视频图像中的每个待处理目标的深度特征向量的分量的总个数。
S902:针对每帧视频图像中的每个待处理目标,从待处理目标对应的特征相似度中,获取数值最大的特征相似度作为最大特征相似度。
具体地,由于每帧视频图像中的每个待处理目标对应的相似度的数值越大,则说明该相似度对应的两个待处理目标之间越相似,从而筛选出唯一的一个与待处理目标最相似的下一帧视频图像中的待处理目标,所以针对每帧视频图像中的每个待处理目标,在待处理目标对应的特征相似度中,将每个特征相似度进行比较,从中选取出数值最大的特征相似度,作为最大特征相似度。
S903:若最大特征相似度大于或者等于预设的目标阈值,则确认待处理目标对应的匹配结果为匹配成功。
具体地,将步骤S902中得到最大特征相似度与预设的目标阈值进行比较,若该最大特征相似度大于或者等于预设的目标阈值,则可以理解为该最大特征相似度对应的下一帧视频图像中的待处理目标,与当前帧中的待处理目标最相似,故能够将认为当前帧中的待处理目标找到相匹配的目标,能够确认待处理目标对应的匹配结果为匹配成功。
S904:若最大特征相似度小于预设的目标阈值,则确认待处理目标在下一帧视频图像中的跟踪目标丢失,得到待处理目标对应的匹配结果为匹配失败。
具体地,在预设的目标阈值对当前帧中的待处理目标对应的特征相似度做进一步的限定的基础上,该待处理目标的最大特征相似度都无法满足目标阈值的要求,则表明在下一帧视频图像的待处理目标中,未能匹配到出与当前帧视频图像的待处理目标最相似的目标,那么可以将最大特征相似度小于预设的目标阈值对应的当前帧视频图像的待处理目标,确认该待处理目标在下一帧视频图像中的跟踪目标丢失,即待处理目标对应的匹配结果为匹配失败。
在本实施例中,通过计算每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度,并从每帧视频图像的每个待处理目标对应的特征相似度中,获取最大特征相似度,然后将最大特征相似度与目标阈值进行比较,并根据比较结果确定待处理目标的匹配结果,能够准确直观地反映出每帧视频图像中的每个待处理目标和下一帧视频图像中的每个待处理目标之间的相似程度,进而快速准确地获取到待处理目标的匹配结果。
在一实施例中,如图6所示,步骤S904中,即若最大特征相似度小于预设的目标阈值,则确认待处理目标在下一帧视频图像中的跟踪目标丢失,得到待处理目标对应的匹配结果为匹配失败具体还包括如下步骤:
S9041:若最大特征相似度小于预设的目标阈值,则获取待处理目标的标识信息。
具体地,由于当前帧的待处理目标的最大特征相似度小于预设的目标阈值,能保证的是该待处理目标在下一帧中未找到相匹配的跟踪目标,可以理解为在下一帧中是目标丢失的状态,在后续的继续匹配中存在待处理目标在后续的帧图像中目标完全丢失,以及待处理目标在后续的帧图像中不完全丢失的情况,当是待处理目标在后续的帧图像中目标完全丢失的情况时,则能确认该待处理目标对应的匹配结果为匹配失败,所以本实施例,检测待处理目标在后续的帧图像中目标完全丢失,能够通过获取待处理目标的标识信息,实现对与待处理目标有相同的标识信息的跟踪目标的快速查找。
S9042:在待处理目标所在的视频图像之后的连续预设的k帧视频图像中,查找是否存在与待处理目标有相同标识信息的跟踪目标,其中,k为正整数。
具体地,由于本实施例采用的跟踪方法是在找到跟踪目标的同时,基于前一帧中的原始检测目标的标识信息,将确认的跟踪目标的标识信息进行赋值的,所以能够根据待处理目标的标识信息,实现对与待处理目标有相同的标识信息的跟踪目标的快速查找,即在待处理目标所在的视频图像之后的连续预设的k帧视频图像中的跟踪目标中进行遍历,查找与该待处理目标有相同标识信息的跟踪目标。
S9043:若不存在与待处理目标有相同标识信息的跟踪目标,则确认待处理目标的跟踪目标丢失。
具体地,若不存在与待处理目标有相同标识信息的跟踪目标,可以理解为该待处理目标所要跟踪的目标在后续的预设的k帧视频图像中,都没有在出现,说明该待处理目标的跟踪目标后续的预设的k帧视频图像中完全丢失,所以可以确认待处理目标的跟踪目标丢失。
在本实施例中,通过获取最大特征相似度小于预设的目标阈值对应的当前帧的待处理目标的标识信息,在待处理目标所在的视频图像之后的连续预设的k帧视频图像中的跟踪目标进行遍历,查找与待处理目标有相同标识信息的跟踪目标,实现对与待处理目标有相同的标识信息的跟踪目标的快速查找,进而确认待处理目标的跟踪目标完全丢失。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种目标跟踪装置,该目标跟踪装置与上述实施例中目标跟踪方法一一对应。如图7所示,该目标跟踪装置包括数据获取模块701、目标检测模块702、目标预测模块703、距离计算模块704、距离选取模块705、目标确认模块706、目标处理模块707、特征提取模块708、目标匹配模块709和目标确定模块710。各功能模块详细说明如下:
数据获取模块701,用于获取待处理视频数据,并按照预设的提取方式从待处理视频数据中提取预设帧数的视频图像;
目标检测模块702,用于在预先训练好的目标检测器中,对每帧视频图像进行目标检测,得到每帧视频图像中的N个原始目标区域,以及每个原始目标区域的原始位置信息,并对第一帧视频图像中的每个原始目标区域包含的原始检测目标设置预设的标识信息,其中,N为正整数;
目标预测模块703,用于在预先训练好的目标预测器中,对每帧视频图像的每个原始检测目标进行目标预测,得到每帧视频图像中每个原始检测目标在下一帧视频图像中对应的预测目标区域和预测目标区域的预测位置信息,其中,每个预测目标区域包含一个预测跟踪目标;
距离计算模块704,用于在每帧视频图像中,根据每个原始目标区域的原始位置信息和每个预测目标区域的预测位置信息,计算每个原始检测区域和每个预测目标区域之间的马氏距离;
距离选取模块705,用于针对每帧视频图像的每个预测目标区域,从预测目标区域对应的马氏距离中选取数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为预测跟踪区域包含的预测跟踪目标对应的待评估基础目标;
目标确认模块706,用于在每帧视频图像中,若预测跟踪目标仅对应一个待评估基础目标,则确认待评估基础目标为预测跟踪目标对应的上一帧视频图像中的原始检测目标的跟踪目标,并将待评估基础目标的标识信息设置为上一帧视频图像中的原始检测目标的标识信息;
目标处理模块707,用于在每帧视频图像中,若预测跟踪目标对应的待评估基础目标超过一个,则将预测跟踪目标对应的上一帧视频图像中的原始检测目标作为待处理目标;
特征提取模块708,用于对每个待处理目标进行深度特征提取,得到每个待处理目标的深度特征向量;
目标匹配模块709,用于基于匈牙利匹配算法,将每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量进行匹配,得到每帧视频图像中每个待处理目标对应的匹配结果;
目标确定模块710,用于针对每帧视频图像中的每个待处理目标,若当前帧中的待处理目标对应的匹配结果为匹配成功,则将当前帧中的待处理目标在下一帧中的跟踪目标确定为得到该匹配结果的下一帧中的待处理目标,并将得到该匹配结果的下一帧中的待处理目标的标识信息设置为当前帧中待处理目标的标识信息。
进一步地,距离计算模块704包括:
坐标获取单元7041,用于获取每帧视频图像的每个原始目标区域的原始位置信息的左上角坐标a和每个预测目标区域的预测位置信息的左上角坐标b;
公式计算单元7042,用于按照如下公式计算每帧视频图像中的每个原始检测区域和每个预测目标区域之间的马氏距离d:
Figure BDA0001862045800000171
其中,T表示转置,∏为协方差矩阵。
进一步地,特征提取模块708包括:
目标分割单元7081,用于采用预先训练好的人工神经网络结构,对每帧视频图像中的每个待处理目标进行物理分割,得到每个待处理目标的目标轮廓;
向量获取单元7082,用于根据预先训练好的人工神经网络结构的定义,对每个目标轮廓进行深度特征提取,得到每个目标轮廓对应的深度特征向量。
进一步地,目标匹配模块709包括:
向量计算单元7091,用于计算每帧视频图像中的每个待处理目标的深度特征向量和下一帧视频图像中的每个待处理目标的深度特征向量之间的特征相似度;
特征选取单元7092,用于针对每帧视频图像中的每个待处理目标,从待处理目标对应的特征相似度中,获取数值最大的特征相似度作为最大特征相似度;
确认匹配单元7093,用于若最大特征相似度大于或者等于预设的目标阈值,则确认待处理目标对应的匹配结果为匹配成功;
确认结果单元7094,由于若最大特征相似度小于预设的目标阈值,则确认待处理目标在下一帧视频图像中的跟踪目标丢失,得到待处理目标对应的匹配结果为匹配失败。
进一步地,确认结果单元7094包括:
信息获取子单元70941,用于若最大特征相似度小于预设的目标阈值,则获取待处理目标的标识信息;
目标查找子单元70942,用于在待处理目标所在的视频图像之后的连续预设的k帧视频图像中,查找是否存在与待处理目标有相同标识信息的跟踪目标,其中,k为正整数;
目标丢失子单元70943,用于若不存在与待处理目标有相同标识信息的跟踪目标,则确认待处理目标的跟踪目标丢失。
关于目标跟踪装置的具体限定可以参见上文中对于目标跟踪方法的限定,在此不再赘述。上述目标跟踪装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于保存视频数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标跟踪方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例目标跟踪方法的步骤,例如图2所示的步骤S1至步骤S10。或者,处理器执行计算机程序时实现上述实施例中目标跟踪装置的各模块/单元的功能,例如图7所示模块701至模块710的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中目标跟踪方法,或者,该计算机程序被处理器执行时实现上述装置实施例中目标跟踪装置中各模块/单元的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)、DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种目标跟踪方法,其特征在于,所述目标跟踪方法包括:
获取待处理视频数据,并按照预设的提取方式从所述待处理视频数据中提取预设帧数的视频图像;
在预先训练好的目标检测器中,对每帧所述视频图像进行目标检测,得到每帧所述视频图像中的N个原始目标区域,以及每个所述原始目标区域的原始位置信息,并对第一帧所述视频图像中的每个所述原始目标区域包含的原始检测目标设置预设的标识信息,其中,N为正整数;
在预先训练好的目标预测器中,对每帧所述视频图像的每个所述原始检测目标进行目标预测,得到每帧所述视频图像中每个所述原始检测目标在下一帧所述视频图像中对应的预测目标区域和所述预测目标区域的预测位置信息,其中,每个所述预测目标区域包含一个预测跟踪目标;
在每帧所述视频图像中,根据每个所述原始目标区域的原始位置信息和每个所述预测目标区域的预测位置信息,计算每个所述原始目标区域和每个所述预测目标区域之间的马氏距离;
针对每帧所述视频图像的每个所述预测目标区域,从所述预测目标区域对应的马氏距离中选取数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为所述预测目标区域包含的所述预测跟踪目标对应的待评估基础目标;
在每帧所述视频图像中,若所述预测跟踪目标仅对应一个所述待评估基础目标,则确认所述待评估基础目标为所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标的跟踪目标,并将所述待评估基础目标的标识信息设置为上一帧所述视频图像中的所述原始检测目标的标识信息;
在每帧所述视频图像中,若所述预测跟踪目标对应的所述待评估基础目标超过一个,则将所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标作为待处理目标;
对每个所述待处理目标进行深度特征提取,得到每个所述待处理目标的深度特征向量;
基于匈牙利匹配算法,将每帧所述视频图像中的每个所述待处理目标的深度特征向量和下一帧所述视频图像中的每个所述待处理目标的深度特征向量进行匹配,得到每帧所述视频图像中每个所述待处理目标对应的匹配结果;
针对每帧所述视频图像中的每个所述待处理目标,若当前帧中的所述待处理目标对应的所述匹配结果为匹配成功,则将当前帧中的所述待处理目标在下一帧中的跟踪目标确定为得到该匹配结果的下一帧中的所述待处理目标,并将得到该匹配结果的下一帧中的所述待处理目标的标识信息设置为当前帧中所述待处理目标的标识信息。
2.如权利要求1所述的目标跟踪方法,其特征在于,所述在每帧所述视频图像中,根据每个所述原始目标区域的原始位置信息和每个所述预测目标区域的预测位置信息,计算每个所述原始目标区域和每个所述预测目标区域之间的马氏距离包括:
获取每帧所述视频图像的每个所述原始目标区域的原始位置信息的左上角坐标a和每个所述预测目标区域的预测位置信息的左上角坐标b;
按照如下公式计算每帧所述视频图像中的每个所述原始目标区域和每个所述预测目标区域之间的马氏距离d:
Figure FDA0003785099370000021
其中,T表示转置,∏为协方差矩阵。
3.如权利要求1所述的目标跟踪方法,其特征在于,所述对每个所述待处理目标进行深度特征提取,得到每个所述待处理目标的深度特征向量包括:
采用预先训练好的人工神经网络结构,对每帧所述视频图像中的每个所述待处理目标进行物理分割,得到每个所述待处理目标的目标轮廓;
根据所述预先训练好的人工神经网络结构的定义,对每个所述目标轮廓进行深度特征提取,得到每个所述目标轮廓对应的深度特征向量。
4.如权利要求1至3任一项所述的目标跟踪方法,其特征在于,所述基于匈牙利匹配算法,将每帧所述视频图像中的每个所述待处理目标的深度特征向量和下一帧所述视频图像中的每个所述待处理目标的深度特征向量进行匹配,得到每帧所述视频图像中每个所述待处理目标对应的匹配结果包括:
计算每帧所述视频图像中的每个所述待处理目标的深度特征向量和下一帧所述视频图像中的每个所述待处理目标的深度特征向量之间的特征相似度;
针对每帧所述视频图像中的每个所述待处理目标,从所述待处理目标对应的所述特征相似度中,获取数值最大的所述特征相似度作为最大特征相似度;
若所述最大特征相似度大于或者等于预设的目标阈值,则确认所述待处理目标对应的匹配结果为匹配成功;
若所述最大特征相似度小于预设的目标阈值,则确认所述待处理目标在下一帧所述视频图像中的跟踪目标丢失,得到所述待处理目标对应的匹配结果为匹配失败。
5.如权利要求4所述的目标跟踪方法,其特征在于,所述若所述最大特征相似度小于预设的目标阈值,则确认所述待处理目标在下一帧所述视频图像中的跟踪目标丢失,得到所述待处理目标对应的匹配结果为匹配失败包括:
若所述最大特征相似度小于预设的目标阈值,则获取所述待处理目标的标识信息;
在所述待处理目标所在的所述视频图像之后的连续预设的k帧所述视频图像中,查找是否存在与所述待处理目标有相同所述标识信息的跟踪目标,其中,k为正整数;
若不存在与所述待处理目标有相同所述标识信息的跟踪目标,则确认所述待处理目标的跟踪目标丢失。
6.一种目标跟踪装置,其特征在于,所述目标跟踪装置包括:
数据获取模块,用于获取待处理视频数据,并按照预设的提取方式从所述待处理视频数据中提取预设帧数的视频图像;
目标检测模块,用于在预先训练好的目标检测器中,对每帧所述视频图像进行目标检测,得到每帧所述视频图像中的N个原始目标区域,以及每个所述原始目标区域的原始位置信息,并对第一帧所述视频图像中的每个所述原始目标区域包含的原始检测目标设置预设的标识信息,其中,N为正整数;
目标预测模块,用于在预先训练好的目标预测器中,对每帧所述视频图像的每个所述原始检测目标进行目标预测,得到每帧所述视频图像中每个所述原始检测目标在下一帧所述视频图像中对应的预测目标区域和所述预测目标区域的预测位置信息,其中,每个所述预测目标区域包含一个预测跟踪目标;
距离计算模块,用于在每帧所述视频图像中,根据每个所述原始目标区域的原始位置信息和每个所述预测目标区域的预测位置信息,计算每个所述原始目标区域和每个所述预测目标区域之间的马氏距离;
距离选取模块,用于针对每帧所述视频图像的每个所述预测目标区域,从所述预测目标区域对应的马氏距离中选取数值最小的马氏距离,并将该数值最小的马氏距离对应的原始目标区域中的原始检测目标作为所述预测目标区域包含的所述预测跟踪目标对应的待评估基础目标;
目标确认模块,用于在每帧所述视频图像中,若所述预测跟踪目标仅对应一个所述待评估基础目标,则确认所述待评估基础目标为所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标的跟踪目标,并将所述待评估基础目标的标识信息设置为上一帧所述视频图像中的所述原始检测目标的标识信息;
目标处理模块,用于在每帧所述视频图像中,若所述预测跟踪目标对应的所述待评估基础目标超过一个,则将所述预测跟踪目标对应的上一帧所述视频图像中的所述原始检测目标作为待处理目标;
特征提取模块,用于对每个所述待处理目标进行深度特征提取,得到每个所述待处理目标的深度特征向量;
目标匹配模块,用于基于匈牙利匹配算法,将每帧所述视频图像中的每个所述待处理目标的深度特征向量和下一帧所述视频图像中的每个所述待处理目标的深度特征向量进行匹配,得到每帧所述视频图像中每个所述待处理目标对应的匹配结果;
目标确定模块,用于针对每帧所述视频图像中的每个所述待处理目标,若当前帧中的所述待处理目标对应的所述匹配结果为匹配成功,则将当前帧中的所述待处理目标在下一帧中的跟踪目标确定为得到该匹配结果的下一帧中的所述待处理目标,并将得到该匹配结果的下一帧中的所述待处理目标的标识信息设置为当前帧中所述待处理目标的标识信息。
7.如权利要求6所述的目标跟踪装置,其特征在于,所述距离计算模块包括:
坐标获取单元,用于获取每帧所述视频图像的每个所述原始目标区域的原始位置信息的左上角坐标a和每个所述预测目标区域的预测位置信息的左上角坐标b;
公式计算单元,用于按照如下公式计算每帧所述视频图像中的每个所述原始目标区域和每个所述预测目标区域之间的马氏距离d:
Figure FDA0003785099370000051
其中,T表示转置,∏为协方差矩阵。
8.如权利要求6所述的目标跟踪装置,其特征在于,所述特征提取模块包括:
目标分割单元,用于采用预先训练好的人工神经网络结构,对每帧所述视频图像中的每个所述待处理目标进行物理分割,得到每个所述待处理目标的目标轮廓;
向量获取单元,用于根据所述预先训练好的人工神经网络结构的定义,对每个所述目标轮廓进行深度特征提取,得到每个所述目标轮廓对应的深度特征向量。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述目标跟踪方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述目标跟踪方法的步骤。
CN201811339121.3A 2018-11-12 2018-11-12 目标跟踪方法、装置、设备及存储介质 Active CN109635657B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201811339121.3A CN109635657B (zh) 2018-11-12 2018-11-12 目标跟踪方法、装置、设备及存储介质
PCT/CN2018/123080 WO2020098076A1 (zh) 2018-11-12 2018-12-24 跟踪目标的定位方法、装置、设备及存储介质
SG11202101806QA SG11202101806QA (en) 2018-11-12 2018-12-24 Method, device, equipment and storage medium for locating tracked targets
JP2021504201A JP7060758B2 (ja) 2018-11-12 2018-12-24 追跡ターゲットの位置決め方法、装置、機器及び記憶媒体
US17/266,187 US11798174B2 (en) 2018-11-12 2018-12-24 Method, device, equipment and storage medium for locating tracked targets

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811339121.3A CN109635657B (zh) 2018-11-12 2018-11-12 目标跟踪方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109635657A CN109635657A (zh) 2019-04-16
CN109635657B true CN109635657B (zh) 2023-01-06

Family

ID=66067729

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811339121.3A Active CN109635657B (zh) 2018-11-12 2018-11-12 目标跟踪方法、装置、设备及存储介质

Country Status (5)

Country Link
US (1) US11798174B2 (zh)
JP (1) JP7060758B2 (zh)
CN (1) CN109635657B (zh)
SG (1) SG11202101806QA (zh)
WO (1) WO2020098076A1 (zh)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10740620B2 (en) * 2017-10-12 2020-08-11 Google Llc Generating a video segment of an action from a video
CN110110787A (zh) * 2019-05-06 2019-08-09 腾讯科技(深圳)有限公司 目标的位置获取方法、装置、计算机设备及存储介质
CN110176027B (zh) * 2019-05-27 2023-03-14 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、设备及存储介质
CN110363799B (zh) * 2019-05-27 2021-04-06 浙江工业大学 人机共存环境下基于视觉的多运动人体目标跟踪方法
CN112052856A (zh) * 2019-06-05 2020-12-08 邓毅华 一种基于图像特征编码的目标检测方法
CN110378515A (zh) * 2019-06-14 2019-10-25 平安科技(深圳)有限公司 一种突发事件的预测方法、装置、存储介质和服务器
CN110490910A (zh) * 2019-08-13 2019-11-22 顺丰科技有限公司 目标检测方法、装置、电子设备及存储介质
CN111798487A (zh) * 2019-08-27 2020-10-20 北京京东尚科信息技术有限公司 目标跟踪方法、装置和计算机可读存储介质
CN110517292A (zh) 2019-08-29 2019-11-29 京东方科技集团股份有限公司 目标跟踪方法、装置、系统和计算机可读存储介质
CN110634153A (zh) * 2019-09-19 2019-12-31 上海眼控科技股份有限公司 目标跟踪模板更新方法、装置、计算机设备和存储介质
CN110796012B (zh) * 2019-09-29 2022-12-27 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及可读存储介质
WO2021072696A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 目标检测与跟踪方法、系统、可移动平台、相机及介质
CN111079525B (zh) * 2019-11-05 2023-05-30 阿里巴巴集团控股有限公司 图像处理方法、设备、系统及存储介质
KR20210067442A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 객체 인식을 위한 자동 레이블링 장치 및 방법
CN111145214A (zh) * 2019-12-17 2020-05-12 深圳云天励飞技术有限公司 目标跟踪方法、装置、终端设备及介质
CN111210457B (zh) * 2020-01-08 2021-04-13 北京天睿空间科技股份有限公司 一种视频分析与定位信息结合的航空器挂牌方法
CN111292352B (zh) * 2020-01-20 2023-08-25 杭州电子科技大学 多目标跟踪方法、装置、设备及存储介质
CN113450387A (zh) * 2020-03-26 2021-09-28 京东方科技集团股份有限公司 目标跟踪方法、装置、电子设备及计算机可读存储介质
EP4147477A4 (en) * 2020-05-05 2023-05-03 Telefonaktiebolaget LM ERICSSON (PUBL) OPTIMIZATION OF TRACKING AREA LISTS FOR PAGING FROM WIRELESS DEVICES
CN111640140B (zh) * 2020-05-22 2022-11-25 北京百度网讯科技有限公司 目标跟踪方法、装置、电子设备及计算机可读存储介质
CN111967323B (zh) * 2020-07-16 2022-07-26 电子科技大学 一种基于深度学习算法的电力带电作业安全检测方法
CN112866773B (zh) * 2020-08-21 2023-09-26 海信视像科技股份有限公司 一种显示设备及多人场景下摄像头追踪方法
CN112257595A (zh) * 2020-10-22 2021-01-22 广州市百果园网络科技有限公司 视频匹配方法、装置、设备及存储介质
CN112489086A (zh) * 2020-12-11 2021-03-12 北京澎思科技有限公司 目标跟踪方法、目标跟踪装置、电子设备及存储介质
CN112857746A (zh) * 2020-12-29 2021-05-28 上海眼控科技股份有限公司 一种灯光检测仪的追踪方法、装置、电子设备及存储介质
CN112822450B (zh) * 2021-01-08 2024-03-19 鹏城实验室 一种大规模视觉计算系统中有效节点动态遴选方法
CN112887793B (zh) * 2021-01-25 2023-06-13 脸萌有限公司 视频处理方法、显示设备和存储介质
CN113159032B (zh) * 2021-04-22 2023-06-30 平安科技(深圳)有限公司 基于目标检测网络的目标跟踪方法、装置、设备及介质
CN113824880B (zh) * 2021-08-26 2023-05-19 国网浙江省电力有限公司双创中心 一种基于目标检测和uwb定位的车辆跟踪方法
CN114089675B (zh) * 2021-11-23 2023-06-09 长春工业大学 一种基于人机距离的机器控制方法及控制系统
CN114310940B (zh) * 2021-12-20 2024-02-06 三一建筑机器人(西安)研究院有限公司 工件定位方法、装置、介质及作业机械
CN114339603B (zh) * 2021-12-24 2023-08-25 珠海优特电力科技股份有限公司 定位区域的切换方法、装置、设备和存储介质
CN114581796B (zh) * 2022-01-19 2024-04-02 上海土蜂科技有限公司 目标物跟踪系统、方法及其计算机装置
CN114510044A (zh) * 2022-01-25 2022-05-17 北京圣威特科技有限公司 Agv导航船导航方法、装置、电子设备及存储介质
CN115937247B (zh) * 2022-08-12 2024-02-06 北京小米移动软件有限公司 对象跟踪的方法、装置和存储介质
CN115221981B (zh) * 2022-09-20 2022-12-02 毫末智行科技有限公司 一种目标跟踪方法、装置、终端设备及存储介质
CN117197247B (zh) * 2023-11-08 2024-03-29 湖南才道半导体科技有限公司 基于人工智能的晶圆切割道视觉定位方法
CN117854011B (zh) * 2024-03-07 2024-05-03 福建南亿智能科技有限公司 一种智能ai摄像头识别对比方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803263A (zh) * 2016-11-29 2017-06-06 深圳云天励飞技术有限公司 一种目标跟踪方法及装置
CN107292911A (zh) * 2017-05-23 2017-10-24 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
CN108363997A (zh) * 2018-03-20 2018-08-03 南京云思创智信息科技有限公司 一种在视频中对特定人的实时跟踪方法
CN108765455A (zh) * 2018-05-24 2018-11-06 中国科学院光电技术研究所 一种基于tld算法的目标稳定跟踪方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
JP6614611B2 (ja) 2016-02-29 2019-12-04 Kddi株式会社 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
EP3545466A4 (en) * 2016-12-29 2019-11-27 Zhejiang Dahua Technology Co., Ltd. SYSTEMS AND METHODS FOR DETECTING OBJECTS IN IMAGES
CN108268823B (zh) * 2016-12-30 2021-07-20 纳恩博(北京)科技有限公司 目标再识别方法和装置
CN108230353A (zh) * 2017-03-03 2018-06-29 北京市商汤科技开发有限公司 目标跟踪方法、系统及电子设备
US10679428B1 (en) * 2017-05-26 2020-06-09 Snap Inc. Neural network-based image stream modification
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
US20190130189A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Suppressing duplicated bounding boxes from object detection in a video analytics system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803263A (zh) * 2016-11-29 2017-06-06 深圳云天励飞技术有限公司 一种目标跟踪方法及装置
CN107292911A (zh) * 2017-05-23 2017-10-24 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
CN108363997A (zh) * 2018-03-20 2018-08-03 南京云思创智信息科技有限公司 一种在视频中对特定人的实时跟踪方法
CN108765455A (zh) * 2018-05-24 2018-11-06 中国科学院光电技术研究所 一种基于tld算法的目标稳定跟踪方法

Also Published As

Publication number Publication date
US11798174B2 (en) 2023-10-24
JP7060758B2 (ja) 2022-04-26
US20210295536A1 (en) 2021-09-23
WO2020098076A1 (zh) 2020-05-22
JP2021531592A (ja) 2021-11-18
SG11202101806QA (en) 2021-03-30
CN109635657A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
CN109635657B (zh) 目标跟踪方法、装置、设备及存储介质
CN109035299B (zh) 目标跟踪方法、装置、计算机设备及存储介质
EP4148669A2 (en) Target tracking method for panoramic video, readable storage medium, and computer device
CN108256479B (zh) 人脸跟踪方法和装置
US10255477B2 (en) Feature-based matcher for distorted fingerprint matching
CN109871821B (zh) 自适应网络的行人重识别方法、装置、设备及存储介质
US11055878B2 (en) Person counting method and person counting system
CN112016353B (zh) 一种基于视频的人脸图像进行身份识别方法及装置
CN111191533B (zh) 行人重识别的处理方法、装置、计算机设备和存储介质
CN110598559B (zh) 检测运动方向的方法、装置、计算机设备和存储介质
US10740589B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
CN109255802B (zh) 行人跟踪方法、装置、计算机设备及存储介质
CN109117854B (zh) 关键点匹配方法、装置、电子设备以及存储介质
US11281922B2 (en) Face recognition system, method for establishing data of face recognition, and face recognizing method thereof
CN110660078B (zh) 对象追踪方法、装置、计算机设备和存储介质
CN112749726B (zh) 目标检测模型的训练方法、装置、计算机设备和存储介质
KR20220004009A (ko) 키 포인트 검출 방법, 장치, 전자 기기 및 저장 매체
JP2023553652A (ja) 目標追跡方法、コンピュータ読み取り可能な記憶媒体及びコンピュータデバイス
WO2018121414A1 (zh) 电子设备、目标图像识别方法及装置
US10963720B2 (en) Estimating grouped observations
US10430629B2 (en) Non-transitory computer-readable medium storing information processing program and information processing device
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
CN112036362A (zh) 图像处理方法、装置、计算机设备和可读存储介质
CN113722692B (zh) 身份识别的装置及其方法
CN111091022A (zh) 机器视觉的效能评估方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant