CN110516559B - 适用于精准监控的目标跟踪方法及装置、计算机设备 - Google Patents
适用于精准监控的目标跟踪方法及装置、计算机设备 Download PDFInfo
- Publication number
- CN110516559B CN110516559B CN201910711548.XA CN201910711548A CN110516559B CN 110516559 B CN110516559 B CN 110516559B CN 201910711548 A CN201910711548 A CN 201910711548A CN 110516559 B CN110516559 B CN 110516559B
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- feature vector
- information
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种适用于精准监控的目标跟踪方法,该方法包括:获取多帧图像;根据多帧图像,确定目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;根据第一目标特征信息和第二目标特征信息,确定多帧图像中跟踪目标的跟踪信息,并根据跟踪信息对跟踪目标进行跟踪。本申请能够有效提高检测目标与跟踪目标匹配的准确性,进而提高了目标跟踪的准确性。本申请还涉及一种适用于精准监控的目标跟踪装置、计算机设备和计算机可读存储介质。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种适用于精准监控的目标跟踪方法及装置、计算机设备和计算机可读存储介质。
背景技术
智慧城市迅速发展的时代,精准监控变得不可或缺,其中,目标跟踪技术是精准监控的关键环节。目前,在城市交通、重点场所监视、犯罪分子的追踪等方面,全自动或者半自动地实现跟踪任务可以大大减少工作人员的工作量。
传统的目标跟踪方法主要分为两步进行,第一步,获取初始目标所在的位置信息,包括横纵坐标和目标的宽高;第二步,对下一帧目标所在的位置信息进行预测。
然而,采用传统的目标跟踪方法容易丢失跟踪目标,跟踪的可靠性不高。
发明内容
基于此,有必要针对上述传统的目标跟踪方法可靠性不高的技术问题,提供一种适用于精准监控的目标跟踪方法及装置、计算机设备和计算机可读存储介质。
一种适用于精准监控的目标跟踪方法,所述方法包括:
获取多帧图像;
根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,所述第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;
根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
在其中一个实施例中,所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
获取所述多帧图像中的基准帧图像;
确定所述基准帧图像中的跟踪目标;
提取所述跟踪目标的第一目标特征信息。
在其中一个实施例中,所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
获取所述多帧图像中的当前帧图像;
对所述当前帧图像进行目标检测,获得所述检测目标;
提取所述检测目标的第二目标特征信息。
在其中一个实施例中,所述对所述当前帧图像进行目标检测,获得所述检测目标,包括:
将所述当前帧图像输入至目标检测模型进行目标检测中,得到所述当前帧图像中至少一个初始检测结果属于指定类别的概率,其中,所述目标检测模型包括预先训练好的深度学习模型;
若所述初始检测结果属于指定类别的概率大于预设的指定概率阈值,则确定所述初始检测结果为检测目标。
在其中一个实施例中,所述第一全局特征信息包括第一全局特征向量,所述第二全局特征信息包括第二全局特征向量;
所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
将所述多帧图像输入至第一卷积神经网络中,得到所述第一全局特征向量和所述第二全局特征向量,其中,所述第一卷积神经网络包括沙漏网络。
在其中一个实施例中,所述第一空间特征信息包括第一空间特征向量,所述第二空间特征信息包括第二空间特征向量;
所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
将所述多帧图像输入至第二卷积神经网络中,得到所述第一空间特征向量和所述第二空间特征向量。
在其中一个实施例中,所述第一通道特征信息包括第一通道特征向量,所述第二通道特征信息包括第二通道特征向量;
所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
将所述多帧图像输入至第三卷积神经网络中,得到所述第一通道特征向量和所述第二通道特征向量。
在其中一个实施例中,所述根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,包括:
根据所述第一全局特征信息、所述第一空间特征信息和所述第一通道特征信息,获得所述跟踪目标的第一综合特征信息;
根据所述第二全局特征信息、所述第二空间特征信息和所述第二通道特征信息,获得所述检测目标的第二综合特征信息;
根据所述第一综合特征信息、所述第二综合特征信息以及预设的相似度判断条件,判断所述检测目标是否为所述跟踪目标;
若判定所述检测目标为所述跟踪目标,则获取所述多帧图像中所述检测目标的位置信息,并将所述位置信息确定为所述跟踪信息。
在其中一个实施例中,所述第一全局特征信息包括第一全局特征向量,所述第一空间特征信息包括第一空间特征向量,所述第一通道特征信息包括第一通道特征向量,第一综合特征信息包括第一综合特征向量;所述第二全局特征信息包括第二全局特征向量,所述第二空间特征信息包括第二空间特征向量,所述第二通道特征信息包括第二通道特征向量,第二综合特征信息包括第二综合特征向量;
所述根据所述第一全局特征信息、所述第一空间特征信息和所述第一通道特征信息,获得所述跟踪目标的第一综合特征信息,包括:
将所述第一全局特征向量与所述第一空间特征向量进行相加,得到第一相加结果;
将所述第一相加结果与所述第一通道特征向量进行加权相乘,得到所述第一综合特征向量;
所述根据所述第二全局特征信息、所述第二空间特征信息和所述第二通道特征信息,获得所述检测目标的第二综合特征信息,包括:
将所述第二全局特征向量与所述第二空间特征向量进行相加,得到第二相加结果;
将所述第二相加结果与所述第二通道特征向量进行加权相乘,得到所述第二综合特征向量。
在其中一个实施例中,所述根据所述第一综合特征信息、所述第二综合特征信息以及预设的相似度判断条件,判断所述检测目标是否为所述跟踪目标,包括:
计算所述第一综合特征向量和所述第二综合特征向量的最小余弦距离;
若所述最小余弦距离小于预设的余弦距离阈值,则判定所述检测目标为所述跟踪目标。
在其中一个实施例中,在判定所述检测目标为所述跟踪目标之后,所述方法还包括:
保存所述检测目标对应的边界框图像。
一种适用于精准监控的目标跟踪装置,所述装置包括:
图像获取模块,用于获取多帧图像;
特征提取模块,用于根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,所述第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;
目标跟踪模块,用于根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述实施例中任一项所述的方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述实施例中任一项所述的方法的步骤。
上述适用于精准监控的目标跟踪方法及装置、计算机设备和计算机可读存储介质,通过获取多帧图像中跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息,基于该第一目标特征信息和第二目标特征信息,确定跟踪目标的跟踪信息,从而实现对跟踪目标的跟踪。本申请基于目标的全局特征信息、空间特征信息和通道特征信息进行不同目标的匹配,能够有效提高检测目标与跟踪目标匹配的准确性,进而提高了目标跟踪的准确性。
附图说明
图1为一个实施例中适用于精准监控的目标跟踪方法的应用环境图;
图2为一个实施例中适用于精准监控的目标跟踪方法的流程示意图;
图3为一个实施例中在基准帧图像中提取跟踪目标的第一目标特征信息的流程示意图;
图4为一个实施例中在当前帧图像中提取检测目标的第二目标特征信息的流程示意图;
图5为一个实施例中根据第一目标特征信息和第二目标特征信息,确定多帧图像中跟踪目标的跟踪信息的补充方案的流程示意图;
图6为一个实施例中根据第一综合特征信息、第二综合特征信息以及预设的相似度判断条件,判断检测目标是否为跟踪目标的补充方案的流程示意图;
图7为一个实施例中适用于精准监控的目标跟踪装置的结构框图;
图8为一个实施例中计算机设备的内部结构图;
图9为一个实施例中检测到行人的应用场景图;
图10为一个实施例中128维表观特征向量图;
图11为图9中针对行人进行跟踪的应用场景图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的适用于精准监控的目标跟踪方法,可以应用于如图1所示的应用环境中。其中,目标跟踪设备102与图像采集设备104连接。图像采集设备104用于采集多帧图像。目标跟踪设备102获取图像采集设备104传回的该多帧图像,并根据该多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息,进而根据该第一目标特征信息和第二目标特征信息,确定多帧图像中跟踪目标的跟踪信息,并根据跟踪信息对跟踪目标进行跟踪。可选地,跟踪方式可以是目标跟踪设备102控制图像采集设备104对跟踪目标进行拍摄跟踪。
可选地,目标跟踪设备102可以但不限于是各种计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。可选地,图像采集设备104包括摄像头、相机及球型摄像机的一种或多种。
在一个实施例中,如图2所示,提供了一种适用于精准监控的目标跟踪方法,以该方法应用于图1中的目标跟踪设备102为例进行说明,包括以下步骤:
S202,获取多帧图像。
其中,多帧图像即多张图像,其至少包含两帧图像。
具体地,图像采集设备采集多帧图像。目标跟踪设备获取图像采集设备传回的该多帧图像。
可选地,多帧图像可通过对图像采集设备,例如摄像头拍摄的视频数据进行图像提取获得。
S204,根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息。
其中,跟踪目标为已确定跟踪的目标,检测目标为待确定跟踪的目标。
其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息。第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息。
其中,全局特征信息是指能表示整幅图像上的特征,用于描述图像或目标的颜色和形状等整体特征。空间特征信息用于反映图像中目标的空间位置。通道特征信息可包括红色(Red)、绿色(Green)、蓝色(Blue)三个通道。
其中,在多帧图像中,用于确定跟踪目标的图像为基准帧图像,用于识别检测目标的图像为当前帧图像。
具体地,目标跟踪设备在获取多帧图像之后,根据该多帧图像,在基准帧图像中确定跟踪目标,在当前帧图像中识别检测目标,并基于获得的跟踪目标和检测目标,在对应的图像中进行目标的特征提取,从而得到跟踪目标的第一目标特征信息和检测目标的第二目标特征信息。
可选地,基准帧图像可以是多帧图像中的第一帧图像,也可以是当前帧图像的前一帧图像。
S206,根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
具体地,目标跟踪设备在获得跟踪目标的第一目标特征信息和检测目标的第二目标特征信息之后,根据该第一目标特征信息和第二目标特征信息进行检测目标与跟踪目标的相似度判断,若判定该检测目标为跟踪目标,则将该检测目标的位置信息确定为跟踪信息,并根据该跟踪信息对跟踪目标进行跟踪。
上述适用于精准监控的目标跟踪方法,通过获取多帧图像中跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息,基于该第一目标特征信息和第二目标特征信息,确定跟踪目标的跟踪信息,从而实现对跟踪目标的跟踪。本申请基于目标的全局特征信息、空间特征信息和通道特征信息进行不同目标的匹配,能够有效提高检测目标与跟踪目标匹配的准确性,进而提高了目标跟踪的准确性。
在一个实施例中,请参阅图3,涉及在基准帧图像中提取跟踪目标的第一目标特征信息的具体过程。在上述实施例的基础上,S204包括以下步骤:
S212,获取所述多帧图像中的基准帧图像;
S214,确定所述基准帧图像中的跟踪目标;
S216,提取所述跟踪目标的第一目标特征信息。
可选地,目标跟踪设备可以将多帧图像中的第一帧图像确定为基准帧图像。目标跟踪设备也可以将当前帧图像的前一帧图像确定为基准帧图像。其中,基准帧图像中需包含跟踪目标。
具体地,目标跟踪设备在确定多帧图像中的基准帧图像之后,在该基准帧图像中,通过目标检测算法确定跟踪目标,或者通过人工框定的方式选取跟踪目标。在确定跟踪目标之后,目标跟踪设备从基准帧图像中,提取跟踪目标的第一目标特征信息。
本申请实施例中,通过在基准帧图像中确定跟踪目标,进而得到跟踪目标的第一目标特征信息,使得跟踪目标的第一目标特征信息更为可靠,提高了目标跟踪的准确性。
在一个实施例中,请参阅图4,涉及在当前帧图像中提取检测目标的第二目标特征信息的具体过程。在上述实施例的基础上,S204包括以下步骤:
S222,获取所述多帧图像中的当前帧图像;
S224,对所述当前帧图像进行目标检测,获得所述检测目标;
S226,提取所述检测目标的第二目标特征信息。
其中,当前帧图像是指当下被目标跟踪设备读取的图像。
具体地,目标跟踪设备在确定多帧图像中的当前帧图像之后,在该当前帧图像中,通过目标检测算法对当前帧图像进行目标检测,获得检测目标。之后,目标跟踪设备从当前帧图像中,提取检测目标的第二目标特征信息。
本申请实施例中,通过在当前帧图像中确定检测目标,进而得到检测目标的第二目标特征信息,使得检测目标的第二目标特征信息更完整,进一步提高了目标跟踪的准确性。
在一个实施例中,涉及通过预先训练好的深度学习模型对当前帧图像进行目标检测,获得检测目标的具体过程。在上述实施例的基础上,S224包括以下步骤:
S232,将所述当前帧图像输入至目标检测模型进行目标检测中,得到所述当前帧图像中至少一个初始检测结果属于指定类别的概率,其中,所述目标检测模型包括预先训练好的深度学习模型;
S234,若所述初始检测结果属于指定类别的概率大于预设的指定概率阈值,则确定所述初始检测结果为检测目标。
具体地,目标跟踪设备将当前帧图像输入至目标检测模型进行目标检测,获得至少一个初始检测结果以及初始检测结果属于指定类别的概率。可以理解,初始检测结果对应的指定类别的概率可以为多个,例如,某一初始检测结果为人的概率为50%,为植物的概率为20%,为石头的概率为30%。之后对该初始检测结果属于指定类别的概率与对应的指定概率阈值进行比较,若初始检测结果属于指定类别的概率大于预设的指定概率阈值,则保留该初始检测结果,并将其确定为检测目标;否则,舍弃该初始检测结果。其中,预设的指定概率阈值可设定为0到1之间的任意数值。
进一步地,上述深度学习模型进行模型训练的具体过程可以为:首先,可以从采集的视频图像中提取各类目标图像样本,组成训练样本集。之后对该训练样本集中的图像样本进行整理,并在图像样本中标记各类目标。最后将这些标记好的图像样本用来训练深度学习模型,得到目标检测模型。更进一步地,在标记各类目标时,可选择边界框对目标进行标记,这样,训练好的目标检测模型还可以输出目标的边界框信息。其中,该边界框信息可用来确定目标在图像中的位置。
本申请实施例中,为了解决复杂背景下目标跟踪困难且跟踪精度低的情况,采用深度学习对当前帧图像进行目标检测。深度学习模型主要是利用各类目标图像样本进行模型训练,利用深度学习强大的目标特征提取能力来实现对目标的检测识别,从而达到目标准确检测的目的,进而实现对目标准确跟踪的有效辅助作用。
在一个实施例中,第一全局特征信息包括第一全局特征向量,第二全局特征信息包括第二全局特征向量。本实施例涉及利用第一卷积神经网络提取第一全局特征向量和第二全局特征向量的具体过程。在上述实施例的基础上,S204包括以下步骤:
S2042,将所述多帧图像输入至第一卷积神经网络中,得到所述第一全局特征向量和所述第二全局特征向量。
其中,第一卷积神经网络包括沙漏网络。
其中,全局特征信息的提取采用第一卷积神经网络,该第一卷积神经网络中加入了沙漏网络,主要通过叠加、综合多帧图像中的目标信息得到表示目标全局信息的特征。在实际应用中,通过将多帧图像中的目标的共同部分提取出来,形成较为稳定的形状轮廓。由于目标在持续运动过程中,其自身特征相对来说比较稳定,比如色彩、纹理等,但是背景部分有可能千变万化,因此该第一卷积神经网络将目标的共同部分提取出来,便能够得到目标轮廓,该目标轮廓通过全局特征向量表示。
具体地,目标跟踪设备将多帧图像输入至预先训练好的第一卷积神经网络中,即可得到第一全局特征向量和第二全局特征向量。
在一个实施例中,第一空间特征信息包括第一空间特征向量,第二空间特征信息包括第二空间特征向量。本实施例涉及利用第二卷积神经网络提取第一空间特征向量和第二空间特征向量的具体过程。在上述实施例的基础上,S204包括以下步骤:
S2044,将所述多帧图像输入至第二卷积神经网络中,得到所述第一空间特征向量和所述第二空间特征向量。
其中,空间特征信息的提取采用第二卷积神经网络,该第二卷积神经网络通过学习得到类似于相关滤波中高斯分布的响应图矩阵,用来表征目标的空间信息。因为一幅图像中不同位置的响应完全不同,目标所在位置的响应跟其他位置的差别也比较大,所以将多帧图像中目标所在位置进行训练学习网络,便可以得到目标的空间位置,该空间位置通过空间特征向量表示。
具体地,目标跟踪设备将多帧图像输入至预先训练好的第二卷积神经网络中,即可得到第一空间特征向量和第二空间特征向量。
在一个实施例中,第一通道特征信息包括第一通道特征向量,第二通道特征信息包括第二通道特征向量。本实施例涉及利用第三卷积神经网络提取第一通道特征向量和第二通道特征向量的具体过程。在上述实施例的基础上,S204包括以下步骤:
S2044,将所述多帧图像输入至第三卷积神经网络中,得到所述第一通道特征向量和所述第二通道特征向量。
其中,通道特征的提取采用第三卷积神经网络,该第三卷积神经网络通过对不同通道的特征进行加权处理得到目标的通道特征信息。因为通过第三卷积神经网络提取到的特征通常包含很多通道,其中每一层的通道都代表了某种特定的模式,在不同场景下,不同通道的作用和重要性极有很大的差异性。可选地,该第三卷积神经网络的网络结构主要包括1个全局池化层,2个全卷积层,1个ReLU(Rectified Linear Unit,修正线性单元)层以及1个Sigmoid层。
具体地,目标跟踪设备将多帧图像输入至预先训练好的第三卷积神经网络中,即可得到第一通道特征向量和第二通道特征向量。
在一个实施例中,请参阅图5,涉及根据第一目标特征信息和第二目标特征信息,确定多帧图像中跟踪目标的跟踪信息的一种可能的实现过程。在上述实施例的基础上,S206包括以下步骤:
S242,根据所述第一全局特征信息、所述第一空间特征信息和所述第一通道特征信息,获得所述跟踪目标的第一综合特征信息;
S244,根据所述第二全局特征信息、所述第二空间特征信息和所述第二通道特征信息,获得所述检测目标的第二综合特征信息;
S246,根据所述第一综合特征信息、所述第二综合特征信息以及预设的相似度判断条件,判断所述检测目标是否为所述跟踪目标;
S248,若判定所述检测目标为所述跟踪目标,则获取所述多帧图像中所述检测目标的位置信息,并将所述位置信息确定为所述跟踪信息。
具体地,目标跟踪设备基于第一全局特征信息、第一空间特征信息和第一通道特征信息,并根据预设的计算方式,计算得到跟踪目标对应的第一综合特征信息。同样地,目标跟踪设备基于第二全局特征信息、第二空间特征信息和第二通道特征信息,并根据预设的计算方式,计算得到检测目标对应的第二综合特征信息。之后,目标跟踪设备根据第一综合特征信息、第二综合特征信息以及预设的相似度判断条件进行检测目标与跟踪目标的相似度判断,若判定检测目标为跟踪目标,则获取多帧图像中检测目标的位置信息,并将该位置信息确定为跟踪信息。可选地,检测目标的位置信息可以是检测目标的坐标信息。
作为一种实施方式,S242包括:将所述第一全局特征向量与所述第一空间特征向量进行相加,得到第一相加结果;将所述第一相加结果与所述第一通道特征向量进行加权相乘,得到所述第一综合特征向量。
作为另一种实施方式,S244包括:将所述第二全局特征向量与所述第二空间特征向量进行相加,得到第二相加结果;将所述第二相加结果与所述第二通道特征向量进行加权相乘,得到所述第二综合特征向量。
具体地,基于上述实施例可知,目标特征信息包括特征向量。目标跟踪设备将提取的第一全局特征向量和第一空间特征向量按元素求和之后,再与第一通道特征向量按通道加权相乘,即可得到第一综合特征向量。同样地,目标跟踪设备将提取的第二全局特征向量和第二空间特征向量按元素求和之后,再与第二通道特征向量按通道加权相乘,即可得到第二综合特征向量。
在一个实施例中,请参阅图6,S246包括:
S252,计算所述第一综合特征向量和所述第二综合特征向量的最小余弦距离;
S254,若所述最小余弦距离小于预设的余弦距离阈值,则判定所述检测目标为所述跟踪目标。
具体地,目标跟踪设备在得到第一综合特征向量和第二综合特征向量之后,求取跟踪目标的第一综合特征向量和检测目标的第二综合特征向量的最小余弦距离,并根据预设的相似度判断条件,通过余弦距离阈值判断该最小余弦距离是否满足前述条件,若该最小余弦距离小于预设的余弦距离阈值,则判定该检测目标为当前帧图像中的跟踪目标,否则,对其他检测目标进行上述判断。
本申请实施例中,通过判断最小余弦距离与预设的余弦距离阈值的大小,将最小余弦距离小于预设的余弦距离阈值的检测目标确定为跟踪目标,提高了跟踪目标的判别准确性。
在一个实施例中,在判定检测目标为跟踪目标之后,所述方法还包括:保存所述检测目标对应的边界框图像。其中,该边界框图像是利用边界框在当前帧图像中所框出的包含检测目标的图像。进一步地,若判定在当前帧图像中的检测目标中没有跟踪目标后,则直接转到后一帧图像,同时保存上一帧图像中跟踪目标对应的边界框图像。其中,该边界框图像是利用边界框在基准帧图像中所框出的包含跟踪目标的图像。
本申请一实施例针对该适用于精准监控的目标跟踪方法的一实际场景进行了应用,具体是采用楼道监控视频,主要针对监控拍摄期间走动的行人进行处理。
视频开始后,当监控场景中出现行人时,此时对该行人目标进行检测和跟踪,如图9所示。首先,利用深度学习目标检测模型进行检测,图9中蓝色框为行人目标的检测结果,同时并对该行人目标进行特征提取,得到该目标的特征向量。为了后续方便实现对该行人目标的跟踪,本实施例利用当前帧图像中目标的特征向量作为基准特征向量,后续帧图像中检测的目标都与该特征向量进行相似度判断,该目标的基准特征向量如图10中终端显示的128维的向量。此外,图9中红色框为确定当前帧图像的跟踪目标,后续对该行人目标进行跟踪。
为了验证该方法能够准确的实现目标稳定跟踪,对该视频图像中作为跟踪目标的行人进行持续处理。如图11所示,上述作为跟踪目标的行人已经从画面中心行进到屏幕上方,同时发生了一定的形变。图11中红色框为该行人目标的检测结果,蓝色框为该行人目标的跟踪结果。从而可以说明,本实施例的方法提取到目标特征向量通过相似度判断能够准确的对目标进行跟踪,不受目标形变因素的影响。
应该理解的是,虽然图2-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种适用于精准监控的目标跟踪装置30,该装置包括:
图像获取模块302,用于获取多帧图像;
特征提取模块304,用于根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,所述第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;
目标跟踪模块306,用于根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
上述适用于精准监控的目标跟踪装置,通过获取多帧图像中跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息,基于该第一目标特征信息和第二目标特征信息,确定跟踪目标的跟踪信息,从而实现对跟踪目标的跟踪。本申请基于目标的全局特征信息、空间特征信息和通道特征信息进行不同目标的匹配,能够有效提高检测目标与跟踪目标匹配的准确性,进而提高了目标跟踪的准确性。
关于适用于精准监控的目标跟踪装置的具体限定可以参见上文中对于适用于精准监控的目标跟踪方法的限定,在此不再赘述。上述适用于精准监控的目标跟踪装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种适用于精准监控的目标跟踪方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取多帧图像;
根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,所述第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;
根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
上述计算机设备,通过获取多帧图像中跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息,基于该第一目标特征信息和第二目标特征信息,确定跟踪目标的跟踪信息,从而实现对跟踪目标的跟踪。本申请基于目标的全局特征信息、空间特征信息和通道特征信息进行不同目标的匹配,能够有效提高检测目标与跟踪目标匹配的准确性,进而提高了目标跟踪的准确性。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取多帧图像;
根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,所述第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;
根据所述第一目标特征信息和所述第二目标特征信息,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
上述计算机可读存储介质,通过获取多帧图像中跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息,基于该第一目标特征信息和第二目标特征信息,确定跟踪目标的跟踪信息,从而实现对跟踪目标的跟踪。本申请基于目标的全局特征信息、空间特征信息和通道特征信息进行不同目标的匹配,能够有效提高检测目标与跟踪目标匹配的准确性,进而提高了目标跟踪的准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。
Claims (13)
1.一种适用于精准监控的目标跟踪方法,其特征在于,所述方法包括:
获取多帧图像;
根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述跟踪目标为已确定跟踪的目标,所述第一目标特征信息包括第一全局特征向量、第一空间特征向量和第一通道特征向量,所述检测目标为待确定跟踪的目标,所述第二目标特征信息包括第二全局特征向量、第二空间特征向量和第二通道特征向量;
将所述第一全局特征向量与所述第一空间特征向量进行相加,得到第一相加结果;
将所述第一相加结果与所述第一通道特征向量进行加权相乘,得到所述跟踪目标的第一综合特征向量;
将所述第二全局特征向量与所述第二空间特征向量进行相加,得到第二相加结果;
将所述第二相加结果与所述第二通道特征向量进行加权相乘,得到所述检测目标的第二综合特征向量;
根据所述第一综合特征向量和所述第二综合特征向量,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
获取所述多帧图像中的基准帧图像;
确定所述基准帧图像中的跟踪目标;
提取所述跟踪目标的第一目标特征信息。
3.根据权利要求1所述的方法,其特征在于,所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
获取所述多帧图像中的当前帧图像;
对所述当前帧图像进行目标检测,获得所述检测目标;
提取所述检测目标的第二目标特征信息。
4.根据权利要求3所述的方法,其特征在于,所述对所述当前帧图像进行目标检测,获得所述检测目标,包括:
将所述当前帧图像输入至目标检测模型进行目标检测中,得到所述当前帧图像中至少一个初始检测结果属于指定类别的概率,其中,所述目标检测模型包括预先训练好的深度学习模型;
若所述初始检测结果属于指定类别的概率大于预设的指定概率阈值,则确定所述初始检测结果为检测目标。
5.根据权利要求1所述的方法,其特征在于,所述第一全局特征信息包括第一全局特征向量,所述第二全局特征信息包括第二全局特征向量;
所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
将所述多帧图像输入至第一卷积神经网络中,得到所述第一全局特征向量和所述第二全局特征向量,其中,所述第一卷积神经网络包括沙漏网络。
6.根据权利要求1所述的方法,其特征在于,所述第一空间特征信息包括第一空间特征向量,所述第二空间特征信息包括第二空间特征向量;
所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
将所述多帧图像输入至第二卷积神经网络中,得到所述第一空间特征向量和所述第二空间特征向量。
7.根据权利要求1所述的方法,其特征在于,所述第一通道特征信息包括第一通道特征向量,所述第二通道特征信息包括第二通道特征向量;
所述根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,包括:
将所述多帧图像输入至第三卷积神经网络中,得到所述第一通道特征向量和所述第二通道特征向量。
8.根据权利要求1所述的方法,其特征在于,所述根据所述第一综合特征向量和所述第二综合特征向量,确定所述多帧图像中所述跟踪目标的跟踪信息,包括:
根据所述第一综合特征向量、所述第二综合特征向量以及预设的相似度判断条件,判断所述检测目标是否为所述跟踪目标;
若判定所述检测目标为所述跟踪目标,则获取所述多帧图像中所述检测目标的位置信息,并将所述位置信息确定为所述跟踪信息。
9.根据权利要求8所述的方法,其特征在于,所述根据所述第一综合特征向量、所述第二综合特征向量以及预设的相似度判断条件,判断所述检测目标是否为所述跟踪目标,包括:
计算所述第一综合特征向量和所述第二综合特征向量的最小余弦距离;
若所述最小余弦距离小于预设的余弦距离阈值,则判定所述检测目标为所述跟踪目标。
10.根据权利要求9所述的方法,其特征在于,在判定所述检测目标为所述跟踪目标之后,所述方法还包括:
保存所述检测目标对应的边界框图像。
11.一种适用于精准监控的目标跟踪装置,其特征在于,所述装置包括:
图像获取模块,用于获取多帧图像;
特征提取模块,用于根据所述多帧图像,确定跟踪目标的第一目标特征信息和检测目标的第二目标特征信息,其中,所述第一目标特征信息包括第一全局特征信息、第一空间特征信息和第一通道特征信息,所述第二目标特征信息包括第二全局特征信息、第二空间特征信息和第二通道特征信息;
目标跟踪模块,用于将所述第一全局特征向量与所述第一空间特征向量进行相加,得到第一相加结果;将所述第一相加结果与所述第一通道特征向量进行加权相乘,得到所述跟踪目标的第一综合特征向量;将所述第二全局特征向量与所述第二空间特征向量进行相加,得到第二相加结果;将所述第二相加结果与所述第二通道特征向量进行加权相乘,得到所述检测目标的第二综合特征向量;根据所述第一综合特征向量和所述第二综合特征向量,确定所述多帧图像中所述跟踪目标的跟踪信息,并根据所述跟踪信息对所述跟踪目标进行跟踪。
12.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至10中任一项所述的方法的步骤。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至10中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910711548.XA CN110516559B (zh) | 2019-08-02 | 2019-08-02 | 适用于精准监控的目标跟踪方法及装置、计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910711548.XA CN110516559B (zh) | 2019-08-02 | 2019-08-02 | 适用于精准监控的目标跟踪方法及装置、计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110516559A CN110516559A (zh) | 2019-11-29 |
CN110516559B true CN110516559B (zh) | 2022-02-22 |
Family
ID=68624149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910711548.XA Active CN110516559B (zh) | 2019-08-02 | 2019-08-02 | 适用于精准监控的目标跟踪方法及装置、计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110516559B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743163A (zh) * | 2020-05-29 | 2021-12-03 | 中移(上海)信息通信科技有限公司 | 交通目标识别模型训练方法、交通目标定位方法、装置 |
CN112819859B (zh) * | 2021-02-02 | 2023-06-02 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230353A (zh) * | 2017-03-03 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标跟踪方法、系统及电子设备 |
CN108537775A (zh) * | 2018-03-02 | 2018-09-14 | 浙江工业大学 | 一种基于深度学习检测的癌细胞跟踪方法 |
CN109086648A (zh) * | 2018-05-24 | 2018-12-25 | 同济大学 | 一种融合目标检测和特征匹配的目标跟踪方法 |
CN109816694A (zh) * | 2019-01-28 | 2019-05-28 | 北京旷视科技有限公司 | 目标跟踪方法、装置及电子设备 |
CN110033012A (zh) * | 2018-12-28 | 2019-07-19 | 华中科技大学 | 一种基于通道特征加权卷积神经网络的生成式目标跟踪方法 |
-
2019
- 2019-08-02 CN CN201910711548.XA patent/CN110516559B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230353A (zh) * | 2017-03-03 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标跟踪方法、系统及电子设备 |
CN108537775A (zh) * | 2018-03-02 | 2018-09-14 | 浙江工业大学 | 一种基于深度学习检测的癌细胞跟踪方法 |
CN109086648A (zh) * | 2018-05-24 | 2018-12-25 | 同济大学 | 一种融合目标检测和特征匹配的目标跟踪方法 |
CN110033012A (zh) * | 2018-12-28 | 2019-07-19 | 华中科技大学 | 一种基于通道特征加权卷积神经网络的生成式目标跟踪方法 |
CN109816694A (zh) * | 2019-01-28 | 2019-05-28 | 北京旷视科技有限公司 | 目标跟踪方法、装置及电子设备 |
Non-Patent Citations (1)
Title |
---|
ECO: Efficient Convolution Operators for Tracking;Martin Danelljan et al;《arXiv:1611.09224v1》;20161128;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110516559A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490902B (zh) | 应用于智慧城市的目标跟踪方法、装置、计算机设备 | |
CN110807385B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN108446585B (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN110516620B (zh) | 目标跟踪方法、装置、存储介质及电子设备 | |
CN110674712A (zh) | 交互行为识别方法、装置、计算机设备和存储介质 | |
CN113239874B (zh) | 基于视频图像的行为姿态检测方法、装置、设备及介质 | |
CN110852285A (zh) | 对象检测方法、装置、计算机设备和存储介质 | |
CN113255915B (zh) | 基于结构化实例图的知识蒸馏方法、装置、设备和介质 | |
CN111062263B (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN111612822B (zh) | 对象跟踪方法、装置、计算机设备和存储介质 | |
CN111666922A (zh) | 视频匹配方法、装置、计算机设备和存储介质 | |
CN110826484A (zh) | 车辆重识别的方法、装置、计算机设备及模型训练方法 | |
CN109615904A (zh) | 停车管理方法、装置、计算机设备和存储介质 | |
CN110516559B (zh) | 适用于精准监控的目标跟踪方法及装置、计算机设备 | |
CN111047088A (zh) | 预测图像获取方法、装置、计算机设备和存储介质 | |
CN113034514A (zh) | 天空区域分割方法、装置、计算机设备和存储介质 | |
CN111832561B (zh) | 基于计算机视觉的字符序列识别方法、装置、设备和介质 | |
CN111275743A (zh) | 目标追踪方法、装置、计算机可读存储介质和计算机设备 | |
CN111353429A (zh) | 基于眼球转向的感兴趣度方法与系统 | |
CN113557546B (zh) | 图像中关联对象的检测方法、装置、设备和存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN111291716A (zh) | 精子细胞识别方法、装置、计算机设备和存储介质 | |
CN110569921A (zh) | 一种车标识别方法、系统、装置及计算机可读介质 | |
CN112444251A (zh) | 车辆行车位置确定方法、装置、存储介质及计算机设备 | |
CN113793362B (zh) | 基于多镜头视频的行人轨迹提取方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |