CN112084876A - 一种目标对象追踪方法、系统、装置及介质 - Google Patents

一种目标对象追踪方法、系统、装置及介质 Download PDF

Info

Publication number
CN112084876A
CN112084876A CN202010811593.5A CN202010811593A CN112084876A CN 112084876 A CN112084876 A CN 112084876A CN 202010811593 A CN202010811593 A CN 202010811593A CN 112084876 A CN112084876 A CN 112084876A
Authority
CN
China
Prior art keywords
target object
identification
determining
information
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010811593.5A
Other languages
English (en)
Other versions
CN112084876B (zh
Inventor
肖益珊
卢玉芳
丁小丽
郑涛
彭司宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastone Century Technology Co ltd
Original Assignee
Eastone Century Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastone Century Technology Co ltd filed Critical Eastone Century Technology Co ltd
Priority to CN202010811593.5A priority Critical patent/CN112084876B/zh
Publication of CN112084876A publication Critical patent/CN112084876A/zh
Application granted granted Critical
Publication of CN112084876B publication Critical patent/CN112084876B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标对象追踪方法、系统、装置及介质,方法包括:获取不同视频源的数据信息;根据数据信息确定正样本集和负样本集;根据正样本集和所述负样本集,训练得到每个视频源的识别模型。将识别模型与对应视频源中的数据信息进行对接,并通过识别模型对对应视频源中的数据信息中的目标对象进行识别标记;根据识别标记的结果,获取每类目标对象的轨迹概率模型;配置每个目标对象的个性信息;根据目标对象的个性信息,通过识别模型确定目标对象;根据轨迹概率模型,确定目标对象的地理位置信息。本发明结合了构建了轨迹概率模型,提高了目标对象的识别准确率,且降低了识别成本,更加易于实现,可广泛应用于图像处理技术领域。

Description

一种目标对象追踪方法、系统、装置及介质
技术领域
本发明涉及图像处理技术领域,尤其是一种目标对象追踪方法、系统、装置及介质。
背景技术
目前,随着世界安全形势越来越严峻,城市中的通缉犯、逃跑的犯人、被盗车辆等严重威胁城市公民的生活安全。人们需要对这些特殊类型的目标进行监控,并跟踪预测该类目标的移动轨迹。这需要对该类目标进行识别,并且需要把该类目标所在的位置标识在城市地图上,以方便警方对其进行控制。
相关技术一般利用图像识别方法对没有携带相应的设备或标签的目标群体进行跟踪。
现有的图像识别技术都是基于图像识别原理进行,大部分都是利用现成的软件或模型,这些软件和模型具有通用性,但不具有针对性,对特定场景、特定目标群体的识别率较低,容易造成误判或遗漏,特别是当目标用户没有明晰的、具体的信息(如近期的照片等)时,增加了识别的难度。
现有技术确定目标用户的路径之前,一般是采用遍历检索,计算所有的路径可能性,才选取最优路径,消耗的资源和时间都比较多,不能快速定位目标用户的路径。而在不同场景下,目标用户因为个人的习惯、需求,可能路径变得更多,对资源和时间的要求也越多。
发明内容
有鉴于此,本发明实施例提供一种识别率高且易于实现的目标对象追踪方法、系统、装置及介质。
本发明的第一方面提供了一种目标对象追踪方法,包括:
获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;
根据所述数据信息确定正样本集和负样本集;
根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型;
将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;
根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;
配置每个目标对象的个性信息;
根据所述目标对象的个性信息,通过所述识别模型确定目标对象;
根据所述轨迹概率模型,确定所述目标对象的地理位置信息。
在一些实施例中,所述获取不同视频源的数据信息,包括:
获取不同视频源所在的地理位置信息以及视频源IP;
获取视频源的信息以及所述不同视频源中出现的样本目标对象的个性信息;
通过调整视频源的摄影角度和摄影高度,获取不同视频源在不同时间段的视频集。
在一些实施例中,所述根据所述数据信息确定正样本集和负样本集,包括:
检测所述数据信息中是否含有样本目标对象,将含有样本目标对象的数据信息确定为正样本集,将不含有所述样本目标对象的数据信息确定为负样本集。
在一些实施例中,所述根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型,包括:
基于预设比例,从所述正样本集和所述负样本集中抽取训练集、测试集和验证集;
基于深度残差网络的深度卷积神经网络模型,通过所述训练集、测试集和验证集训练得到识别模型;
配置所述识别模型的识别维度,得到每个视频源对应的识别模型;
其中,所述识别维度包括人脸识别、身高识别、体重识别、年龄识别、性别识别以及衣着识别。
在一些实施例中,所述根据所述识别标记的结果,获取每类目标对象的轨迹概率模型,包括:
根据标记的结果,按照时间序列,获取每类目标对象从一个视频源切换到临近的视频源的统计数;
根据所述统计数,计算一个时间单位内每类目标用户从一个视频源切换到另一个视频源的概率,并构建得到每类目标对象的轨迹概率模型。
在一些实施例中,所述根据所述目标对象的个性信息,通过所述识别模型确定目标对象,包括:
将所述目标对象的个性信息转化为多维的向量结构,确定所述目标对象的向量;
通过所述识别模型从各个视频源中识别得到疑似对象,并确定所述疑似对象的向量;
计算所述目标对象的向量与所述疑似对象的向量之间的余弦相似度;
根据计算得到的各个余弦相似度,确定目标对象。
在一些实施例中,所述根据所述轨迹概率模型,确定所述目标对象的地理位置信息,包括:
确定所述目标对象的个性信息;
根据所述目标对象的个性信息,通过所述轨迹概率模型确定所述目标对象的当前所在区域;
根据所述目标对象的当前所在区域,确定所述目标对应的地理位置信息。
本发明的第二方面提供了一种目标对象追踪系统,包括:
获取模块,用于获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;
样本确定模块,用于根据所述数据信息确定正样本集和负样本集;
训练模块,用于根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型;
标记模块,用于将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;
轨迹概率模型构建模块,用于根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;
输入模块,用于配置每个目标对象的个性信息;
锁定模块,用于根据所述目标对象的个性信息,通过所述识别模型确定目标对象;
输出模块,用于根据所述轨迹概率模型,确定所述目标对象的地理位置信息。
本发明的第三方面提供了一种装置,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器用于根据所述程序执行如本发明第一方面所述的目标对象追踪方法。
本发明的第四方面提供了一种存储介质,所述存储介质存储有程序,所述程序被处理器执行完成如本发明第一方面所述的目标对象追踪方法。
本发明获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;根据所述数据信息确定正样本集和负样本集;根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型;将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;配置每个目标对象的个性信息;根据所述目标对象的个性信息,通过所述识别模型确定目标对象;根据所述轨迹概率模型,确定所述目标对象的地理位置信息。本发明结合了构建了轨迹概率模型,提高了目标对象的识别准确率,且降低了识别成本,更加易于实现。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的整体步骤流程图;
图2为本发明实施例的云计算平台的视频应用架构示意图;
图3为本发明实施例的轨迹概率示意图;
图4为本发明实施例的残差块的结构示意图。
具体实施方式
下面结合说明书附图和具体实施例对本发明作进一步解释和说明。对于本发明实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
针对现有技术存在的问题,本发明实施例提供了一种目标对象追踪方法,如图1所示,本发明的方法包括以下步骤:
S1、获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;
具体地,在模型训练之前,需要获取对应的样本集。本实施例以每个视频源(例如摄像头等)为一个单位,收集不同视频单位的信息,其中包括位置信息和图片信息。
本实施例的步骤S1包括步骤S11-S13:
S11、获取不同视频源所在的地理位置信息以及视频源IP;
本实施例的位置信息包括视频源所在的地理位置信息(能方便后续快速定位视频源所在地的语言描述或编号)、对应的物体ip(方便计算机记忆及储存的唯一标识)。
S12、获取视频源的信息以及所述不同视频源中出现的样本目标对象的个性信息;
本实施例对出现在视频源里面的样本目标用户进行信息记录,包括样本目标用户的个人信息和视频单位信息。例如可以是调查问卷等方式来获取。
S13、通过调整视频源的摄影角度和摄影高度,获取不同视频源在不同时间段的视频集。
本实施例为了增加样本的多样性,需要获取不同视频单位不同时间段的视频集,或调整视频源摄影的角度、高度等来获取视频集。
S2、根据所述数据信息确定正样本集和负样本集;
本实施例的步骤S2具体为:检测所述数据信息中是否含有样本目标对象,将含有样本目标对象的数据信息确定为正样本集,将不含有所述样本目标对象的数据信息确定为负样本集。
本实施例对收集到的视频集进行剪切,并进行图片分类,含有样本目标群体的为正样本集,没有样本目标群体的为负样本集。然后结合步骤S12中收集到的个性信息,对正样本集进行标注。
S3、根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型。
本实施例的步骤S3包括S31-S33:
S31、基于预设比例,从所述正样本集和所述负样本集中抽取训练集、测试集和验证集;
本实施例将获取的正样本集和负样本集按1∶3比例进行随机抽取,将70%、20%、10%的样本集分别作为训练集、测试集、验证集;
S32、基于深度残差网络的深度卷积神经网络模型,通过所述训练集、测试集和验证集训练得到识别模型;
本实施例的模型训练基于深度残差网络的深度卷积神经网络模型,利用随机化ReLU函数进行收敛,利用随机失活降低训练过程中的参数规模,降低网络中参数规模,提高模型的泛化性。用训练集进行模型训练,使用测试集进行测试,将测试错误的样本集重新放入训练集,调整训练集正负样本的比例,再进行模型训练,增加模型识别的正确性。
其中,深度残差网络主要是由3*3的卷积核和2*2的最大池化层反复堆叠构建而成,其核心是通过残差结构有效解决卷积神经网络在网络层数加深时因梯度弥散导致的退化问题。深度残差网络通常由多个残差块结构重叠形成,残差块结构如图4所示:在残差块结构中,通过把输入x传到输出作为结果,可得残差项:F(x)=H(x)-x。
卷积神经网络的若干线性操作层的重叠只能起到线性映射作用,要想实现非线性映射,增强整个网络的表达能力,往往需要在神经网络不同层之间增加激励函数。经典的神经网络激励函数包括Sigmoid函数、tanh函数和ReLU函数,其中ReLU函数全称叫修正线性单元,其公式:
Figure BDA0002631176720000051
当x<0时,ReLU函数输出值为0,会造成小于0的这部分结果无法影响到后续的网络训练。为了缓解这种现象,引用了随机化ReLU激励函数,其公式:
Figure BDA0002631176720000052
其中随机因子a′在训练阶段服从均匀分布。
随机失活是为解决深度神经网络的过拟合(overfitting)和梯度消失(gradientvanishing)问题而被提出的优化方法。关键思想是在训练期间从神经网络中随机丢弃单位(及其连接)。这可以防止单位共适应太多。在训练期间,从指数数量的不同“稀疏”网络中抽取样本。在测试时,通过简单地使用具有较小权重的单个未加网络的网络,很容易近似平均所有这些稀疏网络的预测的效果。
S33、配置所述识别模型的识别维度,得到每个视频源对应的识别模型;
其中,所述识别维度包括人脸识别、身高识别、体重识别、年龄识别、性别识别以及衣着识别。
本实施例增加了模型识别维度,通过调整参数,得到每个视频单位独立的识别模型。其中识别的维度包括但不限于人脸识别(包括脸的轮廓、眉毛、眼睛、鼻子、嘴巴、耳朵、头发)、身高识别、体重识别、年龄识别、性别识别、衣着识别(包括颜色、款式等)。
需要说明的是,现有图像识别技术在对目标用户进行识别时,一般基于人脸识别,本发明不止对人脸进行识别,还对目标群体的体重、身高、性别、年龄、衣着等进行多维度识别并建立综合的识别模型,增加识别精准度。
另外,现有技术一般基于现成的图像识别软件或模型进行识别目标用户,但这种方法受到环境的因素(光照、角度、高度等)和设备因素对视频流影响较大,本发明针对每个视频源(如摄像头等)所获取的目标群体进行训练,建立有针对性、多维度的识别模型,识别精度更高;
S4、将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;
本实施例的步骤S4中,如图2所示,本实施例基于云计算平台视频应用架构设计,将步骤S33得到的每个单位识别模型作为应用软件模块存放在服务器上,建立应用接口,与视频单位的视频流(视频储存版块)进行对接,使得识别模型能直接对视频流里面的目标群体进行识别并标注。
S5、根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;
本实施例的步骤S5包括S51和S52:
S51、根据标记的结果,按照时间序列,获取每类目标对象从一个视频源切换到临近的视频源的统计数;
S52、根据所述统计数,计算一个时间单位内每类目标用户从一个视频源切换到另一个视频源的概率,并构建得到每类目标对象的轨迹概率模型。
因为每类的目标用户在不同的场景因个人的习惯、需求等,从而导致选择的路径存在差异,例如小孩与成年人,女性与男性等等。因此,本实施例将步骤S4得到的目标对象的标记结果,运用运筹学算法中的贪心算法,按时间序列,得到每类目标用户从一个视频单位切换到临近的视频单位的统计数,从而计算一个时间单位内每类目标用户从一个视频单位切换到另一个视频单位的概率,从而得到轨迹概率模型,具体图示如图3所示。参见图3,例如视频单位E附近有4条路径,每条路径上有对应的视频单位,对于类别标记为1的目标用户,行走轨迹概率可能为:p%>y%>q%>k%,对于类别标记为2的目标用户,行走轨迹概率可能为:q%>p%>y%>k%,这就为后续检索顺序提供依据。
其中,贪心算法是一种对某些求最优解问题的更简单、更迅速的设计技术。贪心算法的特点是一步一步地进行,常以当前情况为基础根据某个优化测度作最优选择,而不考虑各种可能的整体情况,省去了为找最优解要穷尽所有可能而必须耗费的大量时间。随着算法的进行,将积累起其他两个集合:一个包含已经被考虑过并被选出的候选对象,另一个包含已经被考虑过但被丢弃的候选对象。
贪心算法的步骤一般包括:1、建立数学模型来描述问题;2、把求解的问题分成若干个子问题;3、对每个子问题求解,得到子问题的局部最优解;4、把子问题的局部最优解合成原来求解问题的一个解。
本发明通过运筹学算法,针对每类目标用户群体,计算每个路径可能行走概率,对概率高的路径所在摄像头信息进行优先检索。
S6、配置每个目标对象的个性信息;
具体地,本实施例根据实际需求,输入目标用户的信息。按照信息的明晰度可分为精准搜索和模糊搜索。精准搜索所需要的信息包括但不限于目标用户出现的地理位置、出现的时间、近期照片,具体的身高、体重、年龄、性别、衣着等。当不能提供用户明晰信息时,可通过模糊搜索,其中模糊搜索所需要的信息包括但不限于目标用户出现的地理位置、出现的时间、近期照片,具体的身高、体重、年龄、性别、衣着中一个或多个信息点,或者这些信息点的范围值或阈值。
S7、根据所述目标对象的个性信息,通过所述识别模型确定目标对象;
本实施例的步骤S7包括S71-S74:
S71、将所述目标对象的个性信息转化为多维的向量结构,确定所述目标对象的向量;
本实施例将步骤S6得到的个性信息转化为多维的向量结构,如第一维度a1:是否长发;第二维度a2:是否双眼皮;......即可以得到需要寻找的目标用户向量A=(a1,a2,...,an),n是纬度个数;
S72、通过所述识别模型从各个视频源中识别得到疑似对象,并确定所述疑似对象的向量;
本实施例结合步骤S3训练得到的识别模型,对疑似对象进行识别,分别得到这些疑似对象的向量B1=(b11,b12,...b1n),B2=(b21,b22,...,b2n),......Bm=(bm1,bm2,...,bmn),其中,m是疑似目标个数。
S73、计算所述目标对象的向量与所述疑似对象的向量之间的余弦相似度;
本实施例的余弦相似度公式为:
Figure BDA0002631176720000081
本实施例确定得到目标对象与疑似对象的相似度分别为
Figure BDA0002631176720000082
后,可以按相似度高到低的顺序输出;
S74、根据计算得到的各个余弦相似度,确定目标对象。
本实施例可以根据输出的相似度的结果,将最相似的疑似对象确定为目标对象。
也就是说,现有技术一般基于明确的目标样例进行检索,而本发明可以在只知道目标群体部分信息时,通过各自的识别模型进行多维度识别,计算每个疑似目标对象的相似度,选取相似度大于某个阈值的疑似目标对象,倒序排列后再进行人工排查,确定目标对象;
S8、根据所述轨迹概率模型,确定所述目标对象的地理位置信息。
本实施例的步骤S8包括S81-S83:
S81、确定所述目标对象的个性信息;
S82、根据所述目标对象的个性信息,通过所述轨迹概率模型确定所述目标对象的当前所在区域;
S83、根据所述目标对象的当前所在区域,确定所述目标对应的地理位置信息。
具体地,本实施例根据目标用户信息,结合轨迹概率模型和位置信息系统,锁定目标用户当前所在区域,输出所在区域的地理位置信息;以及,根据目标用户信息,实时跟踪,并输出对应的地理位置信息。
另外,本实施例还可以根据输出的目标用户信息和地理位置信息,通知所在区域的安保系统、广播系统。
最后,根据实际应用场景的需要,关闭识别结果系统、安保系统、广播系统等。
本发明实施例还提供了一种目标对象追踪系统,包括:
获取模块,用于获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;
样本确定模块,用于根据所述数据信息确定正样本集和负样本集;
训练模块,用于根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型。
标记模块,用于将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;
轨迹概率模型构建模块,用于根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;
输入模块,用于配置每个目标对象的个性信息;
锁定模块,用于根据所述目标对象的个性信息,通过所述识别模型确定目标对象;
输出模块,用于根据所述轨迹概率模型,确定所述目标对象的地理位置信息。
本发明实施例还提供了一种装置,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器用于根据所述程序执行如图1所示的目标对象追踪方法。
本发明实施例还提供了一种存储介质,所述存储介质存储有程序,所述程序被处理器执行完成如图1所示的目标对象追踪方法。
综上所述,本发明对目标用户群体进行多维度识别,建立有针对性的多维度综合识别模型,提高目标用户的识别率;对目标用户信息不明晰的情况下也可以进行识别;运用运筹学中的贪心算法,通过追求局部的最优解,逐步推进,最后锁定目标用户,从而减少资源的消耗,提高检索的速度。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种目标对象追踪方法,其特征在于,包括:
获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;
根据所述数据信息确定正样本集和负样本集;
根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型;
将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;
根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;
配置每个目标对象的个性信息;
根据所述目标对象的个性信息,通过所述识别模型确定目标对象;
根据所述轨迹概率模型,确定所述目标对象的地理位置信息。
2.根据权利要求1所述的一种目标对象追踪方法,其特征在于,所述获取不同视频源的数据信息,包括:
获取不同视频源所在的地理位置信息以及视频源IP;
获取视频源的信息以及所述不同视频源中出现的样本目标对象的个性信息;
通过调整视频源的摄影角度和摄影高度,获取不同视频源在不同时间段的视频集。
3.根据权利要求1所述的一种目标对象追踪方法,其特征在于,所述根据所述数据信息确定正样本集和负样本集,包括:
检测所述数据信息中是否含有样本目标对象,将含有样本目标对象的数据信息确定为正样本集,将不含有所述样本目标对象的数据信息确定为负样本集。
4.根据权利要求1所述的一种目标对象追踪方法,其特征在于,所述根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型,包括:
基于预设比例,从所述正样本集和所述负样本集中抽取训练集、测试集和验证集;
基于深度残差网络的深度卷积神经网络模型,通过所述训练集、测试集和验证集训练得到识别模型;
配置所述识别模型的识别维度,得到每个视频源对应的识别模型;
其中,所述识别维度包括人脸识别、身高识别、体重识别、年龄识别、性别识别以及衣着识别。
5.根据权利要求1所述的一种目标对象追踪方法,其特征在于,所述根据所述识别标记的结果,获取每类目标对象的轨迹概率模型,包括:
根据标记的结果,按照时间序列,获取每类目标对象从一个视频源切换到临近的视频源的统计数;
根据所述统计数,计算一个时间单位内每类目标用户从一个视频源切换到另一个视频源的概率,并构建得到每类目标对象的轨迹概率模型。
6.根据权利要求1所述的一种目标对象追踪方法,其特征在于,所述根据所述目标对象的个性信息,通过所述识别模型确定目标对象,包括:
将所述目标对象的个性信息转化为多维的向量结构,确定所述目标对象的向量;
通过所述识别模型从各个视频源中识别得到疑似对象,并确定所述疑似对象的向量;
计算所述目标对象的向量与所述疑似对象的向量之间的余弦相似度;
根据计算得到的各个余弦相似度,确定目标对象。
7.根据权利要求1所述的一种目标对象追踪方法,其特征在于,所述根据所述轨迹概率模型,确定所述目标对象的地理位置信息,包括:
确定所述目标对象的个性信息;
根据所述目标对象的个性信息,通过所述轨迹概率模型确定所述目标对象的当前所在区域;
根据所述目标对象的当前所在区域,确定所述目标对应的地理位置信息。
8.一种目标对象追踪系统,其特征在于,包括:
获取模块,用于获取不同视频源的数据信息;所述数据信息包括位置信息和图片信息;
样本确定模块,用于根据所述数据信息确定正样本集和负样本集;
训练模块,用于根据所述正样本集和所述负样本集,训练得到每个视频源的识别模型;
标记模块,用于将所述识别模型与对应视频源中的数据信息进行对接,并通过所述识别模型对所述对应视频源中的数据信息中的目标对象进行识别标记;
轨迹概率模型构建模块,用于根据所述识别标记的结果,获取每类目标对象的轨迹概率模型;
输入模块,用于配置每个目标对象的个性信息;
锁定模块,用于根据所述目标对象的个性信息,通过所述识别模型确定目标对象;
输出模块,用于根据所述轨迹概率模型,确定所述目标对象的地理位置信息。
9.一种装置,其特征在于,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器用于根据所述程序执行如权利要求1-7中任一项所述的目标对象追踪方法。
10.一种存储介质,其特征在于,所述存储介质存储有程序,所述程序被处理器执行完成如权利要求1-7中任一项所述的目标对象追踪方法。
CN202010811593.5A 2020-08-13 2020-08-13 一种目标对象追踪方法、系统、装置及介质 Active CN112084876B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010811593.5A CN112084876B (zh) 2020-08-13 2020-08-13 一种目标对象追踪方法、系统、装置及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010811593.5A CN112084876B (zh) 2020-08-13 2020-08-13 一种目标对象追踪方法、系统、装置及介质

Publications (2)

Publication Number Publication Date
CN112084876A true CN112084876A (zh) 2020-12-15
CN112084876B CN112084876B (zh) 2024-05-03

Family

ID=73729227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010811593.5A Active CN112084876B (zh) 2020-08-13 2020-08-13 一种目标对象追踪方法、系统、装置及介质

Country Status (1)

Country Link
CN (1) CN112084876B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113162899A (zh) * 2021-01-08 2021-07-23 公安部第三研究所 基于5g通讯实现系统智能化执法的应用平台系统、方法、装置、处理器及其存储介质
CN113449784A (zh) * 2021-06-18 2021-09-28 宜通世纪科技股份有限公司 基于先验属性图谱的图像多分类方法、装置、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140347475A1 (en) * 2013-05-23 2014-11-27 Sri International Real-time object detection, tracking and occlusion reasoning
CN106559645A (zh) * 2015-09-25 2017-04-05 杭州海康威视数字技术股份有限公司 基于摄像机的监控方法、系统和装置
CN110232706A (zh) * 2019-06-12 2019-09-13 睿魔智能科技(深圳)有限公司 多人跟拍方法、装置、设备及存储介质
US20190325205A1 (en) * 2018-07-03 2019-10-24 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for human behavior recognition, and storage medium
CN110378931A (zh) * 2019-07-10 2019-10-25 成都数之联科技有限公司 一种基于多摄像头的行人目标移动轨迹获取方法及系统
CN111354023A (zh) * 2020-03-09 2020-06-30 中振同辂(江苏)机器人有限公司 一种基于摄像头的视觉多目标跟踪方法
CN111353555A (zh) * 2020-05-25 2020-06-30 腾讯科技(深圳)有限公司 一种标注检测方法、装置及计算机可读存储介质
CN111523596A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140347475A1 (en) * 2013-05-23 2014-11-27 Sri International Real-time object detection, tracking and occlusion reasoning
CN106559645A (zh) * 2015-09-25 2017-04-05 杭州海康威视数字技术股份有限公司 基于摄像机的监控方法、系统和装置
US20190325205A1 (en) * 2018-07-03 2019-10-24 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for human behavior recognition, and storage medium
CN110232706A (zh) * 2019-06-12 2019-09-13 睿魔智能科技(深圳)有限公司 多人跟拍方法、装置、设备及存储介质
CN110378931A (zh) * 2019-07-10 2019-10-25 成都数之联科技有限公司 一种基于多摄像头的行人目标移动轨迹获取方法及系统
CN111354023A (zh) * 2020-03-09 2020-06-30 中振同辂(江苏)机器人有限公司 一种基于摄像头的视觉多目标跟踪方法
CN111523596A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN111353555A (zh) * 2020-05-25 2020-06-30 腾讯科技(深圳)有限公司 一种标注检测方法、装置及计算机可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ERGYS RISTANI等: "Features for Multi-Target Multi-Camera Tracking and Re-Identification", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 16 December 2018 (2018-12-16), pages 6036 - 6046 *
王选贺: "跨摄像机多人体目标的跟踪研究", 《中国博士学位论文全文数据库信息科技辑》, no. 07, 15 July 2011 (2011-07-15), pages 138 - 68 *
肖旭章: "基于人脸跟踪识别的多摄像头调度系统的研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 08, 15 August 2019 (2019-08-15), pages 138 - 888 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113162899A (zh) * 2021-01-08 2021-07-23 公安部第三研究所 基于5g通讯实现系统智能化执法的应用平台系统、方法、装置、处理器及其存储介质
CN113449784A (zh) * 2021-06-18 2021-09-28 宜通世纪科技股份有限公司 基于先验属性图谱的图像多分类方法、装置、设备及介质
CN113449784B (zh) * 2021-06-18 2024-04-05 宜通世纪科技股份有限公司 基于先验属性图谱的图像多分类方法、装置、设备及介质

Also Published As

Publication number Publication date
CN112084876B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
Zhu et al. Cms-rcnn: contextual multi-scale region-based cnn for unconstrained face detection
Rao et al. A unified framework for shot type classification based on subject centric lens
Wang et al. Learning attentional recurrent neural network for visual tracking
Qiu et al. Kestrel: Video analytics for augmented multi-camera vehicle tracking
CN111581433A (zh) 视频处理方法、装置、电子设备及计算机可读介质
Tang et al. Moana: An online learned adaptive appearance model for robust multiple object tracking in 3d
CN112221159B (zh) 一种虚拟道具推荐方法、装置及计算机可读存储介质
CN111209897B (zh) 视频处理的方法、装置和存储介质
CN111881776B (zh) 动态表情获取方法、装置、存储介质和电子设备
Zhang et al. Guided attention in cnns for occluded pedestrian detection and re-identification
Huang et al. Multiple objects tracking in the UAV system based on hierarchical deep high-resolution network
CN112084876A (zh) 一种目标对象追踪方法、系统、装置及介质
CN110851621A (zh) 基于知识图谱预测视频精彩级别的方法、装置及存储介质
Liu et al. Visual object tracking with partition loss schemes
Yang et al. Paarpn: probabilistic anchor assignment with region proposal network for visual tracking
Yohannes et al. Content-aware video analysis to guide visually impaired walking on the street
CN113392689A (zh) 视频文字跟踪方法、视频处理方法、装置、设备及介质
CN112818995A (zh) 图像分类方法、装置、电子设备及存储介质
Nova et al. A machine learning approach to detect violent behaviour from video
CN111429414A (zh) 基于人工智能的病灶影像样本确定方法和相关装置
Chen et al. Classroom attention estimation method based on mining facial landmarks of students
CN115527083A (zh) 图像标注方法、装置和电子设备
CN113824989A (zh) 一种视频处理方法、装置和计算机可读存储介质
CN113408356A (zh) 基于深度学习的行人重识别方法、装置、设备及存储介质
Wang et al. A robust long-term pedestrian tracking-by-detection algorithm based on three-way decision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant