CN117152692B - 基于视频监控的交通目标检测方法及系统 - Google Patents
基于视频监控的交通目标检测方法及系统 Download PDFInfo
- Publication number
- CN117152692B CN117152692B CN202311414730.1A CN202311414730A CN117152692B CN 117152692 B CN117152692 B CN 117152692B CN 202311414730 A CN202311414730 A CN 202311414730A CN 117152692 B CN117152692 B CN 117152692B
- Authority
- CN
- China
- Prior art keywords
- traffic
- target
- training
- state
- road section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 184
- 238000001514 detection method Methods 0.000 title claims abstract description 104
- 238000012549 training Methods 0.000 claims abstract description 236
- 238000002372 labelling Methods 0.000 claims abstract description 22
- 230000007787 long-term memory Effects 0.000 claims abstract description 17
- 230000006403 short-term memory Effects 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims description 52
- 238000000034 method Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 12
- 238000004140 cleaning Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 5
- 239000012634 fragment Substances 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 37
- 230000008569 process Effects 0.000 description 16
- 238000007726 management method Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 238000009795 derivation Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241000533950 Leucojum Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 235000013618 yogurt Nutrition 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供一种基于视频监控的交通目标检测方法及系统,通过获取目标交通路段的监控视频并加载到一个经过训练的交通目标检测网络中,生成该目标交通路段的交通目标状态检测数据,由此可以预测目标交通路段下一个节点的交通目标迭代状态。通过获取多个带有交通目标状态标注数据的第一训练交通路段监控视频,以及多个第二训练交通路段监控视频,对第二训练交通路段监控视频进行特征扩展,生成包含视频上下文协同片段的第二扩展训练交通路段监控视频,而后对初始化长短期记忆网络进行参数更新,从而生成交通目标检测网络。由此,可以有效地实现基于视频监控的交通目标检测,并能预测目标交通路段下一个节点的交通目标迭代状态。
Description
技术领域
本申请涉及深度学习技术领域,具体而言,涉及一种基于视频监控的交通目标检测方法及系统。
背景技术
在城市交通管理中,监控视频是获取实时交通信息的重要手段。通过分析监控视频,可以了解路段的交通流量、车辆行驶速度、行人情况等多种交通状态信息,为交通管理提供有力的数据支持。
传统的交通监控系统主要依赖于人工进行视频观察和信息记录,这种方式工作量大、效率低,而且容易出错。近年来,随着计算机视觉技术的发展,越来越多的研究者开始尝试使用自动化方法进行视频分析和交通信息提取。例如,利用图像处理和模式识别技术,可以从视频中自动检测和识别汽车、行人等交通目标,然后根据目标的运动轨迹和行为模式,推断出交通状态。
虽然已经有很多研究者在这个方向上做了大量的工作,并取得了一些成果,但目前的技术还存在许多问题。首先,现有的交通目标检测方法大多基于静态的图像特征,如颜色、形状和纹理等,对于复杂的交通场景和变化的环境条件,这些方法的性能往往不尽如人意。其次,现有的方法大多只能处理单一类型的交通目标,对于多种交通目标的混合场景,识别和分析的难度会大大增加。
发明内容
有鉴于此,本申请的目的在于提供一种基于视频监控的交通目标检测方法及系统。
依据本申请的第一方面,提供一种基于视频监控的交通目标检测方法,应用于交通监控系统,所述方法包括:
获取目标交通路段监控视频;
将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据;
基于所述交通目标状态检测数据对所述目标交通路段的下一个节点的交通目标迭代状态进行预测;
所述交通目标检测网络在初始化长短期记忆网络的模型架构上依据下述步骤进行训练:
获取多个第一训练交通路段监控视频和多个第二训练交通路段监控视频,所述第一训练交通路段监控视频携带交通目标状态标注数据;
对所述第二训练交通路段监控视频进行特征扩展,生成第二扩展训练交通路段监控视频,所述第二扩展训练交通路段监控视频包含所述第二训练交通路段监控视频的视频上下文协同片段;
依据所述初始化长短期记忆网络对所述多个第一训练交通路段监控视频的第一交通目标状态估计数据和所述交通目标状态标注数据的比较、以及所述初始化长短期记忆网络对所述多个第二训练交通路段监控视频的第二交通目标状态估计数据和多个第二扩展训练交通路段监控视频的第三交通目标状态估计数据的比较,对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络。
在第一方面的一种可能的实施方式中,所述将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据,包括:
将目标交通路段监控视频进行特征扩展,生成多个扩展目标交通路段监控视频;
将所述目标交通路段监控视频和多个所述扩展目标交通路段监控视频分别加载至所述交通目标检测网络,生成多个交通状态分布图;
依据多个所述交通状态分布图,确定所述交通目标状态检测数据。
在第一方面的一种可能的实施方式中,所述交通状态分布图包括多个参考交通目标状态的预测置信度;
所述依据多个所述交通状态分布图,确定所述交通目标状态检测数据,包括:
依据多个所述交通状态分布图中同一所述参考交通目标状态的所述预测置信度,确定所述参考交通目标状态的全局预测置信度;
依据所述参考交通目标状态的全局预测置信度,从多个所述参考交通目标状态中选择所述交通目标状态检测数据。
在第一方面的一种可能的实施方式中,所述依据所述初始化长短期记忆网络对所述多个第一训练交通路段监控视频的第一交通目标状态估计数据和所述交通目标状态标注数据的比较、以及所述初始化长短期记忆网络对所述多个第二训练交通路段监控视频的第二交通目标状态估计数据和多个第二扩展训练交通路段监控视频的第三交通目标状态估计数据的比较,对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络,包括:
依据所述第一训练交通路段监控视频的所述第一交通目标状态估计数据和所述交通目标状态标注数据,确定第一交通状态训练子误差;
对多个所述第一训练交通路段监控视频的所述第一交通状态训练子误差进行均值计算,生成第一交通状态训练误差;
依据所述第二训练交通路段监控视频的所述第二交通目标状态估计数据和所述第三交通目标状态估计数据确定第二交通状态训练子误差;
对多个所述第二训练交通路段监控视频的所述第二交通状态训练子误差进行均值计算,生成第二交通状态训练误差;
获取所述第一交通状态训练误差的第一代表性参数和所述第二交通状态训练误差的第二代表性参数;
依据所述第一代表性参数和所述第二代表性参数,计算所述第一交通状态训练误差和所述第二交通状态训练误差的融合误差,作为全局交通状态训练误差;
依据所述全局交通状态训练误差对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络。
在第一方面的一种可能的实施方式中,所述第一交通目标状态估计数据包括多个参考交通目标状态的第一估计置信度;
所述依据所述第一训练交通路段监控视频的所述第一交通目标状态估计数据和所述交通目标状态标注数据,确定第一交通状态训练子误差,包括:
针对每个所述第一训练交通路段监控视频,从所述第一交通目标状态估计数据中提取估计的交通目标状态与所述交通目标状态标注数据相同的所述第一估计置信度;
对所述第一估计置信度进行交叉熵损失函数计算,生成所述第一交通状态训练子误差;
所述第二交通目标状态估计数据包括多个参考交通目标状态的第二估计置信度,所述第三交通目标状态估计数据包括多个参考交通目标状态的第三估计置信度;
所述依据所述第二训练交通路段监控视频的所述第二交通目标状态估计数据和所述第三交通目标状态估计数据确定第二交通状态训练子误差,包括:
针对每个所述参考交通目标状态,确定所述参考交通目标状态的所述第二估计置信度和所述第三估计置信度的均方误差损失函数值,生成所述第二交通状态训练子误差。
在第一方面的一种可能的实施方式中,在获取目标交通路段监控视频之后,所述基于视频监控的交通目标检测方法还包括:
对所述目标交通路段监控视频进行特征清洗,生成清洗后交通路段监控视频;
所述将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据,包括:
将所述清洗后交通路段监控视频加载至交通目标检测网络,生成交通目标状态检测数据。
在第一方面的一种可能的实施方式中,所述初始化长短期记忆网络的训练步骤包括:
获取多种交通观测标签的多个第一范例交通视频资源;
将每个所述第一范例交通视频资源进行视频帧提取,从生成的第一视频帧序列中选择第一目标视频帧序列,并对所述第一目标视频帧序列进行特征屏蔽;
将特征屏蔽后的所述第一范例交通视频资源加载至所述初始化长短期记忆网络,生成第一特征屏蔽观测数据;
依据多个所述第一范例交通视频资源中的所述第一目标视频帧序列和所述第一特征屏蔽观测数据,计算第三交通状态训练误差;
依据所述第三交通状态训练误差,对所述初始化长短期记忆网络进行参数更新。
在第一方面的一种可能的实施方式中,所述初始化长短期记忆网络包括上下文预测网络和特征屏蔽预测网络,所述上下文预测网络和特征屏蔽预测网络的组合训练步骤,包括:
获取多个第二范例交通视频资源,所述第二范例交通视频资源包括上下文视频帧序列的标注数据,所述上下文视频帧序列是所述第二范例交通视频资源后的上一个和下一个视频帧序列;
将所述第二范例交通视频资源加载至所述上下文预测网络,生成上下文视频帧序列观测数据;
依据多个所述第二范例交通视频资源各自的所述上下文视频帧序列的标注数据、与所述上下文视频帧序列观测数据,计算第四交通状态训练误差;
将所述第二范例交通视频资源视频帧提取,从生成的第二视频帧序列中选择第二目标视频帧序列,并对所述第二目标视频帧序列进行特征屏蔽;
对每个所述第二视频帧序列进行交通观测标签的特征标注,生成交通观测标签嵌入特征;
对每个所述第二视频帧序列进行帧间扰动特征标注,生成帧间扰动嵌入特征;
将所述第二视频帧序列、所述第二视频帧序列的所述帧间扰动嵌入特征和所述第二视频帧序列的所述交通观测标签嵌入特征,依据所述第二视频帧序列在所述第二范例交通视频资源中的顺序,生成目标视频帧序列;
将所述目标视频帧序列加载至所述特征屏蔽预测网络,生成第二特征屏蔽观测数据;
依据多个所述第二范例交通视频资源中的所述第二目标视频帧序列和所述第二特征屏蔽观测数据,计算第五交通状态训练误差;
依据所述第四交通状态训练误差和所述第五交通状态训练误差,对所述上下文预测网络和特征屏蔽预测网络进行组合参数更新;
在将所述第二范例交通视频资源视频帧提取,从生成的第二视频帧序列中选择第二目标视频帧序列之前,所述基于视频监控的交通目标检测方法还包括:
将所述第二范例交通视频资源转换为其它交通观测标签的第二扩展范例交通视频资源;
将所述第二扩展范例交通视频资源添加至所述第二范例交通视频资源之后,以扩展所述第二范例交通视频资源。
在第一方面的一种可能的实施方式中,所述对所述第二训练交通路段监控视频进行特征扩展,生成第二扩展训练交通路段监控视频,包括:
对所述第二训练交通路段监控视频进行目标数量的交通观测标签特征的特征扩展,生成所述第二训练交通路段监控视频的目标数量的交通观测标签特征的所述视频上下文协同片段;
将所述目标数量的交通观测标签特征的所述视频上下文协同片段整合成所述第二扩展训练交通路段监控视频;
所述目标数量的交通观测标签特征的确定步骤,包括:
针对多个所述第一训练交通路段监控视频和多个所述第二训练交通路段监控视频中的每个训练交通路段监控视频,确定所述训练交通路段监控视频的交通观测标签特征;
针对每种交通观测标签特征,确定具有所述交通观测标签特征的训练交通路段监控视频数量;
将所述训练交通路段监控视频数量排在前所述目标数量的所述交通观测标签特征,作为所述目标数量的交通观测标签特征。
譬如,在第一方面的一种可能的实施方式中,所述基于所述交通目标状态检测数据对所述目标交通路段的下一个节点的交通目标迭代状态进行预测的步骤,包括:
基于预先训练的目标迭代状态估计模型对输入的所述交通目标状态检测数据进行迭代状态估计,生成所述目标交通路段的下一个节点的交通目标迭代状态进行预测;
其中,所述目标迭代状态估计模型的训练步骤,包括:
结合任意一个模板交通目标状态数据集合中的模板交通目标状态数据,构建Y个第一模板状态数据以及Z个第二模板状态数据组合,一个第一模板状态数据包括:一个具有交通目标迭代状态标签数据的第一交通目标区域的模板交通目标状态数据;一个第二模板状态数据组合包括:一个不具有交通目标迭代状态标签数据的第二交通目标区域的模板交通目标状态数据,以及对模板交通目标状态数据进行特征衍生生成的衍生模板交通目标状态数据;
结合所述初始迭代状态估计模型结合每个第一模板状态数据中的模板交通目标状态数据,对相应的第一交通目标区域进行迭代状态估计,生成每个第一交通目标区域的目标预测迭代状态;
调用所述初始迭代状态估计模型结合迭代状态一致性的训练规则,结合每个第二模板状态数据组合中的模板交通目标状态数据和相应的衍生模板交通目标状态数据,分别对相应的第二交通目标区域进行迭代状态估计,生成每个第二交通目标区域的两个预测迭代状态;
结合所述每个第一交通目标区域的目标预测迭代状态和相应的交通目标迭代状态标签数据,以及所述每个第二交通目标区域的两个预测迭代状态之间的损失函数值,优化所述初始迭代状态估计模型的模型权重信息,生成目标迭代状态估计模型。
譬如,在第一方面的一种可能的实施方式中,所述结合任意一个模板交通目标状态数据集合中的模板交通目标状态数据,构建Y个第一模板状态数据以及Z个第二模板状态数据组合,包括:
从任意一个模板交通目标状态数据集合中选取多个交通目标区域的模板交通目标状态数据构建目标训练样本集,结合所述目标训练样本集中的各交通目标区域的模板交通目标状态数据,确定所述各交通目标区域的状态特征矢量;
构建多维空间分割树结构,所述多维空间分割树结构中包括至少一个检索树节点;
将所述各交通目标区域的状态特征矢量,依次导入至所述多维空间分割树结构中的各检索树节点;
确定当前等待导入至所述多维空间分割树结构的当前交通目标区域的当前状态特征矢量,并结合距离敏感哈希函数对所述当前状态特征矢量进行距离敏感哈希计算,结合距离敏感哈希计算结果为所述当前状态特征矢量在所述多维空间分割树结构中分配目标检索树节点;
结合所述当前状态特征矢量和所述目标检索树节点中已存在的各模板状态特征矢量之间的矢量偏离度,从所述各模板状态特征矢量所对应的交通目标区域中确定所述当前交通目标区域的联系交通目标区域;
若检索到所述联系交通目标区域,则将所述当前状态特征矢量导入至所述目标检索树节点;
若未检索到所述联系交通目标区域,则将所述当前状态特征矢量导入至所述目标检索树节点,且将所述当前交通目标区域导入至待标注交通目标区域集合中;
在所述各交通目标区域的状态特征矢量均导入至所述多维空间分割树结构后,将所述待标注交通目标区域集合中的交通目标区域,确定为对所述多个交通目标区域进行去重清洗后的Y个交通目标区域;
获取所述Y个交通目标区域的交通目标迭代状态标签数据,将所述Y个交通目标区域作为Y个第一交通目标区域;
结合所述Y个第一交通目标区域的交通目标迭代状态标签数据和相应的模板交通目标状态数据,构建Y个第一模板状态数据;
从所述多个交通目标区域中除所述Y个交通目标区域之外的余下交通目标区域中,确定Z个第二交通目标区域;
对所述每个第二交通目标区域的模板交通目标状态数据进行多增广策略的特征衍生,生成所述每个第二交通目标区域的衍生模板交通目标状态数据;
结合所述每个第二交通目标区域的模板交通目标状态数据和相应的衍生模板交通目标状态数据,构建Z个第二模板状态数据组合。
依据本申请的第二方面,提供一种交通监控系统,所述交通监控系统包括处理器以及可读存储介质,所述可读存储介质存储有程序,该程序被处理器执行时实现前述的基于视频监控的交通目标检测方法。
依据本申请的第三方面,提供提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,在监测到所述计算机可执行指令被执行时,实现前述的基于视频监控的交通目标检测方法。
依据以上任意一个方面,本申请中,通过获取目标交通路段的监控视频,然后将该视频加载到一个经过训练的交通目标检测网络中,生成该目标交通路段的交通目标状态检测数据,由此可以预测目标交通路段下一个节点的交通目标迭代状态。该交通目标检测网络是在初始化的长短期记忆网络模型架构上训练得到的。通过获取多个带有交通目标状态标注数据的第一训练交通路段监控视频,以及多个第二训练交通路段监控视频;对第二训练交通路段监控视频进行特征扩展,生成包含视频上下文协同片段的第二扩展训练交通路段监控视频;然后通过比较初始化长短期记忆网络对第一训练交通路段监控视频的第一交通目标状态估计数据和交通目标状态标注数据,以及初始化长短期记忆网络对第二训练交通路段监控视频的第二交通目标状态估计数据和第二扩展训练交通路段监控视频的第三交通目标状态估计数据,对初始化长短期记忆网络进行参数更新,从而生成交通目标检测网络。由此,可以有效地实现基于视频监控的交通目标检测,并能预测目标交通路段下一个节点的交通目标迭代状态,有助于提高城市交通管理的效率和准确性。
也即,本申请通过使用长短期记忆网络(LSTM)模型,能够有效地捕获和利用视频序列中的动态信息和上下文关系,从而提高交通目标检测的准确性。
并且,能够对多种交通观测标签进行训练,因此可以适应各种复杂的交通场景和环境条件,如混合交通流、光照变化等。
此外,除了检测当前的交通目标状态,该方法还能基于已有的交通目标状态检测数据进行预测,这对于交通管理和规划具有重要的意义。
整个过程从获取监控视频,提取特征,到最后的交通状态预测,都是自动完成,大大减轻了人工负担,提高了效率。
在原始训练视频数据不足或者需要增加新的交通目标识别类型时,可通过特征扩展和新增训练数据等方式,灵活地扩展和优化模型。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以依据这些附图获得其它关联的附图。
图1本申请实施例所提供的基于视频监控的交通目标检测方法的流程示意图;
图2示出了本申请实施例所提供的用于实现上述的基于视频监控的交通目标检测方法的交通监控系统的组件结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。依据本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排它的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1示出了本申请实施例提供的基于视频监控的交通目标检测方法的流程示意图,应当理解,在其它实施例中,本实施例的基于视频监控的交通目标检测方法其中部分步骤的顺序可以依据实际需要相互交换,或者其中的部分步骤也可以省略或删除。该基于视频监控的交通目标检测方法的详细步骤介绍如下。
步骤S110,获取目标交通路段监控视频。
例如,可以设想一个城市的主干道路作为目标交通路段。假设正在寻求收集并分析“新城大街”上的交通情况。这条街道上有多个摄像头设备,这些设备已经通过互联网或专用网络与的数据中心连接。
首先,需要登录到城市的交通管理系统,找到“新城大街”的位置,然后从对应的摄像头系统中选择感兴趣的摄像头。点击对应的摄像头,选择“获取视频”选项。然后在出现的时间段选择框中选择感兴趣的时间段,例如"上午7:00到9:00",然后点击“下载”。此时,就得到了所需的目标交通路段监控视频。
其中,所述目标交通路段监控视频包括多个交通目标,所述交通目标可以包括汽车、卡车、摩托车、自行车、行人等各种参与道路交通的实体。
步骤S120,将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据。
例如,可以将刚刚获取的交通路段监控视频导入到交通目标检测网络。这个交通目标检测网络是由深度学习模型构建的,能够识别和跟踪视频中的各种交通目标,如汽车、行人、自行车等,并记录它们的位置、速度和方向等信息,这些信息被保存为交通目标状态检测数据。
步骤S130,基于所述交通目标状态检测数据对所述目标交通路段的下一个节点的交通目标迭代状态进行预测。
例如,可以利用上一步生成的交通目标状态检测数据,来预测目标交通路段的下一个节点的交通目标迭代状态。
比如,假设要预测的下一个节点是"新城大街"与"百花路"的交叉口。可以根据当前的交通目标状态(如车辆的位置、速度和行驶方向),结合交叉口的特性(如道路布局、交通信号灯的设置等),通过预测模型来估计每个交通目标在接下来的时间内将达到交叉口的概率,以及可能的到达时间。
这样,就可以得出预测的交通目标状态,从而为交通管理和规划提供有价值的信息。
值得说明的是,所述交通目标检测网络在初始化长短期记忆网络的模型架构上依据下述步骤进行训练:
步骤S101,获取多个第一训练交通路段监控视频和多个第二训练交通路段监控视频,所述第一训练交通路段监控视频携带交通目标状态标注数据。
例如,假设正在研究某城市的两条主要道路:"新城大街"和"百花路"。这两条路线分别代表的第一训练交通路段和第二训练交通路段。首先,可以从交通管理系统中获取这两条路段的监控视频。对于"新城大街"的视频,已经有了前期人工标注的交通目标状态数据,例如车辆、行人、自行车等的位置、速度和方向等信息。
步骤S102,对所述第二训练交通路段监控视频进行特征扩展,生成第二扩展训练交通路段监控视频,所述第二扩展训练交通路段监控视频包含所述第二训练交通路段监控视频的视频上下文协同片段。
例如,对于"百花路"的视频,采用特征扩展技术来提取更多的信息。具体地,使用视频上下文协同片段,也就是与每一帧关联的前后几帧,以便捕获更多的运动和上下文信息。通过这种方式,生成了包含更丰富特征的第二扩展训练交通路段监控视频。
步骤S103,依据所述初始化长短期记忆网络对所述多个第一训练交通路段监控视频的第一交通目标状态估计数据和所述交通目标状态标注数据的比较、以及所述初始化长短期记忆网络对所述多个第二训练交通路段监控视频的第二交通目标状态估计数据和多个第二扩展训练交通路段监控视频的第三交通目标状态估计数据的比较,对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络。
例如,可以使用一个已经初始化的长短期记忆(LSTM)网络模型开始的训练过程。首先输入"新城大街"的监控视频,并生成第一交通目标状态估计数据。然后,将这些估计数据与人工标注的交通目标状态数据进行比较,根据误差进行反向传播,更新LSTM网络的参数。
接着,输入"百花路"的扩展监控视频,并生成第二和第三交通目标状态估计数据。然后,比较这两组估计数据,并根据误差再次更新LSTM网络的参数。
通过反复进行这样的训练过程,最终得到了一个能够准确识别和预测交通目标状态的交通目标检测网络。
基于以上步骤,通过获取目标交通路段的监控视频,然后将该视频加载到一个经过训练的交通目标检测网络中,生成该目标交通路段的交通目标状态检测数据,由此可以预测目标交通路段下一个节点的交通目标迭代状态。该交通目标检测网络是在初始化的长短期记忆网络模型架构上训练得到的。通过获取多个带有交通目标状态标注数据的第一训练交通路段监控视频,以及多个第二训练交通路段监控视频;对第二训练交通路段监控视频进行特征扩展,生成包含视频上下文协同片段的第二扩展训练交通路段监控视频;然后通过比较初始化长短期记忆网络对第一训练交通路段监控视频的第一交通目标状态估计数据和交通目标状态标注数据,以及初始化长短期记忆网络对第二训练交通路段监控视频的第二交通目标状态估计数据和第二扩展训练交通路段监控视频的第三交通目标状态估计数据,对初始化长短期记忆网络进行参数更新,从而生成交通目标检测网络。由此,可以有效地实现基于视频监控的交通目标检测,并能预测目标交通路段下一个节点的交通目标迭代状态,有助于提高城市交通管理的效率和准确性。
在一种可能的实施方式中,步骤S120可以包括:
步骤S121,将目标交通路段监控视频进行特征扩展,生成多个扩展目标交通路段监控视频。
例如,在这个场景中,已经获取了"新城大街"的监控视频。为了捕获更多的运动和上下文信息,使用特征扩展技术来处理这个视频。具体地,创建视频的上下文协同片段,也就是与每一帧关联的前后几帧。通过这种方式,生成了多个扩展目标交通路段监控视频,每一个都包含更丰富的信息。
步骤S122,将所述目标交通路段监控视频和多个所述扩展目标交通路段监控视频分别加载至所述交通目标检测网络,生成多个交通状态分布图。
例如,可以把原始的"新城大街"监控视频以及刚刚生成的扩展视频都输入到的交通目标检测网络中。对于每一个输入,交通目标检测网络都会生成一个交通状态分布图,这个图显示了各种交通目标(如汽车、行人、自行车等)在每个时间点的可能位置和状态。
步骤S123,依据多个所述交通状态分布图,确定所述交通目标状态检测数据。
例如,根据生成的多个交通状态分布图,确定交通目标状态检测数据。具体来说,可能会使用某种融合策略,如加权平均或最大投票等,将多个分布图合并成一个,从而得到更准确、更全面的交通目标状态检测数据。
这样,就可以更准确地理解"新城大街"上的实时交通状况,并为进一步的交通管理和规划提供有价值的信息。
在一种可能的实施方式中,所述交通状态分布图包括多个参考交通目标状态的预测置信度。
步骤S123可以包括:
步骤S1231,依据多个所述交通状态分布图中同一所述参考交通目标状态的所述预测置信度,确定所述参考交通目标状态的全局预测置信度。
例如,每一个交通状态分布图都代表了"新城大街"在一个特定时间点的交通情况。图中的每个参考交通目标状态,例如某辆汽车的位置和速度,都会有一个预测置信度,表示网络对这个状态的预测准确性的信心。例如,如果一个汽车在某一帧的预测置信度是0.9,那就意味着网络认为它有90%的概率处于预测的位置和状态。
然后,需要结合所有的交通状态分布图来确定每个参考交通目标状态的全局预测置信度。具体来说,可以对同一个交通目标在不同分布图中的预测置信度进行融合,例如取平均值或使用其他统计方法,以得到一个更全面、更可靠的预测结果。例如,如果同一辆汽车在五个不同的分布图中的预测置信度分别是0.85, 0.9, 0.88, 0.9, 0.87,那么它的全局预测置信度可能就是这五个值的平均值,即0.88。
步骤S1232,依据所述参考交通目标状态的全局预测置信度,从多个所述参考交通目标状态中选择所述交通目标状态检测数据。
例如,根据每个参考交通目标状态的全局预测置信度来选择交通目标状态检测数据。一般来说,会选择全局预测置信度较高的状态作为最终的检测结果。例如,如果关注的是汽车,那么就可以选择全局预测置信度最高的汽车状态作为最终的检测数据。这样,就能得到更准确、更可靠的交通目标状态信息,从而更好地理解和管理"新城大街"的实时交通状况。
在一种可能的实施方式中,步骤S103可以包括:
步骤S1031,依据所述第一训练交通路段监控视频的所述第一交通目标状态估计数据和所述交通目标状态标注数据,确定第一交通状态训练子误差。
例如,可以先将"新城大街"的训练视频输入到初始化的长短期记忆网络中,得到第一交通目标状态估计数据。然后,将这些估计数据与人工标注的交通目标状态数据进行比较,以此来计算出每个视频的第一交通状态训练子误差。
步骤S1032,对多个所述第一训练交通路段监控视频的所述第一交通状态训练子误差进行均值计算,生成第一交通状态训练误差。
例如,可以将所有"新城大街"训练视频的第一交通状态训练子误差求平均,从而得到第一交通状态训练误差。
步骤S1033,依据所述第二训练交通路段监控视频的所述第二交通目标状态估计数据和所述第三交通目标状态估计数据确定第二交通状态训练子误差。
例如,可以将"百花路"的训练视频和扩展训练视频输入到网络中,得到第二和第三交通目标状态估计数据。将这两组估计数据进行比较,从而确定每个视频的第二交通状态训练子误差。
步骤S1034,对多个所述第二训练交通路段监控视频的所述第二交通状态训练子误差进行均值计算,生成第二交通状态训练误差。
例如,可以将所有"百花路"训练视频的第二交通状态训练子误差求平均,从而得到第二交通状态训练误差。
步骤S1035,获取所述第一交通状态训练误差的第一代表性参数和所述第二交通状态训练误差的第二代表性参数。
例如,可以提取出第一交通状态训练误差和第二交通状态训练误差的代表性参数。
步骤S1036,依据所述第一代表性参数和所述第二代表性参数,计算所述第一交通状态训练误差和所述第二交通状态训练误差的融合误差,作为全局交通状态训练误差。
例如,可以根据第一和第二代表性参数,计算出第一交通状态训练误差和第二交通状态训练误差的融合误差。这个融合误差反映了整体的训练效果,因此将其作为全局交通状态训练误差。
步骤S1037,依据所述全局交通状态训练误差对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络。
例如,根据全局交通状态训练误差来更新长短期记忆网络的参数。通过这种方式,网络能够在训练过程中逐渐调整自己,以提高预测的准确性。当参数更新完成后,就得到了最终的交通目标检测网络,它可以用于实时监测和预测交通状态。
在一种可能的实施方式中,所述第一交通目标状态估计数据包括多个参考交通目标状态的第一估计置信度。
步骤S1031可以包括:针对每个所述第一训练交通路段监控视频,从所述第一交通目标状态估计数据中提取估计的交通目标状态与所述交通目标状态标注数据相同的所述第一估计置信度,接着,对所述第一估计置信度进行交叉熵损失函数计算,生成所述第一交通状态训练子误差。
例如,使用初始化的长短期记忆网络对"新城大街"的训练视频进行处理,得到第一交通目标状态估计数据。每个参考交通目标状态,例如某辆汽车的位置和速度,都会有一个第一估计置信度,表示网络对这个状态的预测准确性的信心。
接下来,需要比较网络的预测结果和人工标注的真实数据。具体地,针对每个"新城大街"的训练视频,从第一交通目标状态估计数据中提取出那些与人工标注数据相匹配的第一估计置信度。
然后,使用交叉熵损失函数来计算第一估计置信度的误差。交叉熵损失函数能够衡量网络预测的置信度和真实值之间的差距,因此它是训练神经网络的常用方法。通过这种方式,可以得到每个视频的第一交通状态训练子误差。
所述第二交通目标状态估计数据包括多个参考交通目标状态的第二估计置信度,所述第三交通目标状态估计数据包括多个参考交通目标状态的第三估计置信度。
步骤S1033可以包括:针对每个所述参考交通目标状态,确定所述参考交通目标状态的所述第二估计置信度和所述第三估计置信度的均方误差损失函数值,生成所述第二交通状态训练子误差。
例如,将"百花路"的训练视频和扩展训练视频输入到网络中,得到第二和第三交通目标状态估计数据。与前面类似,每个参考交通目标状态都会有一个第二估计置信度和一个第三估计置信度。
然后,需要比较第二和第三估计置信度来计算误差。具体地,针对每个参考交通目标状态,计算第二估计置信度和第三估计置信度的均方误差。均方误差损失函数是一种常用的误差衡量方法,它可以反映预测值和真实值之间的平均差距。通过这种方式,可以得到每个视频的第二交通状态训练子误差。
在一种可能的实施方式中,在获取目标交通路段监控视频之后,本实施例可以对所述目标交通路段监控视频进行特征清洗,生成清洗后交通路段监控视频。由此在步骤S120中,可以将所述清洗后交通路段监控视频加载至交通目标检测网络,生成交通目标状态检测数据。
例如,假设获取了"新城大街"的监控视频作为目标交通路段监控视频。然后,需要进行特征清洗。这个过程可能包括去噪、裁剪不相关的区域、消除光照影响、稳定视频等步骤,以提高视频质量和分析准确性。例如,可能会使用图像处理算法去除视频中的雨滴或雪花,或者调整视频的亮度和对比度以便更好地识别交通目标。通过这些操作,生成了清洗后的"新城大街"监控视频。
接下来,将清洗后的"新城大街"监控视频输入到已经训练好的交通目标检测网络中。网络会根据视频内容生成交通目标状态检测数据,这些数据反映了"新城大街"上各种交通目标(如汽车、行人、自行车等)的位置、速度和方向等状态信息。
通过这种方式,可以实时监测和分析"新城大街"的交通状况,为进一步的交通管理和规划提供有价值的数据支持。
在一种可能的实施方式中,所述初始化长短期记忆网络的训练步骤包括:
步骤A110,获取多种交通观测标签的多个第一范例交通视频资源。
例如,首先需要收集一系列用于训练的第一范例交通视频资源。这些第一范例交通视频资源应该包括多种不同的交通状况和目标,例如汽车、行人、自行车等,并且每个目标都应该有对应的交通观测标签。例如,可能会收集"新城大街"在不同时间(如早高峰、晚高峰和非高峰时段)的监控视频作为第一范例交通视频资源。
步骤A120,将每个所述第一范例交通视频资源进行视频帧提取,从生成的第一视频帧序列中选择第一目标视频帧序列,并对所述第一目标视频帧序列进行特征屏蔽。
例如,可以对每个第一范例交通视频资源进行处理,提取出其中的视频帧,并选择出感兴趣的第一目标视频帧序列,例如所有包含汽车的帧。然后,进行特征屏蔽,也就是只保留需要的特征,例如汽车的位置、速度和方向等,而忽略其他不相关的信息,如背景景物等。
步骤A130,将特征屏蔽后的所述第一范例交通视频资源加载至所述初始化长短期记忆网络,生成第一特征屏蔽观测数据。
例如,可以将特征屏蔽后的第一范例交通视频资源输入到初始化的长短期记忆网络中。初始化长短期记忆网络会根据输入的视频帧生成第一特征屏蔽观测数据,这些数据包含了关注的交通目标状态信息。
步骤A140,依据多个所述第一范例交通视频资源中的所述第一目标视频帧序列和所述第一特征屏蔽观测数据,计算第三交通状态训练误差。
例如,需要比较初始化长短期记忆网络的预测结果和真实的目标状态。具体地,将第一特征屏蔽观测数据与对应的第一目标视频帧序列进行比较,从而计算出第三交通状态训练误差。
步骤A150,依据所述第三交通状态训练误差,对所述初始化长短期记忆网络进行参数更新。
例如,可以根据第三交通状态训练误差来更新长短期记忆网络的参数。通过这种方式,初始化长短期记忆网络能够在训练过程中逐渐调整自己,以提高预测的准确性。当参数更新完成后,就得到了训练好的长短期记忆网络,可以用于实时监测和预测交通状态。
在一种可能的实施方式中,所述初始化长短期记忆网络包括上下文预测网络和特征屏蔽预测网络,所述上下文预测网络和特征屏蔽预测网络的组合训练步骤,包括:
步骤B110,获取多个第二范例交通视频资源,所述第二范例交通视频资源包括上下文视频帧序列的标注数据,所述上下文视频帧序列是所述第二范例交通视频资源后的上一个和下一个视频帧序列。
例如,假设收集了"百花路"的训练视频作为第二范例交通视频资源。每个视频都有对应的上下文视频帧序列的标注数据,例如前后两帧的汽车位置、速度等信息。
步骤B120,将所述第二范例交通视频资源加载至所述上下文预测网络,生成上下文视频帧序列观测数据。
例如,可以将这些第二范例交通视频资源输入到初始化的长短期记忆网络的上下文预测网络部分。网络会根据输入的视频帧生成上下文视频帧序列观测数据。
步骤B130,依据多个所述第二范例交通视频资源各自的所述上下文视频帧序列的标注数据、与所述上下文视频帧序列观测数据,计算第四交通状态训练误差。
例如,可以比较上下文视频帧序列观测数据和对应的标注数据,计算出第四交通状态训练误差。
步骤B140,将所述第二范例交通视频资源视频帧提取,从生成的第二视频帧序列中选择第二目标视频帧序列,并对所述第二目标视频帧序列进行特征屏蔽。
例如,可以对第二范例交通视频资源进行处理,提取出其中的视频帧,并选择出感兴趣的第二目标视频帧序列。同时,进行特征屏蔽,只保留需要的特征,例如汽车的位置、速度和方向等。
步骤B150,对每个所述第二视频帧序列进行交通观测标签的特征标注,生成交通观测标签嵌入特征。
步骤B160,对每个所述第二视频帧序列进行帧间扰动特征标注,生成帧间扰动嵌入特征。
步骤B170,将所述第二视频帧序列、所述第二视频帧序列的所述帧间扰动嵌入特征和所述第二视频帧序列的所述交通观测标签嵌入特征,依据所述第二视频帧序列在所述第二范例交通视频资源中的顺序,生成目标视频帧序列。
例如,这几个步骤是对第二视频帧序列进行特征标注和整合。首先对每一帧进行交通观测标签的特征标注,例如识别出图片中的汽车、行人等,并生成交通观测标签嵌入特征。同时,还需要标注每一帧之间的变化,即帧间扰动特征,例如汽车的移动方向和速度变化等,并生成帧间扰动嵌入特征。最后,将这些特征按照视频帧的顺序整合在一起,生成目标视频帧序列。
步骤B180,将所述目标视频帧序列加载至所述特征屏蔽预测网络,生成第二特征屏蔽观测数据。
例如,将目标视频帧序列输入到初始化的长短期记忆网络的特征屏蔽预测网络部分。网络会根据输入的视频帧生成第二特征屏蔽观测数据。
步骤B190,依据多个所述第二范例交通视频资源中的所述第二目标视频帧序列和所述第二特征屏蔽观测数据,计算第五交通状态训练误差。
例如,可以比较第二目标视频帧序列和第二特征屏蔽观测数据,计算出第五交通状态训练误差。
步骤B200,依据所述第四交通状态训练误差和所述第五交通状态训练误差,对所述上下文预测网络和特征屏蔽预测网络进行组合参数更新。
例如,根据第四交通状态训练误差和第五交通状态训练误差来更新上下文预测网络和特征屏蔽预测网络的参数。通过这种方式,网络能够在训练过程中逐渐调整自己,以提高预测的准确性。当参数更新完成后,就得到了训练好的长短期记忆网络,它可以用于实时监测和预测交通状态。
在步骤B140之前,本实施例还可以将所述第二范例交通视频资源转换为其它交通观测标签的第二扩展范例交通视频资源,将所述第二扩展范例交通视频资源添加至所述第二范例交通视频资源之后,以扩展所述第二范例交通视频资源。
例如,可以将"百花路"的第二范例交通视频资源转换为其他类型的交通观测标签。例如,可能会使用图像处理技术将视频中的汽车更改为自行车或行人,从而生成具有不同交通目标的第二扩展范例交通视频资源。
由此,可以将生成的第二扩展范例交通视频资源添加到原始的第二范例交通视频资源中,从而扩展训练数据集。这样可以增加网络对不同交通目标的识别能力。
在一种可能的实施方式中,步骤S102可以包括:
步骤S1021,对所述第二训练交通路段监控视频进行目标数量的交通观测标签特征的特征扩展,生成所述第二训练交通路段监控视频的目标数量的交通观测标签特征的所述视频上下文协同片段。
步骤S1022,将所述目标数量的交通观测标签特征的所述视频上下文协同片段整合成所述第二扩展训练交通路段监控视频。
例如,可以通过添加或删除视频帧中的交通目标,从而改变视频中的目标数量。例如,可能会在某些帧中添加自行车或行人,或者删除某些汽车,以生成新的交通观测标签特征。然后,将这些改变目标数量的视频帧整合到原始视频中,生成第二扩展训练交通路段监控视频。
所述目标数量的交通观测标签特征的确定步骤,包括:
针对多个所述第一训练交通路段监控视频和多个所述第二训练交通路段监控视频中的每个训练交通路段监控视频,确定所述训练交通路段监控视频的交通观测标签特征。
针对每种交通观测标签特征,确定具有所述交通观测标签特征的训练交通路段监控视频数量。
将所述训练交通路段监控视频数量排在前所述目标数量的所述交通观测标签特征,作为所述目标数量的交通观测标签特征。
例如,首先需要确定每个训练视频的交通观测标签特征。例如,可能会识别出视频中的汽车、行人和自行车等目标,并将这些信息作为交通观测标签特征。然后,统计每种交通观测标签特征在所有训练视频中出现的数量。最后,选择出现次数最多的几种交通观测标签特征,作为目标数量的交通观测标签特征。这样可以确保的网络能够优先学习和预测最常见的交通目标。
譬如,在一种可能的实施方式中,步骤S130可以包括:基于预先训练的目标迭代状态估计模型对输入的所述交通目标状态检测数据进行迭代状态估计,生成所述目标交通路段的下一个节点的交通目标迭代状态进行预测。
例如,假设已经通过交通目标检测网络获取了"百花路"某个时间点(比如早高峰8:00)的交通目标状态检测数据,这些数据显示当前有10辆汽车、5辆自行车和3个行人。然后,将这些数据输入到预先训练好的目标迭代状态估计模型中,这个模型会基于历史数据和算法预测下一个时间点(比如8:05)"百花路"的交通目标状态。预测结果可能是11辆汽车、4辆自行车和2个行人,以及这11辆汽车、4辆自行车和2个行人可能的位置、速度和方向等信息。
其中,所述目标迭代状态估计模型的训练步骤,包括:
步骤C110,结合任意一个模板交通目标状态数据集合中的模板交通目标状态数据,构建Y个第一模板状态数据以及Z个第二模板状态数据组合,一个第一模板状态数据包括:一个具有交通目标迭代状态标签数据的第一交通目标区域的模板交通目标状态数据。一个第二模板状态数据组合包括:一个不具有交通目标迭代状态标签数据的第二交通目标区域的模板交通目标状态数据,以及对模板交通目标状态数据进行特征衍生生成的衍生模板交通目标状态数据。
例如,本步骤需要大量的历史交通监控视频,并从中提取出每一帧的交通目标状态数据。例如,可能有一段关于"百花路"的早高峰时段的视频,可以从这段视频中提取出每分钟的汽车、自行车和行人数量等数据。
然后,将这些数据分成两类,一类是带有未来交通目标状态(比如5分钟后的状态)的第一模板状态数据,另一类是只有当前状态,但不包含未来状态的第二模板状态数据。对于第二类数据,还需要进行特征衍生,比如根据历史数据预测出5分钟后可能的交通状态。
步骤C120,结合所述初始迭代状态估计模型结合每个第一模板状态数据中的模板交通目标状态数据,对相应的第一交通目标区域进行迭代状态估计,生成每个第一交通目标区域的目标预测迭代状态。
步骤C130,调用所述初始迭代状态估计模型结合迭代状态一致性的训练规则,结合每个第二模板状态数据组合中的模板交通目标状态数据和相应的衍生模板交通目标状态数据,分别对相应的第二交通目标区域进行迭代状态估计,生成每个第二交通目标区域的两个预测迭代状态。
步骤C140,结合所述每个第一交通目标区域的目标预测迭代状态和相应的交通目标迭代状态标签数据,以及所述每个第二交通目标区域的两个预测迭代状态之间的损失函数值,优化所述初始迭代状态估计模型的模型权重信息,生成目标迭代状态估计模型。
例如,可以使用一个初始的迭代状态估计模型,基于第一模板状态数据的当前状态,预测出5分钟后的交通状态。同时,也使用同一个模型,结合一致性训练规则,对第二模板状态数据进行预测。
最后,将这些预测结果与实际的未来状态进行比较,计算出误差。然后,通过优化这些误差,调整模型的参数,使得预测结果更接近实际结果。这个过程可能需要反复进行多次,直到模型的性能达到满意的水平。
通过以上步骤,就能够训练出一个能够预测未来交通状态的模型。当获取到新的实时交通目标状态检测数据时,就可以用这个模型来预测未来几分钟或者几小时内的交通状态,从而帮助做出更好的交通管理决策。
也即,基于以上步骤,将具有交通目标迭代状态标签数据的交通目标区域和不具有交通目标迭代状态标签数据的交通目标区域都纳入训练样本,提高了数据的利用率。通过对第一模板状态数据进行迭代状态估计,生成每个第一交通目标区域的目标预测迭代状态;同时,结合迭代状态一致性的训练规则,对第二模板状态数据组合进行迭代状态估计,生成每个第二交通目标区域的两个预测迭代状态。这种训练方式能够有效地提升模型的性能。结合每个第一交通目标区域的目标预测迭代状态和相应的交通目标迭代状态标签数据,以及每个第二交通目标区域的两个预测迭代状态之间的损失函数值,优化模型权重信息。这种方式可以强化模型的学习过程,使得模型更加准确地预测未来的交通状态。由此,可以同时考虑到已有的交通目标迭代状态标签数据和可能的交通状态变化,因此可以提高预测的精度。
总的来说,通过有效利用数据和强化模型学习,提高了模型的性能和预测精度,使得模型更加适合实际应用中的交通状态预测任务。
譬如,在一种可能的实施方式中,步骤C110可以包括:
步骤C111,从任意一个模板交通目标状态数据集合中选取多个交通目标区域的模板交通目标状态数据构建目标训练样本集,结合所述目标训练样本集中的各交通目标区域的模板交通目标状态数据,确定所述各交通目标区域的状态特征矢量。
步骤C112,构建多维空间分割树结构,所述多维空间分割树结构中包括至少一个检索树节点。
步骤C113,将所述各交通目标区域的状态特征矢量,依次导入至所述多维空间分割树结构中的各检索树节点。
步骤C114,确定当前等待导入至所述多维空间分割树结构的当前交通目标区域的当前状态特征矢量,并结合距离敏感哈希函数对所述当前状态特征矢量进行距离敏感哈希计算,结合距离敏感哈希计算结果为所述当前状态特征矢量在所述多维空间分割树结构中分配目标检索树节点。
步骤C115,结合所述当前状态特征矢量和所述目标检索树节点中已存在的各模板状态特征矢量之间的矢量偏离度,从所述各模板状态特征矢量所对应的交通目标区域中确定所述当前交通目标区域的联系交通目标区域。
步骤C116,若检索到所述联系交通目标区域,则将所述当前状态特征矢量导入至所述目标检索树节点。
步骤C117,若未检索到所述联系交通目标区域,则将所述当前状态特征矢量导入至所述目标检索树节点,且将所述当前交通目标区域导入至待标注交通目标区域集合中。
步骤C118,在所述各交通目标区域的状态特征矢量均导入至所述多维空间分割树结构后,将所述待标注交通目标区域集合中的交通目标区域,确定为对所述多个交通目标区域进行去重清洗后的Y个交通目标区域。
步骤C119,获取所述Y个交通目标区域的交通目标迭代状态标签数据,将所述Y个交通目标区域作为Y个第一交通目标区域。
步骤C1110,结合所述Y个第一交通目标区域的交通目标迭代状态标签数据和相应的模板交通目标状态数据,构建Y个第一模板状态数据。
步骤C1111,从所述多个交通目标区域中除所述Y个交通目标区域之外的余下交通目标区域中,确定Z个第二交通目标区域。
步骤C1112,对所述每个第二交通目标区域的模板交通目标状态数据进行多增广策略的特征衍生,生成所述每个第二交通目标区域的衍生模板交通目标状态数据。
步骤C1113,结合所述每个第二交通目标区域的模板交通目标状态数据和相应的衍生模板交通目标状态数据,构建Z个第二模板状态数据组合。
例如,这个过程涉及到从交通目标状态数据集中选择和构建训练样本,然后利用多维空间分割树结构进行特征的哈希编码,最后确定待标注的交通目标区域并生成模板状态数据。具体场景举例说明如下:
首先,需要从模板交通目标状态数据集合中选取多个交通目标区域的模板交通目标状态数据构建目标训练样本集。例如,可能有一个包含"百花路"各个时间点的交通目标状态数据的数据集,可以从这个数据集中选取一部分数据作为训练样本。
接着,需要构建一个多维空间分割树结构,这是一种常见的数据结构,用于存储和检索高维数据。在这个树结构中,每一个节点都对应一个特定的空间区域。
然后,将每个交通目标区域的状态特征矢量(即每个区域的交通目标状态数据)导入到这个多维空间分割树结构中。具体来说,首先确定当前等待导入的交通目标区域的状态特征矢量,然后使用距离敏感哈希函数对这个特征矢量进行哈希计算,得到一个哈希值。根据这个哈希值在多维空间分割树结构中找到对应的检索树节点,并将当前状态特征矢量导入到这个节点。
然后,需要确定当前交通目标区域的联系交通目标区域。具体来说,计算当前状态特征矢量与目标检索树节点中已存在的各模板状态特征矢量之间的矢量偏离度(即它们之间的距离或差异),并根据这个偏离度从各模板状态特征矢量所对应的交通目标区域中选择出联系交通目标区域。
如果在上一步找到了联系交通目标区域,那么就直接将当前状态特征矢量导入到目标检索树节点;如果没有找到联系交通目标区域,那么除了将当前状态特征矢量导入到目标检索树节点,还需要将当前交通目标区域加入到待标注交通目标区域集合中。
当所有的状态特征矢量都导入到多维空间分割树结构后,将待标注交通目标区域集合中的交通目标区域确定为去重清洗后的Y个交通目标区域。然后,获取这Y个交通目标区域的交通目标迭代状态标签数据,并将这Y个交通目标区域作为Y个第一交通目标区域。对于每个第一交通目标区域,结合其交通目标迭代状态标签数据和相应的模板交通目标状态数据,构建出一个第一模板状态数据。
在剩下的交通目标区域中,选取Z个作为第二交通目标区域。对于每个第二交通目标区域,首先对其模板交通目标状态数据进行特征衍生,生成衍生模板交通目标状态数据。然后,结合这个区域的模板交通目标状态数据和相应的衍生模板交通目标状态数据,构建出一个第二模板状态数据组合。
通过以上步骤,就可以得到Y个第一模板状态数据和Z个第二模板状态数据组合,这些数据可以用来用来训练和优化目标迭代状态估计模型。
在实际操作中,会重复这个过程多次,每次使用新的训练数据更新和优化模型。这样,当获取到新的实时交通目标状态检测数据时,就可以用训练好的模型来预测未来几分钟或者几小时内的交通状态,从而帮助做出更好的交通管理决策。
也即,基于以上步骤,通过使用多维空间分割树结构和距离敏感哈希函数,可以快速地找到与当前状态特征矢量相近的模板状态特征矢量,从而提高了模型训练的效率。采用这种基于联系交通目标区域的方法进行训练,可以增强模型对未知数据的预测能力,使模型具有更好的泛化能力。通过确定待标注交通目标区域,可以避免重复标注,提高标注效率。同时,通过特征衍生策略,可以增加训练样本的多样性,进一步优化模型的性能。通过结合第一模板状态数据和第二模板状态数据组合进行模型训练,既利用了已有的交通目标迭代状态标签数据,又考虑了可能的交通状态变化,因此可以提高模型的预测准确度。
总的来说,上述步骤实现了从大量模板交通目标状态数据中筛选和构建训练样本,以及对训练样本进行特征哈希编码和标注等一系列操作,为训练和优化目标迭代状态估计模型提供了有效的手段,从而有助于更准确地预测未来的交通状态。
进一步地,图2示出了一种用于实现本申请实施例所提供的方法的交通监控系统100的硬件结构示意图。如图2所示,所述交通监控系统100包括存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、音频单元116、显示单元117以及射频单元118。
所述存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、音频单元116、显示单元117以及射频单元118各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
其中,所述存储器111可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(ElectricErasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序。所述处理器113以及其它可能的组件对存储器111的访问可在所述存储控制器112的控制下进行。
所述处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(DSP))、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述外设接口114将各种输入/输出装置耦合至所述处理器113以及所述存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其它一些实例中,它们可以分别由独立的芯片实现。
所述输入输出单元115用于提供给用户输入数据实现用户与所述交通监控系统100的交互。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
所述音频单元116向用户提供音频接口,其可包括一个或多个麦克风、一个或者多个扬声器以及音频电路。
所述显示单元117在所述交通监控系统100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据。在本实施例中,所述显示单元117可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
所述射频单元118用于接收以及发送无线电波信号(如电磁波),实现无线电波与电信号的相互转换,从而实现所述交通监控系统100与所述网络300或者其它通信设备之间的通信。
需要说明的是:上述本申请实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本申请实施例特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以依据不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本申请实施例中的各个实施例均依据递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于以上不同实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,上述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
Claims (5)
1.一种基于视频监控的交通目标检测方法,其特征在于,所述方法包括:
获取目标交通路段监控视频,所述目标交通路段监控视频包括多个交通目标;
将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据;
基于所述交通目标状态检测数据对所述目标交通路段的下一个节点的交通目标迭代状态进行预测;
所述交通目标检测网络在初始化长短期记忆网络的模型架构上依据下述步骤进行训练:
获取多个第一训练交通路段监控视频和多个第二训练交通路段监控视频,所述第一训练交通路段监控视频携带交通目标状态标注数据;
对所述第二训练交通路段监控视频进行特征扩展,生成第二扩展训练交通路段监控视频,所述第二扩展训练交通路段监控视频包含所述第二训练交通路段监控视频的视频上下文协同片段;
依据所述初始化长短期记忆网络对所述多个第一训练交通路段监控视频的第一交通目标状态估计数据和所述交通目标状态标注数据的比较、以及所述初始化长短期记忆网络对所述多个第二训练交通路段监控视频的第二交通目标状态估计数据和多个第二扩展训练交通路段监控视频的第三交通目标状态估计数据的比较,对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络;
所述将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据,包括:
将目标交通路段监控视频进行特征扩展,生成多个扩展目标交通路段监控视频;
将所述目标交通路段监控视频和多个所述扩展目标交通路段监控视频分别加载至所述交通目标检测网络,生成多个交通状态分布图;
依据多个所述交通状态分布图,确定所述交通目标状态检测数据;
所述交通状态分布图包括多个参考交通目标状态的预测置信度;
所述依据多个所述交通状态分布图,确定所述交通目标状态检测数据,包括:
依据多个所述交通状态分布图中同一所述参考交通目标状态的所述预测置信度,确定所述参考交通目标状态的全局预测置信度;
依据所述参考交通目标状态的全局预测置信度,从多个所述参考交通目标状态中选择所述交通目标状态检测数据;
所述对所述第二训练交通路段监控视频进行特征扩展,生成第二扩展训练交通路段监控视频,包括:
对所述第二训练交通路段监控视频进行目标数量的交通观测标签特征的特征扩展,生成所述第二训练交通路段监控视频的目标数量的交通观测标签特征的所述视频上下文协同片段;
将所述目标数量的交通观测标签特征的所述视频上下文协同片段整合成所述第二扩展训练交通路段监控视频;
所述目标数量的交通观测标签特征的确定步骤,包括:
针对多个所述第一训练交通路段监控视频和多个所述第二训练交通路段监控视频中的每个训练交通路段监控视频,确定所述训练交通路段监控视频的交通观测标签特征;
针对每种交通观测标签特征,确定具有所述交通观测标签特征的训练交通路段监控视频数量;
将所述训练交通路段监控视频数量排在前所述目标数量的所述交通观测标签特征,作为所述目标数量的交通观测标签特征。
2.根据权利要求1所述的基于视频监控的交通目标检测方法,其特征在于,所述依据所述初始化长短期记忆网络对所述多个第一训练交通路段监控视频的第一交通目标状态估计数据和所述交通目标状态标注数据的比较、以及所述初始化长短期记忆网络对所述多个第二训练交通路段监控视频的第二交通目标状态估计数据和多个第二扩展训练交通路段监控视频的第三交通目标状态估计数据的比较,对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络,包括:
依据所述第一训练交通路段监控视频的所述第一交通目标状态估计数据和所述交通目标状态标注数据,确定第一交通状态训练子误差;
对多个所述第一训练交通路段监控视频的所述第一交通状态训练子误差进行均值计算,生成第一交通状态训练误差;
依据所述第二训练交通路段监控视频的所述第二交通目标状态估计数据和所述第三交通目标状态估计数据确定第二交通状态训练子误差;
对多个所述第二训练交通路段监控视频的所述第二交通状态训练子误差进行均值计算,生成第二交通状态训练误差;
获取所述第一交通状态训练误差的第一代表性参数和所述第二交通状态训练误差的第二代表性参数;
依据所述第一代表性参数和所述第二代表性参数,计算所述第一交通状态训练误差和所述第二交通状态训练误差的融合误差,作为全局交通状态训练误差;
依据所述全局交通状态训练误差对所述初始化长短期记忆网络进行参数更新,生成所述交通目标检测网络。
3.根据权利要求2所述的基于视频监控的交通目标检测方法,其特征在于,所述第一交通目标状态估计数据包括多个参考交通目标状态的第一估计置信度;
所述依据所述第一训练交通路段监控视频的所述第一交通目标状态估计数据和所述交通目标状态标注数据,确定第一交通状态训练子误差,包括:
针对每个所述第一训练交通路段监控视频,从所述第一交通目标状态估计数据中提取估计的交通目标状态与所述交通目标状态标注数据相同的所述第一估计置信度;
对所述第一估计置信度进行交叉熵损失函数计算,生成所述第一交通状态训练子误差;
所述第二交通目标状态估计数据包括多个参考交通目标状态的第二估计置信度,所述第三交通目标状态估计数据包括多个参考交通目标状态的第三估计置信度;
所述依据所述第二训练交通路段监控视频的所述第二交通目标状态估计数据和所述第三交通目标状态估计数据确定第二交通状态训练子误差,包括:
针对每个所述参考交通目标状态,确定所述参考交通目标状态的所述第二估计置信度和所述第三估计置信度的均方误差损失函数值,生成所述第二交通状态训练子误差。
4.根据权利要求1所述的基于视频监控的交通目标检测方法,其特征在于,在获取目标交通路段监控视频之后,所述基于视频监控的交通目标检测方法还包括:
对所述目标交通路段监控视频进行特征清洗,生成清洗后交通路段监控视频;
所述将所述目标交通路段监控视频加载至交通目标检测网络,生成目标交通路段的交通目标状态检测数据,包括:
将所述清洗后交通路段监控视频加载至交通目标检测网络,生成交通目标状态检测数据。
5.一种交通监控系统,其特征在于,所述交通监控系统包括处理器以及可读存储介质,所述可读存储介质存储有程序,该程序被处理器执行时实现权利要求1-4任意一项所述的基于视频监控的交通目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311414730.1A CN117152692B (zh) | 2023-10-30 | 2023-10-30 | 基于视频监控的交通目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311414730.1A CN117152692B (zh) | 2023-10-30 | 2023-10-30 | 基于视频监控的交通目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117152692A CN117152692A (zh) | 2023-12-01 |
CN117152692B true CN117152692B (zh) | 2024-02-23 |
Family
ID=88902987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311414730.1A Active CN117152692B (zh) | 2023-10-30 | 2023-10-30 | 基于视频监控的交通目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152692B (zh) |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1294812A (zh) * | 1996-11-18 | 2001-05-09 | Mci全球通迅公司 | 一种通信系统体系结构 |
CN105517671A (zh) * | 2015-05-25 | 2016-04-20 | 北京大学深圳研究生院 | 一种基于光流法的视频插帧方法及系统 |
CN108053653A (zh) * | 2018-01-11 | 2018-05-18 | 广东蔚海数问大数据科技有限公司 | 基于lstm的车辆行为预测方法和装置 |
CN108629978A (zh) * | 2018-06-07 | 2018-10-09 | 重庆邮电大学 | 一种基于高维路网和循环神经网络的交通轨迹预测方法 |
CN108831161A (zh) * | 2018-06-27 | 2018-11-16 | 深圳大学 | 一种基于无人机的交通流量监测方法、智能系统及数据集 |
CN110163041A (zh) * | 2018-04-04 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 视频行人再识别方法、装置及存储介质 |
CN110246160A (zh) * | 2019-06-20 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 视频目标的检测方法、装置、设备及介质 |
CN110991321A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学 | 一种基于标签更正与加权特征融合的视频行人再识别方法 |
KR20200103194A (ko) * | 2019-02-18 | 2020-09-02 | 세종대학교산학협력단 | 영상 기반 비정상 상황 모니터링 방법 및 시스템 |
CN111666945A (zh) * | 2020-05-11 | 2020-09-15 | 深圳力维智联技术有限公司 | 一种基于语义分割的店面违规识别方法及装置、存储介质 |
CN111818397A (zh) * | 2020-06-29 | 2020-10-23 | 同济大学 | 一种基于长短时记忆网络变体的视频描述生成方法 |
CN111898461A (zh) * | 2020-07-08 | 2020-11-06 | 贵州大学 | 一种时序行为片段生成方法 |
WO2021112419A1 (en) * | 2019-12-04 | 2021-06-10 | Samsung Electronics Co., Ltd. | Method and electronic device for automatically editing video |
CN113553471A (zh) * | 2021-03-19 | 2021-10-26 | 武汉大学深圳研究院 | 一种基于空间注意力约束的lstm模型的视频摘要生成方法 |
CN114419105A (zh) * | 2022-03-14 | 2022-04-29 | 深圳市海清视讯科技有限公司 | 多目标行人轨迹预测模型训练方法、预测方法及装置 |
CN115082752A (zh) * | 2022-05-30 | 2022-09-20 | 浙江大华技术股份有限公司 | 基于弱监督的目标检测模型训练方法、装置、设备及介质 |
CN115131695A (zh) * | 2022-03-18 | 2022-09-30 | 北京奇艺世纪科技有限公司 | 视频检测模型的训练方法、视频检测方法及装置 |
CN115330912A (zh) * | 2022-10-12 | 2022-11-11 | 中国科学技术大学 | 基于音频和图像驱动的用于生成人脸说话视频的训练方法 |
WO2022241802A1 (zh) * | 2021-05-19 | 2022-11-24 | 广州广电运通金融电子股份有限公司 | 复杂路网下的短时交通流量预测方法、存储介质和系统 |
WO2022263904A1 (en) * | 2021-06-17 | 2022-12-22 | Sensetime International Pte. Ltd. | Target detection methods, apparatuses, electronic devices and computer-readable storage media |
CN116543460A (zh) * | 2023-05-05 | 2023-08-04 | 平安科技(深圳)有限公司 | 基于人工智能的时空动作识别方法及相关设备 |
CN116704433A (zh) * | 2023-05-25 | 2023-09-05 | 中科(黑龙江)数字经济研究院有限公司 | 基于上下文感知关系预测编码的自监督群体行为识别方法 |
CN116863920A (zh) * | 2023-07-17 | 2023-10-10 | 北京邮电大学 | 基于双流自监督网络的语音识别方法、装置、设备及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561146B (zh) * | 2020-12-08 | 2023-04-18 | 哈尔滨工程大学 | 一种基于模糊逻辑和深度lstm的大规模实时交通流预测方法 |
KR20220169373A (ko) * | 2021-06-17 | 2022-12-27 | 센스타임 인터내셔널 피티이. 리미티드. | 타겟 검출 방법들, 장치들, 전자 디바이스들 및 컴퓨터 판독가능한 저장 매체 |
-
2023
- 2023-10-30 CN CN202311414730.1A patent/CN117152692B/zh active Active
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1294812A (zh) * | 1996-11-18 | 2001-05-09 | Mci全球通迅公司 | 一种通信系统体系结构 |
CN105517671A (zh) * | 2015-05-25 | 2016-04-20 | 北京大学深圳研究生院 | 一种基于光流法的视频插帧方法及系统 |
CN108053653A (zh) * | 2018-01-11 | 2018-05-18 | 广东蔚海数问大数据科技有限公司 | 基于lstm的车辆行为预测方法和装置 |
CN110163041A (zh) * | 2018-04-04 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 视频行人再识别方法、装置及存储介质 |
CN108629978A (zh) * | 2018-06-07 | 2018-10-09 | 重庆邮电大学 | 一种基于高维路网和循环神经网络的交通轨迹预测方法 |
CN108831161A (zh) * | 2018-06-27 | 2018-11-16 | 深圳大学 | 一种基于无人机的交通流量监测方法、智能系统及数据集 |
KR20200103194A (ko) * | 2019-02-18 | 2020-09-02 | 세종대학교산학협력단 | 영상 기반 비정상 상황 모니터링 방법 및 시스템 |
CN110246160A (zh) * | 2019-06-20 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 视频目标的检测方法、装置、设备及介质 |
CN110991321A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学 | 一种基于标签更正与加权特征融合的视频行人再识别方法 |
WO2021112419A1 (en) * | 2019-12-04 | 2021-06-10 | Samsung Electronics Co., Ltd. | Method and electronic device for automatically editing video |
CN111666945A (zh) * | 2020-05-11 | 2020-09-15 | 深圳力维智联技术有限公司 | 一种基于语义分割的店面违规识别方法及装置、存储介质 |
CN111818397A (zh) * | 2020-06-29 | 2020-10-23 | 同济大学 | 一种基于长短时记忆网络变体的视频描述生成方法 |
CN111898461A (zh) * | 2020-07-08 | 2020-11-06 | 贵州大学 | 一种时序行为片段生成方法 |
CN113553471A (zh) * | 2021-03-19 | 2021-10-26 | 武汉大学深圳研究院 | 一种基于空间注意力约束的lstm模型的视频摘要生成方法 |
WO2022241802A1 (zh) * | 2021-05-19 | 2022-11-24 | 广州广电运通金融电子股份有限公司 | 复杂路网下的短时交通流量预测方法、存储介质和系统 |
WO2022263904A1 (en) * | 2021-06-17 | 2022-12-22 | Sensetime International Pte. Ltd. | Target detection methods, apparatuses, electronic devices and computer-readable storage media |
CN114419105A (zh) * | 2022-03-14 | 2022-04-29 | 深圳市海清视讯科技有限公司 | 多目标行人轨迹预测模型训练方法、预测方法及装置 |
CN115131695A (zh) * | 2022-03-18 | 2022-09-30 | 北京奇艺世纪科技有限公司 | 视频检测模型的训练方法、视频检测方法及装置 |
CN115082752A (zh) * | 2022-05-30 | 2022-09-20 | 浙江大华技术股份有限公司 | 基于弱监督的目标检测模型训练方法、装置、设备及介质 |
CN115330912A (zh) * | 2022-10-12 | 2022-11-11 | 中国科学技术大学 | 基于音频和图像驱动的用于生成人脸说话视频的训练方法 |
CN116543460A (zh) * | 2023-05-05 | 2023-08-04 | 平安科技(深圳)有限公司 | 基于人工智能的时空动作识别方法及相关设备 |
CN116704433A (zh) * | 2023-05-25 | 2023-09-05 | 中科(黑龙江)数字经济研究院有限公司 | 基于上下文感知关系预测编码的自监督群体行为识别方法 |
CN116863920A (zh) * | 2023-07-17 | 2023-10-10 | 北京邮电大学 | 基于双流自监督网络的语音识别方法、装置、设备及介质 |
Non-Patent Citations (5)
Title |
---|
"Privacy-Preserving In-Home Fall Detection Using Visual Shielding Sensing and Private Information-Embedding";Liu Jixin等;《IEEE Transactions on multimedia》;第23卷;第 3684-3699页 * |
"Robust video tracking algorithm:a multi-feature fusion approach";Howard Wang等;《IET Computer Vision》;第12卷(第5期);第640-650页 * |
"基于深度学习的无人机航拍视频多目标检测与跟踪研究进展";范玉彬等;《航空学报》;第44卷(第18期);第1-31页 * |
"基于相关滤波器的雷达单扩展目标跟踪";李冬冬等;《航空兵器》;第29卷(第2期);第19-23页 * |
"大规模多模式交通网络构建方法对比分析";谭伟等;《北京交通大学学报》;第47卷(第4期);第45-55页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117152692A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dou et al. | A hybrid CEEMD-GMM scheme for enhancing the detection of traffic flow on highways | |
CN110991272B (zh) | 一种基于视频跟踪的多目标车辆轨迹识别方法 | |
WO2023065395A1 (zh) | 作业车辆检测与跟踪方法和系统 | |
Cheng et al. | Short-term traffic forecasting by mining the non-stationarity of spatiotemporal patterns | |
CN112489081B (zh) | 一种视觉目标跟踪方法及装置 | |
Khalkhali et al. | Vehicle tracking with Kalman filter using online situation assessment | |
CN113037783B (zh) | 一种异常行为检测方法及系统 | |
CN116402850A (zh) | 一种面向智能驾驶的多目标跟踪方法 | |
CN116166642A (zh) | 基于引导信息的时空数据填补方法、系统、设备及介质 | |
CN114802303A (zh) | 障碍物轨迹预测方法、装置、电子设备及存储介质 | |
CN113239631B (zh) | 一种提高复杂动态场景分割的建模方法及系统 | |
CN110688512A (zh) | 基于ptgan区域差距与深度神经网络的行人图像搜索算法 | |
CN112164223B (zh) | 基于云平台的智能交通信息处理方法及装置 | |
CN117152692B (zh) | 基于视频监控的交通目标检测方法及系统 | |
CN115691140B (zh) | 一种汽车充电需求时空分布的分析与预测方法 | |
Zhang et al. | Vehicle detection and tracking in remote sensing satellite vidio based on dynamic association | |
CN114708307B (zh) | 基于相关滤波器的目标跟踪方法、系统、存储介质及设备 | |
KR20240010249A (ko) | 카메라 및 영상 트랙릿을 활용한 비지도 대조 학습 기반 객체 인식 및 재식별 시스템 및 그 방법 | |
CN114241258A (zh) | 一种面向自动驾驶雷达点云数据的扩增与优化方法 | |
Doménech-Asensi et al. | On the use of Bayesian networks for real-time urban traffic measurements: a case study with low-cost devices | |
Saadat et al. | Automation of tracking trajectories in a crowded situation | |
CN112001211A (zh) | 对象检测方法、装置、设备及计算机可读存储介质 | |
CN116563769B (zh) | 一种视频目标识别追踪方法、系统、计算机及存储介质 | |
CN118172799B (zh) | 毫米波雷达行人重识别方法、设备及存储介质 | |
Yuemaier et al. | Online Sequence Clustering Algorithm for Video Trajectory Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |